JP2022514805A - 生体検出方法及び装置、記憶媒体 - Google Patents
生体検出方法及び装置、記憶媒体 Download PDFInfo
- Publication number
- JP2022514805A JP2022514805A JP2020573275A JP2020573275A JP2022514805A JP 2022514805 A JP2022514805 A JP 2022514805A JP 2020573275 A JP2020573275 A JP 2020573275A JP 2020573275 A JP2020573275 A JP 2020573275A JP 2022514805 A JP2022514805 A JP 2022514805A
- Authority
- JP
- Japan
- Prior art keywords
- image
- key points
- detected
- key point
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
Description
本願は、2019年11月27日に中国特許局に提出された出願番号201911184524.X、名称「生体検出方法及び装置、記憶媒体」の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
前記第1画像及び前記第2画像をそれぞれ、事前構築されたキーポイント検出モデルに入力し、前記第1画像及び前記第2画像にそれぞれ含まれる複数のキーポイントのキーポイント情報をそれぞれ得ることを含んでもよい。
ただし、fは、両眼カメラに対応する焦点距離値であり、bは、光心距離値であり、dは、2枚の画像での、キーポイントの視差である。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得ることと、
前記第1画像及び前記第2画像におけるキーポイント情報を決定することと、
前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定することと、
前記複数のキーポイントにそれぞれ対応する深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定することと、を含む、生体検出方法。
(項目2)
前記両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得る前に、
前記両眼カメラに対してキャリブレーションを行い、キャリブレーション結果を得ることであって、前記キャリブレーション結果は、前記両眼カメラのそれぞれの内部パラメータ及び前記両眼カメラ間の外部パラメータを含む、ことを更に含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第1画像及び第2画像を得た後、
前記キャリブレーション結果に基づいて、前記第1画像及び前記第2画像に対して両眼補正を行うことを更に含むことを特徴とする
項目2に記載の方法。
(項目4)
前記第1画像及び前記第2画像におけるキーポイント情報を決定することは、
前記第1画像及び前記第2画像をそれぞれ、事前構築されたキーポイント検出モデルに入力し、前記第1画像及び前記第2画像にそれぞれ含まれる複数のキーポイントのキーポイント情報をそれぞれ得ることを含むことを特徴とする
項目3に記載の方法。
(項目5)
前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定することは、
前記キャリブレーション結果に基づいて、前記両眼カメラに含まれる2つのカメラ間の光心距離値及び前記両眼カメラに対応する焦点距離値を決定することと、
前記第1画像での前記複数のキーポイントのうちの各キーポイントの水平方向位置と、前記第2画像での前記複数のキーポイントのうちの各キーポイントの水平方向位置と、の位置差分値を決定することと、
前記光心距離値と前記焦点距離値との積を前記位置差分値で除算した商を算出し、前記各キーポイントに対応する前記深度情報を得ることと、を含むことを特徴とする
項目3又は4に記載の方法。
(項目6)
前記複数のキーポイントにそれぞれ対応する深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定することは、
前記複数のキーポイントのそれぞれに対応する前記深度情報を事前訓練された分類器に入力し、前記分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得ることと、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属することを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属しないことであると決定し、前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属することであると決定することと、を含むことを特徴とする
項目1~5のうちいずれか一項に記載の方法。
(項目7)
前記ベクトルマシン分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得た後、前記方法は、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記第1画像及び前記第2画像を事前構築された生体検出モデルに入力し、前記生体検出モデルから出力された第2出力結果を得ることと、
前記第2出力結果に基づいて、前記検出対象が生体に属するかどうかを示すための前記検出結果を決定することと、を更に含むことを特徴とする
項目6に記載の方法。
(項目8)
前記検出されるべき対象は、顔を含み、前記キーポイント情報は、顔キーポイント情報を含むことを特徴とする
項目1~7のうちいずれか一項に記載の方法。
(項目9)
両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得るように構成される画像収集モジュールと、
前記第1画像及び前記第2画像におけるキーポイント情報を決定するように構成される第1決定モジュールと、
前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定するように構成される第2決定モジュールと、
前記複数のキーポイントにそれぞれ対応する前記深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定するように構成される第3決定モジュールと、を備える、生体検出装置。
(項目10)
前記両眼カメラに対してキャリブレーションを行い、キャリブレーション結果を得るように構成されるキャリブレーションモジュールであって、前記キャリブレーション結果は、前記両眼カメラのそれぞれの内部パラメータ及び前記両眼カメラ間の外部パラメータを含む、キャリブレーションモジュールを更に備えることを特徴とする
項目9に記載の装置。
(項目11)
前記キャリブレーション結果に基づいて、前記第1画像及び前記第2画像に対して両眼補正を行うように構成される補正モジュールを更に備えることを特徴とする
項目10に記載の装置。
(項目12)
前記第1決定モジュールは、
前記第1画像及び前記第2画像をそれぞれ、事前構築されたキーポイント検出モデルに入力し、前記第1画像及び前記第2画像にそれぞれ含まれる複数のキーポイントのキーポイント情報をそれぞれ得るように構成される第1決定サブモジュールを備えることを特徴とする
項目11に記載の装置。
(項目13)
前記第2決定モジュールは、
前記キャリブレーション結果に基づいて、前記両眼カメラに含まれる2つのカメラ間の光心距離値及び前記両眼カメラに対応する焦点距離値を決定するように構成される第2決定サブモジュールと、
前記第1画像での、前記複数のキーポイントのうちの各キーポイントの水平方向位置と、前記第2画像での、前記複数のキーポイントのうちの各キーポイントの水平方向位置と、の位置差分値を決定するように構成される第3決定サブモジュールと、
前記光心距離値と前記焦点距離値との積を前記位置差分値で除算した商を算出し、前記各キーポイントに対応する前記深度情報を得るように構成される第4決定サブモジュールと、を備えることを特徴とする
項目11又は12に記載の装置。
(項目14)
前記第3決定モジュールは、
前記複数のキーポイントのそれぞれに対応する前記深度情報を事前訓練された分類器に入力し、前記分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得るように構成される第5決定サブモジュールと、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属することを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属しないことであると決定し、前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属することであると決定するように構成される第6決定サブモジュールと、を備えることを特徴とする
項目9~13のうちいずれか一項に記載の装置。
(項目15)
前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記第1画像及び前記第2画像を事前構築された生体検出モデルに入力し、前記生体検出モデルから出力された第2出力結果を得るように構成される第4決定モジュールと、
前記第2出力結果に基づいて、前記検出対象が生体に属するかどうかを示すための前記検出結果を決定するように構成される第5決定モジュールと、を更に備えることを特徴とする
項目14に記載の装置。
(項目16)
前記検出されるべき対象は、顔を含み、前記キーポイント情報は、顔キーポイント情報を含むことを特徴とする
項目9~15のうちいずれか一項に記載の装置。
(項目17)
コンピュータに項目1~8のうちいずれか一項に記載の生体検出方法を実現させるためのコンピュータプログラムを記憶したコンピュータ可読記憶媒体。
(項目18)
プロセッサによる実行可能な命令を記憶するためのメモリと、
前記メモリに記憶された実行可能な命令を呼び出して、項目1~8のうちいずれか一項に記載の生体検出方法を実行するように構成されるプロセッサと、を備える生体検出装置。
(項目19)
コンピュータに項目1~8のうちいずれか一項に記載の生体検出方法を実行させるためのコンピュータプログラム。
Claims (19)
- 両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得ることと、
前記第1画像及び前記第2画像におけるキーポイント情報を決定することと、
前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定することと、
前記複数のキーポイントにそれぞれ対応する深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定することと、を含む、生体検出方法。 - 前記両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得る前に、
前記両眼カメラに対してキャリブレーションを行い、キャリブレーション結果を得ることであって、前記キャリブレーション結果は、前記両眼カメラのそれぞれの内部パラメータ及び前記両眼カメラ間の外部パラメータを含む、ことを更に含むことを特徴とする
請求項1に記載の方法。 - 前記第1画像及び第2画像を得た後、
前記キャリブレーション結果に基づいて、前記第1画像及び前記第2画像に対して両眼補正を行うことを更に含むことを特徴とする
請求項2に記載の方法。 - 前記第1画像及び前記第2画像におけるキーポイント情報を決定することは、
前記第1画像及び前記第2画像をそれぞれ、事前構築されたキーポイント検出モデルに入力し、前記第1画像及び前記第2画像にそれぞれ含まれる複数のキーポイントのキーポイント情報をそれぞれ得ることを含むことを特徴とする
請求項3に記載の方法。 - 前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定することは、
前記キャリブレーション結果に基づいて、前記両眼カメラに含まれる2つのカメラ間の光心距離値及び前記両眼カメラに対応する焦点距離値を決定することと、
前記第1画像での前記複数のキーポイントのうちの各キーポイントの水平方向位置と、前記第2画像での前記複数のキーポイントのうちの各キーポイントの水平方向位置と、の位置差分値を決定することと、
前記光心距離値と前記焦点距離値との積を前記位置差分値で除算した商を算出し、前記各キーポイントに対応する前記深度情報を得ることと、を含むことを特徴とする
請求項3又は4に記載の方法。 - 前記複数のキーポイントにそれぞれ対応する深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定することは、
前記複数のキーポイントのそれぞれに対応する前記深度情報を事前訓練された分類器に入力し、前記分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得ることと、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属することを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属しないことであると決定し、前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属することであると決定することと、を含むことを特徴とする
請求項1~5のうちいずれか一項に記載の方法。 - 前記ベクトルマシン分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得た後、前記方法は、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記第1画像及び前記第2画像を事前構築された生体検出モデルに入力し、前記生体検出モデルから出力された第2出力結果を得ることと、
前記第2出力結果に基づいて、前記検出対象が生体に属するかどうかを示すための前記検出結果を決定することと、を更に含むことを特徴とする
請求項6に記載の方法。 - 前記検出されるべき対象は、顔を含み、前記キーポイント情報は、顔キーポイント情報を含むことを特徴とする
請求項1~7のうちいずれか一項に記載の方法。 - 両眼カメラにより、検出されるべき対象を含む画像をそれぞれ収集し、第1画像及び第2画像を得るように構成される画像収集モジュールと、
前記第1画像及び前記第2画像におけるキーポイント情報を決定するように構成される第1決定モジュールと、
前記第1画像及び前記第2画像における前記キーポイント情報に基づいて、前記検出されるべき画像に含まれる複数のキーポイントにそれぞれ対応する深度情報を決定するように構成される第2決定モジュールと、
前記複数のキーポイントにそれぞれ対応する前記深度情報に基づいて、前記検出されるべき対象が生体に属するかどうかを示すための検出結果を決定するように構成される第3決定モジュールと、を備える、生体検出装置。 - 前記両眼カメラに対してキャリブレーションを行い、キャリブレーション結果を得るように構成されるキャリブレーションモジュールであって、前記キャリブレーション結果は、前記両眼カメラのそれぞれの内部パラメータ及び前記両眼カメラ間の外部パラメータを含む、キャリブレーションモジュールを更に備えることを特徴とする
請求項9に記載の装置。 - 前記キャリブレーション結果に基づいて、前記第1画像及び前記第2画像に対して両眼補正を行うように構成される補正モジュールを更に備えることを特徴とする
請求項10に記載の装置。 - 前記第1決定モジュールは、
前記第1画像及び前記第2画像をそれぞれ、事前構築されたキーポイント検出モデルに入力し、前記第1画像及び前記第2画像にそれぞれ含まれる複数のキーポイントのキーポイント情報をそれぞれ得るように構成される第1決定サブモジュールを備えることを特徴とする
請求項11に記載の装置。 - 前記第2決定モジュールは、
前記キャリブレーション結果に基づいて、前記両眼カメラに含まれる2つのカメラ間の光心距離値及び前記両眼カメラに対応する焦点距離値を決定するように構成される第2決定サブモジュールと、
前記第1画像での、前記複数のキーポイントのうちの各キーポイントの水平方向位置と、前記第2画像での、前記複数のキーポイントのうちの各キーポイントの水平方向位置と、の位置差分値を決定するように構成される第3決定サブモジュールと、
前記光心距離値と前記焦点距離値との積を前記位置差分値で除算した商を算出し、前記各キーポイントに対応する前記深度情報を得るように構成される第4決定サブモジュールと、を備えることを特徴とする
請求項11又は12に記載の装置。 - 前記第3決定モジュールは、
前記複数のキーポイントのそれぞれに対応する前記深度情報を事前訓練された分類器に入力し、前記分類器から出力された、前記複数のキーポイントが同一の平面に属するかどうかを示す第1出力結果を得るように構成される第5決定サブモジュールと、
前記第1出力結果が、前記複数のキーポイントが同一の平面に属することを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属しないことであると決定し、前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記検出結果が、前記検出されるべき対象が生体に属することであると決定するように構成される第6決定サブモジュールと、を備えることを特徴とする
請求項9~13のうちいずれか一項に記載の装置。 - 前記第1出力結果が、前記複数のキーポイントが同一の平面に属しないことを示すことに応答して、前記第1画像及び前記第2画像を事前構築された生体検出モデルに入力し、前記生体検出モデルから出力された第2出力結果を得るように構成される第4決定モジュールと、
前記第2出力結果に基づいて、前記検出対象が生体に属するかどうかを示すための前記検出結果を決定するように構成される第5決定モジュールと、を更に備えることを特徴とする
請求項14に記載の装置。 - 前記検出されるべき対象は、顔を含み、前記キーポイント情報は、顔キーポイント情報を含むことを特徴とする
請求項9~15のうちいずれか一項に記載の装置。 - コンピュータに請求項1~8のうちいずれか一項に記載の生体検出方法を実現させるためのコンピュータプログラムを記憶したコンピュータ可読記憶媒体。
- プロセッサによる実行可能な命令を記憶するためのメモリと、
前記メモリに記憶された実行可能な命令を呼び出して、請求項1~8のうちいずれか一項に記載の生体検出方法を実行するように構成されるプロセッサと、を備える生体検出装置。 - コンピュータに請求項1~8のうちいずれか一項に記載の生体検出方法を実行させるためのコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911184524.X | 2019-11-27 | ||
CN201911184524.XA CN110942032B (zh) | 2019-11-27 | 2019-11-27 | 活体检测方法及装置、存储介质 |
PCT/CN2020/089865 WO2021103430A1 (zh) | 2019-11-27 | 2020-05-12 | 活体检测方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022514805A true JP2022514805A (ja) | 2022-02-16 |
JP7076590B2 JP7076590B2 (ja) | 2022-05-27 |
Family
ID=69908322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573275A Active JP7076590B2 (ja) | 2019-11-27 | 2020-05-12 | 生体検出方法及び装置、記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220092292A1 (ja) |
JP (1) | JP7076590B2 (ja) |
KR (1) | KR20210074333A (ja) |
CN (1) | CN110942032B (ja) |
TW (1) | TW202121251A (ja) |
WO (1) | WO2021103430A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4743763B2 (ja) * | 2006-01-18 | 2011-08-10 | 株式会社フジキン | 圧電素子駆動式金属ダイヤフラム型制御弁 |
CN110942032B (zh) * | 2019-11-27 | 2022-07-15 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
CN111563924B (zh) * | 2020-04-28 | 2023-11-10 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN111582381B (zh) * | 2020-05-09 | 2024-03-26 | 北京市商汤科技开发有限公司 | 确定性能参数的方法及装置、电子设备和存储介质 |
CN112200057B (zh) * | 2020-09-30 | 2023-10-31 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112184787A (zh) * | 2020-10-27 | 2021-01-05 | 北京市商汤科技开发有限公司 | 图像配准方法及装置、电子设备和存储介质 |
CN112528949B (zh) * | 2020-12-24 | 2023-05-26 | 杭州慧芯达科技有限公司 | 一种基于多波段光的双目人脸识别方法和系统 |
CN113255512B (zh) * | 2021-05-21 | 2023-07-28 | 北京百度网讯科技有限公司 | 用于活体识别的方法、装置、设备以及存储介质 |
CN113393563B (zh) * | 2021-05-26 | 2023-04-11 | 杭州易现先进科技有限公司 | 关键点自动标注的方法、系统、电子装置和存储介质 |
CN113345000A (zh) * | 2021-06-28 | 2021-09-03 | 北京市商汤科技开发有限公司 | 深度检测方法及装置、电子设备和存储介质 |
CN113435342B (zh) * | 2021-06-29 | 2022-08-12 | 平安科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123216A (ja) * | 2006-11-10 | 2008-05-29 | Konica Minolta Holdings Inc | 認証システム及び認証方法 |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
JP2016156702A (ja) * | 2015-02-24 | 2016-09-01 | シャープ株式会社 | 撮像装置および撮像方法 |
JP2018173731A (ja) * | 2017-03-31 | 2018-11-08 | ミツミ電機株式会社 | 顔認証装置および顔認証方法 |
US20190354746A1 (en) * | 2018-05-18 | 2019-11-21 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
JP2022509756A (ja) * | 2018-10-30 | 2022-01-24 | オーナー・デヴァイス・カンパニー・リミテッド | 顔認識方法および電子デバイス |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046231A (zh) * | 2015-07-27 | 2015-11-11 | 小米科技有限责任公司 | 人脸检测方法和装置 |
CN105205458A (zh) * | 2015-09-16 | 2015-12-30 | 北京邮电大学 | 人脸活体检测方法、装置及系统 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN108764069B (zh) * | 2018-05-10 | 2022-01-14 | 北京市商汤科技开发有限公司 | 活体检测方法及装置 |
CN108764091B (zh) * | 2018-05-18 | 2020-11-17 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN109341537A (zh) * | 2018-09-27 | 2019-02-15 | 北京伟景智能科技有限公司 | 基于双目视觉的尺寸测量方法和装置 |
CN110942032B (zh) * | 2019-11-27 | 2022-07-15 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
-
2019
- 2019-11-27 CN CN201911184524.XA patent/CN110942032B/zh active Active
-
2020
- 2020-05-12 WO PCT/CN2020/089865 patent/WO2021103430A1/zh active Application Filing
- 2020-05-12 JP JP2020573275A patent/JP7076590B2/ja active Active
- 2020-05-12 KR KR1020217013986A patent/KR20210074333A/ko active Search and Examination
- 2020-11-10 TW TW109139226A patent/TW202121251A/zh unknown
-
2021
- 2021-12-07 US US17/544,246 patent/US20220092292A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123216A (ja) * | 2006-11-10 | 2008-05-29 | Konica Minolta Holdings Inc | 認証システム及び認証方法 |
JP2016156702A (ja) * | 2015-02-24 | 2016-09-01 | シャープ株式会社 | 撮像装置および撮像方法 |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
JP2018173731A (ja) * | 2017-03-31 | 2018-11-08 | ミツミ電機株式会社 | 顔認証装置および顔認証方法 |
US20190354746A1 (en) * | 2018-05-18 | 2019-11-21 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
JP2022509756A (ja) * | 2018-10-30 | 2022-01-24 | オーナー・デヴァイス・カンパニー・リミテッド | 顔認識方法および電子デバイス |
Also Published As
Publication number | Publication date |
---|---|
US20220092292A1 (en) | 2022-03-24 |
KR20210074333A (ko) | 2021-06-21 |
TW202121251A (zh) | 2021-06-01 |
CN110942032B (zh) | 2022-07-15 |
CN110942032A (zh) | 2020-03-31 |
WO2021103430A1 (zh) | 2021-06-03 |
JP7076590B2 (ja) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7076590B2 (ja) | 生体検出方法及び装置、記憶媒体 | |
US9626553B2 (en) | Object identification apparatus and object identification method | |
JP6011102B2 (ja) | 物体姿勢推定方法 | |
US9866820B1 (en) | Online calibration of cameras | |
US20130136302A1 (en) | Apparatus and method for calculating three dimensional (3d) positions of feature points | |
WO2016111880A1 (en) | Gaze detection offset for gaze tracking models | |
JP6067175B2 (ja) | 位置測定装置及び位置測定方法 | |
CN111028205B (zh) | 一种基于双目测距的眼睛瞳孔定位方法及装置 | |
CN107808398B (zh) | 摄像头参数算出装置以及算出方法、程序、记录介质 | |
CN109389018B (zh) | 一种人脸角度识别方法、装置及设备 | |
JP5833507B2 (ja) | 画像処理装置 | |
CN106462738B (zh) | 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备 | |
CN111563924B (zh) | 图像深度确定方法及活体识别方法、电路、设备和介质 | |
CN112633084A (zh) | 人脸框确定方法、装置、终端设备及存储介质 | |
WO2022218161A1 (zh) | 用于目标匹配的方法、装置、设备及存储介质 | |
CN113902853A (zh) | 一种人脸三维重建方法、装置、电子设备及存储介质 | |
CN112200002B (zh) | 一种体温测量方法、装置、终端设备及存储介质 | |
JP2015007637A (ja) | 3次元測定装置 | |
CN115049738A (zh) | 人与相机之间距离的估计方法及系统 | |
US20230267632A1 (en) | Stereo matching method and image processing device performing same | |
JP6118976B2 (ja) | 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム | |
CN112102404A (zh) | 物体检测追踪方法、装置及头戴显示设备 | |
CN112330726B (zh) | 一种图像处理方法及装置 | |
TWI731430B (zh) | 資訊顯示方法與資訊顯示系統 | |
JP2017162449A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7076590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |