CN110852134A - 活体检测方法、装置及系统、电子设备和存储介质 - Google Patents
活体检测方法、装置及系统、电子设备和存储介质 Download PDFInfo
- Publication number
- CN110852134A CN110852134A CN201810846587.6A CN201810846587A CN110852134A CN 110852134 A CN110852134 A CN 110852134A CN 201810846587 A CN201810846587 A CN 201810846587A CN 110852134 A CN110852134 A CN 110852134A
- Authority
- CN
- China
- Prior art keywords
- depth map
- target object
- detection result
- living body
- quality detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 364
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000001727 in vivo Methods 0.000 claims abstract description 4
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007689 inspection Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 description 73
- 238000013528 artificial neural network Methods 0.000 description 53
- 238000010586 diagram Methods 0.000 description 18
- 238000010606 normalization Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 12
- 238000005070 sampling Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000001574 biopsy Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本公开涉及一种活体检测方法、装置及系统、电子设备和存储介质。所述方法包括:获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果;基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。本公开能够提高活体检测的准确性。
Description
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种活体检测方法、装置及系统、电子设备和存储介质。
背景技术
目前,人脸识别技术已被广泛应用于人脸解锁、人脸支付、无人超市和视频监控等场景中。然而,人脸识别技术存在容易被人脸的实体照片、人脸的电子照片或者包含人脸的视频等形式的非活体人脸攻击的风险。因此,活体检测是人脸识别中必不可少的一个环节。
发明内容
有鉴于此,本公开提出了一种活体检测技术方案。
根据本公开的一方面,提供了一种活体检测方法,包括:获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果;基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
在一种可能的实现方式中,所述第一传感器为飞行时间TOF传感器或者结构光传感器。
在一种可能的实现方式中,所述第二传感器为RGB传感器或者近红外传感器。
在一种可能的实现方式中,所述对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果,包括:确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果,包括:基于所述目标对象对应区域的至少一个失效位置在所述目标对象对应区域中所占的比例,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果,包括:基于所述目标对象对应区域的至少一个失效位置以及所述至少一个失效位置对应的权重,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述确定所述第一深度图中所述目标对象对应区域的至少一个失效位置,包括:将所述目标对象对应区域中深度值等于零的位置确定为所述失效位置。
在一种可能的实现方式中,对所述第一深度图进行质量检测,得到所述第一深度图的第一深度图的质量检测结果,包括:将所述第一深度图输入第一神经网络进行处理,得到所述第一深度图对应的质量置信度;基于第一深度图对应的质量置信度,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述基于第一深度图对应的质量置信度,得到所述第一深度图的质量检测结果,包括:若所述第一深度图对应的质量置信度大于第一阈值,则确定所述第一深度图的质量检测结果为质量合格;和/或若所述第一深度图对应的质量置信度小于或等于所述第一阈值,则确定所述第一深度图的质量检测结果为质量不合格。
在一种可能的实现方式中,所述方法还包括:对所述第一目标图像进行关键点检测,得到所述目标对象的关键点信息;基于所述目标对象的关键点信息,从所述第一深度图中确定所述目标对象对应区域。
在一种可能的实现方式中,在对所述第一目标图像进行关键点检测之前,所述方法还包括:根据所述第一传感器的参数以及所述第二传感器的参数,对齐所述第一深度图和所述第一目标图像。
在一种可能的实现方式中,所述基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果,包括:在所述第一深度图的质量检测结果为质量合格的情况下,基于所述第一深度图和所述第一目标图像中包含的所述目标对象的关键点信息,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述基于所述第一深度图和所述第一目标图像中包含的所述目标对象的关键点信息,得到所述目标对象的活体检测结果,包括:基于所述第一深度图和所述目标对象的关键点信息,得到第一特征信息;基于所述目标对象的关键点信息,得到第二特征信息;基于所述第一特征信息和所述第二特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述基于所述第一深度图和所述目标对象的关键点信息,得到第一特征信息,包括:将所述第一深度图和所述目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息;基于所述目标对象的关键点信息,得到第二特征信息,包括:将所述第一目标图像和所述目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
在一种可能的实现方式中,所述基于所述第一深度图和所述目标对象的关键点信息,得到第一特征信息,包括:对所述第一深度图和所述目标对象的关键点信息进行卷积处理,得到第一卷积结果;对所述第一卷积结果进行下采样处理,得到第一下采样结果;基于所述第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,所述基于所述目标对象的关键点信息,得到第二特征信息,包括:对所述第一目标图像和所述目标对象的关键点信息进行卷积处理,得到第二卷积结果;对所述第二卷积结果进行下采样处理,得到第二下采样结果;基于所述第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,所述基于所述第一特征信息和所述第二特征信息,确定所述目标对象的活体检测结果,包括:对所述第一特征信息和所述第二特征信息进行全连接运算,得到第三特征信息;根据所述第三特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述根据所述第三特征信息,确定活体检测结果,包括:基于所述第三特征信息,得到所述目标对象为活体的概率;根据所述目标对象为活体的概率,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果,包括:在所述第一深度图的质量检测结果为质量不合格的情况下,确定所述目标对象的活体检测结果为非活体;或者在所述第一深度图的质量检测结果为质量不合格的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果,包括:在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果,包括:在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对所述目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到所述第二深度图的质量检测结果;基于所述第二深度图的质量检测结果,得到所述目标对象的活体检测结果。
根据本公开的一方面,提供了一种活体检测装置,包括:获取模块,用于获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;质量检测模块,用于对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果;第一确定模块,用于基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
在一种可能的实现方式中,所述第一传感器为飞行时间TOF传感器或者结构光传感器。
在一种可能的实现方式中,所述第二传感器为RGB传感器或者近红外传感器。
在一种可能的实现方式中,所述质量检测模块包括:第一确定子模块,用于确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;第二确定子模块,用于基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述第二确定子模块用于:基于所述目标对象对应区域的至少一个失效位置在所述目标对象对应区域中所占的比例,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述第二确定子模块用于:基于所述目标对象对应区域的至少一个失效位置以及所述至少一个失效位置对应的权重,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述第一确定子模块用于:将所述目标对象对应区域中深度值等于零的位置确定为所述失效位置。
在一种可能的实现方式中,所述质量检测模块包括:处理子模块,用于将所述第一深度图输入第一神经网络进行处理,得到所述第一深度图对应的质量置信度;第三确定子模块,用于基于第一深度图对应的质量置信度,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述第三确定子模块用于:若所述第一深度图对应的质量置信度大于第一阈值,则确定所述第一深度图的质量检测结果为质量合格;和/或若所述第一深度图对应的质量置信度小于或等于所述第一阈值,则确定所述第一深度图的质量检测结果为质量不合格。
在一种可能的实现方式中,所述装置还包括:关键点检测模块,用于对所述第一目标图像进行关键点检测,得到所述目标对象的关键点信息;第二确定模块,用于基于所述目标对象的关键点信息,从所述第一深度图中确定所述目标对象对应区域。
在一种可能的实现方式中,所述装置还包括:对齐模块,用于根据所述第一传感器的参数以及所述第二传感器的参数,对齐所述第一深度图和所述第一目标图像。
在一种可能的实现方式中,所述第一确定模块用于:在所述第一深度图的质量检测结果为质量合格的情况下,基于所述第一深度图和所述第一目标图像中包含的所述目标对象的关键点信息,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第一确定模块包括:第四确定子模块,用于基于所述第一深度图和所述目标对象的关键点信息,得到第一特征信息;第五确定子模块,用于基于所述目标对象的关键点信息,得到第二特征信息;第六确定子模块,用于基于所述第一特征信息和所述第二特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第四确定子模块用于:将所述第一深度图和所述目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息;所述第五确定子模块用于:将所述第一目标图像和所述目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
在一种可能的实现方式中,所述第四确定子模块用于:对所述第一深度图和所述目标对象的关键点信息进行卷积处理,得到第一卷积结果;对所述第一卷积结果进行下采样处理,得到第一下采样结果;基于所述第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,所述第五确定子模块用于:对所述第一目标图像和所述目标对象的关键点信息进行卷积处理,得到第二卷积结果;对所述第二卷积结果进行下采样处理,得到第二下采样结果;基于所述第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,所述第六确定子模块用于:对所述第一特征信息和所述第二特征信息进行全连接运算,得到第三特征信息;根据所述第三特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第六确定子模块用于:基于所述第三特征信息,得到所述目标对象为活体的概率;根据所述目标对象为活体的概率,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第一确定模块用于:在所述第一深度图的质量检测结果为质量不合格的情况下,确定所述目标对象的活体检测结果为非活体;或者在所述第一深度图的质量检测结果为质量不合格的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第一确定模块用于:在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述第一确定模块包括:质量检测子模块,用于在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对所述目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到所述第二深度图的质量检测结果;第七确定子模块,用于基于所述第二深度图的质量检测结果,得到所述目标对象的活体检测结果。
根据本公开的一方面,提供了一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述活体检测方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述活体检测方法。
根据本公开的一方面,提供了一种活体检测系统,包括:所述电子设备、所述第一传感器和所述第二传感器。
根据本公开的一方面,提供了一种活体检测系统,包括:所述计算机可读存储介质、所述第一传感器和所述第二传感器。
根据本公开的一方面,提供了一种电子设备,包括:第一传感器,用于检测目标对象的第一深度图;第二传感器,用于采集包括所述目标对象的第一目标图像;处理器,用于对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果,并基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
在一种可能的实现方式中,所述第一传感器为飞行时间TOF传感器或者结构光传感器。
在一种可能的实现方式中,所述第二传感器为RGB传感器或者近红外传感器。
在一种可能的实现方式中,所述处理器用于:确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述处理器用于:基于所述目标对象对应区域的至少一个失效位置在所述目标对象对应区域中所占的比例,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述处理器用于:基于所述目标对象对应区域的至少一个失效位置以及所述至少一个失效位置对应的权重,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述处理器用于:将所述目标对象对应区域中深度值等于零的位置确定为所述失效位置。
在一种可能的实现方式中,所述处理器用于:将所述第一深度图输入第一神经网络进行处理,得到所述第一深度图对应的质量置信度;基于第一深度图对应的质量置信度,得到所述第一深度图的质量检测结果。
在一种可能的实现方式中,所述处理器用于:若所述第一深度图对应的质量置信度大于第一阈值,则确定所述第一深度图的质量检测结果为质量合格;和/或若所述第一深度图对应的质量置信度小于或等于所述第一阈值,则确定所述第一深度图的质量检测结果为质量不合格。
在一种可能的实现方式中,所述处理器还用于:对所述第一目标图像进行关键点检测,得到所述目标对象的关键点信息;基于所述目标对象的关键点信息,从所述第一深度图中确定所述目标对象对应区域。
在一种可能的实现方式中,所述处理器还用于:根据所述第一传感器的参数以及所述第二传感器的参数,对齐所述第一深度图和所述第一目标图像。
在一种可能的实现方式中,所述处理器用于:在所述第一深度图的质量检测结果为质量合格的情况下,基于所述第一深度图和所述第一目标图像中包含的所述目标对象的关键点信息,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:基于所述第一深度图和所述目标对象的关键点信息,得到第一特征信息;基于所述目标对象的关键点信息,得到第二特征信息;基于所述第一特征信息和所述第二特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:将所述第一深度图和所述目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息;基于所述目标对象的关键点信息,得到第二特征信息,包括:将所述第一目标图像和所述目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
在一种可能的实现方式中,所述处理器用于:对所述第一深度图和所述目标对象的关键点信息进行卷积处理,得到第一卷积结果;对所述第一卷积结果进行下采样处理,得到第一下采样结果;基于所述第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,所述处理器用于:对所述第一目标图像和所述目标对象的关键点信息进行卷积处理,得到第二卷积结果;对所述第二卷积结果进行下采样处理,得到第二下采样结果;基于所述第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,所述处理器用于:对所述第一特征信息和所述第二特征信息进行全连接运算,得到第三特征信息;根据所述第三特征信息,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:基于所述第三特征信息,得到所述目标对象为活体的概率;根据所述目标对象为活体的概率,确定所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:在所述第一深度图的质量检测结果为质量不合格的情况下,确定所述目标对象的活体检测结果为非活体;或者在所述第一深度图的质量检测结果为质量不合格的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用所述第一深度图的条件下对所述目标对象进行活体检测,得到所述目标对象的活体检测结果。
在一种可能的实现方式中,所述处理器用于:在所述第一深度图的质量检测结果为质量不合格且对所述第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对所述目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到所述第二深度图的质量检测结果;基于所述第二深度图的质量检测结果,得到所述目标对象的活体检测结果。
本公开的活体检测方法通过获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像,对第一深度图进行质量检测,得到第一深度图的质量检测结果,并基于第一深度图的质量检测结果确定第一目标图像中目标对象的活体检测结果,由此能够提高活体检测的准确性。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开实施例的活体检测方法的流程图。
图2示出根据本公开实施例的活体检测方法中对第一深度图进行质量检测的一示例性的流程图。
图3示出根据本公开实施例的活体检测方法中对第一深度图进行质量检测的另一示例性的流程图。
图4示出根据本公开实施例的活体检测方法中基于第一深度图和第一目标图像得到目标对象的活体检测结果的一示例性的流程图。
图5示出根据本公开实施例的活体检测方法中基于第一深度图和目标对象的关键点信息,得到第一特征信息的一示例性的流程图。
图6示出根据本公开实施例的活体检测方法中基于目标对象的关键点信息,得到第二特征信息的一示例性的流程图。
图7示出根据本公开实施例的活体检测方法中基于第一特征信息和第二特征信息,确定目标对象的活体检测结果的一示例性的流程图。
图8示出根据本公开实施例的活体检测方法中根据第三特征信息,确定目标对象的活体检测结果的一示例性的流程图。
图9示出根据本公开实施例的活体检测装置的框图。
图10示出根据本公开实施例的活体检测装置的一示例性的框图。
图11示出根据本公开实施例的电子设备的一示例性的框图。
图12示出根据本公开实施例的电子设备的另一示例性的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开实施例的活体检测方法的流程图。该方法可以应用于手机、平板电脑、数码相机或者门禁设备等具有人脸识别功能的终端设备中。该方法可以应用于线上账户注册、门禁系统、人脸解锁、人脸支付、辅助驾驶、无人超市、视频监控、ATM(Automatic Teller Machine,自动取款机)、车站检票机、机场检票机或者智能楼宇等场景中。如图1所示,该方法包括步骤S11至步骤S13。
在步骤S11中,获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像。
在本公开实施例中,目标图像包含目标对象,其中,目标图像可以为静态图像或者为视频帧图像,例如,目标图像可以为从视频序列中选取的图像,可以通过多种方式从视频序列中选取图像,在一个具体例子中,目标图像为从视频序列中选取的满足预设质量条件的图像,该预设质量条件可以包括下列中的一种或任意组合:是否包含目标对象、目标对象是否位于图像的中心区域、目标对象是否完整的包含在图像中,目标对象在图像中所占比例、目标对象的状态或姿态、图像清晰度、图像曝光度,等等,本公开实施例对此不做限定。
目标对象可以为人脸、人体、动物或其他活体对象,本公开实施例对此不做限定。在一种可能的实现方式中,目标对象为人脸。
第一深度图和第一目标图像相对应,例如,第一深度图和第一目标图像分别为第一传感器和第二传感器针对同一场景采集到的,或者,第一深度图和第一目标图像为第一传感器和第二传感器在同一时刻针对同一目标区域采集到的,但本公开实施例对此不做限定。
在本公开实施例中,第一传感器用于采集深度信息,第二传感器用于采集二维图像。
在一种可能的实现方式中,第一传感器为三维传感器。例如,第一传感器可以为TOF(Time of Flight,飞行时间)传感器或者结构光传感器。其中,结构光传感器可以为编码结构光传感器或者散斑结构光传感器。通过三维传感器获取目标对象的深度图,可以获得高精度的深度图。本公开实施例利用包含目标对象的深度图进行活体检测,能够充分挖掘目标对象的深度信息,从而能够提高活体检测的准确性。例如,当目标对象为人脸时,本公开实施例利用包含人脸的深度图进行活体检测,能够充分挖掘人脸数据的深度信息,从而能够提高活体人脸检测的准确性。
需要说明的是,尽管以飞行时间TOF传感器或者结构光传感器介绍了第一传感器如上,但本领域技术人员能够理解,本公开应不限于此。本领域技术人员可以根据实际应用场景需求和/或个人喜好灵活选择第一传感器的类型,只要能够通过第一传感器采集到目标对象的深度图即可。
在一种可能的实现方式中,第二传感器为RGB(Red,红;Green,绿;Blue,蓝)传感器或者近红外传感器。若第二传感器为RGB传感器,则第二传感器采集到的目标图像为RGB图像。若第二传感器为近红外传感器,则第二传感器采集到的目标图像为近红外图像。其中,近红外图像可以为带光斑的近红外图像,也可以为不带光斑的近红外图像。
需要说明的是,尽管以TOF传感器和结构光传感器为例对第一传感器进行了说明,并以RGB传感器和近红外传感器为例对第二传感器进行了说明,但本领域技术人员能够理解,本公开实施例应不限于此。本领域技术人员可以根据实际应用需求选择第一传感器和第二传感器的类型,只要分别能够实现对深度图和图像的采集即可。
在步骤S12中,对第一深度图进行质量检测,得到第一深度图的质量检测结果。
其中,在一些实现方式中,第一深度图的质量检测结果为质量合格或者质量不合格。
在某些特定场景(如室外强光场景)下,第一传感器(例如TOF传感器或者结构光传感器)容易出现深度图大面积失效或者完全失效的情况。此外,正常光照下,由于眼镜反光、黑色头发或者黑色眼镜边框等因素也会随机引起深度图局部失效。而某些特殊的纸质能够使得打印出的人脸照片产生类似的深度图大面积失效或者局部失效的效果。另外,通过遮挡第一传感器的主动光源也可以使得深度图失效,同时非活体在第二传感器的成像正常。因此,在目标对象的深度图失效的一些情况下,目标对象的深度图已不足以区分活体和非活体,甚至会起反作用。因此,在本公开实施例中,通过对第一深度图进行质量检测,并对质量检测结果不合格的情况进行适当处理,以避免第一深度图在活体检测中起到反作用。
在步骤S13中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果。
其中,在一些实现方式中,目标对象的活体检测结果可以为目标对象为活体或者目标对象为非活体。
在一种可能的实现方式中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果,包括:在第一深度图的质量检测结果为质量合格的情况下,基于第一深度图和第一目标图像,得到目标对象的活体检测结果。
在一个具体例子中,可以获取第一目标图像中包含的目标对象的关键点信息,并基于第一深度图和第一目标图像中包含的目标对象的关键点信息,得到目标对象的活体检测结果。
在该实现方式中,若第一深度图的质量检测结果为质量合格,则结合第一深度图和第一目标图像中包含的目标对象的关键点信息进行活体检测。通过在活体检测中增加深度图,能够有效防御高清无痕图像类攻击(这类攻击容易攻破单目活体检测技术),从而能够提高活体检测的准确性。
在另一种可能的实现方式中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果,包括:在第一深度图的质量检测结果为质量不合格的情况下,确定目标对象的活体检测结果为非活体。例如,当某一应用场景无需考虑室外强光场景,或者深度图质量不合格的概率远低于预设概率时,若第一深度图的质量检测结果为质量不合格,则可以直接确定目标对象的活体检测结果为目标对象为非活体。其中,预设概率表示预设的活体误判为非活体的最大概率。
在另一种可能的实现方式中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果,包括:在第一深度图的质量检测结果为质量不合格的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果,也就是说,基于对第一目标图像的处理结果得到目标对象的活体检测结果。在该实现方式中,若第一深度图的质量检测结果为质量不合格,则可以基于单目活体检测技术得到目标对象的活体检测结果。本公开实施例对基于对目标图像的处理结果得到目标对象的活体检测结果的实现不作限定。例如,当某一应用场景需要考虑室外强光场景,在室外强光下,深度图具有较大概率质量不合格。在这种情况下,可以通过单目活体检测技术进行活体检测,以尽量避免将活体误判为非活体。
在另一种可能的实现方式中,第一目标图像可以为视频帧图像,例如从视频序列中选择的图像,此时,可以对视频序列中选取的某个图像对应的深度图进行质量检测,如果质量检测结果为质量不合格,则可以对视频序列中选取的其他图像对应的深度图进行质量检测,并且将重试次数加1,直到重试次数达到最大重试次数或者检测到质量合格的深度图或者基于某个质量合格的深度图确定目标对象的活体检测结果为活体为止,本公开实施例对此不做限定。
在一个具体例子中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果,包括:在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果。在该实现方式中,若第一深度图的质量检测结果为质量不合格,且对第一目标图像所属视频序列的质量检测重试次数达到第二阈值,则可以基于单目活体检测技术得到目标对象的活体检测结果。
在另一种可能的实现方式中,基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果,包括:在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到第二深度图的质量检测结果;基于第二深度图的质量检测结果,得到目标对象的活体检测结果。在一个具体例子中,如果第二深度图的质量检测结果为质量合格,则可以基于第二深度图和第二目标图像得到目标对象的活体检测结果。在另一个具体例子中,如果第二深度图的质量检测结果为质量不合格,则可以确定当前的质量检测重试次数是否达到第二阈值,如果达到第二阈值,则确定目标对象不是活体或者基于对第二目标图像的处理结果确定目标对象的活体检测结果,本公开实施例对此不作限定。
本公开实施例通过获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像,对第一深度图进行质量检测,得到第一深度图的质量检测结果,并基于第一深度图的质量检测结果确定第一目标图像中目标对象的活体检测结果,由此能够提高活体检测的准确性。
图2示出根据本公开实施例的活体检测方法中步骤S12的一示例性的流程图。如图2所示,步骤S12可以包括步骤S121至步骤S122。
在步骤S121中,确定第一深度图中目标对象对应区域的至少一个失效位置。
在一种可能的实现方式中,可以基于第一深度图中的至少一个像素点中每个像素点的深度值,或者基于目标对象对应区域中包括的至少一个像素点中每个像素点的深度值,确定目标对象对应区域的失效位置。
在一个具体例子中,第一传感器将失效的位置的深度值默认设置为0,此时,可以将目标对象对应区域中深度值等于零的位置确定为失效位置。
在另一个具体例子中,第一传感器将失效的位置的深度值设置为一个或多个预设数值或预设范围,则可以将目标对象对应区域中深度值等于预设数值或者属于预设范围的位置确定为失效位置。
本公开实施例也可以基于其他统计方式确定目标对象对应区域中的失效位置,本公开实施例对此不做限定。
在步骤S122中,基于目标对象对应区域的至少一个失效位置,得到第一深度图的质量检测结果。
在一种可能的实现方式中,基于目标对象对应区域的至少一个失效位置,得到第一深度图的质量检测结果,包括:基于目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例,得到第一深度图的质量检测结果。
可选地,可以基于失效位置或失效像素点的数量在目标对象对应区域中包括的位置总数量或像素点总数量中所占的比例,得到第一深度图或目标对象对应区域的质量检测结果。
作为一个示例,可以确定第一深度图中目标对象对应区域的至少一个失效位置包含的像素点数量;确定第一深度图中目标对象对应区域包含的像素点总量;计算该至少一个失效位置包含的像素点数量与目标对象对应区域中包含的像素点总数之间的比值,并将该比值作为目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例。
作为一个示例,可以将得到的上述比例与预设数值(例如第三阈值)进行比较来确定第一深度图的质量检测结果。例如,如果目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例小于或等于第三阈值,则确定第一深度图的质量检测结果为质量合格。再例如,如果目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例大于第三阈值,则确定第一深度图的质量检测结果为质量不合格。
在该实现方式中,当目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例大于第三阈值时,剩余的深度图不足以区分活体和非活体,此时可以确定第一深度图的质量检测结果为质量不合格。
该实现方式基于第一深度图中目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例,得到第一深度图的质量检测结果,由此利用统计量的方法对第一深度图进行质量判断,直观简单。
在本公开实施例中,当目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例与第三阈值的差距较大(例如,目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例比第三阈值大很多,或者目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例比第三阈值小很多)时,采用目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例与第三阈值进行比较,能够获得较准确的质量检测结果。
在上述实现方式中,将目标对象对应区域中的每个位置看作是等同的。在另一种可能的实现方式中,可以为目标对象对应区域中的不同位置分配不同的权重,并基于目标对象对应区域中的失效位置以及失效位置的权重,来确定深度图的质量检测结果。此时,基于目标对象对应区域的至少一个失效位置,得到第一深度图的质量检测结果,包括:基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图的质量检测结果。
例如,在具有相同数量的深度失效的像素点的情况下,如果出现在脸部边缘或者脸颊等非关键部位,对于活体检测的影响并不大;如果出现在眼睛、鼻子等关键部位,对于活体检测将造成很大干扰。因此,不同位置的深度失效像素对深度图的质量的影响程度是不同的,因此,通过对不同的位置赋予不用权重,基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图的质量检测结果,能够获得更为准确的质量检测结果。
作为该实现方式的一个示例,基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图的质量检测结果,包括:基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图对应的质量置信度;基于第一深度图对应的质量置信度,得到第一深度图的质量检测结果。
在本公开实施例中,可以通过多种方式确定质量置信度。例如,可以将至少一个失效位置输入到神经网络进行处理,得到深度图对应的质量置信度,此时,失效位置对应的权重可以通过对神经网络的训练得到的。或者,该权重可以预先设置,此时,可以将至少一个失效位置及其对应的权重输入到神经网络中进行处理,得到深度图对应的质量置信度,本公开实施例对此不做限定。
可选地,可以通过比较质量置信度与预设数值,确定第一深度图的质量检测结果,例如,如果质量置信度大于或等于第四阈值,则确定第一深度图质量合格,但本公开实施例对此不做限定。
在本公开实施例中,例如,可以对眼睛、鼻子等关键部位赋予较高的权重,对其他非关键部分赋予较低的权重,并基于不同位置的权重和失效像素数,得到第一深度图的质量置信度。其中,关键部位的权重大于非关键部位的权重,但不同位置的权重分配可以基于实际情况确定,本公开实施例对此不做限定。
图3示出根据本公开实施例的活体检测方法中步骤S12的另一示例性的流程图。如图3所示,步骤S12可以包括步骤S123至步骤S124。
在步骤S123中,将第一深度图输入第一神经网络进行处理,得到第一深度图对应的质量置信度。
在该示例中,将第一深度图输入到神经网络中,或者,也可以将第一深度图中目标对象对应区域输入到神经网络中,本公开实施例对此不做限定。
在一些可能的实现方式中,第一神经网络可以对第一深度图或目标对象对应区域进行处理,得到目标对象对应区域中的至少一个失效位置。然后,可以通过神经网络或者其他方式,基于该至少一个失效位置,确定深度图的质量检测结果。
在一个例子中,第一神经网络可以对目标对象对应区域的不同失效位置赋予不同的权重。
在一种可能的实现方式中,可以将深度图的训练数据人工分为合格的深度图和不合格的深度图,再利用合格的深度图和不合格的深度图这两类图像训练第一神经网络。
在步骤S124中,基于第一深度图对应的质量置信度,得到第一深度图的质量检测结果。
在一种可能的实现方式中,基于第一深度图对应的质量置信度,得到第一深度图的质量检测结果,包括:若第一深度图对应的质量置信度大于第一阈值,则确定第一深度图的质量检测结果为质量合格;和/或若第一深度图对应的质量置信度小于或等于第一阈值,则确定第一深度图的质量检测结果为质量不合格。
在本公开实施例中,可以从第一深度图中确定目标对象对应区域。在一种可能的实现方式中,该方法还包括:对第一目标图像进行关键点检测,得到目标对象的关键点信息;基于目标对象的关键点信息,从第一深度图中确定目标对象对应区域。
其中,目标对象的关键点信息可以包括目标对象的关键点的位置信息。
在本公开实施例中,若目标对象为人脸,则目标对象的关键点可以包括眼睛关键点、眉毛关键点、鼻子关键点、嘴巴关键点和人脸轮廓关键点等中的一项或多项。其中,眼睛关键点可以包括眼睛轮廓关键点、眼角关键点和瞳孔关键点等中的一项或多项。
在一种可能的实现方式中,基于目标对象的关键点信息,从第一深度图中确定目标对象对应区域,包括:基于目标对象的轮廓关键点,从第一深度图中确定目标对象对应区域。例如,目标对象为人脸,则可以根据人脸轮廓关键点,从第一深度图中确定人脸对应区域。
可选地,可以基于目标对象的关键点信息,确定目标对象的轮廓,并将目标对象的轮廓所在区域确定为目标对象对应区域,例如,可以将基于目标对象的关键点信息确定的椭圆形区域确定为目标对象对应区域,但本公开实施例对此不做限定。
在一种可能的实现方式中,在对第一目标图像进行关键点检测之前,该方法还包括:根据第一传感器的参数以及第二传感器的参数,对齐第一深度图和第一目标图像。
作为该实现方式的一个示例,可以对第一深度图进行转换处理,以使得转换处理后的第一深度图和第一目标图像对齐。例如,可以根据第一传感器的参数矩阵和第二传感器的参数矩阵,确定第一传感器的参数矩阵至第二传感器的参数矩阵的转换矩阵;根据该转换矩阵,转换第一深度图。
作为该实现方式的另一个示例,可以对第一目标图像进行转换处理,以使得转换处理后的第一目标图像与第一深度图对齐。例如,可以根据第一传感器的参数矩阵和第二传感器的参数矩阵,确定第二传感器的参数矩阵至第一传感器的参数矩阵的转换矩阵;根据该转换矩阵,转换第一目标图像。
在本公开实施例中,第一传感器的参数可以包括第一传感器的内参数和/或外参数,第二传感器的参数可以包括第二传感器的内参数和/或外参数。
在本公开实施例中,通过对齐第一深度图和第一目标图像,能够使第一深度图和第一目标图像中相应的部分在两个图像中的位置相同。
图4示出根据本公开实施例的活体检测方法中步骤S13的一示例性的流程图。如图4所示,步骤S13可以包括步骤S131至步骤S133。
在步骤S131中,基于第一深度图和目标对象的关键点信息,得到第一特征信息。
在一种可能的实现方式中,基于第一深度图和目标对象的关键点信息,得到第一特征信息,包括:将第一深度图和目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息。
作为该实现方式的一个示例,第二神经网络可以包括卷积层、下采样层和全连接层。
例如,第二神经网络可以包括一级卷积层、一级下采样层和一级全连接层。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。
又如,第二神经网络可以包括多级卷积层、多级下采样层和一级全连接层。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。其中,第i级卷积层后级联第i级下采样层,第i级下采样层后级联第i+1级卷积层,第n级下采样层后级联全连接层,其中,i和n均为正整数,1≤i≤n,n表示第二神经网络中卷积层和下采样层的级数。
作为该实现方式的另一个示例,第二神经网络可以包括卷积层、下采样层、归一化层和全连接层。
例如,第二神经网络可以包括一级卷积层、一个归一化层、一级下采样层和一级全连接层。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。
又如,第二神经网络可以包括多级卷积层、多个归一化层和多级下采样层和一级全连接层。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。其中,第i级卷积层后级联第i个归一化层,第i个归一化层后级联第i级下采样层,第i级下采样层后级联第i+1级卷积层,第n级下采样层后级联全连接层,其中,i和n均为正整数,1≤i≤n,n表示第二神经网络中卷积层、下采样层的级数和归一化层的个数。
在步骤S132中,基于目标对象的关键点信息,得到第二特征信息。
在一种可能的实现方式中,基于目标对象的关键点信息,得到第二特征信息,包括:将第一目标图像和目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
作为该实现方式的一个示例,第三神经网络可以包括卷积层、下采样层和全连接层。
例如,第三神经网络可以包括一级卷积层、一级下采样层和一级全连接层。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。
又如,第三神经网络可以包括多级卷积层、多级下采样层和一级全连接层。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。其中,第j级卷积层后级联第j级下采样层,第j级下采样层后级联第j+1级卷积层,第m级下采样层后级联全连接层,其中,j和m均为正整数,1≤j≤m,m表示第三神经网络中卷积层和下采样层的级数。
作为该实现方式的另一个示例,第三神经网络可以包括卷积层、下采样层、归一化层和全连接层。
例如,第三神经网络可以包括一级卷积层、一个归一化层、一级下采样层和一级全连接层。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。
又如,第三神经网络可以包括多级卷积层、多个归一化层和多级下采样层和一级全连接层。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层,该级全连接层可以包括一个或多个全连接层。其中,第j级卷积层后级联第j个归一化层,第j个归一化层后级联第j级下采样层,第j级下采样层后级联第j+1级卷积层,第m级下采样层后级联全连接层,其中,j和m均为正整数,1≤j≤m,m表示第三神经网络中卷积层、下采样层的级数和归一化层的个数。
在一种可能的实现方式中,第二神经网络和第三神经网络具有相同的网络结构。
在步骤S133中,基于第一特征信息和第二特征信息,确定目标对象的活体检测结果。
需要说明的是,本公开实施例不对步骤S131和步骤S132执行的先后顺序进行限定,只要步骤S131和步骤S132在步骤S133之前执行即可。例如,可以先执行步骤S131再执行步骤S132,或者可以先执行步骤S132再执行步骤S131,或者可以同时执行步骤S131和步骤S132。
图5示出根据本公开实施例的活体检测方法中基于第一深度图和目标对象的关键点信息,得到第一特征信息的一示例性的流程图。如图5所示,基于第一深度图和目标对象的关键点信息,得到第一特征信息,可以包括步骤S1311至步骤S1313。
在步骤S1311中,对第一深度图和目标对象的关键点信息进行卷积处理,得到第一卷积结果。
在步骤S1312中,对第一卷积结果进行下采样处理,得到第一下采样结果。
在一种可能的实现方式中,可以通过一级卷积层和一级下采样层对第一深度图和目标对象的关键点信息进行卷积处理和下采样处理。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层。
在另一种可能的实现方式中,可以通过多级卷积层和多级下采样层对第一深度图和目标对象的关键点信息进行卷积处理和下采样处理。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层。
在一种可能的实现方式中,对第一卷积结果进行下采样处理,得到第一下采样结果,可以包括:对第一卷积结果进行归一化处理,得到第一归一化结果;对第一归一化结果进行下采样处理,得到第一下采样结果。
在步骤S1313中,基于第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,可以将第一下采样结果输入全连接层,通过全连接层对第一下采样结果进行全连接运算,得到第一特征信息。
图6示出根据本公开实施例的活体检测方法中基于目标对象的关键点信息,得到第二特征信息一示例性的流程图。如图6所示,基于目标对象的关键点信息,得到第二特征信息,可以包括步骤S1321至步骤S1323。
在步骤S1321中,对第一目标图像和目标对象的关键点信息进行卷积处理,得到第二卷积结果。
在步骤S1322中,对第二卷积结果进行下采样处理,得到第二下采样结果。
在一种可能的实现方式中,可以通过一级卷积层和一级下采样层对第一目标图像和目标对象的关键点信息进行卷积处理和下采样处理。其中,该级卷积层可以包括一个或多个卷积层,该级下采样层可以包括一个或多个下采样层。
在另一种可能的实现方式中,可以通过多级卷积层和多级下采样层对第一目标图像和目标对象的关键点信息进行卷积处理和下采样处理。其中,每级卷积层可以包括一个或多个卷积层,每级下采样层可以包括一个或多个下采样层。
在一种可能的实现方式中,对第二卷积结果进行下采样处理,得到第二下采样结果,可以包括:对第二卷积结果进行归一化处理,得到第二归一化结果;对第二归一化结果进行下采样处理,得到第二下采样结果。
在步骤S1323中,基于第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,可以将第二下采样结果输入全连接层,通过全连接层对第二下采样结果进行全连接运算,得到第二特征信息。
图7示出根据本公开实施例的活体检测方法中基于第一特征信息和第二特征信息,确定目标对象的活体检测结果的一示例性的流程图。如图7所示,基于第一特征信息和第二特征信息,确定目标对象的活体检测结果,可以包括步骤S1331和步骤S1332。
在步骤S1331中,对第一特征信息和第二特征信息进行全连接运算,得到第三特征信息。
在一种可能的实现方式中,可以通过全连接层对第一特征信息和第二特征信息进行全连接运算,得到第三特征信息。
在步骤S1332中,根据第三特征信息,确定目标对象的活体检测结果。
图8示出根据本公开实施例的活体检测方法中根据第三特征信息,确定目标对象的活体检测结果的一示例性的流程图。如图8所示,根据第三特征信息,确定目标对象的活体检测结果,可以包括步骤S13321和步骤S13322。
在步骤S13321中,基于第三特征信息,得到目标对象为活体的概率。
在一种可能的实现方式中,可以将第三特征信息输入Softmax层中,通过Softmax层得到目标对象为活体的概率。
作为该实现方式的一个示例,Softmax层可以包括两个神经元,其中,一个神经元代表目标对象为活体的概率,另一个神经元代表目标对象为非活体的概率。
在步骤S13322中,根据目标对象为活体的概率,确定目标对象的活体检测结果。
在一种可能的实现方式中,根据目标对象为活体的概率,确定目标对象的活体检测结果,包括:若目标对象为活体的概率大于第四阈值,则确定目标对象的活体检测结果为目标对象为活体;若目标对象为活体的概率小于或等于第四阈值,则确定目标对象的活体检测结果为非活体。
需要说明的是,尽管以图8所示的流程介绍了步骤S1332的实现方式如上,但本领域技术人员能够理解,本公开应不限于此。在另一种可能的实现方式中,可以基于第三特征信息,得到目标对象为非活体的概率,并根据目标对象为非活体的概率,确定目标对象的活体检测结果。在该实现方式中,若目标对象为非活体的概率大于第五阈值,则确定目标对象的活体检测结果为目标对象为非活体;若目标对象为非活体的概率小于或等于第五阈值,则确定目标对象的活体检测结果为活体。
本公开实施例能够从根本上防御深度图失效类的非活体攻击,提高活体检测的准确性,安全性、可靠性更高。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
此外,本公开还提供了活体检测装置、活体检测系统、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种活体检测方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图9示出根据本公开实施例的活体检测装置的框图。如图9所示,该装置包括:获取模块21,用于获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;质量检测模块22,用于对第一深度图进行质量检测,得到第一深度图的质量检测结果;第一确定模块23,用于基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果。
在一种可能的实现方式中,第一传感器为飞行时间TOF传感器或者结构光传感器。
在一种可能的实现方式中,第二传感器为RGB传感器或者近红外传感器。
图10示出根据本公开实施例的活体检测装置的一示例性的框图。如图10所示:
在一种可能的实现方式中,质量检测模块22包括:第一确定子模块221,用于确定第一深度图中目标对象对应区域的至少一个失效位置;第二确定子模块222,用于基于目标对象对应区域的至少一个失效位置,得到第一深度图的质量检测结果。
在一种可能的实现方式中,第二确定子模块222用于:基于目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例,得到第一深度图的质量检测结果。
在一种可能的实现方式中,第二确定子模块222用于:基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图的质量检测结果。
在一种可能的实现方式中,第一确定子模块221用于:将目标对象对应区域中深度值等于零的位置确定为失效位置。
在一种可能的实现方式中,质量检测模块22包括:处理子模块223,用于将第一深度图输入第一神经网络进行处理,得到第一深度图对应的质量置信度;第三确定子模块224,用于基于第一深度图对应的质量置信度,得到第一深度图的质量检测结果。
在一种可能的实现方式中,第三确定子模块224用于:若第一深度图对应的质量置信度大于第一阈值,则确定第一深度图的质量检测结果为质量合格;和/或若第一深度图对应的质量置信度小于或等于第一阈值,则确定第一深度图的质量检测结果为质量不合格。
在一种可能的实现方式中,该装置还包括:关键点检测模块24,用于对第一目标图像进行关键点检测,得到目标对象的关键点信息;第二确定模块25,用于基于目标对象的关键点信息,从第一深度图中确定目标对象对应区域。
在一种可能的实现方式中,该装置还包括:对齐模块26,用于根据第一传感器的参数以及第二传感器的参数,对齐第一深度图和第一目标图像。
在一种可能的实现方式中,第一确定模块23用于:在第一深度图的质量检测结果为质量合格的情况下,基于第一深度图和第一目标图像中包含的目标对象的关键点信息,得到目标对象的活体检测结果。
在一种可能的实现方式中,第一确定模块23包括:第四确定子模块231,用于基于第一深度图和目标对象的关键点信息,得到第一特征信息;第五确定子模块232,用于基于目标对象的关键点信息,得到第二特征信息;第六确定子模块233,用于基于第一特征信息和第二特征信息,确定目标对象的活体检测结果。
在一种可能的实现方式中,第四确定子模块231用于:将第一深度图和目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息;第五确定子模块232用于:将第一目标图像和目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
在一种可能的实现方式中,第四确定子模块231用于:对第一深度图和目标对象的关键点信息进行卷积处理,得到第一卷积结果;对第一卷积结果进行下采样处理,得到第一下采样结果;基于第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,第五确定子模块232用于:对第一目标图像和目标对象的关键点信息进行卷积处理,得到第二卷积结果;对第二卷积结果进行下采样处理,得到第二下采样结果;基于第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,第六确定子模块233用于:对第一特征信息和第二特征信息进行全连接运算,得到第三特征信息;根据第三特征信息,确定目标对象的活体检测结果。
在一种可能的实现方式中,第六确定子模块233用于:基于第三特征信息,得到目标对象为活体的概率;根据目标对象为活体的概率,确定目标对象的活体检测结果。
在一种可能的实现方式中,第一确定模块23用于:在第一深度图的质量检测结果为质量不合格的情况下,确定目标对象的活体检测结果为非活体;或者在第一深度图的质量检测结果为质量不合格的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果。
在一种可能的实现方式中,第一确定模块23用于:在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果。
在一种可能的实现方式中,第一确定模块23包括:质量检测子模块234,用于在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到第二深度图的质量检测结果;第七确定子模块235,用于基于第二深度图的质量检测结果,得到目标对象的活体检测结果。
本公开实施例通过获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像,对第一深度图进行质量检测,得到第一深度图的质量检测结果,并基于第一深度图的质量检测结果确定第一目标图像中目标对象的活体检测结果,由此能够提高活体检测的准确性。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,该处理器被配置为上述方法。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。
本公开实施例还提出一种活体检测系统,包括:上述电子设备、第一传感器和第二传感器。
本公开实施例还提出一种活体检测系统,包括:上述计算机可读存储介质、第一传感器和第二传感器。
图11示出根据本公开实施例的电子设备的一示例性的框图。如图11所示,该电子设备包括:第一传感器31,用于检测目标对象的深度图;第二传感器32,用于采集包括目标对象的目标图像;处理器33,用于对第一深度图进行质量检测,得到第一深度图的质量检测结果,并基于第一深度图的质量检测结果,确定第一目标图像中目标对象的活体检测结果。
在一种可能的实现方式中,第一传感器为飞行时间TOF传感器或者结构光传感器。
在一种可能的实现方式中,第二传感器为RGB传感器或者近红外传感器。
在一种可能的实现方式中,该处理器33还用于:确定第一深度图中目标对象对应区域的至少一个失效位置;基于目标对象对应区域的至少一个失效位置,得到第一深度图的质量检测结果。
在一种可能的实现方式中,该处理器33用于:基于目标对象对应区域的至少一个失效位置在目标对象对应区域中所占的比例,得到第一深度图的质量检测结果。
在一种可能的实现方式中,该处理器33用于:基于目标对象对应区域的至少一个失效位置以及至少一个失效位置对应的权重,得到第一深度图的质量检测结果。
在一种可能的实现方式中,该处理器33用于:将目标对象对应区域中深度值等于零的位置确定为失效位置。
在一种可能的实现方式中,该处理器33用于:将第一深度图输入第一神经网络进行处理,得到第一深度图对应的质量置信度;基于第一深度图对应的质量置信度,得到第一深度图的质量检测结果。
在一种可能的实现方式中,该处理器33用于:若第一深度图对应的质量置信度大于第一阈值,则确定第一深度图的质量检测结果为质量合格;和/或若第一深度图对应的质量置信度小于或等于第一阈值,则确定第一深度图的质量检测结果为质量不合格。
在一种可能的实现方式中,该处理器33还用于:对第一目标图像进行关键点检测,得到目标对象的关键点信息;基于目标对象的关键点信息,从第一深度图中确定目标对象对应区域。
在一种可能的实现方式中,该处理器33还用于:根据第一传感器的参数以及第二传感器的参数,对齐第一深度图和第一目标图像。
在一种可能的实现方式中,该处理器33用于:在第一深度图的质量检测结果为质量合格的情况下,基于第一深度图和第一目标图像中包含的目标对象的关键点信息,得到目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:基于第一深度图和目标对象的关键点信息,得到第一特征信息;基于目标对象的关键点信息,得到第二特征信息;基于第一特征信息和第二特征信息,确定目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:将第一深度图和目标对象的关键点信息输入第二神经网络进行处理,得到第一特征信息;基于目标对象的关键点信息,得到第二特征信息,包括:将第一目标图像和目标对象的关键点信息输入第三神经网络进行处理,得到第二特征信息。
在一种可能的实现方式中,该处理器33用于:对第一深度图和目标对象的关键点信息进行卷积处理,得到第一卷积结果;对第一卷积结果进行下采样处理,得到第一下采样结果;基于第一下采样结果,得到第一特征信息。
在一种可能的实现方式中,该处理器33用于:对第一目标图像和目标对象的关键点信息进行卷积处理,得到第二卷积结果;对第二卷积结果进行下采样处理,得到第二下采样结果;基于第二下采样结果,得到第二特征信息。
在一种可能的实现方式中,该处理器33用于:对第一特征信息和第二特征信息进行全连接运算,得到第三特征信息;根据第三特征信息,确定目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:基于第三特征信息,得到目标对象为活体的概率;根据目标对象为活体的概率,确定目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:在第一深度图的质量检测结果为质量不合格的情况下,确定目标对象的活体检测结果为非活体;或者在第一深度图的质量检测结果为质量不合格的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数达到第二阈值的情况下,在不利用第一深度图的条件下对目标对象进行活体检测,得到目标对象的活体检测结果。
在一种可能的实现方式中,该处理器33用于:在第一深度图的质量检测结果为质量不合格且对第一目标图像所属视频序列的质量检测重试次数未达到第二阈值的情况下,对目标图像所属视频序列中的第二目标图像对应的第二深度图进行质量检测,得到第二深度图的质量检测结果;基于第二深度图的质量检测结果,得到目标对象的活体检测结果。
电子设备可以被提供为终端、服务器或其它形态的设备。
图12示出根据本公开实施例的电子设备的另一示例性的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图12,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种活体检测方法,其特征在于,包括:
获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;
对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果;
基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果,包括:
确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;
基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
3.一种活体检测装置,其特征在于,包括:
获取模块,用于获取第一传感器采集到的第一深度图和第二传感器采集到的第一目标图像;
质量检测模块,用于对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果;
第一确定模块,用于基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
4.根据权利要求3所述的装置,其特征在于,所述质量检测模块包括:
第一确定子模块,用于确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;
第二确定子模块,用于基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
5.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1或2所述的方法。
6.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1或2所述的方法。
7.一种活体检测系统,其特征在于,包括:权利要求5所述的电子设备、所述第一传感器和所述第二传感器。
8.一种活体检测系统,其特征在于,包括:权利要求6所述的计算机可读存储介质、所述第一传感器和所述第二传感器。
9.一种电子设备,其特征在于,包括:
第一传感器,用于检测目标对象的第一深度图;
第二传感器,用于采集包括所述目标对象的第一目标图像;
处理器,用于对所述第一深度图进行质量检测,得到所述第一深度图的质量检测结果,并基于所述第一深度图的质量检测结果,确定所述第一目标图像中目标对象的活体检测结果。
10.根据权利要求9所述的电子设备,其特征在于,所述处理器用于:
确定所述第一深度图中所述目标对象对应区域的至少一个失效位置;
基于所述目标对象对应区域的至少一个失效位置,得到所述第一深度图的质量检测结果。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810846587.6A CN110852134A (zh) | 2018-07-27 | 2018-07-27 | 活体检测方法、装置及系统、电子设备和存储介质 |
SG11202005080VA SG11202005080VA (en) | 2018-07-27 | 2019-04-11 | Method, apparatus and system for liveness detection, electronic device, and storage medium |
JP2020527737A JP7026225B2 (ja) | 2018-07-27 | 2019-04-11 | 生体検出方法、装置及びシステム、電子機器並びに記憶媒体 |
KR1020207015615A KR102391792B1 (ko) | 2018-07-27 | 2019-04-11 | 생체 검출 방법, 장치 및 시스템, 전자 기기 및 저장 매체 |
PCT/CN2019/082231 WO2020019760A1 (zh) | 2018-07-27 | 2019-04-11 | 活体检测方法、装置及系统、电子设备和存储介质 |
US16/876,195 US11321575B2 (en) | 2018-07-27 | 2020-05-18 | Method, apparatus and system for liveness detection, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810846587.6A CN110852134A (zh) | 2018-07-27 | 2018-07-27 | 活体检测方法、装置及系统、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110852134A true CN110852134A (zh) | 2020-02-28 |
Family
ID=69182122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810846587.6A Pending CN110852134A (zh) | 2018-07-27 | 2018-07-27 | 活体检测方法、装置及系统、电子设备和存储介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11321575B2 (zh) |
JP (1) | JP7026225B2 (zh) |
KR (1) | KR102391792B1 (zh) |
CN (1) | CN110852134A (zh) |
SG (1) | SG11202005080VA (zh) |
WO (1) | WO2020019760A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539311A (zh) * | 2020-04-21 | 2020-08-14 | 上海锘科智能科技有限公司 | 基于ir和rgb双摄的活体判别方法、装置及系统 |
CN112507798A (zh) * | 2020-11-12 | 2021-03-16 | 上海优扬新媒信息技术有限公司 | 活体检测方法、电子设备与存储介质 |
CN113128428A (zh) * | 2021-04-24 | 2021-07-16 | 新疆爱华盈通信息技术有限公司 | 基于深度图预测的活体检测方法和相关设备 |
CN113128429A (zh) * | 2021-04-24 | 2021-07-16 | 新疆爱华盈通信息技术有限公司 | 基于立体视觉的活体检测方法和相关设备 |
CN113763412A (zh) * | 2021-09-08 | 2021-12-07 | 理光软件研究所(北京)有限公司 | 图像处理方法、装置及电子设备、计算机可读存储介质 |
WO2023273050A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
KR20210121628A (ko) * | 2020-03-31 | 2021-10-08 | 주식회사 만도 | 강화학습 기반 포인트 클라우드 자동화 처리 방법 및 그 시스템 |
CN111881729B (zh) * | 2020-06-16 | 2024-02-06 | 深圳数联天下智能科技有限公司 | 基于热成像的活体流向甄别方法、装置、设备及存储介质 |
KR20220014495A (ko) * | 2020-07-29 | 2022-02-07 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113435342B (zh) * | 2021-06-29 | 2022-08-12 | 平安科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN113641415B (zh) * | 2021-10-14 | 2022-02-11 | 浙江舜宇智领技术有限公司 | 基于人脸识别的解锁方法及装置 |
WO2024117951A1 (en) * | 2022-12-01 | 2024-06-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Holographic communication system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087738A (zh) * | 2009-11-05 | 2011-06-08 | 微软公司 | 用于为目标跟踪处理图像的系统和方法 |
CN105956572A (zh) * | 2016-05-15 | 2016-09-21 | 北京工业大学 | 一种基于卷积神经网络的活体人脸检测方法 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4910507B2 (ja) | 2006-06-29 | 2012-04-04 | コニカミノルタホールディングス株式会社 | 顔認証システム及び顔認証方法 |
US8718837B2 (en) * | 2011-01-28 | 2014-05-06 | Intouch Technologies | Interfacing with a mobile telepresence robot |
US20130162763A1 (en) * | 2011-12-23 | 2013-06-27 | Chao-Chung Cheng | Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map |
TWI478095B (zh) * | 2012-02-07 | 2015-03-21 | Nat Univ Chung Cheng | Check the depth of mismatch and compensation depth error of the perspective synthesis method |
JP6090847B2 (ja) | 2013-03-15 | 2017-03-08 | Necソリューションイノベータ株式会社 | 情報処理装置及び判定方法 |
JP2017084065A (ja) * | 2015-10-27 | 2017-05-18 | 株式会社東芝 | なりすまし検出装置 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN107451510B (zh) | 2016-05-30 | 2023-07-21 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
US10237530B1 (en) * | 2016-06-29 | 2019-03-19 | Amazon Technologies, Inc. | Depth-map augmentation techniques |
US10021372B2 (en) * | 2016-09-16 | 2018-07-10 | Qualcomm Incorporated | Systems and methods for improved depth sensing |
WO2019056310A1 (en) * | 2017-09-22 | 2019-03-28 | Qualcomm Incorporated | SYSTEMS AND METHODS FOR DETECTING FACIAL ACTIVITY |
US10796514B2 (en) * | 2017-10-13 | 2020-10-06 | Alcatraz AI, Inc. | System and method for optimizing a facial recognition-based system for controlling access to a building |
CN107633165B (zh) * | 2017-10-26 | 2021-11-19 | 奥比中光科技集团股份有限公司 | 3d人脸身份认证方法与装置 |
CN108280418A (zh) | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
JP7145221B2 (ja) * | 2017-12-22 | 2022-09-30 | マジック リープ, インコーポレイテッド | 稠密3d再構成データのキャッシュおよび更新 |
US10930010B2 (en) * | 2018-05-10 | 2021-02-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, system, electronic device, and storage medium |
WO2020045770A1 (en) * | 2018-08-31 | 2020-03-05 | Samsung Electronics Co., Ltd. | Method and device for obtaining 3d images |
WO2021038298A2 (en) * | 2019-08-29 | 2021-03-04 | PXL Vision AG | Id verification with a mobile device |
-
2018
- 2018-07-27 CN CN201810846587.6A patent/CN110852134A/zh active Pending
-
2019
- 2019-04-11 SG SG11202005080VA patent/SG11202005080VA/en unknown
- 2019-04-11 KR KR1020207015615A patent/KR102391792B1/ko active IP Right Grant
- 2019-04-11 WO PCT/CN2019/082231 patent/WO2020019760A1/zh active Application Filing
- 2019-04-11 JP JP2020527737A patent/JP7026225B2/ja active Active
-
2020
- 2020-05-18 US US16/876,195 patent/US11321575B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087738A (zh) * | 2009-11-05 | 2011-06-08 | 微软公司 | 用于为目标跟踪处理图像的系统和方法 |
CN105956572A (zh) * | 2016-05-15 | 2016-09-21 | 北京工业大学 | 一种基于卷积神经网络的活体人脸检测方法 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539311A (zh) * | 2020-04-21 | 2020-08-14 | 上海锘科智能科技有限公司 | 基于ir和rgb双摄的活体判别方法、装置及系统 |
CN111539311B (zh) * | 2020-04-21 | 2024-03-01 | 上海锘科智能科技有限公司 | 基于ir和rgb双摄的活体判别方法、装置及系统 |
CN112507798A (zh) * | 2020-11-12 | 2021-03-16 | 上海优扬新媒信息技术有限公司 | 活体检测方法、电子设备与存储介质 |
CN112507798B (zh) * | 2020-11-12 | 2024-02-23 | 度小满科技(北京)有限公司 | 活体检测方法、电子设备与存储介质 |
CN113128428A (zh) * | 2021-04-24 | 2021-07-16 | 新疆爱华盈通信息技术有限公司 | 基于深度图预测的活体检测方法和相关设备 |
CN113128429A (zh) * | 2021-04-24 | 2021-07-16 | 新疆爱华盈通信息技术有限公司 | 基于立体视觉的活体检测方法和相关设备 |
WO2023273050A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN113763412A (zh) * | 2021-09-08 | 2021-12-07 | 理光软件研究所(北京)有限公司 | 图像处理方法、装置及电子设备、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20200081450A (ko) | 2020-07-07 |
US11321575B2 (en) | 2022-05-03 |
KR102391792B1 (ko) | 2022-04-28 |
US20200279120A1 (en) | 2020-09-03 |
WO2020019760A1 (zh) | 2020-01-30 |
JP7026225B2 (ja) | 2022-02-25 |
JP2021503659A (ja) | 2021-02-12 |
SG11202005080VA (en) | 2020-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764069B (zh) | 活体检测方法及装置 | |
CN110852134A (zh) | 活体检测方法、装置及系统、电子设备和存储介质 | |
US10930010B2 (en) | Method and apparatus for detecting living body, system, electronic device, and storage medium | |
CN110688951B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110674719B (zh) | 目标对象匹配方法及装置、电子设备和存储介质 | |
CN109522910B (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
CN107692997B (zh) | 心率检测方法及装置 | |
CN110287671B (zh) | 验证方法及装置、电子设备和存储介质 | |
CN110532957B (zh) | 人脸识别方法及装置、电子设备和存储介质 | |
CN109934275B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN107944367B (zh) | 人脸关键点检测方法及装置 | |
KR20210065178A (ko) | 생체 검출 방법 및 장치, 전자 기기 및 저장 매체 | |
CN111626086A (zh) | 活体检测方法、装置及系统、电子设备和存储介质 | |
CN111553864A (zh) | 图像修复方法及装置、电子设备和存储介质 | |
US11138758B2 (en) | Image processing method and apparatus, and storage medium | |
CN109903252B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112270288A (zh) | 活体识别、门禁设备控制方法和装置、电子设备 | |
CN112184787A (zh) | 图像配准方法及装置、电子设备和存储介质 | |
CN113012052B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN113261011B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111860373A (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN108154090B (zh) | 人脸识别方法及装置 | |
CN111507131B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN116740158A (zh) | 图像深度确定方法、装置和存储介质 | |
CN111832338A (zh) | 对象检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200228 |