CN111382592B - 活体检测方法和设备 - Google Patents
活体检测方法和设备 Download PDFInfo
- Publication number
- CN111382592B CN111382592B CN201811608283.2A CN201811608283A CN111382592B CN 111382592 B CN111382592 B CN 111382592B CN 201811608283 A CN201811608283 A CN 201811608283A CN 111382592 B CN111382592 B CN 111382592B
- Authority
- CN
- China
- Prior art keywords
- depth
- depth data
- area
- data
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Abstract
本申请公开了一种活体检测方法和设备,其中方法包括:从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;根据所述有效深度数据,生成深度差直方图;将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果。采用本发明,可以提高检测的准确度。
Description
技术领域
本发明涉及数字图像处理技术领域,特别是涉及一种活体检测方法和设备
背景技术
随着人脸识别技术在公众消费领域的日益普及,假冒攻击对人脸认证系统的威胁也是与日俱增,对于人证系统的安全应用造成了十分不利的影响,因此人脸活体检测技术(人脸呈现攻击检测技术)越来越受到重视。
现有的人脸活体检测技术按空间维度可以大致分为两类,一类是二维图像处理,另一类就是三维模型数据分析了。二维图像处理包括纹理分析、背景分析、光照模型分析以及运动分析、交互式判断等手段。其中通过人机交互要求被验证者做出符合规定的实时响应来判断是否确是活体人脸的方法,在实际中获得了广泛的应用。此外,随着近红外、热红外成像设备的普及,多模态的人脸活体检测得到了更多的应用。本质上讲此类方法是依靠人脸在不同波长光源照射下的光照模型来判断是否属于活体。
随着iPhone X的发布,3D人脸识别逐渐进入大众视野,相应地三维人脸活体检测技术也受到广泛的关注。
目前公开了一种三维人脸活体检测方案,该方案基于三维人脸图像中采用的多个特征点的实际曲面率判断三维人脸图像是否来自活体。
发明人在实现本发明的过程中发现:上述传统的三维人脸活体检测方案在效率、精度和稳定性等方面存在问题。具体原因分析如下:
上述技术方案计算曲率耗时较长,并且仅提取了部分特征点附近的深度信息,浪费了全局信息,是精度提升的瓶颈;另外,没有选取合适的分类器,只是用传统方法设置阈值来区分活体与非活体,也使得检测的精准度受限。
发明内容
有鉴于此,本发明的主要目的在于提供一种活体检测方法和设备,可以提高检测的精确度。
为了达到上述目的,本发明实施例提出的技术方案为:
一种活体检测方法,包括:
从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;
根据所述有效深度数据,生成深度差直方图;
将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果。
较佳地,所述从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据包括:
采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据;
判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出所述方法;
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴。
较佳地,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面,其中,当所述目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,当所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
较佳地,所述深度差范围为0~255mm,深度值精度为1mm。
较佳地,所述生成深度差直方图包括:
从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域;
根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差;其中,所述基准面为过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点;
根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
较佳地,从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据包括:
按照预设的区域块大小,将所述检测区域划分为若干区域块;
从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
较佳地,所述子区域位于所述检测区域的中间。
较佳地,所述机器学习分类器为支持向量机SVM分类器或包含多隐层的神经网络分类器。
一种活体检测设备,包括:处理器,所述处理器用于:
从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;
根据所述有效深度数据,生成深度差直方图;
将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果。
较佳地,所述处理器具体用于:
采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据;
判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出所述方法;
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴,所述图像采集设备设置于所述活体检测设备中,或者独立设置于所述活体检测设备之外。
较佳地,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面,其中,当所述目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,当所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
较佳地,所述深度差范围为0~255mm,深度值精度为1mm。
较佳地,所述处理器具体用于:
从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域;
根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差;其中,所述基准面为过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点;
根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
较佳地,所述处理器具体用于:
按照预设的区域块大小,将所述检测区域划分为若干区域块;
从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
较佳地,所述子区域位于所述检测区域的中间。
较佳地,所述机器学习分类器为支持向量机SVM分类器或包含多隐层的神经网络分类器。
本申请还公开了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储指令,所述指令在由处理器执行时使得所述处理器执行如前所述的活体检测方法的步骤。
本申请还公开了一种电子设备,包括如前所述的非易失性计算机可读存储介质、以及可访问所述非易失性计算机可读存储介质的所述处理器。
综上所述,本发明实施例提出的活体检测方法和设备中,从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;根据所述有效深度数据,生成深度差直方图;最终根据该深度差直方图和预先训练的机器学习分类器,对所述的深度图数据对应的图像是否来自活体进行判断。该方案通过采用机器学习训练的方式进行活体检测的判断,一方面能够有效的区分活体图像、照片以及视频(LCD/OLED显示器、手机)中的图像,提高活体检测的准确度,另一方面,基于预先训练好的分类器进行活体判断,不需要进行曲面率的计算,可以大幅度降低算法开销,提高检测效率。
附图说明
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的人脸深度数据侧视示意图;
图3为纸质照片弯曲后的顶视图的示意图;
图4为本发明实施例的归一化的深度差直方图示意图;
图5为本发明实施例的人脸正面区域划分示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明一实施例的方法流程示意图,如图1所示,该实施例实现的活体检测方法主要包括:
步骤101、从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据。
在实际应用中,本领域技术人员可以根据实际需要设置具体的目标检测对象。例如,可以是人脸或其他生物体的需检测部位,在此不再赘述。
较佳地,本步骤中可以采用下述方法从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据:
步骤1011,采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据。
本步骤中,为了确保用于活体检测的图像数据的有效性,并尽量减少不必要的图像数据参与活体检测的判断以提高处理效率,需要从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的可以用于进行活体检测的有效深度数据,删除其中的无效像素点。
这里需要说明的是,本实施例处理的对象为深度图数据,对目前主流的三维重建方法(双目、ToF、结构光等等)提供的深度数据均有效。坐标轴如图2中所示,以平行于传感器的平面为xy平面,以摄像头主光轴(垂直传感器方向)为z轴。由于图像采集设备提供的深度图数据包含了有效的人脸数据以及背景物体的信息,因此首先要进行图像分割,提取出仅包含检测区域范围内的深度信息。
由于深度图和普通的RGB图像相比具有明显的区块特征,没有复杂的背景信息,分割过程较为简单,因此,具体实现本步骤,可选用的图像分割方法也比较多,例如阈值分割、边缘分割、直方图分割等方法,此处不做具体限定。通过图像分割,可以确定出xy平面上人脸数据的长宽范围。
所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面。
当所述目标检测对象为生物的脸部时,如果目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,如图2所示;如果所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
在实际应用中,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围可以根据实际应用中鼻尖与耳部在深度方向的距离差进行设置。
较佳地,为了节省检测时间,当所述检测区域为人的脸部区域时,根据人脸的特征,所述深度差范围可以设置为0~255mm,深度值精度为1mm。
这里,对于图像采集设备的主光轴对应的z轴方向,数值接近255的散点数据可以直接删除,主要考虑到:此部分数据多有可能为噪声数据,删除后不但不影响计算的精度反而可以节省后续计算的时间。
步骤1012,判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出所述方法。
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴。
步骤1012中考虑到如果目标检测对象不是正对所述图像采集设备,且偏角过大时,会大大降低检测的准确性,此时,不考虑利用对应的深度数据进行本次活体检测,以提高检测结果的可靠性。
需要说明的是,在实际应用中当设备受到非真人人脸道具(例如手机或显示器的平面、纸质照片等)的攻击时,获取到的数据区域和真人人脸差异非常大。例如,用纸质照片弯曲后攻击人证设备,获取到的情况如图3所示,从图3中可以看出,人脸的深度数据与纸质照片弯曲后的深度数据区别很明显,相应地,与平板的显示类设备上图像的区分更容易。因此,基于深度数据进行活体检测的判断,可以大幅度提高检测的精准度。
步骤102、根据所述有效深度数据,生成深度差直方图。
较佳地,为了提高生成深度差直方图的生成效率并确保活体检测的准确性,本步骤可以采用下述方法生成深度差直方图:
步骤1021、从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域。
较佳地,为了提高检测效率,可以采用下述方法从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据:
首先,按照预设的区域块大小,将所述检测区域划分为若干区域块。
这里,为了便于用于活体检测判断的图像数据进行准确筛选,需要先对检测区域进行区域块的划分,具体的区域块大小可由本领域技术人员根据实际需要进行设置,例如,对于人脸区域进行划分,可以分成5×5的区域,如图4所示,将人脸区域划分为25个区域块。
然后,从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
较佳地,所述子区域可以是整个所述检测区域,也可以是所述检测区域的一部分,具体可由本领域技术人员设置合适的区域范围。较佳地,当目标检测对象为人脸时,考虑到:人脸沿y轴方向大致可以分为五区域,从上往下依次为额头、眼睛、鼻子、嘴部和下巴。而活体和非活体主要的区分部位集中在鼻子、眼睛和嘴巴,因此,可以主要计算此部分区域的深度差即可,此时,较佳地,所述子区域可以位于所述检测区域的中间部分(如图4所示的中间3×3区域,即中间的9个区域块),覆盖鼻子、眼睛和嘴巴即可。
步骤1022、根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差。
其中,所述基准面为经过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点。
步骤1023、根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
本步骤中,将根据上一步骤计算出的每个像素点到基准面的深度距离差(如图2中的横向线段),进行直方图统计,最后将直方图归一化,即将直方图中每个bin的个数除以最大的bin的个数。归一化处理后得到的深度差直方图如图5所示。
本步骤的具体实现方法为本领域技术人员所掌握,在此不再赘述。
步骤103、将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果。
较佳地,本步骤中采用的机器学习分类器可以为支持向量机(SVM)分类器,也可以为包含多隐层的神经网络分类器。
当采用SVM分类器时,将正负样本的直方图作为一维向量训练生成最终的SVM分类器。将该SVM数据保存下来即可,使用时无需再进行训练。
当采用包含多隐层的神经网络分类器(即采用深度学习算法得到的神经网络模型)时,将深度差直方图输入神经网络进行训练,得到合适的神经网络参数。将待检测的深度图数据输入分类器(上述已经训练好的神经网络),即可得到结果,完成活体检测。
通过上述方法实施例可以看出,本发明实施例提出的活体检测方法通过采用机器学习训练的方式进行活体检测的判断,一方面能够有效的区分活体图像、照片以及视频(LCD/OLED显示器、手机)中的图像,提高活体检测的准确度,另一方面,基于预先训练好的分类器进行活体判断,不需要进行曲面率的计算,可以大幅度降低算法开销,提高检测效率。
本发明实施例还提供了一种活体检测设备,包括:处理器,所述处理器用于:
从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;
根据所述有效深度数据,生成深度差直方图;
将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果。
较佳地,所述处理器具体用于:
采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据;
判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出所述方法;
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴,所述图像采集设备设置于所述活体检测设备中,或者独立设置于所述活体检测设备之外。
较佳地,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面,其中,当所述目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,当所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
较佳地,所述深度差范围为0~255mm,深度值精度为1mm。
较佳地,所述处理器具体用于:
从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域;
根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差;其中,所述基准面为过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点;
根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
较佳地,所述处理器具体用于:
按照预设的区域块大小,将所述检测区域划分为若干区域块;
从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
较佳地,所述子区域位于所述检测区域的中间。
较佳地,所述机器学习分类器为支持向量机SVM分类器或包含多隐层的神经网络分类器。
此外,本申请还公开了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储指令,所述指令在由处理器执行时使得所述处理器执行如前所述的活体检测方法的步骤。
本申请还公开了一种电子设备,包括如前所述的非易失性计算机可读存储介质、以及可访问所述非易失性计算机可读存储介质的所述处理器。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (16)
1.一种活体检测方法,其特征在于,包括:
从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;
根据所述有效深度数据,生成深度差直方图;
将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果;
其中,所述从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据包括:
采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据;当所述检测区域为目标检测对象的脸部区域时,所述深度差范围根据鼻尖与耳部在深度方向的距离差进行设置;
判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出所述方法;
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴。
2.根据权利要求1所述的方法,其特征在于,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面,其中,当所述目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,当所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
3.根据权利要求2所述的方法,其特征在于,所述深度差范围为0~255mm,深度值精度为1mm。
4.根据权利要求1所述的方法,其特征在于,所述生成深度差直方图包括:
从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域;
根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差;其中,所述基准面为经过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点;
根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
5.根据权利要求4所述的方法,其特征在于,从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据包括:
按照预设的区域块大小,将所述检测区域划分为若干区域块;
从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
6.根据权利要求4所述的方法,其特征在于,所述子区域位于所述检测区域的中间。
7.根据权利要求1所述的方法,其特征在于,所述机器学习分类器为支持向量机SVM分类器或包含多隐层的神经网络分类器。
8.一种活体检测设备,其特征在于,包括:处理器,所述处理器用于:
从目标检测对象的深度图数据中,提取出预设检测区域的有效深度数据;
根据所述有效深度数据,生成深度差直方图;
将所述深度差直方图,输入至预先训练的机器学习分类器,得到所述目标检测对象是否为活体的判断结果;
所述处理器具体用于:
采用图像分割的方式,按照预设的深度差范围,从所述目标检测对象的深度图数据中,提取出所述检测区域范围内的深度数据;当所述检测区域为目标检测对象的脸部区域时,所述深度差范围根据鼻尖与耳部在深度方向的距离差进行设置;
判断提取出的所述深度数据在三维坐标系的每个坐标平面上的角度是否均在-15°至+15°范围内,如果是,则将提取出的所述深度数据作为所述检测区域的有效深度数据,否则,确定所述深度数据不可用于本次活体检测,退出本次活体检测;
其中,所述三维坐标系的xy平面与图像采集设备传感器的平面平行,所述三维坐标系的z轴为图像采集设备的主光轴,所述图像采集设备设置于所述活体检测设备中,或者独立设置于所述活体检测设备之外。
9.根据权利要求8所述的设备,其特征在于,当所述检测区域为目标检测对象的脸部区域时,所述深度差范围为图像中所述检测区域范围内的像素点与当前基准面之间距离的取值范围,所述基准面为垂直于所述z轴且经过基准点的平面,当所述目标检测对象正对所述图像采集设备时,所述基准点为所述目标检测对象的鼻尖,当所述目标检测对象不是正对所述图像采集设备时,所述基准点为所述目标检测对象的脸部中距离所述图像采集设备最近的点。
10.根据权利要求9所述的设备,其特征在于,所述深度差范围为0~255mm,深度值精度为1mm。
11.根据权利要求8所述的设备,其特征在于,所述处理器具体用于:
从所述检测区域的有效深度数据中,选择出预设子区域内的有效深度数据;所述检测区域包含所述子区域;
根据所选择出的有效深度数据,计算所述子区域范围内各个像素点到基准面的深度距离差;所述基准面为经过基准点且垂直于所述深度图数据对应的图像采集设备主光轴的平面,所述基准点为所述目标检测对象距离所述图像采集设备最近的点;
根据所述深度距离差,进行直方图统计后进行归一化处理,得到所述深度差直方图。
12.根据权利要求11所述的设备,其特征在于,所述处理器具体用于:
按照预设的区域块大小,将所述检测区域划分为若干区域块;
从所述检测区域的有效深度数据中,提取出所述子区域内的所有区域块的有效深度数据。
13.根据权利要求12所述的设备,其特征在于,所述子区域位于所述检测区域的中间。
14.根据权利要求8所述的设备,其特征在于,所述机器学习分类器为支持向量机SVM分类器或包含多隐层的神经网络分类器。
15.一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储指令,其特征在于,所述指令在由处理器执行时使得所述处理器执行如权利要求1至7中任一项所述的活体检测方法的步骤。
16.一种电子设备,其特征在于,包括如权利要求15所述的非易失性计算机可读存储介质、以及可访问所述非易失性计算机可读存储介质的所述处理器。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811608283.2A CN111382592B (zh) | 2018-12-27 | 2018-12-27 | 活体检测方法和设备 |
US17/416,744 US11682231B2 (en) | 2018-12-27 | 2019-12-16 | Living body detection method and device |
PCT/CN2019/125608 WO2020135125A1 (zh) | 2018-12-27 | 2019-12-16 | 活体检测方法和设备 |
EP19905284.6A EP3905104B1 (en) | 2018-12-27 | 2019-12-16 | Living body detection method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811608283.2A CN111382592B (zh) | 2018-12-27 | 2018-12-27 | 活体检测方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382592A CN111382592A (zh) | 2020-07-07 |
CN111382592B true CN111382592B (zh) | 2023-09-29 |
Family
ID=71128376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811608283.2A Active CN111382592B (zh) | 2018-12-27 | 2018-12-27 | 活体检测方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11682231B2 (zh) |
EP (1) | EP3905104B1 (zh) |
CN (1) | CN111382592B (zh) |
WO (1) | WO2020135125A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257674B (zh) * | 2020-11-17 | 2022-05-27 | 珠海大横琴科技发展有限公司 | 一种视觉数据处理的方法和装置 |
KR20230060901A (ko) | 2021-10-28 | 2023-05-08 | 주식회사 슈프리마 | 영상 처리 장치 및 방법 |
CN116631022A (zh) * | 2023-04-11 | 2023-08-22 | 广东德融汇科技有限公司 | 一种人脸精准识别方法、装置、设备以及存储介质 |
CN117392734A (zh) * | 2023-12-12 | 2024-01-12 | 深圳市宗匠科技有限公司 | 面部数据处理方法、装置、计算机设备和存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013131407A1 (zh) * | 2012-03-08 | 2013-09-12 | 无锡中科奥森科技有限公司 | 双验证人脸防伪方法及装置 |
CN105631439A (zh) * | 2016-02-18 | 2016-06-01 | 北京旷视科技有限公司 | 人脸图像处理方法和装置 |
CN105740775A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种三维人脸活体识别方法及其装置 |
CN107292252A (zh) * | 2017-06-09 | 2017-10-24 | 南京华捷艾米软件科技有限公司 | 一种自主学习的身份识别方法 |
CN107509024A (zh) * | 2017-07-25 | 2017-12-22 | 维沃移动通信有限公司 | 一种拍照处理方法及移动终端 |
KR101853006B1 (ko) * | 2016-12-19 | 2018-04-30 | 동의대학교 산학협력단 | 깊이영상에서 코 검출을 이용한 얼굴 인식 |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108416291A (zh) * | 2018-03-06 | 2018-08-17 | 广州逗号智能零售有限公司 | 人脸检测识别方法、装置和系统 |
CN108446675A (zh) * | 2018-04-28 | 2018-08-24 | 北京京东金融科技控股有限公司 | 面部图像识别方法、装置电子设备及计算机可读介质 |
CN109086691A (zh) * | 2018-07-16 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7430315B2 (en) * | 2004-02-13 | 2008-09-30 | Honda Motor Co. | Face recognition system |
CN100514353C (zh) * | 2007-11-26 | 2009-07-15 | 清华大学 | 一种基于人脸生理性运动的活体检测方法及系统 |
US8611604B2 (en) * | 2009-06-03 | 2013-12-17 | Chubu University Educational Foundation | Object detection device |
US8654181B2 (en) * | 2011-03-28 | 2014-02-18 | Avid Technology, Inc. | Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
TWI486820B (zh) * | 2012-12-28 | 2015-06-01 | Wistron Corp | 用於互動系統之座標轉換方法及電腦系統 |
KR101871222B1 (ko) * | 2013-02-01 | 2018-06-27 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
DE102013106895B4 (de) * | 2013-07-01 | 2015-09-17 | Leica Microsystems Cms Gmbh | Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten |
CA3186147A1 (en) * | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
PL411602A1 (pl) * | 2015-03-17 | 2016-09-26 | Politechnika Poznańska | System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo |
US10410066B2 (en) * | 2015-05-29 | 2019-09-10 | Arb Labs Inc. | Systems, methods and devices for monitoring betting activities |
CN105335722B (zh) | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
EP3465609A1 (en) * | 2016-05-27 | 2019-04-10 | Trophy | Method for creating a composite cephalometric image |
CN107451510B (zh) * | 2016-05-30 | 2023-07-21 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
KR102404155B1 (ko) * | 2016-09-28 | 2022-05-31 | 톰톰 글로벌 콘텐트 비.브이. | 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템 |
CN106372629B (zh) * | 2016-11-08 | 2020-02-07 | 汉王科技股份有限公司 | 一种活体检测方法和装置 |
US20180150704A1 (en) * | 2016-11-28 | 2018-05-31 | Kwangwoon University Industry-Academic Collaboration Foundation | Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera |
US10354129B2 (en) * | 2017-01-03 | 2019-07-16 | Intel Corporation | Hand gesture recognition for virtual reality and augmented reality devices |
CN107066942A (zh) | 2017-03-03 | 2017-08-18 | 上海斐讯数据通信技术有限公司 | 一种活体人脸识别方法及系统 |
US10275644B2 (en) * | 2017-03-08 | 2019-04-30 | Ricoh Company, Ltd | Automatic classification of eardrum shape |
TWI625678B (zh) * | 2017-06-21 | 2018-06-01 | 鴻海精密工業股份有限公司 | 電子設備及其手勢識別方法 |
US20190026588A1 (en) * | 2017-07-19 | 2019-01-24 | GM Global Technology Operations LLC | Classification methods and systems |
WO2019196683A1 (zh) * | 2018-04-12 | 2019-10-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108616688A (zh) | 2018-04-12 | 2018-10-02 | Oppo广东移动通信有限公司 | 图像处理方法、装置及移动终端、存储介质 |
-
2018
- 2018-12-27 CN CN201811608283.2A patent/CN111382592B/zh active Active
-
2019
- 2019-12-16 US US17/416,744 patent/US11682231B2/en active Active
- 2019-12-16 WO PCT/CN2019/125608 patent/WO2020135125A1/zh unknown
- 2019-12-16 EP EP19905284.6A patent/EP3905104B1/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013131407A1 (zh) * | 2012-03-08 | 2013-09-12 | 无锡中科奥森科技有限公司 | 双验证人脸防伪方法及装置 |
CN105740775A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种三维人脸活体识别方法及其装置 |
CN105631439A (zh) * | 2016-02-18 | 2016-06-01 | 北京旷视科技有限公司 | 人脸图像处理方法和装置 |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
KR101853006B1 (ko) * | 2016-12-19 | 2018-04-30 | 동의대학교 산학협력단 | 깊이영상에서 코 검출을 이용한 얼굴 인식 |
CN107292252A (zh) * | 2017-06-09 | 2017-10-24 | 南京华捷艾米软件科技有限公司 | 一种自主学习的身份识别方法 |
CN107509024A (zh) * | 2017-07-25 | 2017-12-22 | 维沃移动通信有限公司 | 一种拍照处理方法及移动终端 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108416291A (zh) * | 2018-03-06 | 2018-08-17 | 广州逗号智能零售有限公司 | 人脸检测识别方法、装置和系统 |
CN108446675A (zh) * | 2018-04-28 | 2018-08-24 | 北京京东金融科技控股有限公司 | 面部图像识别方法、装置电子设备及计算机可读介质 |
CN109086691A (zh) * | 2018-07-16 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111382592A (zh) | 2020-07-07 |
US11682231B2 (en) | 2023-06-20 |
EP3905104A1 (en) | 2021-11-03 |
US20220044039A1 (en) | 2022-02-10 |
EP3905104A4 (en) | 2022-02-23 |
WO2020135125A1 (zh) | 2020-07-02 |
EP3905104B1 (en) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111382592B (zh) | 活体检测方法和设备 | |
CN105335722B (zh) | 一种基于深度图像信息的检测系统及方法 | |
US10198623B2 (en) | Three-dimensional facial recognition method and system | |
CN108764071B (zh) | 一种基于红外和可见光图像的真实人脸检测方法及装置 | |
CN106372601B (zh) | 一种基于红外可见双目图像的活体检测方法及装置 | |
CN104317391B (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
CN105740778B (zh) | 一种改进的三维人脸活体检测方法及其装置 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN113205057B (zh) | 人脸活体检测方法、装置、设备及存储介质 | |
CN112287866A (zh) | 一种基于人体关键点的人体动作识别方法及装置 | |
CN112487921B (zh) | 一种用于活体检测的人脸图像预处理方法及系统 | |
CN112287868B (zh) | 一种人体动作识别方法及装置 | |
CN105574525A (zh) | 一种复杂场景多模态生物特征图像获取方法及其装置 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
KR101510312B1 (ko) | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 | |
CN111611934A (zh) | 一种人脸检测模型生成和人脸检测方法、装置及设备 | |
CN112926464A (zh) | 一种人脸活体检测方法以及装置 | |
CN112052832A (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN111274851A (zh) | 一种活体检测方法及装置 | |
CN113128428A (zh) | 基于深度图预测的活体检测方法和相关设备 | |
CN110720105A (zh) | 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质 | |
CN111383256A (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
CN112347904B (zh) | 基于双目深度和图片结构的活体检测方法、装置及介质 | |
CN115063524A (zh) | 一种3d人脸识别的重建方法及装置 | |
CN112395912B (zh) | 一种人脸分割方法、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |