发明内容
本发明的目的在于克服现有技术的缺陷,提供3D人脸活体检测方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:3D人脸活体检测方法包括:
获取来自双目摄像头的图像,以得到待检测图像;
对所述待检测图像进行处理并计算测距,以得到测距信息图;
根据所述测距信息图进行初步活体检测,以得到第一检测结果;
判断所述第一检测结果是否大于预设置的阈值;
若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
判断所述第二检测结果是否为活体图像;
若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
若所述第二检测结果不是活体图像,则执行所述获取待检测图像;
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
其进一步技术方案为:所述对所述待检测图像进行处理并计算测距,以得到测距信息图,包括:
对所述待检测图像进行校正,以得到第一图像;
对所述第一图像进行立体匹配,以得到视差图;
根据所述视差图计算测距,以得到测距信息图。
其进一步技术方案为:所述对所述待检测图像进行校正,以得到第一图像,包括:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;
根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;
采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
其进一步技术方案为:所述对所述第一图像进行立体匹配,以得到视差图,包括:
对所述第一图像进行归一化处理,以得到第二图像;
对第二图像进行匹配,以得到最佳匹配信息;
对所述最佳匹配信息进行过滤,以得到视差图。
其进一步技术方案为:所述根据所述测距信息图进行初步活体检测,以得到第一检测结果,包括:
对所述测距信息图进行灰度化处理,以得到灰度图像;
对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
其进一步技术方案为:所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的,包括:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;
构建基于caffe框架的卷积神经网络以及损失函数;
将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
采用损失函数以及训练结果计算损失值;
判断所述损失值是否维持不变;
若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;
判断所述测试结果是否符合要求;
若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;
若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其进一步技术方案为:基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
本发明还提供了3D人脸活体检测装置,包括:
图像获取单元,用于获取来自双目摄像头的图像,以得到待检测图像;
测距单元,用于对所述待检测图像进行处理并计算测距,以得到测距信息图;
初步检测单元,用于根据所述测距信息图进行初步活体检测,以得到第一检测结果;
第一判断单元,用于判断所述第一检测结果是否大于预设置的阈值;
预处理单元,用于若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
二次检测单元,用于将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
第二判断单元,用于判断所述第二检测结果是否为活体图像;若所述第二检测结果不是活体图像,则执行所述获取待检测图像;
输出单元,用于若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作。
本发明还提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明还提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述的方法。
本发明与现有技术相比的有益效果是:本发明通过对双目摄像头获取到的双目图像即待检测图像进行深度信息的计算,并计算拉普拉斯方差,根据拉普拉斯方差初步判定待检测图像是否为活体图像,对于初步判定为活体图像的待检测图像进行3D活体检测模型的二次检测,采用双重检测方式,以提高整个活体检测的准确率。
下面结合附图和具体实施例对本发明作进一步描述。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的3D人脸活体检测方法的应用场景示意图。图2为本发明实施例提供的3D人脸活体检测方法的示意性流程图。该3D人脸活体检测方法应用于服务器中。该服务器与双目摄像头以及终端进行数据交互,从双目摄像头获取到双目图像,也就是待检测图像后,先进行初步活体检测,也就是采用MTCNN算法进行初步活体检测,在初步确定有活体存在的情况下,再辅以深度学习特征的3D活体检测模型进行卷积处理,以进行二次活体检测,多重检测,可提高整个活体检测的准确率,在确认是活体的情况下,形成通知发送至终端,整个应用场景可以是超市、食堂刷脸支付系统、银行自助系统的人脸验证系统、公司或者教育机构人脸签到系统。
图2是本发明实施例提供的3D人脸活体检测方法的流程示意图。如图2所示,该方法包括以下步骤S110至S180。
S110、获取来自双目摄像头的图像,以得到待检测图像。
在本实施例中,待检测图像是指由双目摄像头拍摄的两张图像,比如小区门口的双目摄像头拍摄所得的图像,又如在超市和食堂进行刷脸支付时,双目摄像头拍摄的图像,或者银行自助系统的人脸验证过程中双目摄像头拍摄的图像,当然,还可以是公司或者教育机构人脸签到过程中双目摄像头拍摄的图像。
S120、对所述待检测图像进行处理并计算测距,以得到测距信息图。
在本实施例中,测距信息图是指经过reprojectImageTo3D函数所生成3D点云,该3D点云中保存有2D图像的三维坐标,集成2D图像的三维坐标的Z轴的集合的图像。
在一实施例中,请参阅图3,上述的步骤S120可包括步骤S121~S123。
S121、对所述待检测图像进行校正,以得到第一图像。
在本实施例中,第一图像是指经过像素映射矩阵校正后的图像。
在一实施例中,请参阅图4,上述的步骤S121可包括步骤S1211~S1213。
S1211、获取双目摄像头经过标定所得到的双目摄像头参数矩阵。
在本实施例中,双目摄像头参数矩阵是指双目摄像头所设置的拍摄参数等,对双目摄像头进行标定,便可得出双目摄像头的参数矩阵。
S1212、根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵。
在本实施例中,校正矩阵是指需要校正的参数以及需要进行去除畸变的参数信息。
具体地,采用cvStereoRectify()函数计算待检测图像需要校正的参数信息,另外,再配合initUndistortRectifyMap()函数进行去除畸变的参数信息的计算,cvStereoRectify()函数以及initUndistortRectifyMap()函数是开源视觉库OpenCV的库函数,initUndistortRectifyMap()函数主要用于摄像机校正映射。
S1213、采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在本实施例中,当计算得到校正矩阵后,采用cvRemap()函数对对所述待检测图像进行几何变换,以完成整个校正过程。
S122、对所述第一图像进行立体匹配,以得到视差图。
在本实施例中,视差图是指与原图即待检测图像的相似度差距的图像,具体地是采用stereoBM立体匹配算法进行匹配所得的图像。
在一实施例中,请参阅图5,上述的步骤S122可包括步骤S1221~S1223。
S1221、对所述第一图像进行归一化处理,以得到第二图像。
在本实施例中,第二图像是指第一图像经过归一化处理后的图像。
具体地,对所述第一图像进行归一化处理,可减少亮度差别,增强纹理,以使得立体匹配的过程准确率更高。
S1222、对第二图像进行匹配,以得到最佳匹配信息。
在本实施例中,采用sad算法进行匹配,sad算法的基本流程:构造一个小窗口,类似与卷积核;用窗口覆盖左边的图像,选择出窗口覆盖区域内的所有像素点;同样用窗口覆盖右边的图像并选择出覆盖区域的像素点;左边覆盖区域减去右边覆盖区域,并求出所有像素点差的绝对值的和;移动右边图像的窗口,重复前两个步骤的动作,当超过这个搜索范围跳出该重复流程,找到这个范围内SAD值最小的窗口,即找到了左边图像的最佳匹配的像素块。
在本实施例中,具体地是滑动sad窗口,沿着水平线进行匹配搜索,由于校正后左右图片平行,左图的特征可以在右图对应行找到最佳匹配的特征,以形成匹配信息。
S1223、对所述最佳匹配信息进行过滤,以得到视差图。
采用uniquenessratio函数去除坏的匹配点,也就是匹配程度超过阈值的点,如果左右匹配点比较稠密,匹配点多,得到的图像与原图相似度比较大,如果匹配点比较稀疏,得到的点与原图相似度比较小,从而形成视差图。
S123、根据所述视差图计算测距,以得到测距信息图。
在本实施例中,把生成的视差图输入reprojectImageTo3D函数,生成3D点云,3D点云中保存有2D图像的三维坐标,再读出每帧图像的三维坐标中的z轴的值,就得出了距离数据,这些距离数据构成的图像则为测距信息图。
S130、根据所述测距信息图进行初步活体检测,以得到第一检测结果。
在本实施例中,第一检测结果包括拉普拉斯方差。
在一实施例中,请参阅图6,上述的步骤S130可包括步骤S131~S132。
S131、对所述测距信息图进行灰度化处理,以得到灰度图像。
在本实施例中,灰度图像是指经过灰度化处理的测距信息图,灰度化处理后便可使得图像的纹理更加明显,以使得方差计算更加准确。
S132、对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
纹理信息越丰富,拉普拉斯方差越大;纹理信息越少,拉普拉斯方差越小。由此可判断第一检测结果大于预设置的阈值则可断定该待检测图像可能为活体图像,第一检测结果小于预设置的阈值可断定该待检测图像为非活体图像。
S140、判断所述第一检测结果是否大于预设置的阈值;
若第一检测结果不大于预设置的阈值,则执行所述步骤S110。
S150、若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像。
在本实施例中,中间人脸图像是指将检测到的人脸的关键点坐标加载到某一尺寸为112x112的图片上所形成的人脸图像,以正常人脸的凹凸性,如眼睛、嘴巴、鼻子到摄像头的距离都不同等角度进行深度学习,再次判定是否为活体图像,从而提高整个活体检测的准确率。
在一实施例中,请参阅图7,上述的步骤S150可包括步骤S151~S153。
S151、对待检测图像进行获取双眼瞳孔坐标以及嘴巴中心点坐标,以得到待处理坐标;
在本实施例中,待处理坐标包括双眼瞳孔坐标以及嘴巴中心点坐标,上述的第一检测结果若是活体图像,则会同时输出5个人脸关键点以及人脸框,根据人脸定位技术,便可得知坐标。
S152、获取一空图片;
在本实施例中,空图片是指尺寸为112x112的图片,这个尺寸的图片是更加适合于活体检测。
S153、采用仿射变换将待处理坐标放到空图片的指定位置,以得到中间人脸图像。
在本实施例中,仿射变换是变换模型的方式之一,变换模型是指根据待匹配图像与背景图像之间几何畸变的情况,所选择的能最佳拟合两幅图像之间变化的几何变换模型。仿射变换是一种二维坐标到二维坐标之间的线性变换,保持二维图形的平直性和平行性,其中平直性只是变换后直线还是直线不会打弯,圆弧还是圆弧,而平行性是指保二维图形间的相对位置关系不变,平行线还是平行线,相交直线的交角不变。仿射变换可以保持原来的线共点、点共线的关系不变,保持原来相互平行的线仍然平行,保持原来的中点仍然是中点,保持原来在一直线上极端线段之间的比例关系不变。
当得到待处理坐标后,通过一系列的原子变换的复合来实现仿射变换,以得到中间人脸图像,这一系列的原子变换包括:平移、缩放、翻转、旋转和剪切,通过变换便可得到同一姿态的人脸图像,以提高活体检测的准确率,并配合人脸识别技术可达到较高的人脸识别准确率。
S160、将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在本实施例中,第二检测结果是指中间人脸图像的类别。
在一实施例中,请参阅图8,上述的步骤S160可包括步骤S161~S169。
S161、获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;
在本实施例中,样本集包括负样本集以及正样本集,其中,负样本集是指利用图片、屏幕以及3D面具攻击获取双目摄像头拍摄所得的一对照片,而正样本集是通过双目摄像头获取同一时刻真人不同状态一对一对的图片,采集的时候尽量保持姿态、光线、环境的多样性,负样本集以及正样本集的尺寸为112x112,负样本集以及正样本集的数据各5000人,每个人四对不同场景的照片,正、负样本共40000对照片。
当然,在本实施例中,样本集是指在上述获取到的照片和图片经过预处理后所形成的图像,拿到数照片和图片先进行数据预处理,首先利用MTCNN算法进行人脸和关键点检测,得到人脸信息之后再进行对齐,对齐的方式是先得到眼睛瞳孔两点的坐标及嘴巴中心点的坐标,然后利用彷射变换将这三点放到112x112图片的指定位置,对于双目摄像头拍摄到的待检测图像需要融合为6通道数据,以进行训练,可以防止多姿态的人脸,给活体检测造成影响,进而可达到提高活体检测的准确率。
S162、构建基于caffe框架的卷积神经网络以及损失函数。
在本实施例中,基于caffe框架的卷积神经网络包含4个层,每个层包含卷积层conv、归一化层batchnorm、缩放层scale、神经网络激活层relu,其中,卷积层使用了分组卷积以及深度可分离卷积堆叠而成,同时为了提高网络性能,卷积层还加入了残差模块,基于caffe框架的卷积神经的网络最后连接一个全连接输出为2,网络命名为LivenessNet,以使得整个3D活体检测模型可以在移动端进行快速预测。
所述损失函数为Center Loss函数,Center Loss函数更为紧密,可增大累计距离,同时缩小类内距离。损失函数L公式如下:
L=L
s+λL
c;其中,x
i是第i个样本的深度特征,c
yi是y
i类的深度特征中心,/>
是3D活体检测模型的参数,b
yi是偏置算是L由类间lossL
s和类内lossL
c相加得到。
S163、将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果。
在本实施例中,训练结果是指训练集依次输入卷积神经网络后输出该训练集对应的类别标签,也就是活体分数,且会经过与预设的活体阈值进行对比,当活体分数超过预设的活体阈值,则会输出类别标签为活体图像,反之则输出类别标签为非活体图像。
将一对一对的人脸融合为6通道的数据作为输入,一次训练所选取的样本数是128,初始学习率为0.001,学习率更改策略使用的是基于步长的更改策略,每10万次迭代训练学习率缩减为原来的十分之一,以此进行模型的训练。
S164、采用损失函数以及训练结果计算损失值。
在本实施例,损失值是指利用上述的损失函数计算训练结果以及对应的类别标签的差距。
S165、判断所述损失值是否维持不变。
在本实施例中,当损失值维持不变,即当前的卷积神经网络已经收敛,即损失值基本不变且非常小,也表明当前的卷积神经网络是可以被用作3D活体检测模型的,一般是开始训练时损失值比较大,越往后训,损失值越小,倘若该损失值未维持不变,表明当前的卷积神经网络不可以用作3D活体检测模型,也就是评估出来的类别并不准确,会导致后期的人脸识别也不准确。
S166、若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述步骤S163。
在本实施例中,调整卷积神经网络的参数是指调整卷积神经网络中各个层的权重值。通过不断地训练,便可以得到满足要求的卷积神经网络。
S167、若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果。
在本实施例中,测试结果是指测试集进行活体检测测试后,便可得到测试集对应的关键点坐标均值以及方差。
S168、判断所述测试结果是否符合要求;
若所述测试结果不符合要求,则执行所述步骤S166;
S169、若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
当测试结果的精度和召回率这两个指标评估符合条件,则表明拟合程度符合要求,便可认为测试结果是符合要求的;否则,则认为该测试结果不符合要求。卷积神经网络收敛时停止训练。卷积神经网络训练好后对卷积神经网络进行测试,如果测试结果不好,需要调整训练策略重新进行卷积神经网络训练。当然,在训练的过程中,会进行训练和测试,训练时测试是为了实时查看训练情况;而训练卷积神经网络完成后的测试,用精度和召回率这两个指标评估整个卷积神经网络的执行准确程度。
S170、判断所述第二检测结果是否为活体图像;
S180、若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
若所述第二检测结果不是活体图像,则执行所述步骤S110;
在双重确认待检测图像为活体图像时,才会输出通知至终端,以进行人脸识别,进而提高整个活体检测的准确率以及人脸识别的准确率。
上述的3D人脸活体检测方法,通过对双目摄像头获取到的双目图像即待检测图像进行深度信息的计算,并计算拉普拉斯方差,根据拉普拉斯方差初步判定待检测图像是否为活体图像,对于初步判定为活体图像的待检测图像进行3D活体检测模型的二次检测,采用双重检测方式,以提高整个活体检测的准确率。
图9是本发明实施例提供的一种3D人脸活体检测装置300的示意性框图。如图9所示,对应于以上3D人脸活体检测方法,本发明还提供一种3D人脸活体检测装置300。该3D人脸活体检测装置300包括用于执行上述3D人脸活体检测方法的单元,该装置可以被配置于服务器中。具体地,请参阅图9,该3D人脸活体检测装置300包括图像获取单元301、测距单元302、初步检测单元303、第一判断单元304、预处理单元305、二次检测单元306、第二判断单元307以及输出单元308。
图像获取单元301,用于获取来自双目摄像头的图像,以得到待检测图像;测距单元302,用于对所述待检测图像进行处理并计算测距,以得到测距信息图;初步检测单元303,用于根据所述测距信息图进行初步活体检测,以得到第一检测结果;第一判断单元304,用于判断所述第一检测结果是否大于预设置的阈值;预处理单元305,用于若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;二次检测单元306,用于将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;第二判断单元307,用于判断所述第二检测结果是否为活体图像;若所述第二检测结果不是活体图像,则执行所述获取待检测图像;输出单元308,用于若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作。
在一实施例中,所述测距单元302包括校正子单元、立体匹配子单元以及测距计算子单元。
校正子单元,用于对所述待检测图像进行校正,以得到第一图像;立体匹配子单元,用于对所述第一图像进行立体匹配,以得到视差图;测距计算子单元,用于根据所述视差图计算测距,以得到测距信息图。
在一实施例中,所述校正子单元包括参数矩阵获取模块、校正矩阵获取模块以及图像校正模块。
参数矩阵获取模块,用于获取双目摄像头经过标定所得到的双目摄像头参数矩阵;校正矩阵获取模块,用于根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;图像校正模块,用于采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,所述立体匹配子单元包括归一化模块、匹配模块以及过滤模块。
归一化模块,用于对所述第一图像进行归一化处理,以得到第二图像;匹配模块,用于对第二图像进行匹配,以得到最佳匹配信息;过滤模块,用于对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,所述初步检测单元303包括灰度化子单元以及方差计算子单元。
灰度化子单元,用于对所述测距信息图进行灰度化处理,以得到灰度图像;方差计算子单元,用于对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,所述装置还包括模型获取单元。
模型获取单元,用于通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络,以得到3D活体检测模型。
在一实施例中,所述模型获取单元包括样本集获取子单元、构建子单元、训练子单元、损失值计算子单元、损失值判断子单元、调整子单元、测试子单元以及测试结果判断子单元。
样本集获取子单元,用于获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建子单元,用于构建基于caffe框架的卷积神经网络以及损失函数;训练子单元,用于将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;损失值计算子单元,用于采用损失函数以及训练结果计算损失值;损失值判断子单元,用于判断所述损失值是否维持不变;调整子单元,用于若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;测试子单元,用于若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;测试结果判断子单元,用于判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述3D人脸活体检测装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述3D人脸活体检测装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种3D人脸活体检测方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种3D人脸活体检测方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取来自双目摄像头的图像,以得到待检测图像;对所述待检测图像进行处理并计算测距,以得到测距信息图;根据所述测距信息图进行初步活体检测,以得到第一检测结果;判断所述第一检测结果是否大于预设置的阈值;若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;判断所述第二检测结果是否为活体图像;若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;若所述第二检测结果不是活体图像,则执行所述获取待检测图像。
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在一实施例中,处理器502在实现所述对所述待检测图像进行处理并计算测距,以得到测距信息图步骤时,具体实现如下步骤:
对所述待检测图像进行校正,以得到第一图像;对所述第一图像进行立体匹配,以得到视差图;根据所述视差图计算测距,以得到测距信息图。
在一实施例中,处理器502在实现所述对所述待检测图像进行校正,以得到第一图像步骤时,具体实现如下步骤:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,处理器502在实现所述对所述第一图像进行立体匹配,以得到视差图步骤时,具体实现如下步骤:
对所述第一图像进行归一化处理,以得到第二图像;对第二图像进行匹配,以得到最佳匹配信息;对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,处理器502在实现所述根据所述测距信息图进行初步活体检测,以得到第一检测结果步骤时,具体实现如下步骤:
对所述测距信息图进行灰度化处理,以得到灰度图像;对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,处理器502在实现所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的步骤时,具体实现如下步骤:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建基于caffe框架的卷积神经网络以及损失函数;将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;采用损失函数以及训练结果计算损失值;判断所述损失值是否维持不变;若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其中,基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
应当理解,在本申请实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取来自双目摄像头的图像,以得到待检测图像;对所述待检测图像进行处理并计算测距,以得到测距信息图;根据所述测距信息图进行初步活体检测,以得到第一检测结果;判断所述第一检测结果是否大于预设置的阈值;若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;判断所述第二检测结果是否为活体图像;若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;若所述第二检测结果不是活体图像,则执行所述获取待检测图像。
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述待检测图像进行处理并计算测距,以得到测距信息图步骤时,具体实现如下步骤:
对所述待检测图像进行校正,以得到第一图像;对所述第一图像进行立体匹配,以得到视差图;根据所述视差图计算测距,以得到测距信息图。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述待检测图像进行校正,以得到第一图像步骤时,具体实现如下步骤:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述第一图像进行立体匹配,以得到视差图步骤时,具体实现如下步骤:
对所述第一图像进行归一化处理,以得到第二图像;对第二图像进行匹配,以得到最佳匹配信息;对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,所述处理器在执行所述计算机程序而实现所述根据所述测距信息图进行初步活体检测,以得到第一检测结果步骤时,具体实现如下步骤:
对所述测距信息图进行灰度化处理,以得到灰度图像;对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,所述处理器在执行所述计算机程序而实现所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的步骤时,具体实现如下步骤:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建基于caffe框架的卷积神经网络以及损失函数;将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;采用损失函数以及训练结果计算损失值;判断所述损失值是否维持不变;若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其中,基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。