CN110909693B - 3d人脸活体检测方法、装置、计算机设备及存储介质 - Google Patents

3d人脸活体检测方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN110909693B
CN110909693B CN201911180571.7A CN201911180571A CN110909693B CN 110909693 B CN110909693 B CN 110909693B CN 201911180571 A CN201911180571 A CN 201911180571A CN 110909693 B CN110909693 B CN 110909693B
Authority
CN
China
Prior art keywords
image
living body
neural network
training
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911180571.7A
Other languages
English (en)
Other versions
CN110909693A (zh
Inventor
张欢
黄军文
柯南海
文戈
陈兴委
赵士红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Huafu Technology Co ltd
Original Assignee
Shenzhen Huafu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huafu Technology Co ltd filed Critical Shenzhen Huafu Technology Co ltd
Priority to CN201911180571.7A priority Critical patent/CN110909693B/zh
Publication of CN110909693A publication Critical patent/CN110909693A/zh
Application granted granted Critical
Publication of CN110909693B publication Critical patent/CN110909693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及3D人脸活体检测方法、装置、计算机设备及存储介质,该方法包括获取来自双目摄像头的图像,以得到待检测图像;对待检测图像进行处理并计算测距以得到测距信息图;根据测距信息图进行初步活体检测以得到第一检测结果;判断第一检测结果是否大于预设置的阈值;若是,则对待检测图像进行预处理以得到中间人脸图像;将中间人脸图像输入至3D活体检测模型内进行二次活体检测以得到第二检测结果;判断第二检测结果是否为活体图像;若是,则输出通知至终端;3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。本发明采用双重检测方式,以提高整个活体检测的准确率。

Description

3D人脸活体检测方法、装置、计算机设备及存储介质
技术领域
本发明涉及活体检测方法,更具体地说是指3D人脸活体检测方法、装置、计算机设备及存储介质。
背景技术
由于深度学习的发展,大规模人脸识别成为可能。目前人脸识别技术已经广泛应用于安防,闸机以及金融支付等场景。人脸识别的过程不仅要确认获取的人脸是不是来源于同一个人,同时还要确认要比对的图片是不是来源于真人,即人脸的活体检测。人脸活体检测包含动作活体、静默活体,动作活体是指受试者根据随机指令做相应的动作,如张嘴、眨眼、摇头以确定是不是真人,动作活体可以用来防静态图片的攻击,但是对于录好的视频却很难防;静默活体包含单目、3D的活体检测,单目活体速度快,对硬件要求低,但是对于高清图片以及无明显差异的图片防攻击能力较差,3D活体检测是用两个彩色摄像头或者其它设备计算图片深度信息来进行活体检测,现有的3D活体检测方式由于硬件的要求等导致准确率较低。综上所述,现有的活体检测均存在准确率较低的问题。
因此,有必要设计一种新的方法,实现提高活体检测的准确率。
发明内容
本发明的目的在于克服现有技术的缺陷,提供3D人脸活体检测方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:3D人脸活体检测方法包括:
获取来自双目摄像头的图像,以得到待检测图像;
对所述待检测图像进行处理并计算测距,以得到测距信息图;
根据所述测距信息图进行初步活体检测,以得到第一检测结果;
判断所述第一检测结果是否大于预设置的阈值;
若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
判断所述第二检测结果是否为活体图像;
若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
若所述第二检测结果不是活体图像,则执行所述获取待检测图像;
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
其进一步技术方案为:所述对所述待检测图像进行处理并计算测距,以得到测距信息图,包括:
对所述待检测图像进行校正,以得到第一图像;
对所述第一图像进行立体匹配,以得到视差图;
根据所述视差图计算测距,以得到测距信息图。
其进一步技术方案为:所述对所述待检测图像进行校正,以得到第一图像,包括:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;
根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;
采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
其进一步技术方案为:所述对所述第一图像进行立体匹配,以得到视差图,包括:
对所述第一图像进行归一化处理,以得到第二图像;
对第二图像进行匹配,以得到最佳匹配信息;
对所述最佳匹配信息进行过滤,以得到视差图。
其进一步技术方案为:所述根据所述测距信息图进行初步活体检测,以得到第一检测结果,包括:
对所述测距信息图进行灰度化处理,以得到灰度图像;
对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
其进一步技术方案为:所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的,包括:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;
构建基于caffe框架的卷积神经网络以及损失函数;
将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
采用损失函数以及训练结果计算损失值;
判断所述损失值是否维持不变;
若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;
判断所述测试结果是否符合要求;
若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;
若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其进一步技术方案为:基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
本发明还提供了3D人脸活体检测装置,包括:
图像获取单元,用于获取来自双目摄像头的图像,以得到待检测图像;
测距单元,用于对所述待检测图像进行处理并计算测距,以得到测距信息图;
初步检测单元,用于根据所述测距信息图进行初步活体检测,以得到第一检测结果;
第一判断单元,用于判断所述第一检测结果是否大于预设置的阈值;
预处理单元,用于若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
二次检测单元,用于将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
第二判断单元,用于判断所述第二检测结果是否为活体图像;若所述第二检测结果不是活体图像,则执行所述获取待检测图像;
输出单元,用于若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作。
本发明还提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明还提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述的方法。
本发明与现有技术相比的有益效果是:本发明通过对双目摄像头获取到的双目图像即待检测图像进行深度信息的计算,并计算拉普拉斯方差,根据拉普拉斯方差初步判定待检测图像是否为活体图像,对于初步判定为活体图像的待检测图像进行3D活体检测模型的二次检测,采用双重检测方式,以提高整个活体检测的准确率。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的3D人脸活体检测方法的应用场景示意图;
图2为本发明实施例提供的3D人脸活体检测方法的流程示意图;
图3为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图4为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图5为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图6为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图7为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图8为本发明实施例提供的3D人脸活体检测方法的子流程示意图;
图9为本发明实施例提供的3D人脸活体检测装置的示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的3D人脸活体检测方法的应用场景示意图。图2为本发明实施例提供的3D人脸活体检测方法的示意性流程图。该3D人脸活体检测方法应用于服务器中。该服务器与双目摄像头以及终端进行数据交互,从双目摄像头获取到双目图像,也就是待检测图像后,先进行初步活体检测,也就是采用MTCNN算法进行初步活体检测,在初步确定有活体存在的情况下,再辅以深度学习特征的3D活体检测模型进行卷积处理,以进行二次活体检测,多重检测,可提高整个活体检测的准确率,在确认是活体的情况下,形成通知发送至终端,整个应用场景可以是超市、食堂刷脸支付系统、银行自助系统的人脸验证系统、公司或者教育机构人脸签到系统。
图2是本发明实施例提供的3D人脸活体检测方法的流程示意图。如图2所示,该方法包括以下步骤S110至S180。
S110、获取来自双目摄像头的图像,以得到待检测图像。
在本实施例中,待检测图像是指由双目摄像头拍摄的两张图像,比如小区门口的双目摄像头拍摄所得的图像,又如在超市和食堂进行刷脸支付时,双目摄像头拍摄的图像,或者银行自助系统的人脸验证过程中双目摄像头拍摄的图像,当然,还可以是公司或者教育机构人脸签到过程中双目摄像头拍摄的图像。
S120、对所述待检测图像进行处理并计算测距,以得到测距信息图。
在本实施例中,测距信息图是指经过reprojectImageTo3D函数所生成3D点云,该3D点云中保存有2D图像的三维坐标,集成2D图像的三维坐标的Z轴的集合的图像。
在一实施例中,请参阅图3,上述的步骤S120可包括步骤S121~S123。
S121、对所述待检测图像进行校正,以得到第一图像。
在本实施例中,第一图像是指经过像素映射矩阵校正后的图像。
在一实施例中,请参阅图4,上述的步骤S121可包括步骤S1211~S1213。
S1211、获取双目摄像头经过标定所得到的双目摄像头参数矩阵。
在本实施例中,双目摄像头参数矩阵是指双目摄像头所设置的拍摄参数等,对双目摄像头进行标定,便可得出双目摄像头的参数矩阵。
S1212、根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵。
在本实施例中,校正矩阵是指需要校正的参数以及需要进行去除畸变的参数信息。
具体地,采用cvStereoRectify()函数计算待检测图像需要校正的参数信息,另外,再配合initUndistortRectifyMap()函数进行去除畸变的参数信息的计算,cvStereoRectify()函数以及initUndistortRectifyMap()函数是开源视觉库OpenCV的库函数,initUndistortRectifyMap()函数主要用于摄像机校正映射。
S1213、采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在本实施例中,当计算得到校正矩阵后,采用cvRemap()函数对对所述待检测图像进行几何变换,以完成整个校正过程。
S122、对所述第一图像进行立体匹配,以得到视差图。
在本实施例中,视差图是指与原图即待检测图像的相似度差距的图像,具体地是采用stereoBM立体匹配算法进行匹配所得的图像。
在一实施例中,请参阅图5,上述的步骤S122可包括步骤S1221~S1223。
S1221、对所述第一图像进行归一化处理,以得到第二图像。
在本实施例中,第二图像是指第一图像经过归一化处理后的图像。
具体地,对所述第一图像进行归一化处理,可减少亮度差别,增强纹理,以使得立体匹配的过程准确率更高。
S1222、对第二图像进行匹配,以得到最佳匹配信息。
在本实施例中,采用sad算法进行匹配,sad算法的基本流程:构造一个小窗口,类似与卷积核;用窗口覆盖左边的图像,选择出窗口覆盖区域内的所有像素点;同样用窗口覆盖右边的图像并选择出覆盖区域的像素点;左边覆盖区域减去右边覆盖区域,并求出所有像素点差的绝对值的和;移动右边图像的窗口,重复前两个步骤的动作,当超过这个搜索范围跳出该重复流程,找到这个范围内SAD值最小的窗口,即找到了左边图像的最佳匹配的像素块。
在本实施例中,具体地是滑动sad窗口,沿着水平线进行匹配搜索,由于校正后左右图片平行,左图的特征可以在右图对应行找到最佳匹配的特征,以形成匹配信息。
S1223、对所述最佳匹配信息进行过滤,以得到视差图。
采用uniquenessratio函数去除坏的匹配点,也就是匹配程度超过阈值的点,如果左右匹配点比较稠密,匹配点多,得到的图像与原图相似度比较大,如果匹配点比较稀疏,得到的点与原图相似度比较小,从而形成视差图。
S123、根据所述视差图计算测距,以得到测距信息图。
在本实施例中,把生成的视差图输入reprojectImageTo3D函数,生成3D点云,3D点云中保存有2D图像的三维坐标,再读出每帧图像的三维坐标中的z轴的值,就得出了距离数据,这些距离数据构成的图像则为测距信息图。
S130、根据所述测距信息图进行初步活体检测,以得到第一检测结果。
在本实施例中,第一检测结果包括拉普拉斯方差。
在一实施例中,请参阅图6,上述的步骤S130可包括步骤S131~S132。
S131、对所述测距信息图进行灰度化处理,以得到灰度图像。
在本实施例中,灰度图像是指经过灰度化处理的测距信息图,灰度化处理后便可使得图像的纹理更加明显,以使得方差计算更加准确。
S132、对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
纹理信息越丰富,拉普拉斯方差越大;纹理信息越少,拉普拉斯方差越小。由此可判断第一检测结果大于预设置的阈值则可断定该待检测图像可能为活体图像,第一检测结果小于预设置的阈值可断定该待检测图像为非活体图像。
S140、判断所述第一检测结果是否大于预设置的阈值;
若第一检测结果不大于预设置的阈值,则执行所述步骤S110。
S150、若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像。
在本实施例中,中间人脸图像是指将检测到的人脸的关键点坐标加载到某一尺寸为112x112的图片上所形成的人脸图像,以正常人脸的凹凸性,如眼睛、嘴巴、鼻子到摄像头的距离都不同等角度进行深度学习,再次判定是否为活体图像,从而提高整个活体检测的准确率。
在一实施例中,请参阅图7,上述的步骤S150可包括步骤S151~S153。
S151、对待检测图像进行获取双眼瞳孔坐标以及嘴巴中心点坐标,以得到待处理坐标;
在本实施例中,待处理坐标包括双眼瞳孔坐标以及嘴巴中心点坐标,上述的第一检测结果若是活体图像,则会同时输出5个人脸关键点以及人脸框,根据人脸定位技术,便可得知坐标。
S152、获取一空图片;
在本实施例中,空图片是指尺寸为112x112的图片,这个尺寸的图片是更加适合于活体检测。
S153、采用仿射变换将待处理坐标放到空图片的指定位置,以得到中间人脸图像。
在本实施例中,仿射变换是变换模型的方式之一,变换模型是指根据待匹配图像与背景图像之间几何畸变的情况,所选择的能最佳拟合两幅图像之间变化的几何变换模型。仿射变换是一种二维坐标到二维坐标之间的线性变换,保持二维图形的平直性和平行性,其中平直性只是变换后直线还是直线不会打弯,圆弧还是圆弧,而平行性是指保二维图形间的相对位置关系不变,平行线还是平行线,相交直线的交角不变。仿射变换可以保持原来的线共点、点共线的关系不变,保持原来相互平行的线仍然平行,保持原来的中点仍然是中点,保持原来在一直线上极端线段之间的比例关系不变。
当得到待处理坐标后,通过一系列的原子变换的复合来实现仿射变换,以得到中间人脸图像,这一系列的原子变换包括:平移、缩放、翻转、旋转和剪切,通过变换便可得到同一姿态的人脸图像,以提高活体检测的准确率,并配合人脸识别技术可达到较高的人脸识别准确率。
S160、将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在本实施例中,第二检测结果是指中间人脸图像的类别。
在一实施例中,请参阅图8,上述的步骤S160可包括步骤S161~S169。
S161、获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;
在本实施例中,样本集包括负样本集以及正样本集,其中,负样本集是指利用图片、屏幕以及3D面具攻击获取双目摄像头拍摄所得的一对照片,而正样本集是通过双目摄像头获取同一时刻真人不同状态一对一对的图片,采集的时候尽量保持姿态、光线、环境的多样性,负样本集以及正样本集的尺寸为112x112,负样本集以及正样本集的数据各5000人,每个人四对不同场景的照片,正、负样本共40000对照片。
当然,在本实施例中,样本集是指在上述获取到的照片和图片经过预处理后所形成的图像,拿到数照片和图片先进行数据预处理,首先利用MTCNN算法进行人脸和关键点检测,得到人脸信息之后再进行对齐,对齐的方式是先得到眼睛瞳孔两点的坐标及嘴巴中心点的坐标,然后利用彷射变换将这三点放到112x112图片的指定位置,对于双目摄像头拍摄到的待检测图像需要融合为6通道数据,以进行训练,可以防止多姿态的人脸,给活体检测造成影响,进而可达到提高活体检测的准确率。
S162、构建基于caffe框架的卷积神经网络以及损失函数。
在本实施例中,基于caffe框架的卷积神经网络包含4个层,每个层包含卷积层conv、归一化层batchnorm、缩放层scale、神经网络激活层relu,其中,卷积层使用了分组卷积以及深度可分离卷积堆叠而成,同时为了提高网络性能,卷积层还加入了残差模块,基于caffe框架的卷积神经的网络最后连接一个全连接输出为2,网络命名为LivenessNet,以使得整个3D活体检测模型可以在移动端进行快速预测。
所述损失函数为Center Loss函数,Center Loss函数更为紧密,可增大累计距离,同时缩小类内距离。损失函数L公式如下:
Figure BDA0002291144610000101
Figure BDA0002291144610000102
L=Ls+λLc;其中,xi是第i个样本的深度特征,cyi是yi类的深度特征中心,/>
Figure BDA0002291144610000103
是3D活体检测模型的参数,byi是偏置算是L由类间lossLs和类内lossLc相加得到。
S163、将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果。
在本实施例中,训练结果是指训练集依次输入卷积神经网络后输出该训练集对应的类别标签,也就是活体分数,且会经过与预设的活体阈值进行对比,当活体分数超过预设的活体阈值,则会输出类别标签为活体图像,反之则输出类别标签为非活体图像。
将一对一对的人脸融合为6通道的数据作为输入,一次训练所选取的样本数是128,初始学习率为0.001,学习率更改策略使用的是基于步长的更改策略,每10万次迭代训练学习率缩减为原来的十分之一,以此进行模型的训练。
S164、采用损失函数以及训练结果计算损失值。
在本实施例,损失值是指利用上述的损失函数计算训练结果以及对应的类别标签的差距。
S165、判断所述损失值是否维持不变。
在本实施例中,当损失值维持不变,即当前的卷积神经网络已经收敛,即损失值基本不变且非常小,也表明当前的卷积神经网络是可以被用作3D活体检测模型的,一般是开始训练时损失值比较大,越往后训,损失值越小,倘若该损失值未维持不变,表明当前的卷积神经网络不可以用作3D活体检测模型,也就是评估出来的类别并不准确,会导致后期的人脸识别也不准确。
S166、若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述步骤S163。
在本实施例中,调整卷积神经网络的参数是指调整卷积神经网络中各个层的权重值。通过不断地训练,便可以得到满足要求的卷积神经网络。
S167、若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果。
在本实施例中,测试结果是指测试集进行活体检测测试后,便可得到测试集对应的关键点坐标均值以及方差。
S168、判断所述测试结果是否符合要求;
若所述测试结果不符合要求,则执行所述步骤S166;
S169、若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
当测试结果的精度和召回率这两个指标评估符合条件,则表明拟合程度符合要求,便可认为测试结果是符合要求的;否则,则认为该测试结果不符合要求。卷积神经网络收敛时停止训练。卷积神经网络训练好后对卷积神经网络进行测试,如果测试结果不好,需要调整训练策略重新进行卷积神经网络训练。当然,在训练的过程中,会进行训练和测试,训练时测试是为了实时查看训练情况;而训练卷积神经网络完成后的测试,用精度和召回率这两个指标评估整个卷积神经网络的执行准确程度。
S170、判断所述第二检测结果是否为活体图像;
S180、若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
若所述第二检测结果不是活体图像,则执行所述步骤S110;
在双重确认待检测图像为活体图像时,才会输出通知至终端,以进行人脸识别,进而提高整个活体检测的准确率以及人脸识别的准确率。
上述的3D人脸活体检测方法,通过对双目摄像头获取到的双目图像即待检测图像进行深度信息的计算,并计算拉普拉斯方差,根据拉普拉斯方差初步判定待检测图像是否为活体图像,对于初步判定为活体图像的待检测图像进行3D活体检测模型的二次检测,采用双重检测方式,以提高整个活体检测的准确率。
图9是本发明实施例提供的一种3D人脸活体检测装置300的示意性框图。如图9所示,对应于以上3D人脸活体检测方法,本发明还提供一种3D人脸活体检测装置300。该3D人脸活体检测装置300包括用于执行上述3D人脸活体检测方法的单元,该装置可以被配置于服务器中。具体地,请参阅图9,该3D人脸活体检测装置300包括图像获取单元301、测距单元302、初步检测单元303、第一判断单元304、预处理单元305、二次检测单元306、第二判断单元307以及输出单元308。
图像获取单元301,用于获取来自双目摄像头的图像,以得到待检测图像;测距单元302,用于对所述待检测图像进行处理并计算测距,以得到测距信息图;初步检测单元303,用于根据所述测距信息图进行初步活体检测,以得到第一检测结果;第一判断单元304,用于判断所述第一检测结果是否大于预设置的阈值;预处理单元305,用于若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;二次检测单元306,用于将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;第二判断单元307,用于判断所述第二检测结果是否为活体图像;若所述第二检测结果不是活体图像,则执行所述获取待检测图像;输出单元308,用于若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作。
在一实施例中,所述测距单元302包括校正子单元、立体匹配子单元以及测距计算子单元。
校正子单元,用于对所述待检测图像进行校正,以得到第一图像;立体匹配子单元,用于对所述第一图像进行立体匹配,以得到视差图;测距计算子单元,用于根据所述视差图计算测距,以得到测距信息图。
在一实施例中,所述校正子单元包括参数矩阵获取模块、校正矩阵获取模块以及图像校正模块。
参数矩阵获取模块,用于获取双目摄像头经过标定所得到的双目摄像头参数矩阵;校正矩阵获取模块,用于根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;图像校正模块,用于采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,所述立体匹配子单元包括归一化模块、匹配模块以及过滤模块。
归一化模块,用于对所述第一图像进行归一化处理,以得到第二图像;匹配模块,用于对第二图像进行匹配,以得到最佳匹配信息;过滤模块,用于对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,所述初步检测单元303包括灰度化子单元以及方差计算子单元。
灰度化子单元,用于对所述测距信息图进行灰度化处理,以得到灰度图像;方差计算子单元,用于对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,所述装置还包括模型获取单元。
模型获取单元,用于通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络,以得到3D活体检测模型。
在一实施例中,所述模型获取单元包括样本集获取子单元、构建子单元、训练子单元、损失值计算子单元、损失值判断子单元、调整子单元、测试子单元以及测试结果判断子单元。
样本集获取子单元,用于获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建子单元,用于构建基于caffe框架的卷积神经网络以及损失函数;训练子单元,用于将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;损失值计算子单元,用于采用损失函数以及训练结果计算损失值;损失值判断子单元,用于判断所述损失值是否维持不变;调整子单元,用于若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;测试子单元,用于若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;测试结果判断子单元,用于判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述3D人脸活体检测装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述3D人脸活体检测装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种3D人脸活体检测方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种3D人脸活体检测方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取来自双目摄像头的图像,以得到待检测图像;对所述待检测图像进行处理并计算测距,以得到测距信息图;根据所述测距信息图进行初步活体检测,以得到第一检测结果;判断所述第一检测结果是否大于预设置的阈值;若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;判断所述第二检测结果是否为活体图像;若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;若所述第二检测结果不是活体图像,则执行所述获取待检测图像。
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在一实施例中,处理器502在实现所述对所述待检测图像进行处理并计算测距,以得到测距信息图步骤时,具体实现如下步骤:
对所述待检测图像进行校正,以得到第一图像;对所述第一图像进行立体匹配,以得到视差图;根据所述视差图计算测距,以得到测距信息图。
在一实施例中,处理器502在实现所述对所述待检测图像进行校正,以得到第一图像步骤时,具体实现如下步骤:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,处理器502在实现所述对所述第一图像进行立体匹配,以得到视差图步骤时,具体实现如下步骤:
对所述第一图像进行归一化处理,以得到第二图像;对第二图像进行匹配,以得到最佳匹配信息;对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,处理器502在实现所述根据所述测距信息图进行初步活体检测,以得到第一检测结果步骤时,具体实现如下步骤:
对所述测距信息图进行灰度化处理,以得到灰度图像;对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,处理器502在实现所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的步骤时,具体实现如下步骤:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建基于caffe框架的卷积神经网络以及损失函数;将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;采用损失函数以及训练结果计算损失值;判断所述损失值是否维持不变;若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其中,基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
应当理解,在本申请实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取来自双目摄像头的图像,以得到待检测图像;对所述待检测图像进行处理并计算测距,以得到测距信息图;根据所述测距信息图进行初步活体检测,以得到第一检测结果;判断所述第一检测结果是否大于预设置的阈值;若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;判断所述第二检测结果是否为活体图像;若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;若所述第二检测结果不是活体图像,则执行所述获取待检测图像。
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述待检测图像进行处理并计算测距,以得到测距信息图步骤时,具体实现如下步骤:
对所述待检测图像进行校正,以得到第一图像;对所述第一图像进行立体匹配,以得到视差图;根据所述视差图计算测距,以得到测距信息图。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述待检测图像进行校正,以得到第一图像步骤时,具体实现如下步骤:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述第一图像进行立体匹配,以得到视差图步骤时,具体实现如下步骤:
对所述第一图像进行归一化处理,以得到第二图像;对第二图像进行匹配,以得到最佳匹配信息;对所述最佳匹配信息进行过滤,以得到视差图。
在一实施例中,所述处理器在执行所述计算机程序而实现所述根据所述测距信息图进行初步活体检测,以得到第一检测结果步骤时,具体实现如下步骤:
对所述测距信息图进行灰度化处理,以得到灰度图像;对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
在一实施例中,所述处理器在执行所述计算机程序而实现所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的步骤时,具体实现如下步骤:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建基于caffe框架的卷积神经网络以及损失函数;将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;采用损失函数以及训练结果计算损失值;判断所述损失值是否维持不变;若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
其中,基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (9)

1.3D人脸活体检测方法,其特征在于,包括:
获取来自双目摄像头的图像,以得到待检测图像;
对所述待检测图像进行处理并计算测距,以得到测距信息图;
根据所述测距信息图进行初步活体检测,以得到第一检测结果;
判断所述第一检测结果是否大于预设置的阈值;
若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
判断所述第二检测结果是否为活体图像;
若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
若所述第二检测结果不是活体图像,则执行所述获取来自双目摄像头的图像,以得到待检测图像;
其中,所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的;
所述3D活体检测模型是通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络所得的,包括:
获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;
构建基于caffe框架的卷积神经网络以及损失函数;
将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
采用损失函数以及训练结果计算损失值;
判断所述损失值是否维持不变;
若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;
若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;
判断所述测试结果是否符合要求;
若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;
若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
2.根据权利要求1所述的3D人脸活体检测方法,其特征在于,所述对所述待检测图像进行处理并计算测距,以得到测距信息图,包括:
对所述待检测图像进行校正,以得到第一图像;
对所述第一图像进行立体匹配,以得到视差图;
根据所述视差图计算测距,以得到测距信息图。
3.根据权利要求2所述的3D人脸活体检测方法,其特征在于,所述对所述待检测图像进行校正,以得到第一图像,包括:
获取双目摄像头经过标定所得到的双目摄像头参数矩阵;
根据所述双目摄像头参数矩阵生成所述待检测图像的校正所需的像素映射矩阵,以得到校正矩阵;
采用校正矩阵对所述待检测图像进行校正,以得到第一图像。
4.根据权利要求2所述的3D人脸活体检测方法,其特征在于,所述对所述第一图像进行立体匹配,以得到视差图,包括:
对所述第一图像进行归一化处理,以得到第二图像;
对第二图像进行匹配,以得到最佳匹配信息;
对所述最佳匹配信息进行过滤,以得到视差图。
5.根据权利要求1所述的3D人脸活体检测方法,其特征在于,所述根据所述测距信息图进行初步活体检测,以得到第一检测结果,包括:
对所述测距信息图进行灰度化处理,以得到灰度图像;
对所述灰度图像计算其拉普拉斯方差,以得到第一检测结果。
6.根据权利要求4所述的3D人脸活体检测方法,其特征在于,基于caffe框架的卷积神经网络的卷积层包括堆叠的分组卷积以及深度可分离卷积,且基于caffe框架的卷积神经网络的卷积层还包括残差模块,基于caffe框架的卷积神经网络的全输出层为2;所述损失函数为Center Loss函数。
7.3D人脸活体检测装置,其特征在于,包括:
图像获取单元,用于获取来自双目摄像头的图像,以得到待检测图像;
测距单元,用于对所述待检测图像进行处理并计算测距,以得到测距信息图;
初步检测单元,用于根据所述测距信息图进行初步活体检测,以得到第一检测结果;
第一判断单元,用于判断所述第一检测结果是否大于预设置的阈值;
预处理单元,用于若所述第一检测结果大于预设置的阈值,则对所述待检测图像进行预处理,以得到中间人脸图像;
二次检测单元,用于将中间人脸图像输入至3D活体检测模型内进行二次活体检测,以得到第二检测结果;
第二判断单元,用于判断所述第二检测结果是否为活体图像;若所述第二检测结果不是活体图像,则执行所述获取来自双目摄像头的图像,以得到待检测图像;
输出单元,用于若所述第二检测结果是活体图像,则输出所述待检测图像为活体图像的通知至终端,以使得终端进行人脸识别操作;
所述装置还包括模型获取单元;
模型获取单元,用于通过若干带有类别标签的活体图像以及若干带有类别标签的非活体图像作为样本集训练卷积神经网络,以得到3D活体检测模型;
所述模型获取单元包括样本集获取子单元、构建子单元、训练子单元、损失值计算子单元、损失值判断子单元、调整子单元、测试子单元以及测试结果判断子单元;
样本集获取子单元,用于获取若干带有类别标签的活体图像以及若干带有类别标签的非活体图像,以得到样本集,并将样本集划分为训练集以及测试集;构建子单元,用于构建基于caffe框架的卷积神经网络以及损失函数;训练子单元,用于将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;损失值计算子单元,用于采用损失函数以及训练结果计算损失值;损失值判断子单元,用于判断所述损失值是否维持不变;调整子单元,用于若所述损失值不是维持不变,则调整基于caffe框架的卷积神经网络的参数,并执行所述将训练集输入至基于caffe框架的卷积神经网络进行卷积训练,以得到训练结果;测试子单元,用于若所述损失值维持不变,则将测试集输入基于caffe框架的卷积神经网络内进行活体检测测试,以得到测试结果;测试结果判断子单元,用于判断所述测试结果是否符合要求;若所述测试结果不符合要求,则执行所述调整基于caffe框架的卷积神经网络的参数;若所述测试结果符合要求,则将所述基于caffe框架的卷积神经网络作为3D活体检测模型。
8.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的方法。
9.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现如权利要求1至6中任一项所述的方法。
CN201911180571.7A 2019-11-27 2019-11-27 3d人脸活体检测方法、装置、计算机设备及存储介质 Active CN110909693B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911180571.7A CN110909693B (zh) 2019-11-27 2019-11-27 3d人脸活体检测方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911180571.7A CN110909693B (zh) 2019-11-27 2019-11-27 3d人脸活体检测方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN110909693A CN110909693A (zh) 2020-03-24
CN110909693B true CN110909693B (zh) 2023-06-20

Family

ID=69820103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911180571.7A Active CN110909693B (zh) 2019-11-27 2019-11-27 3d人脸活体检测方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN110909693B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666901A (zh) * 2020-06-09 2020-09-15 创新奇智(北京)科技有限公司 一种活体人脸检测方法、装置、电子设备及存储介质
CN111797754A (zh) * 2020-06-30 2020-10-20 上海掌门科技有限公司 图像检测的方法、装置、电子设备及介质
CN111767900B (zh) * 2020-07-28 2024-01-26 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、计算机设备及存储介质
CN112163493A (zh) * 2020-09-21 2021-01-01 中国科学院信息工程研究所 一种视频虚假人脸检测方法及电子装置
CN112329606B (zh) * 2020-11-03 2023-08-15 济南博观智能科技有限公司 一种活体检测方法、装置、电子设备及可读存储介质
CN112270288A (zh) * 2020-11-10 2021-01-26 深圳市商汤科技有限公司 活体识别、门禁设备控制方法和装置、电子设备
CN112633113A (zh) * 2020-12-17 2021-04-09 厦门大学 跨摄像头的人脸活体检测方法及系统
CN112580578A (zh) * 2020-12-28 2021-03-30 珠海亿智电子科技有限公司 双目活体摄像头人脸测距方法及系统
CN113052035A (zh) * 2021-03-15 2021-06-29 上海商汤智能科技有限公司 活体检测方法、装置、电子设备及存储介质
CN113705428A (zh) * 2021-08-26 2021-11-26 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备及计算机可读存储介质
CN113688768A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 基于人工智能的人脸检测方法、装置、设备及介质
CN114333078A (zh) * 2021-12-01 2022-04-12 马上消费金融股份有限公司 活体检测方法、装置、电子设备及存储介质
CN114359967B (zh) * 2022-01-10 2022-08-09 杭州巨岩欣成科技有限公司 泳池防溺水人体目标检测方法、装置、计算机设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169405A (zh) * 2017-03-17 2017-09-15 上海云从企业发展有限公司 基于双目摄像机活体识别的方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110220493B (zh) * 2018-03-02 2023-11-10 北京图森智途科技有限公司 一种双目测距方法及其装置
CN109657592B (zh) * 2018-12-12 2021-12-03 大连理工大学 一种智能挖掘机的人脸识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169405A (zh) * 2017-03-17 2017-09-15 上海云从企业发展有限公司 基于双目摄像机活体识别的方法及装置

Also Published As

Publication number Publication date
CN110909693A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN110909693B (zh) 3d人脸活体检测方法、装置、计算机设备及存储介质
CN110826519B (zh) 人脸遮挡检测方法、装置、计算机设备及存储介质
CN108932536B (zh) 基于深度神经网络的人脸姿态重建方法
CN110942032B (zh) 活体检测方法及装置、存储介质
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
CN107330439A (zh) 一种图像中物体姿态的确定方法、客户端及服务器
CN109640066B (zh) 高精度稠密深度图像的生成方法和装置
CN111429533B (zh) 一种相机镜头畸变参数估计装置及方法
CN105023010A (zh) 一种人脸活体检测方法及系统
CN111028205B (zh) 一种基于双目测距的眼睛瞳孔定位方法及装置
CN111160229B (zh) 基于ssd网络的视频目标检测方法及装置
CN111611934A (zh) 一种人脸检测模型生成和人脸检测方法、装置及设备
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN114022560A (zh) 标定方法及相关装置、设备
CN115147709B (zh) 一种基于深度学习的水下目标三维重建方法
CN111325828B (zh) 一种基于三目相机的三维人脸采集方法及装置
CN116958419A (zh) 一种基于波前编码的双目立体视觉三维重建系统和方法
Zheng et al. What does plate glass reveal about camera calibration?
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN116681839B (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN111160233B (zh) 基于三维成像辅助的人脸活体检测方法、介质及系统
CN117133041A (zh) 一种基于深度学习的三维重建网络人脸识别方法、系统、设备及介质
CN111553250A (zh) 一种基于人脸特征点的精准面瘫程度评测方法及装置
Wang et al. LBP-based edge detection method for depth images with low resolutions
CN113670268B (zh) 基于双目视觉的无人机和电力杆塔距离测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant after: Shenzhen Huafu Technology Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant before: SHENZHEN HUAFU INFORMATION TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: 3D facial live detection method, device, computer equipment, and storage medium

Granted publication date: 20230620

Pledgee: Industrial Bank Co.,Ltd. Shenzhen Songping Branch

Pledgor: Shenzhen Huafu Technology Co.,Ltd.

Registration number: Y2024980006437