CN112016505B - 基于人脸图像的活体检测方法、设备、存储介质及装置 - Google Patents
基于人脸图像的活体检测方法、设备、存储介质及装置 Download PDFInfo
- Publication number
- CN112016505B CN112016505B CN202010925671.4A CN202010925671A CN112016505B CN 112016505 B CN112016505 B CN 112016505B CN 202010925671 A CN202010925671 A CN 202010925671A CN 112016505 B CN112016505 B CN 112016505B
- Authority
- CN
- China
- Prior art keywords
- current
- face
- image
- reference face
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 99
- 238000005286 illumination Methods 0.000 claims abstract description 190
- 238000003384 imaging method Methods 0.000 claims abstract description 28
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 19
- 238000012216 screening Methods 0.000 claims description 17
- 238000003709 image segmentation Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000010191 image analysis Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 29
- 230000008569 process Effects 0.000 abstract description 12
- 230000007547 defect Effects 0.000 abstract description 4
- 230000001815 facial effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001795 light effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241001391944 Commicarpus scandens Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及人工智能技术,公开了一种基于人脸图像的活体检测方法、设备、存储介质及装置,相较于现有的活体检测方式,本发明中,获取待检测人脸图像,根据预设光照物理成像模型确定待检测人脸图像的当前场景光照图以及当前人脸特征,从当前人脸特征中提取当前面部三维形状并查找当前面部三维形状对应的参考人脸模型,对当前场景光照图进行光线分解,获得当前光照条件,在当前光照条件下,获取参考人脸模型的参考人脸图像,根据预设光照物理成像模型确定参考人脸图像的参考人脸特征,根据当前人脸特征以及参考人脸特征确定活体检测结果,克服了现有技术中需要用户重复多次配合交互的缺陷,从而能够优化活体检测过程,提高活体检测精度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人脸图像的活体检测方法、设备、存储介质及装置。
背景技术
目前,活体检测主要应用于人脸识别场景中判断待识别对象是否为真人,用于防御照片攻击、手机视频攻击、电脑视频攻击、面具攻击等。现有技术所采用的活体检测方式通常是:配合交互式活体检测技术。配合交互式活体检测技术是先建立目标客户端与验证服务器之间的网络视频通话,然后由验证服务器发送随机化的动作指令至目标客户端,根据对视频中的人脸进行检测和对齐跟踪来判断用户是否按要求完成动作,从而实现活体检测。
但是,上述活体检测方式存在以下不足:长时间网络视频通话审核中,需要用户重复多次配合交互,其体验非常差,且很容易被现有的换脸技术攻破。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种基于人脸图像的活体检测方法、设备、存储介质及装置,旨在解决如何对分支云进行分组以优化基于人脸图像的活体检测过程的技术问题。
为实现上述目的,本发明提供一种基于人脸图像的活体检测方法,所述基于人脸图像的活体检测方法包括以下步骤:
在接收到活体检测指令时,获取待检测人脸图像;
通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征;
从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型;
对所述当前场景光照图进行光线分解,获得当前光照条件;
在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像;
通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征;
根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果。
优选地,所述在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像的步骤之前,所述基于人脸图像的活体检测方法还包括:
根据待检测人脸图像确定当前三维姿态信息;
获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息;
根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件;
所述在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像的步骤,具体包括:
在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像。
优选地,所述所述根据待检测人脸图像确定当前三维姿态信息的步骤,具体包括:
对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息;
根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息。
优选地,所述在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像的步骤,具体包括:
对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向;
根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向;
基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像。
优选地,所述对所述当前场景光照图进行光线分解,获得当前光照条件的步骤,具体包括:
根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像;
对所述子图像进行对比度分析,获得所述子图像的光线强度;
获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度;
根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件。
优选地,所述获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度的步骤,具体包括:
获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心;
对所述子图像进行图像分析,获得所述子图像的几何中心;
根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度。
优选地,所述根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果的步骤,具体包括:
对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图;
对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图;
基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值;
基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值;
根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
此外,为实现上述目的,本发明还提出一种基于人脸图像的活体检测设备,所述基于人脸图像的活体检测设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于人脸图像的活体检测程序,所述基于人脸图像的活体检测程序配置为实现如上文所述的基于人脸图像的活体检测方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有基于人脸图像的活体检测程序,所述基于人脸图像的活体检测程序被处理器执行时实现如上文所述的基于人脸图像的活体检测方法的步骤。
此外,为实现上述目的,本发明还提出一种基于人脸图像的活体检测装置,所述基于人脸图像的活体检测装置包括:信息获取模块、特征解耦模块、模型查找模块、光线分解模块和结果生成模块;
所述信息获取模块,用于在接收到活体检测指令时,获取待检测人脸图像;
所述特征解耦模块,用于通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征;
所述模型查找模块,用于从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型;
所述光线分解模块,用于对所述当前场景光照图进行光线分解,获得当前光照条件;
所述信息获取模块,还用于在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像;
所述特征解耦模块,还用于通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征;
所述结果生成模块,用于根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果。
相较于现有的配合交互式活体检测方式,本发明中,获取待检测人脸图像,通过预设光照物理成像模型对待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征,从当前人脸特征中提取当前面部三维形状并查找当前面部三维形状对应的参考人脸模型,对当前场景光照图进行光线分解,获得当前光照条件,在当前光照条件下,获取参考人脸模型的参考人脸图像,通过预设光照物理成像模型对参考人脸图像进行特征解耦,获得参考人脸特征,根据当前人脸特征以及参考人脸特征确定活体检测结果,克服了现有技术中需要用户重复多次配合交互的缺陷,从而能够优化活体检测过程,提高活体检测精度,以满足用户需求。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的基于人脸图像的活体检测设备的结构示意图;
图2为本发明基于人脸图像的活体检测方法第一实施例的流程示意图;
图3为本发明基于人脸图像的活体检测方法一实施例的子图像的几何中心和光强加权中心的坐标位置图:
图4为本发明基于人脸图像的活体检测方法第二实施例的流程示意图;
图5为本发明基于人脸图像的活体检测方法第三实施例的流程示意图;
图6为本发明基于人脸图像的活体检测装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的基于人脸图像的活体检测设备结构示意图。
如图1所示,该基于人脸图像的活体检测设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display),可选用户接口1003还可以包括标准的有线接口、无线接口,对于用户接口1003的有线接口在本发明中可为USB接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的存储器(Non-volatileMemory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对基于人脸图像的活体检测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,认定为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于人脸图像的活体检测程序。
在图1所示的基于人脸图像的活体检测设备中,网络接口1004主要用于连接后台服务器,与所述后台服务器进行数据通信;用户接口1003主要用于连接用户设备;所述基于人脸图像的活体检测设备通过处理器1001调用存储器1005中存储的基于人脸图像的活体检测程序,并执行本发明实施例提供的基于人脸图像的活体检测方法。
基于上述硬件结构,提出本发明基于人脸图像的活体检测方法的实施例。
参照图2,图2为本发明基于人脸图像的活体检测方法第一实施例的流程示意图,提出本发明基于人脸图像的活体检测方法第一实施例。
步骤S10:在接收到活体检测指令时,获取待检测人脸图像。
需要说明的是,本实施例的执行主体是所述基于人脸图像的活体检测设备,其中,所述基于人脸图像的活体检测设备可为个人电脑以及服务器等电子设备,还可为其他可实现相同或相似功能的设备,本实施例对此不作限制,在本实施例以及下述各实施例中,以基于人脸图像的活体检测设备为例对本发明基于人脸图像的活体检测方法进行说明。
需要说明的是,活体检测指令可以是用户终端发出的活体检测指令;待检测人脸图像可以是用户终端上传的待检测人脸图像。
应当理解的是,获取待检测人脸图像可以是直接读取用户终端上传的用户数据,并根据用户数据确定待检测人脸图像。
步骤S20:通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征。
需要说明的是,光照射到物体表面会存在散射和镜面反射,不同方向的光照射到三维人脸上由于散射会存在局部阴影,由于人脸局部区域的油腻程度不一样会存在局部高光。因此,预设光照物理成像模型可以是模拟光的成像过程的模型,物体成像主要包含散射和镜面反射;
特征解耦可以是分离出任务相关特征和无关特征,在本实施例,任务相关特征可以是前场景光照图以及当前人脸特征特征,本实施例对此不加以限制;
当前场景光照图可以是待检测人脸图像中光源图像信息;当前人脸特征可以是当前面部三维形状、当前面部阴影以及当前面部高光等信息,本实施例对此不加以限制。
应当理解的是,通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征可以是通过预设光照物理成像模型对所述待检测人脸图像进行特征分离,获得当前场景光照图以及当前人脸特征。
步骤S30:从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型。
需要说明的是,同一个场景光照图投影到2个真实的三维人脸上,其局部光照和局部阴影差异不会很大,如果同一场景光照图投影到一个二维攻击人脸和一个三维人脸上,其局部高光和局部阴影就会差异很大。因此,可以设置参考人脸模型来检测待检测人脸图像是否为二维攻击人脸。其中,参考人脸模型可以是预定义的平均人脸三维模型,也可以是当前面部三维形状对应的参考人脸模型,本实施例中以当前面部三维形状对应的参考人脸模型为例进行说明。
可以理解的是,从所述当前人脸特征中提取当前面部三维形状可以是对当前人脸特征进行筛选,获得当前面部三维形状。
应当理解的是,查找所述当前面部三维形状对应的参考人脸模型可以是在预设映射关系表中查找当前面部三维形状对应的参考人脸模型,所述预设映射关系表中包含当前面部三维形状与参考人脸模型之间的对应关系,所述对应关系根据用户的实际需求进行设置,本实施例对此不加以限制。
步骤S40:对所述当前场景光照图进行光线分解,获得当前光照条件。
应当理解的是,对所述当前场景光照图进行光线分解,获得当前光照条件可以是根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像,对所述子图像进行对比度分析,获得所述子图像的光线强度,获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心,对所述子图像进行图像分析,获得所述子图像的几何中心,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度,根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件。
需要说明的是,预设图片分割策略可以是将当前场景光照图分解成预设第一数量个由预设尺寸组成的小正方形网格元素,每个小正方形网格元素作为一张子图像,其中,所述子图像由预设第二数量的像素组成,其中,预设第一数量、预设尺寸以及预设第二数量可以根据用户需求进行设置,本实施例对此不加以限制。
需要说明的是,图像矩可以是一个从数字图形中计算出来的矩集,通常描述了该图像的全局特征,并提供了大量的关于该图像不同类型的几何特征信息,比如大小、位置、方向及形状等,例如:一阶矩与形状有关;二阶矩显示了曲线围绕直线平均值的扩展程度;三阶矩则是关于平均值的对称性测量;由二阶矩和三阶矩可以导出一组共七个不变矩,不变矩是图像的统计特征,满足平移、伸缩、旋转均不变的不变形,在图像处理中,几何不变矩可以作为一个重要的特征来表示物体,可以据此特征来对图像进行分类等操作。上述一阶矩、二阶矩、三阶矩以及由二阶矩和三阶矩导出的七个不变矩都有具体的计算公式,根据这些公式确定光强加权中心属于本领域的技术常识,本发明在此不做赘述。
在具体实现中,例如,如图3子图像的几何中心和光强加权中心的坐标位置图所示,子图像中几何中心c的坐标位置为(xc,yc),光强加权中心g的坐标位置为(xg,yg),将该几何中心c的坐标位置与光强加权中心g的坐标位置进行比较,从几何中心c到光强加权中心g的向量的方向代表光线的方向,即是该子图像所在目标图片位置的局部光效指示,d代表向量的模
应理解的是,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度可以是获取光强加权中心的坐标位置,获取几何中心的坐标位置,根据几何中心的坐标位置以及光强加权中心的坐标位置通过预设光线角度公式计算子图像的光线角度,
其中,所述预设光线角度公式为:
a=Arctan((yg-yc)/(xg-xc))
式中,a为子图像的光线角度,(xc,yc)为几何中心的坐标位置,(xg,yg)为光强加权中心的坐标位置。
可以理解的是,当每个子图像都经过上述步骤确定光线强度和光线角度后,则对所有的子图像的光线强度进行计算,得到当前场景光照图的光线强度,并对所有的子图像的光线角度进行计算,得到当前场景光照图的光线角度,所述当前场景光照图的光线角度和所述当前场景光照图的光线强度,即为所述当前场景光照图的光线信息。
步骤S50:在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像。
应当理解的是,在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像可以是对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,基于所述当前光照强度以及所述当前光照方向获取所述参考人脸模型的参考人脸图像。
应当理解的是,对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向可以是设置筛选标识,根据筛选标识对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,其中,筛选标识可以是设置为当前光照强度以及当前光照方向保留。
可以理解的是,基于所述当前光照强度以及所述当前光照方向获取所述参考人脸模型的参考人脸图像可以是根据当前光照强度以及当前光照方向模拟光照环境,并获取参考人脸模型在模拟光照环境下的参考人脸图像。
需要说明的是,模拟光照环境可以是通过unity等3D游戏开发工具模拟,本实施例对此不加以限制。
步骤S60:通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征。
需要说明的是,预设光照物理成像模型可以是模拟光的成像过程的模型,物体成像主要包含散射和镜面反射;参考人脸特征可以是参考面部阴影以及参考面部高光等信息,本实施例对此不加以限制。
步骤S70:根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果。
需要说明的是,活体检验结果可以是判定待检测人脸图像对应的待检测对象是真人或判定待检测人脸图像对应的待检测对象不是真人。
可以理解的是,根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果可以是对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图,对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图,基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值,基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值,根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
需要说明的是,特征解耦可以是分离出任务相关特征和无关特征,在本实施例,任务相关特征可以是面部阴影特征以及面部高光特征,本实施例对此不加以限制;面部阴影图可以是面部图像中曝光较暗的区域;面部高光图可以面部图像中过曝的区域;当前面部阴影图可以是待检测人脸图像的面部阴影图;当前面部高光图可以是待检测人脸图像的面部高光图;参考面部阴影图可以是参考人脸模型在当前光照条件下的面部阴影图,参考面部高光图可以是参考人脸模型在当前光照条件下的面部高光图。
相较于现有的配合交互式活体检测方式,本实施例中,获取待检测人脸图像,通过预设光照物理成像模型对待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征,从当前人脸特征中提取当前面部三维形状并查找当前面部三维形状对应的参考人脸模型,对当前场景光照图进行光线分解,获得当前光照条件,在当前光照条件下,获取参考人脸模型的参考人脸图像,通过预设光照物理成像模型对参考人脸图像进行特征解耦,获得参考人脸特征,根据当前人脸特征以及参考人脸特征确定活体检测结果,克服了现有技术中需要用户重复多次配合交互的缺陷,从而能够优化活体检测过程,提高活体检测精度,以满足用户需求。
参照图4,图4为本发明基于人脸图像的活体检测方法第二实施例的流程示意图,基于上述图2所示的第一实施例,提出本发明基于人脸图像的活体检测方法的第二实施例。
在第二实施例中,所述步骤S50之前,还包括:
步骤S411:根据待检测人脸图像确定当前三维姿态信息。
需要说明的是,当前三维姿态信息可以是三维坐标信息。
应当理解的是,根据待检测人脸图像确定当前三维姿态信息可以是对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息,根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息。
进一步地,所述步骤S411,包括:
对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息;
根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息。
需要说明的是,姿态信息提取可以是先构建平面坐标系,在基于平面坐标系提取待检测人脸图像的图像信息;当前二维姿态信息可以是二维坐标信息;当前三维姿态信息可以是三维坐标信息。
可以理解的是,对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息可以是基于预设平面坐标系对待检测人脸图像进行姿态信息提取,获得当前二维姿态信息,其中,预设平面坐标系可以根据用户的实际情况进行设置,本实施例对此不加以限制。
应当理解的是,根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息可以是将当前二维姿态信息送入二维姿态检测器获取对应姿态的二维人体关节点坐标,根据训练过程有无三维姿态数据标签设计两种结构的双向投影网络,利用深度对抗式学习策略对设计好的网络进行训练,最小化网络损失函数,经过迭代最终得到训练好的三维姿态生成器,将二维姿态检测器的输出结果输入训练好的三维姿态生成器,输出结果为当前三维姿态信息。
步骤S412:获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息。
可以理解的是,在实际生活中,存在待检测人脸图像中待检测人脸的当前三维姿态信息为非正脸,而参考人脸模型的参考三维姿态信息为正脸时,需要将参考人脸模型的三维姿态旋转到待检测人脸的相同姿态,以减少检测差异。
应当理解的是,获取参考人脸模型的参考三维姿态信息可以是从预设数据库中获取预先存储的参考三维姿态信息,其中,预设数据库可以由用户预先设置;获取参考人脸模型的参考三维姿态信息也可以是从区块链中获取预先存储的参考三维姿态信息,其中,区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
可以理解的是,根据所述当前三维姿态信息对所述参考三维姿态信息进行修正可以是根据当前三维姿态信息确定当前三维坐标,根据参考三维姿态信息确定参考三维坐标,计算当前三维坐标与参考三维坐标之间的坐标差值,并根据坐标差值对参考三维坐标进行修正,获得目标三维姿态坐标,并将所述目标三维姿态坐标作为目标三维姿态信息。
步骤S413:根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件。
需要说明的是,当前放置条件可以是当前放置坐标以及当前放置方向,本实施例对此不加以限制。
可以理解的是,根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件可以是对目标三维姿态信息进行解析,获得当前放置坐标以及当前放置方向,根据当前放置坐标以及当前放置方向确定所述参考人脸模型的当前放置条件。
在第二实施例中,通过根据待检测人脸图像确定当前三维姿态信息,获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息,根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件,在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像,从而能够将参考人脸模型旋转到待检测人脸图像相同的三维姿态,提高活体检测的准确性。
相应地,所述步骤S50,包括:
步骤S50':在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像。
可以理解的是,在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像可以是对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向,基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像。
进一步地,所述步骤S50',包括:
对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向;
根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向;
基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像。
应当理解的是,对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向可以是设置筛选标识,根据筛选标识对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,其中,筛选标识可以是设置为当前光照强度以及当前光照方向保留。
需要说明的是,当前放置坐标可以是三维空间坐标系的坐标信息,其中,当前放置坐标可以根据用户需求预先设置;当前放置方向可以是参考人脸模型的正脸所对的方向。
应当理解的是,根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向可以是从当前放置条件中提取出参考人脸模型的当前放置坐标以及当前放置方向。
可以理解的是,基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像可以是根据当前光照强度以及当前光照方向模拟光照环境,并将参考人脸模型设置在当前放置坐标,正面朝向当前放置方向,此时,获取参考人脸模型的参考人脸图像。
需要说明的是,模拟光照环境可以是通过unity等3D游戏开发工具模拟,本实施例对此不加以限制。
在第二实施例中,通过对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向,基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像,从而能够模拟待检测人脸图像的当前环境。
参照图5,图5为本发明基于人脸图像的活体检测方法第三实施例的流程示意图,基于上述图2所示的第一实施例,提出本发明基于人脸图像的活体检测方法的第三实施例。
在第三实施例中,所述步骤S40,包括:
步骤S401:根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像。
需要说明的是,预设图片分割策略可以是将当前场景光照图分解成预设第一数量个由预设尺寸组成的小正方形网格元素,每个小正方形网格元素作为一张子图像,其中,所述子图像由预设第二数量的像素组成,其中,预设第一数量、预设尺寸以及预设第二数量可以根据用户需求进行设置,本实施例对此不加以限制。
在具体实现中,例如,根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像可以是把当前场景光照图分解成C列R行(其中C,R都是整数,且C>2,R>2),得到多张子图像,每个子图像由p个像素组成。
步骤S402:对所述子图像进行对比度分析,获得所述子图像的光线强度。
应当理解的是,对所述子图像进行对比度分析,获得所述子图像的光线强度可以是先对子图像进行灰度提取,获得灰度值,根据灰度值对子图像进行对比度分析,获得子图像的光线强度。
步骤S403:获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度。
应当理解的是,获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度可以是获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心,对所述子图像进行图像分析,获得所述子图像的几何中心,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度。
需要说明的是,图像矩可以是一个从数字图形中计算出来的矩集,通常描述了该图像的全局特征,并提供了大量的关于该图像不同类型的几何特征信息,比如大小、位置、方向及形状等,例如:一阶矩与形状有关;二阶矩显示了曲线围绕直线平均值的扩展程度;三阶矩则是关于平均值的对称性测量;由二阶矩和三阶矩可以导出一组共七个不变矩,不变矩是图像的统计特征,满足平移、伸缩、旋转均不变的不变形,在图像处理中,几何不变矩可以作为一个重要的特征来表示物体,可以据此特征来对图像进行分类等操作。上述一阶矩、二阶矩、三阶矩以及由二阶矩和三阶矩导出的七个不变矩都有具体的计算公式,根据这些公式确定光强加权中心属于本领域的技术常识,本发明在此不做赘述。
进一步地,所述步骤S403,包括:
获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心;
对所述子图像进行图像分析,获得所述子图像的几何中心;
根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度。
在具体实现中,例如,通过图像矩确定了光强加权中心g,其在子图像中的坐标位置为(xg,yg)。
需要说明的是,几何中心可以是子图像的中心点坐标。
应当理解的是,对所述子图像进行图像分析,获得所述子图像的几何中心可以是基于预设脚本对子图像进行图像分析,获得子图像的几何中心,其中,预设脚本可以根据用户需求进行设置,本实施例对此不加以限制。
在具体实现中,例如,如图3子图像的几何中心和光强加权中心的坐标位置图所示,子图像中几何中心c的坐标位置为(xc,yc),光强加权中心g的坐标位置为(xg,yg),将该几何中心c的坐标位置与光强加权中心g的坐标位置进行比较,从几何中心c到光强加权中心g的向量的方向代表光线的方向,即是该子图像所在目标图片位置的局部光效指示,d代表向量的模
应理解的是,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度可以是获取光强加权中心的坐标位置,获取几何中心的坐标位置,根据几何中心的坐标位置以及光强加权中心的坐标位置通过预设光线角度公式计算子图像的光线角度,
其中,所述预设光线角度公式为:
a=Arctan((yg-yc)/(xg-xc))
式中,a为子图像的光线角度,(xc,yc)为几何中心的坐标位置,(xg,yg)为光强加权中心的坐标位置。
步骤S404:根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件。
可以理解的是,当每个子图像都经过上述步骤确定光线强度和光线角度后,则对所有的子图像的光线强度进行计算,得到当前场景光照图的光线强度,并对所有的子图像的光线角度进行计算,得到当前场景光照图的光线角度,所述当前场景光照图的光线角度和所述当前场景光照图的光线强度,即为所述当前场景光照图的光线信息。
可以理解的是,根据所述光线信息确定当前光照条件可以是将光线信息中光线强度以及光线角度作为当前光照条件。
在第三实施例中,根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像,对所述子图像进行对比度分析,获得所述子图像的光线强度,获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心,对所述子图像进行图像分析,获得所述子图像的几何中心,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度,根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件;本实施例先通过预设图片分割策略将当前场景光照图分割为子图像,然后计算子图像的光线强度以及光线角度,再根据光线强度以及光线角度确定当前场景光照图的光线信息,最后根据光线信息确定当前光照条件,从而能够准确提取场景光照图中的光线信息,并根据光线信息确定场景光照图的当前光照条件。
在第三实施例中,所述步骤S70,包括:
步骤S701:对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图。
需要说明的是,特征解耦可以是分离出任务相关特征和无关特征,在本实施例,任务相关特征可以是面部阴影特征以及面部高光特征,本实施例对此不加以限制;面部阴影图可以是面部图像中曝光较暗的区域;面部高光图可以面部图像中过曝的区域;当前面部阴影图可以是待检测人脸图像的面部阴影图;当前面部高光图可以是待检测人脸图像的面部高光图。
可以理解的是,对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图可以是对当前人脸特征进行特征分离,获得当前面部阴影特征以及当前面部高光特征,根据当前面部阴影特征生成当前面部阴影图,根据当前面部高光特征生成当前面部高光图。
步骤S702:对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图。
需要说明的是,参考面部阴影图可以是参考人脸模型在当前光照条件下的面部阴影图,参考面部高光图可以是参考人脸模型在当前光照条件下的面部高光图。
应当理解的是,对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图可以是对参考人脸特征进行特征分离,获得参考面部阴影特征以及参考面部高光特征,根据参考面部阴影特征生成参考面部阴影图,根据参考面部高光特征生成参考面部高光图。
步骤S703:基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值。
可以理解的是,基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值可以是基于当前面部阴影图以及参考面部阴影图确定第一图像差值,根据第一图像差值确定面部阴影差值。
步骤S704:基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值。
应当理解的是,基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值可以是基于当前面部高光图以及参考面部高光图确定第二图像差值,根据第二图像差值确定面部阴影差值
步骤S705:根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
需要说明的是,活体检验结果可以是判定待检测人脸图像对应的待检测对象是真人或判定待检测人脸图像对应的待检测对象不是真人。
应当理解的是,根据所述面部阴影差值以及所述面部高光差值确定活体检验结果可以是判断面部阴影差值是否小于第一阈值;判断所述面部高光差值是否小于第二阈值;在面部阴影差值小于第一阈值,并面部高光差值小于第二阈值时,判定活体检验结果为待检测人脸图像对应的待检测对象是真人,其中,第一阈值以及第二阈值可以是根据用户的实际需求进行设置,本实施例对此不加以限制。
在第三实施例中,对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图,对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图,基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值,基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值,根据所述面部阴影差值以及所述面部高光差值确定活体检验结果;本实施例根据当前面部阴影图以及参考面部阴影图确定面部阴影差值,根据当前面部高光图以及参考面部高光图确定面部高光差值,根据面部阴影差值以及面部高光差值确定活体检验结果,从而能够通过人脸阴影区域和高光区域来区分活体,避免不同恶劣光照场景对活体检测的影响。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有基于人脸图像的活体检测程序,所述基于人脸图像的活体检测程序被处理器执行时实现如上文所述的基于人脸图像的活体检测方法的步骤。
此外,参照图6,本发明实施例还提出一种基于人脸图像的活体检测装置,所述基于人脸图像的活体检测装置包括:信息获取模块10、特征解耦模块20、模型查找模块30、光线分解模块40和结果生成模块50;
所述信息获取模块10,用于在接收到活体检测指令时,获取待检测人脸图像;
所述特征解耦模块20,用于通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征;
所述模型查找模块30,用于从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型;
所述光线分解模块40,用于对所述当前场景光照图进行光线分解,获得当前光照条件;
所述信息获取模块10,还用于在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像;
所述特征解耦模块20,还用于通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征;
所述结果生成模块50,用于根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果。
相较于现有的配合交互式活体检测方式,本实施例中,获取待检测人脸图像,通过预设光照物理成像模型对待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征,从当前人脸特征中提取当前面部三维形状并查找当前面部三维形状对应的参考人脸模型,对当前场景光照图进行光线分解,获得当前光照条件,在当前光照条件下,获取参考人脸模型的参考人脸图像,通过预设光照物理成像模型对参考人脸图像进行特征解耦,获得参考人脸特征,根据当前人脸特征以及参考人脸特征确定活体检测结果,克服了现有技术中需要用户重复多次配合交互的缺陷,从而能够优化活体检测过程,提高活体检测精度,以满足用户需求。
在一实施例中,所述基于人脸图像的活体检测装置还包括:姿态调整模块;
所述姿态调整模块,还用于根据待检测人脸图像确定当前三维姿态信息,获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息,根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件;所述信息获取模块10,还用于在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像;
在一实施例中,所述姿态调整模块,还用于对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息,根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息;
在一实施例中,所述信息获取模块10,还用于对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向,根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向,基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像;
在一实施例中,所述光线分解模块40,还用于根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像,对所述子图像进行对比度分析,获得所述子图像的光线强度,获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度,根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件;
在一实施例中,所述光线分解模块40,还用于获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心,对所述子图像进行图像分析,获得所述子图像的几何中心,根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度;
在一实施例中,所述结果生成模块50,还用于对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图,对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图,基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值,基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值,根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
本发明所述基于人脸图像的活体检测装置的其他实施例或具体实现方式可参照上述各方法实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为名称。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器镜像(Read Only Memory image,ROM)/随机存取存储器(Random AccessMemory,RAM)、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种基于人脸图像的活体检测方法,其特征在于,所述基于人脸图像的活体检测方法包括以下步骤:
在接收到活体检测指令时,获取待检测人脸图像;
通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征;
从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型;
对所述当前场景光照图进行光线分解,获得当前光照条件;
在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像;
通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征;
根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果;
其中,所述在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像的步骤之前,所述基于人脸图像的活体检测方法还包括:
根据待检测人脸图像确定当前三维姿态信息;
获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息;
根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件;
所述在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像的步骤,具体包括:
在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像;
所述对所述当前场景光照图进行光线分解,获得当前光照条件的步骤,具体包括:
根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像;
对所述子图像进行对比度分析,获得所述子图像的光线强度;
获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度;
根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件;
所述根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果的步骤,具体包括:
对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图;
对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图;
基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值;
基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值;
根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
2.如权利要求1所述的基于人脸图像的活体检测方法,其特征在于,所述根据待检测人脸图像确定当前三维姿态信息的步骤,具体包括:
对所述待检测人脸图像进行姿态信息提取,获得当前二维姿态信息;
根据所述当前二维姿态信息通过预设投影网络确定当前三维姿态信息。
3.如权利要求1所述的基于人脸图像的活体检测方法,其特征在于,所述在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像的步骤,具体包括:
对所述当前光照条件进行条件筛选,获得当前光照强度以及当前光照方向;
根据所述当前放置条件确定所述参考人脸模型的当前放置坐标以及当前放置方向;
基于所述当前光照强度、所述当前光照方向、所述当前放置坐标以及所述当前放置方向获取所述参考人脸模型的参考人脸图像。
4.如权利要求1所述的基于人脸图像的活体检测方法,其特征在于,所述获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度的步骤,具体包括:
获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光强加权中心;
对所述子图像进行图像分析,获得所述子图像的几何中心;
根据所述光强加权中心以及所述几何中心确定所述子图像的光线角度。
5.一种基于人脸图像的活体检测设备,其特征在于,所述基于人脸图像的活体检测设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于人脸图像的活体检测程序,所述基于人脸图像的活体检测程序被所述处理器执行时实现如权利要求1至4中任一项所述的基于人脸图像的活体检测方法的步骤。
6.一种存储介质,其特征在于,所述存储介质上存储有基于人脸图像的活体检测程序,所述基于人脸图像的活体检测程序被处理器执行时实现如权利要求1至4中任一项所述的基于人脸图像的活体检测方法的步骤。
7.一种基于人脸图像的活体检测装置,其特征在于,所述基于人脸图像的活体检测装置包括:信息获取模块、特征解耦模块、模型查找模块、光线分解模块和结果生成模块;
所述信息获取模块,用于在接收到活体检测指令时,获取待检测人脸图像;
所述特征解耦模块,用于通过预设光照物理成像模型对所述待检测人脸图像进行特征解耦,获得当前场景光照图以及当前人脸特征;
所述模型查找模块,用于从所述当前人脸特征中提取当前面部三维形状,并查找所述当前面部三维形状对应的参考人脸模型;
所述光线分解模块,用于对所述当前场景光照图进行光线分解,获得当前光照条件;
所述信息获取模块,还用于在所述当前光照条件下,获取所述参考人脸模型的参考人脸图像;
所述特征解耦模块,还用于通过所述预设光照物理成像模型对所述参考人脸图像进行特征解耦,获得参考人脸特征;
所述结果生成模块,用于根据所述当前人脸特征以及所述参考人脸特征确定活体检测结果;
所述基于人脸图像的活体检测装置还包括:姿态调整模块;
所述姿态调整模块,还用于根据待检测人脸图像确定当前三维姿态信息,获取参考人脸模型的参考三维姿态信息,并根据所述当前三维姿态信息对所述参考三维姿态信息进行修正,获得目标三维姿态信息,根据所述目标三维姿态信息确定所述参考人脸模型的当前放置条件;
相应地,所述信息获取模块,还用于在所述当前光照条件以及所述当前放置条件下,获取所述参考人脸模型的参考人脸图像;
所述光线分解模块,还用于根据预设图片分割策略对所述当前场景光照图进行图片分割,获得子图像,对所述子图像进行对比度分析,获得所述子图像的光线强度,获取所述子图像的图像矩,并根据所述图像矩确定所述子图像的光线角度,根据所述光线强度以及所述光线角度确定所述当前场景光照图的光线信息,并根据所述光线信息确定当前光照条件;
所述结果生成模块,还用于对所述当前人脸特征进行特征解耦,获得当前面部阴影图以及当前面部高光图,对所述参考人脸特征进行特征解耦,获得参考面部阴影图以及参考面部高光图,基于所述当前面部阴影图以及所述参考面部阴影图确定面部阴影差值,基于所述当前面部高光图以及所述参考面部高光图确定面部高光差值,根据所述面部阴影差值以及所述面部高光差值确定活体检验结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925671.4A CN112016505B (zh) | 2020-09-03 | 2020-09-03 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925671.4A CN112016505B (zh) | 2020-09-03 | 2020-09-03 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112016505A CN112016505A (zh) | 2020-12-01 |
CN112016505B true CN112016505B (zh) | 2024-05-28 |
Family
ID=73515961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010925671.4A Active CN112016505B (zh) | 2020-09-03 | 2020-09-03 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112016505B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113963425B (zh) * | 2021-12-22 | 2022-03-25 | 北京的卢深视科技有限公司 | 人脸活体检测系统的测试方法、装置及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN109858381A (zh) * | 2019-01-04 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110287918A (zh) * | 2019-06-28 | 2019-09-27 | Oppo广东移动通信有限公司 | 活体识别方法及相关产品 |
CN110598571A (zh) * | 2019-08-15 | 2019-12-20 | 中国平安人寿保险股份有限公司 | 活体检测方法、装置及计算机可读存储介质 |
CN110765923A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
WO2020056689A1 (zh) * | 2018-09-20 | 2020-03-26 | 太平洋未来科技(深圳)有限公司 | 一种ar成像方法、装置及电子设备 |
WO2020056691A1 (zh) * | 2018-09-20 | 2020-03-26 | 太平洋未来科技(深圳)有限公司 | 一种交互对象的生成方法、装置及电子设备 |
CN111597944A (zh) * | 2020-05-11 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
-
2020
- 2020-09-03 CN CN202010925671.4A patent/CN112016505B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
WO2020056689A1 (zh) * | 2018-09-20 | 2020-03-26 | 太平洋未来科技(深圳)有限公司 | 一种ar成像方法、装置及电子设备 |
WO2020056691A1 (zh) * | 2018-09-20 | 2020-03-26 | 太平洋未来科技(深圳)有限公司 | 一种交互对象的生成方法、装置及电子设备 |
CN109858381A (zh) * | 2019-01-04 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110287918A (zh) * | 2019-06-28 | 2019-09-27 | Oppo广东移动通信有限公司 | 活体识别方法及相关产品 |
CN110598571A (zh) * | 2019-08-15 | 2019-12-20 | 中国平安人寿保险股份有限公司 | 活体检测方法、装置及计算机可读存储介质 |
CN110765923A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN111597944A (zh) * | 2020-05-11 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
利用场景光照识别优化的双目活体检测方法;林峰 等;《智能系统学报》;20200131;第15卷(第01期);第160-165页 * |
应用深度光学应变特征图的人脸活体检测;马思源 等;《中国图象图形学报》;20200331;第25卷(第03期);第618-628页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112016505A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fattal | Dehazing using color-lines | |
CN110675487B (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
CN112733794B (zh) | 人脸图像的视线矫正方法、装置、设备及存储介质 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN111914775B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
Nyaruhuma et al. | Verification of 2D building outlines using oblique airborne images | |
CN109247068A (zh) | 用于滚动快门补偿的方法和设备 | |
CN109886223B (zh) | 人脸识别方法、底库录入方法、装置及电子设备 | |
WO2023165616A1 (zh) | 图像模型隐蔽后门的检测方法及系统、存储介质、终端 | |
CN111353325A (zh) | 关键点检测模型训练方法及装置 | |
CN111414803A (zh) | 人脸识别方法、装置、电子设备 | |
CN112102404B (zh) | 物体检测追踪方法、装置及头戴显示设备 | |
CN117197405A (zh) | 三维物体的增强现实方法、系统及存储介质 | |
CN115082992A (zh) | 人脸活体检测方法、装置、电子设备及可读存储介质 | |
CN112016505B (zh) | 基于人脸图像的活体检测方法、设备、存储介质及装置 | |
CN117372604B (zh) | 一种3d人脸模型生成方法、装置、设备及可读存储介质 | |
CN105631849B (zh) | 多边形目标的变化检测方法及装置 | |
CN117422851A (zh) | 虚拟换衣方法及其装置、电子设备 | |
Krispel et al. | Automatic texture and orthophoto generation from registered panoramic views | |
CN114694263B (zh) | 动作识别方法、装置、设备及存储介质 | |
CN108255298B (zh) | 一种投影交互系统中的红外手势识别方法及设备 | |
CN114913287B (zh) | 一种三维人体模型重建方法及系统 | |
CN114677476B (zh) | 一种脸部处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |