CN112395906A - 人脸活体检测方法和装置、人脸活体检测设备及介质 - Google Patents
人脸活体检测方法和装置、人脸活体检测设备及介质 Download PDFInfo
- Publication number
- CN112395906A CN112395906A CN201910741271.5A CN201910741271A CN112395906A CN 112395906 A CN112395906 A CN 112395906A CN 201910741271 A CN201910741271 A CN 201910741271A CN 112395906 A CN112395906 A CN 112395906A
- Authority
- CN
- China
- Prior art keywords
- face
- living body
- user
- body detection
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 144
- 230000008859 change Effects 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000001727 in vivo Methods 0.000 claims abstract description 6
- 239000003550 marker Substances 0.000 claims description 40
- 230000009471 action Effects 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000002355 dual-layer Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000030279 gene silencing Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种人脸活体检测方法和装置、人脸活体检测设备及介质。该方法包括:控制位置标记显示在屏幕上;控制所述位置标记的移动轨迹的显示,并且控制拍摄装置拍摄用户的视频;确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。本发明通过基于用户鼻尖位置的变化轨迹与位置标记的移动轨迹之间的匹配程度来得到活体检测结果,有效提高了视频活体检测的安全性。
Description
技术领域
本发明涉及检测技术,尤其涉及人脸活体检测方法和装置、人脸活体检测设备及介质。
背景技术
人脸活体检测是指判断给定图像或视频中的人脸是来自真实的人还是来自于欺骗人脸(面具、打印照片、屏幕上显示的照片或播放的视频片段等)的技术。人脸活体判断是一种重要的防攻击、防欺诈的技术手段,在银行、保险、互联网金融、电子商务等涉及到远程身份认证的行业和场合存在广泛的应用。
现有的人脸活体检测方法按照输入方式,主要分为两大类:图片活体检测方法与视频活体检测方法。
对于图片活体方法,其输入一般为一张或几张图片,信息量比视频少得多,同时时序信息也不足,只能通过图片上的一些例如颜色、形状等的信息来尽可能判断是否活体。
对于视频活体方法,其输入一般为一段视频,视频比图片信息量大,同时具有时序信息。从安全的角度讲,输入所包含的信息越多,攻击伪造数据的难度和成本就越高,因此图片活体方法不如视频活体方法的安全性更高。
其中,视频活体方法主要有两个分支:
1)动作活体:需要用户按照提示做若干指定的动作,指定的动作可以包括点头、摇头、眨眼、张嘴等。动作比较简单,而且检测一种动作相对比较耗时。例如,如果一次交互有3秒左右,则这3秒内最多只能做3-4个动作。并且,攻击者可以提前录制好各个动作,那么如果依次播放录制好的动作视频,则动作活体检测方法有可能被攻破。
2)静默活体:优点是不需要用户过多的交互,只需要盯着摄像头看2-3秒左右,期间可以保持静止也可以有正常的动作,用户体验优于动作活体检测方法。
现有的动作活体检测方法和静默活体检测方法通常都存在安全隐患,即摄像头劫持攻击。摄像头劫持攻击的原理如下:例如,用户A提前录制好一段用户B的正脸视频,之后用户A要以用户B的身份通过视频活体检测时,在拍摄终端比如手机上,用户A通过破解而拥有了最高权限,那么在检测拍摄时,用户A可以通过修改系统摄像头的输入源,将提前录制好的用户B的视频送入摄像头输入流,这样即可实现摄像头劫持攻击而不被服务器察觉,而服务器端还以为是用户B自己完成的本次视频活体检测。
综上可知,当前亟需一种能够有效提高视频活体检测方法的安全性的解决方案。
发明内容
为解决以上问题之一,本发明提出一种人脸活体检测方法和装置、人脸活体检测设备及介质。
根据本发明的一个实施例,提供一种人脸活体检测方法,包括:控制位置标记显示在屏幕上;控制所述位置标记的移动轨迹的显示,并且控制拍摄装置拍摄用户的视频;确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
根据本发明的一个实施例,提供一种人脸活体检测装置,该装置包括:控制单元,用于控制位置标记在屏幕上的显示、控制所述位置标记的移动轨迹的显示、以及控制拍摄装置拍摄用户的视频;第一检测单元,用于确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
根据本发明的再一个实施例,提供一种人脸活体检测设备,包括:处理器;以及存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行上面描述的方法之一。
根据本发明的又一个实施例,提供一种非暂时性机器可读存储介质,其上存储有可执行代码,当所述可执行代码被处理器执行时,使所述处理器执行上面描述的方法之一。
本发明中提出的基于鼻尖运动轨迹估计的人脸活体检测方法,属于动态活体方法。通过使得位置标记的移动轨迹动态地发生变化并且使得用户鼻尖位置随之移动,能够使得仿冒者难以提前录制符合要求的真人攻击视频。同时,该方法对于摄像头劫持攻击也有很好的防御效果。
而且,鼻子轨迹跟踪及位置跟踪的准确性高于视线轨迹跟踪,因为视线的跟踪是通过追踪眼球的运动方向来间接估计的,同时眼睛的大小、眼皮遮挡都会很大程度影响视线跟踪效果。而鼻子在人脸的位置相比眼球更为突出,跟踪也更为便利。
拍摄装置拍摄鼻子跟踪视频时,可以移动鼻子或者移动拍摄装置,两种交互方式都可以完成相关操作,操作比较自然。视线跟踪交互时,用户面部不动而只移动眼球,交互方式不自然(和人脸与眼球一起动的自然方式不同),因此,鼻子跟踪的交互性更好。
鼻子跟踪的环境适应性更强,比如在暗光环境或者戴眼镜有高亮看不清眼球位置时,视线估计不一定适用,而鼻子跟踪方法还可以使用。
综上可知,本发明通过基于用户鼻尖位置的变化轨迹与位置标记的移动轨迹之间的匹配程度来得到活体检测结果,有效提高了视频活体检测的安全性、便利性、交互性和环境适应性。
附图说明
通过结合附图对本公开示例性实施方式进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施方式中,相同的附图标记通常代表相同部件。
图1给出了根据本发明的一个示例性实施例的人脸活体检测方法的示意性流程图。
图2给出了一个显示位置标记的初始位置并且向用户提示对准该位置标记的示例。
图3给出了一个显示位置标记的移动轨迹并且向用户提示随着该移动轨迹移动的示例。
图4给出了根据本发明的一个示例性实施例的人脸活体检测装置的示意性框图。
图5给出了根据本发明的一个示例性实施例的人脸活体检测设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施方式。虽然附图中显示了本公开的优选实施方式,然而应该理解,可以按各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。这里需要说明的是,本申请中的数字、序号以及附图标记仅是为了方便描述而出现的,对于本发明的步骤、顺序等等均不构成任何限制,除非在说明书中明确指出了步骤的执行有特定的先后顺序。
本发明提出一种基于鼻尖位置的移动轨迹估计来判断人脸活体的人脸活体检测方法。
图1给出了根据本发明的一个示例性实施例的人脸活体检测方法的示意性流程图。
如图1所示,在步骤S110,控制位置标记显示在屏幕上。
这里的“屏幕”,可以是拍摄视频的拍摄装置(例如手机、平板电脑、摄像装置等)的屏幕,也可以是拍摄装置之外的另外的显示装置的屏幕,本发明对此不做任何限制。即,显示位置标记的屏幕与拍摄装置可以是分立的,也可以是集成在一起的。
在步骤S120,控制位置标记的移动轨迹的显示,并且控制拍摄装置拍摄用户的视频。
无论是在上述的哪个装置(例如拍摄装置、显示装置等等)的屏幕上显示位置标记,都需要控制位置标记在屏幕上的坐标,即,不仅控制位置标记的显示,还可以控制位置标记的移动,并且,可以在移动的同时拍摄用户的视频。
可选地,可以在检测到预览图像中用户鼻尖的位置与位置标记对准后,控制位置标记的移动轨迹的显示。这里,预览图像可以是在拍摄装置中显示的,也可以是在其他显示装置上显示的,本发明对此不做任何限制。另外,预览图像中可以显示有针对用户实时采集的图像和位置标记。另外,显示位置标记之后,用户鼻尖的位置需要与显示的位置标记对准。进一步地,用户鼻尖的位置还可以随着位置标记的移动而移动。
拍摄装置需要拍摄用户的视频,以此来识破摄像头劫持攻击,提高人脸活体检测的安全性。例如,拍摄装置可以拍摄用户鼻尖的位置对准位置标记的视频。优选地,也可以拍摄用户鼻尖随位置标记移动的视频。当然,不是所有的情况下用户鼻尖都随着位置标记移动的。
这里,用户鼻尖的位置与位置标记的对准可以指用户鼻尖的位置在屏幕的像素空间上的坐标与位置标记在屏幕的像素空间上的坐标之间的对准。
另外,用户鼻尖的位置变化轨迹可以通过用户移动鼻尖来实现,例如,用户可以移动鼻尖以与位置标记对准,从而实现用户鼻尖的位置变化轨迹与位置标记的移动轨迹的一致。而在屏幕与拍摄装置是集成在一起的情况下,也可以通过移动拍摄装置来实现用户鼻尖的位置变化轨迹,从而达到用户鼻尖的位置变化轨迹与位置标记的移动轨迹的一致。
另外,可以按照如下方式之一来生成上述的位置标记的移动轨迹:
1)在屏幕上显示位置标记的完整的移动轨迹,并且优选地,可以在显示位置标记的移动轨迹的同时,显示移动提示,以使得用户鼻尖的位置沿着所述位置标记的完整的移动轨迹的路线移动;
2)每次在屏幕上显示所述位置标记的一部分移动轨迹(例如,一段轨迹),并且优选地,可以在显示位置标记的移动轨迹的同时,显示移动提示,并且,在用户鼻尖的位置沿着该一部分移动轨迹的路线移动完成后,继续显示位置标记的下一部分移动轨迹。
另外,还可以按照其他的方式来显示位置标记的移动轨迹,例如可以根据业务场景来灵活选取位置标记的移动轨迹的显示方式,本发明对此不作任何限制。
这里,可选地,向用户给出的移动提示可以包括音频、视频、文字、图形、等等,或者它们的任意组合。
例如,图2给出了一个显示位置标记的初始位置并且向用户提示对准该位置标记的示例。
接着,图3给出了一个显示位置标记的移动轨迹并且向用户提示随着该移动轨迹移动的示例。在该示例中,通过箭头来提示移动的方向。
在步骤S130,通过确定上述拍摄的视频中用户鼻尖的位置变化轨迹与位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
本发明提出了基于用户鼻尖的位置变化轨迹的人脸活体检测方法,利用该方法,可以判断拍摄的视频能否通过人脸活体检测。
具体地,本发明的基于用户鼻尖的位置变化轨迹的人脸活体检测方法可以通过从拍摄的视频中提取用户鼻尖的位置,得到用户鼻尖的位置变化轨迹,将其与位置标记的移动轨迹进行比对,获得两者的匹配程度,然后,可以基于它们的匹配程度,确定检测结果(即,第一人脸活体检测结果),例如可以是一个分数S1。
具体地,可以按照时间顺序,从视频中获取代表用户鼻尖的位置变化轨迹的鼻尖位置序列,从位置标记的移动轨迹中获取位置标记变化序列。
例如,假设位置标记的完整的移动轨迹表示为位置标记变化序列P={(pxi,pyi),i=1,2,...,N},其中,pxi和pyi分别代表所述位置标记在第i时间点、在上述的屏幕上的水平和垂直方向的分量,N为采样该移动轨迹P的时间点的数量。
并且,假设通过特征点提取算法,从拍摄的视频中得到的、代表用户鼻尖的位置变化轨迹的用户鼻尖的位置变化序列为L={(lxi,lyi),i=1,2,...,N},其中,lxi和lyi分别代表用户鼻尖的位置在第i时间点、在所述屏幕上的水平和垂直方向的分量。
此时,可以确定拍摄的视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度。
这里,采用相关系数来计算拍摄的视频中用户鼻尖的位置变化轨迹与位置标记的移动轨迹之间的匹配程度的方法使得计算过程快速高效。
另外,也可通过神经网络模型来计算用户鼻尖的位置变化轨迹与位置标记的移动轨迹之间的匹配程度,在此不再赘述。
请注意,计算轨迹之间的匹配程度的方法不限于上面给出的示例,而是还可以采用其他的方法,本发明对此不做任何限制。
具体地,例如,采用相关系数来计算匹配程度的具体方法可以包括如下步骤:
1)计算鼻尖位置序列的水平分量与位置标记的移动轨迹的水平分量之间的相关系数C_X、以及鼻尖位置序列的垂直分量与位置标记的移动轨迹的垂直分量之间的相关系数C_Y;
2)基于水平分量之间的相关系数C_X和垂直分量之间的相关系数C_Y,得到用户鼻尖的移动轨迹与位置标记的移动轨迹之间的匹配程度。
下面,将给出一个计算上述的相关系数的示例。
首先,定义归一化相关系数如下。
其中,其中γ(P,L)代表位置标记变化序列P和鼻尖位置变化序列L之间的归一化相关系数,E(P-μP)(L-μL)表示期望值,μ表示相应序列的均值,σ表示相应序列的标准差。
更具体地,位置标记变化序列P和鼻尖位置变化序列L之间的水平分量的相关系数C_X和垂直分量相关系数C_Y可分别通过下面的式子来求得。
其中,水平分量的相关系数C_X是通过求位置标记变化序列P的水平分量和鼻尖位置变化序列L的水平分量这两者的归一化系数而得到的。具体地,E(PX-μPX)(LX-μLX)表示由位置标记变化序列P的水平分量PX和鼻尖位置变化序列L的水平分量LX这两者得到的期望值,μPX表示位置标记变化序列P的水平分量PX的均值,μLX表示鼻尖位置变化序列L的水平分量LX的均值,σPX表示位置标记变化序列P的水平分量PX的标准差,σLX表示鼻尖位置变化序列L的水平分量LX的标准差。
类似地,垂直分量的相关系数C_Y是通过求位置标记变化序列P的垂直分量和鼻尖位置变化序列L的垂直分量这两者的归一化系数而得到的。具体地,E(PY-μPY)(LY-μLY)表示由位置标记变化序列P的垂直分量PY和鼻尖位置变化序列L的垂直分量LY这两者得到的期望值,μPY表示位置标记变化序列P的垂直分量PY的均值,μLY表示鼻尖位置变化序列L的垂直分量LY的均值,σPY表示位置标记变化序列P的垂直分量PY的标准差,σLY表示鼻尖位置变化序列L的垂直分量LY的标准差。
然后,基于水平分量之间的相关系数C_X和垂直分量之间的相关系数C_Y,可以得到用户鼻尖的移动轨迹与位置标记的移动轨迹之间的匹配程度。
例如,可以按照如下方式计算得到两者的匹配程度。即,将水平分量的相关系数C_X和垂直分量的相关系数C_Y之中的大者作为两者的匹配程度。
S1=max(C_X,C_Y)
另外,还可以对水平分量的相关系数C_X和垂直分量的相关系数C_Y进行额外的处理,例如对两者进行加权处理,然后求平均,将得到的加权平均值作为两者的匹配程度。
上面给出的基于水平分量的相关系数C_X和垂直分量的相关系数C_Y来计算两者的匹配程度的方式仅是为了便于理解而给出的例子,还可以使用其它的方式来计算匹配程度,在此不再赘述。
请注意,本领域技术人员可知,上面的计算鼻尖位置变化序列和位置标记变化序列之间的匹配程度的方法仅是为了便于理解而给出的一个具体例子,实际上,计算两者的匹配程度的方法不限于该例子中给出的方法。
在步骤S140,通过静默活体检测模型,确定针对所述视频的第二人脸活体检测结果。
这里,可以将拍摄的视频输入到静默活体检测模型,该模型例如可以是一个基于深度学习的、经过训练的静默活体检测模型,以针对该视频做活体检测,得到第二人脸活体检测结果(例如可以是一个分数S2)。
这里,步骤S130的第一人脸检测操作(基于用户鼻尖的位置变化轨迹)和步骤S140的第二人脸检测操作(静默活体检测)可以是先后的关系,例如,先进行第一人脸检测操作,再进行第二人脸检测操作,或者先进行第二人脸检测操作,再进行第一人脸检测操作。也可以是同步的关系,例如同时进行第一人脸检测操作或者第二人脸检测操作。也可以是没有执行顺序和时间上的关系,即,只要能得到第一人脸检测结果和第二人脸检测结果即可,无需关心其执行的顺序和时间。
在步骤S150,基于第一人脸活体检测结果和第二人脸活体检测结果,判断拍摄的视频能否通过人脸活体检测。
另外,基于第一人脸活体检测结果和第二人脸活体检测结果,判断能否通过人脸活体检测可以包括如下的判断方式任意之一或者它们的任意组合:
判断方式一:当第一人脸活体检测结果小于第一预设阈值(第一预设阈值例如可以是0.7、0.8、0.83、0.9、0.92等等)或者第二人脸活体检测结果小于第二预设阈值(第二预设阈值例如可以是0.7、0.8、0.83、0.9、0.92等等)时,确定所述视频不能通过人脸活体检测;
判断方式二:当第一人脸活体检测结果大于或等于第一预设阈值并且第二人脸活体检测结果大于或等于第二预设阈值时,确定所述视频通过人脸活体检测;
判断方式三:当第一人脸活体检测结果和第二人脸活体检测结果中仅有一个大于或等于其相应的预设阈值时,分别对第一人脸活体检测结果和第二人脸活体检测结果进行加权然后求平均值,在该加权平均值大于或等于第三预设阈值(第三预设阈值例如可以是0.7、0.8、0.83、0.9、0.92等等)时,确定所述视频通过人脸活体检测,否则,确定所述视频不能通过人脸活体检测。
即,可以通过将上面得到的第一人脸活体检测结果和第二人脸活体检测结果(例如S1与S2)组合,作为最终活体判定结果。
对于上面提到的阈值,虽然给出了上述的第一、第二、第三预设阈值的一些数值例子,但是它们也可以取其他的值,本发明对此无需进行限制。另外,这些阈值之间可以相等,也可以不相等,本发明对此同样不作任何限制。再另外,上述的各阈值的大小可以进行各种改变或调整,同样无需做过多限制。
对于上述的加权平均,第一和第二人脸活体检测结果的权重可以根据实际情况选取,本发明对此也无需进行限制。
本发明中提出的基于鼻尖运动轨迹估计的人脸活体检测方法,属于动态活体方法。通过使得位置标记的移动轨迹动态地发生变化并且使得用户鼻尖位置随之移动,能够使得仿冒者难以提前录制符合要求的真人攻击视频,即使仿冒者使用剪纸攻击等方式模拟真人鼻尖移动轨迹,但是因为该方法使用鼻尖位置移动轨迹加视频静默活体两者相结合的方式,也能对该类型的攻击有很好的防御性。同时,该方法对于摄像头劫持攻击也有很好的防御效果。
而且,鼻子轨迹跟踪及位置跟踪的准确性高于视线轨迹跟踪,因为视线的跟踪是通过追踪眼球的运动方向来间接估计的,同时眼睛的大小、眼皮遮挡都会很大程度影响视线跟踪效果。而鼻子在人脸的位置相比眼球更为突出,跟踪也更为便利。
拍摄装置拍摄鼻子跟踪视频时,可以移动鼻子或者移动拍摄装置,两种交互方式都可以完成相关操作,操作比较自然。视线跟踪交互时,用户面部不动而只移动眼球,交互方式不自然(和人脸与眼球一起动的自然方式不同),因此,鼻子跟踪的交互性更好。
鼻子跟踪的环境适应性更强,比如在暗光环境或者戴眼镜有高亮看不清眼球位置时,视线估计不一定适用,而鼻子跟踪方法还可以使用。
综上可知,本发明通过基于用户鼻尖位置的变化轨迹与位置标记的移动轨迹之间的匹配程度来得到活体检测结果,有效提高了视频活体检测的安全性、便利性、交互性和环境适应性。
图4给出了根据本发明的一个示例性实施例的人脸活体检测装置的示意性框图。
如图4所示,根据本发明的一个示例性实施例的人脸活体检测装置100可以包括控制单元110、第一检测单元120。
其中,控制单元110可以用于控制位置标记在屏幕上的显示、控制所述位置标记的移动轨迹的显示、以及控制拍摄装置拍摄用户的视频。
第一检测单元120可以用于确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
另外,根据本发明的另一个示例性实施例的人脸活体检测装置100还可以包括第二检测单元130、判断单元140。
其中,第二检测单元130可以用于通过静默活体检测模型,确定针对所述视频的第二人脸活体检测结果。
判断单元140可以用于基于所述第一人脸活体检测结果和所述第二人脸活体检测结果,判断所述视频能否通过人脸活体检测。
另外,上述的屏幕与拍摄装置可以是分立的或者集成在一起的。
进一步地,在检测到预览图像中用户鼻尖的位置与位置标记对准后,控制位置标记的移动轨迹的显示。
这里,用户鼻尖的位置与所述位置标记对准包括用户鼻尖的位置在所述屏幕的像素空间上的坐标与所述位置标记在所述屏幕的像素空间上的坐标对准。
其中,用户鼻尖的位置变化轨迹能够通过用户移动鼻尖来实现,或者在所述屏幕与所述拍摄装置集成在一起的情况下,通过拍摄装置自身的移动来实现。
另外,控制单元110可以按照如下显示方式之一来控制所述位置标记的移动轨迹的显示:
显示方式一:在所述屏幕上显示所述位置标记的完整的移动轨迹,以使得用户鼻尖的位置沿着所述位置标记的完整的移动轨迹的路线移动;
显示方式二:每次在所述屏幕上显示所述位置标记的一部分移动轨迹,并且,在用户鼻尖的位置沿着所述一部分移动轨迹的路线移动完成后,继续显示所述位置标记的下一部分移动轨迹。
进一步地,第一检测单元120确定拍摄的视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度的操作可以包括:
按照时间顺序,从视频中获取代表用户鼻尖的位置变化轨迹的鼻尖位置序列,从位置标记的移动轨迹中获取位置标记变化序列;
计算用户的所述鼻尖位置序列的水平分量与所述位置标记变化序列的水平分量之间的相关系数、以及用户的所述鼻尖位置序列的垂直分量与所述位置标记变化序列的垂直分量之间的相关系数;
基于所述水平分量之间的相关系数和所述垂直分量之间的相关系数,得到用户鼻尖的移动轨迹与所述位置标记的移动轨迹之间的匹配程度。
另外,判断单元140基于所述第一人脸活体检测结果和所述第二人脸活体检测结果,判断所述视频能否通过人脸活体检测的操作包括采用以下判断方式任意之一或者它们的任意组合来进行判断:
判断方式一:当第一人脸活体检测结果小于第一预设阈值或者第二人脸活体检测结果小于第二预设阈值时,确定所述视频不能通过人脸活体检测;
判断方式二:当第一人脸活体检测结果大于或等于第一预设阈值并且第二人脸活体检测结果大于或等于第二预设阈值时,确定所述视频通过人脸活体检测;
判断方式三:当第一人脸活体检测结果和第二人脸活体检测结果中仅有一个大于或等于其相应的预设阈值时,分别对第一人脸活体检测结果和第二人脸活体检测结果进行加权然后求平均值,在该加权平均值大于或等于第三预设阈值时,确定所述视频通过人脸活体检测,否则,确定所述视频不能通过人脸活体检测。
另外,在本发明中,还可以由控制单元110在控制位置标记的移动轨迹的显示的同时,控制移动提示的显示。
其中,所述移动提示包括音频、视频、文字、图形或者它们的任意组合。
这里,上述的控制单元110的操作与上面描述的方法步骤S110与S120的操作类似,另外,上述的单元120-140的操作与上面描述的方法步骤S130与S150的操作类似,在此不再赘述。
图5给出了根据本发明的一个示例性实施例的人脸活体检测设备的示意性框图。
参见图5,该人脸活体检测设备1包括存储器10和处理器20。
处理器20可以是一个多核的处理器,也可以包含多个处理器。在一些实施例中,处理器20可以包含一个通用的主处理器以及一个或多个特殊的协处理器,例如图形处理器(GPU)、数字信号处理器(DSP)等等。在一些实施例中,处理器20可以使用定制的电路实现,例如特定用途集成电路(ASIC,Application Specific Integrated Circuit)或者现场可编程逻辑门阵列(FPGA,Field Programmable Gate Arrays)。
存储器10上存储有可执行代码,当所述可执行代码被所述处理器20执行时,使所述处理器20执行上面描述的方法之一。其中,存储器10可以包括各种类型的存储单元,例如系统内存、只读存储器(ROM)、以及永久存储装置。其中,ROM可以存储处理器20或者计算机的其他模块需要的静态数据或者指令。永久存储装置可以是可读写的存储装置。永久存储装置可以是即使计算机断电后也不会失去存储的指令和数据的非易失性存储设备。在一些实施方式中,永久性存储装置采用大容量存储装置(例如磁或光盘、闪存)作为永久存储装置。另外一些实施方式中,永久性存储装置可以是可移除的存储设备(例如软盘、光驱)。系统内存可以是可读写存储设备或者易失性可读写存储设备,例如动态随机访问内存。系统内存可以存储一些或者所有处理器在运行时需要的指令和数据。此外,存储器10可以包括任意计算机可读存储媒介的组合,包括各种类型的半导体存储芯片(DRAM,SRAM,SDRAM,闪存,可编程只读存储器),磁盘和/或光盘也可以采用。在一些实施方式中,存储器10可以包括可读和/或写的可移除的存储设备,例如激光唱片(CD)、只读数字多功能光盘(例如DVD-ROM,双层DVD-ROM)、只读蓝光光盘、超密度光盘、闪存卡(例如SD卡、min SD卡、Micro-SD卡等等)、磁性软盘等等。计算机可读存储媒介不包含载波和通过无线或有线传输的瞬间电子信号。
此外,根据本发明的方法还可以实现为一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品包括用于执行本发明的上述方法中限定的上述各步骤的计算机程序代码指令。
或者,本发明还可以实施为一种非暂时性机器可读存储介质(或计算机可读存储介质、或机器可读存储介质),其上存储有可执行代码(或计算机程序、或计算机指令代码),当所述可执行代码(或计算机程序、或计算机指令代码)被电子设备(或计算设备、服务器等)的处理器执行时,使所述处理器执行根据本发明的上述方法的各个步骤。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。
附图中的流程图和框图等等显示了根据本发明的多个实施例的系统和方法的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标记的功能也可以以不同于附图中所标记的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (11)
1.一种人脸活体检测方法,其特征在于,该方法包括:
控制位置标记显示在屏幕上;
控制所述位置标记的移动轨迹的显示,并且控制拍摄装置拍摄用户的视频;
确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
2.如权利要求1所述的人脸活体检测方法,其特征在于,还包括:
通过静默活体检测模型,确定针对所述视频的第二人脸活体检测结果;
基于所述第一人脸活体检测结果和所述第二人脸活体检测结果,判断所述视频能否通过人脸活体检测。
3.如权利要求1所述的人脸活体检测方法,其特征在于,
所述控制所述位置标记的移动轨迹的显示包括:在检测到预览图像中用户鼻尖的位置与所述位置标记对准后,控制所述位置标记的移动轨迹的显示。
4.如权利要求3所述的人脸活体检测方法,其特征在于,
用户鼻尖的位置与所述位置标记对准包括用户鼻尖的位置在所述屏幕的像素空间上的坐标与所述位置标记在所述屏幕的像素空间上的坐标对准,
所述用户鼻尖的位置变化轨迹通过用户移动鼻尖来实现,或者在所述屏幕与所述拍摄装置集成在一起的情况下,通过拍摄装置自身的移动来实现。
5.如权利要求1所述的人脸活体检测方法,其特征在于,按照如下显示方式之一来控制所述位置标记的移动轨迹的显示:
显示方式一:在所述屏幕上显示所述位置标记的完整的移动轨迹,以使得用户鼻尖的位置沿着所述位置标记的完整的移动轨迹的路线移动;
显示方式二:每次在所述屏幕上显示所述位置标记的一部分移动轨迹,并且,在用户鼻尖的位置沿着所述一部分移动轨迹的路线移动完成后,继续显示所述位置标记的下一部分移动轨迹。
6.如权利要求1~5中的任何一项所述的人脸活体检测方法,其特征在于,
所述确定拍摄的视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度包括:
按照时间顺序,从所述视频中获取代表用户鼻尖的位置变化轨迹的鼻尖位置序列,从位置标记的移动轨迹中获取位置标记变化序列;
计算用户的所述鼻尖位置序列的水平分量与所述位置标记变化序列的水平分量之间的相关系数、以及用户的所述鼻尖位置序列的垂直分量与所述位置标记变化序列的垂直分量之间的相关系数;
基于所述水平分量之间的相关系数和所述垂直分量之间的相关系数,得到用户鼻尖的移动轨迹与所述位置标记的移动轨迹之间的匹配程度。
7.如权利要求2所述的人脸活体检测方法,其特征在于,所述基于所述第一人脸活体检测结果和所述第二人脸活体检测结果,判断所述视频能否通过人脸活体检测包括以下判断方式任意之一或者它们的任意组合:
判断方式一:当第一人脸活体检测结果小于第一预设阈值或者第二人脸活体检测结果小于第二预设阈值时,确定所述视频不能通过人脸活体检测;
判断方式二:当第一人脸活体检测结果大于或等于第一预设阈值并且第二人脸活体检测结果大于或等于第二预设阈值时,确定所述视频通过人脸活体检测;
判断方式三:当第一人脸活体检测结果和第二人脸活体检测结果中仅有一个大于或等于其相应的预设阈值时,分别对第一人脸活体检测结果和第二人脸活体检测结果进行加权然后求平均值,在该加权平均值大于或等于第三预设阈值时,确定所述视频通过人脸活体检测,否则,确定所述视频不能通过人脸活体检测。
8.如权利要求1~5中的任何一项所述的人脸活体检测方法,其特征在于,还包括:
控制所述位置标记的移动轨迹的显示的同时,显示移动提示,
其中,所述移动提示包括音频、视频、文字、图形或者它们的任意组合。
9.一种人脸活体检测装置,其特征在于,该装置包括:
控制单元,用于控制位置标记在屏幕上的显示、控制所述位置标记的移动轨迹的显示、以及控制拍摄装置拍摄用户的视频;
第一检测单元,用于确定所述视频中用户鼻尖的位置变化轨迹与所述位置标记的移动轨迹之间的匹配程度,由此得到第一人脸活体检测结果。
10.一种人脸活体检测设备,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1~8中任何一项所述的方法。
11.一种非暂时性机器可读存储介质,其上存储有可执行代码,当所述可执行代码被处理器执行时,使所述处理器执行如权利要求1~8中任何一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741271.5A CN112395906A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741271.5A CN112395906A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112395906A true CN112395906A (zh) | 2021-02-23 |
Family
ID=74602389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910741271.5A Pending CN112395906A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112395906A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821781A (zh) * | 2021-11-17 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 基于图灵测试的活体检测的方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188840A1 (en) * | 2012-01-20 | 2013-07-25 | Cyberlink Corp. | Liveness detection system based on face behavior |
WO2018072028A1 (en) * | 2016-10-20 | 2018-04-26 | Applied Recognition Inc. | Face authentication to mitigate spoofing |
CN108171211A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 活体检测方法和装置 |
CN108875469A (zh) * | 2017-06-14 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测与身份认证的方法、装置及计算机存储介质 |
WO2019075840A1 (zh) * | 2017-10-17 | 2019-04-25 | 平安科技(深圳)有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
CN109753871A (zh) * | 2018-11-21 | 2019-05-14 | 惠州Tcl移动通信有限公司 | 一种人脸识别的方法和移动终端 |
-
2019
- 2019-08-12 CN CN201910741271.5A patent/CN112395906A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188840A1 (en) * | 2012-01-20 | 2013-07-25 | Cyberlink Corp. | Liveness detection system based on face behavior |
WO2018072028A1 (en) * | 2016-10-20 | 2018-04-26 | Applied Recognition Inc. | Face authentication to mitigate spoofing |
CN108875469A (zh) * | 2017-06-14 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测与身份认证的方法、装置及计算机存储介质 |
WO2019075840A1 (zh) * | 2017-10-17 | 2019-04-25 | 平安科技(深圳)有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
CN108171211A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 活体检测方法和装置 |
CN109753871A (zh) * | 2018-11-21 | 2019-05-14 | 惠州Tcl移动通信有限公司 | 一种人脸识别的方法和移动终端 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821781A (zh) * | 2021-11-17 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 基于图灵测试的活体检测的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325933B (zh) | 一种翻拍图像识别方法及装置 | |
Kollreider et al. | Verifying liveness by multiple experts in face biometrics | |
Tang et al. | Face flashing: a secure liveness detection protocol based on light reflections | |
JP6043856B2 (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
WO2020018359A1 (en) | Three-dimensional living-body face detection method, face authentication recognition method, and apparatuses | |
US9147113B2 (en) | Deformable surface tracking in augmented reality applications | |
CN108280418A (zh) | 脸部图像的欺骗识别方法及装置 | |
CN106997452B (zh) | 活体验证方法及装置 | |
CN107438173A (zh) | 视频处理装置、视频处理方法和存储介质 | |
CN111163267B (zh) | 一种全景视频剪辑方法、装置、设备及存储介质 | |
CN111144277B (zh) | 一种带活体检测功能的人脸验证方法和系统 | |
CN112543343B (zh) | 基于连麦直播的直播画面处理方法、装置及电子设备 | |
US20190384965A1 (en) | A method for selecting frames used in face processing | |
JP2007280367A (ja) | 顔照合装置 | |
US20130064421A1 (en) | Resolving homography decomposition ambiguity based on viewing angle range | |
US10846535B2 (en) | Virtual reality causal summary content | |
Damer et al. | Practical View on Face Presentation Attack Detection. | |
US11200414B2 (en) | Process for capturing content from a document | |
CN111860394A (zh) | 一种基于姿态估计和动作检测的动作活体识别方法 | |
CN104823201A (zh) | 光照敏感面部识别 | |
JP7226653B2 (ja) | クロミナンスベースの顔ライブネス検出のための方法およびシステム | |
CN117032520A (zh) | 基于数字人的视频播放方法、装置、电子设备及存储介质 | |
Hartl et al. | AR-based hologram detection on security documents using a mobile phone | |
CN108369640B (zh) | 用于调适捕获图像的方法及装置 | |
CN112395906A (zh) | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210223 |
|
RJ01 | Rejection of invention patent application after publication |