CN110188715A - 一种多帧检测投票的视频人脸活体检测方法 - Google Patents
一种多帧检测投票的视频人脸活体检测方法 Download PDFInfo
- Publication number
- CN110188715A CN110188715A CN201910480001.3A CN201910480001A CN110188715A CN 110188715 A CN110188715 A CN 110188715A CN 201910480001 A CN201910480001 A CN 201910480001A CN 110188715 A CN110188715 A CN 110188715A
- Authority
- CN
- China
- Prior art keywords
- living body
- frame
- video
- ballot
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本发明公开了一种多帧检测投票的视频人脸活体检测方法,属于人脸活体检测领域,该方法包括如下步骤:视频输入;N为单位分割视频帧;对N帧图像进行人脸检测;N帧中的每一帧人脸像素分别输入到一个神经网络;将N帧结果输入到投票统计网络;得到活体预测值;将活体概率值与阈值进行比对,是否大于等于阈值;得出活体/非活体结果;检测结束;该方法利用N个卷积神经网络分别对视频中的N连续帧依次进行活体分类得到N个预测投票值,利用这N个投票值最终经由神经网络得到最终的预测结果,N个网络分别对应不同的样本属性进行拟合,活体识别速度快且精准。
Description
技术领域
本发明属于人脸活体检测技术领域,尤其涉及一种多帧检测投票的视频人脸活体检测方法。
背景技术
随着信息科技可互联网科技的迅猛发展,对于人脸身份的识别需求显得越来越重要。从人脸检测到人脸识别的发展和应用,方便了很多需要进行身份鉴别的场景的部署。如刷脸支付,人脸门禁等基于人脸识别的应用技术,其严重依赖于人脸识别的精准度和速度。传统的人脸检测和识别利用人脸的五官特征计算人脸是否与预设的人脸数据相匹配,进而得到识别的结果。
传统的人脸识别中由于没有对活体进行限制,导致可以使用照片或者拍摄好的视频对系统进行欺骗,进而得到同样的识别目的,这对于安全性要求更高的场景而言是不适合的。为此,人们引入了活体识别的方法,通过检测当前识别的人脸是否为活体来保证识别的准确性和安全性,使得在需要安全性更高的场景中得以使用。
活体识别对于身份认证有着极为重要的意义,如“刷脸支付”和“刷脸开锁”,要求操作者为识别的本人而非照片或者视频。活体识别的可靠性和安全性将是影响这些技术的根本因素。随着这些依赖活体识别的应用越来越多,有效可靠的活体识别将会是未来人脸识别的一大研究课题。
目前活体识别中主要有几种常用解决方案,如通过发出对应的姿态指令来检测当前的人脸是否正确的执行了该姿态指令,进而判断出是否为实时的活体。但是这种基于人脸姿态的判断方法仅对人脸视频的姿态进行了判断,假设用户通过远程摄像头拍摄好指定的姿态动作也能够成功通过这种活体检测方法。另外一种方法则称为“静默活体”识别,被识别者无需作出指定的姿态动作系统即可对其进行活体检测得到结果。这种“静默活体识别”方法通常做法是利用分类方法训练一个分类器,用于分类当前视频帧是“活体”还是“非活体”的人脸。该方法比通过姿态判断的方法使用更加便捷,但是对于一个精准度较高的“静默活体识别”分类器的训练要求是极为严格的,首先是数据上面的处理和计算,通过复杂的计算来降低光照变化/背景变化等影响。随着研究的深入,提出了一些新的方案,如在“静默活体识别”或者“姿态活体识别”的基础上加上其他的识别限制,如指定让用户读出一句话或者几个数字,结合语音和唇形的识别来判断真实性,这种方案大大的提升了活体识别的精准度,对于很多要求较高的活体识别有较大的实用价值,但是这种方法由于需要计算内容较多,无论在部署还是应用中,都有一定的难度和门槛。另外在指定的场景或者硬件设备中利用软件和硬件的结合也能很好的提升活体识别的精准度,如加入红外传感器来判断当前是否为真实人脸等。这种方法需要依赖于硬件来提升效果,对于一些手持设备(如常用的智能手机)并没有配备相应的活体检测传感器,所以这种方法也有很大的局限性。
发明内容
本发明的目的在于提供一种多帧检测投票的视频人脸活体检测方法,可以利用视频中的多帧图像进行检测和投票的人脸活体检测方法,利用神经网络的计算能力和多帧级联来提高活体检测的精准度和可靠性,使得整个方法简单易用,计算效率极高,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种多帧检测投票的视频人脸活体检测方法,该多帧检测投票的视频人脸活体检测方法包括如下步骤:
本发明是这样实现的,一种多帧检测投票的视频人脸活体检测方法,该多帧检测投票的视频人脸活体检测方法如下步骤:
S1、视频输入;
S2、以N为单位分割视频帧;
S3、对N帧图像进行人脸检测;
S4、将N帧中的每一帧人脸像素分别输入到一个神经网络;
S5、将N帧结果输入到投票统计网络;
S6、得到活体预测值;
S7、将活体预测值与阈值进行比对,是否大于等于阈值;
S8、得出活体/非活体结果;
S9、检测结束。
优选的,所述步骤S2具体为构建N个卷积神经网络,这N个卷积神经网络为二分类神经网络,最终输出的结果为“活体/非活体”的预测概率,在本发明中我们取N=3,特别地,本发明说明的原理和方案中N可以取其他值而不一定限制为3。
优选的,构建的N个卷积神经网络的符合如下要求:卷积神经网络层+全连接神经网络层,必须具备分类的能力。
优选的,所述步骤S4包括构建活体检测神经网络模型、输入人脸像素至神经网络。
优选的,所述构建活体检测神经网络模型之前,进行对上述的N+1个神经网络进行训练,包括下列步骤:
S41、采集训练样本数据;
S42、采集不同光照强度和不同光照角度下的正负样本集合;
S43、使用不同的摄像设备采集得到不同的正负样本集合。例如使用像素不同或者不同感光元件的摄像头设备进行拍摄;
S44、采集不同背景下的正负样本集合;
S45、采集带有一定遮挡物的正负样本集合;
S46、分解正负样本视频帧,以N帧为单位,组合成为训练样本,假如N帧为正样本,则分类标签为正,否则为负;
S47、以步骤中S46分解好的样本作为输入到N个分类器神经网络中进行训练。其中每一帧图像人脸分别输入到一个神经网络中。特别的,在这里已经将每一帧的人脸位置进行提取,输入到分类器的图片仅为包含人脸的最小区域像素集合;
S48、以二分类的方式训练这N个神经网络,其中训练指的是利用神经网络中的后向传输算法更新神经网络层中的权重和偏置的值;
S49、经过步骤S48可以训练得到N个卷积神经网络,并且这N个卷积神经网络均具有一定的活体/非活体的分类能力;
S410、将步骤S49中N个神经网络输出的活体人脸预测值输入到步骤2中的投票神经网络中,进行后向传输训练,如果这N帧视频为活体则监督学习的标签为正样本标签,否则为负样本标签,作为分类器进行对N个结果进行投票预测训练;
S411、循环所有样本进行对神经网络训练,直到结束。
优选的,所述步骤S41中训练样本数据分为两大类别,一种是作为正样本的数据,通过真人在摄像头前面进行拍摄的视频;另一种是作为伪活体或称为负样本的数据,通过摄像头拍摄的人脸图片或者包含人脸的视频,其中摄像头前面的并非为真人进行采集。
优选的,所述步骤S43到S46为拟合不同场景下采集到的正负样本的扩充。
优选的,所述步骤S6中阈值确定方法为根据神经网络的ROC计算,选取一个最终最为适合的活体识别的阈值T,当最终得到的活体概率值如果大于或者等于T,则认为该连续帧视频为活体。
本发明的有益效果是:
1.使用连续N帧视频图像分别对应N个神经网络进行检测,可以同步进行这N帧计算,速度更快。
2.使用N帧结果输入到一个神经网络中进行预测,有效的利用这N个投票概率,利用神经网络权重拟合优势,进一步提升活体检测的准确率。
3.使用更加简便,不需要用户执行指定的姿态动作或者朗读文字,用户使用更加友好。
4.计算量相对较低,对硬件设备无需特殊的要求,一般手持智能化设备均可部署实施。
5.模型训练过程无需处理复杂的样本数据,对于模型的构建要求更简单。N 个投票神经网络可分别对应不同场景下的活体的样本拟合,如光照/背景/模糊/ 噪声像素等,十分显著的提升了活体的准确率。
附图说明
图1是本发明提供的一种多帧检测投票的视频人脸活体检测方法的步骤流程示意图;
图2是本发明提供的一种多帧检测投票的视频人脸活体检测方法人脸的检测过程示意图;
图3是本发明提供的一种多帧检测投票的视频人脸活体检测方法的视频连续帧分解示意图;
图4是本发明提供的一种多帧检测投票的视频人脸活体检测方法的神经网络结构示意图。其中包括:
a.卷积神经网络1,b.卷积神经网络2,c.卷积网络3;
图5是本发明提供的一种多帧检测投票的视频人脸活体检测方法的全链接投票网络示意图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹例举以下实施例,并配合附图详细说明如下。
请同时参考图1至图5,下面将结合附图对本发明实施例的多帧检测投票的视频人脸活体检测方法作详细说明。
参照图1所示,该多帧检测投票的视频人脸活体检测方法包括如下步骤:
S1、视频输入;
S2、以N为单位分割视频帧;
S3、对N帧图像进行人脸检测;
S4、将N帧中的每一帧人脸像素分别输入到一个神经网络;
S5、将N帧结果输入到投票统计网络;
S6、得到活体预测值;
S7、将活体预测值与阈值进行比对,是否大于等于阈值;
S8、得出活体/非活体结果;
S9、检测结束。
在该方式中,步骤S2中对活体检测的视频进行分割,每N帧作为单位进行。特别地,当需要活体检测是情况是实时摄像头的时候,则根据顺序每一帧输入到对应的神经网络中。
在该方式中,参照图4所示,构建N个卷积神经网络,在本发明中我们取N=3,特别地,本发明说明的原理和方案中N可以取其他值而不一定限制为3,这N个卷积神经网络为二分类神经网络,最终输出的结果为“活体/非活体”的预测概率。对于这N个卷积神经网络的要求是必须是:卷积神经网络层+全连接神经网络层,必须具备分类的能力。
参照图5所示,构建一个全连接神经网络,该神经网络输入节点数量为N 个,输出定义为“活体/非活体”的分类概率值。该神经网络用于接收步骤1中的N个活体概率输出值,进行计算得到最终的活体概率值。
其中,在开始构建活体检测神经网络模型前,先进行对上述的N+1个神经网络进行训练,其方法包括如下步骤。
S41、采集训练样本数据。采集的数据为连续帧视频数据,视频中必须包含人脸并且通过人脸检测器可以成功检测到人脸的位置信息,并且每个视频的帧数应该大于或者等于N。
在步骤S41中训练样本分为两大类别,一种是真人在摄像头前面进行拍摄的视频,这种数据作为正样本;另一种是通过摄像头拍摄的人脸图片或者包含人脸的视频(使用摄像设备拍摄图片或者有人脸的屏幕视频),因为此类作为伪活体(负样本),摄像头前面的并非为真人进行采集。
S42、采集不同光照强度和不同光照角度下的正负样本集合。
S43、使用不同的摄像设备采集得到不同的正负样本集合。例如使用像素不同或者不同感光元件的摄像头设备进行拍摄。
S44、采集不同背景下的正负样本集合。
S45、采集带有一定遮挡物的正负样本集合。
S46、分解正负样本视频帧,以N帧为单位,组合成为训练样本,假如N帧为正样本,则分类标签为正,否则为负。
S47、以步骤S46中分解好的样本作为输入到N个分类器神经网络中进行训练。其中每一帧图像人脸分别输入到一个神经网络中。特别的,在这里已经将每一帧的人脸位置进行提取,输入到分类器的图片仅为包含人脸的最小区域像素集合。
S48、以二分类的方式训练这N个神经网络,训练指的是利用神经网络中的后向传输算法更新神经网络层中的权重和偏置的值。
S49、经过步骤10)可以训练得到N个卷积神经网络,并且这N个卷积神经网络均具有一定的活体/非活体的分类能力。
S410、将步骤11)中N个神经网络输出的活体人脸预测值输入到步骤2中的投票神经网络中,进行后向传输训练。如果这N帧视频为活体则监督学习的标签为正样本标签,否则为负样本标签。作为分类器进行对N个结果进行投票预测训练。
S411、循环所有样本进行对神经网络训练,直到结束。
上述经过神经网络的训练后可以得到N+1个神经网络模型,通过步骤S4 将每一帧人脸像素输入到一个神经网络中,特别地,在这里我们指的是每一帧的图像经过人脸检测后的包含人脸范围的最小像素的集合,完成步骤S4得到N 个活体预测值,亦称为N个活体投票结果,进行步骤S5,将N帧结果输入到投票统计网络,其中步骤S4中的神经网络训练得到N+1个神经网络模型,其中N 个为单帧活体/非活体分类器,一个为针对这N个结果投票预测的最终概率值t。
在该方式中,依据步骤S6所得到的活体概率值t,同时通过根据神经网络的ROC计算,选取一个最终最为适合的活体识别的阈值T,进行步骤S7,活体概率值t与阈值T进行比对,也就是当最终得到的活体概率值如果大于或者等于T,则认为该连续帧视频为活体。
本发明的工作原理是:在进行人脸活体检测时,通过视频输入待检测人脸活体信息,以N为单位分割视频帧,将N帧中的每一帧人脸像素输入到一个神经网络,通过神经网络得到N个活体预测值,即为N个活体投票结果,将N个活体投票结果输入到投票统计网络中,得到活体预测值,由神经网络输出这N 帧的活体检测的概率值t,将活体检测的概率值t与选取的最为合适的活体识别的阈值T进行比对,存在以下结果:
a、当比对结果为t大于等于T时,则检测N帧为活体输出结果,进而循环所有样本进行N帧图像进行人脸检测,直到结束;
b、当比对结果为t小于T时,则检测N帧为非活体输出结果,直接检测结束。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.一种多帧检测投票的视频人脸活体检测方法,其特征在于,该多帧检测投票的视频人脸活体检测方法如下步骤:
S1、视频输入;
S2、以N为单位分割视频帧;
S3、对N帧图像进行人脸检测;
S4、将N帧中的每一帧人脸像素分别输入到一个神经网络;
S5、将N帧结果输入到投票统计网络;
S6、得到活体预测值;
S7、将活体概率值与阈值进行比对,是否大于等于阈值;
S8、得出活体/非活体结果;
S9、检测结束。
2.根据权利要求1所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S2具体为构建N个卷积神经网络,这N个卷积神经网络为二分类神经网络,最终输出的结果为“活体/非活体”的预测概率。
3.根据权利要求2所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,构建的N个卷积神经网络的符合如下要求:卷积神经网络层+全连接神经网络层,必须具备分类的能力。
4.根据权利要求1所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S4包括构建活体检测神经网络模型、输入人脸像素至神经网络。
5.根据权利要求3所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述构建活体检测神经网络模型之前,进行对上述的N+1个神经网络进行训练,包括下列步骤:
S41、采集训练样本数据;
S42、采集不同光照强度和不同光照角度下的正负样本集合;
S43、使用不同的摄像设备采集得到不同的正负样本集合。例如使用像素不同或者不同感光元件的摄像头设备进行拍摄;
S44、采集不同背景下的正负样本集合;
S45、采集带有一定遮挡物的正负样本集合;
S46、分解正负样本视频帧,以N帧为单位,组合成为训练样本,假如N帧为正样本,则分类标签为正,否则为负;
S47、以步骤中S46分解好的样本作为输入到N个分类器神经网络中进行训练,每一帧图像人脸分别输入到一个神经网络中,特别的,在这里已经将每一帧的人脸位置进行提取,输入到分类器的图片仅为包含人脸的最小区域像素集合;
S48、以二分类的方式训练这N个神经网络;
S49、经过步骤S48可以训练得到N个卷积神经网络,并且这N个卷积神经网络均具有一定的活体/非活体的分类能力;
S410、将步骤S49中N个神经网络输出的活体人脸预测值输入到步骤2中的投票神经网络中,进行后向传输训练。如果这N帧视频为活体则监督学习的标签为正样本标签,否则为负样本标签。作为分类器进行对N个结果进行投票预测训练;
S411、循环所有样本进行对神经网络训练,直到结束。
6.根据权利要求4所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S41中训练样本数据分为两大类别,一种是作为正样本的数据,通过真人在摄像头前面进行拍摄的视频;另一种是作为伪活体或称为负样本的数据,通过摄像头拍摄的人脸图片或者包含人脸的视频,其中摄像头前面的并非为真人进行采集。
7.根据权利要求4所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S43到S46为拟合不同场景下采集到的正负样本的扩充。
8.根据权利要求1所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S6中阈值确定方法为根据神经网络的ROC计算,选取一个最终最为适合的活体识别的阈值T,当最终得到的活体概率值如果大于或者等于T,则认为该连续帧视频为活体。
9.根据权利要求1所述的一种多帧检测投票的视频人脸活体检测方法,其特征在于,所述步骤S6中活体预测值为N个,称为N个活体投票结果,将N个活体投票结果输入到投票预测网络中,最终由神经网络输出得到步骤S7中所述N帧的活体检测的概率值t。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480001.3A CN110188715A (zh) | 2019-06-03 | 2019-06-03 | 一种多帧检测投票的视频人脸活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910480001.3A CN110188715A (zh) | 2019-06-03 | 2019-06-03 | 一种多帧检测投票的视频人脸活体检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110188715A true CN110188715A (zh) | 2019-08-30 |
Family
ID=67720055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910480001.3A Pending CN110188715A (zh) | 2019-06-03 | 2019-06-03 | 一种多帧检测投票的视频人脸活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188715A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111209820A (zh) * | 2019-12-30 | 2020-05-29 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、系统、设备及可读存储介质 |
CN111222432A (zh) * | 2019-12-30 | 2020-06-02 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、系统、设备及可读存储介质 |
CN111340014A (zh) * | 2020-05-22 | 2020-06-26 | 支付宝(杭州)信息技术有限公司 | 活体检测方法、装置、设备和存储介质 |
CN111767900A (zh) * | 2020-07-28 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、计算机设备及存储介质 |
CN112528973A (zh) * | 2021-02-08 | 2021-03-19 | 上海齐感电子信息科技有限公司 | 人脸活体识别方法 |
CN113269105A (zh) * | 2021-05-28 | 2021-08-17 | 西安交通大学 | 电梯场景下的实时晕倒检测方法、装置、设备和介质 |
WO2022028425A1 (zh) * | 2020-08-05 | 2022-02-10 | 广州虎牙科技有限公司 | 对象识别方法和装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105243378A (zh) * | 2015-11-13 | 2016-01-13 | 清华大学 | 基于眼部信息的活体人脸检测方法及装置 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN107590473A (zh) * | 2017-09-19 | 2018-01-16 | 杭州登虹科技有限公司 | 一种人脸活体检测方法、介质和相关装置 |
CN108596041A (zh) * | 2018-03-28 | 2018-09-28 | 中科博宏(北京)科技有限公司 | 一种基于视频的人脸活体检测方法 |
CN108985200A (zh) * | 2018-07-02 | 2018-12-11 | 中国科学院半导体研究所 | 一种基于终端设备的非配合式的活体检测算法 |
-
2019
- 2019-06-03 CN CN201910480001.3A patent/CN110188715A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105243378A (zh) * | 2015-11-13 | 2016-01-13 | 清华大学 | 基于眼部信息的活体人脸检测方法及装置 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN107590473A (zh) * | 2017-09-19 | 2018-01-16 | 杭州登虹科技有限公司 | 一种人脸活体检测方法、介质和相关装置 |
CN108596041A (zh) * | 2018-03-28 | 2018-09-28 | 中科博宏(北京)科技有限公司 | 一种基于视频的人脸活体检测方法 |
CN108985200A (zh) * | 2018-07-02 | 2018-12-11 | 中国科学院半导体研究所 | 一种基于终端设备的非配合式的活体检测算法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111209820A (zh) * | 2019-12-30 | 2020-05-29 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、系统、设备及可读存储介质 |
CN111222432A (zh) * | 2019-12-30 | 2020-06-02 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、系统、设备及可读存储介质 |
CN111209820B (zh) * | 2019-12-30 | 2024-04-23 | 新大陆数字技术股份有限公司 | 人脸活体检测方法、系统、设备及可读存储介质 |
CN111340014A (zh) * | 2020-05-22 | 2020-06-26 | 支付宝(杭州)信息技术有限公司 | 活体检测方法、装置、设备和存储介质 |
CN111340014B (zh) * | 2020-05-22 | 2020-11-17 | 支付宝(杭州)信息技术有限公司 | 活体检测方法、装置、设备和存储介质 |
CN111767900A (zh) * | 2020-07-28 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、计算机设备及存储介质 |
CN111767900B (zh) * | 2020-07-28 | 2024-01-26 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、计算机设备及存储介质 |
WO2022028425A1 (zh) * | 2020-08-05 | 2022-02-10 | 广州虎牙科技有限公司 | 对象识别方法和装置、电子设备及存储介质 |
CN112528973A (zh) * | 2021-02-08 | 2021-03-19 | 上海齐感电子信息科技有限公司 | 人脸活体识别方法 |
CN113269105A (zh) * | 2021-05-28 | 2021-08-17 | 西安交通大学 | 电梯场景下的实时晕倒检测方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188715A (zh) | 一种多帧检测投票的视频人脸活体检测方法 | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
CN109522853B (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN106997629A (zh) | 门禁控制方法、装置及系统 | |
CN107392112A (zh) | 一种人脸表情识别方法及其应用的智能锁系统 | |
US20210034840A1 (en) | Method for Recognzing Face from Monitoring Video Data | |
CN106241584A (zh) | 一种基于扶梯安全的智能视频监控系统及方法 | |
CN107133612A (zh) | 基于图像处理与语音识别技术的智能病房及其运行方法 | |
CN106203260A (zh) | 基于多摄像机监控网络的行人识别与跟踪方法 | |
CN109145742A (zh) | 一种行人识别方法及系统 | |
CN107230267A (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
CN108288015A (zh) | 基于时间尺度不变性的视频中人体动作识别方法及系统 | |
CN111639580B (zh) | 一种结合特征分离模型和视角转换模型的步态识别方法 | |
CN111539351B (zh) | 一种多任务级联的人脸选帧比对方法 | |
CN105956552A (zh) | 一种人脸黑名单监测方法 | |
Zhang et al. | A survey on face anti-spoofing algorithms | |
CN113516005B (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
CN107516076A (zh) | 人像识别方法及装置 | |
CN107862298B (zh) | 一种基于红外摄像装置下眨眼的活体检测方法 | |
Shrivastava et al. | Conceptual model for proficient automated attendance system based on face recognition and gender classification using Haar-Cascade, LBPH algorithm along with LDA model | |
CN112488165A (zh) | 一种基于深度学习模型的红外行人识别方法及系统 | |
Yaseen et al. | A Novel Approach Based on Multi-Level Bottleneck Attention Modules Using Self-Guided Dropblock for Person Re-Identification | |
CN112183287A (zh) | 一种移动机器人在复杂背景下的人数统计方法 | |
CN1457015A (zh) | 基于人脸识别和手形识别的双模态生物认证系统 | |
CN111414886A (zh) | 一种人体动态特征的智能识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190830 |