CN109993124B - 基于视频反光的活体检测方法、装置及计算机设备 - Google Patents

基于视频反光的活体检测方法、装置及计算机设备 Download PDF

Info

Publication number
CN109993124B
CN109993124B CN201910265693.XA CN201910265693A CN109993124B CN 109993124 B CN109993124 B CN 109993124B CN 201910265693 A CN201910265693 A CN 201910265693A CN 109993124 B CN109993124 B CN 109993124B
Authority
CN
China
Prior art keywords
image
reflection
detected
data
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910265693.XA
Other languages
English (en)
Other versions
CN109993124A (zh
Inventor
张欢
李爱林
赵士红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Huafu Technology Co ltd
Original Assignee
Shenzhen Huafu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huafu Technology Co ltd filed Critical Shenzhen Huafu Technology Co ltd
Priority to CN201910265693.XA priority Critical patent/CN109993124B/zh
Publication of CN109993124A publication Critical patent/CN109993124A/zh
Application granted granted Critical
Publication of CN109993124B publication Critical patent/CN109993124B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Abstract

本发明涉及基于视频反光的活体检测方法、装置及计算机设备,该方法包括获取待检测图像数据;对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;对待检测反射层图像进行反光含量计算,以得到反光含量值;判断所述反光含量值是否满足设定条件;若是,则输出待检测图像数据为活体图像数据。本发明实现对镜面反光的精准估计,并提高泛化性能。

Description

基于视频反光的活体检测方法、装置及计算机设备
技术领域
本发明涉及活体检测方法,更具体地说是指基于视频反光的活体检测方法、装置及计算机设备。
背景技术
活体检测是指用户按照系统指示做出相应的动作,防止用户在一些重要环境下用照片骗过系统完成验证。在用户按照系统提示完成相应动作后,后台对用户完成的动作进行识别,并提示用户活体检测是否通过。
人脸活体检测中视频设备攻击时,视频屏幕会造成二次采集图像镜面反射。从反光角度判断图像是否反光是活体检测的一种方法。传统的检测镜面反光方法在还原图像时容易造成颜色失真或者边缘的丢失,进而对反射层估计造成较大的误差。现有的深度学习二分类对于活体检测有一定效果,但是未从本质上检测反光,检测效果不稳定。
因此,有必要设计一种新的方法,实现对镜面反光的精准估计,并提高泛化性能。
发明内容
本发明的目的在于克服现有技术的缺陷,提供基于视频反光的活体检测方法、装置及计算机设备。
为实现上述目的,本发明采用以下技术方案:基于视频反光的活体检测方法,包括:
获取待检测图像数据;
对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断所述反光含量值是否满足设定条件;
若是,则输出待检测图像数据为活体图像数据。
其进一步技术方案为:所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的;所述预训练网络模型特征包括与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征。
其进一步技术方案为:所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的,包括:
获取输入的图像;
将图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
构建完全卷积网络;
构建损失函数;
将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
其进一步技术方案为:所述损失函数为L(θ)=Lfeat(θ)+0.25Ladv(θ),其中,Ladv(θ)为对抗性损失,Lfeat(θ)为判别器损失,生成器为fT(I;θ),判别器为D,判别器D损失为
Figure BDA0002016728080000031
D(I,x)是给定输入图像I生成的透射图像x的概率,则对抗性损失为/>
Figure BDA0002016728080000032
其进一步技术方案为:所述对待检测反射层图像进行反光含量计算,以得到反光含量值,包括:
对待检测反射层图像转换为灰度图,以得到中间图像;
对中间图像进行像素计算,以得到初始像素值;
对初始像素值进行均值计算,以得到反光含量值。
其进一步技术方案为:所述判断所述反光含量值是否满足设定条件,包括:
判断所述反光含量值是否超过第一阈值;
若否,则所述反光含量值满足设定条件;
若是,则判断所述反光含量值是否超过第二阈值;
若否,则所述反光含量值满足设定条件;
若是,则所述反光含量值不满足设定条件。
本发明还提供了基于视频反光的活体检测装置,包括:
数据获取单元,用于获取待检测图像数据;
增广单元,用于对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
处理单元,用于将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
计算单元,用于对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断单元,用于判断所述反光含量值是否满足设定条件;
输出单元,用于若是,则输出待检测图像数据为活体图像数据。
其进一步技术方案为:所述装置包括:
模型获取单元,用于通过输入的图像与预训练网络模型特征连接形成超列特征作为样本数据训练完全卷积网络,以得到卷积神经网络模型。
其进一步技术方案为:所述模型获取单元包括:
图像获取子单元,用于获取输入的图像;
样本数据形成子单元,用于将所述图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
网络构建子单元,用于构建完全卷积网络。
损失函数构建子单元,用于构建损失函数;
卷积处理子单元,用于将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
学习子单元,用于利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
本发明还提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明与现有技术相比的有益效果是:本发明通过利用图像与用ImageNet数据集训练好的VGG-19模型抽取的部分层连接形成多维超列特征作为最终的增广输入数据训练完全卷积网络,使之成为能够分离出任一图像的反射层图像的模型,利用该模型对待检测图像分离出反射层图像,对反射层图像进行反光含量计算,根据设定的阈值与计算所得的反光含量值进行对比,进而达到判断活体的目的,实现对镜面反光的精准估计,并提高泛化性能。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于视频反光的活体检测方法的应用场景示意图;
图2为本发明实施例提供的基于视频反光的活体检测方法的流程示意图;
图3为本发明实施例提供的基于视频反光的活体检测方法的子流程示意图;
图4为本发明实施例提供的基于视频反光的活体检测方法的子流程示意图;
图5为本发明实施例提供的基于视频反光的活体检测方法的子流程示意图;
图6为本发明实施例提供的基于视频反光的活体检测装置的示意性框图;
图7为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于视频反光的活体检测方法的应用场景示意图。图2为本发明实施例提供的基于视频反光的活体检测方法的示意性流程图。该基于视频反光的活体检测方法应用于服务器中,该服务器与终端进行数据交互,通过由终端获取的待检测图像数据后,输入至服务器内,由服务器内的卷积神经网络模型进行卷积处理,以得到反射层图像,由反射层图像进行反光含量值的计算,由反光含量值与阈值进行判断,从而进行活体检测。
图2是本发明实施例提供的基于视频反光的活体检测方法的流程示意图。如图2所示,该方法包括以下步骤S110至S170。
S110、获取待检测图像数据。
在本实施例中,待检测图像数据是指由终端拍摄获取的带人脸的图像数据。
S120、对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据。
待检测数据是指待检测图像数据与用ImageNet数据集训练好的VGG-19模型抽取的“conv1_2”层、“conv2_2”层、“conv3_2”层、“conv4_2”层和“conv5_2”层连接形成3+1472维超列特征作进行增广后形成的数据。待检测图像数据维度为3维,与用ImageNet数据集训练好的VGG-19模型抽取的“conv1_2”层、“conv2_2”层、“conv3_2”层、“conv4_2”层和“conv5_2”层连接形成3+1472维超列特征作为最终的增广输入。使用超列阵列可以更好地理解反光图像中对图像内容的理解,易于分离透射层和反光层。
S130、将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像。
在本实施例中,上述的待检测反射层图像是指来自待检测图像数据的反光层的图像。
另外,上述的卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征作为样本数据训练完全卷积网络所得的;所述预训练网络模型特征包括与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征。具体地,请参阅图3,卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征作为样本数据训练完全卷积网络所得的步骤包括步骤S131~S136。
S131、获取输入的图像;
S132、将所述图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据。
在本实施例中,输入彩色图像维度为3维,与用ImageNet数据集训练好的VGG-19模型抽取的“conv1_2”层、“conv2_2”层、“conv3_2”层、“conv4_2”层和“conv5_2”层连接形成3+1472维超列特征作为最终的增广输入。使用超列阵列可以更好地理解反光图像中对图像内容的理解,易于分离图像的透射层和反光层。
具体地,先获取用ImageNet数据集训练好的VGG-19模型,接着抽取VGG-19模型的部分层,包括“conv1_2”层、“conv2_2”层、“conv3_2”层、“conv4_2”层和“conv5_2”层;最后将抽取的VGG-19模型部分层进行连接,将图像与图像输入到VGG-19模型的部分层处理后所得的多维超列特征整合后,作为增广输入的样本数据。
S133、构建完全卷积网络。
在本实施例中,构建的是一个九层完全卷积网络f,网络f感受野513×513,可以有效地聚合全局图像信息。网络f第一层是一个1×1卷积层,将(3+1472)通道降到64。以后为8层3×3个扩张卷积,皆为64个特征通道。最后一层使用线性变换在RGB空间中生成两幅图像,即透射层和反射层图像。
S134、构建损失函数。
在本实施例中,在训练模型时需要用到损失函数,以评价整个模型与实际的贴合程度。
损失函数所形成的总损失包括特征损失和对抗性损失。特征损失为生成的透射层图像与目标图像之间的距离,结合图像低级和高级特征信息利于反射层分离。通过VGG-19采样的各卷积层计算预测透射层图像与目标图像差值L1Loss,计算‘conv1_2’,‘conv2_2’,‘conv3_2’,‘conv4_2’,和‘conv5_2’的特征图差值。φ1为预训练完全卷积网络层l,λ1为平衡不同层之间权重。则特征损失为
Figure BDA0002016728080000081
采用条件GAN对抗性损失,为防止透射层的颜色失真。通过训练得到最适宜的损失函数,使得生成的透射层图像逼近真正的无反射图像。生成器为fT(I;θ),判别器为D。判别器损失为:
Figure BDA0002016728080000082
D(I,x)是给定输入图像I生成的透射图像x的概率。则对抗性损失为:
Figure BDA0002016728080000083
最终损失为L(θ)=Lfeat(θ)+0.25Ladv(θ)。
S135、将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像。
将样本数据输入至完全卷积网络内进行对应的卷积处理,即可分类获得两种图像,一是反射层,二是透射层。
S136、利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
根据预测的两种图像输入到损失函数内,得到损失值,该损失值越小,则表明经过该完全卷积网络的图像能够越成功地分类出所需的图像,反之亦然;因此,可利用预测反射层图像、预测透射层图像以及损失函数不断调整完全卷积网络的参数,可利用深度学习的方式进行训练和学习。
S140、对待检测反射层图像进行反光含量计算,以得到反光含量值。
在本实施例中,反光含量值是指衡量图像的反光含量,一般对视频设备人脸攻击时屏幕造成的镜面反光,而真人图像则不会,可以利用这两者的区别进行判断当前的图像是否是活体。
在一实施例中,请参阅图4,上述的步骤S140可包括步骤S141~S143。
S141、对待检测反射层图像转换为灰度图,以得到中间图像。
在本实施例中,中间图像是指进行灰度化处理的后的待检测反射层图像。
S142、对中间图像进行像素计算,以得到初始像素值;
S143、对初始像素值进行均值计算,以得到反光含量值。
具体是对待检测反射层进行灰度化处理,转换为灰度图像,灰度化处理后形成的图像可以更好的计算像素值,再对所有的初始像素值进行平均计算,得到代表该图像的反光值,进而得到反光含量值。
S150、判断所述反光含量值是否满足设定条件。
在一实施例中,请参阅图5,上述的步骤S140可包括步骤S151~S154。
S151、判断所述反光含量值是否超过第一阈值;
S152、若否,则所述反光含量值满足设定条件;
S153、若是,则判断所述反光含量值是否超过第二阈值;
若否,则返回所述步骤S152;
S154、若是,则所述反光含量值不满足设定条件。
在本实施例中,逆光条件下真人活体检测会大大增强反射层含量甚至超过屏幕镜面反射,但是逆光下人脸区域无反射。所以正常光线下,估计输入整张图像反射量,阈值为th1;逆光条件下估计人脸区域反射量,阈值为th2。利用两个阈值进行反光含量的判断,进而进行活体的判断,可实现精准快速的活体检测。
S160、若是,则输出待检测图像数据为活体图像数据;
S170、若否,则输出待检测图像数据不是活体图像数据。
针对视频设备人脸攻击时屏幕造成的镜面反光以此区别真人和伪装人脸。从将镜面反光图像分解为透射层和反射层角度,提取镜面反射层,进而提取反射层含量判断,实现视频设备的快速有效防攻击。从单个图像中分离出镜像反光图像。使用了一个经过训练的具有感知损失的全卷积网络,利用图像低级和图像高级信息进行端到端损失训练。损失函数包括两种感知损失:视觉感知网络的特征损失;输出与透射层之间的对抗性损失。网络输入镜面反光图像后生成两幅图像:透射层和反射层,实现单图像反射分离;主要针对视频设备人脸攻击时造成的镜面反射以此区别真人和伪装人脸。通过VGG-19超列特征与输入连接作为有效输入,通过9层完全卷积网络,特征损失和对抗性损失训练得到图像的透射层和反射层。统计反射层灰度图像素均值作为反射层含量估计,制定策略解决逆光条件下算法影响,实现视频设备的有效防攻击。针对视频攻击手段只需要一张图片即可进行活体检测,检测更简单;模型耗时短,可实现实时检测,检测更快速有效提取反射层,反射检测更精准;泛化能力强,跨数据库表现性能良好。
用于人脸识别活体检测中,针对视频攻击造成的反射具有很好的防攻击效果,提高安防领域人脸应用的安全性,防止信息泄露,他人伪装窃取等,具有广泛的应用场景和良好的应用前景。
上述的基于视频反光的活体检测方法,通过利用图像与用ImageNet数据集训练好的VGG-19模型抽取的部分层连接形成多维超列特征作为最终的增广输入数据训练完全卷积网络,使之成为能够分离出任一图像的反射层图像的模型,利用该模型对待检测图像分离出反射层图像,对反射层图像进行反光含量计算,根据设定的阈值与计算所得的反光含量值进行对比,进而达到判断活体的目的,实现对镜面反光的精准估计,并提高泛化性能。
图6是本发明实施例提供的一种基于视频反光的活体检测装置300的示意性框图。如图6所示,对应于以上基于视频反光的活体检测方法,本发明还提供一种基于视频反光的活体检测装置300。该基于视频反光的活体检测装置300包括用于执行上述基于视频反光的活体检测方法的单元,该装置可以被配置于台式电脑、平板电脑、手提电脑、等终端中。
具体地,请参阅图6,该基于视频反光的活体检测装置300包括:
数据获取单元301,用于获取待检测图像数据;
增广单元302,用于对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
处理单元303,用于将待检测图像数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
计算单元304,用于对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断单元305,用于判断所述反光含量值是否满足设定条件;
输出单元306,用于若是,则输出待检测图像数据为活体图像数据。
在一实施例中,所述装置包括:
模型获取单元,用于通过输入的图像与预训练网络模型特征连接形成超列特征作为样本数据训练完全卷积网络,以得到卷积神经网络模型
在一实施例中,所述模型获取单元包括:
图像获取子单元,用于获取输入的图像;
样本数据形成子单元,用于将所述图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
网络构建子单元,用于构建完全卷积网络。
损失函数构建子单元,用于构建损失函数;
卷积处理子单元,用于将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
学习子单元,用于利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
在一实施例中,所述计算单元304包括:
转换子单元,用于对待检测反射层图像转换为灰度图,以得到中间图像;
像素值获取子单元,用于对中间图像进行像素计算,以得到初始像素值;
均值获取子单元,用于对初始像素值进行均值计算,以得到反光含量值。
在一实施例中,所述判断单元304包括:
第一判断子单元,用于判断所述反光含量值是否超过第一阈值;若否,则所述反光含量值满足设定条件;
第二判断子单元,用于若是,则判断所述反光含量值是否超过第二阈值;若否,则所述反光含量值满足设定条件;若是,则所述反光含量值不满足设定条件。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述基于视频反光的活体检测装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述基于视频反光的活体检测装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图7所示的计算机设备上运行。
请参阅图7,图7是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器。
参阅图7,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种基于视频反光的活体检测方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种基于视频反光的活体检测方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取待检测图像数据;
对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断所述反光含量值是否满足设定条件;
若是,则输出待检测图像数据为活体图像数据。
其中,所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的;所述预训练网络模型特征包括与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征。。
在一实施例中,处理器502在实现所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的步骤时,具体实现如下步骤:
获取输入的图像;
将图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
构建完全卷积网络;
构建损失函数;
将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
其中,所述损失函数为L(θ)=Lfeat(θ)+0.25Ladv(θ),其中,Ladv(θ)为对抗性损失,Lfeat(θ)为判别器损失,生成器为fT(I;θ),判别器为D,判别器D损失为
Figure BDA0002016728080000151
D(I,x)是给定输入图像I生成的透射图像x的概率,则对抗性损失为/>
Figure BDA0002016728080000152
在一实施例中,处理器502在实现所述对待检测反射层图像进行反光含量计算,以得到反光含量值步骤时,具体实现如下步骤:
对待检测反射层图像转换为灰度图,以得到中间图像;
对中间图像进行像素计算,以得到初始像素值;
对初始像素值进行均值计算,以得到反光含量值。
在一实施例中,处理器502在实现所述判断所述反光含量值是否满足设定条件步骤时,具体实现如下步骤:
判断所述反光含量值是否超过第一阈值;
若否,则所述反光含量值满足设定条件;
若是,则判断所述反光含量值是否超过第二阈值;
若否,则所述反光含量值满足设定条件;
若是,则所述反光含量值不满足设定条件。
应当理解,在本申请实施例中,处理器502可以是中央处理单元302(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取待检测图像数据;
增广单元,用于对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断所述反光含量值是否满足设定条件;
若是,则输出待检测图像数据为活体图像数据。
其中,所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的;所述预训练网络模型特征包括与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征。
在一实施例中,所述处理器在执行所述计算机程序而实现所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的步骤时,具体实现如下步骤:
获取输入的图像;
将图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
构建完全卷积网络;
构建损失函数;
将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型。
其中,所述损失函数为L(θ)=Lfeat(θ)+0.25Ladv(θ),其中,Ladv(θ)为对抗性损失,Lfeat(θ)为判别器损失,生成器为fT(I;θ),判别器为D,判别器D损失为
Figure BDA0002016728080000171
D(I,x)是给定输入图像I生成的透射图像x的概率,则对抗性损失为/>
Figure BDA0002016728080000172
在一实施例中,所述处理器在执行所述计算机程序而实现所述对待检测反射层图像进行反光含量计算,以得到反光含量值步骤时,具体实现如下步骤:
对待检测反射层图像转换为灰度图,以得到中间图像;
对中间图像进行像素计算,以得到初始像素值;
对初始像素值进行均值计算,以得到反光含量值。
在一实施例中,所述处理器在执行所述计算机程序而实现所述判断所述反光含量值是否满足设定条件步骤时,具体实现如下步骤:
判断所述反光含量值是否超过第一阈值;
若否,则所述反光含量值满足设定条件;
若是,则判断所述反光含量值是否超过第二阈值;
若否,则所述反光含量值满足设定条件;
若是,则所述反光含量值不满足设定条件。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元302中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (5)

1.基于视频反光的活体检测方法,其特征在于,包括:
获取待检测图像数据;
对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断所述反光含量值是否满足设定条件;
若是,则输出待检测图像数据为活体图像数据;
所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的;所述预训练网络模型特征包括与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征;
所述卷积神经网络模型是通过输入的图像与预训练网络模型特征连接形成超列特征进行增广后训练完全卷积网络所得的,包括:
获取输入的图像;
将图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
构建完全卷积网络;
构建损失函数;
将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型;
所述损失函数为L(θ)=Lfeat(θ)+0.25Ladv(θ),其中,Ladv(θ)为对抗性损失,Lfeat(θ)为判别器损失,生成器为fT(I;θ),判别器为D,判别器D损失为
Figure QLYQS_1
D(I,x)是给定输入图像I生成的透射图像x的概率,则对抗性损失为/>
Figure QLYQS_2
2.根据权利要求1所述的基于视频反光的活体检测方法,其特征在于,所述对待检测反射层图像进行反光含量计算,以得到反光含量值,包括:
对待检测反射层图像转换为灰度图,以得到中间图像;
对中间图像进行像素计算,以得到初始像素值;
对初始像素值进行均值计算,以得到反光含量值。
3.根据权利要求2所述的基于视频反光的活体检测方法,其特征在于,所述判断所述反光含量值是否满足设定条件,包括:
判断所述反光含量值是否超过第一阈值;
若否,则所述反光含量值满足设定条件;
若是,则判断所述反光含量值是否超过第二阈值;
若否,则所述反光含量值满足设定条件;
若是,则所述反光含量值不满足设定条件。
4.基于视频反光的活体检测装置,其特征在于,包括:
数据获取单元,用于获取待检测图像数据;
增广单元,用于对待检测图像数据与预训练网络模型特征连接形成的超列特征进行增广,以形成待检测数据;
处理单元,用于将待检测数据输入卷积神经网络模型中进行处理,以得到待检测反射层图像;
计算单元,用于对待检测反射层图像进行反光含量计算,以得到反光含量值;
判断单元,用于判断所述反光含量值是否满足设定条件;
输出单元,用于若是,则输出待检测图像数据为活体图像数据;
所述装置包括:
模型获取单元,用于通过输入的图像与预训练网络模型特征连接形成超列特征作为样本数据训练完全卷积网络,以得到卷积神经网络模型;
所述模型获取单元包括:
图像获取子单元,用于获取输入的图像;
样本数据形成子单元,用于将所述图像与用ImageNet数据集训练好的VGG-19模型抽取部分层连接形成多维超列特征,以形成样本数据;
网络构建子单元,用于构建完全卷积网络;
损失函数构建子单元,用于构建损失函数;
卷积处理子单元,用于将样本数据输入完全卷积网络内进行卷积处理,以得到预测反射层图像以及预测透射层图像;
学习子单元,用于利用预测反射层图像、预测透射层图像以及损失函数对完全卷积网络进行学习,以得到卷积神经网络模型;
所述损失函数为L(θ)=Lfeat(θ)+0.25Ladv(θ),其中,Ladv(θ)为对抗性损失,Lfeat(θ)为判别器损失,生成器为fT(I;θ),判别器为D,判别器D损失为
Figure QLYQS_3
D(I,x)是给定输入图像I生成的透射图像x的概率,则对抗性损失为/>
Figure QLYQS_4
5.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至3中任一项所述的方法。
CN201910265693.XA 2019-04-03 2019-04-03 基于视频反光的活体检测方法、装置及计算机设备 Active CN109993124B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910265693.XA CN109993124B (zh) 2019-04-03 2019-04-03 基于视频反光的活体检测方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910265693.XA CN109993124B (zh) 2019-04-03 2019-04-03 基于视频反光的活体检测方法、装置及计算机设备

Publications (2)

Publication Number Publication Date
CN109993124A CN109993124A (zh) 2019-07-09
CN109993124B true CN109993124B (zh) 2023-07-14

Family

ID=67132261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910265693.XA Active CN109993124B (zh) 2019-04-03 2019-04-03 基于视频反光的活体检测方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN109993124B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369464B (zh) * 2020-03-04 2021-11-09 深圳市商汤科技有限公司 去除图像中的反光的方法及装置、电子设备和存储介质
CN111507910B (zh) * 2020-03-18 2023-06-06 南方电网科学研究院有限责任公司 一种单图像去反光的方法、装置及存储介质
CN112906676A (zh) * 2021-05-06 2021-06-04 北京远鉴信息技术有限公司 人脸图像来源的识别方法、装置、存储介质及电子设备
CN113221766A (zh) * 2021-05-18 2021-08-06 北京百度网讯科技有限公司 训练活体人脸识别模型、识别活体人脸的方法及相关装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106397B (zh) * 2013-01-19 2016-09-21 华南理工大学 基于亮瞳效应的人脸活体检测方法
CN106650669A (zh) * 2016-12-27 2017-05-10 重庆邮电大学 一种鉴别仿冒照片欺骗的人脸识别方法
CN108573203B (zh) * 2017-03-17 2021-01-26 北京旷视科技有限公司 身份认证方法和装置及存储介质
CN107273794A (zh) * 2017-04-28 2017-10-20 北京建筑大学 一种人脸识别过程中的活体鉴别方法及装置
CN108038456B (zh) * 2017-12-19 2024-01-26 中科视拓(北京)科技有限公司 一种人脸识别系统中的防欺骗方法
CN107909063B (zh) * 2017-12-22 2021-05-04 天津科技大学 基于灰度变化的生物识别视频回放攻击检测方法

Also Published As

Publication number Publication date
CN109993124A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
CN109993124B (zh) 基于视频反光的活体检测方法、装置及计算机设备
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN109346159B (zh) 病例图像分类方法、装置、计算机设备及存储介质
CN108664843B (zh) 活体对象识别方法、设备和计算机可读存储介质
CN110222717B (zh) 图像处理方法和装置
CN109711358B (zh) 神经网络训练方法、人脸识别方法及系统和存储介质
CN108230291B (zh) 物体识别系统训练方法、物体识别方法、装置和电子设备
CN110909693A (zh) 3d人脸活体检测方法、装置、计算机设备及存储介质
CN107992807B (zh) 一种基于cnn模型的人脸识别方法及装置
US11804070B2 (en) Method and apparatus with liveness detection
CN112163637B (zh) 基于非平衡数据的图像分类模型训练方法、装置
CN113538202A (zh) 一种基于生成式隐写对抗的图像隐写方法及系统
CN112668519A (zh) 基于MCCAE网络和Deep SVDD网络的异常人脸识别活体检测方法及系统
CN110348385B (zh) 活体人脸识别方法和装置
CN111046893B (zh) 图像相似性确定方法和装置、图像处理方法和装置
WO2011055164A1 (en) Method for illumination normalization on a digital image for performing face recognition
CN113810611A (zh) 一种事件相机的数据模拟方法和装置
CN116385832A (zh) 双模态生物特征识别网络模型训练方法
WO2022156214A1 (zh) 一种活体检测方法及装置
Yang et al. A Face Detection Method Based on Skin Color Model and Improved AdaBoost Algorithm.
CN116092134A (zh) 一种基于深度学习和特征融合的指纹活体检测方法
Yang et al. No-reference image quality assessment focusing on human facial region
CN112989932A (zh) 基于改进原型网络的少样本森林火灾烟雾识别方法及装置
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN116092170A (zh) 一种基于大数据技术的专利价值分析系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant after: Shenzhen Huafu Technology Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant before: SHENZHEN HUAFU INFORMATION TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant