CN114495231A - 人脸活体检测方法、人脸活体检测模型的训练方法及设备 - Google Patents

人脸活体检测方法、人脸活体检测模型的训练方法及设备 Download PDF

Info

Publication number
CN114495231A
CN114495231A CN202210101700.4A CN202210101700A CN114495231A CN 114495231 A CN114495231 A CN 114495231A CN 202210101700 A CN202210101700 A CN 202210101700A CN 114495231 A CN114495231 A CN 114495231A
Authority
CN
China
Prior art keywords
face
model
sub
image
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210101700.4A
Other languages
English (en)
Inventor
沈涛
罗超
胡泓
李巍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ctrip Computer Technology Shanghai Co Ltd
Original Assignee
Ctrip Computer Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ctrip Computer Technology Shanghai Co Ltd filed Critical Ctrip Computer Technology Shanghai Co Ltd
Priority to CN202210101700.4A priority Critical patent/CN114495231A/zh
Publication of CN114495231A publication Critical patent/CN114495231A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了人脸活体检测方法、人脸活体检测模型的训练方法及设备,其中人脸活体检测方法包括:采用第一子模型和第二子模型对原始图像中的人脸图像和背景图像分别进行人脸特征检测及背景特征检测,人脸特征检测用于检测人脸活体特征,而背景特征信息为背景图像中像素特征信息,该像素特征信息反映该原始的目标图像是否采自现实场景,之后将这两部分特征信息均输入到第三子模型,利用第三子模型基于人脸特征信息和背景特征信息进行人脸活体检测,输出人脸活体检测结果。本发明结合考虑人脸特征及背景特征信息进行人脸活体检测,人脸活体检测结果准确率高。

Description

人脸活体检测方法、人脸活体检测模型的训练方法及设备
技术领域
本发明涉及计算机技术领域,具体地说,涉及人脸活体检测方法、人脸活体检测模型的训练方法及设备。
背景技术
生物特征识别技术广泛应用于生活中的各个领域,其中,人脸识别技术因其特征采集方便、卫生等特点,应用最为广泛。随着人脸识别应用领域的扩展,也出现了越来越多的攻击人脸识别的方法。常见的攻击方法包括使用人脸照片、视频和3D面具模型等介质模拟人脸在人脸识别设备前对人脸识别进行攻击。可见,现有技术中对人脸识别进行攻击采用的大多数是非活体介质,因此,对待识别的人脸进行活体检测,以抵御对识别进行攻击,是一个急待解决的问题。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供人脸活体检测方法、人脸活体检测模型的训练方法及设备,克服了现有技术的困难,能够提升人脸活体检测准确率。
本发明的实施例提供一种人脸活体检测方法,该方法包括:
获取目标图像中的人脸图像和背景图像;
将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
可选地,获取目标图像中的人脸图像和背景图像,包括:
在目标图像中识别人脸图像区域;
对目标图像中的人脸图像区域进行截图,得到人脸图像和背景图像。
可选地,在目标图像中识别人脸图像区域,包括:
在拍摄预览界面显示人脸图像框;
利用拍摄预览界面拍摄获得目标图像、及目标图像中对应于人脸图像框位置的人脸图像区域。
可选地,在将人脸特征信息和背景特征信息输入到第三子模型之前,人脸活体检测方法还包括:
将人脸特征信息和背景特征信息进行拼接;
将拼接特征信息基于第三子模型的输入设置进行特征变换;
其中变换后的拼接特征信息作为第三子模型的输入。
可选地,第一子模型、第二子模型和第三子模型均是基于残差网络得到的。
本发明的实施例还提供一种人脸活体检测模型的训练方法,该方法包括:
获取图像样本集中的人脸图像和背景图像;
将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
可选地,利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,包括:
采用第一损失函数计算人脸活体检测结果的第一误差,利用第一误差调整第一子模型的模型参数,直到第一子模型收敛;
采用第二损失函数计算人脸活体检测结果的第二误差,利用第二误差调整第二子模型的模型参数,直到第二子模型收敛;
采用第三损失函数计算人脸活体检测结果的第三误差,利用第三误差调整第三子模型的模型参数,直到第三子模型收敛。
本发明的实施例还提供一种人脸活体检测装置,该装置包括:
第一获取模块,获取目标图像中的人脸图像和背景图像;
第一特征提取模块,将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
第一人脸活体检测模块,将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
本发明的实施例还提供一种人脸活体检测模型的训练装置,该装置包括:
第二获取模块,获取图像样本集中的人脸图像和背景图像;
第二特征提取模块,将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
第二人脸活体检测模块,将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
训练模块,利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
本发明的实施例还提供一种电子设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述人脸活体检测方法、或人脸活体检测模型的训练方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述人脸活体检测方法、或人脸活体检测模型的训练方法的步骤。
本发明的目的在于提供人脸活体检测方法、人脸活体检测模型的训练方法及设备,能够采用第一子模型和第二子模型对原始图像中的人脸图像和背景图像分别进行人脸特征检测及背景特征检测,人脸特征检测用于检测人脸活体特征,而背景特征信息为背景图像中像素特征信息,该像素特征信息反映该原始的目标图像是否采自现实场景,之后将这两部分特征信息均输入到第三子模型,利用第三子模型基于人脸特征信息和背景特征信息进行人脸活体检测,输出人脸活体检测结果。
本发明实施例结合考虑人脸特征及背景特征信息进行人脸活体检测,人脸活体检测结果准确率高。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的人脸活体检测方法的一个实施例的流程图;
图2是本发明的人脸活体检测模型的结构示意图;
图3是本发明的人脸活体检测模型的训练方法的一个实施例的流程图;
图4是本发明的人脸活体检测模型的训练过程的示意图;
图5是是本发明的人脸活体检测装置的一个实施例的模块示意图;
图6是是本发明的人脸活体检测模型的训练装置的一个实施例的模块示意图;
图7是本发明的人脸活体检测设备或人脸活体检测模型的训练设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式。相反,提供这些实施方式使本发明全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件转发模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本案发明人对现有人脸活体检测方法进行研究发现,进行人脸活体检测的方法分为三类:基于纹理特征的方法、基于运动特征的方法和基于其他特征方法。但是基于运动特征的人脸活体检测方法在以视频做攻击媒介的情况下,识别准确率并不高;基于纹理特征或其他特征的人脸活体检测方法受光照影响较大,识别准确率不稳定。
本案发明人仔细研究了人脸非活体图像和人脸活体图像的差异并发现,作为人脸非活体图像的一种,翻拍照片是对二维平面图形进行再次拍照得到的,该翻拍图像中可能会显示二维平面图像的边框或边界,边框或者边界处的图像像素不连续。
对于另一种人脸非活体图像,拼接图像是采用人脸图像截图和背景截图拼接得到的,这样人脸图像截图和背景图像截图之间的边界或边框像素是不连续的。
而人脸活体图像是从现实场景中采集三维立体对象得到的图像帧,则不会出现上述情况。
在深入考虑上述差异的情况下,本案发明人提出一种人脸活体检测方案的发明思想,具体为,采用两个子模型对原始图像中的人脸图像和背景图像分别进行人脸特征检测及背景特征检测,人脸特征检测用于检测人脸活体特征,而背景特征信息为背景图像中像素特征信息,该像素特征信息反映像素变化的连续性,之后将这两部分特征信息均输入到第三子模型,利用第三子模型基于人脸特征信息和背景特征信息进行人脸活体检测,输出人脸活体检测结果。
本发明实施例结合考虑人脸特征及背景特征信息进行人脸活体检测,人脸活体检测结果准确率高。
图1为本发明实施例提供的人脸活体检测方法的流程图。如图1所示,本发明实施例的人脸活体检测方法包括如下步骤:
步骤110:获取目标图像中的人脸图像和背景图像;
步骤120:将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
步骤130:将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
在本实施例中,人脸图像和背景图像来自于同一目标图像。
其中,人脸活体检测结果显示目标图像中的人脸是否为活体对象,或者人脸属于活体的概率值,或不属于活体的概率值。
其中,背景特征信息可以反映该原始的目标图像是否采自现实场景,人脸特征信息可以反映是否为活体人脸的特征。因此本发明实施例结合考虑人脸特征及背景特征信息进行人脸活体检测,综合考虑两方面的特征信息,人脸活体检测结果准确率高。
在本发明可选实施例中,获取目标图像中的人脸图像和背景图像,包括:
在目标图像中识别人脸图像区域;
对目标图像中的人脸图像区域进行截图,得到人脸图像和背景图像。
在本实施例中,可以对目标图像进行初步的人脸图像识别,识别出人脸图像区域,并对人脸图像区域截图得到人脸图像,则目标图像的剩余部分为背景图像。这表明本实施例具有较强可行性。
在可选实施例中,人脸图像区域识别可采用特征匹配方案,通过匹配人脸特征进行识别。
在本发明可选实施例中,在目标图像中识别人脸图像区域,包括:
在拍摄预览界面显示人脸图像框;
利用拍摄预览界面拍摄获得目标图像、及目标图像中对应于人脸图像框采集到的人脸图像区域。
本实施例提供一种应用场景,在图像采集终端现实拍摄预览界面,并在该拍摄预览界面显示人脸图像框,该人脸图像框引导用户将人脸对象放入人脸图像框内,提升用户体验感,并能够实现实时地拍摄及人脸活体检测。这样,本实施例可以解决对翻拍图像的准确识别。
在可选实施例中,可以在接收到用户输入的情况下,启动拍摄目标图像。还可以是,在人脸图像框内检测到人脸图像的情况下,自动拍摄目标图像。
在本发明可选实施例中,第一子模型、第二子模型和第三子模型各自可以是神经网络模型或其他特征提取模型。神经网络模型如深度神经网络模型、卷积神经网络模型、或残差网络ResNet(residual network)。
本实施例第一子模型、第二子模型和第三子模型采用ResNet。
在原始的残差网络结构中,卷积分支中的第一个卷积层的卷积核大小为1×1、卷积步长为2,第二个卷积层的卷积核大小为3×3、卷积步长为1,那么在第一个卷积层进行卷积操作时,两次卷积过程之间会跳过一个特征点,进而会造成特征网络的损失,因此,可以对残差网络进行如下结构上的改进:
其中,残差网络包含顺次相连的多个残差块(Residual Blocks),每个残差块包含卷积分支和残差分支,卷积分支中的第一卷积层的卷积核大小小于位于第一卷积层之后的第二卷积层的卷积核大小,第二卷积层的卷积步长大于第一卷积层的卷积步长且小于第二卷积层的卷积核宽度。其中,残差块中的残差分支是由卷积分支的输入指向卷积分支的输出。
在一实施例中,残差网络可以是深度残差网络,残差网络还包含位于多个残差块之前的初始卷积层,初始卷积层的输出作为多个残差块中第一个残差块的输入。在该实施例中,由于残差块中的第二卷积层已经能够实现下采样处理,因此可以去掉原始残差网络中位于残差块之前的池化层,简化了残差网络的结构。
在本申请的一个实施例中,残差网络中的多个残差块构成了多个卷积阶段(stages),每个卷积阶段中的第一个残差块包含的残差分支包含顺次相连的一批量归一化处理层和一目标卷积层。
在该实施例中,对于一个残差块而言,如果其输入和输出具有相同的尺寸(包括size和channel等),那么残差分支是一个恒等映射,但是如果其输入和输出的尺寸不相同,那么需要通过一个卷积操作来将输入和输出映射到相同的尺寸上,通常情况下在每个卷积阶段中的第一个残差块中需要通过非恒等映射(即增加一个卷积层)的残差分支来保证残差块的输入和输出一致。同时,由于卷积层的卷积操作没有偏置项,因此可以在卷积层之前添加一个BN(即Batch Normalization,批量归一化)层来添加偏置项,进而能够保证达到最优的处理效果。
由于采用残差网络的结构,可以使得残差块中的卷积层在进行卷积操作时,既保证了能够通过第二卷积层实现下采样的处理,又能够保证不会跳过任何一个特征点,进而可以保证不会造成特征网络表征能力的损失,从而能够确保图像特征提取的准确性,提高了图像识别的准确率。ResNet通过在一个浅层网络基础上叠加恒等映射层,可以让网络随着深度增加而不退化。这反映多层非线性网络无法逼近恒等映射网络。
在可选实施例中,第一子模型和第二子模型可以选择ResNet50,第三子模型可以选择NesTet18。这样,第一子模型和第二子模型相比于第三子模型具有层数较多,更深深度。
在本发明可选实施例中,在将人脸特征信息和背景特征信息输入到第三子模型之前,将人脸特征信息和背景特征信息进行拼接;
将拼接特征信息基于第三子模型的输入设置进行特征变换,并将变换后的拼接特征信息输入到第三子模型。
其中,输入设置可以是第三子模型对输入的格式信息。
在这种情况下,第三子模型可以基于人脸特征信息预测第一活体人脸图像检测结果、基于背景特征信息预测第二活体人脸图像检测结果,并基于拼接特征信息预测第三活体人脸图像检测结果。
第一活体人脸图像检测结果、第二活体人脸图像检测结果和第三活体人脸检测结果均是对不同图像特征进行分析得到的,其中第三活体图像检测结果是通过对拼接特征信息所反映的目标图像整体上的像素特征信息进行分析得到的。
在这种情况下,可以采用预设的融合方式融合第一活体人脸图像检测结果、第二活体人脸图像检测结果和第三活体人脸检测结果,得到最终的人脸活体检测结果。
比如将第一活体人脸图像检测结果、第二活体人脸图像检测结果和第三活体人脸检测结果进行加权计算得到最终的人脸活体检测结果。在计算过程中,第一活体人脸图像检测结果、第二活体人脸图像检测结果和第三活体人脸检测结果的权重可根据实际场景需要进行调整。
再比如,可将第一活体人脸图像检测结果、第二活体人脸图像检测结果和第三活体人脸检测结果进行比较,将数值较小的活体人脸检测结果作为最终的人脸活体检测结果。
进一步地,还可再将人脸活体检测结果与阈值进行比较,当人脸活体检测结果达到阈值时,则判定目标图像为活体人脸图像,当人脸活体检测结果小于阈值时,则判定目标图像为非活体人脸图像。其中,阈值是根据经验设定的阈值,并认为高于该阈值的人脸活体检测结果可以相信目标图像为活体人脸图像。
在本发明可选实施例中,在人脸活体检测结果显示目标图像为活体人脸图像的情况下,可以继续执行后续业务操作。这种业务操作可以对应于不同业务场景,如支付、账号登录、信息查询展示等,在此不作限定。
在本发明可选实施例中,在人脸活体检测结果显示目标图像为非活体人脸图像的情况下,可以终止后续业务操作,还可以将人脸活体检测结果在用户界面进行展示,以提醒用户。
在这种情况下,可以提示用户进行身份验证。
在这种情况下,还可以对该用户标记为风险用户。
参考图2所示本发明实施例提供的人脸活体检测模型,其包括第一子模型21、第二子模型22和第三子模型23。其中,第一子模型21、第二子模型22和第三子模型23可以通过机器学习手段进行训练得到。
图3为本发明实施例提供的人脸活体检测模型的训练方法的流程图。如图3所示,人脸活体检测模型的训练方法包括如下步骤:
步骤310:获取图像样本集中的人脸图像和背景图像;
步骤320:将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
步骤330:将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
步骤340:利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
在本实施例中,训练得到的人脸活体检测模型可以用于人脸活体检测,具体可以参考上文图1所示内容,在此不再详述。
本发明实施例将人脸特征信息和背景特征信息进行解耦,使用两个不同的子模型来专门学习不同的特征,并使用另一个子模型综合两者的信息。
在本发明可选实施例中,第一子模型和第二子模型可使用ResNet50,或其他层数的残差网络ResNet,第三子模型使用ResNet18或其他层数的残差网络,整体网络结构是能够端到端可训练的。
第一子模型和第二子模型所使用残差网络的层数大于第三子模型的层数,这可以使得第一子模型和第二子模型所提取特征更充分全面,有利于第三子模型输出更精确的人脸活体检测结果。
在本发明可选实施例中,图像样本集可以包括正样本和负样本,其中正样本是指人脸图像和对应的背景图像来自于同一人脸活体图像,而负样本中人脸图像和背景图像来自于同一人脸非活体图像。
本发明可选实施例,采用有监督训练方案进行训练。这样,在图像样本集中标记正样本图像和负样本图像。
在本发明可选实施例中,人脸特征信息和背景特征信息可以进行拼接,将拼接特征信息输入到第三子模型。
在本发明可选实施例中,利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,包括:
采用第一损失函数计算人脸活体检测结果的第一误差,利用第一误差调整第一子模型的模型参数,直到第一子模型收敛;
采用第二损失函数计算人脸活体检测结果的第二误差,利用第二误差调整第二子模型的模型参数,直到第二子模型收敛;
采用第三损失函数计算人脸活体检测结果的第三误差,利用第三误差调整第三子模型的模型参数,直到第三子模型收敛。
在本发明可选实施例中,第一损失函数、第二损失函数和第三损失函数可以相同或不同。
具体地,第一损失函数和第二损失函数可以选择加性角度间隔损失函数Arc loss(Additive Angular Margin Loss)。第三损失函数为焦点损失函数focal loss。此为举例,并不构成唯一选择限定。
在本发明可选实施例中,图像样本集可以使用CelebA Spoof人脸反欺骗数据集,数据集带有人脸图像区域的box坐标。如图4所示,输入图像会被分解为人脸图像区域face和背景区域context,人脸图像区域图像可以调整到224*224,同时背景图像是由原图中抠除人脸图像区域,用灰度值(128,128,128)代替,然后也调整大小到224*224。这可以确保人脸图像和背景图像尺寸一致。
对于变换模块,主要功能是拼接两个特征提取网络的特征映射,然后通过变换构造成resnet18的输入要求形式。
其中,损失函数由3部分组成,第一子模型face resnet50网络和第二子模型context resnet 50网络都是使用arc loss,第三子模型feature resnet18网络使用focalloss提升效果。
其中,这三个损失函数的权重各不相同,可根据需要设定。整个网络模型可以进行端到端训练。
图5是本发明的人脸活体检测装置的一种实施例的模块示意图。本发明的人脸活体检测装置500,如图5所示,包括但不限于:
第一获取模块510,获取目标图像中的人脸图像和背景图像;
第一特征提取模块520,将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
第一人脸活体检测模块530,将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
上述模块的实现原理参见人脸活体检测方法中的相关介绍,此处不再赘述。
本装置能够采用第一子模型和第二子模型对原始图像中的人脸图像和背景图像分别进行人脸特征检测及背景特征检测,人脸特征检测用于检测人脸活体特征,而背景特征信息为背景图像中像素特征信息,该像素特征信息反映该原始的目标图像是否采自现实场景,之后将这两部分特征信息均输入到第三子模型,利用第三子模型基于人脸特征信息和背景特征信息进行人脸活体检测,输出人脸活体检测结果。
本发明实施例结合考虑人脸特征及背景特征信息进行人脸活体检测,人脸活体检测结果准确率高。
在可选实施例中,第一获取模块510具体用于:
在目标图像中识别人脸图像区域;
对目标图像中的人脸图像区域进行截图,得到人脸图像和背景图像。
在可选实施例中,第一获取模块510具体还用于:
在拍摄预览界面显示人脸图像框;
利用拍摄预览界面拍摄获得目标图像、及目标图像中对应于人脸图像框位置的人脸图像区域。
在可选实施例中,第一获取模块510具体还用于:
在将人脸特征信息和背景特征信息输入到第三子模型之前,将人脸特征信息和背景特征信息进行拼接;
将拼接特征信息基于第三子模型的输入设置进行特征变换;
其中变换后的拼接特征信息作为第三子模型的输入。
可选地,第一子模型、第二子模型和第三子模型均是基于残差网络得到的。
图6是本发明的种人脸活体检测模型的训练装置的一种实施例的模块示意图。本发明的种人脸活体检测模型的训练装置600,如图6所示,包括但不限于:
第二获取模块610,获取图像样本集中的人脸图像和背景图像;
第二特征提取模块620,将人脸图像输入到第一子模型,输出人脸特征信息,以及将背景图像输入到第二子模型,输出背景特征信息;
第二人脸活体检测模块630,将人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
训练模块640,利用人脸活体检测结果的误差训练第一子模型、第二子模型和第三子模型,直到第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
在可选实施例中,训练模块640具体用于:
采用第一损失函数计算人脸活体检测结果的第一误差,利用第一误差调整第一子模型的模型参数,直到第一子模型收敛;
采用第二损失函数计算人脸活体检测结果的第二误差,利用第二误差调整第二子模型的模型参数,直到第二子模型收敛;
采用第三损失函数计算人脸活体检测结果的第三误差,利用第三误差调整第三子模型的模型参数,直到第三子模型收敛。
本发明实施例还提供一种电子设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的人脸活体检测方法或人脸活体检测模型的训练方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图7是本发明的人脸活体检测设备或人脸活体检测模型的训练设备的结构示意图。下面参照图7来描述根据本发明的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:至少一个处理单元710、至少一个存储单元720、连接不同平台组件(包括存储单元720和处理单元710)的总线730、显示单元740等。
其中,存储单元存储有程序代码,程序代码可以被处理单元710执行,使得处理单元710执行本说明书页面人脸活体检测方法或人脸活体检测模型的训练方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元710可以执行如图1或图3中所示的步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)721和/或高速缓存存储单元722,还可以进一步包括只读存储单元(ROM)723。
存储单元720还可以包括具有一组(至少一个)程序模块725的程序/实用工具724,这样的程序模块725包括但不限于:处理系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备770(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。
并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器760可以通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的人脸活体检测方法或人脸活体检测模型的训练方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述人脸活体检测方法或人脸活体检测模型的训练方法部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语音的任意组合来编写用于执行本发明处理的程序代码,程序设计语音包括面向对象的程序设计语音—诸如Java、C++等,还包括常规的过程式程序设计语音—诸如“C”语音或类似的程序设计语音。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (11)

1.一种人脸活体检测方法,其特征在于,包括:
获取目标图像中的人脸图像和背景图像;
将所述人脸图像输入到第一子模型,输出人脸特征信息,以及将所述背景图像输入到第二子模型,输出背景特征信息;
将所述人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
2.根据权利要求1所述的人脸活体检测方法,其特征在于,所述获取目标图像中的人脸图像和背景图像,包括:
在所述目标图像中识别人脸图像区域;
对所述目标图像中的人脸图像区域进行截图,得到所述人脸图像和背景图像。
3.根据权利要求2所述的人脸活体检测方法,其特征在于,在所述目标图像中识别人脸图像区域,包括:
在拍摄预览界面显示人脸图像框;
利用所述拍摄预览界面拍摄获得目标图像、及所述目标图像中对应于所述人脸图像框位置的所述人脸图像区域。
4.根据权利要求1所述的人脸活体检测方法,其特征在于,在将所述人脸特征信息和背景特征信息输入到第三子模型之前,所述人脸活体检测方法还包括:
将所述人脸特征信息和背景特征信息进行拼接;
将拼接特征信息基于所述第三子模型的输入设置进行特征变换;
其中变换后的拼接特征信息作为所述第三子模型的输入。
5.根据权利要求1所述的人脸活体检测方法,其特征在于,所述第一子模型、第二子模型和第三子模型均是基于残差网络得到的。
6.一种人脸活体检测模型的训练方法,其特征在于,包括:
获取图像样本集中的人脸图像和背景图像;
将所述人脸图像输入到第一子模型,输出人脸特征信息,以及将所述背景图像输入到第二子模型,输出背景特征信息;
将所述人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
利用所述人脸活体检测结果的误差训练所述第一子模型、第二子模型和第三子模型,直到所述第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
7.根据权利要求6所述的人脸活体检测模型的训练方法,其特征在于,所述利用所述人脸活体检测结果的误差训练所述第一子模型、第二子模型和第三子模型,直到所述第一子模型、第二子模型和第三子模型均收敛,包括:
采用第一损失函数计算所述人脸活体检测结果的第一误差,利用所述第一误差调整所述第一子模型的模型参数,直到所述第一子模型收敛;
采用第二损失函数计算所述人脸活体检测结果的第二误差,利用所述第二误差调整所述第二子模型的模型参数,直到所述第二子模型收敛;
采用第三损失函数计算所述人脸活体检测结果的第三误差,利用所述第三误差调整所述第三子模型的模型参数,直到所述第三子模型收敛。
8.一种人脸活体检测装置,其特征在于,包括:
第一获取模块,获取目标图像中的人脸图像和背景图像;
第一特征提取模块,将所述人脸图像输入到第一子模型,输出人脸特征信息,以及将所述背景图像输入到第二子模型,输出背景特征信息;
第一人脸活体检测模块,将所述人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果。
9.一种人脸活体检测模型的训练装置,其特征在于,包括:
第二获取模块,获取图像样本集中的人脸图像和背景图像;
第二特征提取模块,将所述人脸图像输入到第一子模型,输出人脸特征信息,以及将所述背景图像输入到第二子模型,输出背景特征信息;
第二人脸活体检测模块,将所述人脸特征信息和背景特征信息输入到第三子模型,输出人脸活体检测结果;
训练模块,利用所述人脸活体检测结果的误差训练所述第一子模型、第二子模型和第三子模型,直到所述第一子模型、第二子模型和第三子模型均收敛,得到包括第一子模型、第二子模型和第三子模型的人脸活体检测模型。
10.一种电子设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至5中任意一项所述人脸活体检测方法、或图6-7中任意一项所述人脸活体检测模型的训练方法的步骤。
11.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现权利要求1至5中任意一项所述人脸活体检测方法、或图6-7中任意一项所述人脸活体检测模型的训练方法的步骤。
CN202210101700.4A 2022-01-27 2022-01-27 人脸活体检测方法、人脸活体检测模型的训练方法及设备 Pending CN114495231A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210101700.4A CN114495231A (zh) 2022-01-27 2022-01-27 人脸活体检测方法、人脸活体检测模型的训练方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210101700.4A CN114495231A (zh) 2022-01-27 2022-01-27 人脸活体检测方法、人脸活体检测模型的训练方法及设备

Publications (1)

Publication Number Publication Date
CN114495231A true CN114495231A (zh) 2022-05-13

Family

ID=81476718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210101700.4A Pending CN114495231A (zh) 2022-01-27 2022-01-27 人脸活体检测方法、人脸活体检测模型的训练方法及设备

Country Status (1)

Country Link
CN (1) CN114495231A (zh)

Similar Documents

Publication Publication Date Title
US10901740B2 (en) Synthetic depth image generation from cad data using generative adversarial neural networks for enhancement
US20220114750A1 (en) Map constructing method, positioning method and wireless communication terminal
CN108256479B (zh) 人脸跟踪方法和装置
US9400939B2 (en) System and method for relating corresponding points in images with different viewing angles
CN109034069B (zh) 用于生成信息的方法和装置
CN109583389B (zh) 绘本识别方法及装置
CN112381104A (zh) 一种图像识别方法、装置、计算机设备及存储介质
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN108388889B (zh) 用于分析人脸图像的方法和装置
CN112417947B (zh) 关键点检测模型的优化及面部关键点的检测方法及装置
JP2022133378A (ja) 顔生体検出方法、装置、電子機器、及び記憶媒体
CN111784776A (zh) 视觉定位方法及装置、计算机可读介质和电子设备
CN114612987A (zh) 一种表情识别方法及装置
JP2023526899A (ja) 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品
US20210295016A1 (en) Living body recognition detection method, medium and electronic device
CN113902932A (zh) 特征提取方法、视觉定位方法及装置、介质和电子设备
CN111027376A (zh) 一种确定事件图谱的方法、装置、电子设备及存储介质
CN112580395A (zh) 基于深度信息的3d人脸活体识别方法、系统、设备及介质
CN112287945A (zh) 碎屏确定方法、装置、计算机设备及计算机可读存储介质
CN112085842A (zh) 深度值确定方法及装置、电子设备和存储介质
US11551379B2 (en) Learning template representation libraries
CN116012913A (zh) 模型训练方法、人脸关键点检测方法、介质及装置
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
CN115393423A (zh) 目标检测方法和装置
CN112862840B (zh) 图像分割方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination