CN111898561A - 一种人脸认证方法、装置、设备及介质 - Google Patents
一种人脸认证方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111898561A CN111898561A CN202010769978.XA CN202010769978A CN111898561A CN 111898561 A CN111898561 A CN 111898561A CN 202010769978 A CN202010769978 A CN 202010769978A CN 111898561 A CN111898561 A CN 111898561A
- Authority
- CN
- China
- Prior art keywords
- target
- face image
- sample
- residual region
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请提供一种人脸认证方法、装置、设备及介质,涉及人工智能技术领域,用于提高人脸认证的准确性。该人脸认证方法包括:识别待认证的目标人脸图像存在目标遮挡物时,从所述目标人脸图像中分割出除所述目标遮挡物对应区域之外的目标剩余区域;根据所述目标遮挡物在所述目标人脸图像中的相对位置信息,从参考人脸图像中去除所述相对位置信息对应的区域,获得参考剩余区域;据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果,该方法通过对参考人脸图像进行与目标人脸图相类似的处理,提高人脸认证的准确性。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及人工智能技术领域,提供一种人脸认证方法、装置、设备及介质。
背景技术
人脸认证技术被广泛地应用在生物安全解锁领域,比如利用人脸认证解锁手机、利用人脸认证确定是否支付等。
人脸认证的方法的通常是:手机采集人脸图像,将人脸图像与预存的该手机的人脸图像进行匹配,如果二者匹配,则确定人脸认证成功。
但用户所戴口罩遮挡或外部环境中其它物体的遮挡等原因,可能导致手机采集到的人脸图像部分区域被遮挡,如果将被遮挡后的人脸图像与手机中预存的人脸图像进行匹配,则容易导致匹配失败。可见,目前的人脸认证方法的准确性较低。
发明内容
本申请实施例提供一种人脸认证方法、装置、设备及介质,用于提高人脸认证的准确性。
一方面,提供了一种人脸认证方法,包括:
识别待认证的目标人脸图像存在目标遮挡物时,从所述目标人脸图像中分割出除所述目标遮挡物对应区域之外的目标剩余区域;
根据所述目标遮挡物在所述目标人脸图像中的相对位置信息,从参考人脸图像中去除所述相对位置信息对应的区域,获得参考剩余区域;根据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果。
在本申请实施例中,提供一种人脸认证装置,包括:
分割模块,用于识别待认证的目标人脸图像存在目标遮挡物时,从所述目标人脸图像中分割出除所述目标遮挡物对应区域之外的目标剩余区域;
获得模块,用于根据所述目标遮挡物在所述目标人脸图像中的相对位置信息,从参考人脸图像中去除所述相对位置信息对应的区域,获得参考剩余区域;
确定模块,用于根据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果。
在一种可能的实施例中,所述分割模块具体用于:
检测所述目标人脸图像中各像素点的分类;
根据分类属于目标遮挡物的像素点与所述目标人脸图像中所有像素点的比值,确定所述目标人脸图像是否存在目标遮挡物。
在一种可能的实施例中,所述分割模块具体用于:
根据分类属于目标遮挡物的像素点,确定所述目标人脸图像中的疑似目标遮挡物区域;
若所述疑似目标遮挡物区域的面积与所述目标人脸图像的面积比值满足第一阈值条件,则确定所述目标人脸图像中存在目标遮挡物;
若所述疑似目标遮挡物区域的面积与所述目标人脸图像的面积比值不满足第一阈值条件,则确定所述目标人脸图像中不存在目标遮挡物。
在一种可能的实施例中,所述确定模块还用于:
在所述定所述目标人脸图像中不存在目标遮挡物之后,将所述目标人脸图像与所述参考人脸图像进行匹配;
根据所述目标人脸图像与所述参考人脸图像的匹配结果,确定所述目标人脸图像的认证结果。
在一种可能的实施例中,所述分割模块具体用于:
提取所述目标人脸图像中各像素点的特征;
根据各像素点的特征,确定各像素点与所述目标遮挡物的相关度;
根据确定出的相关度,确定各像素点是否属于目标遮挡物。
在一种可能的实施例中,各像素点的分类是通过分类模型获得的,所述分类模型包括第一特征提取模块和分类器,所述分类模型是通过如下步骤训练得到的:
获取第一样本集;其中,所述第一样本集包括标注了目标遮挡物对应区域的样本人脸图像;
通过所述第一特征提取模型,提取样本人脸图像中各像素点的特征;
通过所述分类器,确定各像素点的预测分类;
根据各像素点的预测分类和样本人脸图像中各像素点是否属于所述目标遮挡物的真实分类,调整所述分类模型的模型参数,直到所述分类模型的损失满足目标损失,获得已训练的分类模型。
在一种可能的实施例中,所述确定模块具体用于:
分别提取所述目标剩余区域的第一特征向量,以及所述参考剩余区域的第二特征向量;
对所述第一特征向量和第二特征向量进行匹配,获得所述目标剩余区域和所述参考剩余区域的匹配概率;
若所述匹配概率满足第二阈值条件,则确定所述目标人脸图像认证通过;
若所述匹配概率不满足第二阈值条件,则确定所述目标人脸图像认证不通过。
在一种可能的实施例中,所述确定模块具体用于:
对所述第一特征向量和第二特征向量进行拼接,获得第三特征向量;
对所述第三特征向量进行变换,获得所述目标剩余区域和所述参考剩余区域的匹配概率。
在一种可能的实施例中,所述匹配结果是通过图像匹配模型获得的,所述图像匹配模型包括第二特征提取模块、第三特征提取模块和多层感知机,所述图像匹配模型是通过如下步骤获得的:
获取第二样本集;其中,所述第二样本集包括从第二样本人脸图像中分割出了目标遮挡物的第一样本剩余区域、第二样本剩余区域、以及第一样本剩余区域和第二样本剩余区域的真实匹配结果,第二样本剩余区域为从完整人脸图像中去除了与第二样本人脸图像中目标遮挡物位置对应区域的图像;
通过所述第二特征提取模块提取第一样本剩余区域的第一样本特征向量,以及通过第三特征提取模块提取第二样本剩余区域的第二样本特征向量;
通过多层感知机,对第一样本特征向量和所述第二样本特征向量拼接后的第三样本特征向量进行变换,获得第一样本剩余区域和第二样本剩余区域的预测匹配概率;
根据所述预测匹配概率和所述真实匹配结果,调整所述图像匹配模型的模型参数,直到所述图像匹配模型的损失满足目标损失,获得已训练的图像匹配模型。
在一种可能的实施例中,第二样本人脸图像包括在不同场景下采集的具有目标遮挡物的人脸图像。
由于本申请实施例采用上述技术方案,至少具有如下技术效果:
在本申请实施例中,采用处理目标人脸图像的类似方式,处理参考人脸图像,使得在认证过程中,匹配图像中的元素是相对应的,避免了因目标遮挡物存在造成匹配失败的情况,且不会遗漏目标人脸图像中除目标遮挡物之外的区域的特征,从而提高了人脸认证的准确性。且,该方法不涉及对人脸图像进行人脸补全等复杂的处理过程,相对可以提高人脸认证的效率。
附图说明
图1为本申请实施例提供的人脸认证设备的结构示意图;
图2为本申请实施例提供的人脸认证方法的应用场景示例图一;
图3为本申请实施例提供的人脸认证方法的应用场景示例图二;
图4为本申请实施例提供的人脸认证方法的流程图一;
图5为本申请实施例提供的分类模型的结构示意图;
图6为本申请实施例提供的图像匹配模型的结构示意图;
图7为本申请实施例提供的人脸认证方法的流程图二;
图8为本申请实施例提供的人脸认证方法的流程图三;
图9为本申请实施例提供的分割目标人脸图像中目标剩余区域的示例图;
图10为本申请实施例提供的分割参考人脸图像中参考剩余区域的示例图;
图11为本申请实施例提供的人脸认证装置的结构示意图;
图12为本申请实施例提供的人脸认证设备的结构示意图。
具体实施方式
为了更好的理解本申请实施例提供的技术方案,下面将结合说明书附图以及具体的实施方式进行详细的说明。
为了便于本领域技术人员更好地理解本申请的技术方案,下面对本申请涉及的名词进行介绍。
1、人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2、机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。本申请实施例中的人脸认证过程涉及到机器学习技术,将在下文中进行介绍。
3、卷积神经网络(Convolutional Neural Networks,CNN):是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器。该特征抽取器可以看作是滤波器,卷积过程可以看作是使用一个可训练的滤波器与一个输入的图像或者卷积特征平面(feature map)做卷积。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元共享权重,这里共享的权重就是卷积核。共享权重可以理解为提取图像信息的方式与位置无关。这其中隐含的原理是:图像的某一部分的统计信息与其他部分是一样的。即在某一部分学习的图像信息也能用在另一部分上。所以对于图像上的所有位置,都能使用同样的学习得到的图像信息。在同一卷积层中,可以使用多个卷积核来提取不同的图像信息,一般地,卷积核数量越多,卷积操作反映的图像信息越丰富。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。
4、支持向量机(Support Vector Machine,SVM):一种比较常用而且复杂度较低的分类器,常用于实现二分类。SVM是构建用于分类的超平面,借助晁平面实现对特征的分类。
5、损失函数:在训练深度神经网络的过程中,因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高,就调整权重向量让它预测低一些,不断的调整,直到深度神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objectivefunction),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数(loss)的输出值越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。
6、目标人脸图像:是指采集当前用户的用于进行人脸认证的人脸图像。前用户是指当前进行人脸认证的用户。
7、目标遮挡物:是指人脸图像中遮挡人脸的物品。遮挡物的类型可以多种,比如口罩、帽子、眼镜等。
8、目标剩余区域:是指目标人脸图像存在目标遮挡物时,目标人脸图像中除了目标遮挡物之外的区域。
9、相对位置信息:是指目标人脸图像中识别出的目标遮挡物在目标人脸图像中的相对位置,比如目标遮挡物位于目标人脸图像中从上往下50%~90%的位置。
10、参考人脸图像:是指预存的设备拥有者的人脸图像,在认证人脸时,该参考人脸图像作为对照标准。参考人脸图像通常是采集的设备拥有者的完整的人脸图像,完整的人脸图像可以理解为该人脸图像不存在目标遮挡物。例如可以裁剪目标人脸图像中与目标遮挡物对应的区域,或者可以删除目标人脸图像中与目标遮挡物对应的图像信息,获得目标剩余区域。
11、参考剩余区域:是指将参考人脸图像中除了相对位置信息对应区域之外的区域。例如可以裁剪参考人脸图像中与相对位置信息对应的区域,或者可以删除参考人脸图像中与相对位置信息对应的图像信息,获得参考剩余区域。
应当说明的是,本申请中的“多个”是指两个或两个以上,“至少一个”是指一个或两个以上,“A/B”表示A、B、A和B三种情况。
相关技术中一般是在设备中预存有设备拥有者的完整人脸图像,当采集到当前用户的人脸图像后,与预存的完整人脸图像进行比对,如果二者能够匹配上,则确定比对成功,反之,则确定比对失败。
但相关技术并未考虑采集的当前用户的人脸图像存在遮挡物的情况,如果当前用户的人脸图像存在遮挡物,那么由于这部分遮挡,极易导致采集的当前用户的人脸图像与预存的完整人脸图像比对失败,导致人脸认证的准确性不高。
鉴于此,本申请实施例提供一种人脸认证方法,该方法中,在采集目标人脸图像后,检测目标人脸图像是否存在目标遮挡物,如果目标人脸图像存在目标遮挡物,会利用该目标遮挡物在目标人脸图像中的相对位置处理预存的参考人脸图像,再将处理后的参考人脸图像与目标人脸图像中除目标遮挡物对应区域之外的区域进行匹配,如果二者匹配成功,则确定目标人脸图像认证成功,从而提供了一种人脸被遮挡的情况下的人脸认证方案。且,该方法中,并不是将具有目标遮挡物的目标人脸图像与预存的参考人脸图像进行匹配,而是将除了参考人脸图像中对应目标遮挡物的部分去除,再将去除后的参考剩余区域与目标人脸图像中除目标遮挡物的区域进行匹配,这样一来,既不会存在因目标遮挡物存在造成匹配失败的情况,在人脸认证的过程中,也不会遗漏目标人脸图像中除目标遮挡物之外的区域的特征,从而提高了人脸认证的准确性。且,该方法中不涉及对人脸图像进行复杂的处理,相对可以提高人脸认证的效率。
进一步的,由于需要按照目标遮挡物在目标人脸图像中的相对位置信息处理参考人脸图像,因此如何获得更为准确的相对位置信息对于人脸认证过程极为重要,为此,本申请实施例中一方面对目标人脸图像进行像素级的识别,识别出目标人脸图像中属于目标遮挡物的像素点,另一方面,会根据属于目标遮挡物的像素点在目标人脸图像的占比,进而确定目标人脸图像中是否包括目标遮挡物,利用像素级的识别方式以及像素点的占比,可以更准确地确定出目标人脸图像中是否包括目标遮挡物,以及目标遮挡物所对应区域,进而提高了后续认证人脸的准确性。
另外,当确定目标人脸图像中不存在目标遮挡物时,则可以不对参考人脸图像进行处理,将参考人脸图像以及目标人脸图像进行匹配,在本申请实施例中根据采集的目标人脸图像灵活地选择处理图像的方式,不仅能提高人脸认证的准确率,还能相对提高人脸认证的效率。
进一步,本申请实施例中在对处理后的参考人脸图像与目标人脸图像中除目标遮挡物对应区域之外的区域进行匹配时,分别提取处理后的参考人脸图像的第一特征向量,和目标人脸图像中除目标遮挡物对应区域外的第二特征向量,进而对第一特征向量和第二特征向量进行匹配,由于是分开提取二者的特征,可以相对保留二者更多的图像特征,进而利用提升人脸匹配的准确性。
基于上述设计思想,下面对本申请实施例的人脸认证方法的应用场景进行介绍。
本申请实施例提供的人脸认证方法可以应用任何需要使用人脸进行认证的场景,包括但不限于人脸解锁设备、人脸解锁软件应用等。该人脸认证方法可以由人脸认证设备来执行,请参照图1,表示执行本申请实施例中的人脸认证方法的人脸认证设备的结构示意图,该人脸认证设备100包括一个或多个输入设备101、一个或多个处理器102、一个或多个存储器103和一个或多个输出设备104。
输入设备101用于提供输入接口,以获取或采集外界设备/用户输入的目标人脸图像等。在获得目标人脸图像之后,输入设备101将该输入图像发送给处理器102,处理器102利用存储器103中存储的程序指令,实现对目标人脸图像的认证过程,获得认证结果。通过输出设备104显示认证结果。其中,对目标人脸图像进行认证的方法将在下文中论述。
其中,输入设备101可以包括但不限于物理键盘、功能键、轨迹球、鼠标、触摸屏、操作杆等中的一种或多种。处理器102可以是一个中央处理单元(central processing unit,CPU)、数字处理单元、或图像处理器等。存储器103例如易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器103例如非易失性存储器(non-volatile memory),例如只读存储器,快闪存储器(flash memory),硬盘(hard diskdrive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器103是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器103可以是上述存储器的组合。输出设备104例如显示器、扬声器和打印机等等。
在可能的实施例中,人脸认证设备100可以是用户端设备,也可以是服务端设备。用户端设备可以是移动终端、固定终端或便携式终端,例如移动手机、站点、单元、设备、多媒体计算机、多媒体平板、互联网节点、通信器、台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、个人通信系统(PCS)设备、个人导航设备、个人数字助理(PDA)、音频/视频播放器、数码相机/摄像机、定位设备、电视接收器、无线电广播接收器、电子书设备、游戏设备、电子门锁或者其任意组合,包括这些设备的配件和外设或者其任意组合。还可预见到的是,人脸认证设备100能够支持任意类型的针对用户的接口设备(例如可穿戴设备)等。服务端设备可以是各种服务提供的服务器、大型计算设备等。服务器可以是一个或多个服务器。服务器可以是实体服务器或虚拟服务器等。
在一种可能的应用场景中,请参照图2,表示一种人脸认证的应用场景示例,人脸认证设备100通过终端210实现,终端210可以通过摄像头220采集目标人脸图像,并对目标人脸图像进行认证,如果认证成功,则执行相应的业务逻辑,具体执行何种业务逻辑与终端210相关,比如终端210为电子门锁时,可以开门。或者比如继续参照图2,终端210为手机时,在未进行人脸认证前,终端210显示锁定图标211,终端210在人脸认证成功后可以显示解锁图标212,进而显示终端210的主界面。其中,摄像头可以是配置在终端210上的,比如摄像头为手机上的前置摄像头。摄像头也可以是相对于终端210独立设置的,摄像头220采集目标人脸图像后,将采集的目标人脸图像发送给终端210,图2中是以摄像头220设置在终端210上为例。
在另一种可能的应用场景中,请参照图3,表示一种人脸认证的应用场景,该场景中人脸认证设备100通过服务器310实现。用户通过终端210中客户端301采集目标人脸图像,客户端301请求服务器310进行人脸认证,服务器310在进行人脸认证后,将人脸认证的结果反馈给客户端301,客户端301根据人脸认证的结果执行相应的业务逻辑。客户端301泛指各种类型的客户端,例如社交类客户端、支付类客户端等。客户端301包括但不限于预装在终端210中的客户端,网页版的客户端,或嵌入在第三方客户端中的客户端等。
基于上述图2论述的应用场景,下面结合图4所示的人脸认证方法的流程图对本申请实施例的人脸认证方法进行示例介绍。
S401,终端210识别目标人脸图像是否存在目标遮挡物。
在需要进行人脸认证时,终端210通过摄像头220采集的图像或视频,并根据图像或视频获得当前用户的人脸图像,当前用户的人脸图像即为目标人脸图像。
其中,当终端210获得视频时,筛选视频中满足预设条件的人脸图像作为目标人脸图像。预设条件比如图像质量满足预设图像质量、图像中的人脸拍摄角度满足预设角度等一种或多种。
由于目标人脸图像是否存在目标遮挡物是不确定的,终端210在获得目标人脸图像后,检测目标人脸图像是否存在目标遮挡物。如果确定目标人脸图像存在目标遮挡物,则执行S402,分割出目标人脸图像中除目标遮挡物对应的区域外的目标剩余区域。如果确定目标人脸图像不存在目标遮挡物,则执行S405,则将目标人脸图像与参考人脸图像进行匹配。
其中,检测目标人脸图像是否存在目标遮挡物通过各种分类方法实现。本申请实施例中为了提高检测的准确性,对目标人脸图像进行像素级地分类来实现。
具体地,提取目标人脸图像中各像素点的特征,提取特征例如像素化、线性过滤、非线性过滤等方法,像素点的特征包括像素点的灰度值、颜色、对比度、亮度、纹理或轮廓中的一种或几种的组合。根据各像素点的特征,确定各像素点与目标遮挡物之间的相关度,相关度例如计算像素点的特征与目标遮挡物的像素点特征的相似度,根据确定出的相关度,确定各像素点是否属于目标遮挡物或不属于目标遮挡物的分类。比如相关度大于指定阈值,则确定像素点属于目标遮挡物,相关度小于或等于指定阈值,则确定像素点不属于目标遮挡物。
对目标人脸图像进行像素级进行分类时,可能因目标人脸图像的拍摄环境或其它原因,出现像素点分类误判的情况,如此则可能影响检测目标人脸图像是否存在目标遮挡物结果的准确性。当目标遮挡物为明确的某种遮挡物时,该目标遮挡物不仅在形状上是相对固定的,该目标遮挡物在目标人脸图像中的相对大小也相对固定的,因此在本申请实施例中,确定目标人脸图像中各像素点的分类后,根据分类属于目标遮挡物的像素点与目标人脸图像中所有像素点的比值,确定目标人脸图像是否具有目标遮挡物。
具体地,聚集分类属于目标遮挡物的像素点,具体可聚集各相邻的分类属于目标遮挡物的像素点,以获得目标人脸图像的疑似目标遮挡物区域,疑似目标遮挡物区域可理解为初步属于目标遮挡物的像素点的集合,但不确定这些像素点是否真正属于目标遮挡物。
进一步地,确定疑似目标遮挡物区域的面积与目标人脸图像的面积比值是否满足第一阈值条件,如果满足第一阈值条件,则确定目标人脸图像存在目标遮挡物。如果不满足第一阈值条件,则确定目标人脸图像不存在目标遮挡物。当目标遮挡物具体所表示的遮挡物的类型不同时,第一阈值条件涉及的阈值的取值可以不同。
其中,第一阈值条件例如为面积比值范围,比如第一阈值条件为面积比值为大于0.2。当疑似目标遮挡物区域的面积与目标人脸图像的面积比值为0.1时,则确定目标人脸图像不存在目标遮挡物。当疑似目标遮挡物区域的面积与目标人脸图像的面积比值在0.2时,则确定目标人脸图像不存在目标遮挡物。
上述涉及的检测目标人脸图像是否存在目标遮挡物,可以通过分类模型实现。分类模型可以是通过任意类型的神经网络构建的能实现分类的网络模型。
例如请参照图5所示的分类模型的一种结构示意图。该分类模型包括第一特征提取模块510和分类器520。
第一特征提取模块510可以通过CNN实现,第一特征提取模块510具体包括卷积层511、池化层(max pooling)512和全联通层513,本申请实施例不限制各个层结构的数量。全联通层513又可以称为全连接层。分类器520可以通过SVM实现。
以图5所示的分类模型为例,对检测目标人脸图像是否存在目标遮挡物的过程进行示例说明。
具体地,终端210将目标人脸图像输入至第一特征提取模块510中的卷积层511,输出第一特征图,第一特征图经过池化层512后,获得第二特征图,第二特征图经过全联通层513,输出特征向量。特征向量经过分类器,输出目标人脸图像各像素点的分类,聚集属于目标遮挡物的像素点,以获得疑似目标遮挡物区域。终端210判断该疑似目标遮挡物区域的面积与目标人脸图像的面积占比,进而检测目标人脸图像是否包括目标遮挡物。
作为一种实施例,分类模型为终端210从其他设备或网络资源获得的,或为终端210通过训练获得的。下面对终端210训练分类模型的过程进行说明:
S1.1,获取第一样本集。
终端210通过网络资源获得第一样本集,或响应于用户的输入操作,获得第一样本集。第一样本集是指用于训练分类模型的样本数据集,其包括多个用于训练模型的样本,每个样本为标注了目标遮挡物对应区域的第一样本人脸图像,进一步理解为每个样本标注了各像素点是否属于目标遮挡物的真实分类。例如,目标遮挡物为口罩,终端210可以采集用户戴口罩时的人脸图像,且在人脸图像中标注了口罩对应区域,在人脸图像中标注了口罩对应区域的图像则可作为样本。
S1.2,通过第一特征提取模块510,提取样本人脸图像各像素点的特征。
终端210将样本人脸图像输入至分类模型中的第一特征提取模块510中,通过第一特征提取模块510提取样本人脸图像中各像素点的特征。第一特征提取模块510提取出的各个像素点的特征可以是以特征向量的形式输出,或特征矩阵的形式输出。
S1.3,通过分类器520,根据获得的各像素点的特征,确定各像素点是否属于目标遮挡物。
分类器520根据各像素点的特征,确定各像素点与目标遮挡物的相关度,根据相关度判断像素点是否属于目标遮挡物,获得各像素点是否属于目标遮挡物的预测分类。例如当像素点属于目标遮挡物的相关度大于0.5,则确定像素点属于目标遮挡物。
S1.4,根据各像素点的预测分类和对应像素点的真实分类,调整分类模型的模型参数,直到分类模型的损失满足目标损失,获得已训练的分类模型。
具体地,分类模型的损失可通过构建分类模型的损失函数,该损失函数可以根据预测分类和真实分类之间的误差。终端210可以根据样本人脸图像的标注,获得样本人脸图像中各像素点的真实分类,并根据像素点的预测分类和对应像素点的真实分类,确定分类模型的损失,根据分类模型的损失,调整分类模型的模型参数。
进一步地,在检测目标人脸图像存在目标遮挡物时,可以基于目标遮挡物对应的区域,获得该目标遮挡物在目标人脸图像中的相对位置信息。该相对位置信息包括目标遮挡物相对位于目标人脸图像的区域,或目标遮挡物相对于人脸某个部位的相对参考位置等。
S402,终端210分割出目标人脸图像中除目标遮挡物对应区域外的目标剩余区域。
终端210确定目标人脸图像存在目标遮挡物后,通过上述提到的分类属于目标遮挡物的所有像素点,获得目标遮挡物对应区域,从目标人脸图像分割出除了目标遮挡物对应区域外的目标剩余区域。该目标剩余区域为目标人脸图像中除了目标遮挡物对应区域之外的区域。分割出目标剩余区域可理解为确定出目标人脸图像中的目标剩余区域,例如去除目标人脸图像中的目标遮挡物对应的图像信息,具体例如将目标人脸图像中的目标遮挡物对应的区域转换为纯色,或者例如裁剪掉目标人脸图像中的目标遮挡物对应的区域。
S403,终端210分割出参考人脸图像中的参考剩余区域。
其中,参考人脸图像是指终端210存储的用于认证的人脸图像,该人脸图像可以是完整的人脸图像。例如,用户在首次使用终端210时,终端210采集的人脸图像作为参考人脸图像,在采集后,终端210可周期性或不定时更新参考人脸图像。
由于认证过程需要将前文中的目标剩余区域与参考人脸图像进行匹配,如直接匹配目标剩余区域与参考人脸图像,则容易匹配失败,因此本申请实施例中,终端210会依据相对位置信息,去除参考人脸图像中与相对位置信息对应区域,获得参考剩余区域,参考剩余区域可以参照前文论述的内容,此处不再赘述。去除包括但不限于裁剪参考人脸图像中与相对位置信息对应的区域,或踢除参考人脸图像中与相对位置信息对应区域的图像信息。如此一来,后续认证时,可将目标剩余区域与参考剩余区域进行匹配,提高认证过程的准确率。
S404,终端210将目标剩余区域与参考剩余区域进行匹配。
终端210提取目标剩余区域的特征和参考剩余区域的特征,对二者的特征进行匹配,判断二者特征的匹配程度。
具体地,终端210分别提取目标剩余区域的第一特征向量,以及参考剩余区域的第二特征向量,确定第一特征向量和第二特征向量的匹配概率。匹配概率用于表示目标剩余区域和参考剩余区域匹配的可能性大小。
作为一种实施例,S404可以通过图像匹配模型实现。下面结合图6所示的图像匹配模型的结构对图像匹配模型进行示例介绍。
图像匹配模型包括第二特征提取模块610、第三特征提取模块620和多层感知机630。
将目标剩余区域输入第二特征提取模块610,通过第二特征提取模块610,提取目标剩余区域的特征,获得第一特征向量。将参考剩余区域输入第三特征提取模块620,通过第三特征提取模块620,提取参考剩余区域的特征,获得第二特征向量。拼接第一特征向量和第二特征向量,拼接是指组合两个特征向量,以获得第三特征向量。
进一步地,通过多层感知机630对第三特征向量进行变换处理,获得目标剩余区域和参考剩余区域的匹配概率。
示例性的,第二特征提取模块610和第三特征提取模块620的层结构相同或不同。例如,第二特征提取模块610和第三特征提取模块620均通过两个依次连接的CNN实现。下面对第二特征提取模块610的结构进行示例说明。
第二特征提取模块610依次包括第一卷积层611、第一池化层612、第一全联通层613、第二卷积层614、第二池化层615和第二全联通层616。池化层、卷积层和全联通层的作用可以参照前文论述的内容,此处不再赘述。该实施例中,第二特征提取模块610通过两个CNN实现,可提取区域中更深层次的特征。
作为一种实施例,其中的图像匹配模型为终端210从其他设备或网络资源获得的已训练的图像匹配模型,或为终端210通过训练获得的图像匹配模型,下面对终端210训练图像匹配模型的过程进行示例说明:
S2.1,获取第二样本集。
第二样本集包括从人脸图像分割出了目标遮挡物的第一样本剩余区域、第二样本剩余区域、以及第一样本剩余区域和第二样本剩余区域之间的真实匹配结果。第二样本剩余区域为从终端预存的完整的人脸图像中剔除了人脸图像中目标遮挡物对应区域的图像。第一样本剩余区域与前文论述的目标剩余区域对应,第一样本剩余区域的具体含义可参照目标剩余区域的内容。第二样本剩余区域与前文论述的参考剩余区域相对应,第二样本剩余区域的具体含义可参照参考剩余区域的内容。第一样本剩余区域是手动标注获得的,或通过前文论述的分类模型对采集的人脸图像进行处理获得的。第一样本剩余区域和第二样本剩余区域是针对同一个用户而言的,则第一样本剩余区域和第二样本剩余区域是相匹配,第一样本剩余区域和第二样本剩余区域不是针对同一个用户而言的,则第一样本剩余区域和第二样本剩余区域不匹配。
由于在进行人脸认证应用时,用户所处的场景是不尽相同的,用户所处的场景不同,采集得到的人脸图像的背景千差万别,但图像的背景或多或少会影响认证过程中的图像匹配,因此为了提高训练出的图像匹配模型的泛化性,第二样本人脸图像包括不同场景下采集的人脸图像,不同场景可以理解为采集人脸图像时的背景不同。这样一来,通过第二样本人脸图像获得的第一样本剩余区域也就对应不同场景,这样使得样本的背景更丰富,利于提高训练出的图像匹配模型的泛化性。
例如,采集设备拥有者或非拥有者的人脸图像,具体可以采集各用户在解锁自己的终端时的人脸图像,以及解锁其他人拥有的终端时的人脸图像,并在在采集得到的人脸图像上标注该用户是否为终端对应的拥有者,在解锁时,用户时而戴口罩,时而不带口罩,并标注出具有口罩的人脸图像,这样获得了第一样本剩余区域。依次类推,可以获得“人脸图像-是否为终端拥有者”的监督数据。
S2.2,通过第二特征提取模块610提取第一样本剩余区域的第一样本特征向量,以及通过第三特征提取模块620提取第二样本剩余区域的第二样本特征向量。
S2.3,通过多层感知机630,对第一样本特征向量和第二样本特征向量拼接后的第三样本特征向量进行变换,获得第一样本剩余区域和第二样本剩余区域的预测匹配概率。变换是指对特征向量进行线性变换或非线性变换中的一种或两种。
S2.4,根据预测匹配概率和真实匹配结果,调整图像匹配模型的模型参数,直到图像匹配模型的损失满足目标损失,获得已训练的图像匹配模型。
图像匹配模型的损失可用图像匹配模型的损失函数表征,损失函数可以用于表示预测匹配概率和真实匹配结果之间的误差,损失函数的表达方式有多种,例如交叉熵损失函数。终端210基于预测匹配概率以及真实匹配结果,确定图像匹配模型的损失函数。根据损失函数,调整图像匹配模型的模型参数,直到其损失函数满足目标损失,以获得已训练的图像匹配模型。
作为一种实施例,终端210可以同步训练图像匹配模型和前文论述的分类模型,同步训练可以理解为将分类模型和图像匹配模型视为一个整体模型,进行训练和调参,以获得已训练的分类模型以及图像匹配模型。或者,终端210不同步训练图像匹配模型和分类模型,比如先训练分类模型,再训练图像匹配模型。
S405,将目标人脸图像与参考人脸图像进行匹配。
终端210如果确定目标人脸图像中不存在目标遮挡物,则不对目标人脸图像进行处理,直接将目标人脸图像与参考人脸图像进行匹配。匹配方式可以参考前文匹配目标剩余区域和参考剩余区域的方式,此次不再赘述。
作为一种实施例,S405和S402~S404的两种过程在处理一目标人脸图像时,会执行其中的一种过程。S405的步骤为可选的步骤。
S406,根据匹配结果,确定目标人脸图像的认证结果。
如果执行S404的匹配过程,终端210在获得目标剩余区域和参考剩余区域之间的匹配概率后,根据匹配概率确定目标剩余区域和参考剩余区域是否匹配。如果匹配概率满足第二阈值条件,表示目标剩余区域和参考剩余区域匹配,进而表示目标人脸图像和参考人脸图像匹配的可能性较大,则确定本次认证通过,即目标人脸图像认证通过,并在认证通过时,终端210执行相应的业务逻辑。其中,第二阈值条件可以是满足概率阈值,也就是说,匹配概率大于概率阈值,确定目标人脸图像认证通过;匹配概率小于或等于概率阈值,确定目标人脸图像认证不通过。
如果匹配概率不满足第二阈值条件,表示目标剩余区域和参考剩余区域不匹配,进而表示目标人脸图像和参考人脸图像不匹配的可能性较大,则确定目标人脸图像认证不通过,终端210执行相应的业务逻辑。
如果执行S405的匹配过程,终端210确定目标人脸图像与参考人脸图像匹配时,则确定本次认证通过,即目标人脸图像认证通过。终端210确定目标人脸图像与参考人脸图像不匹配,则确定本次认证不通过,即确定目标人脸图像认证不通过。
图4论述的实施例中,在采集得到需要进行认证的目标人脸图像后,准确地检测出目标人脸图像中可能存在的目标遮挡物,如目标人脸图像存在目标遮挡物,获得目标遮挡物在目标人脸图像中的相对位置信息,并基于相对位置信息,对参考人脸图像进行类似地处理,这样处理后的参考人脸图像与目标人脸图像中的目标剩余区域保留的图像信息是相对应的,进而提高了人脸认证的准确性。且,该方法无需对目标人脸图像进行复杂的人脸补全等处理过程,相对可以提高人脸认证的效率。且,上述实施例直接由终端210执行,可以相对减少终端210与其他设备之间的交互,减少网络传输负担。
为了更清楚地对本申请实施例涉及的人脸认证方法进行介绍,下面对图6所示的方法进行举例说明。
请参照图7,为人脸认证方法的流程示意图,图7中是以目标遮挡物为口罩为例进行介绍。
S701,终端210识别目标人脸图像是否存在口罩。
目标人脸图像的内容、识别目标人脸图像是否存在口罩的方法可以参照前文论述的内容,此处不再赘述。如果目标人脸图像中存在口罩,则执行S701,即分割出目标人脸图像中除口罩区域外的目标剩余区域。如果目标人脸图像中不存口罩,则执行S705,将目标人脸图像与参考人脸图像直接进行匹配。
S702,终端210分割出目标人脸图像中除口罩区域外的目标剩余区域。
分割出目标剩余区域、目标剩余区域的内容可以参照前文论述的内容,此处不再赘述。
例如,请参照图8,图8中a表示目标人脸图像的一种示例,终端210检测出目标人脸图像中存在口罩,并检测出口罩的位置,获得如图8中b所示的示意图,图8所示的目标人脸图像中包括口罩区域800。
S703,分割出参考人脸图像中除口罩在目标人脸图像中的相对位置信息对应的区域外的参考剩余区域。
分割参考剩余区域、参考剩余区域的内容可以参照前文论述的内容,此处不再赘述。
例如,请参照图9,图9中a表示参考人脸图像的一种示例,终端210根据图8所示的口罩在目标人脸图像中的相对位置信息,分割出参考人脸图像中与该相对位置信息对应的区域,获得如图9中b所示的示意图,该图9中b所示的示意图中不包括与图8中的口罩区域800对应的区域900。
S704,将目标剩余区域和参考剩余区域进行匹配。
匹配的方式可以参照前文论述的内容,此处不再赘述。
继续参考图8和图9所示的例子,终端210可以将图8中b所示的目标剩余区域与图9中b所示的参考剩余区域进行匹配。
S705,将目标人脸图像与参考人脸图像进行匹配。
如果检测目标人脸图像中不存在口罩,则执行S705,匹配目标人脸图像与参考人脸图像的方式可以参照前文论述的内容,此处不再赘述。
S706,根据匹配结果,确定目标人脸图像的认证结果。
根据S704或S705的匹配结果,进而确定目标人脸图像是否认证通过。
基于图3论述的应用场景,下面对本申请实施例涉及的人脸认证方法进行介绍。请参照图10,为一种人脸认证方法涉及的终端210和服务器310之间的交互过程图,该过程具体包括:
S1001,客户端301采集目标人脸图像。
例如当前用户想要或需要在客户端301中进行人脸认证过程时,可以进行目标操作,该目标操作用于指示进行人脸认证,目标操作具体可以是开启认证操作,或开启某种需认证后才能实现的功能操作,客户端301响应于目标操作,开启人脸认证功能,比如控制摄像头220启动,采集当前用户的人脸图像,获得目标人脸图像。
S1002,客户端301根据目标人脸图像,生成认证请求。
客户端301获得目标人脸图像后,基于该目标人脸图像,生成用于请求服务器310进行人脸认证的认证请求,该认证请求携带该目标人脸图像,或目标人脸图像的资源地址,该认证请求还包括该客户端301的标识或当前用户的用户标识等。
S1003,客户端301将认证请求发送给服务器310。
S1004,服务器310识别目标人脸图像中是否存在目标遮挡物。
服务器310识别目标人脸图像是否存在目标遮挡物的方式、目标遮挡物的含义等均可以参照前文图4论述的内容,此处不再赘述。
S705,服务器310从目标人脸图像中分割出除目标遮挡物对应区域的目标剩余区域。
目标剩余区域的含义、分割目标剩余区域的方式均可参照前文图4论述的内容,此处不再赘述。在分割目标剩余区域时,服务器310获得目标遮挡物在目标人脸图像中的相对位置信息。相对位置信息的含义、获得相对位置信息的方式均可参照前文论述的内容,此处不再赘述。
S1006,服务器310从参考人脸图像中分割出除相对位置信息对应区域的参考剩余区域。
参考人脸图像可为服务器310预先获得的设备拥有者的完整人脸图像,参考剩余区域的含义、分割参考剩余区域的方式均可参照前文图4论述的内容,此处不再赘述。
S1007,根据目标剩余区域和参考剩余区域的匹配结果,确定目标人脸图像的认证结果。
匹配目标剩余区域和参考剩余区域的方式可以参照前文图4论述的内容,此处不再赘述。根据匹配结果,获得认证结果的具体内容可以参照前文论述的内容,此处不再赘述。
S1008,服务器310将认证结果发送给客户端301。
S1009,客户端301根据认证结果,执行相应的业务逻辑。
作为一种实施例,S709为可选的步骤。
图10论述的实施例中,按照处理目标人脸图像的类似方式对参考人脸图像进行类似地处理,使得处理后的参考人脸图像与目标人脸图像中的目标剩余区域保留的图像信息是相对应的,进而提高了人脸认证的准确性,提高人脸认证结果的可靠性。且,该方法无需对目标人脸图像进行复杂的人脸补全等处理过程,相对可以提高人脸认证的效率。且,上述实施例中认证过程通过服务器310实现,可以相对减少终端210的处理量。
基于同一发明构思,本申请实施例提供一种人脸认证装置,该人脸认证装置相当于设置在前文论述的人脸认证设备100中,具体相当于设置在前文论述的服务器310或终端210中。请参照图11,该人脸认证装置1100包括:
分割模块1101,用于识别待认证的目标人脸图像存在目标遮挡物时,从目标人脸图像中分割出除目标遮挡物对应区域之外的目标剩余区域;
获得模块1102,用于根据目标遮挡物在目标人脸图像中的相对位置信息,从参考人脸图像中获得相对位置信息对应区域之外参考剩余区域;
确定模块1103,用于根据目标剩余区域与参考剩余区域的匹配结果,确定目标人脸图像的认证结果。
在一种可能的实施例中,分割模块1101具体用于:
检测目标人脸图像中各像素点的分类;
根据分类属于目标遮挡物的像素点与目标人脸图像中所有像素点的比值,确定目标人脸图像是否存在目标遮挡物。
在一种可能的实施例中,分割模块1101具体用于:
根据分类属于目标遮挡物的像素点,确定目标人脸图像中的疑似目标遮挡物区域;
若疑似目标遮挡物区域的面积与目标人脸图像的面积比值满足第一阈值条件,则确定目标人脸图像中存在目标遮挡物;
若疑似目标遮挡物区域的面积与目标人脸图像的面积比值不满足第一阈值条件,则确定目标人脸图像中不存在目标遮挡物。
在一种可能的实施例中,确定模块1103还用于:
在定目标人脸图像中不存在目标遮挡物之后,将目标人脸图像与参考人脸图像进行匹配;
根据目标人脸图像与参考人脸图像的匹配结果,确定目标人脸图像的认证结果。
在一种可能的实施例中,分割模块1101具体用于:
提取目标人脸图像中各像素点的特征;
根据各像素点的特征,确定各像素点与目标遮挡物的相关度;
根据确定出的相关度,确定各像素点是否属于目标遮挡物。
在一种可能的实施例中,各像素点的分类是通过分类模型获得的,分类模型包括第一特征提取模块和分类器,分类模型是通过如下步骤训练得到的:
获取第一样本集;其中,第一样本集包括标注了目标遮挡物对应区域的样本人脸图像;
通过第一特征提取模型,提取样本人脸图像中各像素点的特征;
通过分类器,确定各像素点的预测分类;
根据各像素点的预测分类和样本人脸图像中各像素点是否属于目标遮挡物的真实分类,调整分类模型的模型参数,直到分类模型的损失满足目标损失,获得已训练的分类模型。
在一种可能的实施例中,确定模块1103具体用于:
分别提取目标剩余区域的第一特征向量,以及参考剩余区域的第二特征向量;
对第一特征向量和第二特征向量进行匹配,获得目标剩余区域和参考剩余区域的匹配概率;
若匹配概率满足第二阈值条件,则确定目标人脸图像认证通过;
若匹配概率不满足第二阈值条件,则确定目标人脸图像认证不通过。
在一种可能的实施例中,确定模块1103具体用于:
对第一特征向量和第二特征向量进行拼接,获得第三特征向量;
对第三特征向量进行变换,获得目标剩余区域和参考剩余区域的匹配概率。
在一种可能的实施例中,匹配结果是通过图像匹配模型获得的,图像匹配模型包括第二特征提取模块、第三特征提取模块和多层感知机,图像匹配模型是通过如下步骤获得的:
获取第二样本集;其中,第二样本集包括从第二样本人脸图像中分割出了目标遮挡物的第一样本剩余区域、第二样本剩余区域、以及第一样本剩余区域和第二样本剩余区域的真实匹配结果,第二样本剩余区域为从完整人脸图像中剔除了与第二样本人脸图像中目标遮挡物位置对应区域的图像;
通过第二特征提取模块提取第一样本剩余区域的第一样本特征向量,以及通过第三特征提取模块提取第二样本剩余区域的第二样本特征向量;
通过多层感知机,对第一样本特征向量和第二样本特征向量拼接后的第三样本特征向量进行变换,获得第一样本剩余区域和第二样本剩余区域的预测匹配概率;
根据预测匹配概率和真实匹配结果,调整图像匹配模型的模型参数,直到图像匹配模型的损失满足目标损失,获得已训练的图像匹配模型。
在一种可能的实施例中,第二样本人脸图像包括在不同场景下采集的具有目标遮挡物的人脸图像。
基于同一发明构思,本申请实施例提供一种计算机设备,该计算机设备相当于前文论述的人脸认证设备100,具体相当于前文论述的终端210或服务器310。请参照图9,该计算机设备1200包括处理器1280以及存储器1220。
处理器1280用于读取计算机程序,然后执行计算机程序定义的方法,例如处理器1280读取游戏应用程序,从而在该计算机设备1200上运行应用,在显示单元1240上显示应用的界面。处理器1280可以包括一个或多个通用处理器,还可包括一个或多个数字信号处理器(Digital Signal Processor,DSP),还可以包括图像处理器等,用于执行相关操作,以实现本申请实施例所提供的技术方案。
存储器1220一般包括内存和外存,内存可以为随机存储器(RAM),只读存储器(ROM),以及高速缓存(CACHE)等。外存可以为硬盘、光盘、USB盘、软盘或磁带机等。存储器920用于存储计算机程序和其他数据,该计算机程序包括客户端对应的应用程序等,其他数据可包括操作系统或应用程序被运行后产生的数据,该数据包括系统数据(例如操作系统的配置参数)和用户数据。本申请实施例中程序指令存储在存储器1220中,处理器1280执行存储器1220中的程序指令,实现前文论述的人脸认证方法。处理器1280还可以实现前文图11论述的人脸认证装置1100的功能。
此外,计算机设备1200还可以包括显示单元1240,用于接收输入的数字信息、字符信息或接触式触摸操作/非接触式手势,以及产生与计算机设备1200的用户设置以及功能控制有关的信号输入等。
具体地,本申请实施例中,显示单元1240包括显示面板1241,用于显示由用户输入的信息或提供给用户的信息以及计算机设备1200的各种操作界面等,在本申请实施例中主要用于显示计算机设备1200中已安装的客户端的界面、快捷窗口等。可选的,可以采用液晶显示器(Liquid Crystal Display,LCD)或有机发光二极管(Organic Light-EmittingDiode,OLED)等形式来配置显示面板1241。
可选的,显示面板1241可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测玩家的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1280,并能接收处理器1280发来的命令并加以执行。
其中,显示面板1241可以采用电阻式、电容式、红外线以及表面声波等多种类型实现。除了显示单元1240,该计算机设备1200还可以包括输入单元1230,输入单元1230可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。输入单元1230例如图像输入设备1231和其他输入设备1232。
除以上之外,计算机设备1200还可以包括用于给其他模块供电的电源1212、音频电路1260、近场通信模块1270和RF电路1210。计算机设备1200还可以包括一个或多个传感器1250,例如加速度传感器、光传感器、压力传感器等。音频电路1260具体包括扬声器1261和麦克风1262等,例如游戏玩家不使用乐器的情况下,计算机设备1200可以通过麦克风1262采集用户的声音,将用户的声音作为用户输入的控制指令。用户在人脸认证过程中听到的声音均可以通过扬声器1261进行播放。
基于同一发明构思,本申请实施例提供一种存储介质,所述存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行前文论述的人脸认证方法。
基于同一发明构思,本申请实施例提供一种计算机程序产品,该计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,执行上述任一的人脸认证方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (13)
1.一种人脸认证方法,其特征在于,包括:
识别待认证的目标人脸图像存在目标遮挡物时,从所述目标人脸图像中分割出除所述目标遮挡物对应区域之外的目标剩余区域;
根据所述目标遮挡物在所述目标人脸图像中的相对位置信息,从参考人脸图像中去除所述相对位置信息对应的区域,获得参考剩余区域;
根据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果。
2.如权利要求1所述的方法,其特征在于,所述识别待认证的目标人脸图像存在目标遮挡物,包括:
检测所述目标人脸图像中各像素点的分类;
根据分类属于目标遮挡物的像素点与所述目标人脸图像中所有像素点的比值,确定所述目标人脸图像是否存在目标遮挡物。
3.如权利要求2所述的方法,其特征在于,所述根据分类属于目标遮挡物的像素点与所述目标人脸图像中所有像素点的比值,确定所述目标人脸图像是否存在目标遮挡物,包括:
根据分类属于目标遮挡物的像素点,确定所述目标人脸图像中的疑似目标遮挡物区域;
若所述疑似目标遮挡物区域的面积与所述目标人脸图像的面积比值满足第一阈值条件,则确定所述目标人脸图像中存在目标遮挡物;
若所述疑似目标遮挡物区域的面积与所述目标人脸图像的面积比值不满足第一阈值条件,则确定所述目标人脸图像中不存在目标遮挡物。
4.如权利要求3所述的方法,其特征在于,在所述定所述目标人脸图像中不存在目标遮挡物之后,还包括:
将所述目标人脸图像与所述参考人脸图像进行匹配;
根据所述目标人脸图像与所述参考人脸图像的匹配结果,确定所述目标人脸图像的认证结果。
5.如权利要求2所述的方法,其特征在于,所述检测所述目标人脸图像中各像素点的分类,包括:
提取所述目标人脸图像中各像素点的特征;
根据各像素点的特征,确定各像素点与所述目标遮挡物的相关度;
根据确定出的相关度,确定各像素点是否属于目标遮挡物。
6.如权利要求2~5任一项所述的方法,其特征在于,各像素点的分类是通过分类模型获得的,所述分类模型包括第一特征提取模块和分类器,所述分类模型是通过如下步骤训练得到的:
获取第一样本集;其中,所述第一样本集包括标注了目标遮挡物对应区域的第一样本人脸图像;
通过所述第一特征提取模型,提取第一样本人脸图像中各像素点的特征;
通过所述分类器,确定各像素点的预测分类;
根据各像素点的预测分类和第一样本人脸图像中各像素点是否属于所述目标遮挡物的真实分类,调整所述分类模型的模型参数,直到所述分类模型的损失满足目标损失,获得已训练的分类模型。
7.如权利要求1所述的方法,其特征在于,所述根据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果,包括:
分别提取所述目标剩余区域的第一特征向量,以及所述参考剩余区域的第二特征向量;
对所述第一特征向量和第二特征向量进行匹配,获得所述目标剩余区域和所述参考剩余区域的匹配概率;
若所述匹配概率满足第二阈值条件,则确定所述目标人脸图像认证通过;
若所述匹配概率不满足第二阈值条件,则确定所述目标人脸图像认证不通过。
8.如权利要求7所述的方法,其特征在于,所述对所述第一特征向量和第二特征向量进行匹配,获得所述目标剩余区域和所述参考剩余区域的匹配概率,包括:
对所述第一特征向量和第二特征向量进行拼接,获得第三特征向量;
对所述第三特征向量进行变换,获得所述目标剩余区域和所述参考剩余区域的匹配概率。
9.如权利要求7或8所述的方法,其特征在于,所述匹配结果是通过图像匹配模型获得的,所述图像匹配模型包括第二特征提取模块、第三特征提取模块和多层感知机,所述图像匹配模型是通过如下步骤获得的:
获取第二样本集;其中,所述第二样本集包括从第二样本人脸图像中分割出了目标遮挡物的第一样本剩余区域、第二样本剩余区域、以及第一样本剩余区域和第二样本剩余区域的真实匹配结果,第二样本剩余区域为从完整人脸图像中去除了与第二样本人脸图像中目标遮挡物位置对应区域的图像;
通过所述第二特征提取模块提取第一样本剩余区域的第一样本特征向量,以及通过第三特征提取模块提取第二样本剩余区域的第二样本特征向量;
通过多层感知机,对第一样本特征向量和所述第二样本特征向量拼接后的第三样本特征向量进行变换,获得第一样本剩余区域和第二样本剩余区域的预测匹配概率;
根据所述预测匹配概率和所述真实匹配结果,调整所述图像匹配模型的模型参数,直到所述图像匹配模型的损失满足目标损失,获得已训练的图像匹配模型。
10.如权利要求9所述的方法,其特征在于,第二样本人脸图像包括在不同场景下采集的具有目标遮挡物的人脸图像。
11.一种人脸认证装置,其特征在于,包括:
分割模块,用于识别待认证的目标人脸图像存在目标遮挡物时,从所述目标人脸图像中分割出除所述目标遮挡物对应区域之外的目标剩余区域;
获得模块,用于根据所述目标遮挡物在所述目标人脸图像中的相对位置信息,从参考人脸图像中获得去除所述相对位置信息对应的区域,获得所述相对位置信息对应区域之外参考剩余区域;
确定模块,用于根据所述目标剩余区域与所述参考剩余区域的匹配结果,确定所述目标人脸图像的认证结果。
12.一种计算机设备,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令实现如权利要求1~10中任一项所述的方法。
13.一种存储介质,其特征在于,所述存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行如权利要求1~10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010769978.XA CN111898561A (zh) | 2020-08-04 | 2020-08-04 | 一种人脸认证方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010769978.XA CN111898561A (zh) | 2020-08-04 | 2020-08-04 | 一种人脸认证方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898561A true CN111898561A (zh) | 2020-11-06 |
Family
ID=73183387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010769978.XA Pending CN111898561A (zh) | 2020-08-04 | 2020-08-04 | 一种人脸认证方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898561A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597867A (zh) * | 2020-12-17 | 2021-04-02 | 佛山科学技术学院 | 戴口罩人脸识别方法、系统、计算机设备及存储介质 |
CN112990012A (zh) * | 2021-03-15 | 2021-06-18 | 深圳喜为智慧科技有限公司 | 一种遮挡条件下的工装颜色识别方法及系统 |
CN113059560A (zh) * | 2021-03-03 | 2021-07-02 | 广东智源机器人科技有限公司 | 机械臂控制方法、装置、电子设备以及烹饪系统 |
WO2022142330A1 (zh) * | 2020-12-31 | 2022-07-07 | 上海商汤临港智能科技有限公司 | 一种身份认证方法及装置、电子设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091163A (zh) * | 2014-07-19 | 2014-10-08 | 福州大学 | 一种消除遮挡影响的lbp人脸识别方法 |
CN107292287A (zh) * | 2017-07-14 | 2017-10-24 | 深圳云天励飞技术有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN110751215A (zh) * | 2019-10-21 | 2020-02-04 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置、设备、系统及介质 |
-
2020
- 2020-08-04 CN CN202010769978.XA patent/CN111898561A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091163A (zh) * | 2014-07-19 | 2014-10-08 | 福州大学 | 一种消除遮挡影响的lbp人脸识别方法 |
CN107292287A (zh) * | 2017-07-14 | 2017-10-24 | 深圳云天励飞技术有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN110751215A (zh) * | 2019-10-21 | 2020-02-04 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置、设备、系统及介质 |
Non-Patent Citations (1)
Title |
---|
党永成;: "人脸识别技术综述及分析", 《电子技术与软件工程》, no. 3 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597867A (zh) * | 2020-12-17 | 2021-04-02 | 佛山科学技术学院 | 戴口罩人脸识别方法、系统、计算机设备及存储介质 |
CN112597867B (zh) * | 2020-12-17 | 2024-04-26 | 佛山科学技术学院 | 戴口罩人脸识别方法、系统、计算机设备及存储介质 |
WO2022142330A1 (zh) * | 2020-12-31 | 2022-07-07 | 上海商汤临港智能科技有限公司 | 一种身份认证方法及装置、电子设备和存储介质 |
CN113059560A (zh) * | 2021-03-03 | 2021-07-02 | 广东智源机器人科技有限公司 | 机械臂控制方法、装置、电子设备以及烹饪系统 |
CN112990012A (zh) * | 2021-03-15 | 2021-06-18 | 深圳喜为智慧科技有限公司 | 一种遮挡条件下的工装颜色识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
WO2021232985A1 (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
CN111898561A (zh) | 一种人脸认证方法、装置、设备及介质 | |
CN109657533A (zh) | 行人重识别方法及相关产品 | |
CN111444826B (zh) | 视频检测方法、装置、存储介质及计算机设备 | |
CN112001932B (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN114387647B (zh) | 对抗扰动生成方法、装置及存储介质 | |
CN110163111A (zh) | 基于人脸识别的叫号方法、装置、电子设备及存储介质 | |
CN112036331A (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
US10860875B2 (en) | Device and method to register user | |
CN112926654A (zh) | 预标注模型训练、证件预标注方法、装置、设备及介质 | |
CN112446322B (zh) | 眼球特征检测方法、装置、设备及计算机可读存储介质 | |
CN111598168A (zh) | 图像分类方法、装置、计算机设备及介质 | |
CN113128526B (zh) | 图像识别方法、装置、电子设备和计算机可读存储介质 | |
Sedik et al. | An efficient cybersecurity framework for facial video forensics detection based on multimodal deep learning | |
Yu et al. | An identity authentication method for ubiquitous electric power Internet of Things based on dynamic gesture recognition | |
CN117037244A (zh) | 人脸安全检测方法、装置、计算机设备和存储介质 | |
CN112995757B (zh) | 视频剪裁方法及装置 | |
CN111405175B (zh) | 摄像头控制方法、装置、计算机设备和存储介质 | |
CN114067394A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN111598144A (zh) | 图像识别模型的训练方法和装置 | |
CN117079336B (zh) | 样本分类模型的训练方法、装置、设备及存储介质 | |
CN117237856B (zh) | 图像识别方法、装置、计算机设备、存储介质 | |
CN113269176B (zh) | 图像处理模型训练、图像处理方法、装置和计算机设备 | |
WO2024066927A1 (zh) | 图像分类模型的训练方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |