CN112507831B - 活体检测方法、装置、设备和存储介质 - Google Patents
活体检测方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN112507831B CN112507831B CN202011377618.1A CN202011377618A CN112507831B CN 112507831 B CN112507831 B CN 112507831B CN 202011377618 A CN202011377618 A CN 202011377618A CN 112507831 B CN112507831 B CN 112507831B
- Authority
- CN
- China
- Prior art keywords
- image
- living body
- user
- face
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本说明书一个实施例提了一种活体检测方法、装置、设备和存储介质,其中方法包括:获取待检测面部图像,待检测面部图像中的指定面部范围内存在遮挡物。根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。第一活体检测模型基于第一样本图像训练得到,第一样本图像中的指定面部范围经过遮挡处理。基于第一检测结果,确定待检测面部图像中的用户是否为活体。
Description
本申请是2020年5月22日递交的中国发明专利申请第202010441322.5号,发明创造名称为【活体检测方法、装置、设备和存储介质】的分案申请。
技术领域
本文件涉及人脸识别领域,尤其涉及一种活体检测方法、装置、设备和存储介质。
背景技术
活体检测技术作为人脸识别技术的分支,可以基于用户的面部图像判断用户是否为活体,从而防止在人脸识别时非法用户通过图像、视频、3D面具等方式进行攻击。目前在活体检测时,需要获取用户的面部图像,然而,当用户面部存在遮挡物时,比如用户佩戴口罩时,通过已有的活体检测算法容易将活体用户识别为非活体用户。因此,有必要提供一种技术方案,以在用户面部存在遮挡物时,提高活体检测的准确性。
发明内容
本说明书一个实施例的目的是提供一种活体检测方法、装置、设备和存储介质,以在用户面部存在遮挡物时,提高活体检测的准确性。
为解决上述技术问题,本说明书一个实施例是这样实现的:
本说明书一个实施例提供了一种活体检测方法,包括:获取待检测面部图像。待检测面部图像中的指定面部范围内存在遮挡物。根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。第一活体检测模型基于第一样本图像训练得到,第一样本图像中的指定面部范围经过遮挡处理。基于第一检测结果,确定待检测面部图像中的用户是否为活体。
本说明书一个实施例提供了一种活体检测方法,包括:获取待检测面部图像。待检测面部图像中的用户佩戴有口罩。根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。第一活体检测模型基于第一样本图像训练得到,第一样本图像中的眼部以下的面部范围经过遮挡处理。基于第一检测结果,确定待检测面部图像中的用户是否为活体。
本说明书一个实施例提供了一种活体检测装置,包括:第一获取模块,获取待检测面部图像。待检测面部图像中的指定面部范围内存在遮挡物。第一检测模块,根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。第一活体检测模型基于第一样本图像训练得到,第一样本图像中的指定面部范围经过遮挡处理。第一确定模块,基于第一检测结果,确定待检测面部图像中的用户是否为活体。
本说明书一个实施例提供了一种活体检测装置,包括:第二获取模块,获取待检测面部图像。待检测面部图像中的用户佩戴有口罩。第二检测模块,根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。第一活体检测模型基于第一样本图像训练得到,第一样本图像中的眼部以下的面部范围经过遮挡处理。第二确定模块,基于第一检测结果,确定待检测面部图像中的用户是否为活体。
本说明书一个实施例提供了一种活体检测设备,包括处理器以及被安排成存储计算机可执行指令的存储器,计算机可执行指令在被执行时使处理器实现上述活体检测方法的步骤。
本说明书一个实施例提供了一种存储介质,用于存储计算机可执行指令,计算机可执行指令在被执行时实现上述活体检测方法的步骤。
附图说明
为了更清楚地说明本说明书一个或多个实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一实施例提供的活体检测方法的流程示意图;
图2为本说明书又一实施例提供的活体检测方法的流程示意图;
图3为本说明书又一实施例提供的活体检测方法的流程示意图;
图4为本说明书一实施例提供的活体检测装置的模块组成示意图;
图5为本说明书另一实施例提供的活体检测装置的模块组成示意图;
图6为本说明书一实施例提供的活体检测设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
本说明书一个实施例的目的是提供一种活体检测方法、装置、设备和存储介质,以在用户面部存在遮挡物时,提高活体检测的准确性。本说明书各个实施例中的活体检测方法可以应用在人脸识别设备上,如刷脸设备上,也可以应用在服务器上,这里不做限定。
图1为本说明书一实施例提供的活体检测方法的流程示意图,如图1所示,该流程包括以下步骤:
步骤S102,获取待检测面部图像;待检测面部图像中的指定面部范围内存在遮挡物;
步骤S104,根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,第一活体检测模型基于第一样本图像训练得到,第一样本图像中的指定面部范围经过遮挡处理;
步骤S106,基于第一检测结果,确定待检测面部图像中的用户是否为活体。
本说明书一实施例中,首先获取待检测面部图像,待检测面部图像中的指定面部范围内存在遮挡物,然后通过第一活体检测模型进行活体检测,得到第一检测结果,再基于第一检测结果,确定待检测面部图像中的用户是否为活体。由于第一活体检测模型训练时所使用的第一样本图像中的指定面部范围经过遮挡处理,因此通过第一活体检测模型进行活体检测,能够在用户面部存在遮挡物时,提高活体检测的准确性。
上述步骤S102中,获取待检测面部图像。一个情况下,步骤S102由人脸识别设备执行,人脸识别设备通过摄像头获取用户图像,从用户图像中识别得到面部区域,并将面部区域提取出来并缩放至预设尺寸,如缩放至128*128,得到待检测面部图像。另一个情况下,步骤S102由服务器执行,服务器与人脸识别设备通信,人脸识别设备通过以上过程获取待检测面部图像之后,发送给服务器,服务器从而获取待检测面部图像。另一个情况下,步骤S102由服务器执行,服务器与人脸识别设备通信,人脸识别设备通过摄像头获取用户图像,将用户图像发送至服务器,服务器从用户图像中识别得到面部区域,并将面部区域提取出来并缩放至预设尺寸,如缩放至128*128,得到待检测面部图像。
在另外一个实施例中,上述提及到的面部区域的提取和缩放过程,也可以由下文介绍的第一活体检测模块和第二活体检测模块实现。则,人脸识别设备只需要获取用户图像,并将用户图像输入至第一活体检测模块或第二活体检测即可,或者,人脸识别设备只需要获取用户图像并传输给服务器,由服务器将用户图像输入至第一活体检测模块或第二活体检测即可。
待检测面部图像中的指定面部范围内存在遮挡物。比如,指定面部范围包括眼部以下的面部范围,遮挡物包括口罩,则该情况下,待检测面部图像中的用户佩戴有口罩,通过本实施例,能够在用户佩戴有口罩的情况下对用户进行活体检测。又如,指定面部范围包括眼部范围,遮挡物包括眼镜,则该情况下,待检测面部图像中的用户佩戴有眼镜(比如墨镜),通过本实施例,能够在用户佩戴有眼镜(比如墨镜)的情况下对用户进行活体检测。当然,指定面部范围也可以为其他面部范围,比如额头、下巴等,这里不做限定。
上述步骤S104中,根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果。一个情况下,步骤S104由人脸识别设备执行,人脸识别设备中存储有训练好的第一活体检测模型,从而对用户进行活体检测。另一个情况下,步骤S102由服务器执行,服务器中存储有训练好的第一活体检测模型,从而对用户进行活体检测。
步骤S104中,将待检测面部图像输入至第一活体检测模型中进行处理,第一活体检测模型即可输出第一检测结果。第一活体检测模型可以为神经网络模型,比如CNN或者RNN模型。
第一活体检测模型基于第一样本图像训练得到,第一样本图像中的指定面部范围经过遮挡处理。具体地,第一活体检测模型通过以下步骤训练:
(a1)获取多张第一面部图像,并获取第一面部图像的图像标记;图像标记包括图像中的用户为活体或图像中的用户为非活体;
(a2)对第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
(a3)根据图像标记,将第一样本图像分为第一正样本图像和第一负样本图像;
(a4)利用第一正样本图像和第一负样本图像,训练第一活体检测模型。
首先,动作(a1)中,获取多张第一面部图像,第一面部图像可以为用户面部无遮挡的图像,每张第一面部图像具有图像标记,图像标记用于表示该图像中的用户为活体还是不为活体。第一面部图像可以采用试验或者从网络爬取的方式获得。
然后,动作(a2)中,将第一面部图像进行尺寸归一化,尺寸归一化后的第一面部图像均为大小相同的图像。由于第一面部图像中的用户面部无遮挡,因此在尺寸归一化之后,还需要对尺寸归一化处理后的第一面部图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像。
一个具体的实施例中,获取多张用户图像,利用MTCNN或者FASTRCNN等方法对用户图像进行面部检测,得到多张第一面部图像。再将第一面部图像的尺寸归一化到128*128。进而对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,得到第一样本图像。
一个具体的实施例中,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,可以为:利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。比如,利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围,或者,利用白色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围,或者,利用其它颜色或花纹的预设像素点,覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。遮挡处理后的第一面部图像即为第一样本图像。
由于预先将第一面部图像进行尺寸归一化,因此可以提前设定每幅第一面部图像中需要进行遮挡处理的指定面部范围的像素范围,比如每幅第一面部图像中需要进行遮挡处理的指定面部范围的像素范围均为由像素点(50,0)、(50,128)、(128,0)、(128,128)作为顶点组成的矩形区域,从而保证每幅第一面部图像中需要进行遮挡处理的指定面部范围均一致,提高模型训练的准确度。
上述动作(a3)中,根据图像标记,将第一样本图像分为第一正样本图像和第一负样本图像,比如,将图像标记为“图像中的用户为活体”的第一样本图像作为正样本图像,将图像标记为“图像中的用户为非活体”的第一样本图像作为负样本图像。
上述动作(a4)中,利用第一正样本图像和所述第一负样本图像,训练第一活体检测模型。具体地,通过上述动作(a1)至(a3),能够得到第一正样本图像和第一负样本图像,并且,第一正样本图像和第一负样本图像都是指定面部范围经过遮挡处理的图像,因此利用第一正样本图像和第一负样本图像训练得到的第一活体检测模型,能够在用户面部存在遮挡物时,提高活体检测的准确性。动作(a4)中,可以采用通用的神经网络模型的训练方法训练第一活体检测模型,这里不做限定。
上述步骤S106中,基于第一检测结果,确定待检测面部图像中的用户是否为活体。可以根据第一检测结果,确定用户不为活体的第一概率值,若第一概率值大于等于第一概率阈值,则确定用户不为活体,反之,确定用户为活体。
具体地,第一检测结果可以为用户不为活体的概率值,第一检测结果也可以为用户为活体的概率值。根据第一检测结果,确定用户不为活体的第一概率值,判断第一概率值是否大于等于第一概率阈值,若是,则确定用户不为活体,反之,确定用户为活体。
在其他实施例中,也可以根据第一检测结果,确定用户为活体的概率值。若用户为活体的概率值大于等于一定概率值,则确定用户为活体,反之,确定用户不为活体。
可见,通过以上实施例,能够利用指定面部范围经过遮挡处理的第一样本图像训练第一活体检测模型,利用该第一活体检测模型对用户进行活体检测,从而在用户面部存在遮挡物时,提高活体检测的准确性。
并且,由于在训练第一活体检测模型时,不需要单独获取用户面部被遮挡的图像作为样本图像,可以对用户面部无遮挡的图像进行遮挡处理得到第一样本图像,因此降低了第一样本图像的获取难度,提高了模型的训练效率。
并且,由于在训练第一活体检测模型时,可以按照统一的遮挡规则对用户面部无遮挡的图像进行遮挡处理得到第一样本图像,因此保证了每张第一样本图像中被遮挡的面部区域都相同,提高了第一活体检测模型的训练准确度。
能够理解,在其他场景下,也可以获取用户面部具有遮挡物的面部图像作为第一样本图像,从而利用第一样本图像训练第一活体检测模型。
为进一步提高活体检测的准确度,图2为本说明书又一实施例提供的活体检测方法的流程示意图,如图2所示,该流程与图1相比,还包括:
步骤S105,根据待检测面部图像和预先训练的第二活体检测模型,对待检测面部图像中的用户进行活体检测,得到第二检测结果。其中,第二活体检测模型基于第二样本图像训练得到,第二样本图像中的指定面部范围未经过遮挡处理。
相应地,上述步骤S106具体包括:
步骤S1061,根据第一检测结果,确定用户不为活体的第一概率值,根据第二检测结果,确定用户不为活体的第二概率值;
步骤S1062,对第一概率值和第二概率值进行加权求和,得到用户不为活体的第三概率值;
步骤S1063,若第三概率值大于等于第二概率阈值,则确定用户不为活体,反之,确定用户为活体。
第二活体检测模型基于第二样本图像训练得到,第二样本图像中的指定面部范围未经过遮挡处理。第二活体检测模型也可以为神经网络模型,第二活体检测模型通过以下步骤训练:
(b1)获取多张第二面部图像,并获取第二面部图像的图像标记;图像标记包括图像中的用户为活体或图像中的用户为非活体;
(b2)对第二面部图像进行尺寸归一化处理,将尺寸归一化后的图像作为第二样本图像;
(b3)根据图像标记,将第二样本图像分为第二正样本图像和第二负样本图像;
(b4)利用第二正样本图像和第二负样本图像,训练第二活体检测模型。
具体地,与动作(a1)类似,动作(b1)中,可以采用试验或者从网络爬取的方式获得多张第二面部图像,第二面部图像可以为用户面部无遮挡的图像,每张第二面部图像具有图像标记,图像标记用于表示该图像中的用户为活体还是不为活体。
与动作(a2)类似,动作(b2)中,将第二面部图像进行尺寸归一化,尺寸归一化后的第二面部图像均为大小相同的图像。一个具体的实施例中,获取多张用户图像,利用MTCNN或者FASTRCNN等方法对用户图像进行面部检测,得到多张第二面部图像。再将第二面部图像的尺寸归一化到128*128。
与动作(a3)类似,动作(b3)中,根据图像标记,将第二样本图像分为第二正样本图像和第二负样本图像,比如,将图像标记为“图像中的用户为活体”的第二样本图像作为正样本图像,将图像标记为“图像中的用户为非活体”的第二样本图像作为负样本图像。
与动作(a4)类似,动作(b4)中,利用第二正样本图像和第二负样本图像,训练第二活体检测模型。具体地,通过上述动作(b1)至(b3),能够得到第二正样本图像和第二负样本图像,可以采用通用的神经网络模型的训练方法训练第二活体检测模型,这里不做限定。
图2中,步骤S105中,将待检测面部图像输入至第二活体检测模型,通过第二活体检测模型进行活体检测,得到第二检测结果。第二检测结果与第一检测结果类似,可以为用户为活体的概率,或者为用户为非活体的概率。
步骤S1061中,根据第一检测结果,确定用户不为活体的第一概率值,根据第二检测结果,确定用户不为活体的第二概率值。
步骤S1062中,对第一概率值和第二概率值进行加权求和,得到用户不为活体的第三概率值。比如,对第一概率值和第二概率值求平均值,得到第三概率值。
步骤S1063中,判断第三概率值是否大于等于第二概率阈值,若是,则确定用户不为活体,反之,确定用户为活体。
在其他实施例中,也可以根据第一检测结果,确定用户为活体的概率值,根据第二检测结果,确定用户为活体的概率值。对以上两个概率值进行加权求和,得到用户为活体的综合概率值。判断综合概率值是否大于等于一定概率阈值,若是,则确定用户为活体,反之,确定用户不为活体。
本实施例中,通过图2的流程,可以结合两种不同的活体检测模型对用户进行活体检测,从而提高检测结果的准确性。
在一个具体的实施例中,可以在获取到的用户的面部图像后,判断该用户面部的指定面部区域是否被遮挡,若遮挡,则采用第一活体检测模型进行活体检测,或者,采用第一活体检测模型和第二活体检测模型联合的方式进行活体检测,若未遮挡,则采用第二活体检测模型进行活体检测。当然,在其他场景下,也可以不对用户进行判断,采用第一活体检测模型进行活体检测,或者,采用第一活体检测模型和第二活体检测模型联合的方式进行活体检测。
以上介绍的第一活体检测模型可以称之为基于局部注意力机制的活体检测模型,由于训练第一活体检测模型时对面部图像中的指定面部范围进行了遮挡处理,因此能够使得训练好的第一活体检测模型将更多的注意力放在未被遮挡的面部区域,从而形成局部注意力机制。通过具有具备注意力机制的活体检测模型,能够在进行活体检测时将更多的注意力放在未被遮挡的面部区域,从而在用户面部存在遮挡的情况下,降低用户的误拦截率,提高活体检测的准确性,提升用户体验。
下面给出一种具体的第一活体检测模型和第二活体检测模型的具体训练过程。
1、数据采集和预处理。
采集多幅用户图像,并标注每幅用户图像中的用户是否为活体用户。图像采集时,确保不同光照、姿态和环境情况都有被采集到。
2、数据预处理
将采集到的图像进行50%/50%切分,50%作为训练集,另外50%作为测试集。
3、模型训练
3.1对于训练集中的图像进行面部检测,得到面部区域,并将面部区域缩放到预定尺寸(如128*128)并提取出来。
3.2对于提取出来的一半数量的图像,对图像中的指定面部范围进行遮挡处理,得到用于训练第一活体检测模型的正样本图像(活体图像)和负样本图像(非活体图像)。将提取出来的另一半数量的图像,作为用于训练第二活体检测模型的正样本图像(活体图像)和负样本图像(非活体图像)。
3.3在以上的图像获取过程中,尽量保证第一活体检测模型的正样本图像与其负样本图像数量相等,以及保证第二活体检测模型的正样本图像与其负样本图像数量相等。比如,采集80张图像,其中40张为活体图像,40张为非活体图像,将其中的20张活体图像和20张非活体图像作为训练集,另外的40张图像作为测试集。在训练集中,分别设定10张活体图像经过遮挡处理后,为第一活体检测模型的正样本图像,10张非活体图像经过遮挡处理后,为第一活体检测模型的负样本图像,另外的10张活体图像不经过遮挡处理,为第二活体检测模型的正样本图像,另外的10张非活体图像不经过遮挡处理,为第二活体检测模型的负样本图像。
3.4利用第一活体检测模型的正样本图像和负样本图像和softmax二分类函数训练第一活体检测模型,利用第二活体检测模型的正样本图像和负样本图像和softmax二分类函数训练第二活体检测模型。
4、模型测试
利用上述的测试集测试第一活体检测模型和第二活体检测模型,如果准确率达到事先设定的阈值T,则结束训练。否则,调整例如学习率和batch_size等超参数重新进行模型训练。
图3为本说明书又一实施例提供的活体检测方法的流程示意图,如图3所示,该流程包括:
步骤S302,获取待检测面部图像;待检测面部图像中的用户佩戴有口罩;
步骤S304,根据待检测面部图像和预先训练的第一活体检测模型,对待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,第一活体检测模型基于第一样本图像训练得到,第一样本图像中的眼部以下的面部范围经过遮挡处理;
步骤S306,基于第一检测结果,确定待检测面部图像中的用户是否为活体。
上述第一活体检测模型通过以下步骤训练:
(c1)获取多张第一面部图像,并获取第一面部图像的图像标记;图像标记包括图像中的用户为活体或图像中的用户为非活体;
(c2)对第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
(c3)根据图像标记,将第一样本图像分为第一正样本图像和第一负样本图像;
(c4)利用第一正样本图像和第一负样本图像,训练第一活体检测模型。
上述动作(c2)中,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,具体为:利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
图3的具体过程可以参考前述针对图1和图2的描述,这里不再重复。
本说明书一实施例中,首先获取待检测面部图像,待检测面部图像中的用户佩戴有口罩,然后通过第一活体检测模型进行活体检测,得到第一检测结果,再基于第一检测结果,确定待检测面部图像中的用户是否为活体。由于第一活体检测模型训练时所使用的第一样本图像中的眼部以下的面部范围经过遮挡处理,因此通过第一活体检测模型进行活体检测,能够在用户佩戴口罩时,提高活体检测的准确性。
图4为本说明书一实施例提供的活体检测装置的模块组成示意图,如图4所示,该装置包括:
第一获取模块41,获取待检测面部图像;所述待检测面部图像中的指定面部范围内存在遮挡物;
第一检测模块42,根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的指定面部范围经过遮挡处理;
第一确定模块43,基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,该装置还包括第一训练模块;所述第一训练模块通过以下步骤训练所述第一活体检测模块:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,所述第一训练模块,利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。
可选地,所述第一确定模块,根据所述第一检测结果,确定所述用户不为活体的第一概率值;若所述第一概率值大于等于第一概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,第二检测模块,根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像中的所述指定面部范围未经过遮挡处理。
相应地,所述第一确定模块:根据所述第一检测结果,确定所述用户不为活体的第一概率值,根据所述第二检测结果,确定所述用户不为活体的第二概率值;对所述第一概率值和所述第二概率值进行加权求和,得到所述用户不为活体的第三概率值;若所述第三概率值大于等于第二概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,还包括附加训练模块,所述附加训练模型通过以下步骤训练所述第二活体检测模型:获取多张第二面部图像,并获取所述第二面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第二面部图像进行尺寸归一化处理,将尺寸归一化后的图像作为第二样本图像;根据所述图像标记,将所述第二样本图像分为第二正样本图像和第二负样本图像;利用所述第二正样本图像和所述第二负样本图像,训练所述第二活体检测模型。
可选地,所述指定面部范围包括眼部以下的面部范围;所述遮挡物包括口罩。
本实施例中的活体检测装置对应于上述图1至图2中的活体检测方法,能够实现上述图1至图2中的各个过程,并达到相同的效果和功能,这里不再重复。
图5为本说明书另一实施例提供的活体检测装置的模块组成示意图,如图5所示,该装置包括:
第二获取模块51,获取待检测面部图像;所述待检测面部图像中的用户佩戴有口罩;
第二检测模块52,根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的眼部以下的面部范围经过遮挡处理;
第二确定模块53,基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,该装置还包括第二训练模块;所述第二训练模块通过以下步骤训练所述第一活体检测模块:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,所述第二训练模块,利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
本实施例中的活体检测装置对应于上述图3中的活体检测方法,能够实现上述图3中的各个过程,并达到相同的效果和功能,这里不再重复。
进一步地,本说明书另一实施例还提供了一种活体检测设备,图6为本说明书一实施例提供的活体检测设备的结构示意图,如图6所示,活体检测设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器901和存储器902,存储器902中可以存储有一个或一个以上存储应用程序或数据。其中,存储器902可以是短暂存储或持久存储。存储在存储器902的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对活体检测设备中的一系列计算机可执行指令。更进一步地,处理器901可以设置为与存储器902通信,在活体检测设备上执行存储器902中的一系列计算机可执行指令。活体检测设备还可以包括一个或一个以上电源903,一个或一个以上有线或无线网络接口904,一个或一个以上输入输出接口905,一个或一个以上键盘906等。
在一个具体的实施例中,活体检测设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对活体检测设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取待检测面部图像;所述待检测面部图像中的指定面部范围内存在遮挡物;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的指定面部范围经过遮挡处理;
基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,计算机可执行指令在被执行时,所述第一活体检测模型通过以下步骤训练:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,计算机可执行指令在被执行时,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,包括:利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。
可选地,计算机可执行指令在被执行时,确定所述待检测面部图像中的用户是否为活体,包括:根据所述第一检测结果,确定所述用户不为活体的第一概率值;若所述第一概率值大于等于第一概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,计算机可执行指令在被执行时,还包括:根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像中的所述指定面部范围未经过遮挡处理;
相应地,确定所述待检测面部图像中的用户是否为活体,包括:根据所述第一检测结果,确定所述用户不为活体的第一概率值,根据所述第二检测结果,确定所述用户不为活体的第二概率值;对所述第一概率值和所述第二概率值进行加权求和,得到所述用户不为活体的第三概率值;若所述第三概率值大于等于第二概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,计算机可执行指令在被执行时,所述第二活体检测模型通过以下步骤训练:获取多张第二面部图像,并获取所述第二面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第二面部图像进行尺寸归一化处理,将尺寸归一化后的图像作为第二样本图像;根据所述图像标记,将所述第二样本图像分为第二正样本图像和第二负样本图像;利用所述第二正样本图像和所述第二负样本图像,训练所述第二活体检测模型。
可选地,计算机可执行指令在被执行时,所述指定面部范围包括眼部以下的面部范围;所述遮挡物包括口罩。
本实施例中的活体检测设备对应于上述图1至图2中的活体检测方法,能够实现上述图1至图2中的各个过程,并达到相同的效果和功能,这里不再重复。
在另一个具体的实施例中,活体检测设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对活体检测设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取待检测面部图像;所述待检测面部图像中的用户佩戴有口罩;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的眼部以下的面部范围经过遮挡处理;
基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,计算机可执行指令在被执行时,所述第一活体检测模型通过以下步骤训练:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,计算机可执行指令在被执行时,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,包括:利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
本实施例中的活体检测设备对应于上述图3中的活体检测方法,能够实现上述图3中的各个过程,并达到相同的效果和功能,这里不再重复。
进一步地,本说明书另一实施例还提供了一种存储介质,用于存储计算机可执行指令,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
获取待检测面部图像;所述待检测面部图像中的指定面部范围内存在遮挡物;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的指定面部范围经过遮挡处理;
基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述第一活体检测模型通过以下步骤训练:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,包括:利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,确定所述待检测面部图像中的用户是否为活体,包括:根据所述第一检测结果,确定所述用户不为活体的第一概率值;若所述第一概率值大于等于第一概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,还包括:根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像中的所述指定面部范围未经过遮挡处理;
相应地,确定所述待检测面部图像中的用户是否为活体,包括:根据所述第一检测结果,确定所述用户不为活体的第一概率值,根据所述第二检测结果,确定所述用户不为活体的第二概率值;对所述第一概率值和所述第二概率值进行加权求和,得到所述用户不为活体的第三概率值;若所述第三概率值大于等于第二概率阈值,则确定所述用户不为活体,反之,确定所述用户为活体。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述第二活体检测模型通过以下步骤训练:获取多张第二面部图像,并获取所述第二面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第二面部图像进行尺寸归一化处理,将尺寸归一化后的图像作为第二样本图像;根据所述图像标记,将所述第二样本图像分为第二正样本图像和第二负样本图像;利用所述第二正样本图像和所述第二负样本图像,训练所述第二活体检测模型。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述指定面部范围包括眼部以下的面部范围;所述遮挡物包括口罩。
本实施例中的存储介质对应于上述图1至图2中的活体检测方法,能够实现上述图1至图2中的各个过程,并达到相同的效果和功能,这里不再重复。
本说明书另一实施例还提供了一种存储介质,用于存储计算机可执行指令,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
获取待检测面部图像;所述待检测面部图像中的用户佩戴有口罩;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像中的眼部以下的面部范围经过遮挡处理;
基于所述第一检测结果,确定所述待检测面部图像中的用户是否为活体。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述第一活体检测模型通过以下步骤训练:获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,包括:利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
本实施例中的存储介质对应于上述图3中的活体检测方法,能够实现上述图3中的各个过程,并达到相同的效果和功能,这里不再重复。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书的一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书的实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书的实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的实施例是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书的实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书的实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本说明书的实施例可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。
Claims (16)
1.一种活体检测方法,包括:
获取待检测面部图像;所述待检测面部图像中的指定面部范围内存在遮挡物;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像通过对第一面部图像中的指定面部范围进行遮挡处理后得到;
根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像为用户面部无遮挡的图像;
根据所述第一检测结果,确定所述用户为活体的第四概率值,根据所述第二检测结果,确定所述用户为活体的第五概率值;
对所述第四概率值和所述第五概率值进行加权求和,得到所述用户为活体的综合概率值;
判断所述综合概率值是否大于等于第三概率阈值,若是,则确定所述用户为活体,反之,确定所述用户不为活体。
2.根据权利要求1所述的方法,所述第一活体检测模型通过以下步骤训练:
获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;所述第一面部图像为用户面部无遮挡的图像;
对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;
利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
3.根据权利要求2所述的方法,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,包括:
利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。
4.根据权利要求1所述的方法,所述第二活体检测模型通过以下步骤训练:
获取多张第二面部图像,并获取所述第二面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;
对所述第二面部图像进行尺寸归一化处理,将尺寸归一化后的图像作为第二样本图像;
根据所述图像标记,将所述第二样本图像分为第二正样本图像和第二负样本图像;
利用所述第二正样本图像和所述第二负样本图像,训练所述第二活体检测模型。
5.根据权利要求1-4任一项所述的方法,所述指定面部范围包括眼部以下的面部范围;所述遮挡物包括口罩。
6.一种活体检测方法,包括:
获取待检测面部图像;所述待检测面部图像中的用户佩戴有口罩;
根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像通过对第一面部图像中的眼部以下的面部范围进行遮挡处理后得到;
根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像为用户面部无遮挡的图像;
根据所述第一检测结果,确定所述用户为活体的第四概率值,根据所述第二检测结果,确定所述用户为活体的第五概率值;
对所述第四概率值和所述第五概率值进行加权求和,得到所述用户为活体的综合概率值;
判断所述综合概率值是否大于等于第三概率阈值,若是,则确定所述用户为活体,反之,确定所述用户不为活体。
7.根据权利要求6所述的方法,所述第一活体检测模型通过以下步骤训练:
获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;所述第一面部图像为用户面部无遮挡的图像;
对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;
利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
8.根据权利要求7所述的方法,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,包括:
利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
9.一种活体检测装置,包括:
第一获取模块,获取待检测面部图像;所述待检测面部图像中的指定面部范围内存在遮挡物;
第一检测模块,根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像通过对第一面部图像中的指定面部范围进行遮挡处理后得到;
第二检测模块,根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像为用户面部无遮挡的图像;
第一确定模块,根据所述第一检测结果,确定所述用户为活体的第四概率值,根据所述第二检测结果,确定所述用户为活体的第五概率值;对所述第四概率值和所述第五概率值进行加权求和,得到所述用户为活体的综合概率值;判断所述综合概率值是否大于等于第三概率阈值,若是,则确定所述用户为活体,反之,确定所述用户不为活体。
10.根据权利要求9所述的装置,还包括第一训练模块;所述第一训练模块通过以下步骤训练所述第一活体 检测模型 :
获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;所述第一面部图像为用户面部无遮挡的图像;
对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的指定面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;
利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
11.根据权利要求10所述的装置,
所述第一训练模块,利用预设像素点覆盖尺寸归一化处理后的图像中的指定面部范围。
12.一种活体检测装置,包括:
第二获取模块,获取待检测面部图像;所述待检测面部图像中的用户佩戴有口罩;
第二检测模块,根据所述待检测面部图像和预先训练的第一活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第一检测结果;其中,所述第一活体检测模型基于第一样本图像训练得到,所述第一样本图像通过对第一面部图像中的眼部以下的面部范围进行遮挡处理后得到;
第三检测模块,根据所述待检测面部图像和预先训练的第二活体检测模型,对所述待检测面部图像中的用户进行活体检测,得到第二检测结果;其中,所述第二活体检测模型基于第二样本图像训练得到,所述第二样本图像为用户面部无遮挡的图像;
第二确定模块,根据所述第一检测结果,确定所述用户为活体的第四概率值,根据所述第二检测结果,确定所述用户为活体的第五概率值;对所述第四概率值和所述第五概率值进行加权求和,得到所述用户为活体的综合概率值;判断所述综合概率值是否大于等于第三概率阈值,若是,则确定所述用户为活体,反之,确定所述用户不为活体。
13.根据权利要求12所述的装置,还包括第二训练模块;所述第二训练模块通过以下步骤训练所述第一活体检测模型 :
获取多张第一面部图像,并获取所述第一面部图像的图像标记;所述图像标记包括图像中的用户为活体或图像中的用户为非活体;
对所述第一面部图像进行尺寸归一化处理,对尺寸归一化处理后的图像中的眼部以下的面部范围进行遮挡处理,将遮挡处理后的图像作为第一样本图像;
根据所述图像标记,将所述第一样本图像分为第一正样本图像和第一负样本图像;
利用所述第一正样本图像和所述第一负样本图像,训练所述第一活体检测模型。
14.根据权利要求13所述的装置,
所述第二训练模块,利用黑色像素点覆盖尺寸归一化处理后的图像中的眼部以下的面部范围。
15.一种活体检测设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器实现上述权利要求1至5任一项所述的活体检测方法的步骤,或者,实现上述权利要求6至8任一项所述的活体检测方法的步骤。
16.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被执行时实现上述权利要求1至5任一项所述的活体检测方法的步骤,或者,实现上述权利要求6至8任一项所述的活体检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011377618.1A CN112507831B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011377618.1A CN112507831B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
CN202010441322.5A CN111340014B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441322.5A Division CN111340014B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112507831A CN112507831A (zh) | 2021-03-16 |
CN112507831B true CN112507831B (zh) | 2022-09-23 |
Family
ID=71186446
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011377618.1A Active CN112507831B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
CN202010441322.5A Active CN111340014B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441322.5A Active CN111340014B (zh) | 2020-05-22 | 2020-05-22 | 活体检测方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN112507831B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401348B (zh) * | 2020-06-05 | 2020-09-04 | 支付宝(杭州)信息技术有限公司 | 一种目标对象的活体检测方法及系统 |
CN111985340A (zh) * | 2020-07-22 | 2020-11-24 | 深圳市威富视界有限公司 | 基于神经网络模型的人脸识别方法、装置和计算机设备 |
CN111680675B (zh) * | 2020-08-14 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
CN112800847B (zh) * | 2020-12-30 | 2023-03-24 | 广州广电卓识智能科技有限公司 | 人脸采集源检测方法、装置、设备和介质 |
CN114973347B (zh) * | 2021-04-22 | 2023-07-21 | 中移互联网有限公司 | 一种活体检测方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
WO2019071739A1 (zh) * | 2017-10-13 | 2019-04-18 | 平安科技(深圳)有限公司 | 人脸活体检测方法、装置、可读存储介质及终端设备 |
CN110728330A (zh) * | 2019-10-23 | 2020-01-24 | 腾讯科技(深圳)有限公司 | 基于人工智能的对象识别方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997452B (zh) * | 2016-01-26 | 2020-12-29 | 北京市商汤科技开发有限公司 | 活体验证方法及装置 |
KR102387571B1 (ko) * | 2017-03-27 | 2022-04-18 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
CN113095124B (zh) * | 2017-06-07 | 2024-02-06 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN208351494U (zh) * | 2018-05-23 | 2019-01-08 | 国政通科技股份有限公司 | 人脸识别系统 |
CN110287767A (zh) * | 2019-05-06 | 2019-09-27 | 深圳市华付信息技术有限公司 | 可防攻击的活体检测方法、装置、计算机设备及存储介质 |
CN110188715A (zh) * | 2019-06-03 | 2019-08-30 | 广州二元科技有限公司 | 一种多帧检测投票的视频人脸活体检测方法 |
US10977355B2 (en) * | 2019-09-11 | 2021-04-13 | Lg Electronics Inc. | Authentication method and device through face recognition |
CN111178341B (zh) * | 2020-04-10 | 2021-01-26 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
-
2020
- 2020-05-22 CN CN202011377618.1A patent/CN112507831B/zh active Active
- 2020-05-22 CN CN202010441322.5A patent/CN111340014B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107463920A (zh) * | 2017-08-21 | 2017-12-12 | 吉林大学 | 一种消除局部遮挡物影响的人脸识别方法 |
WO2019071739A1 (zh) * | 2017-10-13 | 2019-04-18 | 平安科技(深圳)有限公司 | 人脸活体检测方法、装置、可读存储介质及终端设备 |
CN110728330A (zh) * | 2019-10-23 | 2020-01-24 | 腾讯科技(深圳)有限公司 | 基于人工智能的对象识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112507831A (zh) | 2021-03-16 |
CN111340014B (zh) | 2020-11-17 |
CN111340014A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507831B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN111553333B (zh) | 人脸图像识别模型训练方法、识别方法、装置和电子设备 | |
CN107358157B (zh) | 一种人脸活体检测方法、装置以及电子设备 | |
CN112800468B (zh) | 一种基于隐私保护的数据处理方法、装置及设备 | |
CN111538968A (zh) | 基于隐私保护的身份核验方法、装置及设备 | |
CN111291797A (zh) | 一种防伪识别方法、装置及电子设备 | |
CN113223101A (zh) | 基于隐私保护的图像处理方法、装置及设备 | |
CN110288079A (zh) | 特征数据获取方法、装置和设备 | |
CN111652286A (zh) | 一种基于图嵌入的物体识别方法、设备及介质 | |
CN114998962A (zh) | 一种活体检测以及模型训练方法及装置 | |
CN115049927A (zh) | 基于SegNet的SAR图像桥梁检测方法、装置和存储介质 | |
CN114972492A (zh) | 一种基于鸟瞰图的位姿确定方法、设备和计算机存储介质 | |
CN112825116B (zh) | 监控视频图像人脸检测和追踪方法、装置、介质及设备 | |
CN117036829A (zh) | 一种基于原型学习实现标签增强的叶片细粒度识别方法和系统 | |
CN115830633B (zh) | 基于多任务学习残差神经网络的行人重识别方法和系统 | |
CN115546908A (zh) | 一种活体检测方法、装置及设备 | |
Wang et al. | An image edge detection algorithm based on multi-feature fusion | |
Alhamazani et al. | [Retracted] Using Depth Cameras for Recognition and Segmentation of Hand Gestures | |
An et al. | Deep Facial Emotion Recognition Using Local Features Based on Facial Landmarks for Security System. | |
CN112927219B (zh) | 一种图像的检测方法、装置及设备 | |
CN111931148A (zh) | 图像处理方法、装置和电子设备 | |
Perez-Hernandez et al. | Edge detection algorithm based on fuzzy logic theory for a local vision system of robocup humanoid league | |
TWI779581B (zh) | 生物識別設備的測試方法、裝置、設備及系統 | |
CN113591916B (zh) | 基于二分类模型的数据处理方法及装置 | |
CN117576748A (zh) | 一种伪造检测模型训练方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |