CN111931712A - 人脸识别方法、装置、抓拍机及系统 - Google Patents
人脸识别方法、装置、抓拍机及系统 Download PDFInfo
- Publication number
- CN111931712A CN111931712A CN202010989472.XA CN202010989472A CN111931712A CN 111931712 A CN111931712 A CN 111931712A CN 202010989472 A CN202010989472 A CN 202010989472A CN 111931712 A CN111931712 A CN 111931712A
- Authority
- CN
- China
- Prior art keywords
- face
- face image
- target
- organ
- shielding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种人脸识别的方法、装置、抓拍机及系统,属于图像处理技术领域。所述方法包括:获取待识别的人脸图像,确定该人脸图像中的目标人脸器官被物体遮挡的遮挡比例,之后,基于该遮挡比例,确定人脸图像中的人脸被遮挡后的辨识难易程度,若该人脸被遮挡后还是比较容易辨识,则可以将该人脸图像作为待识别的图像。如此,可以适用于任何的遮挡情形的判断,从而提高了泛化能力。
Description
技术领域
本申请实施例涉及图像处理技术领域,特别涉及一种人脸识别方法、装置、抓拍机及系统。
背景技术
目前,人脸识别技术广泛应用于安防监控等场景。在实施中,可以在需要监控的区域安装摄像头,通过摄像头抓拍人脸图像,然后对人脸图像进行人脸识别。
在一些情况下,抓拍的人脸图像中的人脸可能被墨镜、口罩之类的物品遮挡,此时需要判断是否能够对该人脸图像进行人脸识别。目前,通常可以判断是否配带有口罩、墨镜之类的物品,以便于确定是否能够进行人脸识别,譬如,若确定人脸配带有口罩和墨镜,可以确定无法进行人脸识别。
然而,人脸遮挡的方式可能包括多种,上述提供的方法无法适应不同的遮挡情形的判断,导致泛化能力较差。
发明内容
本申请实施例提供了一种人脸识别方法、装置、抓拍机及系统,可以解决相关技术中由于无法应用于不同的遮挡情形的判断从而导致泛化能力较差的问题。所述技术方案如下:
一方面,提供了一种人脸识别方法,所述方法包括:
获取人脸图像;
基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
若所述综合遮挡程度值小于指定程度阈值,则将所述人脸图像作为待识别的图像。
在本申请实施例一种可能的实现方式中,所述基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,包括:
调用区域划分模型,所述区域划分模型用于对任意人脸图像进行区域划分;
将所述人脸图像输入至所述区域划分模型中,输出目标人脸图像,所述目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域;
基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,包括:
确定所述器官区域与所述遮挡区域的重叠区域;
统计所述重叠区域内包括的像素点的总数量,得到第一像素点数量;
统计所述目标人脸区域内的像素点的总数量,得到第二像素点数量;
将所述第一像素点数量与所述第二像素点数量相除,得到所述目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,包括:
调用目标网络模型,所述目标网络模型用于基于任意人脸器官的遮挡比例确定对应的综合遮挡程度值;
将所述目标人脸器官的遮挡比例输入至所述目标网络模型中,输出所述人脸图像中的人脸的综合遮挡程度值。
在本申请实施例一种可能的实现方式中,所述调用目标网络模型之前,还包括:
获取多个人脸图像样本的训练数据,每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度;
将所述多个人脸图像样本的训练数据输入至待训练的网络模型中进行训练,得到所述目标网络模型。
在本申请实施例一种可能的实现方式中,所述目标人脸器官包括多个人脸器官,所述基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,包括:
获取所述多个人脸器官中的每个人脸器官对应的权值;
基于所述多个人脸器官中每个人脸器官的遮挡比例和权值进行加权求和运算,得到所述综合遮挡程度值。
另一方面,提供了一种人脸识别装置,所述装置包括:
获取模块,用于获取人脸图像;
第一确定模块,用于基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
第二确定模块,用于基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
人脸识别模块,用于若所述综合遮挡程度值小于指定程度阈值,则将所述人脸图像作为待识别的图像。
在本申请实施例一种可能的实现方式中,所述第一确定模块用于:
调用区域划分模型,所述区域划分模型用于对任意人脸图像进行区域划分;
将所述人脸图像输入至所述区域划分模型中,输出目标人脸图像,所述目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域;
基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述第一确定模块用于:
确定所述器官区域与所述遮挡区域的重叠区域;
统计所述重叠区域内包括的像素点的总数量,得到第一像素点数量;
统计所述目标人脸区域内的像素点的总数量,得到第二像素点数量;
将所述第一像素点数量与所述第二像素点数量相除,得到所述目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述第二确定模块用于:
调用目标网络模型,所述目标网络模型用于基于任意人脸器官的遮挡比例确定对应的综合遮挡程度值;
将所述目标人脸器官的遮挡比例输入至所述目标网络模型中,输出所述人脸图像中的人脸的综合遮挡程度值。
在本申请实施例一种可能的实现方式中,所述第二确定模块还用于:
获取多个人脸图像样本的训练数据,每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度;
将所述多个人脸图像样本的训练数据输入至待训练的网络模型中进行训练,得到所述目标网络模型。
在本申请实施例一种可能的实现方式中,所述第二确定模块还用于:
获取所述多个人脸器官中的每个人脸器官对应的权值;
基于所述多个人脸器官中每个人脸器官的遮挡比例和权值进行加权求和运算,得到所述综合遮挡程度值。
另一方面,提供了一种人脸识别系统,包括:
抓拍机和电子设备;
所述抓拍机,用于连续采集人脸图像;
所述电子设备,用于获取所述抓拍机采集的人脸图像,基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度,若所述综合遮挡程度值小于指定程度阈值,将所述人脸图像作为待识别的图像。
另一方面,提供了一种抓拍机,用于:
采集人脸图像;
基于所述抓拍机采集的人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
若所述综合遮挡程度值小于指定程度阈值,将所述人脸图像作为待识别的图像。
另一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述一方面中所述的人脸识别的方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述一方面中所述的人脸识别的方法。
另一方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述一方面中所述的人脸识别的方法。
本申请实施例提供的技术方案带来的有益效果是:
获取待识别的人脸图像,确定该人脸图像中的目标人脸器官被物体遮挡的的遮挡比例,之后,基于该遮挡比例,确定人脸图像中的人脸被遮挡后的辨识难易程度,若该人脸被遮挡后还是比较容易辨识,则可以将该人脸图像作为待识别的图像。如此,可以适用于任何的遮挡情形的判断,从而提高了泛化能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种人脸识别的方法流程图;
图2是根据一示例性实施例示出的一种人脸图像和目标人脸图像的示意图;
图3是根据一示例性实施例示出的一种综合遮挡程度值的确定方法示意图;
图4是根据另一示例性实施例示出的一种人脸识别的方法流程图;
图5是根据一示例性实施例示出的一种人脸识别的装置的结构示意图;
图6是根据一示例性实施例示出的一种终端的结构示意图;
图7是根据一示例性实施例示出的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在对本申请实施例提供的人脸识别的方法进行详细介绍之前,先对本申请实施例涉及的实施环境进行简单介绍。
在一个实施例中,本申请实施例提供的人脸识别方法可以由抓拍机来执行。在实施中,该抓拍机可以不断地执行抓拍操作,得到包括人脸的采集图像,从而确定人脸图像,之后,可以按照下文所述的方法来判断是否需要将该人脸图像作为待识别的图像。
在另一个实施例中,本申请实施例提供的人脸识别方法可以应用于人脸识别系统中,该人脸识别系统可以包括抓拍机和电子设备,该抓拍机可以用于不断地执行抓拍操作,得到人脸图像,之后,可以将该人脸图像发送给电子设备,由电子设备来判断是否需要将该人脸图像作为待识别的图像。
作为一种示例,该电子设备也可以与抓拍机建有通信连接,该抓拍机可以安装于需要监控的区域内,以抓拍人脸图像,之后,可以将人脸图像发送给该电子设备。示例性的,该电子设备可以包括但不限于笔记本电脑、台式机、服务器之类的设备,本申请实施例对此不做限定。
在介绍完本申请实施例涉及的执行主体后,接下来将结合附图对本申请实施例提供的人脸识别的方法进行详细介绍。
请参考图1,该图1是根据一示例性实施例示出的一种人脸识别的方法流程图,该方法可以应用于上述实施环境中,这里以该人脸识别的方法应用于上述人脸识别系统中为例进行举例说明,该人脸识别的方法可以包括如下几个实现步骤:
步骤101:获取人脸图像。
作为一种示例,该人脸图像可以是从包括人脸的采集图像中获取得到的。在实施中,电子设备可以检测该采集图像中的人脸区域信息,从而确定人脸所在的区域。可选地,在确定人脸所在的区域后,电子设备可以从该采集图像中切割出该人脸所在的区域,将切割后得到的图像确定为人脸图像。可选地,在确定人脸所在的区域后,电子设备也可以在该采集图像中将该人脸所在的区域标注出来,譬如,可以在该采集图像中将该人脸所在的区域圈出来,之后,将标注后的采集图像确定为该人脸图像。
作为一种示例,上述该采集图像可以是通过抓拍机采集到该采集图像后发送给该电子设备,譬如,抓拍机可以不断地执行抓拍操作,且在每次抓拍得到采集图像后,发送给电子设备,相应的,该电子设备接收抓拍机发送的采集图像。
进一步地,该电子设备获取到人脸图像后,可以对该人脸图像进行对齐、尺寸调整等预处理,本申请实施例对此不做限定。
步骤102:基于该人脸图像,确定该人脸图像中的目标人脸器官的遮挡比例。
其中,该目标人脸器官可以包括至少一个人脸器官,示例性的,该目标人脸器官可以包括眼睛、嘴巴、鼻子、眉毛和皮肤这五种人脸器官中的至少一项。
作为一种示例,基于该人脸图像,确定该人脸图像中的目标人脸器官的遮挡比例的具体实现可以包括:调用区域划分模型,该区域划分模型用于对任意人脸图像进行区域划分。将该人脸图像输入至该区域划分模型中,输出目标人脸图像,该目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域。基于该目标人脸图像,确定该人脸图像中的目标人脸器官的遮挡比例。
其中,该区域划分模型可以是预先训练好的模型,能够用于对任意人脸图像进行区域划分,以区分出该人脸人脸图像中的人脸器官所在的器官区域和遮挡区域。
也即是,该电子设备可以调用预先训练好的区域划分模型,然后将上述人脸图像输入至该区域划分模型中,由该区域划分模型进行区域划分处理,并输出目标人脸图像。其中,该目标人脸图像的尺寸与所输入的人脸图像的尺寸相同,并且,在该目标人脸图像中已将目标人脸器官所在的器官区域以及遮挡区域区分开,譬如,可以在该目标人脸图像中使用不同的像素值来表示该目标人脸器官所在的器官区域和遮挡区域。
可选地,若该目标人脸图像包括多个人脸器官,则可以在该目标人脸图像中使用不同的像素值表示不同的人脸器官所在的器官区域以及遮挡区域,譬如,若该多个人脸器官包括眼睛、嘴巴、鼻子、皮肤和眉毛,则可以在该目标人脸图像中将眼睛所在的器官区域的像素值置为1,将嘴巴所在的器官区域的像素值置为2,将鼻子所在的器官区域的像素值置为3,将皮肤所在的器官区域的像素值置为4,将眉毛所在的器官区域的像素值置为5,以及将遮挡区域的像素值置为6。
也即是,该区域划分模型可以将目标人脸器官所在的器官区域与遮挡区域区分出来,示例性的,请参考图2,该图2中的a为人脸图像,图2中的b和c的合成图像即为目标人脸图像。需要说明的是,该图2中是为了便于理解,将目标人脸图像拆分成目标人脸器官对应的图像和遮挡区域对应的图像,实际上区域划分模型输出为一张图像,即输出为b和c合成后的图像。
另外,上述区域划分模型在使用之前通常需要进行训练,作为一种示例,电子设备可以获取多个人脸图像样本,该多个人脸图像样本中的每个人脸图像样本包括已标定的人脸器官和遮挡区域,之后,基于该多个人脸图像样本对待训练的网络模型进行训练,得到该区域划分模型。示例性的,该待训练的网络模型可以为语义分割模型,本申请实施例对此不作限定。
电子设备通过区域划分模型得到该目标人脸图像后,基于该目标人脸图像,确定该人脸图像中的目标人脸器官的遮挡比例。作为一种示例,其具体实现可以包括:确定该器官区域与该遮挡区域的重叠区域,统计该重叠区域内包括的像素点的总数量,得到第一像素点数量,统计该目标人脸区域内的像素点的总数量,得到第二像素点数量,将该第一像素点数量与该第二像素点数量相除,得到该目标人脸器官的遮挡比例。
由于该目标人脸图像中的目标人脸器官和遮挡区域已经被区分开了,所以,该电子设备可以遍历该目标人脸图像中的所有像素点,以确定器官区域与遮挡区域的重叠区域。如果一个像素点位于目标人脸器官内且位于遮挡区域内,可以确定该像素点为目标人脸器官上被遮挡点,该目标人脸器官中所有被遮挡的像素点数量除以该目标人脸器官的完整区域内的像素点数量,即为该目标人脸器官的遮挡比例。
可选地,在该目标人脸器官包括多个人脸器官的情况下,确定该人脸图像中的目标人脸器官的遮挡比例包括:对于该多个人脸器官中的每个人脸器官,确定该每个人脸器官的器官区域与遮挡区域的重叠区域,统计该重叠区域内包括的像素点的总数量,并且,统计每个人脸器官的像素点的总数量,将每个人脸器官对应的重叠区域内包括的像素点的总数量与该每个人脸器官的像素点的总数量相除,得到每个人脸器官的遮挡比例。
进一步地,若该电子设备还对该人脸图像进行了预处理,上述基于该人脸图像,确定该人脸图像中的目标人脸器官的遮挡比例的实现包括:基于预处理后的人脸图像,确定该预处理后的人脸图像中的目标人脸器官的遮挡比例。其实现原理与基于人脸图像的实现原理类似,这里不再重复赘述。
步骤103:基于该目标人脸器官的遮挡比例,确定综合遮挡程度值,该综合遮挡程度值用于指示该人脸图像中的人脸被遮挡后的辨识难易程度。
在人脸被遮挡时,根据被遮挡的区域不同,该综合遮挡程度值不同,换句话说,在同一遮挡率的情况下,遮挡不同部分对应的辨识难易程度不相同。在确定了目标人脸器官的遮挡比例的情况下,为了确定该人脸图像中的人脸的辨识难易程度,可以确定综合遮挡程度值。
作为一种示例,基于该目标人脸器官的遮挡比例,确定综合遮挡程度值的具体实现可以包括:调用目标网络模型,该目标网络模型用于基于任意人脸器官的遮挡比例确定对应的综合遮挡程度值,将该目标人脸器官的遮挡比例输入至该目标网络模型中,输出该人脸图像中的人脸的综合遮挡程度值。
其中,该目标网络模型可以是预先训练好的模型,将该目标人脸器官的遮挡比例输入至该目标网络模型后,该目标网络模型可以进行评估处理,从而确定并输出该人脸图像中的人脸对应的综合遮挡程度值。
可选地,当该目标人脸器官包括多个人脸器官时,可以将该多个人脸器官的遮挡比例输入至该目标网络模型中,由该目标网络模型进行评估处理,确定并输出该人脸图像中的人脸对应的综合遮挡程度值。
示例性的,请参考图3,假设该目标人脸器官包括眉毛、眼睛、鼻子、嘴巴和皮肤,则可以将眉毛的遮挡比例、眼睛的遮挡比例、鼻子的遮挡比例、嘴巴的遮挡比例和皮肤的遮挡比例输入至该目标网络模型中,由该目标网络模型确定并输出综合遮挡程度值。
值得一提的是,上述通过目标网络模型来确定人脸的综合遮挡程度值,输出的是一个连续的衡量辨识难易程度的值,而不是二值形式,即与采用二分类判断法相比较,可以达到更好的智能化,并可以准确地确定人脸被遮挡后的辨识难易程度。
需要说明的是,该目标网络模型通常可以是由该电子设备预先训练得到的。作为一种示例,目标网络模型的确定过程可以包括:获取多个人脸图像样本的训练数据,每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度,将该多个人脸图像样本的训练数据输入至待训练的网络模型中进行训练,得到该目标网络模型。
其中,比对相似度越大,遮挡人脸与非遮挡人脸的差异越小,即识别出的人脸在遮挡前和被遮挡后相似度比较接近。如此,将该多个人脸图像样本的训练数据输入至待训练的网络模型后,可以训练得到该目标网络模型,所得到的目标网络模型能够基于任意人脸的人脸器官的遮挡比例,确定该任意人脸对应的综合遮挡程度值。
作为一种示例,该待训练的网络模型可以为神经网络模型,本申请实施例对此不作限定。
需要说明的是,上述仅是以该多个人脸图像样本中的每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度为例进行说明。在另一实施例中,该多个人脸图像样本中的每个人脸图像样本的训练数据还可以包括人脸器官的遮挡比例和遮挡程度等级,其中,该遮挡程度等级可以由用户进行标定。示例性的,该遮挡程度等级越高,说明人脸的遮挡程度越严重,反之,遮挡程度等级越低,说明人脸的遮挡程度越轻。
作为另一种示例,基于该目标人脸器官的遮挡比例,确定综合遮挡程度值的具体实现还可以包括:获取该多个人脸器官中的每个人脸器官对应的权值,基于该多个人脸器官中每个人脸器官的遮挡比例和权值进行加权求和运算,得到该综合遮挡程度值。
其中,每个人脸器官对应的权值可以是预先设置的,譬如,可以是由电子设备根据历史数据统计分析得到,或者,也可以是由技术人员根据历史经验确定得到,本申请实施例对此不做限定。
示例性的,该电子设备可以将每个人脸器官的遮挡比例与权值相乘,得到每个人脸器官对应的加权值,之后,可以将各个人脸器官对应的加权值相加,得到该综合遮挡程度值。
譬如,假设该目标人脸器官包括眼睛、嘴巴、鼻子、皮肤和眉毛,其中,眼睛的遮挡比例为10%,以及对应的权值为0.4;嘴巴的遮挡比例为100%,以及对应的权值为0.2;鼻子的遮挡比例为50%,以及对应的权值为0.2;皮肤的遮挡比例为70%,以及对应的权值为0.1;眉毛的遮挡比例为0%,以及对应的权值为0.1。则可以确定综合遮挡程度值为0.41。
当然,若该目标人脸器官包括一个人脸器官,则可以直接将该人脸器官的遮挡比例与权值相乘,将相乘后得到的结果确定为综合遮挡程度值。
当然,需要说明的是,上述基于该目标人脸器官的遮挡比例确定综合遮挡程度值的实现方式仅是示例性的,在其他实施例中,该电子设备还可以基于该目标人脸器官的遮挡比例,采用其他方式确定综合遮挡程度值,本申请实施例对此不作限定。
步骤104:若该综合遮挡程度值小于指定程度阈值,则将该人脸图像作为待识别的图像。
其中,该指定程度阈值可以由用户根据实际需求进行设置,或者,也可以由该电子设备默认设置,本申请实施例对此不做限定。
若该综合遮挡程度值小于指定程度阈值,说明该人脸图像中的人脸被遮挡后仍比较容易进行人脸辨识,即没有被严重遮挡,在该种情况下,将该人脸图像作为待识别的图像,以便于后续在需要的情况下可以对该人脸图像进行人脸识别。
当然,若该综合遮挡程度值大于或等于该指定程度阈值,则电子设备可以确定不将该人脸图像作为待识别的图像。在该种情况下,该电子设备继续获取下一帧的人脸图像,并按照上述实现方式对人脸图像进行处理。
也即是,若该综合遮挡程度值大于或等于该指定程度阈值,说明该人脸图像中的人脸被遮挡后比较难以辨识,或者说,该人脸图像中的人脸被严重遮挡,在该种情况下,通常无法基于该人脸图像进行人脸识别,所以,电子设备不会将该人脸图像作为待识别的图像,即舍弃该人脸图像。此外,如图4所示,电子设备会继续获取下一帧的人脸图像进行判断等处理。
进一步地,若该综合遮挡程度值大于或等于该指定程度阈值,在确定不将该人脸图像作为待识别的图像后,可以进行预警提示,以提示监控人员有无法人脸识别的人员进入监控区域,以便于监控人员及时了解情况。
进一步地,若该综合遮挡程度值大于或等于该指定程度阈值,在确定不将该人脸图像作为待识别的图像后,还可以对该人脸图像进行存储,以便于后续由监控人员进行查看。
需要说明的是,在将该人脸图像作为待识别的图像时,电子设备可以通过预先训练好的网络模型进行识别;或者,也可以对人脸图像进行特征提取,之后利用提取得到的人脸特征,采用特征比对的方式进行人脸识别,本申请实施例对人脸图像的人脸识别方法不做限定。
进一步地,请继续参考图4,在将该人脸图像作为待识别的图像后,该电子设备继续获取下一帧的人脸图像,并按照上述实现方式继续对人脸图像进行处理。
在本申请实施例中,获取待识别的人脸图像,确定该人脸图像中的目标人脸器官被物体遮挡的遮挡比例,之后,基于该遮挡比例,确定人脸图像中的人脸被遮挡后的辨识难易程度,若该人脸被遮挡后还是比较容易辨识,则可以将该人脸图像作为待识别的图像。如此,可以适用于任何的遮挡情形的判断,从而提高了泛化能力。
图5是根据一示例性实施例示出的一种人脸识别的装置的结构示意图,该人脸识别的装置可以由软件、硬件或者两者的结合实现。该人脸识别的装置可以包括:
获取模块510,用于获取人脸图像;
第一确定模块520,用于基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
第二确定模块530,用于基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
人脸识别模块540,用于若所述综合遮挡程度值小于指定程度阈值,则将该人脸图像作为待识别的图像。
在本申请实施例一种可能的实现方式中,所述第一确定模块520用于:
调用区域划分模型,所述区域划分模型用于对任意人脸图像进行区域划分;
将所述人脸图像输入至所述区域划分模型中,输出目标人脸图像,所述目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域;
基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述第一确定模块520用于:
确定所述器官区域与所述遮挡区域的重叠区域;
统计所述重叠区域内包括的像素点的总数量,得到第一像素点数量;
统计所述目标人脸区域内的像素点的总数量,得到第二像素点数量;
将所述第一像素点数量与所述第二像素点数量相除,得到所述目标人脸器官的遮挡比例。
在本申请实施例一种可能的实现方式中,所述第二确定模块530用于:
调用目标网络模型,所述目标网络模型用于基于任意人脸器官的遮挡比例确定对应的综合遮挡程度值;
将所述目标人脸器官的遮挡比例输入至所述目标网络模型中,输出所述人脸图像中的人脸的综合遮挡程度值。
在本申请实施例一种可能的实现方式中,所述第二确定模块530还用于:
获取多个人脸图像样本的训练数据,每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度;
将所述多个人脸图像样本的训练数据输入至待训练的网络模型中进行训练,得到所述目标网络模型。
在本申请实施例一种可能的实现方式中,所述第二确定模块530还用于:
获取所述多个人脸器官中的每个人脸器官对应的权值;
基于所述多个人脸器官中每个人脸器官的遮挡比例和权值进行加权求和运算,得到所述综合遮挡程度值。
在本申请实施例中,获取待识别的人脸图像,确定该人脸图像中的目标人脸器官被物体遮挡的遮挡比例,之后,基于该遮挡比例,确定人脸图像中的人脸被遮挡后的辨识难易程度,若该人脸被遮挡后还是比较容易辨识,则可以将该人脸图像作为待识别的图像。如此,可以适用于任何的遮挡情形的判断,从而提高了泛化能力。
需要说明的是:上述实施例提供的人脸识别的装置在进行人脸识别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的人脸识别的装置与人脸识别的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6示出了本申请实施例一个示例性实施例提供的终端600的结构框图。该终端600可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts GroupAudio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端600包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请实施例中方法实施例提供的人脸识别的方法。
在一些实施例中,终端600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、触摸显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请实施例对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置终端600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在终端600的不同表面或呈折叠设计;在再一些实施例中,显示屏605可以是柔性显示屏,设置在终端600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位终端600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源609用于为终端600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以终端600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制触摸显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测终端600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对终端600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在终端600的侧边框和/或触摸显示屏605的下层。当压力传感器613设置在终端600的侧边框时,可以检测用户对终端600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在触摸显示屏605的下层时,由处理器601根据用户对触摸显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置终端600的正面、背面或侧面。当终端600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制触摸显示屏605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏605的显示亮度;当环境光强度较低时,调低触摸显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在终端600的前面板。接近传感器616用于采集用户与终端600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与终端600的正面之间的距离逐渐变小时,由处理器601控制触摸显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与终端600的正面之间的距离逐渐变大时,由处理器601控制触摸显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对终端600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述实施例提供的人脸识别的方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的人脸识别的方法。
图7是本申请实施例提供的一种服务器700的结构示意图,该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)701和一个或一个以上的存储器702,其中,所述存储器702中存储有至少一条指令,所述至少一条指令由所述处理器701加载并执行以实现上述各个方法实施例提供的人脸识别的方法。
当然,该服务器700还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器700还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述实施例提供的人脸识别的方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的人脸识别的方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (10)
1.一种人脸识别的方法,其特征在于,所述方法包括:
获取人脸图像;
基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
若所述综合遮挡程度值小于指定程度阈值,则将所述人脸图像作为待识别的图像。
2.如权利要求1所述的方法,其特征在于,所述基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,包括:
调用区域划分模型,所述区域划分模型用于对任意人脸图像进行区域划分;
将所述人脸图像输入至所述区域划分模型中,输出目标人脸图像,所述目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域;
基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例。
3.如权利要求2所述的方法,其特征在于,所述基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,包括:
确定所述器官区域与所述遮挡区域的重叠区域;
统计所述重叠区域内包括的像素点的总数量,得到第一像素点数量;
统计所述目标人脸区域内的像素点的总数量,得到第二像素点数量;
将所述第一像素点数量与所述第二像素点数量相除,得到所述目标人脸器官的遮挡比例。
4.如权利要求1所述的方法,其特征在于,所述基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,包括:
调用目标网络模型,所述目标网络模型用于基于任意人脸器官的遮挡比例确定对应的综合遮挡程度值;
将所述目标人脸器官的遮挡比例输入至所述目标网络模型中,输出所述人脸图像中的人脸的综合遮挡程度值。
5.如权利要求4所述的方法,其特征在于,所述调用目标网络模型之前,还包括:
获取多个人脸图像样本的训练数据,每个人脸图像样本的训练数据包括人脸器官的遮挡比例、以及遮挡人脸与非遮挡人脸的比对相似度;
将所述多个人脸图像样本的训练数据输入至待训练的网络模型中进行训练,得到所述目标网络模型。
6.如权利要求1所述的方法,其特征在于,所述目标人脸器官包括多个人脸器官,所述基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,包括:
获取所述多个人脸器官中的每个人脸器官对应的权值;
基于所述多个人脸器官中每个人脸器官的遮挡比例和权值进行加权求和运算,得到所述综合遮挡程度值。
7.一种人脸识别的装置,其特征在于,所述装置包括:
获取模块,用于获取人脸图像;
第一确定模块,用于基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
第二确定模块,用于基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
人脸识别模块,用于若所述综合遮挡程度值小于指定程度阈值,则将所述人脸图像作为待识别的图像。
8.如权利要求7所述的装置,其特征在于,所述第一确定模块用于:
调用区域划分模型,所述区域划分模型用于对任意人脸图像进行区域划分;
将所述人脸图像输入至所述区域划分模型中,输出目标人脸图像,所述目标人脸图像中包括划分出的目标人脸器官所在的器官区域和遮挡区域;
基于所述目标人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例。
9.一种人脸识别系统,其特征在于,包括:
抓拍机和电子设备;
所述抓拍机,用于连续采集人脸图像;
所述电子设备,用于获取所述抓拍机采集的人脸图像,基于所述人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例,基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度,若所述综合遮挡程度值小于指定程度阈值,将所述人脸图像作为待识别的图像。
10.一种抓拍机,其特征在于,用于:
采集人脸图像;
基于所述抓拍机采集的人脸图像,确定所述人脸图像中的目标人脸器官的遮挡比例;
基于所述目标人脸器官的遮挡比例,确定综合遮挡程度值,所述综合遮挡程度值用于指示所述人脸图像中的人脸被遮挡后的辨识难易程度;
若所述综合遮挡程度值小于指定程度阈值,将所述人脸图像作为待识别的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010989472.XA CN111931712B (zh) | 2020-09-18 | 2020-09-18 | 人脸识别方法、装置、抓拍机及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010989472.XA CN111931712B (zh) | 2020-09-18 | 2020-09-18 | 人脸识别方法、装置、抓拍机及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931712A true CN111931712A (zh) | 2020-11-13 |
CN111931712B CN111931712B (zh) | 2023-05-26 |
Family
ID=73333884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010989472.XA Active CN111931712B (zh) | 2020-09-18 | 2020-09-18 | 人脸识别方法、装置、抓拍机及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931712B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990101A (zh) * | 2021-04-14 | 2021-06-18 | 深圳市罗湖医院集团 | 基于机器视觉的面部器官定位方法及相关设备 |
WO2022222766A1 (zh) * | 2021-04-21 | 2022-10-27 | 中山大学 | 语义分割的人脸完整度度量方法、系统、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104573614A (zh) * | 2013-10-22 | 2015-04-29 | 北京三星通信技术研究有限公司 | 用于跟踪人脸的设备和方法 |
US20150199560A1 (en) * | 2006-03-12 | 2015-07-16 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN110837750A (zh) * | 2018-08-15 | 2020-02-25 | 华为技术有限公司 | 一种人脸质量评价方法与装置 |
US20200082157A1 (en) * | 2018-09-11 | 2020-03-12 | Apple Inc. | Periocular facial recognition switching |
CN111161206A (zh) * | 2018-11-07 | 2020-05-15 | 杭州海康威视数字技术股份有限公司 | 一种图像抓拍方法、监控相机及监控系统 |
CN111274919A (zh) * | 2020-01-17 | 2020-06-12 | 桂林理工大学 | 基于卷积神经网络的五官检测方法、系统、服务器及介质 |
CN111414879A (zh) * | 2020-03-26 | 2020-07-14 | 北京字节跳动网络技术有限公司 | 人脸遮挡程度识别方法、装置、电子设备及可读存储介质 |
-
2020
- 2020-09-18 CN CN202010989472.XA patent/CN111931712B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150199560A1 (en) * | 2006-03-12 | 2015-07-16 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
CN104573614A (zh) * | 2013-10-22 | 2015-04-29 | 北京三星通信技术研究有限公司 | 用于跟踪人脸的设备和方法 |
CN107679490A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN110837750A (zh) * | 2018-08-15 | 2020-02-25 | 华为技术有限公司 | 一种人脸质量评价方法与装置 |
US20200082157A1 (en) * | 2018-09-11 | 2020-03-12 | Apple Inc. | Periocular facial recognition switching |
CN110889320A (zh) * | 2018-09-11 | 2020-03-17 | 苹果公司 | 眼周面部识别切换 |
CN111161206A (zh) * | 2018-11-07 | 2020-05-15 | 杭州海康威视数字技术股份有限公司 | 一种图像抓拍方法、监控相机及监控系统 |
CN111274919A (zh) * | 2020-01-17 | 2020-06-12 | 桂林理工大学 | 基于卷积神经网络的五官检测方法、系统、服务器及介质 |
CN111414879A (zh) * | 2020-03-26 | 2020-07-14 | 北京字节跳动网络技术有限公司 | 人脸遮挡程度识别方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
徐迅;陶俊;吴瑰;: "基于卷积神经网络的带遮蔽人脸识别", 江汉大学学报(自然科学版) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990101A (zh) * | 2021-04-14 | 2021-06-18 | 深圳市罗湖医院集团 | 基于机器视觉的面部器官定位方法及相关设备 |
CN112990101B (zh) * | 2021-04-14 | 2021-12-28 | 深圳市罗湖医院集团 | 基于机器视觉的面部器官定位方法及相关设备 |
WO2022222766A1 (zh) * | 2021-04-21 | 2022-10-27 | 中山大学 | 语义分割的人脸完整度度量方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111931712B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079576A (zh) | 活体检测方法、装置、设备及存储介质 | |
CN111723602B (zh) | 驾驶员的行为识别方法、装置、设备及存储介质 | |
CN110839128B (zh) | 拍照行为检测方法、装置及存储介质 | |
CN110807361A (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
US11386586B2 (en) | Method and electronic device for adding virtual item | |
CN110570460A (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN111027490A (zh) | 人脸属性识别方法及装置、存储介质 | |
CN112084811A (zh) | 身份信息的确定方法、装置及存储介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN111754386A (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN110705614A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN110807769B (zh) | 图像显示控制方法及装置 | |
CN110189348B (zh) | 头像处理方法、装置、计算机设备及存储介质 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及系统 | |
CN111586279B (zh) | 确定拍摄状态的方法、装置、设备及存储介质 | |
CN111327819A (zh) | 选择图像的方法、装置、电子设备及介质 | |
CN112749590A (zh) | 目标检测方法、装置、计算机设备和计算机可读存储介质 | |
CN110705438A (zh) | 步态识别方法、装置、设备及存储介质 | |
CN111860064B (zh) | 基于视频的目标检测方法、装置、设备及存储介质 | |
CN110263695B (zh) | 人脸部位的位置获取方法、装置、电子设备及存储介质 | |
CN111354378A (zh) | 语音端点检测方法、装置、设备及计算机存储介质 | |
CN110675473A (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN112395921A (zh) | 异常行为检测方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |