CN111523480A - 一种面部遮挡物的检测方法、装置、电子设备及存储介质 - Google Patents

一种面部遮挡物的检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111523480A
CN111523480A CN202010333435.3A CN202010333435A CN111523480A CN 111523480 A CN111523480 A CN 111523480A CN 202010333435 A CN202010333435 A CN 202010333435A CN 111523480 A CN111523480 A CN 111523480A
Authority
CN
China
Prior art keywords
face
image
key point
sub
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010333435.3A
Other languages
English (en)
Other versions
CN111523480B (zh
Inventor
张修宝
黄泄合
沈海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Didi Infinity Technology and Development Co Ltd
Original Assignee
Beijing Didi Infinity Technology and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Didi Infinity Technology and Development Co Ltd filed Critical Beijing Didi Infinity Technology and Development Co Ltd
Priority to CN202010333435.3A priority Critical patent/CN111523480B/zh
Publication of CN111523480A publication Critical patent/CN111523480A/zh
Application granted granted Critical
Publication of CN111523480B publication Critical patent/CN111523480B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及图像处理技术领域,尤其涉及一种面部遮挡物的检测方法、装置、电子设备及存储介质。本申请将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。

Description

一种面部遮挡物的检测方法、装置、电子设备及存储介质
技术领域
本申请涉及图像处理技术领域,尤其涉及一种面部遮挡物的检测方法、装置、电子设备及存储介质。
背景技术
面部遮挡物比如口罩、眼镜、面罩等,在一些场景下,佩戴面部遮挡物可以对人们的人脸部位进行保护,比如,在呼吸道传染病流行时,在粉尘等污染的环境中作业时,由于口罩对进入肺部的空气有一定的过滤作用,所以戴口罩具有非常好的作用。
因此,在一些需要佩戴面部遮挡物的场景下,需要确认人们是否佩戴面部遮挡物,以确保人们的健康安全。通常,采用的检测方式为安检人员人工对人们是否佩戴面部遮挡物进行检查,但采用这种方式需要大量的人力物力,还可能对安检人员的健康安全造成威胁。所以,如何通过机器自动检测出人们是否佩戴面部遮挡物是目前亟待解决的技术问题。
发明内容
有鉴于此,本申请实施例至少提供一种面部遮挡物的检测方法、装置、电子设备及存储介质,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供一种面部遮挡物的检测方法,所述检测方法包括:
将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
在一种可能的实施方式中,所述将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点,包括:
将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点;
根据每个人脸关键点的类型信息和目标敏感区域的位置信息,从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点。
在一种可能的实施方式中,所述人脸关键点检测模型包括人脸特征提取网络、关键点特征提取网络和关键点输出网络;所述将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点,包括:
将所述目标人脸图像输入所述人脸特征提取网络,提取出表征人脸特征的初始特征图像;
将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像;
将所述目标特征图像输入所述关键点输出网络,得到所述目标人脸图像中的人脸关键点。
在一种可能的实施方式中,所述关键点特征提取网络由顺序连接的至少两个子关键点特征提取网络组成;将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像,包括:
将所述初始特征图像输入到首个子关键点特征提取网络,得到当前特征图像;
将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若还存在下一个子关键点特征提取网络,则将第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若不存在下一个子关键点特征提取网络,则将最后一次得到的第一中间特征图像作为目标特征图像输出。
在一种可能的实施方式中,每个子关键点特征提取网络均包括沙漏层和点线传播层;针对任一子关键点特征提取网络,将当前特征图像输入该子关键点特征提取网络,得到第一中间特征图像,包括:
将所述当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图;
将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像。
在一种可能的实施方式中,所述将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像,包括:
基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图;
基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像。
在一种可能的实施方式中,所述基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图,包括:
从所述中间关键点热图中,提取出每个人脸部位对应的部位关键点热图;
按照每个人脸部位的轮廓,将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到每个人脸部位对应的人脸部位边界热图。
在一种可能的实施方式中,所述基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像,包括:
将得到的各个人脸部位边界热图,以及所述第二中间特征图像按照图像深度进行连接,得到第三中间特征图像;
对所述第三中间特征图像进行特征聚焦处理,得到注意力图像;
通过所述注意力图像对所述第二中间特征图像进行注意力机制处理,得到所述第一中间特征图像。
在一种可能的实施方式中,所述对所述第三中间特征图像进行特征聚焦处理,得到注意力图像,包括:
对所述第三中间特征图像的图像深度进行缩放,得到第四中间特征图像;所述第四中间特征图像的图像深度和所述第二中间特征图像的图像深度相同;
通过激活函数对所述第四中间特征图像进行归一化处理,得到所述注意力图像。
在一种可能的实施方式中,所述根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物,包括:
统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量;
若所述目标数量与所述总数量之间的比值大于或等于预设阈值,则确定所述待检测人员佩戴面部遮挡物;
若所述比值小于所述预设阈值,则确定所述待检测人员未佩戴面部遮挡物。
在一种可能的实施方式中,根据以下步骤生成训练好的人脸关键点检测模型:
获取多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息;
根据所述多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息,对初始的人脸关键点检测模型进行训练,生成训练好的人脸关键点检测模型。
在一种可能的实施方式中,根据以下步骤生成训练好的面部遮挡物判别模型:
获取多个子敏感区域样本图像;
将包含遮挡物的子敏感区域样本图像作为正样本图像,以及将不包含遮挡物的子敏感区域样本图像作为负样本图像;
根据所述正样本图像和负样本图像,对初始的面部遮挡物判别模型进行训练,生成训练好的面部遮挡物判别模型。
第二方面,本申请实施例还提供一种面部遮挡物的检测装置,所述检测装置包括:
第一确定模块,用于将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
截取模块,用于根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
第二确定模块,用于分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
第三确定模块,用于根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的面部遮挡物的检测方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的面部遮挡物的检测方法的步骤。
本申请实施例提供的面部遮挡物的检测方法、装置及存储介质,将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种面部遮挡物的检测方法的流程图;
图2示出了本申请实施例所提供的一种面部遮挡物的检测装置的功能模块图之一;
图3示出了图2中的第一确定模块的功能模块图;
图4示出了图3中的第一确定单元的功能模块图;
图5示出了图2中的第三确定模块的功能模块图;
图6示出了本申请实施例所提供的一种面部遮挡物的检测装置的功能模块图之二;
图7示出了本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“检测面部遮挡物”,给出以下实施方式,对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。
本申请实施例下述方法、装置、电子设备或计算机可读存储介质可以应用于任何需要进行面部遮挡物的检测的场景,本申请实施例并不对具体的应用场景作限制,任何使用本申请实施例提供的面部遮挡物的检测方法、装置、电子设备及存储介质的方案均在本申请保护范围内。
值得注意的是,在本申请提出之前,在一些需要佩戴面部遮挡物的场景下,在确认人们是否佩戴面部遮挡物时,通常,采用的检测方式为安检人员人工对人们是否佩戴面部遮挡物进行检查,但采用这种方式需要大量的人力物力,还可能对安检人员的健康安全造成威胁。
针对上述问题,本申请实施例将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
为便于对本申请进行理解,下面结合具体实施例对本申请提供的技术方案进行详细说明。
图1为本申请实施例所提供的一种面部遮挡物的检测方法的流程图。如图1所示,本申请实施例提供的面部遮挡物的检测方法,包括以下步骤:
S101:将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点。
在具体实施中,在对待检测人员是否佩戴面部遮挡物的检测时,可以先获取当前待检测人员的目标人脸图像,并将目标人脸图像输入至训练好的人脸关键点检测模型中,得到目标人脸图像中位于目标敏感区域中的敏感人脸关键点,其中,人脸关键点检测模型是检测人脸关键点的模型,可以从目标人脸图像中识别出各个人脸区域的人脸关键点,这里,获得的是目标人脸图像中位于目标敏感区域中的敏感人脸关键点,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,目标敏感区域是事先根据要检测的面部遮挡物具体是哪个物品来确定的,比如,面部遮挡物为口罩,则目标敏感区域可以为嘴部区域、鼻部区域、下颌区域等。
需要说明的是,在一些需要佩戴面部遮挡物的场景下,需要对人们是否佩戴面部遮挡物进行检测,而对面部遮挡物进行检测的一个关键环节是定位人脸关键点,故,先需要从目标人脸图像中确定出人脸关键点,进而,通过人脸关键点来实现对面部遮挡物的检测。
这里,根据以下步骤生成训练好的人脸关键点检测模型:获取多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息;根据所述多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息,对初始的人脸关键点检测模型进行训练,生成训练好的人脸关键点检测模型。
在具体实施中,在对初始的人脸关键点检测模型进行训练时,先将人脸样本图像输入初始的人脸关键点检测模型中,得到预测出的人脸关键点的位置信息,将该人脸样本图像对应的预测出的人脸关键点的位置信息和真实的人脸关键点的位置信息进行比对,根据比对结果,调整初始的人脸关键点检测模型的模型参数,重复上述训练过程,直至预测出的人脸关键点的位置信息的准确程度达到预设阈值,停止训练,生成训练好的人脸关键点检测模型。
进一步地,对通过人脸关键点检测模型得到敏感人脸关键点的过程进行具体阐述,也即,步骤S101中将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点,包括以下步骤:
步骤A:将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点。
在具体实施中,通过将目标人脸图像输入事先训练好的人脸关键点检测模型中,可以得到目标人脸图像中的多个人脸关键点,这里,人脸关键点检测模型可以为神经网络模型,人脸关键点检测模型是检测人脸关键点的模型,可以从目标人脸图像中识别出各个人脸区域的人脸关键点。
其中,人脸关键点包括位于人脸轮廓、眉毛、眼睛、鼻子、嘴唇区域的关键点。
进一步地,下面对人脸关键点检测模型的模型结构,以及通过训练好的人脸关键点检测模型对目标人脸图像进行处理,得到目标人脸图像中的人脸关键点的具体实施过程进行阐述,这里,人脸关键点检测模型主要有三部分组成,包括人脸特征提取网络、关键点特征提取网络和关键点输出网络,将目标人脸图像顺次输入人脸关键点检测模型中的人脸特征提取网络、关键点特征提取网络和关键点输出网络,可以得到目标人脸图像中的人脸关键点。具体地,步骤A中将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点:包括以下步骤:
步骤A1:将所述目标人脸图像输入所述人脸特征提取网络,提取出表征人脸特征的初始特征图像。
在具体实施中:人脸特征提取网络由顺序连接的至少两个卷积层组成,目标人脸图像在经过该至少两个卷积层后,即,经过至少两次的人脸特征提取后,可以得到表征出人脸特征的初始特征图像。
这里,卷积层主要进行卷积运算,卷积运算的目的是提取目标人脸图像的不同人脸特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,通过设置更多数量的卷积层,可以使网路能从低级特征中迭代提取更复杂的特征,对于本申请,通过将目标人脸图像输入具有至少两个卷积层的人脸特征提取网络,可以提取出更多的人脸特征,进而得到初始特征图像。
步骤A2:将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像。
在具体实施中,关键点特征提取网络由顺序连接的至少两个子关键点特征提取网络组成,将表征出人脸特征的初始特征图像输入至关键点特征提取网络后,即,经过至少两次的人脸关键点特征提取后,可以得到表征出人脸关键点特征的目标特征图像。
进一步地,将初始特征图像输入由顺序连接的至少两个子关键点特征提取网络组成的关键点特征提取网络,得到目标特征图像的具体实施过程展开说明,也即,步骤A2将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像,包括以下步骤:
步骤A21:将所述初始特征图像输入到首个子关键点特征提取网络,得到当前特征图像。
在具体实施中,将初始特征图像顺次输入关键点特征提取网络中的子关键点特征提取网络后,可以得到目标特征图像,具体地,先将初始特征图像输入关键点特征提取网络中处于首位的子关键点特征提取网络,得到当前特征图像,这里,处于首位的子关键点特征提取网络与人脸特征提取网络相连接,即,将人脸特征提取网络输出的初始特征图像,作为关键点特征提取网络中处于首位的子关键点特征提取网络的输入。
步骤A22:将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像。
在具体实施中,将上一子关键点特征提取网络输出的当前特征图像,作为下一子关键点特征提取网络的输入,得到第一中间特征图像,这里,该上一子关键点特征提取网络和该下一子关键点特征提取网络相连接。
进一步地,每个子关键点特征提取网络均包括沙漏层和点线传播层,对每个子关键点特征提取网络得到第一中间特征图像的实施过程进行阐述,也即,步骤A22中针对任一子关键点特征提取网络,将当前特征图像输入该子关键点特征提取网络,得到第一中间特征图像,包括以下步骤:
步骤a1:将所述当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图。
在具体实施中,将当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图,其中,中间关键点热图,是显示有表征人脸关键点的热点的图像。
步骤a2:将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像。
在具体实施中,将该子关键点特征提取网络中的沙漏层的输出的第二中间特征图像和中间关键点热图作为该子关键点特征提取网络中的点线传播层的输入,可以得到第一中间特征图像。
进一步地,步骤a2将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像,包括以下步骤:
步骤a21:基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图。
在具体实施中,点线传播层可以将中间关键点热图,按人脸部位传播为人脸部位边界热图,即,可以将中间关键点热图传播为各个人脸部位分别对应的人脸部位边界热图。通过这些人脸部位边界可以形成人脸结构,可以让模型更加注意于这些结构边界处,而不必拘泥于人脸的细节(太关注细节则会使得在面部遮挡物遮挡的情况下找不到人脸的细节),这样,即使待检测人员佩戴面部遮挡物,使面部受到一定程度的遮挡的情况下,也可以保持模型的鲁棒性,进而可以使得预测出的人脸关键点更加准确。
进一步地,步骤a21中基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图,包括以下步骤:
从所述中间关键点热图中,提取出每个人脸部位对应的部位关键点热图;按照每个人脸部位的轮廓,将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到每个人脸部位对应的人脸部位边界热图。
在具体实施中,点线传播层包括多个卷积模块组,先将中间关键点热图中提取出属于每个人脸部位特征,将每个人脸部位特征输入对应的卷积模块组中,得到每个人脸部位对应的部位关键点热图,这样,可以得到多个部位关键点热图,针对每个部位关键热图,按照该人脸部位的轮廓,可以将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到该人脸部位对应的人脸部位边界热图,即,得到多个人脸部位边界热图。
需要说明的是,在面部遮挡物检测的人脸关键点检测任务中,由于面部遮挡物对人脸的遮挡,导致无法准确检测人脸关键点。针对这个问题,本申请提出的点线传播层,通过将中间关键点热图传播为人脸部位边界热图,这样,这些人脸部位边界可以形成人脸结构,可以学习人脸的结构特征,从而在检测的过程中减少面部遮挡物遮挡的干扰,当网络在推断一张人脸图像的关键点位置时,网络不必再拘泥于学习人脸的局部细节,而是和人类一样更加关注人脸的结构,从而使得关键点检测的准确率上升。
这里,本申请中的人脸关键点检测模型,也适用于对由于其他原因造成的面部图像不清楚的人脸关键点检测,这些人脸图像比如,模糊、化妆、侧脸、表情夸张、不均匀的光照的图像等。
需要说明的是,人脸部位边界热图是基于人脸边界所形成的,原理是将人脸各个部位的外轮廓描边,得到人脸的各个边界,以这些边界为中心,向四周以高斯分布的方式扩散,则可以得到人脸边界热图,其中,人脸的边界处值最大,为1,其他处的像素均大于0小于1。
步骤a22:基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像。
在具体实施中,将得到的多个人脸部位边界热图和第二中间特征图像进行处理后,可以得到第一中间特征图像。
进一步地,步骤a22中基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像,包括以下步骤:
将得到的各个人脸部位边界热图,以及所述第二中间特征图像按照图像深度进行连接,得到第三中间特征图像;对所述第三中间特征图像进行特征聚焦处理,得到注意力图像;通过所述注意力图像对所述第二中间特征图像进行注意力机制处理,得到所述第一中间特征图像。
在具体实施中,点线传播层还包括沙漏模块和注意力模块,将得到多个人脸部位边界热图,以及第二中间特征图像输入点线传播层中的沙漏模块,按照图像深度进行连接,可以得到第三中间特征图像,并对第三中间特征图像进行特征聚焦处理,得到注意力图像,最后,通过注意力图像对第二中间特征图像进行注意力机制处理,得到第一中间特征图像。
这里,按照图像深度进行连接,是利用Concatenation(串联)来实现的,即就是把多个图按照图像深度连接起来,比如将3个10*10*3的图按照图像深度连接起来就会变成一个10*10*9的图,所以Concatenation可以实现把几个图按照那好图像深度进行连接的操作。
其中,对所述第三中间特征图像的图像深度进行缩放,得到第四中间特征图像;所述第四中间特征图像的图像深度和所述第二中间特征图像的图像深度相同;通过激活函数对所述第四中间特征图像进行归一化处理,得到所述注意力图像。
这里,激活函数(Sigmoid function),用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类,在特征相差比较复杂或是相差不是特别大时效果比较好。
其中,注意力机制,可以使得神经网络具备专注于其输入(或特征)的能力,可以有预定目的、依赖任务的、主动有意识地聚焦于某一对象的注意力。对于本申请,可以将注意力集中人脸结构上,而不拘泥于人脸的细节。
需要说明的是,点线传播层包括多个卷积模块组、沙漏模块、注意力模块,先将中间关键点热图中提取出属于每个人脸部位特征,将每个人脸部位特征输入对应的卷积模块组中,得到每个人脸部位对应的部位关键点热图,这样,如果人脸被分为n个人脸部位,则得到n个部位关键点热图,针对每个部位关键热图,按照该人脸部位的轮廓,可以将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到该人脸部位对应的人脸部位边界热图,这样,得到n个人脸部位边界热图,进一步地,将n个人脸部位边界热图,以及第二中间特征图像输入沙漏模块,按照图像深度进行连接,得到第三中间特征图像,将第三中间特征图像处理为与第二中间特征图像深度相同的第四中间特征图像,并通过注意力模块对第四中间特征图像进行处理,得到注意力图像,最后,通过注意力图像对第二中间特征图像进行注意力机制处理,得到第一中间特征图像。
简而言之,通过点线传播层可以先将关键点热图传播成边界热图,再使用边界热图对第二特征图进行注意力机制的操作,最终得到更加注意于边界(也即是人脸结构)的特征图,输入到下级子关键点特征提取网络中,这样,能够更加注意于人脸结构,并且能够在面部遮挡的情况下保持模型的鲁棒性。
步骤A23:若还存在下一个子关键点特征提取网络,则将第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若不存在下一个子关键点特征提取网络,则将最后一次得到的第一中间特征图像作为目标特征图像输出。
在具体实施中,针对关键点特征提取网络中的每个子关键点特征提取网络,都是将该子关键点特征提取网络的上一个该子关键点特征提取网络输出的当前特征图像作为输入,进而,得到第一中间特征图像,并将该第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到该子关键点特征提取网络的下一个该子关键点特征提取网络,通过上述方式,直至关键点特征提取网络中的每个子关键点特征提取网络都处理完成关键点的特征提取,并将最后一次得到的第一中间特征图像作为目标特征图像输出。
步骤A3:将所述目标特征图像输入所述关键点输出网络,得到所述目标人脸图像中的人脸关键点。
在具体实施中,在得到表征出人脸关键点特征的目标特征图像之后,将目标特征图像输入关键点输出网络进行人脸关键点,可以得到目标人脸图像中的人脸关键点,并获取到人脸关键点的关键点信息,关键点信息包括关键点名称、关键点坐标、关键点类型等。这里,关键点输出网络可以通过估计人脸关键点的热度图来实现人脸关键点的定位,进而,得到人脸关键点。
需要说明的是,关键点检测的任务对特征图分辨率的要求很高,而关键点输出网络输出的特征图分辨率可以达到像素级别的要求,故,关键点输出网络在关键点检测中具有优势。
步骤B:根据每个人脸关键点的类型信息和目标敏感区域的位置信息,从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点。
在具体实施中,在得到目标人脸图像中的人脸关键点后,可以获取到每个人脸关键点的类型信息,人脸关键点的类型信息可以为人脸关键点所属人脸部位的部位信息,比如,嘴角关键点的类型信息为嘴部部位的部位信息,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,目标敏感区域是事先根据要检测的面部遮挡物具体是哪个物品来确定的,所以,根据每个人脸关键点的类型信息和目标敏感区域的位置信息,可以从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点,比如,目标敏感区域为嘴部区域,则选取的位于嘴部区域中的敏感人脸关键点可以为嘴角关键点、嘴唇内轮廓关键点、嘴唇外轮廓关键点等。
S102:根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合。
在具体实施中,在通过人脸关键点检测模型,得到目标人脸图像中位于目标敏感区域中的敏感人脸关键点之后,确定出每个敏感人脸关键点的位置信息,进而,通过每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出与每个敏感人脸关键点对应的子敏感区域,其中,通常,截取出的各个子敏感区域的区域大小相同,该区域大小可以根据实际需要事先进行设置,每个子敏感区域包含与其对应的敏感人脸关键点,当然,如果子敏感区域的区域大小设置的较大,每个子敏感区域可能包括多于1个的敏感人脸关键点,即,每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合。
S103:分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率。
在具体实施中,针对截取出的每个子敏感区域,将每个子敏感区域分别输入到训练好的面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,即,可以得到截取出的各个子敏感区域分别对应的遮挡概率,若一个子敏感区域的遮挡概率越大,说明该敏感区域被面部遮挡物遮挡的可能性较大;若一个子敏感区域的遮挡概率越小,说明该敏感区域被面部遮挡物遮挡的可能性较小。
这里,面部遮挡物判别模型可以为二分类模型。
进一步地,根据以下步骤生成训练好的面部遮挡物判别模型:获取多个子敏感区域样本图像;将包含遮挡物的子敏感区域样本图像作为正样本图像,以及将不包含遮挡物的子敏感区域样本图像作为负样本图像;根据所述正样本图像和负样本图像,对初始的面部遮挡物判别模型进行训练,生成训练好的面部遮挡物判别模型。
S104:根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
在具体实施中,在通过面部遮挡判别模型,确定截取出的每个子敏感区域的遮挡概率后,根据每个子敏感区域的遮挡概率,确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,比如,有较多个子敏感区域的遮挡概率均较高,说明待检测人员佩戴面部遮挡物的概率较大;有较多个子敏感区域的遮挡概率均较低,说明待检测人员佩戴面部遮挡物的概率较小。
进一步地,步骤S104中根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物,包括以下步骤:
统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量;若所述目标数量与所述总数量之间的比值大于或等于预设阈值,则确定所述待检测人员佩戴面部遮挡物;若所述比值小于所述预设阈值,则确定所述待检测人员未佩戴面部遮挡物。
在具体实施中,可以将遮挡概率大于或等于预设概率的子敏感区域认为是被遮挡的区域,进而,统计被遮挡区域的目标数量,若被遮挡区域在所有截取出的子敏感区域中所占的比重较高,则确定待检测人员佩戴面部遮挡物;若被遮挡区域在所有截取出的子敏感区域中所占的比重较低,则确定待检测人员未佩戴面部遮挡物。这里,可以通过设置阈值来进行量化,统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量,若目标数量与总数量之间的比值大于或等于预设阈值,则确定待检测人员佩戴面部遮挡物,否则,确定待检测人员未佩戴面部遮挡物。
需要说明的是,预设概率和预设阈值可以根据实际需要进行设置,预设概率和预设阈值均要高于50%,优选80%以上。
在本申请实施例中,将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
基于同一申请构思,本申请实施例中还提供了与上述实施例提供的面部遮挡物的检测方法对应的面部遮挡物的检测装置,由于本申请实施例中的装置解决问题的原理与本申请上述实施例的面部遮挡物的检测方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
如图2至图6所示,图2示出了本申请实施例所提供的一种面部遮挡物的检测装置200的功能模块图之一;图3示出了图2中的第一确定模块210的功能模块图;图4示出了图3中的第一确定单元212的功能模块图;图5示出了图2中的第三确定模块240的功能模块图;图6示出了本申请实施例所提供的一种面部遮挡物的检测装置200的功能模块图之二。
如图2所示,面部遮挡物的检测装置200包括:
第一确定模块210,用于将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
截取模块220,用于根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
第二确定模块230,用于分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
第三确定模块240,用于根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
在一种可能实施方式中,如图2所示,所述第一确定模块210,用于根据以下步骤得到敏感人脸关键点:
将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点;
根据每个人脸关键点的类型信息和目标敏感区域的位置信息,从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点。
在一种可能实施方式中,如图3所示,所述人脸关键点检测模型包括人脸特征提取网络、关键点特征提取网络和关键点输出网络;所述第一确定模块210包括:
提取单元211,用于将所述目标人脸图像输入所述人脸特征提取网络,提取出表征人脸特征的初始特征图像;
第一确定单元212,用于将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像;
第二确定单元213,用于将所述目标特征图像输入所述关键点输出网络,得到所述目标人脸图像中的人脸关键点。
在一种可能实施方式中,如图3所示,所述第一确定单元212,用于根据以下步骤得到目标特征图像:
将所述初始特征图像输入到首个子关键点特征提取网络,得到当前特征图像;
将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若还存在下一个子关键点特征提取网络,则将第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若不存在下一个子关键点特征提取网络,则将最后一次得到的第一中间特征图像作为目标特征图像输出。
在一种可能实施方式中,如图4所示,每个子关键点特征提取网络包括沙漏层和点线传播层;针对任一子关键点特征提取网络,所述第一确定单元212包括:
第一确定子单元2121,用于将所述当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图;
第二确定子单元2122,用于将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像。
在一种可能实施方式中,如图4所示,所述第二确定子单元2122,用于根据以下步骤得到所述第一中间特征图像:
基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图;
基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像。
在一种可能实施方式中,如图4所示,所述第二确定子单元2122,还用于根据以下步骤得到人脸部位边界热图:
从所述中间关键点热图中,提取出每个人脸部位对应的部位关键点热图;
按照每个人脸部位的轮廓,将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到每个人脸部位对应的人脸部位边界热图。
在一种可能实施方式中,如图4所示,所述第二确定子单元2122,具体用于根据以下步骤得到所述第一中间特征图像:
将得到的各个人脸部位边界热图,以及所述第二中间特征图像按照图像深度进行连接,得到第三中间特征图像;
对所述第三中间特征图像进行特征聚焦处理,得到注意力图像;
通过所述注意力图像对所述第二中间特征图像进行注意力机制处理,得到所述第一中间特征图像。
在一种可能实施方式中,如图4所示,所述第二确定子单元2122,还用于根据以下步骤得到确定注意力图像:
对所述第三中间特征图像的图像深度进行缩放,得到第四中间特征图像;所述第四中间特征图像的图像深度和所述第二中间特征图像的图像深度相同;
通过激活函数对所述第四中间特征图像进行归一化处理,得到所述注意力图像。
在一种可能实施方式中,如图5所示,所述第三确定模块240包括:
统计单元241,用于统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量;
第三确定单元242,用于若所述目标数量与所述总数量之间的比值大于或等于预设阈值,则确定所述待检测人员佩戴面部遮挡物;
第四确定单元243,用于若所述比值小于所述预设阈值,则确定所述待检测人员未佩戴面部遮挡物。
在一种可能实施方式中,如图6所示,所述面部遮挡物的检测装置200还包括第一训练模块250;所述第一训练模块250,用于根据以下步骤生成训练好的人脸关键点检测模型:
获取多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息;
根据所述多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息,对初始的人脸关键点检测模型进行训练,生成训练好的人脸关键点检测模型。
在一种可能实施方式中,如图6所示,所述面部遮挡物的检测装置200还包括第二训练模块260;所述第二训练模块260,用于根据以下步骤生成训练好的面部遮挡物判别模型:
获取多个子敏感区域样本图像;
将包含遮挡物的子敏感区域样本图像作为正样本图像,以及将不包含遮挡物的子敏感区域样本图像作为负样本图像;
根据所述正样本图像和负样本图像,对初始的面部遮挡物判别模型进行训练,生成训练好的面部遮挡物判别模型。
在本申请实施例中,将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
基于同一申请构思,参见图7所示,为本申请实施例提供的一种电子设备700的结构示意图,包括:处理器710、存储器720和总线730,所述存储器720存储有所述处理器710可执行的机器可读指令,当电子设备700运行时,所述处理器710与所述存储器720之间通过所述总线730进行通信,所述机器可读指令被所述处理器710运行时执行如上述实施例中任一所述的面部遮挡物的检测方法的步骤。
具体地,所述机器可读指令被所述处理器710执行时可以执行如下处理:
将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
本申请实施例中,将目标人脸图像输入人脸关键点检测模型中,可以得到位于目标敏感区域中的敏感人脸关键点,这里,目标敏感区域为佩戴面部遮挡物时对应的人脸区域,进而,根据每个敏感人脸关键点的位置信息,从目标人脸图像中,截取出多个子敏感区域,进一步地,分别将每个子敏感区域输入到面部遮挡物判别模型中,可以确定每个子敏感区域的遮挡概率,并根据截取出的每个子敏感区域的遮挡概率,可以确定目标人脸图像中的待检测人员是否佩戴面部遮挡物,这样,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
基于同一申请构思,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述实施例提供的面部遮挡物的检测方法的步骤。
具体地,所述存储介质能够为通用的存储介质,如移动磁盘、硬盘等,所述存储介质上的计算机程序被运行时,能够执行上述面部遮挡物的检测方法,不仅可以实现通过机器对待检测人员是否佩戴面部遮挡物的自动检测,还可以提升检测结果的准确率。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (26)

1.一种面部遮挡物的检测方法,其特征在于,所述检测方法包括:
将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
2.根据权利要求1所述的检测方法,其特征在于,所述将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点,包括:
将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点;
根据每个人脸关键点的类型信息和目标敏感区域的位置信息,从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点。
3.根据权利要求2所述的检测方法,其特征在于,所述人脸关键点检测模型包括人脸特征提取网络、关键点特征提取网络和关键点输出网络;所述将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点,包括:
将所述目标人脸图像输入所述人脸特征提取网络,提取出表征人脸特征的初始特征图像;
将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像;
将所述目标特征图像输入所述关键点输出网络,得到所述目标人脸图像中的人脸关键点。
4.根据权利要求3所述的检测方法,其特征在于,所述关键点特征提取网络由顺序连接的至少两个子关键点特征提取网络组成;将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像,包括:
将所述初始特征图像输入到首个子关键点特征提取网络,得到当前特征图像;
将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若还存在下一个子关键点特征提取网络,则将第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若不存在下一个子关键点特征提取网络,则将最后一次得到的第一中间特征图像作为目标特征图像输出。
5.根据权利要求4所述的检测方法,其特征在于,每个子关键点特征提取网络均包括沙漏层和点线传播层;针对任一子关键点特征提取网络,将当前特征图像输入该子关键点特征提取网络,得到第一中间特征图像,包括:
将所述当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图;
将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像。
6.根据权利要求5所述的检测方法,其特征在于,所述将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像,包括:
基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图;
基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像。
7.根据权利要求6所述的检测方法,其特征在于,所述基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图,包括:
从所述中间关键点热图中,提取出每个人脸部位对应的部位关键点热图;
按照每个人脸部位的轮廓,将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到每个人脸部位对应的人脸部位边界热图。
8.根据权利要求6所述的检测方法,其特征在于,所述基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像,包括:
将得到的各个人脸部位边界热图,以及所述第二中间特征图像按照图像深度进行连接,得到第三中间特征图像;
对所述第三中间特征图像进行特征聚焦处理,得到注意力图像;
通过所述注意力图像对所述第二中间特征图像进行注意力机制处理,得到所述第一中间特征图像。
9.根据权利要求8所述的检测方法,其特征在于,所述对所述第三中间特征图像进行特征聚焦处理,得到注意力图像,包括:
对所述第三中间特征图像的图像深度进行缩放,得到第四中间特征图像;所述第四中间特征图像的图像深度和所述第二中间特征图像的图像深度相同;
通过激活函数对所述第四中间特征图像进行归一化处理,得到所述注意力图像。
10.根据权利要求1所述的检测方法,其特征在于,所述根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物,包括:
统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量;
若所述目标数量与所述总数量之间的比值大于或等于预设阈值,则确定所述待检测人员佩戴面部遮挡物;
若所述比值小于所述预设阈值,则确定所述待检测人员未佩戴面部遮挡物。
11.根据权利要求1至10任一项所述的检测方法,其特征在于,根据以下步骤生成训练好的人脸关键点检测模型:
获取多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息;
根据所述多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息,对初始的人脸关键点检测模型进行训练,生成训练好的人脸关键点检测模型。
12.根据权利要求1至10任一项所述的检测方法,其特征在于,根据以下步骤生成训练好的面部遮挡物判别模型:
获取多个子敏感区域样本图像;
将包含遮挡物的子敏感区域样本图像作为正样本图像,以及将不包含遮挡物的子敏感区域样本图像作为负样本图像;
根据所述正样本图像和负样本图像,对初始的面部遮挡物判别模型进行训练,生成训练好的面部遮挡物判别模型。
13.一种面部遮挡物的检测装置,其特征在于,所述检测装置包括:
第一确定模块,用于将目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中位于目标敏感区域中的敏感人脸关键点;
截取模块,用于根据每个敏感人脸关键点的位置信息,从所述目标人脸图像中,截取出多个子敏感区域;每个子敏感区域的位置与至少一个敏感人脸关键点的位置相重合;
第二确定模块,用于分别将每个子敏感区域输入到训练好的面部遮挡物判别模型中,以确定每个子敏感区域的遮挡概率;
第三确定模块,用于根据截取出的每个子敏感区域的遮挡概率,确定所述目标人脸图像中的待检测人员是否佩戴面部遮挡物。
14.根据权利要求13所述的检测装置,其特征在于,所述第一确定模块,用于根据以下步骤得到敏感人脸关键点:
将所述目标人脸图像输入训练好的人脸关键点检测模型中,得到所述目标人脸图像中的人脸关键点;
根据每个人脸关键点的类型信息和目标敏感区域的位置信息,从得到的人脸关键点中选择出位于目标敏感区域中的敏感人脸关键点。
15.根据权利要求14所述的检测装置,其特征在于,所述人脸关键点检测模型包括人脸特征提取网络、关键点特征提取网络和关键点输出网络;所述第一确定模块包括:
提取单元,用于将所述目标人脸图像输入所述人脸特征提取网络,提取出表征人脸特征的初始特征图像;
第一确定单元,用于将所述初始特征图像输入所述关键点特征提取网络,得到目标特征图像;
第二确定单元,用于将所述目标特征图像输入所述关键点输出网络,得到所述目标人脸图像中的人脸关键点。
16.根据权利要求15所述的检测装置,其特征在于,所述第一确定单元,用于根据以下步骤得到目标特征图像:
将所述初始特征图像输入到首个子关键点特征提取网络,得到当前特征图像;
将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若还存在下一个子关键点特征提取网络,则将第一中间特征图像作为当前特征图像,并重新执行步骤将当前特征图像输入到下一个子关键点特征提取网络,得到第一中间特征图像;若不存在下一个子关键点特征提取网络,则将最后一次得到的第一中间特征图像作为目标特征图像输出。
17.根据权利要求16所述的检测装置,其特征在于,每个子关键点特征提取网络均包括沙漏层和点线传播层;针对任一子关键点特征提取网络,所述第一确定单元包括:
第一确定子单元,用于将所述当前特征图像输入该子关键点特征提取网络中的沙漏层,得到第二中间特征图像和中间关键点热图;
第二确定子单元,用于将所述第二中间特征图像和所述中间关键点热图输入该子关键点特征提取网络中的点线传播层,得到所述第一中间特征图像。
18.根据权利要求17所述的检测装置,其特征在于,所述第二确定子单元,用于根据以下步骤得到所述第一中间特征图像:
基于所述中间关键点热图,确定每个人脸部位对应的人脸部位边界热图;
基于得到的人脸部位边界热图和所述第二中间特征图像,得到所述第一中间特征图像。
19.根据权利要求18所述的检测装置,其特征在于,所述第二确定子单元,还用于根据以下步骤得到人脸部位边界热图:
从所述中间关键点热图中,提取出每个人脸部位对应的部位关键点热图;
按照每个人脸部位的轮廓,将该人脸部位对应的部位关键点热图中的关键点用线段连接,得到每个人脸部位对应的人脸部位边界热图。
20.根据权利要求18所述的检测装置,其特征在于,所述第二确定子单元,具体用于根据以下步骤得到所述第一中间特征图像:
将得到的各个人脸部位边界热图,以及所述第二中间特征图像按照图像深度进行连接,得到第三中间特征图像;
对所述第三中间特征图像进行特征聚焦处理,得到注意力图像;
通过所述注意力图像对所述第二中间特征图像进行注意力机制处理,得到所述第一中间特征图像。
21.根据权利要求20所述的检测装置,其特征在于,所述第二确定子单元,还用于根据以下步骤得到确定注意力图像:
对所述第三中间特征图像的图像深度进行缩放,得到第四中间特征图像;所述第四中间特征图像的图像深度和所述第二中间特征图像的图像深度相同;
通过激活函数对所述第四中间特征图像进行归一化处理,得到所述注意力图像。
22.根据权利要求13所述的检测装置,其特征在于,所述第三确定模块包括:
统计单元,用于统计出遮挡概率大于或等于预设概率的子敏感区域的目标数量,以及截取出的子敏感区域的总数量;
第三确定单元,用于若所述目标数量与所述总数量之间的比值大于或等于预设阈值,则确定所述待检测人员佩戴面部遮挡物;
第四确定单元,用于若所述比值小于所述预设阈值,则确定所述待检测人员未佩戴面部遮挡物。
23.根据权利要求13至22任一项所述的检测装置,其特征在于,所述检测装置还包括第一训练模块;所述第一训练模块,用于根据以下步骤生成训练好的人脸关键点检测模型:
获取多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息;
根据所述多个人脸样本图像,以及每个人脸样本图像中人脸关键点的位置信息,对初始的人脸关键点检测模型进行训练,生成训练好的人脸关键点检测模型。
24.根据权利要求13至22任一项所述的检测装置,其特征在于,所述检测装置还包括第二训练模块;所述第二训练模块,用于根据以下步骤生成训练好的面部遮挡物判别模型:
获取多个子敏感区域样本图像;
将包含遮挡物的子敏感区域样本图像作为正样本图像,以及将不包含遮挡物的子敏感区域样本图像作为负样本图像;
根据所述正样本图像和负样本图像,对初始的面部遮挡物判别模型进行训练,生成训练好的面部遮挡物判别模型。
25.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行如权利要求1至12任一所述的面部遮挡物的检测方法的步骤。
26.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至12任一所述的面部遮挡物的检测方法的步骤。
CN202010333435.3A 2020-04-24 2020-04-24 一种面部遮挡物的检测方法、装置、电子设备及存储介质 Active CN111523480B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010333435.3A CN111523480B (zh) 2020-04-24 2020-04-24 一种面部遮挡物的检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010333435.3A CN111523480B (zh) 2020-04-24 2020-04-24 一种面部遮挡物的检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111523480A true CN111523480A (zh) 2020-08-11
CN111523480B CN111523480B (zh) 2021-06-18

Family

ID=71903565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010333435.3A Active CN111523480B (zh) 2020-04-24 2020-04-24 一种面部遮挡物的检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111523480B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797773A (zh) * 2020-07-07 2020-10-20 广州广电卓识智能科技有限公司 一种人脸关键部位遮挡检测方法、装置和设备
CN111985414A (zh) * 2020-08-21 2020-11-24 成都数字天空科技有限公司 一种关节点位置确定方法及装置
CN112488647A (zh) * 2020-11-25 2021-03-12 京东方科技集团股份有限公司 考勤系统及方法、存储介质及电子设备
CN112733802A (zh) * 2021-01-25 2021-04-30 腾讯科技(深圳)有限公司 图像的遮挡检测方法、装置、电子设备及存储介质
CN112766208A (zh) * 2021-01-28 2021-05-07 北京三快在线科技有限公司 一种模型训练的方法及装置
CN112801043A (zh) * 2021-03-11 2021-05-14 河北工业大学 基于深度学习的实时视频人脸关键点检测方法
CN113011345A (zh) * 2021-03-11 2021-06-22 百度在线网络技术(北京)有限公司 图像质量检测方法、装置、电子设备、可读存储介质
CN113033524A (zh) * 2021-05-26 2021-06-25 北京的卢深视科技有限公司 遮挡预测模型训练方法、装置、电子设备及存储介质
CN113298052A (zh) * 2021-07-26 2021-08-24 浙江霖研精密科技有限公司 一种基于高斯注意力的人脸检测装置、方法和存储介质
CN113486737A (zh) * 2021-06-22 2021-10-08 卓尔智联(武汉)研究院有限公司 一种检测方法、装置、检测设备及存储介质
CN113705466A (zh) * 2021-08-30 2021-11-26 浙江中正智能科技有限公司 用于遮挡场景、尤其高仿遮挡下的人脸五官遮挡检测方法
CN113723318A (zh) * 2021-09-01 2021-11-30 浙江大华技术股份有限公司 确定目标物体遮挡状态的方法、装置及监控设备
CN113743305A (zh) * 2021-09-06 2021-12-03 联想(北京)有限公司 一种识别方法、装置及电子设备
CN114093012A (zh) * 2022-01-18 2022-02-25 荣耀终端有限公司 人脸遮挡的检测方法和检测装置
CN114550269A (zh) * 2022-03-02 2022-05-27 北京百度网讯科技有限公司 口罩佩戴检测方法、设备和介质
WO2022134337A1 (zh) * 2020-12-21 2022-06-30 平安科技(深圳)有限公司 人脸遮挡检测方法、系统、设备及存储介质
CN116453194A (zh) * 2023-04-21 2023-07-18 无锡车联天下信息技术有限公司 一种人脸属性判别方法及装置
WO2024152659A1 (zh) * 2023-01-16 2024-07-25 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备、介质及程序产品

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150347822A1 (en) * 2014-05-29 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Facial Landmark Localization Using Coarse-to-Fine Cascaded Neural Networks
US9633250B2 (en) * 2015-09-21 2017-04-25 Mitsubishi Electric Research Laboratories, Inc. Method for estimating locations of facial landmarks in an image of a face using globally aligned regression
CN107679490A (zh) * 2017-09-29 2018-02-09 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
CN108229490A (zh) * 2017-02-23 2018-06-29 北京市商汤科技开发有限公司 关键点检测方法、神经网络训练方法、装置和电子设备
CN109766887A (zh) * 2019-01-16 2019-05-17 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN110023814A (zh) * 2016-09-28 2019-07-16 奇跃公司 由可穿戴设备进行面部模型捕获
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110458001A (zh) * 2019-06-28 2019-11-15 南昌大学 一种基于注意力机制的卷积神经网络视线估计方法及系统
CN110490158A (zh) * 2019-08-23 2019-11-22 安徽大学 一种基于多级模型的鲁棒人脸对齐方法
CN110598601A (zh) * 2019-08-30 2019-12-20 电子科技大学 一种基于分布式热力图的人脸3d关键点检测方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150347822A1 (en) * 2014-05-29 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Facial Landmark Localization Using Coarse-to-Fine Cascaded Neural Networks
US9633250B2 (en) * 2015-09-21 2017-04-25 Mitsubishi Electric Research Laboratories, Inc. Method for estimating locations of facial landmarks in an image of a face using globally aligned regression
CN110023814A (zh) * 2016-09-28 2019-07-16 奇跃公司 由可穿戴设备进行面部模型捕获
CN108229490A (zh) * 2017-02-23 2018-06-29 北京市商汤科技开发有限公司 关键点检测方法、神经网络训练方法、装置和电子设备
CN107679490A (zh) * 2017-09-29 2018-02-09 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
CN109766887A (zh) * 2019-01-16 2019-05-17 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110458001A (zh) * 2019-06-28 2019-11-15 南昌大学 一种基于注意力机制的卷积神经网络视线估计方法及系统
CN110490158A (zh) * 2019-08-23 2019-11-22 安徽大学 一种基于多级模型的鲁棒人脸对齐方法
CN110598601A (zh) * 2019-08-30 2019-12-20 电子科技大学 一种基于分布式热力图的人脸3d关键点检测方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JING YANG ET AL.: ""Stacked Hourglass Network for Robust Facial Landmark Localisation"", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *
KEVAN YUEN ET AL.: ""An Occluded Stacked Hourglass Approach to Facial Landmark Localization and Occlusion Estimation"", 《IEEE TRANSACTIONS ON INTELLIGENT VEHICLES》 *
何晓云 等: ""基于注意力机制的视频人脸表情识别"", 《信息技术》 *
秦晓飞 等: "《基于注意力模型的人脸关键点检测算法》", 《光学仪器》 *
赵威驰 等: ""基于沙漏网络的人脸面部特征点检测"", 《光学学报》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797773A (zh) * 2020-07-07 2020-10-20 广州广电卓识智能科技有限公司 一种人脸关键部位遮挡检测方法、装置和设备
CN111985414A (zh) * 2020-08-21 2020-11-24 成都数字天空科技有限公司 一种关节点位置确定方法及装置
CN111985414B (zh) * 2020-08-21 2024-02-23 成都数字天空科技有限公司 一种关节点位置确定方法及装置
CN112488647A (zh) * 2020-11-25 2021-03-12 京东方科技集团股份有限公司 考勤系统及方法、存储介质及电子设备
WO2022134337A1 (zh) * 2020-12-21 2022-06-30 平安科技(深圳)有限公司 人脸遮挡检测方法、系统、设备及存储介质
CN112733802A (zh) * 2021-01-25 2021-04-30 腾讯科技(深圳)有限公司 图像的遮挡检测方法、装置、电子设备及存储介质
CN112733802B (zh) * 2021-01-25 2024-02-09 腾讯科技(深圳)有限公司 图像的遮挡检测方法、装置、电子设备及存储介质
CN112766208A (zh) * 2021-01-28 2021-05-07 北京三快在线科技有限公司 一种模型训练的方法及装置
CN113011345A (zh) * 2021-03-11 2021-06-22 百度在线网络技术(北京)有限公司 图像质量检测方法、装置、电子设备、可读存储介质
CN112801043A (zh) * 2021-03-11 2021-05-14 河北工业大学 基于深度学习的实时视频人脸关键点检测方法
CN112801043B (zh) * 2021-03-11 2022-07-15 河北工业大学 基于深度学习的实时视频人脸关键点检测方法
CN113011345B (zh) * 2021-03-11 2024-03-05 百度在线网络技术(北京)有限公司 图像质量检测方法、装置、电子设备、可读存储介质
CN113033524A (zh) * 2021-05-26 2021-06-25 北京的卢深视科技有限公司 遮挡预测模型训练方法、装置、电子设备及存储介质
CN113486737A (zh) * 2021-06-22 2021-10-08 卓尔智联(武汉)研究院有限公司 一种检测方法、装置、检测设备及存储介质
CN113298052A (zh) * 2021-07-26 2021-08-24 浙江霖研精密科技有限公司 一种基于高斯注意力的人脸检测装置、方法和存储介质
CN113705466A (zh) * 2021-08-30 2021-11-26 浙江中正智能科技有限公司 用于遮挡场景、尤其高仿遮挡下的人脸五官遮挡检测方法
CN113705466B (zh) * 2021-08-30 2024-02-09 浙江中正智能科技有限公司 用于遮挡场景、尤其高仿遮挡下的人脸五官遮挡检测方法
CN113723318A (zh) * 2021-09-01 2021-11-30 浙江大华技术股份有限公司 确定目标物体遮挡状态的方法、装置及监控设备
CN113723318B (zh) * 2021-09-01 2024-10-18 浙江大华技术股份有限公司 确定目标物体遮挡状态的方法、装置及监控设备
CN113743305A (zh) * 2021-09-06 2021-12-03 联想(北京)有限公司 一种识别方法、装置及电子设备
CN114093012A (zh) * 2022-01-18 2022-02-25 荣耀终端有限公司 人脸遮挡的检测方法和检测装置
CN114550269A (zh) * 2022-03-02 2022-05-27 北京百度网讯科技有限公司 口罩佩戴检测方法、设备和介质
WO2024152659A1 (zh) * 2023-01-16 2024-07-25 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备、介质及程序产品
CN116453194A (zh) * 2023-04-21 2023-07-18 无锡车联天下信息技术有限公司 一种人脸属性判别方法及装置
CN116453194B (zh) * 2023-04-21 2024-04-12 无锡车联天下信息技术有限公司 一种人脸属性判别方法及装置

Also Published As

Publication number Publication date
CN111523480B (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN111523480B (zh) 一种面部遮挡物的检测方法、装置、电子设备及存储介质
CN108921159B (zh) 用于检测安全帽的佩戴情况的方法和装置
CN109948497B (zh) 一种物体检测方法、装置及电子设备
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
CN102945366B (zh) 一种人脸识别的方法及装置
CN111191616A (zh) 一种人脸遮挡检测方法、装置、设备及存储介质
CN108932456B (zh) 人脸识别方法、装置和系统及存储介质
CN106133752A (zh) 眼睛注视跟踪
CN111597910A (zh) 一种人脸识别方法、装置、终端设备及介质
CN113298060B (zh) 保护隐私的生物特征识别方法和装置
CN111860566A (zh) 遮挡物识别模型训练方法、识别方法、装置及存储介质
CN113947795B (zh) 口罩佩戴检测方法、装置、设备及存储介质
Rusli et al. Evaluating the masked and unmasked face with LeNet algorithm
CN108875549A (zh) 图像识别方法、装置、系统及计算机存储介质
CN115223022A (zh) 一种图像处理方法、装置、存储介质及设备
CN102013007A (zh) 用于检测面部的装置和方法
CN111811667A (zh) 温度检测方法、装置、电子设备及可读存储介质
CN116681568A (zh) 一种基于5g网络的信息安全防护监管系统及方法
CN114220142B (zh) 一种深度学习算法的人脸特征识别方法
CN112348112B (zh) 图像识别模型的训练方法、训练装置及终端设备
CN115578781A (zh) 去遮挡的虹膜检测方法、虹膜识别方法及可读存储介质
CN111626193A (zh) 一种面部识别方法、面部识别装置及可读存储介质
Dhanushkodi et al. A SURVEY ON DETECTION OF FACE MASK AND SOCIAL DISTANCING USING DEEP LEARNING.
Srivastava et al. Face mask detection using convolutional neural network
CN110008791B (zh) 一种人脸区域确定方法、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant