CN112818953A - 口罩佩戴状态识别方法、装置、设备及可读存储介质 - Google Patents

口罩佩戴状态识别方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN112818953A
CN112818953A CN202110270361.8A CN202110270361A CN112818953A CN 112818953 A CN112818953 A CN 112818953A CN 202110270361 A CN202110270361 A CN 202110270361A CN 112818953 A CN112818953 A CN 112818953A
Authority
CN
China
Prior art keywords
mask
front head
preset
face key
wearing state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110270361.8A
Other languages
English (en)
Inventor
付马
肖潇
章勇
曹李军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Keda Technology Co Ltd
Original Assignee
Suzhou Keda Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Keda Technology Co Ltd filed Critical Suzhou Keda Technology Co Ltd
Priority to CN202110270361.8A priority Critical patent/CN112818953A/zh
Publication of CN112818953A publication Critical patent/CN112818953A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种口罩佩戴状态识别方法,该方法包括以下步骤:获取当前监控场景的监控图像;利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片;利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。应用本发明所提供的口罩佩戴状态识别方法,较大地提高了口罩佩戴状态识别效率,节省人力,较大地降低了出现漏查现象的概率。本发明还公开了一种口罩佩戴状态识别装置、设备及存储介质,具有相应技术效果。

Description

口罩佩戴状态识别方法、装置、设备及可读存储介质
技术领域
本发明涉及图像处理技术领域,特别是涉及一种口罩佩戴状态识别方法、装置、设备及计算机可读存储介质。
背景技术
流行性传染病传播能力强,危害人类身体健康,威胁人类的生命安全。佩戴口罩能够有效过滤进入人们口鼻部位的空气,以达到阻挡有害的气体、气味、飞沫、病毒等物质的作用。因此佩戴口罩成为阻断传染,人们自我保护的有效手段。在流行性传染病防控过程中,需要在人员密集的场景中甄别未按规范佩戴口罩的行为。
传统口罩佩戴状态识别方法为通过人工筛查识别人员的口罩佩戴状态,效率低下,浪费人力,容易出现漏查现象。
综上所述,如何有效地解决通过人工筛查识别人员的口罩佩戴状态,效率低下,浪费人力,容易出现漏查现象等问题,是目前本领域技术人员急需解决的问题。
发明内容
本发明的目的是提供一种口罩佩戴状态识别方法,该方法较大地提高了口罩佩戴状态识别效率,节省人力,较大地降低了出现漏查现象的概率;本发明的另一目的是提供一种口罩佩戴状态识别装置、设备及计算机可读存储介质。
为解决上述技术问题,本发明提供如下技术方案:
一种口罩佩戴状态识别方法,包括:
获取当前监控场景的监控图像;
利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片;
利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;
结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
在本发明的一种具体实施方式中,利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片,包括:
将所述监控图像输入至由第一mobilenetv1网络和第一fpn网络搭建并预训练得到的人头检测模型,预测得到所述监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息;
根据各所述人头框中心点位置、各所述人头框中心点偏移量、各所述人头宽高、以及各所述人头正背面属性信息,输出各所述正面头部图片。
在本发明的一种具体实施方式中,在利用预训练的口罩检测模型对各所述正面头部图片进行检测之前,还包括:
获取所述当前监控场景的人员密度;
判断所述人员密度是否超出预设值;
若是,则执行所述利用预训练的口罩检测模型对各所述正面头部图片进行检测的步骤。
在本发明的一种具体实施方式中,利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息,包括:
将各所述正面头部图片输入至由第二mobilenetv1网络和第二fpn网络搭建并预训练得到的口罩检测模型,预测得到各所述正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点;
结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别,包括:
结合各所述口罩框中心点位置、各所述口罩框中心点偏移量、各所述口罩宽高、以及各所述预设人脸关键点,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
在本发明的一种具体实施方式中,预测各预设人脸关键点的过程,包括:
利用高斯热度图生成各所述预设人脸关键点分别对应的置信度得分;
分别判断各所述置信度得分是否属于预设置信度范围;
若是,则确定置信度得分属于所述预设置信度范围的预设人脸关键点存在,并进行相应的关键点定位;
若否,则确定置信度得分超出所述预设置信度范围的预设人脸关键点不存在。
在本发明的一种具体实施方式中,当各预设人脸关键点包括两个人眼中心点、鼻尖、两个嘴角时,结合各所述口罩框中心点位置、各所述口罩框中心点偏移量、各所述口罩宽高、以及各所述预设人脸关键点,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别,包括:
当存在无口罩的第一正面头部图片时,确定所述第一正面头部图片对应的人员未佩戴口罩;
当存在所述口罩框中心点位置、所述口罩框中心点偏移量、所述口罩宽高满足预设条件,且各所述预设人脸关键点中仅包含两个人眼中心点的第二正面头部图片时,确定所述第二正面头部图片对应的人员口罩佩戴规范;
当存在所述口罩框中心点位置、所述口罩框中心点偏移量、所述口罩宽高未满足预设条件,或各所述预设人脸关键点中包含嘴角和/或鼻尖的第三正面头部图片时,确定所述第三正面头部图片对应的人员未规范佩戴口罩。
在本发明的一种具体实施方式中,还包括:
当确定存在未佩戴口罩和/或未规范佩戴口罩的人员时,输出告警提示信息。
一种口罩佩戴状态识别装置,包括:
图像获取模块,用于获取当前监控场景的监控图像;
人头检测模块,用于利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片;
口罩检测模块,用于利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;
状态识别模块,用于结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
一种口罩佩戴状态识别设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述口罩佩戴状态识别方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述口罩佩戴状态识别方法的步骤。
本发明所提供的口罩佩戴状态识别方法,获取当前监控场景的监控图像;利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片;利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
由上述技术方案可知,本发明通过自动获取监控场景的监控图像,并预先训练用于检测人头正背面的人头检测模型,利用人头检测模型检测得到监控图像中的各正面头部图片。预先选取与口罩佩戴状态相关的人脸关键点,并训练对正面头部图片中口罩有无状态信息和各预设人脸关键点状态信息进行判定的口罩检测模型。在检测到各正面头部图片之后,利用口罩检测模型检测各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息,从而结合各口罩有无状态信息和各预设人脸关键点状态信息,实现对各正面头部图片分别对应的人员的口罩佩戴状态自动识别。相较于通过人工筛查识别人员的口罩佩戴状态的方式,本发明较大地提高了口罩佩戴状态识别效率,节省人力,较大地降低了出现漏查现象的概率。
相应的,本发明还提供了与上述口罩佩戴状态识别方法相对应的口罩佩戴状态识别装置、设备和计算机可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中口罩佩戴状态识别方法的一种实施流程图;
图2为本发明实施例中口罩佩戴状态识别方法的另一种实施流程图;
图3为本发明实施例中一种监控场景的纵切面示意图;
图4为本发明实施例中一种监控场景的横切面示意图;
图5为本发明实施例中一种口罩佩戴状态识别装置的结构框图;
图6为本发明实施例中一种口罩佩戴状态识别设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1为本发明实施例中口罩佩戴状态识别方法的一种实施流程图,该方法可以包括以下步骤:
S101:获取当前监控场景的监控图像。
预先在当前监控场景中部署图像采集装置,通过图像采集装置获取当前监控场景的监控图像。当前监控场景可以为地铁进站口、车站进站口等。
S102:利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片。
预先训练用于检测人头正背面的人头检测模型,在获取到当前监控场景的监控图像之后,利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片。人头检测模型可以包含特征提取、聚类、属性识别、回归等多个分支,其中属性识别分支用于分析人头的正背面信息。
需要说明的是,人头检测模型所采用的特征提取网络可以根据实际情况进行选取,本发明实施例对此不做限定,如可以为mobilenetv1网络、AlexNet网络、googlenet网络等。
S103:利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息。
预先选取与口罩佩戴状态相关的人脸关键点,并训练对正面头部图片中口罩有无状态信息和各预设人脸关键点状态信息进行判定的口罩检测模型。在检测得到各正面头部图片之后,利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息。从而确定出各正面头部图片对应的人员是否佩戴有口罩,以及各正面头部图片中是否存在各人脸关键点。口罩检测模型可以包含特征提取、聚类、关键点定位、回归等多个分支,其中关键点定位分支用于对各人脸关键点进行识别定位。
类比人头检测模型,本发明实施例对口罩检测模型的特征提取网络也不做限定,如可以为mobilenetv1网络、AlexNet网络、googlenet网络等。
S104:结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
在检测到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息之后,结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。即通过判断有无口罩,以及各正面头部图片中各人脸关键点的有无,自动识别各正面头部图片分别对应的人员的口罩佩戴状态。
由上述技术方案可知,本发明通过自动获取监控场景的监控图像,并预先训练用于检测人头正背面的人头检测模型,利用人头检测模型检测得到监控图像中的各正面头部图片。预先选取与口罩佩戴状态相关的人脸关键点,并训练对正面头部图片中口罩有无状态信息和各预设人脸关键点状态信息进行判定的口罩检测模型。在检测到各正面头部图片之后,利用口罩检测模型检测各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息,从而结合各口罩有无状态信息和各预设人脸关键点状态信息,实现对各正面头部图片分别对应的人员的口罩佩戴状态自动识别。相较于通过人工筛查识别人员的口罩佩戴状态的方式,本发明较大地提高了口罩佩戴状态识别效率,节省人力,较大地降低了出现漏查现象的概率。
需要说明的是,基于上述实施例,本发明实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
参见图2,图2为本发明实施例中口罩佩戴状态识别方法的另一种实施流程图,该方法可以包括以下步骤:
S201:获取当前监控场景的监控图像。
在获取到当前监控场景的监控图像之后,判断监控图像是否为yuv444格式的图像,当确定监控图像不是yuv444格式的图像时,将监控图像转化为yuv444格式的图像。如当图像采集设备采集到的监控图像的格式为nv12格式时,将监控图像由nv12格式转化为yuv444格式。通过将监控图像转化为yuv444格式的图像,无需将nv12格式的图像转换到rgb图像,减少了颜色空间转换的耗时,避免了颜色空间转换带来的精度损失。
S202:将监控图像输入至由第一mobilenetv1网络和第一fpn网络搭建并预训练得到的人头检测模型,预测得到监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息。
使用优化后的第一mobilenetv1作为基础网络,之后接第一fpn网络,从而搭建得到人头检测模型,人头检测模型可以采用centernet模型结构,模型输入分辨率可设置为512*384。通过第一fpn网络将特征图缩小至原获取的监控图像宽高的1/4,进而预测得到监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息。
可以以mobilenetv1在大型可视化数据库imagenet上分类准确率基本不变为前提,预先使用Norm剪枝算法对模型进行剪枝,剪枝后,使得模型参数减少大约10%,精度基本保持不变。以该优化后的mobilenetv1作为基础网络,使得模型参数得到较大的精简。
可以采用circleloss损失函数对人头检测模型的人头正背面属性模型分支进行训练,利用训练得到的人头检测模型检测监控图像中的各正面头部图片。circleloss损失函数具有平衡的优化方向、梯度自动衰减、更稳定的收敛目标等优点,通过使用circleloss损失函数代替一般的分类损失函数(如softmaxloss损失函数)对人头检测模型的人头正背面属性模型分支进行训练,较大地提升了分类准确率。
S203:根据各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息,输出各正面头部图片。
在预测得到监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息之后,根据各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息,输出各正面头部图片。
可以通过以下公式计算人头框坐标:
(x1min,y1min,x1max,y1max)
=(x1+offset1*x1-w1/2,y1+offset1*y1-h1/2,x1+offset1*x1+w1/2,y1+offset1*y1+h1/2);
其中,x1为人头框中心点横坐标,y1为人头框中心点纵坐标,offset1为人头框中心点偏移量,w1为人头框宽度,h1为人头框高度,x1min为人头框的最小横坐标,y1min为人头框的最小纵坐标,x1max为人头框的最大横坐标,y1max为人头框的最大纵坐标。
从而根据计算出的人头框坐标从监控图像中框选出各头部图片,再利用人头检测模型检测得到各头部图片中包含的正面头部图片。
S204:获取当前监控场景的人员密度。
获取当前监控场景的人员密度的方式可以为预先对图像采集设备的架设角度和架设高度进行存储,如设置高度为5米,俯仰角设置为30度,通过直接对存储参数进行获取的方式获取图像采集设备的架设角度和架设高度。在获取到当前监控场景的监控图像之后,获取监控图像对应的图像采集设备(如相机)的架设角度和架设高度,根据架设角度和架设高度,确定当前监控场景的有效监控面积。在利用人头检测模型检测得到监控图像中各人头框之后,获取监控图像中包含的人头框数量。根据检测到的人头框数量除以有效监控面积,得到当前监控场景中的人员密度。
参见图3和图4,图3为本发明实施例中一种监控场景的纵切面示意图,图4为本发明实施例中一种监控场景的横切面示意图。在对图像采集设备架设完成之后,对架设高度H、架设角度、以及图像采集设备的焦距进行记录,根据架设高度H、架设角度、以及图像采集设备的焦距,利用三角几何关系,计算图像采集设备与可监控的最近区域的近端水平距离L1,并结合人员进行监控画面需要监控到头部才算作有效监控,预先设置图像采集设备到能够有效监控的边缘区域的远端水平距离L2。根据架设角度和近端水平距离L1,利用三角几何关系计算近端监控宽度Z1,根据架设角度和远端水平距离L2,利用三角几何关系计算远端监控宽度Z2。从而根据梯度计算公式计算图3中梯形有效监控区域的面积,即为有效监控面积,再根据有效监控区域内的人头框数量,计算当前监控场景中的人员密度。
除此之外,还可以预先将图像采集设备可监控到的实际监控区域划分为多个小区域,根据人头框位置信息确定各人头框所属的小区域,分别确定各个小区域的人员密度。还可以直接利用人头框位置信息确定人头框实际聚集区域,根据各人头框之间的距离确定当前监控场景中的人员密度。
S205:判断人员密度是否超出预设值,若是,则执行步骤S206,若否,则不做处理。
预先设置人员密度阈值,在计算得到当前监控场景的人员密度之后,判断人员密度是否超出预设值,若是,则说明当前监控场景的人员密度较大,执行步骤S206,若否,则说明当前监控场景的人员密度较小,不做处理。
承接步骤S204中的举例,当对整个有效监控区域内的各人头框数量进行统计时,通过将利用人头框数量除以有效监控面积,得到当前监控场景中的实际人员密度与预设人员密度进行对比,若实际人员密度大于预设人员密度,则说明当前监控场景的人员密度较大,进行口罩检测识别;当通过对实际监控区域进行小区域划分的方式进行监控场景人员密集度评估时,若存在小区域的人头框数量超过预先设置的小区域人头框数量阈值,则认为该小区域人员密度较大,进行口罩检测识别;当根据人头框间距进行监控场景人员密集度评估时,预先设置两个人头框之间的安全距离,存在两个人头框的位置信息的差值不超过预设安全距离,则认为该两个人头框聚集,当连续判断超过预设数量的人头框聚集时,启动口罩检测。
需要说明的是,人员密度阈值可以根据实际情况进行设定和调整,本发明实施例对此不做限定,如可以设置为4人/平方米。
S206:将各正面头部图片输入至由第二mobilenetv1网络和第二fpn网络搭建并预训练得到的口罩检测模型,预测得到各正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点。
当确定人员密度超出预设值时,将各正面头部图片输入至由第二mobilenetv1网络和第二fpn网络搭建并预训练得到的口罩检测模型,预测得到各正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点。
口罩检测模型也可以采用centernet模型,模型输入分辨率可设置为160*160,使用优化后的第二mobilenetv1网络作为基础网络,之后接第二fpn网络将特征图缩小至各正面头部图片的宽高的1/4,进而预测得到各正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点。可以通过以下公式计算口罩框坐标:
(x2min,y2min,x2max,y2max)
=(x2+offset2*x2-w2/2,y2+offset2*y2-h2/2,x2+offset2*x2+w2/2,y2+offset2*y2+h2/2);
其中,x2为口罩框中心点横坐标,y2为口罩框中心点纵坐标,offset2为口罩框中心点偏移量,w2为口罩框宽度,h2为口罩框高度,x2min为口罩框的最小横坐标,y2min为口罩框的最小纵坐标,x2max为口罩框的最大横坐标,y2max为口罩框的最大纵坐标。
同样可以以mobilenetv1在大型可视化数据库imagenet上分类准确率基本不变为前提,预先使用Norm剪枝算法对模型进行剪枝,剪枝后,使得模型参数减少大约10%,精度基本保持不变。以该优化后的mobilenetv1作为基础网络,使得模型参数得到较大的精简。
需要说明的是,第一mobilenetv1网络、第二mobilenetv1网络中的第一、第二,以及第一fpn网络、第二fpn网络中的第一、第二,并没有大小和先后顺序之分,仅是为了对人头检测模型与口罩检测模型中的网络进行区分。
在本发明的一种具体实施方式中,预测各预设人脸关键点的过程,可以包括以下步骤:
步骤一:利用高斯热度图生成各预设人脸关键点分别对应的置信度得分;
步骤二:分别判断各置信度得分是否属于预设置信度范围,若是,则执行步骤三,若否,则执行步骤四。
步骤三:确定置信度得分属于预设置信度范围的预设人脸关键点存在,并进行相应的关键点定位;
步骤四:确定置信度得分超出预设置信度范围的预设人脸关键点不存在。
为方便描述,可以将上述四个步骤结合起来进行说明。
采用高斯热度图生成各正面头部图片中各预设人脸关键点分别对应的置信度得分,预先设置置信度范围,在得到各预设人脸关键点分别对应的置信度得分之后,分别判断各置信度得分是否属于预设置信度范围,若是,则确定置信度得分属于预设置信度范围的预设人脸关键点存在,并进行相应的关键点定位,若否,则确定置信度得分超出预设置信度范围的预设人脸关键点不存在。
S207:结合各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
在预测得到各正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点之后,结合各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。从而根据各预设人脸关键点有无,及口罩框相对各预设人脸关键点的相对位置,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
在本发明的一种具体实施方式中,当各预设人脸关键点包括两个人眼中心点、鼻尖、两个嘴角时,步骤S210可以包括以下几个步骤:
步骤一:当存在无口罩的第一正面头部图片时,确定第一正面头部图片对应的人员未佩戴口罩;
步骤二:当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高满足预设条件,且各预设人脸关键点中仅包含两个人眼中心点的第二正面头部图片时,确定第二正面头部图片对应的人员口罩佩戴规范;
步骤三:当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高未满足预设条件,或各预设人脸关键点中包含嘴角和/或鼻尖的第三正面头部图片时,确定第三正面头部图片对应的人员未规范佩戴口罩。
为方便描述,可以将上述三个步骤结合起来进行说明。
预先选取两个人眼中心点、鼻尖、两个嘴角等五个人脸关键点进行口罩检测模型训练。
可以根据人头框中心点与口罩框中心点的相对位置范围进行设定,并预先设置口罩框中心点偏移量阈值,以及根据人头宽高与口罩宽高的比例设置口罩宽高阈值,进一步设置口罩框中心点位置、口罩框中心点偏移量、口罩宽高需满足的预设条件。当存在无口罩的第一正面头部图片时,确定第一正面头部图片对应的人员未佩戴口罩。当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高满足预设条件,且各预设人脸关键点中仅包含两个人眼中心点的第二正面头部图片时,说明口罩已经遮住了口鼻,确定第二正面头部图片对应的人员口罩佩戴规范。
当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高未满足预设条件,或各预设人脸关键点中包含嘴角和/或鼻尖的第三正面头部图片时,确定第三正面头部图片对应的人员未规范佩戴口罩。如当检测到正面头部图片中有口罩,但存在鼻尖人脸关键点时,说明对应的人员未规范佩戴口罩;当检测到正面头部图片中有口罩,但存在鼻尖和两个嘴角人脸关键点时,说明对应的人员也未规范佩戴口罩。
需要说明的是,第一正面头部图片、第二正面头部图片、第三正面头部图片中的第一、第二、第三并没有大小和先后顺序之分,仅是为了对口罩佩戴状态不同的正面头部图片进行区分。
在本发明的一种具体实施方式中,该方法还可以包括以下步骤:
当确定存在未佩戴口罩和/或未规范佩戴口罩的人员时,输出告警提示信息。
当确定仅存在未佩戴口罩的人员,或者仅存在未规范佩戴口罩的人员,或者既存在未佩戴口罩的人员,又存在未规范佩戴口罩的人员时,均输出告警提示信息。
当确定第一正面头部图片对应的人员未佩戴口罩之后,输出未佩戴口罩告警提示信息,从而提醒当前监控场景中的相应人员佩戴口罩。当确定第三正面头部图片对应的人员未规范佩戴口罩之后,输出口罩未规范佩戴告警提示信息,从而提醒当前监控场景中的相应人员正确佩戴口罩。例如,当确定第三正面头部图片对应的人员未规范佩戴口罩之后,根据第三正面头部图片中口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及确定出的得到的嘴角和/或鼻尖的坐标位置,确定口罩与嘴角和/或鼻尖的相对位置。当相对位置为口罩在鼻尖下方且无嘴角时,说明口罩当前仅遮住了嘴巴,未遮住鼻子,输出口罩未遮住鼻子提示信息,当相对位置为口罩在嘴角下方时,说明口罩当前既未遮住了嘴巴,也未遮住鼻子,输出口罩佩戴极不规范告警提示信息。
告警提示信息的输出方式可以选用广播的形式对识别到的未佩戴口罩行为或口罩佩戴不规范行为进行提示。可以预先训练对衣着颜色、是否戴眼镜、头发长短进行识别的外貌检测模型,在确定出第一正面头部图片和第三正面头部图片之后,将第一正面头部图片和第三正面头部图片输入到外貌检测模型,利用外貌检测模型对未佩戴口罩或未规范佩戴口罩的人员的外貌特征进行识别,并将识别结果发送至广播设备,广播设备进行相应的广播,如在车站场景中,输出例如“请身穿红色上衣短发带有眼镜的这位乘客正确佩戴口罩”等提示信息。通过广播的形式对未规范佩戴口罩人员进行提醒,更能对人们的口罩佩戴行为进行很好的约束。
当检测到口罩佩戴不规范时,可灵活报警。并且还可以在抓拍到的人员为是病毒携带者且未佩戴好口罩时,根据抓拍的正面头部图片分析其运动轨迹,以对该时间段该范围的其他人员进行通告。
相应于上面的方法实施例,本发明还提供了一种口罩佩戴状态识别装置,下文描述的口罩佩戴状态识别装置与上文描述的口罩佩戴状态识别方法可相互对应参照。
参见图5,图5为本发明实施例中一种口罩佩戴状态识别装置的结构框图,该装置可以包括:
图像获取模块51,用于获取当前监控场景的监控图像;
人头检测模块52,用于利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片;
口罩检测模块53,用于利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;
状态识别模块54,用于结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
由上述技术方案可知,本发明通过自动获取监控场景的监控图像,并预先训练用于检测人头正背面的人头检测模型,利用人头检测模型检测得到监控图像中的各正面头部图片。预先选取与口罩佩戴状态相关的人脸关键点,并训练对正面头部图片中口罩有无状态信息和各预设人脸关键点状态信息进行判定的口罩检测模型。在检测到各正面头部图片之后,利用口罩检测模型检测各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息,从而结合各口罩有无状态信息和各预设人脸关键点状态信息,实现对各正面头部图片分别对应的人员的口罩佩戴状态自动识别。相较于通过人工筛查识别人员的口罩佩戴状态的方式,本发明较大地提高了口罩佩戴状态识别效率,节省人力,较大地降低了出现漏查现象的概率。
在本发明的一种具体实施方式中,人头检测模块52包括:
第一预测子模块,用于将监控图像输入至由第一mobilenetv1网络和第一fpn网络搭建并预训练得到的人头检测模型,预测得到监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息;
图片输出子模块,用于根据各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息,输出各正面头部图片。
在本发明的一种具体实施方式中,该装置还可以包括:
密度获取模块,用于获取当前监控场景的人员密度;
判断模块,用于判断人员密度是否超出预设值;
口罩检测模块53,具体为当确定人员密度超出预设值时,利用预训练的口罩检测模型对各正面头部图片进行检测的模块。
在本发明的一种具体实施方式中,口罩检测模块53具体为将各正面头部图片输入至由第二mobilenetv1网络和第二fpn网络搭建并预训练得到的口罩检测模型,预测得到各正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点的模块;
状态识别模块54具体为结合各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别的模块。
在本发明的一种具体实施方式中,口罩检测模块53包括人脸关键点预测子模块,人脸关键点预测子模块包括:
置信度生成单元,用于利用高斯热度图生成各预设人脸关键点分别对应的置信度得分;
判断单元,用于分别判断各置信度得分是否属于预设置信度范围;
关键点定位单元,用于确定置信度得分属于预设置信度范围的预设人脸关键点存在,并进行相应的关键点定位;
关键点确定单元,用于确定置信度得分超出预设置信度范围的预设人脸关键点不存在。
在本发明的一种具体实施方式中,状态识别模块54包括:
第一状态识别子模块,用于当存在无口罩的第一正面头部图片时,确定第一正面头部图片对应的人员未佩戴口罩;
第二状态识别子模块,用于当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高满足预设条件,且各预设人脸关键点中仅包含两个人眼中心点的第二正面头部图片时,确定第二正面头部图片对应的人员口罩佩戴规范;
第三状态识别子模块,用于当存在口罩框中心点位置、口罩框中心点偏移量、口罩宽高未满足预设条件,或各预设人脸关键点中包含嘴角和/或鼻尖的第三正面头部图片时,确定第三正面头部图片对应的人员未规范佩戴口罩。
在本发明的一种具体实施方式中,该装置还可以包括:
信息输出模块,用于当确定存在未佩戴口罩和/或未规范佩戴口罩的人员时,输出告警提示信息。
相应于上面的方法实施例,参见图6,图6为本发明所提供的口罩佩戴状态识别设备的示意图,该设备可以包括:
存储器61,用于存储计算机程序;
处理器62,用于执行上述存储器61存储的计算机程序时可实现如下步骤:
获取当前监控场景的监控图像;利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片;利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
对于本发明提供的设备的介绍请参照上述方法实施例,本发明在此不做赘述。
相应于上面的方法实施例,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
获取当前监控场景的监控图像;利用预训练的人头检测模型对监控图像进行检测,得到各正面头部图片;利用预训练的口罩检测模型对各正面头部图片进行检测,得到各正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;结合各口罩有无状态信息和各预设人脸关键点状态信息,对各正面头部图片分别对应的人员的口罩佩戴状态进行识别。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本发明提供的计算机可读存储介质的介绍请参照上述方法实施例,本发明在此不做赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种口罩佩戴状态识别方法,其特征在于,包括:
获取当前监控场景的监控图像;
利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片;
利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;
结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
2.根据权利要求1所述的口罩佩戴状态识别方法,其特征在于,利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片,包括:
将所述监控图像输入至由第一mobilenetv1网络和第一fpn网络搭建并预训练得到的人头检测模型,预测得到所述监控图像中各人头框中心点位置、各人头框中心点偏移量、各人头宽高、以及各人头正背面属性信息;
根据各所述人头框中心点位置、各所述人头框中心点偏移量、各所述人头宽高、以及各所述人头正背面属性信息,输出各所述正面头部图片。
3.根据权利要求2所述的口罩佩戴状态识别方法,其特征在于,在利用预训练的口罩检测模型对各所述正面头部图片进行检测之前,还包括:
获取所述当前监控场景的人员密度;
判断所述人员密度是否超出预设值;
若是,则执行所述利用预训练的口罩检测模型对各所述正面头部图片进行检测的步骤。
4.根据权利要求1所述的口罩佩戴状态识别方法,其特征在于,利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息,包括:
将各所述正面头部图片输入至由第二mobilenetv1网络和第二fpn网络搭建并预训练得到的口罩检测模型,预测得到各所述正面头部图片中各口罩框中心点位置、各口罩框中心点偏移量、各口罩宽高、以及各预设人脸关键点;
结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别,包括:
结合各所述口罩框中心点位置、各所述口罩框中心点偏移量、各所述口罩宽高、以及各所述预设人脸关键点,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
5.根据权利要求4所述的口罩佩戴状态识别方法,其特征在于,预测各预设人脸关键点的过程,包括:
利用高斯热度图生成各所述预设人脸关键点分别对应的置信度得分;
分别判断各所述置信度得分是否属于预设置信度范围;
若是,则确定置信度得分属于所述预设置信度范围的预设人脸关键点存在,并进行相应的关键点定位;
若否,则确定置信度得分超出所述预设置信度范围的预设人脸关键点不存在。
6.根据权利要求4或5所述的口罩佩戴状态识别方法,其特征在于,当各预设人脸关键点包括两个人眼中心点、鼻尖、两个嘴角时,结合各所述口罩框中心点位置、各所述口罩框中心点偏移量、各所述口罩宽高、以及各所述预设人脸关键点,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别,包括:
当存在无口罩的第一正面头部图片时,确定所述第一正面头部图片对应的人员未佩戴口罩;
当存在所述口罩框中心点位置、所述口罩框中心点偏移量、所述口罩宽高满足预设条件,且各所述预设人脸关键点中仅包含两个人眼中心点的第二正面头部图片时,确定所述第二正面头部图片对应的人员口罩佩戴规范;
当存在所述口罩框中心点位置、所述口罩框中心点偏移量、所述口罩宽高未满足预设条件,或各所述预设人脸关键点中包含嘴角和/或鼻尖的第三正面头部图片时,确定所述第三正面头部图片对应的人员未规范佩戴口罩。
7.根据权利要求6所述的口罩佩戴状态识别方法,其特征在于,还包括:
当确定存在未佩戴口罩和/或未规范佩戴口罩的人员时,输出告警提示信息。
8.一种口罩佩戴状态识别装置,其特征在于,包括:
图像获取模块,用于获取当前监控场景的监控图像;
人头检测模块,用于利用预训练的人头检测模型对所述监控图像进行检测,得到各正面头部图片;
口罩检测模块,用于利用预训练的口罩检测模型对各所述正面头部图片进行检测,得到各所述正面头部图片分别对应的口罩有无状态信息和各预设人脸关键点状态信息;
状态识别模块,用于结合各所述口罩有无状态信息和各所述预设人脸关键点状态信息,对各所述正面头部图片分别对应的人员的口罩佩戴状态进行识别。
9.一种口罩佩戴状态识别设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述口罩佩戴状态识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述口罩佩戴状态识别方法的步骤。
CN202110270361.8A 2021-03-12 2021-03-12 口罩佩戴状态识别方法、装置、设备及可读存储介质 Pending CN112818953A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110270361.8A CN112818953A (zh) 2021-03-12 2021-03-12 口罩佩戴状态识别方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110270361.8A CN112818953A (zh) 2021-03-12 2021-03-12 口罩佩戴状态识别方法、装置、设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN112818953A true CN112818953A (zh) 2021-05-18

Family

ID=75863199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110270361.8A Pending CN112818953A (zh) 2021-03-12 2021-03-12 口罩佩戴状态识别方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN112818953A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822414A (zh) * 2021-07-22 2021-12-21 深圳信息职业技术学院 口罩检测模型的训练方法、口罩检测方法及相关设备
CN113947795A (zh) * 2021-10-22 2022-01-18 苏州魔视智能科技有限公司 口罩佩戴检测方法、装置、设备及存储介质
CN114267077A (zh) * 2022-03-03 2022-04-01 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114821388A (zh) * 2022-03-10 2022-07-29 慧之安信息技术股份有限公司 基于边缘计算的室内口罩检测方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115818A (zh) * 2020-09-01 2020-12-22 燕山大学 口罩佩戴识别方法
CN112329516A (zh) * 2020-09-15 2021-02-05 深圳市点创科技有限公司 基于关键点定位及图像分类的驾驶员口罩佩戴检测方法、设备、介质
CN112434562A (zh) * 2020-11-03 2021-03-02 浙江大华技术股份有限公司 口罩佩戴状态的检测方法、设备、电子装置和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115818A (zh) * 2020-09-01 2020-12-22 燕山大学 口罩佩戴识别方法
CN112329516A (zh) * 2020-09-15 2021-02-05 深圳市点创科技有限公司 基于关键点定位及图像分类的驾驶员口罩佩戴检测方法、设备、介质
CN112434562A (zh) * 2020-11-03 2021-03-02 浙江大华技术股份有限公司 口罩佩戴状态的检测方法、设备、电子装置和存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822414A (zh) * 2021-07-22 2021-12-21 深圳信息职业技术学院 口罩检测模型的训练方法、口罩检测方法及相关设备
CN113947795A (zh) * 2021-10-22 2022-01-18 苏州魔视智能科技有限公司 口罩佩戴检测方法、装置、设备及存储介质
CN114267077A (zh) * 2022-03-03 2022-04-01 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114267077B (zh) * 2022-03-03 2022-06-21 杭州魔点科技有限公司 口罩佩戴识别的方法、系统、装置和介质
CN114821388A (zh) * 2022-03-10 2022-07-29 慧之安信息技术股份有限公司 基于边缘计算的室内口罩检测方法和装置

Similar Documents

Publication Publication Date Title
CN112818953A (zh) 口罩佩戴状态识别方法、装置、设备及可读存储介质
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
CN112085010B (zh) 一种基于图像识别的口罩检测和部署系统及方法
CN101908142A (zh) 一种基于特征分析的视频火焰检测方法
CN112819068B (zh) 一种基于深度学习的船舶作业违章行为实时侦测方法
CN112149513A (zh) 基于深度学习的工业制造现场安全帽佩戴识别系统和方法
CN111680637A (zh) 基于深度学习和图像识别技术的口罩检测方法及检测系统
CN111460988A (zh) 一种违规行为识别方法及装置
CN112287823A (zh) 一种基于视频监控的面部口罩识别方法
CN105915840A (zh) 一种基于视频信号的工厂烟气排放自动监测的方法
KR101092472B1 (ko) 감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법
CN113158851A (zh) 一种佩戴安全帽检测方法、设备以及计算机存储介质
CN106372566A (zh) 一种基于数字标牌紧急疏散系统及方法
CN111461076A (zh) 帧差法与神经网络结合的烟雾检测方法和检测系统
CN115035564A (zh) 基于巡逻车智能摄像机的人脸识别方法、系统及相关组件
CN105354552A (zh) 一种基于人脸识别和表情分析的在线监测系统与方法
CN103093197A (zh) 一种识别上吊行为的监控方法和系统
KR101113515B1 (ko) 감시카메라를 이용한 비디오 색인 시스템 및 방법
CN110472567A (zh) 一种适用于非配合场景下的人脸识别方法和系统
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
CN112686214A (zh) 一种基于Retinaface算法的人脸口罩检测系统和方法
CN116630853A (zh) 一种重点交通枢纽的实时视频人员寻踪方法及系统
JP6851246B2 (ja) 物体検出装置
CN115909400A (zh) 一种用于低分辨率监控场景中使用手机行为的识别方法
CN106845361B (zh) 一种行人头部识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210518

RJ01 Rejection of invention patent application after publication