CN112883863A - 密集人流口罩佩戴率智能检测方法、系统、介质和设备 - Google Patents
密集人流口罩佩戴率智能检测方法、系统、介质和设备 Download PDFInfo
- Publication number
- CN112883863A CN112883863A CN202110177310.0A CN202110177310A CN112883863A CN 112883863 A CN112883863 A CN 112883863A CN 202110177310 A CN202110177310 A CN 202110177310A CN 112883863 A CN112883863 A CN 112883863A
- Authority
- CN
- China
- Prior art keywords
- mask
- area
- detected
- wearing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种密集人流口罩佩戴率智能检测方法、系统、介质和设备,首先获取模型训练样本图像集,针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;通过训练样本图像集训练YOLO模型,得到智能识别;针对待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。本发明方法能够快速且精确识别出密集人流待测区域图像中未佩戴口罩以及佩戴口罩的人脸图像,基于此能统计密集人流的口罩佩戴率,为疫情防控提供更加大的支持。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种密集人流口罩佩戴率智能检测方法、系统、介质和设备。
背景技术
为了防止病毒在人群中的肆意传播,社会要求人们出行、学习、工作时务必佩戴好口罩。因此,在疫情时期检测是否佩戴口罩,以及分析计算口罩率的成为了硬性需求。
为监测人们在公众场所,例如机场、车站、街道、食堂等场合是否佩戴口罩,目前最主要的方法是在公众场合的出入口安排工作人员进行人工检测,通过人眼观察行人面部来确定行人是否佩戴口罩,并对未戴口罩的行人进行口头体现或禁止入内,这种人工检测方法造成了相关工作人员的劳动强度大以及出现漏检的现象,另外也会使得通行的效率大大降低,导致人口聚集,使得通行人员以及工作人员发生交叉感染的风险更高。
目前口罩佩戴检测是仅对场所内的人们是否佩戴口罩的情况进行检测,并没有上升到大数据分析、人工智能识别检测与进行预警的层面,对于采集到的数据没有加以利用并对该场所的具体情况做出评估预测,这样的方法就不能实现对现场进行精准的疫情防控。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供一种密集人流口罩佩戴率智能检测方法,该方法能够精确快速的识别和统计密集人流的口罩佩戴率,为疫情防控提供更加大的支持。
本发明的第二目的在于提供一种密集人流口罩佩戴率智能检测系统。
本发明的第三目的在于提供一种存储介质。
本发明的第四目的在于提供一种计算设备。
本发明的第一目的通过下述技术方案实现:一种密集人流口罩佩戴率智能检测方法,包括步骤如下:
获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/或佩戴口罩人脸图像;
针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;
将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型;
针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;
根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。
优选的,针对于待测区域,定时或在接收到检测触发指令的情况下,获取该区域拍摄的图像,并且基于智能识别模型识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸,以计算待测区域的口罩佩戴率。
优选的,待测区域的口罩佩戴率为:
其中,mark_rate为待测区域的口罩佩戴率,Nface_mark为待测区域拍摄的图像中识别出的佩戴口罩的人脸数量,Nface为待测区域拍摄的图像中识别出的未佩戴口罩的人脸数量。
优选的,所述YOLO模型为改进后的YOLO4模型,包括CSPDarknet53结构、第一卷积层、池化金字塔SPPnet、第二卷积层、PANet和YoloHead结构,其中 CSPDarknet53结构包括依次连接的输入层、DarknetConv2D_BN_Mish层、第一 Resblock_body层、第二Resblock_body层和第三Resblock_body,CSPDarknet53结构、第一卷积层、池化金字塔SPPnet和第二卷积层依次连接,池化金字塔SPPnet 中包括4个并列的最大池化层,第一卷积层的输出分别作为池化金字塔SPPnet中4 个最大池化层输入,4个最大池化层的输出特征连接融合后在第二卷积层并做卷积操作;第一Resblock_body层、第二Resblock_body层和第二卷积层的输出分别输入到PANet,PANet的各输出分别连接各YoloHead结构。
优选的,还包括如下步骤:
针对于计算得到的待测区域的口罩佩戴率,将其与阈值进行比较,当小于阈值时,启动待测区域的限流操作,当其大于阈值时,不进行待测区域的限流操作。
本发明的第二目的通过下述技术方案实现:一种密集人流口罩佩戴率智能检测系统,包括上位机、微控制器和图像采集设备,所述图像采集设备和微控制器连接上位机;
所述图像采集设备,用于拍摄待测区域的图像,并且发送给上位机;
所述上位机,用于执行权利要求1~4中任一项所述的密集人流口罩佩戴率智能检测方法;
所述微控制器,用于接收上位机计算得到的待测区域口罩佩戴率信息,并且将待测区域口罩佩戴率与阈值进行比较,当小于阈值时,启动待测区域的限流操作,当其大于阈值时,取消待测区域的限流操作。
优选的,所述微控制器连接待测区域的限流设备,根据待测区域口罩佩戴率与阈值的比较结果,通过限流设备启动限流操作。
优选的,还包括预警单元,所述预警单元连接微控制器。
本发明的第三目的通过下述技术方案实现:一种存储介质,存储有程序,所述程序被处理器执行时,实现本发明第一目的所述的密集人流口罩佩戴率智能检测方法。
本发明的第四目的通过下述技术方案实现:一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现本发明第一目的所述的密集人流口罩佩戴率智能检测方法。
本发明相对于现有技术具有如下的优点及效果:
(1)本发明密集人流口罩佩戴率智能检测方法,首先获取训练样本图像集,针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;通过训练样本图像集训练YOLO模型,得到智能识别模型;针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。本发明方法通过训练的YOLO模型能够快速且精确的识别出密集人流待测区域图像中未佩戴口罩以及佩戴口罩的人脸图像,基于此能够统计密集人流的口罩佩戴率,为疫情防控提供更加大的支持。
(2)本发明密集人流口罩佩戴率智能检测方法中,YOLO模型采用的是改进后的YOLO4模型,该模型能够通过更大的网络输入分辨率用于检测小目标,更深的网络层从而覆盖更大的感受野,更多的参数以检测同一图像内不同size 的目标,在输入网络分辨率、卷积层数量、参数数量、输出维度多方面达到平衡从而达到高效精准的检测效果。另外,本发明改进后的YOLO4模型削减了大规格的残差块Resblock_body,加速模型的训练,并使得模型更加专注于小目标的识别。在池化金字塔SPPnet结构内,改为4层结构,以此来弥补大规格残差块 Resblock_body削减而可能出现的偏大目标特征忽略问题,且此改进并不会对模型训练速度有较大影响。
(3)本发明密集人流口罩佩戴率智能检测方法中,在获取到待测区域的口罩佩戴率后,将其与阈值进行比较,当小于阈值时,启动待测区域的限流操作,以限制更多人进入到待测区域,避免待测区域的较多人员不佩戴口罩情况下提高感染风险的现象,为疫情防控提供更加大的支持。
(4)本发明密集人流口罩佩戴率智能检测系统中,包括上位机和微控制器,其中上位机执行本发明密集人流口罩佩戴率智能检测方法,将该方法得到的待测区域口罩佩戴率信息发送到微控制器,由微控制器实现待测区域现场限流操作的控制,能够有效控制待测区域内人流数量,避免更高的感染风险。
(5)本发明密集人流口罩佩戴率智能检测系统中,还包括与微控制器连接的预警单元,微控制器在检测到待测区域有人未佩戴口罩时和/或口罩佩戴率小余阈值时,驱动预警单元进行相应的预警操作,以提醒待测区域人员进行口罩的佩戴。
附图说明
图1是本发明方法的流程图。
图2是本发明方法中改进后的YOLO4模型架构图。
图3a是本发明方法中YOLO模型每次迭代训练的训练和验证损失值曲线图。
图3b是本发明方法中训练后的YOLO模型输出总体map值的图。
图4a至4e是本发明方法在各待测区域拍摄的图像中的识别结果图。
图5是本发明密集人流口罩佩戴率智能检测系统的结构框图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
本实施例公开一种密集人流口罩佩戴率智能检测方法,该方法能够在密集人流区域检测口罩佩戴率,能够为新冠疫情防控提供很大的支持,具体步骤如图1所示,包括:
S1、获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/ 或佩戴口罩人脸图像。
在本实施例中,收集近8千张图片,通过这些图片分别构成训练样本图像集、验证集和测试集;在本实施例中,训练样本图像集、验证集和测试集中图片的数量比为:8:1:1。
各图片可以是摄像机从不同拍摄角度获取到的,其中有些图片是包括一个或多个未佩戴口罩人脸图像,有些图片是包括一个或多个佩戴口罩人脸图像的,有些图片是即包括未佩戴口罩人脸图像又包括佩戴口罩人脸图像的。
S2、针对于训练样本图像集、验证集和测试集中各图片,针对其中的各人脸图像分别标注类别,包括未佩戴口罩类别face和佩戴口罩类别face_mask。在本实施例中,可以利用label image软件对各图片中的各人脸图像进行分类标注。
S3、将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型。
由于在密集人流场所下,获取到的图像纵深较大,待检测目标较多且目标面积均偏小,在本实施例中基于YOLO模型采用改进后的YOLO4模型,如图2中所示,包括CSPDarknet53结构、第一卷积层、池化金字塔SPPnet、第二卷积层、 PANet和YoloHead结构,其中CSPDarknet53结构包括依次连接的输入层、 DarknetConv2D_BN_Mish层、第一Resblock_body层、第二Resblock_body层、第三Resblock_body,CSPDarknet53结构、第一卷积层、池化金字塔SPPnet和第二卷积层依次连接,池化金字塔SPPnet中包括4个并列的最大池化层,第一卷积层的输出分别作为池化金字塔SPPnet中4个最大池化层输入,4个最大池化层的输出特征连接融合后在第二卷积层并做卷积操作;第一Resblock_body层、第二Resblock_body层和第二卷积层的输出分别输入到PANet,PANet的各输出分别连接各YoloHead结构;上述结构中,CSPDarknet53是主干特征提取结构,用来做特征提取的,SPPNet是池化金字塔结构,用来增加模型的感受视野,PANet是特征融合模块,里面有上采样和下采样操作,分别对应UpSampling和DownSampling,yolohead作用是特征融合及输出目标。
由于应用场景多样性的影响,训练数据需要进行预处理,即将训练图象数据整理成608×608规格,考虑到rbg通道,图象数据的最终规格为(608,608,3),之后经过DarknetConv2D_BN_Mish层输出的数据规格为(608,608,32),而经过三个不同的Resblock_body层后输出的数据规格分别为(76,76,256)、(38,38,512)、 (38,38,512)。
本实施例中,改进后的YOLO4模型具备以下特点:(1)削减了大规格的残差块Resblock_body,加速模型的训练,并使得模型更加专注于小目标的识别。 (2)在池化金字塔SPPnet结构内,改为4层结构,分别是1×1、3×3、5×5、9 ×9,以此来弥补大规格残差块Resblock_body削减而可能出现的偏大目标特征忽略问题,且此改进并不会对模型训练速度有较大影响。
在本实施例中,训练样本图像集在针对YOLO模型的训练过程中的超参数设置如表1所示:
表1
其中,训练样本图像集在针对YOLO模型的训练过程中,需要训练迭代次数为100次,如图3a中所示,每一次迭代训练,模型输出一个训练的损失值train_loss,并利用验证集对模型进行训练效果验证,输出验证的损失值val_loss,可以看出,训练效果比较明显,train_loss稳步下降,而val_loss在缓慢下降后有微小的反弹。可以判断,模型在训练过程中出现过拟合现象。为了避免训练过拟合现象对模型效果的影响,除模型本身的措施外,包括batchnormal层的运用、数据增强、IOT 阈值设置,每一次迭代训练结束后都要保存好该次训练的模型权重参数,并标注好对应的训练损失值train_loss和验证损失值val_loss。待完全迭代训练结束后,通过人工选择train_loss和val_loss值最优的模型权重参数,将其应用在后续的验证和测试过程。
为了避免训练过拟合现象对模型效果的影响,除模型本身的措施外(如batchnormal层的运用、数据增强、IOT阈值设置),每一次迭代训练结束后都要保存好该次训练的模型权重参数,并标注好对应的训练损失值train_loss和验证损失值val_loss。待完全迭代训练结束后,通过人工选择train_loss和val_loss值最优的模型权重参数,将其应用在后续的验证和测试过程。
在本实施例中,当YOLO模型训练结束后,要进行模型的评估。此时,将测试集导入到模型中,输出每张图片数据的识别结果并计算出每个类别的准确率和平均准确率,最后输出总体map值,其计算公式如下:
其中,N(TruePositives)C是一张图片内C类别识别结果为真阳的个数, N(TotalObjects)C是一张图片内C类别的标签个数,PrecisionC为一张图片内C 类别的识别精确度,N(TotalImages)C是所有图片中C类别的标签个数, AveragePrecisionC是所有图片中C类别识别的平均精确度,N(Classes)是所有图片中所有标签的个数,MeanAveragePrecision(简称map)是所有标签在所有图片中的识别平均精确度,C类别包括未佩戴口罩和佩戴口罩人脸图像两个类别。
如图3b中所示,对于“face_mask”即戴口罩人员的识别准确率达到了99%,而“face”即不戴口罩人脸的识别准确率也得到了91%,平均来说,准确率约为 94.56%。
S4、针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸。
在本实施例中,针对于待测区域,定时或在接收到检测触发指令的情况下,获取该区域拍摄的图像。基于此,通过步骤S5可以定时或在触发的情况下检测待测区域人员口罩佩戴情况。
在本实施例中,在网络上找到实地场景的影视剧和电影等视频材料,截取相关图片数据,然后输入到步骤S3获取到的智能识别模型,识别结果如图4a至 4c中所示。本实施例中,获取摄像机拍摄到的待测区域的图像,然后输入到步骤S3获取到的智能识别模型,识别结果如图4d和4e所示。
S5、根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率,具体为:
其中,mark_rate为待测区域的口罩佩戴率,Nface_mark为待测区域拍摄的图像中识别出的佩戴口罩的人脸数量,Nface为待测区域拍摄的图像中识别出的未佩戴口罩的人脸数量。
S6、针对于计算得到的待测区域的口罩佩戴率,将其与阈值进行比较,当小于阈值时,启动待测区域的限流操作,并可以驱动相应的预警,当其大于阈值时,取消待测区域的限流操作。在本实施例中限流操作具体可以是关闭待测区域的闸门等具有限制人员进入的设备,使得待测区域的口罩佩戴率在较低的情况下,能够限制人员进入到待测区域。其中上述阈值可以根据待测区域所属场合以及待测区域当地疫情风险程度进行设置,例如可以设置为50%。
本领域技术人员可以理解,实现本实施例方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。应当注意,尽管在附图中以特定顺序描述了本实施例1的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序,有些步骤也可以同时执行。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2
本实施例公开了一种密集人流口罩佩戴率智能检测系统,如图5中所示,包括上位机、微控制器、图像采集设备,所述图像采集设备和微控制器连接上位机;其中:
图像采集设备,用于拍摄待测区域的图像,并且发送给上位机;在本实施例中,图像采集设备可以是安装在待测区域现场的摄像头,拍摄的视频流传送到上位机,由上位机定时或在触发的请看下截取视频流中的图像信息,从而得到待测区域的图像。
上位机,用于执行实施例1所述的密集人流口罩佩戴率智能检测方法,如下:
获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/或佩戴口罩人脸图像;
针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;
将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型;
针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;
根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。
在本实施例中,上位机可以是GPU服务器。
微控制器,用于接收上位机计算得到的待测区域口罩佩戴率信息,并且将待测区域口罩佩戴率与阈值进行比较,当小于阈值时,启动待测区域的限流操作,当其大于阈值时,取消待测区域的限流操作。
本实施例中微控制器可以选用arduino开发板。
在本实施例中,微控制器连接待测区域的限流设备,根据待测区域口罩佩戴率与阈值的比较结果,通过限流设备启动限流操作;限流设备包括设置在待测区域出入口的闸门、长杆等。当待测区域口罩佩戴率小于阈值时,闸门关闭或长杆落下,限制人员和车辆通过;当待测区域口罩佩戴率大于等于阈值时,闸门打开或长杆上升,允许人员或和车辆通过。
在本实施例中,微控制器连接有预警单元,微控制器在检测到待测区域有人未佩戴口罩时和/或口罩佩戴率小余阈值时,驱动预警单元进行相应的预警操作,例如播放相应的语音信息,以提醒待测区域人员进行口罩的佩戴。
在本实施例中,微控制器也可以连接显示屏,通过显示屏可以显示上位机所发送的当前的口罩佩戴率。
实施例3
本实施例公开了一种存储介质,存储有程序,所述程序被处理器执行时,实现实施例1所述的密集人流口罩佩戴率智能检测方法,如下:
获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/或佩戴口罩人脸图像;
针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;
将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型;
针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;
根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。
在本实施例中,存储介质可以是磁盘、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、U盘、移动硬盘等介质。
实施例4
本实施例公开一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现实施例1所述的密集人流口罩佩戴率智能检测方法,如下:
获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/或佩戴口罩人脸图像;
针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;
将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型;
针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;
根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。
本实施例中,计算设备可以是台式电脑、笔记本电脑、智能手机、PDA手持终端、平板电脑等终端设备。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.一种密集人流口罩佩戴率智能检测方法,其特征在于,包括步骤如下:
获取训练样本图像集,各训练样本图像中包括未佩戴口罩人脸图像和/或佩戴口罩人脸图像;
针对于各训练样本图像,针对其中的各人脸图像分别标注类别,包括未佩戴口罩和佩戴口罩类别;
将各训练样本图像作为YOLO模型的输入,其中的各人脸图像的类别作为标签,对YOLO模型进行训练,得到智能识别模型;
针对于待测区域,获取该区域拍摄的图像,将该区域拍摄的图像输入到智能识别模型中,识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸;
根据待测区域拍摄的图像中识别出的佩戴口罩的人脸数量和未佩戴口罩的人脸数量,计算待测区域的口罩佩戴率。
2.根据权利要求1所述的密集人流口罩佩戴率智能检测方法,其特征在于,针对于待测区域,定时或在接收到检测触发指令的情况下,获取该区域拍摄的图像,并且基于智能识别模型识别出图像中佩戴口罩的人脸和未佩戴口罩的人脸,以计算待测区域的口罩佩戴率。
4.根据权利要求1所述的密集人流口罩佩戴率智能检测方法,其特征在于,所述YOLO模型为改进后的YOLO4模型,包括CSPDarknet53结构、第一卷积层、池化金字塔SPPnet、第二卷积层、PANet和YoloHead结构,其中CSPDarknet53结构包括依次连接的输入层、DarknetConv2D_BN_Mish层、第一Resblock_body层、第二Resblock_body层和第三Resblock_body,CSPDarknet53结构、第一卷积层、池化金字塔SPPnet和第二卷积层依次连接,池化金字塔SPPnet中包括4个并列的最大池化层,第一卷积层的输出分别作为池化金字塔SPPnet中4个最大池化层输入,4个最大池化层的输出特征连接融合后在第二卷积层并做卷积操作;第一Resblock_body层、第二Resblock_body层和第二卷积层的输出分别输入到PANet,PANet的各输出分别连接各YoloHead结构。
5.根据权利要求1所述的密集人流口罩佩戴率智能检测方法,其特征在于,还包括如下步骤:
针对于计算得到的待测区域的口罩佩戴率,将其与阈值进行比较,当小于阈值时,启动待测区域的限流操作,当其大于阈值时,不进行待测区域的限流操作。
6.一种密集人流口罩佩戴率智能检测系统,其特征在于,包括上位机、微控制器和图像采集设备,所述图像采集设备和微控制器连接上位机;
所述图像采集设备,用于拍摄待测区域的图像,并且发送给上位机;
所述上位机,用于执行权利要求1~4中任一项所述的密集人流口罩佩戴率智能检测方法;
所述微控制器,用于接收上位机计算得到的待测区域口罩佩戴率信息,并且将待测区域口罩佩戴率与阈值进行比较,当小于阈值时,启动待测区域的限流操作,当其大于阈值时,取消待测区域的限流操作。
7.根据权利要求6所述的密集人流口罩佩戴率智能检测系统,其特征在于,所述微控制器连接待测区域的限流设备,根据待测区域口罩佩戴率与阈值的比较结果,通过限流设备启动限流操作。
8.根据权利要求6所述的密集人流口罩佩戴率智能检测系统,其特征在于,还包括预警单元,所述预警单元连接微控制器。
9.一种存储介质,其特征在于,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1~4中任一项所述的密集人流口罩佩戴率智能检测方法。
10.一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1~4中任一项所述的密集人流口罩佩戴率智能检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110177310.0A CN112883863A (zh) | 2021-02-07 | 2021-02-07 | 密集人流口罩佩戴率智能检测方法、系统、介质和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110177310.0A CN112883863A (zh) | 2021-02-07 | 2021-02-07 | 密集人流口罩佩戴率智能检测方法、系统、介质和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112883863A true CN112883863A (zh) | 2021-06-01 |
Family
ID=76056271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110177310.0A Pending CN112883863A (zh) | 2021-02-07 | 2021-02-07 | 密集人流口罩佩戴率智能检测方法、系统、介质和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883863A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642388A (zh) * | 2021-07-05 | 2021-11-12 | 南京信息工程大学滨江学院 | 一种基于YOLOv3改进的口罩佩戴智能检测方法 |
-
2021
- 2021-02-07 CN CN202110177310.0A patent/CN112883863A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642388A (zh) * | 2021-07-05 | 2021-11-12 | 南京信息工程大学滨江学院 | 一种基于YOLOv3改进的口罩佩戴智能检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112085010B (zh) | 一种基于图像识别的口罩检测和部署系统及方法 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN105868689A (zh) | 一种基于级联卷积神经网络的人脸遮挡检测方法 | |
US20120093362A1 (en) | Device and method for detecting specific object in sequence of images and video camera device | |
CN107358146A (zh) | 视频处理方法、装置及存储介质 | |
CN109002761A (zh) | 一种基于深度卷积神经网络的行人重识别监控系统 | |
CN110723432A (zh) | 垃圾分类的方法及增强现实设备 | |
CN107483894B (zh) | 基于场景判断实现客运管理的高铁车站视频监控系统 | |
CN111126293A (zh) | 一种火焰和烟雾异常情况检测方法及系统 | |
CN111353338B (zh) | 一种基于营业厅视频监控的能效改进方法 | |
CN105844245A (zh) | 一种伪装人脸检测方法及系统 | |
CN112784740B (zh) | 步态数据的采集与标注方法及应用 | |
CN111325133B (zh) | 一种基于人工智能识别的影像处理系统 | |
WO2019220589A1 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
CN111539338A (zh) | 行人口罩佩戴管控方法、装置、设备及计算机存储介质 | |
RU2713876C1 (ru) | Способ и система выявления тревожных событий при взаимодействии с устройством самообслуживания | |
CN110557628A (zh) | 一种检测摄像头遮挡的方法、装置及电子设备 | |
CN114187223A (zh) | 基于眼表特征的新冠肺炎疾病患者风险筛查深度学习系统 | |
RU2315352C2 (ru) | Способ и система для автоматического обнаружения трехмерных образов | |
CN108460319B (zh) | 异常人脸检测方法及装置 | |
CN112883863A (zh) | 密集人流口罩佩戴率智能检测方法、系统、介质和设备 | |
US11132778B2 (en) | Image analysis apparatus, image analysis method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |