CN111860160B - 一种室内检测口罩佩戴的方法 - Google Patents

一种室内检测口罩佩戴的方法 Download PDF

Info

Publication number
CN111860160B
CN111860160B CN202010549572.0A CN202010549572A CN111860160B CN 111860160 B CN111860160 B CN 111860160B CN 202010549572 A CN202010549572 A CN 202010549572A CN 111860160 B CN111860160 B CN 111860160B
Authority
CN
China
Prior art keywords
mask
model
target
detection
mask wearing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010549572.0A
Other languages
English (en)
Other versions
CN111860160A (zh
Inventor
李政谦
张丽
刘曙元
李志强
吉云
赵嘉伟
潘岚川
潘健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guoneng Xinkong Internet Technology Co Ltd
Original Assignee
Guoneng Xinkong Internet Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guoneng Xinkong Internet Technology Co Ltd filed Critical Guoneng Xinkong Internet Technology Co Ltd
Priority to CN202010549572.0A priority Critical patent/CN111860160B/zh
Publication of CN111860160A publication Critical patent/CN111860160A/zh
Application granted granted Critical
Publication of CN111860160B publication Critical patent/CN111860160B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种室内检测口罩佩戴的方法,包括:建立口罩佩戴检测数据集并训练改进的YOLOv3模型,获得口罩佩戴检测模型;实时获取监控区域的视频图片;使用口罩佩戴检测模型对获取的视频图片进行检测并判断是否存在目标;若不存在目标则返回获取监控区域的视频图片,否则判断目标类别与位置;若判断目标佩戴口罩则标注目标,否则发出提醒并标注目标;输出口罩佩戴检测模型标注后的图片。本申请能够实时检测视频信息中人员是否佩戴口罩,并有效降低因为人员行进速度快、物体遮挡、光线昏暗等复杂情况造成的漏检错检问题,具有检测速度快,检测准确率高等优点。

Description

一种室内检测口罩佩戴的方法
技术领域
本发明属于智能视频监控安全技术领域,涉及一种室内检测口罩佩戴的方法。
背景技术
新型冠状病毒主要通过呼吸道飞沫传播和接触传播。正确选择与佩戴口罩,可有效阻隔飞沫传播,既可保护自己不被他人传染,也是保护他人不被自己传染的有效措施。对于商场、办公室等室内场景,由于通风不畅,造成病毒更容易进行气溶胶传播,为了能够有效的抑制病毒传播,同时尽力减少人工监督成本,进行室内口罩佩戴检测成为众多企业共同选择的方法。
一般的目标检测方法仅需在图片上判断是否存在检测目标,并获得目标数量,标记目标位置。对于口罩佩戴检测算法,在此基础上还要求针对动态视频实时识别、深度优化,达到较高的识别跟踪精度;对光线、阴天等不同环境适应性强,且不受人员眼镜、胡须、发型、表情等遮挡影响;也不受到人员跑动、低头等不同姿态影响。
近年来,研究人员在基于传感器与基于图像处理等两种检测方式上对口罩佩戴检测做了很多具有创新性的研究工作。但存在定位精度不高、测速度慢、准确率低等问题使得其不适用于复杂性较高的场景,无法达到实际需求,基于深度学习的检测算法依靠其网络简单、检测速度快准确性高等特点超过传统检测算法,成为当前口罩佩戴检测方面的主流算法。
YOLOv3网络结构由骨架网络darknet53和检测网络两部分组成,分别用作特征提取及多尺度预测。其中Darknet53由卷积层和残差层构成。同时为了提升网络性能,每层卷积后都添加了批量归一化层BN和线性单元leakyRelu。添加BN层可以加快训练的收敛速度,而使用leakyRelu形式的激活函数可以避免深层网络梯度消失的现象。YOLOv3的多尺度预测将在大小为52*52、26*26、13*13的特征图上进行,但在特征图输出预测结果之前,先进行特征融合操作,将高语义低分辨率、低语义高分辨率的特征拼接在一起,使得高分辨的特征也包含丰富的语义信息。
但对于具体室内场景,YOLOv3模型及相关参数不能达到很高的检测效果,需要针对室内场景制定更有针对性的改进模型及检测策略,同时使用更优秀的图像增强方法、正则化方法、交并比损失、激活函数与损失函数来进一步提高检测mAP,其中,mAP:平均准确率均值,mean average precision,简称mAP。
发明内容
为解决现有技术中的不足,本申请提供一种室内检测口罩佩戴的方法。
为了实现上述目标,本申请采用如下技术方案:
一种室内检测口罩佩戴的方法,所述方法包括以下步骤:
S1:建立口罩佩戴检测数据集并训练改进的YOLOv3模型,获得口罩佩戴检测模型;
S2:实时获取监控区域的视频图片;
S3:使用口罩佩戴检测模型对步骤S2获取的视频图片进行检测并判断是否存在目标;
S4:若不存在目标则返回步骤S2,否则获取目标位置,并判断目标类别,即目标是否佩戴口罩;
若判断目标佩戴口罩则标注目标,否则发出提醒并标注目标;
S7:输出口罩佩戴检测模型标注后的图片。
本发明进一步包括以下优选方案:
优选地,所述步骤S1具体包括以下步骤:
S11:获取监控区域的视频图片,形成口罩佩戴检测数据集;
S12:对口罩佩戴检测数据集图片中人是否佩戴口罩进行标注,并将其随机划分为训练集与测试集;
S13:根据口罩佩戴检测数据集生成其对应的适用于监控区域的锚框;
S14:使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型;
S15:调整口罩佩戴检测模型置信度,输出检测结果最优的口罩佩戴检测模型。
优选地,步骤S12中,使用图像标注软件对图像进行标注,其中被标注部分作为正样本,未标注部分作为负样本。
优选地,步骤S13中,使用聚类方法生成锚框,聚类中距离度量方法为IOU距离,计算公式为:
D=1-IOU(box,clusters)
D为预测框与真实框的距离,box为标注框,clusters为聚类数目。
其中,IOU:交并比,Intersection-over-Union,简称IOU。
优选地,步骤S14具体包括以下步骤;
S14.1:将训练集中的图片统一调整到改进的YOLOv3模型的输入图片尺寸;
S14.2:对经过步骤S14.1调整尺寸后的图片进行图像增强处理;
S14.3:设定迭代次数、每一批训练的图像张数、初始学习率以及学习率更新规则;
S14.4:使用图像增强处理后的图片训练改进的YOLOv3模型;
S14.5:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
优选地,步骤S14.2中,采用mosaic图像增强,并采用CmBN(Cross mini-BatchNormalization)作为归一化方式进行归一化处理。
优选地,步骤S14中,在训练时,采用GIOU-LOSS作为交并比损失函数,损失函数公式为;
其中,A为预测边框,B为实际边框,C是A与B两个框的最小闭包区域面积;
采用GHM-C作为损失函数,损失函数公式为:
其中,βi是梯度密度的倒数,LCE为二分类交叉熵损失函数,N是样本总数,yi为预测概率,为实际概率;
采用Mish作为激活函数,激活函数公式为:
f(x)=x·tanh(softplus(x))=x·tanh(ln(1+ex))。
优选地,步骤S15中设置口罩佩戴检测模型置信度为0.6。
优选地,步骤S2中,采用的是opencv中VideoCapture方法实时获取监控区域的摄像头视频图片。
优选地,所述改进的YOLOv3模型,其输入尺寸为672*672;
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
改进的YOLOv3模型包括第一YOLO层和第二YOLO层,分别位于第89层、第101层;
步骤S14中改进后的YOLOv3模型中第一YOLO层和第二YOLO层生成锚框数均为4个,以提高尺寸在32*32以上目标的检测精度;
改进的YOLOv3模型的第88层及第100层均有28个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取4,代表锚框数量;
改进后YOLOv3模型中第一YOLO层和第二YOLO层的特征图大小分别为21*21,42*42。
本申请所达到的有益效果:
1.本申请能够实时检测视频信息中人员是否佩戴口罩,并有效降低因为人员行进速度快、物体遮挡、光线昏暗等复杂情况造成的漏检错检问题,具有检测速度快,检测准确率高等优点;
2.本申请改进的YOLOv3模型根据数据集得到锚框,该锚框值更加适合现场场景;输入图片大小为672*672,更大的像素尺寸提高了信息量,模型更加精确;由于室内目标较大,很少存在小目标检测,因此本发明去掉了第三个YOLO层,并将前两个YOLO层的锚框增加到了四个,提高了检测速度和准确率;使用GHM-C解决了类别不平衡问题,使用MISH激活函数避免了数值过大的饱和问题,同时更平滑的梯度获得比SWISH激活函数更好的效果;使用GIOU损失优化了单纯IOU模型中不存在交集时无法反应预测框与真实框距离的缺点;使用mosaic图像增强增加了图像识别难度,提高模型在遇见遮挡等复杂场景时的检测能力;使用CmBN归一化方式降低了模型对训练所需机器的需求,使模型能够更广泛的应用。通过以上改进使模型适应室内场景并提高了模型实际应用的准确率、召回率及mAP。
附图说明
图1是本申请一种室内检测口罩佩戴的方法的流程图;
图2是本申请口罩佩戴检测模型的获取方法流程图;
图3是本申请改进的YOLOv3模型网络结构图。
具体实施方式
下面结合附图对本申请作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本申请的保护范围。
如图1所示,本申请的一种室内检测口罩佩戴的方法,所述方法包括以下步骤:
S1:建立口罩佩戴检测数据集并训练改进的YOLOv3模型,获得口罩佩戴检测模型;
如图2所示,步骤S1具体包括以下步骤:
S11:在现场利用摄像头采集图片,获取监控区域的视频图片,形成口罩佩戴检测数据集;
本申请具体实施例时,采集到的视频图片不限于尺度、样式、颜色及是否存在遮挡。
S12:对口罩佩戴检测数据集图片中人是否佩戴口罩进行标注,并将其按照6:1的比例随机划分为训练集与测试集;
本申请实施例中,使用图像标注软件对图像进行标注,其中被标注部分作为正样本,未标注部分作为负样本,即背景类。
可以使用任意图像标注软件对对口罩佩戴检测数据集中人物是否佩戴口罩人工逐一标注,例如但不限于,Labelme、labelImg或yolo_mark。
S13:根据口罩佩戴检测数据集生成其对应的适用于监控区域的锚框;根据数据集得到锚框,该锚框值更加适合现场场景;
具体的,使用聚类方法生成锚框,聚类中距离度量方法为IOU距离,计算公式为:
D=1-IOU(box,clusters)
D为预测框与真实框的距离,box为标注框,clusters为聚类数目。
锚框数量根据现场实际场景自行设定,根据数据集得到锚框,该锚框值更加适合现场场景,在本申请实施例中,设定锚框数目为8个,在输入为672*672的改进的YOLOv3模型中具体为:
[38,46],[51,68],[65,83],[88,101],[106,114],[153,188],[198,208],[263,343]。
S14:使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型;具体包括以下步骤;
S14.1:将训练集中的图片统一调整到改进的YOLOv3模型的输入图片尺寸;
S14.2:对经过步骤S14.1调整尺寸后的图片进行图像增强处理;
本申请实施例中,采用mosaic图像增强,并采用CmBN作为归一化方式进行归一化处理。
S14.3:设定迭代次数、每一批训练的图像张数、初始学习率以及学习率更新规则;
设定迭代次数(epoch)为20000次,每一批(bitch_size)16张图像,初始学习率为0.001,连续500次没有更优结果则将学习率更新为原学习率的0.3倍;
S14.4:使用图像增强处理后的图片训练改进的YOLOv3模型;
在训练时,采用GIOU-LOSS作为交并比损失函数,损失函数公式为;
其中A为预测边框,B为实际边框,C是A与B两个框的最小闭包区域面积;
采用GHM-C作为损失函数,损失函数公式为:
其中,βi是梯度密度的倒数,LCE为二分类交叉熵损失函数,N是样本总数,yi为预测概率,为实际概率;
采用Mish作为激活函数,激活函数公式为:
f(x)=x·tanh(softplus(x))=x·tanh(ln(1+ex))。
S14.5:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
S15:通过在测试集内使用不同的置信度进行多次测试,调整口罩佩戴检测模型置信度提高检测精度,输出检测结果最优的口罩佩戴检测模型。即先获得最高检测精度的模型,然后以这个模型为基础调整置信度,获得最终应用模型。
本申请实施例中,设置口罩佩戴检测模型置信度为0.6。大于该置信度会导致模型召回率降低,很多应该检测到的样本没有检测。小于该置信度会导致模型的准确率降低,很多不该检测到的样本被检测出来。一个调整完善的置信度能够使召回率与准确率达到平衡,获得最优mAP。
如图3所示,所述改进的YOLOv3模型,其输入尺寸为672*672;更大的像素尺寸提高了信息量,模型更加精确。
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
改进的YOLOv3模型去掉了特征图尺寸为84*84的连接通路,以减少计算量,提高检测速度。
改进的YOLOv3模型包括第一YOLO层和第二YOLO层,分别位于第89层、第101层;
步骤S14中改进后的YOLOv3模型中第一YOLO层和第二YOLO层生成锚框数均为4个,以提高尺寸在32*32以上目标的检测精度;
改进的YOLOv3模型的第88层及第100层均有28个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取4,代表锚框数量,层数不同对应锚框不同;
改进后YOLOv3模型中第一YOLO层和第二YOLO层的特征图大小分别为21*21,42*42。
S2:实时获取监控区域的视频图片;
本申请实施例中,采用的是opencv中VideoCapture方法实时获取监控区域的视频图片。
S3:使用口罩佩戴检测模型对步骤S2获取的视频图片进行检测并判断是否存在目标;
口罩佩戴检测模型通过pytorch中load_state_dict方式加载,其保存形式为.pt文件。
S4:若不存在目标则返回步骤S2,否则获取目标位置,并判断目标类别,即目标是否佩戴口罩;即检测模型会进行分类与回归,分类是将图片分为正样本还是负样本(背景类),回归是获得预测点的位置;
若判断目标佩戴口罩则标注目标,否则发出提醒并标注目标;
本申请具体实施时,对于佩戴口罩的目标,可使用绿色矩形框标注,且标有Mask字样,对于未佩戴口罩的目标,可使用红色矩形框标注,并标有No_Mask字样。
S7:输出口罩佩戴检测模型标注后的图片。
本发明通过收集并标注现场视频信息获得口罩佩戴检测数据集,通过使用聚类算法获得该数据集对应的适用于该实际应用的锚框,通过修改输入图片尺寸、更改卷积核数、输出特征图尺寸、各YOLO层锚框数、修改图像增强方法、正则化方法、交并比损失、激活函数与损失函数方法使训练处的模型能够适应现场的复杂场景并提高了模型在实际应用的准确率、召回率及mAP。有助于提高相关人员防范意识,有效规范口罩佩戴情况,帮助商场、企业的生产有序开展。
本发明申请人结合说明书附图对本发明的实施示例做了详细的说明与描述,但是本领域技术人员应该理解,以上实施示例仅为本发明的优选实施方案,详尽的说明只是为了帮助读者更好地理解本发明精神,而并非对本发明保护范围的限制,相反,任何基于本发明的发明精神所作的任何改进或修饰都应当落在本发明的保护范围之内。

Claims (7)

1.一种室内检测口罩佩戴的方法,其特征在于:
所述方法包括以下步骤:
S1:建立口罩佩戴检测数据集并训练改进的YOLOv3模型,获得口罩佩戴检测模型;具体包括以下步骤:
S11:获取监控区域的视频图片,形成口罩佩戴检测数据集;
S12:对口罩佩戴检测数据集图片中人是否佩戴口罩进行标注,并将其随机划分为训练集与测试集;
S13:根据口罩佩戴检测数据集生成其对应的适用于监控区域的锚框;
S14:使用训练集训练改进的YOLOv3模型,使用测试集测试每一代训练后改进的YOLOv3模型,获得口罩佩戴检测模型;
所述改进的YOLOv3模型,其输入尺寸为672*672;
所述改进的YOLOv3模型分为2个类别,一类佩戴口罩的标注为Mask,未佩戴口罩的标注为No_Mask;
改进的YOLOv3模型包括第一YOLO层和第二YOLO层,分别位于第89层、第101层;
第一YOLO层和第二YOLO层生成锚框数均为4个,以提高尺寸在32*32以上目标的检测精度;
改进的YOLOv3模型的第88层及第100层均有28个特征图,特征图数量计算公式为:
filters=(classes+5)*anchors
其中,classes取2,代表模型类别数量,anchors取4,代表锚框数量;
第一YOLO层和第二YOLO层的特征图大小分别为21*21,42*42;
S15:调整口罩佩戴检测模型置信度,输出检测结果最优的口罩佩戴检测模型;
S2:实时获取监控区域的视频图片;
S3:使用口罩佩戴检测模型对步骤S2获取的视频图片进行检测并判断是否存在目标;
S4:若不存在目标则返回步骤S2,否则获取目标位置,并判断目标类别,即目标是否佩戴口罩;
若判断目标佩戴口罩则标注目标,否则发出提醒并标注目标;
S7:输出口罩佩戴检测模型标注后的图片。
2.根据权利要求1所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S12中,使用图像标注软件对图像进行标注,其中被标注部分作为正样本,未标注部分作为负样本。
3.根据权利要求1所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S14具体包括以下步骤;
S14.1:将训练集中的图片统一调整到改进的YOLOv3模型的输入图片尺寸;
S14.2:对经过步骤S14.1调整尺寸后的图片进行图像增强处理;
S14.3:设定迭代次数、每一批训练的图像张数、初始学习率以及学习率更新规则;
S14.4:使用图像增强处理后的图片训练改进的YOLOv3模型;
S14.5:使用测试集检测每一代训练后改进的YOLOv3模型的mAP,选取其中mAP最高的改进的YOLOv3模型作为口罩佩戴检测模型。
4.根据权利要求3所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S14.2中,采用mosaic图像增强,并采用CmBN作为归一化方式进行归一化处理。
5.根据权利要求1所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S14中,在训练时,采用GIOU-LOSS作为交并比损失函数,损失函数公式为;
其中,A为预测边框,B为实际边框,C是A与B两个框的最小闭包区域面积;
采用GHM-C作为分类损失函数,分类损失函数公式为:
其中,βi是梯度密度的倒数,LCE为二分类交叉熵损失函数,N是样本总数,yi为预测概率,为实际概率;
采用Mish作为激活函数,激活函数公式为:
f(x)=x·tanh(softplus(x))=x·tanh(ln(1+ex))。
6.根据权利要求1所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S15中设置口罩佩戴检测模型置信度为0.6。
7.根据权利要求1所述的一种室内检测口罩佩戴的方法,其特征在于:
步骤S2中,采用的是opencv中VideoCapture方法实时获取监控区域的摄像头视频图片。
CN202010549572.0A 2020-06-16 2020-06-16 一种室内检测口罩佩戴的方法 Active CN111860160B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010549572.0A CN111860160B (zh) 2020-06-16 2020-06-16 一种室内检测口罩佩戴的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010549572.0A CN111860160B (zh) 2020-06-16 2020-06-16 一种室内检测口罩佩戴的方法

Publications (2)

Publication Number Publication Date
CN111860160A CN111860160A (zh) 2020-10-30
CN111860160B true CN111860160B (zh) 2023-12-12

Family

ID=72987584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010549572.0A Active CN111860160B (zh) 2020-06-16 2020-06-16 一种室内检测口罩佩戴的方法

Country Status (1)

Country Link
CN (1) CN111860160B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395967A (zh) * 2020-11-11 2021-02-23 华中科技大学 一种口罩佩戴监测方法、电子设备和可读存储介质
CN113139437B (zh) * 2021-03-31 2022-09-20 成都飞机工业(集团)有限责任公司 一种基于YOLOv3算法的安全帽佩戴检查方法
CN115529836A (zh) * 2021-04-09 2022-12-27 鸿富锦精密工业(武汉)有限公司 检测口罩人脸识别方法、装置及计算机存储介质
CN113362299B (zh) * 2021-06-03 2023-09-12 南通大学 一种基于改进YOLOv4的X光安检图像检测方法
CN113486715A (zh) * 2021-06-04 2021-10-08 广州图匠数据科技有限公司 图像翻拍识别方法、智能终端以及计算机存储介质
CN113553922A (zh) * 2021-07-05 2021-10-26 安徽中医药大学 一种基于改进型卷积神经网络口罩佩戴状态检测方法
CN113792629B (zh) * 2021-08-31 2023-07-18 华南理工大学 一种基于深度神经网络的安全帽佩戴检测方法及系统
CN114241548A (zh) * 2021-11-22 2022-03-25 电子科技大学 一种基于改进YOLOv5的小目标检测算法
CN114387484B (zh) * 2022-01-11 2024-04-16 华南农业大学 一种基于yolov4改进的口罩佩戴检测方法及系统
CN114821388A (zh) * 2022-03-10 2022-07-29 慧之安信息技术股份有限公司 基于边缘计算的室内口罩检测方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158156A (ja) * 2015-02-25 2016-09-01 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
CN109684803A (zh) * 2018-12-19 2019-04-26 西安电子科技大学 基于手势滑动的人机验证方法
CN110070074A (zh) * 2019-05-07 2019-07-30 安徽工业大学 一种构建行人检测模型的方法
CN110766098A (zh) * 2019-11-07 2020-02-07 中国石油大学(华东) 基于改进YOLOv3的交通场景小目标检测方法
CN111027493A (zh) * 2019-12-13 2020-04-17 电子科技大学 一种基于深度学习多网络软融合的行人检测方法
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111222474A (zh) * 2020-01-09 2020-06-02 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111274970A (zh) * 2020-01-21 2020-06-12 南京航空航天大学 一种基于改进YOLO v3算法的交通标志检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158156A (ja) * 2015-02-25 2016-09-01 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
CN109684803A (zh) * 2018-12-19 2019-04-26 西安电子科技大学 基于手势滑动的人机验证方法
CN110070074A (zh) * 2019-05-07 2019-07-30 安徽工业大学 一种构建行人检测模型的方法
CN110766098A (zh) * 2019-11-07 2020-02-07 中国石油大学(华东) 基于改进YOLOv3的交通场景小目标检测方法
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111027493A (zh) * 2019-12-13 2020-04-17 电子科技大学 一种基于深度学习多网络软融合的行人检测方法
CN111222474A (zh) * 2020-01-09 2020-06-02 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111274970A (zh) * 2020-01-21 2020-06-12 南京航空航天大学 一种基于改进YOLO v3算法的交通标志检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YOLOv4:Optimal Speed and Accuracy of Object Detection;Alexey Bochkovskiy等;《arXiv》;第1-17页 *
基于YOLO-v3网络的自然场景文本检测识别系统;范晟华;《万方数据库》;第1-56页 *
基于优化YOLOv3算法的违章车辆检测方法[J/OL];刘朔等;《重庆理工大学学报(自然科学)》;第1-8页 *
基于迁移学习与RetinaNet的口罩佩戴检测的方法;邓黄潇;《电子技术与软件工程》(第05期);第209-211页 *

Also Published As

Publication number Publication date
CN111860160A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111860160B (zh) 一种室内检测口罩佩戴的方法
CN111881730A (zh) 一种火电厂现场安全帽佩戴检测方法
CN111414887B (zh) 基于yolov3算法的二次检测口罩人脸识别方法
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
CN107134144B (zh) 一种用于交通监控的车辆检测方法
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN113807276B (zh) 基于优化的YOLOv4模型的吸烟行为识别方法
CN110135269B (zh) 一种基于混合颜色模型与神经网络的火灾图像检测方法
CN111898406B (zh) 基于焦点损失和多任务级联的人脸检测方法
CN108537215A (zh) 一种基于图像目标检测的火焰检测方法
CN111723654A (zh) 基于背景建模、YOLOv3与自优化的高空抛物检测方法及装置
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN107944403A (zh) 一种图像中的行人属性检测方法及装置
CN111476314A (zh) 一种融合光流算法与深度学习的模糊视频检测方法
CN115100497A (zh) 基于机器人的通道异常物体巡检方法、装置、设备及介质
CN111540203B (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN115631407A (zh) 基于事件相机与彩色帧图像融合的水下透明生物检测
WO2023070955A1 (zh) 一种基于计算机视觉的港口作业区微小目标检测方法和装置
CN114187664B (zh) 一种基于人工智能的跳绳计数系统
CN111862408B (zh) 一种智能门禁控制方法
CN114155551A (zh) 基于YOLOv3改进的复杂环境下的行人检测方法及装置
TW202020724A (zh) 影像適應性特徵提取法及其應用
CN117475353A (zh) 基于视频的异常烟雾识别方法及系统
CN117274907A (zh) 一种基于YOLOv5算法改进的烟火检测方法
CN112183287A (zh) 一种移动机器人在复杂背景下的人数统计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 618 and 619, 6th floor, building 301, Guodian New Energy Institute, No. 9, Yingcai North 2nd Street, future science and Technology City, Changping District, Beijing 102209

Applicant after: Guoneng xinkong Internet Technology Co.,Ltd.

Address before: Building 1, yard 16, West Fourth Ring Middle Road, Haidian District, Beijing 100039

Applicant before: BEIJING HUADIAN TIANREN ELECTRIC POWER CONTROL TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant