CN115457469A - 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法 - Google Patents

一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法 Download PDF

Info

Publication number
CN115457469A
CN115457469A CN202211103447.2A CN202211103447A CN115457469A CN 115457469 A CN115457469 A CN 115457469A CN 202211103447 A CN202211103447 A CN 202211103447A CN 115457469 A CN115457469 A CN 115457469A
Authority
CN
China
Prior art keywords
mask
image
improved
safety helmet
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211103447.2A
Other languages
English (en)
Inventor
杨群
冯广
刘云海
罗时强
吴晓婷
岑锐强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202211103447.2A priority Critical patent/CN115457469A/zh
Publication of CN115457469A publication Critical patent/CN115457469A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及目标检测技术领域,具体涉及一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,包括以下步骤:S1、获取图像,并利用LabelImg进行标注,构建数据集;S2、利用Enlighten GAN算法进行预处理;S3、将预处理的图像按照4:1划分成训练集和测试集;S4、构建改进的YOLOv5s‑6.1网络模型,将主干网络替换成Mobilenetv3来进行特征提取;本发明通过结合Enlighten GAN算法,在可见度低、光线条件弱的环境下对建筑工地工作人员同时佩戴口罩和安全帽实时检测,而且可以满足网络参数量减少、检测速度和准确率提高的要求。

Description

一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法
技术领域
本发明涉及目标检测技术领域,具体涉及一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法。
背景技术
在疫情期间,人们在日常生活中逐渐意识到佩戴口罩的重要性,而在房屋建设工地、井下矿工等危险作业活动区域,佩戴安全帽是安全规范的要求。于是在特定环境下进行建筑施工或建筑检测作业,作业人员佩戴安全帽和口罩是标配。比如在密闭的门窗幕墙施工和检测现场,如果没有佩戴安全帽和口罩,将会造成严重的安全隐患和疫情的传播风险。因此,为了确保工作人员的生命安全,同时检测口罩和安全帽佩戴的问题应运而生。
近年来,很多研究学者发布了大量基于人工智能的目标识别检测算法。针对口罩佩戴的检测主要采用人脸检测算法,例如:牛作东等采用改进retinaface算法,通过人脸关键的三位分析,提高了口罩佩戴的检测速度。由于复杂场景中目标遮挡、人群密集、小尺度等问题,造成使用目标检测算法检测是否佩戴口罩的效果并不理想。而对于安全帽佩戴的检测研究主要采用基于深度学习的目标检测模型,通过训练和优化各种深度学习模型算法来实现图像特征提取,获得安全帽的颜色、形状及佩戴是否正确等信息。
Girshick等人提出的区域卷积神经网络(R-CNN)、快速区域卷积神经网络(FastR-CNN)和超快区域卷积神经网络(Faster R-CNN)大大提高了检测速度;Liu等人提出的端到端多尺度检测算法SSD(Single ShotMultiBox Detector),在检测精度和检测时间上取得了良好的效果;Redmon等人提出了YOLOv1、v2、v3检测算法,YOLOv3由于融合了不同的特征尺度,可分别进行检测,再加上检测效率、精确性的优势,适合应用在工程中多种不同小目标的同时检测上;Alexey Bochkovskiy等人和Glenn Jocher等人分别提出YOLOv4、YOLOv5检测算法。YOLOv4在YOLOv3网络的基础上,在Backbone部分将Darknet53中引入CSP模块,在Neck部分采用了SPP模块和PAN模块结合,改进的部分在保证网络性能相对稳定的前提下,减少了网络的计算量,也在一定程度上解决目标多尺度问题。相比于YOLOv4,YOLOv5网络在Neck部分做了较大的改进,将SPP模块换成SPPF模块,使得算法的计算速度大大提升,检测效率更高。目前,YOLOv5网络已经更新至6.1版本,网络结构有了进一步优化,网络不但有了更快的计算速度,也有更好的稳定性能。
于是本发明将改进的YOLOv5s-6.1网络与Enlighten GAN算法相结合,针对可见度低、光线条件弱的环境下对建筑工地工作人员是否同时佩戴口罩和安全帽的问题进行实时检测,在降低网络参数量的同时,提高检测速度和准确率,并对疫情防控工作和维护公共卫生安全具有重要的现实意义。
综上所述,研发一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,仍是目标检测技术领域中急需解决的关键问题。
发明内容
针对现有技术所存在的上述缺点,本发明在于提供一种基于改进YOLOv5s-6.1的口罩和安全帽佩戴同时检测方法,结合Enlighten GAN算法,在可见度低、光线条件弱的环境下对建筑工地工作人员同时佩戴口罩和安全帽实时检测,而且可以满足网络参数量减少、检测速度和准确率提高的要求。
为实现上述目的,本发明提供了如下技术方案:
本发明提供了一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,包括以下步骤:
步骤1、获取图像,并利用LabelImg进行标注,构建数据集;
S2、利用Enlighten GAN算法进行预处理;
S3、将预处理的图像按照4:1划分成训练集和测试集;
S4、构建改进的YOLOv5s-6.1网络模型,将主干网络替换成Mobilenetv3来进行特征提取;
S5、将数据集送入改进后的YOLOv5s-6.1网络模型进行训练和测试,得到口罩和安全帽佩戴同时检测模型;
S6、将待检测图像输入检测模型中,将最优权重参数保存,并在detect中进行检测。
本发明进一步的设置为:在步骤S1中,通过YouTube和bilibili收集一份口罩和安全帽佩戴数据集,用于获取图像,使用LabelImg对图像进行标注,标注后的文件以.xml为后缀,之后再转成.txt后缀的格式。
本发明进一步的设置为:在步骤S2中,将数据集的图像采用Enlighten GAN算法进行预处理,消除图像中无关的信息,恢复有用的真实信息。
本发明进一步的设置为:在步骤S4中,在特征提取前,设置CBAM注意力机制加强对检测目标的关注,且设置EIOU Loss替代YOLOv5s-6.1网络中定位损失函数GIOU Loss,不仅能加速函数收敛、提高回归精度,而且引入的Focal Loss优化了边界框回归任务中的样本不平衡问题,使回归过程专注于高质量锚框。
本发明进一步的设置为:在步骤S4中,Mobilenetv3引入了深度可分离卷积作为传统卷积层的有效替代,减少计算量,深度可分离卷积通过将空间滤波与特征生成机制分离。
本发明进一步的设置为:在步骤S4中,Mobilenetv3在网络尾部结构中,将平均池化前的层移除,用1*1卷积来计算特征图,并设置h-swish激活函数,将网络头部channel降低到16个,并且提速2ms,且引入了新的非线性h-swish激活函数,加入SE注意力机制,主要操作针对每一个channel进行池化处理,就得到channel个数个元素,再通过两个全连接层,得到输出向量,CBAM包括通道注意力模块和空间注意力模块两个独立的子模块。
本发明进一步的设置为:在步骤S5中,将图像送入改进后的YOLOv5s-6.1网络中进行训练,生成检测模型。
本发明进一步的设置为:在步骤S5中,检测模型对预处理的图像中人物是否佩戴安全帽和口罩进行标记,通过detect对其图像中人物没有佩戴口罩和安全帽时,会用bad的标签标记,当图像中人物当时佩戴口罩和安全帽时,用good的标签标记,当图像中人物只佩戴了口罩或者安全帽时,则分别用mask和hat标记。
本发明进一步的设置为:h-swish激活函数的表达公式为:
Figure BDA0003841542270000041
ReLU=min(6,max(0,z)),式中,ReLU为激活函数,z为输入值。
有益效果
采用本发明提供的技术方案,与已知的公有技术相比,具有如下有益效果:
1、本发明采用轻量级MobileNetv3网络代替YOLOv5s-6.1的骨干网络,大幅度地减少了模型的计算量,降低了网络的参数量。
2、本发明引入注意力机制作用在特征图上,更有利地提取特征图上的可用信息,达到更好的训练效果,由于CBAM模型在通道注意力模块中加入了全局最大池化操作,它能在一定程度上弥补全局平均池化所丢失的信息。其次,生成的二维空间注意力图使用卷积核大小为7的卷积层进行编码,较大的卷积核对于保留重要的空间区域有良好的帮助,使得网网络模型能更为精准地定位目标所在的位置。
3、本发明采用Focal-EIOU Loss作为目标框回归函数,明确地测量了重叠面积、中心点距离、预测的宽高分别与最小外接框宽高的差值,在CIOU损失的基础上加速了函数收敛、提高了回归精度,同时优化了边界框回归任务中的样本不平衡问题。
4、本发明采用Enlighten GAN图像增强算法对数据集进行预处理,满足在可见度低、光照条件弱的场景中进行口罩和安全帽佩戴检测的需求。
附图说明
图1为本发明一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法的流程图。
图2为本发明一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法的MobileNetv3网络结构图。
图3为本发明一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法的CBAM结构图。
图4为本发明一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法的Enlighten GAN网络结构图。
图5A为图像未处理效果图。
图5B为5A的图像预处理效果图。
图5C为图像未处理效果图。
图5D为5C的图像预处理效果图。
图5E为图像未处理效果图。
图5F为5E的图像预处理效果图。
图5G为图像未处理效果图。
图5H为5G的图像预处理效果图。
图6为模型检测结果图。
图7为模型检测结果图。
图8为模型检测结果图。
图9为模型检测结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合实施例对本发明作进一步的描述。
实施例:
参照图1-9所示,本发明提供了一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,包括以下步骤:
步骤1、获取图像,并利用LabelImg进行标注,构建数据集。
进一步的,通过YouTube和bilibili收集一份口罩和安全帽佩戴数据集,用于获取图像,使用LabelImg对图像进行标注,标注后的文件以.xml为后缀,之后再转成.txt后缀的格式。
在本实施例中,通过YouTube和bilibili收集一份口罩和安全帽佩戴数据集,共11517张图,其中:戴有安全帽的图2393张,主要为建筑工地工作人员佩戴环境;戴有口罩的图4935张,主要为口罩佩戴展示及公共场所行人佩戴环境;同时戴有安全帽和口罩的对比图2653张,主要为疫情期间建筑工地工作人员佩戴;未佩戴两者的对比图1536张,使用LabelImg对图像进行标注,标注后的文件以.xml为后缀,之后再转成.txt后缀的格式,方便了解每张图像的详细信息。
步骤2、利用Enlighten GAN算法进行预处理。
进一步的,如图5A-图5G所示,将数据集的图像采用Enlighten GAN算法进行预处理,消除图像中无关的信息,恢复有用的真实信息。
在本实施例中,将数据集的图像采用Enlighten GAN算法进行预处理,可将非配对训练引入低光图像增强的高效无监督的生成对抗网络,消除了对成对训练数据的依赖,使得可以使用来自不同领域的更多场景的图像进行训练,保证了增强图像的所有局部区域看起来都像真实的自然光;以U-Net网络作为生成器的骨干网络,加入注意力机制使得对暗区域的增强大于对亮区域的增强,通过Enlighten GAN对图像的预处理,消除图像中无关的信息,恢复有用的真实信息,增强有关信息的可检测性,最大限度地简化数据,从而提升了特征提取和目标识别的可靠性。
步骤3、将预处理的图像按照4:1划分成训练集和测试集。
在本实施例中,将收集的图像按照4:1划分成训练集和测试集,通过训练集方便后续对检测模型进行网络训练,并通过测试集对检测模型中detect进行测试。
步骤4、构建改进的YOLOv5s-6.1网络模型,将主干网络替换成Mobilenetv3来进行特征提取。
进一步的,在特征提取前,设置CBAM注意力机制加强对检测目标的关注,且设置EIOU Loss替代YOLOv5s-6.1网络中定位损失函数GIOU Loss,不仅能加速函数收敛、提高回归精度,而且引入的Focal Loss优化了边界框回归任务中的样本不平衡问题,使回归过程专注于高质量锚框。
更进一步的,Mobilenetv3引入了深度可分离卷积作为传统卷积层的有效替代,减少计算量,深度可分离卷积通过将空间滤波与特征生成机制分离。
更进一步的,Mobilenetv3在网络尾部结构中,将平均池化前的层移除,用1*1卷积来计算特征图,并设置h-swish激活函数,将网络头部channel降低到16个,并且提速2ms,且引入了新的非线性h-swish激活函数,加入SE注意力机制,主要操作针对每一个channel进行池化处理,就得到channel个数个元素,再通过两个全连接层,得到输出向量。
更进一步的,CBAM包括通道注意力模块和空间注意力模块两个独立的子模块。
更进一步的,h-swish激活函数的表达公式为:
Figure BDA0003841542270000081
ReLU=min(6,max(0,z)),式中,ReLU为激活函数,z为输入值。
在本实施例中,引入注意力机制作用在特征图上,更有利地提取特征图上的可用信息,达到更好的训练效果,由于CBAM模型在通道注意力模块中加入了全局最大池化操作,它能在一定程度上弥补全局平均池化所丢失的信息。其次,生成的二维空间注意力图使用卷积核大小为7的卷积层进行编码,较大的卷积核对于保留重要的空间区域有良好的帮助,使得网网络模型能更为精准地定位目标所在的位置,通道注意力模块利用特征间的通道关系来生成通道注意图,即采用压缩输入特征映射的空间维度的方法,再经过最大值池化和均值池化,有效地计算出通道注意力图;空间注意力模块利用特征间的空间关系生成空间注意图,即先使用最大值池化和均值池化操作聚合一个feature map的通道信息,生成两个2D maps,然后利用一个标准的卷积层进行连接和卷积操作,得到二维空间注意力图。这样既能够减少参数量和计算量,又保证了其能够作为即插即用的模块集成到现有的网络架构之中,YOLOv5s-6.1网络中定位损失函数采用的是GIoU Loss。GIoU Loss是IoU Loss的改进版,用于预测框与标定框之间的误差,但其在检测框和真实框出现包含现象时退化为IoU,在两框相交时在水平和垂直方向上收敛速度慢。因此相比于GIoU Loss,EIOU Loss同时考虑重叠损失、中心距离损失和纵横比损失,并将纵横比的损失项拆分成预测的宽高分别与最小外接框宽高的差值,加速收敛、提高回归精度,又引入Focal Loss优化了边界框回归任务中的样本不平衡问题,其中MobileNetv3拥有更准确,更高效,参数量更少,实时性更高的特点,使用h-swish激活函数,将网络头部channel降低到16个,并且提速2ms。引入了新的非线性h-swish激活函数,使得网络计算速度更快,对量化更友好,加入SE注意力机制。主要操作是针对每一个channel进行池化处理,就得到channel个数个元素,再通过两个全连接层,得到输出向量,其中采用Focal-EIOU Loss作为目标框回归函数,明确地测量了重叠面积、中心点距离、预测的宽高分别与最小外接框宽高的差值,在CIOU损失的基础上加速了函数收敛、提高了回归精度,同时优化了边界框回归任务中的样本不平衡问题。
步骤5、将数据集送入改进后的YOLOv5s-6.1网络模型进行训练和测试,得到口罩和安全帽佩戴同时检测模型。
进一步的,将图像送入改进后的YOLOv5s-6.1网络中进行训练,生成检测模型。
在本实施例中,将步骤3中训练集的图像送入改进后的YOLOv5s-6.1网络中进行训练,生成检测模型。
步骤6、将待检测图像输入检测模型中,将最优权重参数保存,并在detect中进行检测。
进一步的,如图6-图9检测模型对预处理的图像中人物是否佩戴安全帽和口罩进行标记,通过detect对其图像中人物没有佩戴口罩和安全帽时,会用bad的标签标记,当图像中人物当时佩戴口罩和安全帽时,用good的标签标记,当图像中人物只佩戴了口罩或者安全帽时,则分别用mask和hat标记。
在本实施例中,改进的YOLOv5s-6.1网络模型的检测速度与原YOLOv5s的检测速度相近,检测结果更好。
本发明首先通过构建数据集,使用LabelImg对图像进行标注,标注后的文件以.xml为后缀,之后再转成.txt后缀的格式,这样更方便了解每张图像的详细信息;然后将数据集的图像采用Enlighten GAN算法进行预处理,并按照4:1的比例划分成训练集和测试集;接着将图像送入改进后的YOLOv5s-6.1网络中进行训练,生成检测模型;最后将检测模型的最优权重参数保存并在detect中进行检测,输出检测结果。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不会使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,包括以下步骤:
S1、获取图像,并利用LabelImg进行标注,构建数据集;
S2、利用Enlighten GAN算法进行预处理;
S3、将预处理的图像按照4:1划分成训练集和测试集;
S4、构建改进的YOLOv5s-6.1网络模型,将主干网络替换成Mobilenetv3来进行特征提取;
S5、将数据集送入改进后的YOLOv5s-6.1网络模型进行训练和测试,得到口罩和安全帽佩戴同时检测模型;
S6、将待检测图像输入检测模型中,将最优权重参数保存,并在detect中进行检测。
2.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S1中,通过YouTube和bilibili收集一份口罩和安全帽佩戴数据集,用于获取图像,使用LabelImg对图像进行标注,标注后的文件以.xml为后缀,之后再转成.txt后缀的格式。
3.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S2中,将数据集的图像采用Enlighten GAN算法进行预处理,消除图像中无关的信息,恢复有用的真实信息。
4.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S4中,在特征提取前,设置CBAM注意力机制加强对检测目标的关注,且设置EIOU Loss替代YOLOv5s-6.1网络中定位损失函数GIOU Loss,不仅能加速函数收敛、提高回归精度,而且引入的Focal Loss优化了边界框回归任务中的样本不平衡问题,使回归过程专注于高质量锚框。
5.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S4中,Mobilenetv3引入了深度可分离卷积作为传统卷积层的有效替代,减少计算量,深度可分离卷积通过将空间滤波与特征生成机制分离。
6.根据权利要求5所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S4中,Mobilenetv3在网络尾部结构中,将平均池化前的层移除,用1*1卷积来计算特征图,并设置h-swish激活函数,将网络头部channel降低到16个,并且提速2ms,且引入了新的非线性h-swish激活函数,加入SE注意力机制,主要操作针对每一个channel进行池化处理,就得到channel个数个元素,再通过两个全连接层,得到输出向量,CBAM包括通道注意力模块和空间注意力模块两个独立的子模块。
7.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S5中,将图像送入改进后的YOLOv5s-6.1网络中进行训练,生成检测模型。
8.根据权利要求1所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,在步骤S6中,检测模型对预处理的图像中人物是否佩戴安全帽和口罩进行标记,通过detect对其图像中人物没有佩戴口罩和安全帽时,会用bad的标签标记,当图像中人物当时佩戴口罩和安全帽时,用good的标签标记,当图像中人物只佩戴了口罩或者安全帽时,则分别用mask和hat标记。
9.根据权利要求6所述的一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法,其特征在于,h-swish激活函数的表达公式为:
Figure FDA0003841542260000021
ReLU=min(6,max(0,z)),式中,ReLU为激活函数,z为输入值。
CN202211103447.2A 2022-09-09 2022-09-09 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法 Pending CN115457469A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211103447.2A CN115457469A (zh) 2022-09-09 2022-09-09 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211103447.2A CN115457469A (zh) 2022-09-09 2022-09-09 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法

Publications (1)

Publication Number Publication Date
CN115457469A true CN115457469A (zh) 2022-12-09

Family

ID=84303176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211103447.2A Pending CN115457469A (zh) 2022-09-09 2022-09-09 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法

Country Status (1)

Country Link
CN (1) CN115457469A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115942032A (zh) * 2022-12-21 2023-04-07 深圳创维数字技术有限公司 多媒体接口的检测方法、装置、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115942032A (zh) * 2022-12-21 2023-04-07 深圳创维数字技术有限公司 多媒体接口的检测方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110070033B (zh) 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110287849A (zh) 一种适用于树莓派的轻量化深度网络图像目标检测方法
CN103069434B (zh) 用于多模式视频事件索引的方法和系统
CN112396658B (zh) 一种基于视频的室内人员定位方法及定位系统
CN110070530A (zh) 一种基于深度神经网络的输电线路覆冰检测方法
CN110084165A (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN105513053B (zh) 一种用于视频分析中背景建模方法
CN113239822A (zh) 基于时空双流卷积神经网络的危险行为检测方法及系统
CN112200106A (zh) 跨相机行人重识别与跟踪方法
CN109712127A (zh) 一种用于机巡视频流的输电线路故障检测方法
CN112669350A (zh) 一种自适应特征融合的智能变电站人体目标跟踪方法
CN112541393A (zh) 一种基于深度学习的变电站人员检测方法及装置
CN102034240A (zh) 一种静态前景检测和跟踪方法
CN111401310B (zh) 基于人工智能的厨房卫生安全监督管理方法
CN115240075B (zh) 电力视觉多粒度预训练大模型的构建与训练方法
CN109241847A (zh) 基于视觉图像的油田作业区安全监控系统
CN115457469A (zh) 一种基于改进YOLOv5的口罩和安全帽佩戴同时检测方法
CN103577804A (zh) 基于sift流和隐条件随机场的人群异常行为识别方法
Wang et al. Forest smoke detection based on deep learning and background modeling
Yang et al. Safety helmet wearing detection based on an improved YOLOv3 scheme
CN118038153A (zh) 配电架空线路的防外破识别方法、装置、设备和介质
CN117612249A (zh) 一种基于改进OpenPose算法的井下矿工危险行为识别方法和装置
CN116866520A (zh) 一种基于ai的单轨吊安全运行实时监控管理系统
Wang Substation Personnel Safety Detection Network Based on YOLOv4
CN115690835A (zh) 用于起重机械的人员态势感知及安全监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination