CN115995093A - 一种基于改进YOLOv5的安全帽佩戴识别方法 - Google Patents
一种基于改进YOLOv5的安全帽佩戴识别方法 Download PDFInfo
- Publication number
- CN115995093A CN115995093A CN202111207858.1A CN202111207858A CN115995093A CN 115995093 A CN115995093 A CN 115995093A CN 202111207858 A CN202111207858 A CN 202111207858A CN 115995093 A CN115995093 A CN 115995093A
- Authority
- CN
- China
- Prior art keywords
- safety helmet
- network
- helmet wearing
- yolov5
- improved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明专利公开了一种基于改进YOLOv5算法在安全帽佩戴识别中的应用,其涉及到基于深度学习的目标检测领域。本发明首先通过摄像头采集数据集,通过对采集的数据集进行人工标注,分为训练集和测试集,然后将训练集输入到模型当中进行训练,将测试集输入到模型中进行测试,最后对车间视频流进行安全帽佩戴实时检测。本发明解决了安全帽检测过程当中检测准确率过低的问题,可以大幅提高安全帽佩戴检测的准确率以及fps,可以满足数字化车间现场的实时性和准确性。
Description
技术领域
本发明涉及目标检测领域,具体说是一种基于改进YOLOv5的安全帽佩戴识别方法。
背景技术
在数字化车间当中,作业人员是否佩戴安全帽非常重要。如果没有佩戴安全帽,将会造成安全隐患。所以在数字化车间中必须佩戴安全帽,针对人员是否佩戴安全帽采用的主要方法是人工查看的方式,在车间的各个入口配备检查人员,这种方法不具有全天候性,很容易造成漏检的情况,这给车间带来了很多安全隐患。近年来,人工智能技术被应用于各行各业中,从现有实际效果来看,深度学习算法优于现有的人工或传统的机器学习方法。在基于深度学习的目标检测领域中,大致可以分为两种模型,即two-stage和one-stage模型,前者的检测过程分为两个步骤:首先由算法生成若干个候选框,再通过CNN对候选框进行分类;后者则是对目标的类别概率和位置坐标直接回归,相对来说精度有所损失,但速度较two-stage模式的算法更快。YOLOv5属于two-stage模式的算法,因为YOLOv5在检测过程当中存在着检测准确率低,检测速度慢,检测实时性较差等问题,在检测车间当中的工人是否佩戴安全帽时,需要对其进行高实时性、高准确率的检测,来保障工人在数字化车间当中的安全。
发明内容
为解决上述技术问题,本发明提出了一种基于改进YOLOv5的安全帽佩戴识别方法。
本发明为实现上述目的所采用的技术方案是:
一种基于改进YOLOv5的安全帽佩戴识别方法,包括以下步骤:
获取车间图像,构建检测数据集,并将检测数据集分为训练集和测试集;
基于YOLOv5网络构建安全帽佩戴识别网络,并使用训练集对其进行训练;
使用测试集对训练好的安全帽佩戴识别网络进行测试,并对其进行评价,根据评价结果不断对其进行优化;
实时获取车间图像数据,使用安全帽佩戴识别网络对车间中工人进行安全帽佩戴检测。
所述基于YOLOv5网络构建安全帽佩戴识别网络具体为:在YOLOv5网络的输出层后增加一个9*9的特征尺度。
使用softpool方法作为安全帽佩戴识别网络中的池化方法。
使用GIoU_Loss作为安全帽佩戴识别网络中损失函数。
使用精确率Precision和召回率Recall计算平均精确度均值mAP,使用平均精确度均值mAP对安全帽佩戴识别网络进行评价。
一种基于改进YOLOv5的安全帽佩戴识别系统,包括:
图像获取模块,用于获取车间图像,构建检测数据集,并将检测数据集分为训练集和测试集;
网络训练模块,用于基于YOLOv5网络构建安全帽佩戴识别网络,并使用训练集对其进行训练;
网络测试模块,用于使用测试集对训练好的安全帽佩戴识别网络进行测试,并对其进行评价,根据评价结果不断对其进行优化;
实时监测模块,用于实时获取车间图像数据,使用安全帽佩戴识别网络对车间中工人进行安全帽佩戴检测。
一种计算机可读存储介质,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现所述的一种基于改进YOLOv5的安全帽佩戴识别方法。
一种基于改进YOLOv5的安全帽佩戴识别系统,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现所述的一种基于改进YOLOv5的安全帽佩戴识别方法。
本发明具有以下有益效果及优点:
1.本发明采用了改进的YOLOv5网络来当做训练的模型,提高了对特征图的提取能力,增强了对图像中目标检测的能力,在准确率、检测速度上都有一定的提升。
2.本发明使用softpool池化,较低的激活包含了特征图的次要信息,较高的激活包含了特征图的主要信息,所以较低的激活获得较低的权重,较高的激活获得较高的权重,与其他方法相比,softpool保留了更多的信息。使用DIoU_Loss可以防止某一些目标检测框退化为IoU。
附图说明
图1为本发明方法模块流程图;
图2为YOLOv5网络的结构图;
图3为改进YOLOv5网络的结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
本方法主要包括以下步骤:
1)通过摄像头进行数据集的采集;
2)将数据集分成两类:训练集和测试集;
3)将数据集输入到改进的YOLOv5网络当中做训练;
4)将测试集输入到已经训练好的模型当中进行测试,进行模型的评价;
5)获取车间实时视频流,对车间中的工人进行安全帽佩戴检测。
所述改进后的YOLOv5网络在输出层上,增加了一个特征尺度9*9,再对目标实现充分的浅层特征和深层特征的提取,最后对模型进行特征的融合,采用池化方法softpool,可以以指数加权方式累加激活,使用GIoU_Loss做损失函数,防止目标框回归不稳定。
如图1所示,本发明的具体流程涉及三部分,第一部分为数据集的采集,主要是通过摄像头进行图片采集,将采集的图片分为训练集和测试集。第二部分将训练集输入到模型当中做训练,并将测试集输入到模型当中做测试。第三部分将实时视频流输入到模型当中做实时安全帽佩戴检测。
1)通过摄像头进行数据集的采集,其主要包括:
通过摄像头从现场抓拍了7581张图片,这包括两种类别,人员佩戴安全帽以及人员没有佩戴安全帽,并且采集的图片中要包括大中小三种类型的目标。
2)将数据集分成两类:训练集和测试集,其主要包括;
将收集到的7581张图片进行随机分组,分为训练集6064张,测试集1517张,并对图片进行人工标注,hat表示人员正确佩戴了安全帽,person表示人员没有正确佩戴安全帽。数据集采用PASCAL VOC格式。
3)将数据集输入到改进的YOLOv5网络当中做训练,其主要包括:
改进YOLOv5网络,YOLOv5网络结构图如图2所示,其中,Input表示输入,Backbone表示基准网络,Neck表示FPN(特征金字塔网络)+PAN结构(金字塔注意力网络),Prediction表示目标检测结果的输出,CSP表示CSPNet网络结构,Focus表示切片操作,CBL表示由卷积、批量归一化和激活函数组合而成的操作,Concat表示融合操作,Conv表示卷积,YOLOv5网络分为四个部分:Input、Backbone、Neck、Prediction。Input端包括Mosaic数据增强、图片尺寸处理、自适应猫框计算三部分。YOLOv5与YOLOv4一样采用了Mosaic方式增强数据,这种对小目标检测效果比较理想,YOLOv5算法需要将输入图像的尺寸变换成固定大小,再送入检测模型中训练,本文设计图片标准尺寸为460*460*3。在网络训练前都需要设定初始锚框,YOLOv5设定的初始锚框为[116,90,156,198,373,326]、[30,61,62,45,59,119]、[10,13,16,30,33,23]。网络模型在基础锚框的基础上训练得到预测框,并和真实框进行比较,根据差值反向更新,迭代调整网络模型参数。Backbone包含Focus和CSP结构,Focus关键步骤为切片操作。Neck中采用了FPN+PAN的结构,FPN是自上而下的,利用上采样的方式对信息进行传递融合,获得预测的特征图,PAN采用自底向上的特征金字塔。Prediction包括Boundingbox损失函数和加权NMS。在改进的网络模型中,增加一个特征尺度9*9,实现对目标的充分的浅层特征和深层特征的提取,提高了对目标特征的提取能力,如图3所示。使用训练集训练此改进的网络模型,设置目标的置信度阈值为0.1,初始学习率为0.0005,总迭代次数为300次,batch-size设置成16。
4)将测试集输入到已经训练好的模型当中进行测试,进行模型的评价,其主要包括:
将测试集输入到训练好的模型当中,根据精确率P(Precision)和召回率R(Recall)两个指标计算出平均精确度均值mAP(mean Average Precision),把mAP作为网络模型性能评估标准。mAP是所有类别平均检测准确率的均值,用来评价检测模型的整体性能,fps用来评价网络模型的检测速度。
5)获取车间实时视频流,对车间中的工人进行安全帽佩戴检测,其主要包括:
将大华球形摄像头安装在数字化车间门口以及数字化车间上方,通过此摄像头实时获取视频流,通过rtsp协议将获取到的视频流输入到模型当中进行安全帽佩戴检测,最终将检测结果实时返回给监控中心查看。
Claims (8)
1.一种基于改进YOLOv5的安全帽佩戴识别方法,其特征在于,包括以下步骤:
获取车间图像,构建检测数据集,并将检测数据集分为训练集和测试集;
基于YOLOv5网络构建安全帽佩戴识别网络,并使用训练集对其进行训练;
使用测试集对训练好的安全帽佩戴识别网络进行测试,并对其进行评价,根据评价结果不断对其进行优化;
实时获取车间图像数据,使用安全帽佩戴识别网络对车间中工人进行安全帽佩戴检测。
2.根据权利要求1所述的一种基于改进YOLOv5的安全帽佩戴识别方法,其特征在于,所述基于YOLOv5网络构建安全帽佩戴识别网络具体为:在YOLOv5网络的输出层后增加一个9*9的特征尺度。
3.根据权利要求1所述的一种基于改进YOLOv5的安全帽佩戴识别方法,其特征在于,使用softpool方法作为安全帽佩戴识别网络中的池化方法。
4.根据权利要求1所述的一种基于改进YOLOv5的安全帽佩戴识别方法,其特征在于,使用GIoU_Loss作为安全帽佩戴识别网络中损失函数。
5.根据权利要求1所述的一种基于改进YOLOv5的安全帽佩戴识别方法,其特征在于,使用精确率Precision和召回率Recall计算平均精确度均值mAP,使用平均精确度均值mAP对安全帽佩戴识别网络进行评价。
6.一种基于改进YOLOv5的安全帽佩戴识别系统,其特征在于,包括:
图像获取模块,用于获取车间图像,构建检测数据集,并将检测数据集分为训练集和测试集;
网络训练模块,用于基于YOLOv5网络构建安全帽佩戴识别网络,并使用训练集对其进行训练;
网络测试模块,用于使用测试集对训练好的安全帽佩戴识别网络进行测试,并对其进行评价,根据评价结果不断对其进行优化;
实时监测模块,用于实时获取车间图像数据,使用安全帽佩戴识别网络对车间中工人进行安全帽佩戴检测。
7.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1-5任一项所述的一种基于改进YOLOv5的安全帽佩戴识别方法。
8.一种基于改进YOLOv5的安全帽佩戴识别系统,其特征在于,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现如权利要求1-5任一项所述的一种基于改进YOLOv5的安全帽佩戴识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111207858.1A CN115995093A (zh) | 2021-10-18 | 2021-10-18 | 一种基于改进YOLOv5的安全帽佩戴识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111207858.1A CN115995093A (zh) | 2021-10-18 | 2021-10-18 | 一种基于改进YOLOv5的安全帽佩戴识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115995093A true CN115995093A (zh) | 2023-04-21 |
Family
ID=85993953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111207858.1A Pending CN115995093A (zh) | 2021-10-18 | 2021-10-18 | 一种基于改进YOLOv5的安全帽佩戴识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115995093A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116978052A (zh) * | 2023-07-21 | 2023-10-31 | 安徽省交通规划设计研究总院股份有限公司 | 基于改进YOLOv5的桥梁设计图的子图布局识别方法 |
-
2021
- 2021-10-18 CN CN202111207858.1A patent/CN115995093A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116978052A (zh) * | 2023-07-21 | 2023-10-31 | 安徽省交通规划设计研究总院股份有限公司 | 基于改进YOLOv5的桥梁设计图的子图布局识别方法 |
CN116978052B (zh) * | 2023-07-21 | 2024-04-09 | 安徽省交通规划设计研究总院股份有限公司 | 基于改进YOLOv5的桥梁设计图的子图布局识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110502965B (zh) | 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法 | |
CN111191586B (zh) | 一种施工现场人员安全帽佩戴情况巡检方法及系统 | |
CN108319926A (zh) | 一种工地现场的安全帽佩戴检测系统及检测方法 | |
CN110543867A (zh) | 一种多摄像头条件下的人群密度估测系统及方法 | |
CN112396658B (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
CN110414400B (zh) | 一种施工现场安全帽穿戴自动检测方法及系统 | |
CN113516076A (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN104036236A (zh) | 一种基于多参数指数加权的人脸性别识别方法 | |
CN106851229B (zh) | 一种基于图像识别的安防智能决策的方法与系统 | |
CN110390308B (zh) | 一种基于时空对抗生成网络的视频行为识别方法 | |
CN112364778A (zh) | 一种基于深度学习的电厂安全性行为信息自动检测方法 | |
CN111062303A (zh) | 图像处理方法、系统及计算机存储介质 | |
CN112070043A (zh) | 基于特征融合的安全帽佩戴卷积网络、训练及检测方法 | |
CN113642474A (zh) | 一种基于yolov5的危险区域人员监控方法 | |
CN112149551A (zh) | 一种基于嵌入式设备和深度学习的安全帽识别方法 | |
CN115035088A (zh) | 一种基于yolov5和姿态估计的安全帽佩戴检测方法 | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
CN113139437A (zh) | 一种基于YOLOv3算法的安全帽佩戴检查方法 | |
CN116977937A (zh) | 一种行人重识别的方法及系统 | |
CN116092199A (zh) | 一种员工工作状态识别方法及识别系统 | |
CN115188066A (zh) | 基于协同注意力和多尺度融合的运动目标检测系统及方法 | |
CN115995093A (zh) | 一种基于改进YOLOv5的安全帽佩戴识别方法 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
CN103824058A (zh) | 基于局部分布式线性嵌套算法的人脸识别系统及方法 | |
CN112084815A (zh) | 一种基于摄像机焦距变换的目标检测方法、存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |