CN116110081B - 基于深度学习的安全帽佩戴的检测方法及系统 - Google Patents
基于深度学习的安全帽佩戴的检测方法及系统 Download PDFInfo
- Publication number
- CN116110081B CN116110081B CN202310382275.5A CN202310382275A CN116110081B CN 116110081 B CN116110081 B CN 116110081B CN 202310382275 A CN202310382275 A CN 202310382275A CN 116110081 B CN116110081 B CN 116110081B
- Authority
- CN
- China
- Prior art keywords
- detection
- representing
- head
- frame
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 134
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000012544 monitoring process Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 26
- 239000000523 sample Substances 0.000 claims abstract description 19
- 238000010276 construction Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000009467 reduction Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000009827 uniform distribution Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000007306 turnover Effects 0.000 claims description 3
- 238000004806 packaging method and process Methods 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 abstract 1
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Helmets And Other Head Coverings (AREA)
Abstract
本发明涉及作业安全监测的技术领域,具体涉及基于深度学习的安全帽佩戴的检测方法及系统。本发明将图像采集,挑选,标注,预处理后进行模型训练与封装,控制中心部署封装好的模型。控制中心接收监控探头和无人机云台相机监控图像,调用头部区域检测算法,计算头部检测框像素总和。对低于100像素的区域提取中心坐标,使用噪声覆盖后。将监控图像送入安全帽佩戴检测模型检测。对提取出的所有中心坐标计算中心点,此中心点作为摄像头锁定跟踪算法的输入,调节摄像头方向并调整镜头放大倍数。再次获取图像进行检测。若检测到未佩戴安全帽则示警。本方案对工地未佩戴安全帽和有易坠落风险的行为进行分析识别,并及时示警,降低工地安全风险。
Description
技术领域
本发明涉及作业安全监测的技术领域,具体涉及基于深度学习的安全帽佩戴的检测方法及系统。
背景技术
佩戴安全帽是建筑工地生产工作至关重要的安全制度,对工地施工人员的人身安全起到重要保障。但实际的施工工作中,经常有施工人员因为炎热或者其他原因,选择在工作时摘下安全帽,这对工地的安全制度管理,和施工人员的生命安全构成了严重的威胁。另外随着建筑环境的不断变化,工地布置的监控探头并不能覆盖所有的区域,一些施工场景比较高,布置监控的难度大。
由于安全帽佩戴检测场景对于检测准确性和复杂环境下的鲁棒性要求,目前对于符合生产环境要求的安全帽检测技术仍需进一步发展,安全帽检测主要应用于建筑施工等对于生产活动有着严格安全规定的场景,这些场景往往比较特殊,且检测的准确性,实时性要求较高。具体来说,安全帽佩戴检测需要承担有别于自然场景下的检测任务,且需满足实时检测,高精度检测的要求。本公开通过设计注意力模块,设计降噪模块,设计新的数据增强方法,提高了安全帽检测的精度和复杂环境下的鲁棒性。
发明内容
针对上述问题,本发明提供一种基于深度学习的安全帽佩戴的检测方法及系统,对工地未佩戴安全帽和有易坠落风险的行为进行分析识别,并及时示警,降低工地安全风险。
本发明提供如下技术方案:一种基于深度学习的安全帽佩戴的检测方法,包括如下步骤:
步骤一,图像收集,挑选,标注,对图片数据集进行图片预处理;
步骤二,将预处理好的图片数据进行深度学习模型训练,根据训练结果,对头部区域检测模型和安全帽佩戴检测模型进行测试,在所有回合中挑选出精度超过阈值的模型进行封装;封装后可以在控制中心进行部署;
步骤三,调用头部区域检测模型,计算头部检测框像素总和,对低于100像素的区域提取出中心坐标,并使用噪声覆盖,处理后的监控图像送入步骤二中的模型进行检测;
步骤四,将低于100像素的区域的中心坐标带入中心点公式,获得出所有低于100像素的区域的中心点,
步骤五,将中心点的坐标作为摄像头锁定追踪算法的输入,调节摄像头方向并调整镜头放大倍数,对低于100像素的区域重复上述步骤三和步骤四过程,直至没有低于100像素的区域;
步骤六,若检测到未佩戴安全帽,向云台相机和监控探头发送示警指令。
在步骤一中,根据需要进行检测的对象和场景,通过无人机航拍和监控探头进行收集后,从中挑选出1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,600张易坠落危险区域图,共2000张图片;
将上述2000张图片按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成安全帽与危险区域图片集,将上述1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成头部区域图片集;
将上述两个图片集的头部区域,危险区域的位置和类别信息生成XML格式的标注数据集,并与图片一一对应,提取XML文件中的类别,位置,宽高信息等转为TXT格式,与图像数据集按照格式一一对应,组成安全帽与危险区域数据集和头部区域数据集。通过LabelImg开源软件,对数据集中的头部,危险区域进行标注。
进行图片预处理时,对数据集使用掩码进行图像区域遮盖生成两个新的数据集A,B,再使用mosaic增强,平移,翻转等方式,对原有的数据集和数据集A、B进行处理, A,B数据集的掩码区域生成公式如下:
表示A数据集的掩码区域, />表示B数据集的掩码区域, />表示原数据集图片, />表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集A图片, />表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集B图片, />, /> B表示数据集A,B的掩码区域生成函数, />, />, />,,表示图片的右下角x坐标,y坐标以及图片的宽和高, />, />, />, />,表示区域的左上角x坐标,y坐标以及宽和高, />, />, />, />的值为真实框的左上角x坐标,y坐标以及宽和高, />, />, />, />表示 />区域的左上角x坐标,y坐标以及宽和高, />表示图片数组中横坐标为 />,纵坐标为 />的数据的数值。
步骤二中,模型训练包括头部区域检测模型训练和安全帽佩戴检测训练,头部区域检测模型使用头部区域数据集进行训练,安全帽佩戴检测使用安全帽与危险区域数据集进行训练,两个模型训练时,先在数据集A训练100轮,然后在数据集B训练100轮,最后在原始数据集上训练300轮;
在训练过程中,采用TIoU损失函数进行训练,在预测框和真实框不相交时,仅使用预测框和真实框中心点的距离来计算损失函数值,将预测框和真实框沿中心点的横向,纵向等分为四份,并用这四份区域的交集来计算预测框和真实框的方向和位置的损失函数值,
公式如下:
为损失函数的值, />1计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />2计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />3计算的是预测框 />与真实框的交集和预测框与真实框并集的比值,4计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />计算的是预测框四部分与真实框的交集和并集的比值和, />, />, />, />表示真实框的四部分, />, />, />, />表示预测框的四部分, />, />分别表示预测框和真实框, />表示欧式距离, />表示预测框的中心, />表示真实框的中心, /> 表示最小外接矩形的对角线距离, />表示中心点归一化距离。
步骤三中,头部区域检测模型,检测出所有头部区域后,计算所有头部区域的像素总和,计算公式如下:
S表示计算的检测框的像素总和,x1为头部检测框左下角的横坐标,x2为头部检测框右下角的横坐标,y1为头部检测框左下角的纵坐标,y2为头部检测框左上角的纵坐标,x2- x1表示检测框的单行横向像素个数, y2- y1表示检测框的单行纵向像素个数;
计算完毕后,对像素总和小于100的区域施加噪声覆盖,噪声计算公式如下:
在区间[0,255]内独立且服从均匀分布的随机数生成噪声随机数。μ为该均匀分布的期望, σ2为该均匀分布的方差, m表示噪声随机数个数,为取出的所有随机数的和,/>为取出的所有随机数的平均值。通过上述公式生成对应的噪声/>,
步骤三中进行检测的模型为安全帽佩戴检测模型,安全帽佩戴检测模型包括卷积模块、注意力模块、降噪模块,融合模块,
注意力模块将卷积模块的输入x,根据SoftMax函数在横向上进行运算,将得到的结果乘以特征图的宽度,送入SoftMax函数在纵向上进行运算,通过提取横纵方向的特征获取全局注意力权重,接下来通过卷积层,规范归一化层和激活函数对全局注意力权重数据进行处理得到y,处理完毕后再次由两个SoftMax函数提取横纵特征得到y1,根据残差思想将y1与x相乘再相加x作为最后的输出out,
注意力模块计算公式如下:
为卷积模块的输入, />为 />第 />维度的维度数, />为对 />进行卷积归一化激活运算后得到的值, />为提取出的 />的横向特征, />为提取出的 />的纵向特征,/>为/>经过运算突出重要特征后的结果。 />函数第二位参数为0,表示按列运算。函数第二位参数为1,表示按行运算。
降噪模块使用两个相邻的特征图作为输入,包含一个通道注意力和一个空间注意力模块,一个上采样模块,一个特征的融合模块,将深层特征经上采样函数上采样至浅层特征的尺寸,将上采样后的深层特征送入通道注意力模块提取注意力权重,再送入空间注意力模块提取注意力权重,并将得到的通道注意力权重和空间注意力权重与浅层特征相乘;
降噪模块计算公式如下:
易坠落危险区域检测的判断策略;采用用于检测风速的风速检测仪,所述风速检测仪与无人机相连,无人机接收风速检测仪检测到的风速,并根据风速大小判断是否开启易坠落危险区域检测,风速大小的计算公式如下:
所述步骤四中,中心点坐标的计算,公式如下:
步骤五中将中心点的坐标作为摄像头锁定追踪算法的输入,计算摄像头云台的调整参数,根据上述的中心点坐标,与图像中心点坐标计算偏移量,为减少不同分辨率的影响,将偏移量整体放缩到[-1,1],根据缩放后的偏移量正负得到云台的旋转方向,将偏移量乘以比例系数k得到云台角度的增量,由此得到云台的调整参数。
偏移量计算公式如下:
px为横向的偏移量,x1为步骤5所述中心坐标的横坐标,x2为图像中心点的横坐标, py为横向的偏移量,y1为步骤5所述中心坐标的纵坐标, y2为图像中心点的纵坐标,
云台角度增量的计算公式如下:
一种基于深度学习的安全帽佩戴的检测系统,包括以下模块:
图像采集模块:与调整模块相连,包括无人机搭载的云台相机和部署在施工场景下的监控探头,用于获取图像数据。监控探头与云台相机,通过网络将图像信息上传至控制中心;
调整模块:对采集的图像信息进行分析和处理,并对摄像头参数进行调整,对接收的图像信息调用头部区域检测模型检测图中所有的头部区域,计算每一个头部区域的像素和,在100像素以下的区域,使用噪声进行覆盖,100像素及以上的区域不做处理,将图片送至安全帽佩戴检测模型进行安全帽佩戴检测对100像素以下的所有头部区域,计算它们的中心点坐标,将此坐标作为摄像头锁定跟踪算法的输入,控制云台调整摄像头方向,调整后放大镜头倍数继续进行图像采集和检测,直至图像中再无100像素以下头部区域;
风速识别模块:风速检测模块与无人机连接;通过测量空气流动速度与无人机的速度计算准确的实时风速,向控制中心发送风速值,控制中心接收,判断风速是否达阈值,如果达到阈值,则开启易坠落危险区域报警功能;
识别模块:将调整模块处理后的图像输入安全帽佩戴检测模型进行检测,并输出识别结果,若检测出未带安全帽或佩戴普通帽子以及大风环境下施工人员靠近易坠落危险区域,将图片上传至云端,输出报警指令;
报警模块:当接收到识别模块发出的报警指令后,调用摄像头内置音响,发出警示信息,并维持五秒。
通过上述描述可以看出,本方案中将图像采集,挑选,标注,预处理后进行模型训练与封装,控制中心部署封装好的模型。控制中心接收监控探头和无人机云台相机监控图像,调用头部区域检测算法,计算头部检测框像素总和。对低于100像素的区域提取中心坐标,使用噪声覆盖后。将监控图像送入安全帽佩戴检测模型检测。对提取出的所有中心坐标计算中心点,此中心点作为摄像头锁定跟踪算法的输入,调节摄像头方向并调整镜头放大倍数。再次获取图像进行检测。若检测到未佩戴安全帽则示警。
本方案相对于现有技术具有如下技术效果或优点:1、可根据当前拍摄结果自动调整云台相机和监控探头拍摄参数,提高拍摄精度。获取更多图像细节提高检测精度;2、安全帽佩戴检测模型中,设计注意力层,在特征提取中获取更加需要重视的特征,提高不同场景下的检测鲁棒性;3、该方法实现简单,可结合现有监控设备进行部署,还可配备无人机检测监控盲区,实现全范围检测;4、解决了高空施工场景下的监控难度大的问题,提高了施工场景的安全性,5、Mosaic是一种数据增强方法,采用Mosaic极大丰富了检测物体的背景。
附图说明
图1为本发明具体实施方式的流程图。
图2为本发明系统框图。
图3为本发明的注意力模块结构图。
图4为本发明的降噪模块图。
图5为本发明的安全帽佩戴检测模型图。
图6为本发明的TIoU原理图。
具体实施方式
下面将结合本发明具体实施方式中的附图,对本发明具体实施方式中的技术方案进行清楚、完整地描述,显然,所描述的具体实施方式仅仅是本发明一种具体实施方式,而不是全部的具体实施方式。基于本发明中的具体实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他具体实施方式,都属于本发明保护的范围。
通过附图可以看出,本发明一种基于深度学习的安全帽佩戴的检测方法,包括如下步骤:
步骤一,图像收集,挑选,标注,对图片数据集进行图片预处理;
在步骤一中,根据需要进行检测的对象和场景,通过无人机航拍和监控探头进行收集后,从中挑选出1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,600张易坠落危险区域图,共2000张图片;
将上述2000张图片按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成安全帽与危险区域图片集,将上述1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成头部区域图片集;
将上述两个图片集的头部区域,危险区域的位置和类别信息生成XML格式的标注数据集,并与图片一一对应,提取XML文件中的类别,位置,宽高信息等转为TXT格式,与图像数据集按照格式一一对应,组成安全帽与危险区域数据集和头部区域数据集。通过LabelImg开源软件,对数据集中的头部,危险区域进行标注。
进行图片预处理时,对数据集使用掩码进行图像区域遮盖生成两个新的数据集A,B,再使用mosaic增强,平移,翻转等方式,对原有的数据集和数据集A、B进行处理, A,B数据集的掩码区域生成公式如下:
表示A数据集的掩码区域, />表示B数据集的掩码区域, />表示原数据集图片, />表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集A图片, />表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集B图片, />,/> B表示数据集A,B的掩码区域生成函数, />, />, />, />,表示图片的右下角x坐标,y坐标以及图片的宽和高, />, />, />, />,表示 />区域的左上角x坐标,y坐标以及宽和高, />, />, />, />的值为真实框的左上角x坐标,y坐标以及宽和高, />, />, />, />表示 />区域的左上角x坐标,y坐标以及宽和高,表示图片数组中横坐标为 />,纵坐标为 />的数据的数值。
步骤二,将预处理好的图片数据进行深度学习模型训练,根据训练结果,对模型进行测试,在所有回合中挑选出精度超过阈值的模型进行封装;封装后可以在控制中心进行部署;
步骤二中,模型训练包括头部区域检测模型训练和安全帽佩戴检测训练,头部区域检测模型使用头部区域数据集进行训练,安全帽佩戴检测使用安全帽与危险区域数据集进行训练,两个模型训练时,先在数据集A训练100轮,然后在数据集B训练100轮,最后在原始数据集上训练300轮;
在训练过程中,采用TIoU损失函数进行训练,在预测框和真实框不相交时,仅使用预测框和真实框中心点的距离来计算损失函数值,将预测框和真实框沿中心点的横向,纵向等分为四份,并用这四份区域的交集来计算预测框和真实框的方向和位置的损失函数值,
公式如下:
为损失函数的值, />1计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />2计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />3计算的是预测框 />与真实框的交集和预测框与真实框并集的比值,4计算的是预测框 />与真实框的交集和预测框与真实框并集的比值, />计算的是预测框四部分与真实框的交集和并集的比值和, />, />, />, />表示真实框的四部分, />, />, />, />表示预测框的四部分, />, />分别表示预测框和真实框,/>表示欧式距离, />表示预测框的中心, />表示真实框的中心, /> 表示最小外接矩形的对角线距离, />表示中心点归一化距离。
步骤三,控制中心调用头部区域检测模型,计算头部检测框像素总和,对低于100像素的区域提取出中心坐标,并使用噪声覆盖,处理后的监控图像送入步骤二中的模型进行检测;
步骤三中,头部区域检测模型,检测出所有头部区域后,计算所有头部区域的像素总和,计算公式如下:
S表示计算的检测框的像素总和,x1为头部检测框左下角的横坐标,x2为头部检测框右下角的横坐标,y1为头部检测框左下角的纵坐标,y2为头部检测框左上角的纵坐标,x2-x1表示检测框的单行横向像素个数,y2- y1表示检测框的单行纵向像素个数;
计算完毕后,对像素总和小于100的区域施加噪声覆盖,噪声计算公式如下:
在区间[0,255]内独立且服从均匀分布的随机数生成噪声随机数,μ该均匀分布的期望,σ2为该均匀分布的方差,m表示噪声随机数个数,为取出的所有随机数的和,/>为取出的所有随机数的平均值。通过上述公式生成对应的噪声/>,
步骤三中进行检测的模型为安全帽佩戴检测模型,安全帽佩戴检测模型包括卷积模块、注意力模块、降噪模块,融合模块,如图5所示。
在骨干网络设计注意力模块提高获取重要特征的能力。如图3所示为本发明专利的注意力模块流程图,注意力模块将卷积模块的输入x,根据SoftMax函数在横向上进行运算,将得到的结果乘以特征图的宽度,送入SoftMax函数在纵向上进行运算,通过提取横纵方向的特征获取全局注意力权重,接下来通过卷积层,规范归一化层和激活函数对全局注意力权重数据进行处理得到y,处理完毕后再次由两个SoftMax函数提取横纵特征得到y1,根据残差思想将y1与x相乘再相加x作为最后的输出out,
注意力模块计算公式如下:
为卷积模块的输入, />为 />第 />维度的维度数, />为对 />进行卷积归一化激活运算后得到的值, />为提取出的 />的横向特征, />为提取出的 />的纵向特征, />为经过运算突出重要特征后的结果。/>函数第二位参数为0,表示按列运算。函数第二位参数为1,表示按行运算。
在特征融合网络设计降噪模块提高了融合深层语义信息和浅层形状特征的能力。如图4所示为本发明专利的降噪模块流程图。降噪模块使用两个相邻的特征图作为输入,包含一个通道注意力和一个空间注意力模块,一个上采样模块,一个特征的融合模块,将深层特征经上采样函数上采样至浅层特征的尺寸,将上采样后的深层特征送入通道注意力模块提取注意力权重,再送入空间注意力模块提取注意力权重,并将得到的通道注意力权重和空间注意力权重与浅层特征相乘;
降噪模块计算公式如下:
易坠落危险区域检测的判断策略;所述风速检测仪与无人机相连,无人机接收风速检测仪检测到的风速,并根据风速大小判断是否开启易坠落危险区域检测,风速大小的计算公式如下:
步骤四,将低于100像素的区域的中心坐标带入中心点公式,获得出所有低于100像素的区域的中心点,
所述步骤四中,中心点坐标的计算,公式如下:
步骤五,将中心点的坐标作为摄像头锁定追踪算法的输入,调节摄像头方向并调整镜头放大倍数,对低于100像素的区域重复上述步骤三和步骤四过程,直至没有低于100像素的区域;
步骤五中将中心点的坐标作为摄像头锁定追踪算法的输入,计算摄像头云台的调整参数,根据上述的中心点坐标,与图像中心点坐标计算偏移量,为减少不同分辨率的影响,将偏移量整体放缩到[-1,1],根据缩放后的偏移量正负得到云台的旋转方向,将偏移量乘以比例系数k得到云台角度的增量,由此得到云台的调整参数。
偏移量计算公式如下:
px为横向的偏移量,x1为步骤5所述中心坐标的横坐标,x2为图像中心点的横坐标, py为横向的偏移量,y1为步骤5所述中心坐标的纵坐标, y2为图像中心点的纵坐标,
云台角度增量的计算公式如下:
步骤六,若检测到未佩戴安全帽,向云台相机和监控探头发送示警指令。
一种基于深度学习的安全帽佩戴的检测系统,包括以下模块:
图像采集模块:与调整模块相连,包括无人机搭载的云台相机和部署在施工场景下的监控探头,用于获取图像数据。监控探头与云台相机,通过网络将图像信息上传至控制中心;
调整模块:对采集的图像信息进行分析和处理,并对摄像头参数进行调整,对接收的图像信息调用头部区域检测模型检测图中所有的头部区域,计算每一个头部区域的像素和,在100像素以下的区域,使用噪声进行覆盖,100像素及以上的区域不做处理,将图片送至安全帽佩戴检测模型进行安全帽佩戴检测对100像素以下的所有头部区域,计算它们的中心点坐标,将此坐标作为摄像头锁定跟踪算法的输入,控制云台调整摄像头,调整后放大镜头倍数继续进行图像采集和检测,直至图像中再无100像素以下头部区域;
风速识别模块:风速检测模块与无人机连接;通过测量空气流动速度与无人机的速度计算准确的实时风速,向控制中心发送风速值,控制中心接收,判断风速是否达阈值,如果达到阈值,则开启易坠落危险区域报警功能;
识别模块:将调整模块处理后的图像输入安全帽佩戴检测模型进行检测,并输出识别结果,若检测出未带安全帽或佩戴普通帽子以及大风环境下施工人员靠近易坠落危险区域,将图片上传至云端,输出报警指令;
报警模块:当接收到识别模块发出的报警指令后,调用摄像头内置音响,发出警示信息,并维持五秒。
系统工作时,S1、设置好无人机路线和监测点,起飞巡航;S2、到达监测点,拍照并基于头部区域检测模型,检测出图像中的头部区域。S3、计算头部检测框的像素总和。提取所有低于100像素区域的中心坐标,并对所有低于100像素的区域添加噪声掩盖。将处理后的图像送入安全帽佩戴检测模型。S4、基于安全帽佩戴检测模型对图像进行检测。 S5、对提取出的所有中心坐标计算中心点,将此中心点作为摄像头锁定跟踪算法的输入,控制云台调节摄像头方向并调整镜头放大倍数。S6、无人机搭载的风速测量仪时刻测量高空风速,当风速过快,则开启易坠落危险区域检测报警。S7、重复上述S3、S4、S5、S6后,控制无人机继续按照预定线路巡航。
尽管已经示出和描述了本发明的具体实施方式,对于本领域的普通技术人员而言,可以理解在不脱离发明的原理和精神的情况下可以对这些具体实施方式进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种基于深度学习的安全帽佩戴的检测方法,其特征在于包括如下步骤:
步骤一,图像收集,挑选,标注,对图片数据集进行图片预处理;
步骤二,将预处理好的图片数据进行深度学习模型训练,根据训练结果,对头部区域检测模型和安全帽佩戴检测模型进行测试,在所有回合中挑选出精度超过阈值的模型进行封装;
步骤三,调用头部区域检测模型,计算头部检测框像素总和,对低于100像素的区域提取出中心坐标,并使用噪声覆盖,处理后的监控图像送入安全帽佩戴检测模型进行检测;
步骤四,将低于100像素的区域的中心坐标带入中心点公式,获得出所有低于100像素的区域的中心点;
步骤五,将中心点的坐标作为摄像头锁定追踪算法的输入,调节摄像头方向并调整镜头放大倍数,对低于100像素的区域重复上述步骤三和步骤四过程,直至没有低于100像素的区域;
步骤六,若检测到未佩戴安全帽,向云台相机和监控探头发送示警指令;
进行图片预处理时,对数据集使用掩码进行图像区域遮盖生成两个新的数据集A,B,再使用mosaic增强、平移、翻转方式,对原有的数据集和数据集A、B进行处理, A,B数据集的掩码区域生成公式如下:
其中,表示A数据集的掩码区域,/>表示B数据集的掩码区域,/>表示原数据集图片,/>表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集A图片,/>表示原数据集图片与掩码区域相乘,对原数据集图片进行处理得到的数据集B图片,/>,/> B表示数据集A,B的掩码区域生成函数,/>,/>,/>,/>,表示图片的右下角x坐标,y坐标以及图片的宽和高,/>,/>,/>,/>,表示/>区域的左上角x坐标,y坐标以及宽和高,/>,/>,/>,/>的值为真实框的左上角x坐标,y坐标以及宽和高,/>,,/>,/>表示/>区域的左上角x坐标,y坐标以及宽和高,/>表示图片数组中横坐标为/>,纵坐标为/>的数据的数值;
步骤三中进行检测的模型为安全帽佩戴检测模型,安全帽佩戴检测模型包括卷积模块、注意力模块、降噪模块,融合模块,
注意力模块将卷积模块的输入x,根据SoftMax函数在横向上进行运算,将得到的结果乘以特征图的宽度,送入SoftMax函数在纵向上进行运算,通过提取横纵方向的特征获取全局注意力权重,接下来通过卷积层,规范归一化层和激活函数对全局注意力权重数据进行处理得到y,处理完毕后再次由两个SoftMax函数提取横纵特征得到y1,根据残差思想将y1与x相乘再相加x作为最后的输出out,
注意力模块计算公式如下:
为卷积模块的输入,/>为/>第/>维度的维度数,/>为对/>进行卷积归一化激活运算后得到的值,/>为提取出的/>的横向特征,/>为提取出的/>的纵向特征,/>为/>经过运算突出重要特征后的结果,/>函数第二位参数为0,表示按列运算,/>函数第二位参数为1,表示按行运算;
降噪模块使用两个相邻的特征图作为输入,包含一个通道注意力和一个空间注意力模块,一个上采样模块,一个特征的融合模块,将深层特征经上采样函数上采样至浅层特征的尺寸,将上采样后的深层特征送入通道注意力模块提取注意力权重,再送入空间注意力模块提取注意力权重,并将得到的通道注意力权重和空间注意力权重与浅层特征相乘;
降噪模块计算公式如下:
2.根据权利要求1所述基于深度学习的安全帽佩戴的检测方法,其特征在于,
在步骤一中,根据需要进行检测的对象和场景,通过无人机航拍和监控探头进行收集后,从中挑选出1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,600张易坠落危险区域图,共2000张图片;
将上述2000张图片按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成安全帽与危险区域图片集;将上述1200张佩戴安全帽的人员图像,200张未佩戴安全帽的人员图像,按照6:2:2的数量比例随机划分为训练集、验证集和测试集,组成头部区域图片集;
将上述两个图片集的头部区域,危险区域的位置和类别信息生成XML格式的标注数据集,并与图片一一对应,提取XML文件中的类别、位置、宽高信息转为TXT格式,与图像数据集按照格式一一对应,组成安全帽与危险区域数据集和头部区域数据集。
3.根据权利要求1所述基于深度学习的安全帽佩戴的检测方法,其特征在于,
步骤二中,模型训练包括头部区域检测模型训练和安全帽佩戴检测训练,头部区域检测模型使用头部区域数据集进行训练,安全帽佩戴检测使用安全帽与危险区域数据集进行训练,两个模型训练时,先在数据集A训练100轮,然后在数据集B训练100轮,最后在原始数据集上训练300轮;
在训练过程中,设计了TIoU损失函数进行训练,在预测框和真实框不相交时,仅使用预测框和真实框中心点的距离来计算损失函数值,将预测框和真实框沿中心点的横向,纵向等分为四份,并用这四份区域的交集来计算预测框和真实框的方向和位置的损失函数值,
公式如下:
4.根据权利要求1所述基于深度学习的安全帽佩戴的检测方法,其特征在于,
步骤三中,头部区域检测模型,检测出所有头部区域后,计算所有头部区域的像素总和,计算公式如下:
表示计算的检测框的像素总和, x1为头部检测框左下角的横坐标, x2为头部检测框右下角的横坐标,y1为头部检测框左下角的纵坐标,y2为头部检测框左上角的纵坐标,x2-x1表示检测框的单行横向像素个数,y2 -y1表示检测框的单行纵向像素个数;
计算完毕后,对像素总和小于100的区域施加噪声覆盖,噪声计算公式如下:
在区间[0,255]内独立且服从均匀分布的随机数生成噪声随机数, 为该均匀分布的期望,/> 为常数, />表示噪声随机数个数, />为取出的所有随机数的和, />为取出的所有随机数的平均值,通过上述公式生成对应的噪声 />,
6.根据权利要求1所述基于深度学习的安全帽佩戴的检测方法,其特征在于,
所述步骤四中,中心点坐标的计算,公式如下:
步骤五中将中心点的坐标作为摄像头锁定追踪算法的输入,计算摄像头云台的调整参数,根据上述的中心点坐标,与图像中心点坐标计算偏移量,为减少不同分辨率的影响,将偏移量整体放缩到[-1,1],根据缩放后的偏移量正负得到云台的旋转方向,将偏移量乘以比例系数k得到云台角度的增量,由此得到云台的调整参数,
偏移量计算公式如下:
云台角度增量的计算公式如下:
7.一种用于权利要求1所述方法的基于深度学习的安全帽佩戴的检测系统,其特征在于,包括以下模块:
图像采集模块:与调整模块相连,包括无人机搭载的云台相机和部署在施工场景下的监控探头,用于获取图像数据,监控探头与云台相机,通过网络将图像信息上传至控制中心;
调整模块:对采集的图像信息进行分析和处理,并对摄像头参数进行调整,对接收的图像信息调用头部区域检测模型检测图中所有的头部区域,计算每一个头部区域的像素和,在100像素以下的区域,使用噪声进行覆盖,100像素及以上的区域不做处理,将图片送至安全帽佩戴检测模型进行安全帽佩戴检测对100像素以下的所有头部区域,计算它们的中心点坐标,将此坐标作为摄像头锁定跟踪算法的输入,控制云台调整摄像头方向,调整后放大镜头倍数继续进行图像采集和检测,直至图像中再无100像素以下头部区域;
风速识别模块:风速检测模块与无人机连接;通过测量空气流动速度与无人机的速度计算准确的实时风速,向控制中心发送风速值,控制中心接收,判断风速是否达阈值,如果达到阈值,则开启易坠落危险区域报警功能;
识别模块:将调整模块处理后的图像输入安全帽佩戴检测模型进行检测,并输出识别结果,若检测出未带安全帽或佩戴普通帽子以及大风环境下施工人员靠近易坠落危险区域,将图片上传至云端,输出报警指令;
报警模块:当接收到识别模块发出的报警指令后,调用摄像头内置音响,发出警示信息,并维持五秒。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310382275.5A CN116110081B (zh) | 2023-04-12 | 2023-04-12 | 基于深度学习的安全帽佩戴的检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310382275.5A CN116110081B (zh) | 2023-04-12 | 2023-04-12 | 基于深度学习的安全帽佩戴的检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116110081A CN116110081A (zh) | 2023-05-12 |
CN116110081B true CN116110081B (zh) | 2023-06-30 |
Family
ID=86256514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310382275.5A Active CN116110081B (zh) | 2023-04-12 | 2023-04-12 | 基于深度学习的安全帽佩戴的检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116110081B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116402818A (zh) * | 2023-06-08 | 2023-07-07 | 杭州华得森生物技术有限公司 | 全自动荧光扫描仪及其方法 |
CN117274566B (zh) * | 2023-09-25 | 2024-04-26 | 北京工业大学 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778609A (zh) * | 2016-12-15 | 2017-05-31 | 国网浙江省电力公司杭州供电公司 | 一种电力施工现场人员制服穿着识别方法 |
CN111914698A (zh) * | 2020-07-16 | 2020-11-10 | 北京紫光展锐通信技术有限公司 | 图像中人体的分割方法、分割系统、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530874B (zh) * | 2013-10-09 | 2016-06-29 | 上海大学 | 基于Kinect的人流计数方法 |
CN110866526B (zh) * | 2018-08-28 | 2024-10-01 | 北京三星通信技术研究有限公司 | 图像分割方法、电子设备及计算机可读存储介质 |
CN111611982B (zh) * | 2020-06-29 | 2023-08-01 | 中国电子科技集团公司第十四研究所 | 一种利用模板匹配的安检图像背景噪声去除方法 |
CN112084838B (zh) * | 2020-07-20 | 2022-07-29 | 河海大学 | 一种车间安全帽检测方法 |
CN114003058B (zh) * | 2021-10-25 | 2024-01-26 | 上海宝冶冶金工程有限公司 | 一种安全帽佩戴智慧巡检系统及方法 |
CN115346332A (zh) * | 2022-06-30 | 2022-11-15 | 大连致胜科技有限公司 | 高楼坠物地面预警装置 |
-
2023
- 2023-04-12 CN CN202310382275.5A patent/CN116110081B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778609A (zh) * | 2016-12-15 | 2017-05-31 | 国网浙江省电力公司杭州供电公司 | 一种电力施工现场人员制服穿着识别方法 |
CN111914698A (zh) * | 2020-07-16 | 2020-11-10 | 北京紫光展锐通信技术有限公司 | 图像中人体的分割方法、分割系统、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116110081A (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116110081B (zh) | 基于深度学习的安全帽佩戴的检测方法及系统 | |
CN115439424B (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN115909093A (zh) | 一种基于无人机巡检和红外图像语义分割的电力设备故障检测方法 | |
CN115060343B (zh) | 一种基于点云的河流水位检测系统、检测方法 | |
CN112344913B (zh) | 一种利用无人机倾斜摄影影像的区域危险系数评估方法 | |
CN112344869B (zh) | 基于侧面拟合的铁塔变形监测方法及系统 | |
Rong et al. | Intelligent detection of vegetation encroachment of power lines with advanced stereovision | |
JP2020112438A (ja) | 海面計測システム、海面計測方法および海面計測プログラム | |
CN111626987A (zh) | 一种基于无人机及无锚框网络的车辆检测方法 | |
CN115170753B (zh) | 一种基于无人机倾斜摄影三维建模处理方法 | |
CN113763484A (zh) | 基于视频图像分析技术的船舶目标定位及速度估算方法 | |
CN115620239B (zh) | 一种点云和视频结合的输电线路在线监测方法和系统 | |
CN107221006A (zh) | 一种基于无人机成像平台的通信单管塔倾斜检测方法 | |
CN112685812A (zh) | 一种动态监管方法、装置、设备及存储介质 | |
US20150016673A1 (en) | Image processing apparatus, image processing method, and program | |
Krinitskiy et al. | Adaptive algorithm for cloud cover estimation from all-sky images over the sea | |
CN117372875A (zh) | 一种航空遥感目标识别方法 | |
CN106372566A (zh) | 一种基于数字标牌紧急疏散系统及方法 | |
CN116612374A (zh) | 一种基于结构光的人脸活体检测模型安全测试方法及系统 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN206300653U (zh) | 一种虚拟现实系统中的空间定位装置 | |
KR20210003518A (ko) | 무인항공기를 이용한 송전설비의 진단장치 및 그 방법 | |
CN114659499B (zh) | 一种基于无人机技术的智慧城市3d地图模型摄影建立方法 | |
Rong et al. | A joint faster RCNN and stereovision algorithm for vegetation encroachment detection in power line corridors | |
KR20190136850A (ko) | 정지궤도 적외선영상에서의 고도영향 저감방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |