CN113283296A - 安全帽佩戴检测方法、电子装置及存储介质 - Google Patents
安全帽佩戴检测方法、电子装置及存储介质 Download PDFInfo
- Publication number
- CN113283296A CN113283296A CN202110425177.6A CN202110425177A CN113283296A CN 113283296 A CN113283296 A CN 113283296A CN 202110425177 A CN202110425177 A CN 202110425177A CN 113283296 A CN113283296 A CN 113283296A
- Authority
- CN
- China
- Prior art keywords
- safety helmet
- human body
- wearing
- video image
- monitoring area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 139
- 238000012544 monitoring process Methods 0.000 claims abstract description 66
- 238000012549 training Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000007689 inspection Methods 0.000 abstract 1
- 238000004590 computer program Methods 0.000 description 14
- 238000012360 testing method Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001105 regulatory effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Alarm Systems (AREA)
Abstract
本申请提供一种安全帽佩戴检测方法,包括:实时拍摄当前监控区域场景的视频,检测拍摄的视频图像中是否包含至少一个人体;在视频图像中包含至少一个人体时,判断至少一个人体是否需要佩戴安全帽;当判定人体需要佩戴安全帽时,通过安全帽佩戴检测模型检测视频图像,判断人体是否佩戴安全帽;及根据人体是否佩戴安全帽的检测结果在视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识。本申请还提供一种电子装置及存储介质。本申请通过安全帽佩戴检测模型自动检测人员是否佩戴安全帽,提高了安全帽佩戴检测结果的准确度。
Description
技术领域
本申请涉及视觉检测技术领域,尤其涉及一种安全帽佩戴检测方法、电子装置及存储介质。
背景技术
安全帽是防物体打击和坠落时头部碰撞的头部防护装置,进入施工场所的施工工人、电动车或摩托车驾驶人及搭载人通过佩戴安全帽以防护头部,以避免受坠落的物件伤害以及在自己坠落时受到伤害。但经常存在施工工人、电动车或摩托车驾驶人及搭载人没有按照规定佩戴安全帽的情况发生,因此在施工场所或道路对安全帽的佩戴情况进行实时的监控至关重要。现有技术通常通过直接的图像识别以检测人员是否佩戴安全帽,由于安全帽的种类繁多、部分普通帽子与安全帽相近等因素,导致安全帽佩戴的检测结果准确度不高。
发明内容
有鉴于此,有必要提供一种安全帽佩戴检测方法、电子装置及存储介质,通过深度学习训练建立的安全帽佩戴检测模型检测人员是否佩戴安全帽,提高了安全帽佩戴检测结果的准确度。
本申请提供一种安全帽佩戴检测方法,包括:
实时拍摄当前监控区域场景的视频,通过人体特征识别检测拍摄的视频图像中是否包含至少一个人体;
在检测到拍摄的所述视频图像中包含所述至少一个人体时,根据所述至少一个人体所属的法规规范场景判断所述至少一个人体是否需要佩戴安全帽;
当判定所述至少一个人体需要佩戴安全帽时,对拍摄的所述视频图像进行预处理,其中,所述预处理包括滤波、降噪及归一化;
通过安全帽佩戴检测模型检测所述视频图像,判断所述至少一个人体的头部是否佩戴安全帽;
其中,所述安全帽佩戴检测模型为YOLOv4模型,所述YOLOv4模型包括输入层、主干网络、颈部网络和输出层,所述输入层用于接收输入的经过预处理的视频图像,所述主干网络用于从所述视频图像提取目标特征,所述颈部网络用于融合提取的目标特征,所述输出层用于根据经过融合的目标特征预测目标特征区域,所述目标特征区域包括所述人体的头部区域及/或安全帽区域;
在所述安全帽佩戴检测模型检测到所述当前监控区域场景的视频图像中的目标特征区域包括所述人体的头部区域及所述安全帽区域时,确定所述头部区域与所述安全帽区域的重合程度;
在所述安全帽佩戴检测模型未检测到所述视频图像中所述人体的安全帽区域或确定检测到的所述头部区域与所述安全帽区域的重合程度未达到预设值时,判定所述人体的头部未佩戴安全帽;
在确定检测到的所述头部区域与所述安全帽区域的重合程度达到预设值时,判定所述人体的头部佩戴安全帽;
根据所述至少一个人体的头部是否佩戴安全帽的检测结果在所述视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识,以标示所述检测结果。
可选地,所述方法还包括:
获取预设监控区域场景的多个图像,所述预设监控区域场景的多个图像包括人体佩戴安全帽的多个正样本图像和人体未佩戴安全帽的多个负样本图像;
获取所述预设监控区域场景的每个图像的检测结果,所述正样本图像的检测结果为人体佩戴安全帽,所述负样本图像的检测结果为人体未佩戴安全帽;及
将所述预设监控区域场景的多个图像和每个图像的检测结果作为训练数据集输入所述YOLOv4模型,对所述YOLOv4模型进行训练,确定所述YOLOv4模型的最优参数,以建立所述安全帽佩戴检测模型。
可选地,所述将所述预设监控区域场景的多个图像和每个图像的检测结果作为训练数据集输入所述YOLOv4模型,对所述YOLOv4模型进行训练包括:
将所述预设监控区域场景的图像作为训练数据输入所述输入层,在所述输入层进行训练数据的增强处理,其中,所述增强处理包括Mosaic处理、归一化处理及SAT自对抗训练;
所述主干网络采用CSPDarknet53检测网络,提取所述图像的特征;
所述颈部网络采用空间金字塔池化模块、特征金字塔网络及路径聚合网络,对提取的特征进行融合;
所述输出层输出所述检测结果,其中,所述检测结果包括目标检测框和所述图像中的人体是否佩戴安全帽的分类结果。
可选地,所述方法还包括:
将拍摄的所述当前监控区域场景的视频图像与所述预设监控区域场景的多个图像进行对比,判断所述当前监控区域场景是否属于所述预设监控区域场景;及
当判定所述当前监控区域场景不属于所述预设监控区域场景时,根据所述当前监控区域场景的视频图像及所述安全帽佩戴的检测结果继续对所述YOLOv4模型进行训练,调整所述YOLOv4模型的最优参数,以更新所述安全帽佩戴检测模型。
可选地,所述方法还包括:
将通过训练建立的所述安全帽佩戴检测模型导入开放神经网络交换模型;及
在检测拍摄的所述当前监控区域场景的视频图像时,通过所述开放神经网络交换模型运行所述安全帽佩戴检测模型。
可选地,所述预设标识包括预设颜色的标识框及置信度,所述根据所述至少一个人体的头部是否佩戴安全帽的检测结果在所述视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识包括:
通过所述安全帽佩戴检测模型确定所述目标特征区域对应的标识框;
根据所述检测结果确定所述标识框的预设颜色;
计算所述检测结果的置信度;及
将具有所述预设颜色的标识框及计算得到的所述置信度标示在所述当前监控区域场景的视频图像中所述人体的头部位置。
可选地,所述方法还包括:
将标示有所述标识框及所述置信度的视频图像显示在显示装置;
在所述显示装置上显示未佩戴安全帽的人体对应的个人信息;及
通过音频装置基于所述个人信息输出警示信息。
可选地,所述方法还包括:
将标示有所述标识框及所述置信度的视频图像及未佩戴安全帽的人员对应的个人信息上传至服务器,通过所述服务器对人员未佩戴安全帽的次数进行计数,在所述人员未佩戴安全帽的次数达到预设次数时,确定对所述人员的惩罚措施,并将所述惩罚措施对应的提示信息发送至所述人员的移动终端。
本申请还提供一种电子装置,包括:
处理器;以及
存储器,所述存储器中存储有多个程序模块,所述多个程序模块由所述处理器加载并执行上述的安全帽佩戴检测方法。
本申请还提供一种计算机可读存储介质,其上存储有至少一条计算机指令,所述指令由处理器并加载执行上述的安全帽佩戴检测方法。
上述安全帽佩戴检测方法、电子装置及存储介质通过训练建立的安全帽佩戴检测模型自动检测当前监控区域场景的人员是否佩戴安全帽,有效提高了安全帽佩戴检测结果的准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本申请较佳实施方式提供的安全帽佩戴检测方法的应用环境架构示意图。
图2是本申请较佳实施方式提供的安全帽佩戴检测方法的流程图。
图3是本申请较佳实施方式提供的安全帽佩戴检测模型的示意图。
图4是本申请较佳实施方式提供的显示装置显示的检测结果示意图。
图5是本申请较佳实施方式提供的电子装置的结构示意图。
主要元件符号说明
电子装置 1
处理器 10
存储器 20
计算机程序 30
显卡 40
电源管理装置 50
摄像装置 201
显示装置 202
音频装置 203
网络装置 204
传输装置 205
电源装置 206
电源转换装置 207
主控装置 208
开关装置 209
服务器 3
如下具体实施方式将结合上述附图进一步说明本申请。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
请参阅图1所示,为本申请较佳实施方式提供的安全帽佩戴检测方法的应用环境架构示意图。
本申请中的安全帽佩戴检测方法应用在电子装置1中,所述电子装置1与服务器3通过网络建立通信连接。所述网络可以是有线网络,也可以是无线网络,例如无线电、无线保真(Wireless Fidelity,WIFI)、蜂窝、卫星、广播等。蜂窝网络可以是4G网络或5G网络。
所述电子装置1可以为安装有安全帽佩戴检测程序的电子设备,例如个人电脑、服务器等,其中,所述服务器可以是单一的服务器、服务器集群、云端服务器等。
所述服务器3可以是单一的服务器、服务器集群、云端服务器等。
请参阅图2所示,为本申请较佳实施方式提供的安全帽佩戴检测方法的流程图。根据不同的需求,所述流程图中步骤的顺序可以改变,某些步骤可以省略。
S201,根据已知人体安全帽佩戴情况的多个图像创建数据集,并根据所述数据集对深度神经网络模型进行训练,以建立安全帽佩戴检测模型。
在一实施方式中,S201包括:获取预设监控区域场景的多个图像及每个图像的检测结果。
在一实施方式中,通过网络爬虫从网络平台获取所述预设监控区域场景的多个图像。所述预设监控区域场景可以是施工工地、装修现场、行车道路等。所述预设监控区域场景的多个图像包括人体佩戴安全帽的多个正样本图像和人体未佩戴安全帽的多个负样本图像。所述正样本图像的检测结果为人体佩戴安全帽,所述负样本图像的检测结果为人体未佩戴安全帽。在其他实施方式中,也可以在网络平台下载安全帽佩戴检测的数据集,从而获取所述预设监控区域场景的多个图像及安全帽佩戴情况的检测结果。
在一实施方式中,S201进一步包括:将所述预设监控区域场景的多个图像和每个图像的检测结果作为训练数据集输入深度神经网络模型,对所述深度神经网络模型进行训练,确定所述深度神经网络模型的最优参数,以建立所述安全帽佩戴检测模型。
在一实施方式中,所述深度神经网络模型为YOLOv4模型。请参阅图3所示,所述YOLOv4模型包括输入层、主干(Backbone)网络、颈部(Neck)网络和输出层。其中,所述输入层用于对训练数据进行增强处理,所述主干网络用于从训练数据中提取目标特征,所述颈部网络用于融合包含目标特征的训练数据,所述输出层用于输出所述检测结果。所述YOLOv4模型根据融合的训练数据进行训练,从而得到所述安全帽佩戴检测模型。
在一实施方式中,对输入的所述预设监控区域场景的视频图像进行预处理,其中,所述预处理包括滤波、降噪及归一化。然后将经过预处理的视频图像输入所述输入层,在所述输入层进行训练数据的增强处理。其中,所述增强处理包括Mosaic处理、归一化处理及SAT自对抗训练。所述主干网络采用CSPDarknet53检测网络,用于提取特征。所述颈部网络采用SPP(Spatial Pyramid Pooling,空间金字塔池化)模块和FPN(Feature PyramidNetwork,特征金字塔网络)+PAN(Path Aggregation Network,路径聚合网络),用于对提取的特征进行融合。所述输出层用于输出目标检测框和分类结果(即检测结果)。所述YOLOv4模型的损失函数为CIOU_Loss,目标检测框的筛选算法为DIOU_nms。在损失函数收敛至最小值时,所述YOLOv4模型停止训练,将当前的参数作为最优参数,具有所述最优参数的YOLOv4模型即为所述安全帽佩戴检测模型。
在一实施方式中,S201进一步包括:将所述预设监控区域场景的多个图像和每个图像的检测结果作为测试数据集输入训练建立的所述安全帽佩戴检测模型,验证所述安全帽佩戴检测模型检测所述测试数据集所得到的检测结果是否与测试数据集中的检测结果相同。在所述安全帽佩戴检测模型检测所述测试数据集所得到的检测结果与测试数据集中的检测结果不同时,继续通过所述训练数据集对所述深度神经网络模型进行训练,直至所述安全帽佩戴检测模型检测所述测试数据集所得到的检测结果与测试数据集中的检测结果相同。在所述安全帽佩戴检测模型检测所述测试数据集所得到的检测结果与测试数据集中的检测结果相同时,确定所述安全帽佩戴检测模型通过验证。
S202,实时拍摄当前监控区域场景的视频,通过人体特征识别检测拍摄的视频图像中是否包含至少一个人体。
在一实施方式中,S202包括:通过所述摄像装置实时拍摄当前监控区域场景的视频。
在一实施方式中,所述电子装置1可在施工工地内的高点、装修现场的出入口、行车道路的十字路口等关键监控区域场景部署摄像装置,以采集监控区域场景内的视频图像。所述摄像装置实时拍摄采集视频,可以每隔预设时间检测一次视频中安全帽佩戴情况,例如所述预设时间为三秒。如此,每隔所述预设时间从实时采集的视频中提取对应的视频帧,即视频图像。
在一实施方式中,S202进一步包括:通过人体特征识别检测拍摄的视频图像中是否包含至少一个人体。在一实施方式中,根据人脸特征识别算法识别所述视频图像中是否包含人脸,在所述视频图像中包含人脸时,确定所述视频图像中包含至少一个人体,然后所述流程进入S203。其中,每个人脸对应一个人体。在所述视频图像中不包含人脸时,确定所述视频图像中不包含人体,所述流程继续S202。
S203,根据所述至少一个人体所属的法规规范场景判断所述至少一个人体是否需要佩戴安全帽。
在一实施方式中,由于每个摄像装置拍摄的监控区域场景不同,每个监控区域场景中需要佩戴安全帽的人员也不同。例如,在行车道路的监控区域场景中,骑自行车的人员及在汽车内的人员无需佩戴安全帽,骑电动车及摩托车的人员需要佩戴安全帽。再例如,在施工工地的监控区域场景中,摄像装置拍摄范围内可能存在无需佩戴安全帽的区域,在此区域内的人员无需佩戴安全帽。
在一实施方式中,S203包括:检测所述视频图像中的人体所属的法规规范场景,根据所述人体所属的法规规范场景判断所述人体是否需要佩戴安全帽。例如,当所述监控区域场景为行车道路时,识别所述人体所属的法规规范场景,即判断所述人体所乘坐的交通工具,当识别出的所述交通工具为电动车或摩托车时,判定所述人体所属的法规规范场景中需要佩戴安全帽。再例如,当所述监控区域为施工工地时,识别所述人体所属的法规规范场景,即判断所述人体所在的区域,当识别出的区域为预设的根据规范需要佩戴安全帽的区域时,判定所述人体所属的法规规范场景中需要佩戴安全帽。当判定所述视频图像中的至少一个人体需要佩戴安全帽时,所述流程进入S204。当判定所述视频图像中的人体都不需要佩戴安全帽时,所述流程返回S202。
S204,通过所述安全帽佩戴检测模型检测所述视频图像,判断所述至少一个人体的头部是否佩戴安全帽。
在一实施方式中,S204还包括:对所述当前环境的视频图像进行预处理。其中,所述预处理包括对所述视频图像进行滤波、降噪及归一化处理。
在一实施方式中,将训练建立的所述安全帽佩戴检测模型导入开放神经网络交换(Open Neural Network Exchange,ONNX)模型,在检测拍摄的所述当前监控区域场景的视频图像时,通过所述开放神经网络交换模型运行所述安全帽佩戴检测模型。所述开放神经网络交换模型定义了可扩展计算图模型、标准数据类型及内置运算符,使得模型在运行时无需进行数据转换,可以优化所述安全帽佩戴检测模型的性能,可以提高所述安全帽佩戴检测模型的运行速度。
在一实施方式中,将经过预处理的所述视频图像输入所述安全帽佩戴检测模型,即训练建立的YOLOv4模型。所述YOLOv4模型的输入层用于接收输入的经过预处理的视频图像,所述主干网络用于从所述视频图像提取目标特征,所述颈部网络用于融合提取的目标特征,所述输出层用于根据经过融合的目标特征预测目标特征区域。其中,所述目标特征区域包括所述人体的头部区域及/或安全帽区域。
在一实施方式中,在检测到所述当前监控区域场景的视频图像中的目标特征区域包括所述人体的头部区域及安全帽区域时,确定所述头部区域与所述安全帽区域的重合程度。当所述安全帽佩戴检测模型未检测到所述视频图像中所述人体的安全帽区域或判定检测到的所述头部区域与所述安全帽区域的重合程度未达到预设值,即小于所述预设值时,判定所述人体的头部未佩戴安全帽。当所述安全帽佩戴检测模型检测到所述视频图像中所述人体的安全帽区域且判定检测到的所述头部区域与所述安全帽区域的重合程度达到所述预设值,即大于或等于所述预设值时,判定所述人体的头部佩戴安全帽。
在一实施方式中,通过所述安全帽区域与所述头部区域之间的重合面积表征所述头部区域与所述安全帽区域的重合程度。具体的,当所述安全帽佩戴检测模型未检测到所述视频图像中所述人体的安全帽区域或判定检测到的所述头部区域与所述安全帽区域的重合面积小于所述预设值时,判定所述人体的头部未佩戴安全帽。当所述安全帽佩戴检测模型检测到所述安全帽区域且判定检测到的所述头部区域与所述安全帽区域的重合面积大于或等于所述预设值时,判定所述人体的头部佩戴安全帽。
在一实施方式中,通过人体头部特征识别出所述视频图像中所述人体的完整头部区域,通过安全帽特征识别出所述视频图像中所述人体的安全帽区域,计算所述视频图像中所述人体的完整头部区域与安全帽区域的重合像素面积,作为所述安全帽区域与所述头部区域之间的重合面积。
在另一实施方式中,在检测到所述当前监控区域场景的视频图像中的目标特征区域包括所述人体的头部区域及所述安全帽区域时,判断所述安全帽区域与所述头部区域之间的距离是否小于或等于阈值。在一实施方式中,所述安全帽区域与所述头部区域之间的距离为所述安全帽区域内的第一特征位置与所述头部区域之间的第二特征位置之间的距离。例如,所述第一特征位置为所述安全帽区域的顶端,所述第二特征位置为所述头部区域的鼻子。当所述安全帽佩戴检测模型未检测到所述视频图像中所述人体的安全帽区域或判定所述安全帽区域与所述头部区域之间的距离大于所述阈值时,判定所述人体的头部未佩戴安全帽。当所述安全帽佩戴检测模型检测到所述安全帽区域与所述头部区域之间的距离小于或等于所述阈值时,判定所述人体的头部佩戴安全帽。
在一实施方式中,将所述经过预处理的视频图像输入所述YOLOv4模型的输入层,所述主干网络对所述视频图像进行特征提取,所述颈部网络对提取的特征进行融合,所述输出层用于根据融合特征预测目标特征区域。用检测框框选所述目标特征区域,并对目标特征区域进行分类,分类结果包括佩戴安全帽及未佩戴安全帽。
在一实施方式中,S204进一步包括:将拍摄的所述当前监控区域场景的视频图像与所述预设监控区域场景的多个图像进行对比,判断所述当前监控区域场景是否属于所述预设监控区域场景,当判定所述当前监控区域场景不属于所述预设监控区域场景时,根据所述当前监控区域场景的视频图像及所述安全帽佩戴的检测结果继续对所述深度神经网络模型进行训练,调整所述深度神经网络模型的最优参数,以更新所述安全帽佩戴检测模型。如此,在拍摄的监控区域场景发生变化时,可以根据所述监控区域场景的视频图像及所述安全帽佩戴检测模型对所述安全帽佩戴的检测结果对所述安全帽检测模型进行反馈训练,以提高所述安全帽检测模型检测所述监控区域场景内人员是否按要求佩戴安全帽的精确度。
S205,根据所述至少一个人体的头部是否佩戴安全帽的检测结果在所述视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识,以标示所述检测结果。
在一实施方式中,所述预设标识包括预设颜色的标识框及置信度。S205包括:通过所述安全帽佩戴检测模型确定所述目标特征区域对应的标识框,根据所述检测结果确定所述标识框的预设颜色,计算所述检测结果的置信度,将具有所述预设颜色的标识框及计算得到的所述置信度标示在所述视频图像中人体的头部位置。
在一实施方式中,所述标识框与所述YOLOv4模型的输出层输出的检测框的尺寸一致。例如,所述预设颜色包括绿色及紫色,在判定人体头部佩戴安全帽时,以紫色标识框标示所述人体的头部位置,在判定人体头部未佩戴安全帽时,以绿色框线标示所述人体的头部位置。
在一实施方式中,所述置信度为对象条件类别概率,即所述输出层输出的分类结果的正确率。通过所述安全帽佩戴检测模型计算所述安全帽佩戴检测结果的条件类别概率,以获得所述置信度。
请参阅图4所示,在标示的所述检测结果中,佩戴安全帽的人体头部位置的标识框可以为紫色,标识框上方显示所述置信度,例如99%、97%等。
进一步地,所述方法还包括:将标示有所述标识框及所述置信度的视频图像显示在显示装置,在所述显示装置上显示未佩戴安全帽的人体对应的个人信息,通过音频装置基于所述个人信息输出警示信息。
在一实施方式中,所述当前监控区域场景还可以设置有所述显示装置,用于显示标示有所述标识框及所述置信度的视频图像。所述电子装置1还可以与公安机关的公民信息资料库通信连接,根据所述公民信息资料库中的公民信息对未佩戴安全帽的人员进行人脸识别,确定所述未佩戴安全帽的人员的姓名及性别,根据确定的姓名及性别在所述显示装置上显示未佩戴安全帽的人员对应的个人信息,所述个人信息可以包含所述未佩戴安全帽的人员的姓氏及性别,例如张先生、王女士。例如,所述音频装置基于所述个人信息输出的警示信息为“张先生,为了您的人身安全,请佩戴好安全帽”。
进一步地,所述方法还包括:将标示有所述标识框及所述置信度的视频图像及未佩戴安全帽的人员对应的个人信息上传至服务器3。
在一实施方式中,所述服务器3可以对人员未佩戴安全帽的次数进行计数,在所述人员未佩戴安全帽的次数达到预设次数,例如三次时,确定对所述人员的惩罚措施,并将所述惩罚措施对应的提示信息发送至所述人员的移动终端,例如手机。所述人员收到内容为“您已累计三次违规未佩戴安全帽,请前往XX窗口缴纳罚款”的短信。
本申请提供的安全帽佩戴检测方法通过深度学习建立的安全帽佩戴检测模型检测人员是否佩戴安全帽,提高了安全帽佩戴检测结果的准确度。
如图1所示,所述电子装置1还与摄像装置201、显示装置202、音频装置203、网络装置204、传输装置205及电源装置206连接。在一实施方式中,所述摄像装置201为CCD摄像机,用于拍摄所处监控区域场景的视频。所述显示装置202为LCD大屏幕,用于显示所述摄像装置201拍摄的视频。所述音频装置203为功率喇叭,用于输出警示声音。所述网络装置204为Wi-Fi模组,外部设备可以通过Wi-Fi网络与所述网络装置204通信连接,从而进一步与所述电子装置1通信连接,可以设置所述安全帽佩戴检测模型的各个参数,还可以与所述摄像装置201通信连接,以调整所述摄像装置201的拍摄角度、曝光、增益、视场角等参数,以便于所述摄像装置201拍摄当前监控区域场景的视频。所述传输装置205为5G通信模组,例如5G路由器,用于通过5G网络将所述摄像装置201拍摄的视频及所述电子装置1对安全帽佩戴的检测结果传输至服务器3。所述电源装置206为12V/5A开关电源,用于给所述电子装置1及其连接的装置供电。
请参阅图5所示,为本申请较佳实施方式提供的电子装置的结构示意图。
所述电子装置1包括,但不仅限于,处理器10、存储器20、存储在所述存储器20中并可在所述处理器10上运行的计算机程序30、显卡40及电源管理装置50。例如,所述计算机程序30为安全帽佩戴检测程序。所述处理器10执行所述计算机程序30时实现安全帽佩戴检测方法中的步骤,例如图2所示的步骤S201~S205。
示例性的,所述计算机程序30可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器20中,并由所述处理器10执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,所述指令段用于描述所述计算机程序30在所述电子装置1中的执行过程。
本领域技术人员可以理解,所述示意图仅仅是电子装置1的示例,并不构成对电子装置1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子装置1还可以包括输入输出设备、网络接入设备、总线等。
所称处理器10可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者所述处理器10也可以是任何常规的处理器等,所述处理器10是所述电子装置1的控制中心,利用各种接口和线路连接整个电子装置1的各个部分。
所述存储器20可用于存储所述计算机程序30和/或模块/单元,所述处理器10通过运行或执行存储在所述存储器20内的计算机程序和/或模块/单元,以及调用存储在存储器20内的数据,实现所述电子装置1的各种功能。所述存储器20可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子装置1的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器20可以包括易失性和非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述电子装置1还与电源转换装置207及主控装置208连接,所述主控装置208与开关装置209连接,所述音频装置203与所述开关装置209连接。在所述电子装置1检测到有人员未佩戴安全帽时,输出控制信号至所述主控装置208,所述主控装置208通过所述开关装置209开启所述音频装置203根据所述控制信号输出警示声音。与所述电子装置1连接的所述电源转换装置207为ASM1117 5V电源转换芯片,用于将12V的开关电源转换为5V的电源再对所述电子装置1进行供电。与所述主控装置208连接的电源转换装置207为ASM1117 3.3V电源转换芯片,用于将12V的开关电源转换为3.3V的电源再对所述主控装置208进行供电。
所述电子装置1通过异步传输收发器(UART)分别与所述网络装置204及所述主控装置208通信连接,通过HDMI接口与所述显示装置202通信连接,通过网络接口与所述传输装置205通信连接。
所述电子装置1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本申请提供的安全帽佩戴检测方法、电子装置及存储介质通过深度学习建立的安全帽佩戴检测模型自动检测人员是否佩戴安全帽,提高了安全帽佩戴检测结果的准确度。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由同一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。
Claims (10)
1.一种安全帽佩戴检测方法,其特征在于,所述方法包括:
实时拍摄当前监控区域场景的视频,通过人体特征识别检测拍摄的视频图像中是否包含至少一个人体;
在检测到拍摄的所述视频图像中包含所述至少一个人体时,根据所述至少一个人体所属的法规规范场景判断所述至少一个人体是否需要佩戴安全帽;
当判定所述至少一个人体需要佩戴安全帽时,对拍摄的所述视频图像进行预处理,其中,所述预处理包括滤波、降噪及归一化;
通过安全帽佩戴检测模型检测所述视频图像,判断所述至少一个人体的头部是否佩戴安全帽;
其中,所述安全帽佩戴检测模型为YOLOv4模型,所述YOLOv4模型包括输入层、主干网络、颈部网络和输出层,所述输入层用于接收输入的经过预处理的视频图像,所述主干网络用于从所述视频图像提取目标特征,所述颈部网络用于融合提取的目标特征,所述输出层用于根据经过融合的目标特征预测目标特征区域,所述目标特征区域包括所述人体的头部区域及/或安全帽区域;
在所述安全帽佩戴检测模型检测到所述当前监控区域场景的视频图像中的目标特征区域包括所述人体的头部区域及所述安全帽区域时,确定所述头部区域与所述安全帽区域的重合程度;
在所述安全帽佩戴检测模型未检测到所述视频图像中所述人体的安全帽区域或确定检测到的所述头部区域与所述安全帽区域的重合程度未达到预设值时,判定所述人体的头部未佩戴安全帽;
在确定检测到的所述头部区域与所述安全帽区域的重合程度达到预设值时,判定所述人体的头部佩戴安全帽;
根据所述至少一个人体的头部是否佩戴安全帽的检测结果在所述视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识,以标示所述检测结果。
2.如权利要求1所述的安全帽佩戴检测方法,其特征在于,所述方法还包括:
获取预设监控区域场景的多个图像,所述预设监控区域场景的多个图像包括人体佩戴安全帽的多个正样本图像和人体未佩戴安全帽的多个负样本图像;
获取所述预设监控区域场景的每个图像的检测结果,所述正样本图像的检测结果为人体佩戴安全帽,所述负样本图像的检测结果为人体未佩戴安全帽;及
将所述预设监控区域场景的多个图像和每个图像的检测结果作为训练数据集输入所述YOLOv4模型,对所述YOLOv4模型进行训练,确定所述YOLOv4模型的最优参数,以建立所述安全帽佩戴检测模型。
3.如权利要求2所述的安全帽佩戴检测方法,其特征在于,所述将所述预设监控区域场景的多个图像和每个图像的检测结果作为训练数据集输入所述YOLOv4模型,对所述YOLOv4模型进行训练包括:
将所述预设监控区域场景的图像作为训练数据输入所述输入层,在所述输入层进行训练数据的增强处理,其中,所述增强处理包括Mosaic处理、归一化处理及SAT自对抗训练;
所述主干网络采用CSPDarknet53检测网络,提取所述图像的特征;
所述颈部网络采用空间金字塔池化模块、特征金字塔网络及路径聚合网络,对提取的特征进行融合;
所述输出层输出所述检测结果,其中,所述检测结果包括目标检测框和所述图像中的人体是否佩戴安全帽的分类结果。
4.如权利要求2所述的安全帽佩戴检测方法,其特征在于,所述方法还包括:
将拍摄的所述当前监控区域场景的视频图像与所述预设监控区域场景的多个图像进行对比,判断所述当前监控区域场景是否属于所述预设监控区域场景;及
当判定所述当前监控区域场景不属于所述预设监控区域场景时,根据所述当前监控区域场景的视频图像及所述安全帽佩戴的检测结果继续对所述YOLOv4模型进行训练,调整所述YOLOv4模型的最优参数,以更新所述安全帽佩戴检测模型。
5.如权利要求2所述的安全帽佩戴检测方法,其特征在于,所述方法还包括:
将通过训练建立的所述安全帽佩戴检测模型导入开放神经网络交换模型;及
在检测拍摄的所述当前监控区域场景的视频图像时,通过所述开放神经网络交换模型运行所述安全帽佩戴检测模型。
6.如权利要求1所述的安全帽佩戴检测方法,其特征在于,所述预设标识包括预设颜色的标识框及置信度,所述根据所述至少一个人体的头部是否佩戴安全帽的检测结果在所述视频图像中佩戴安全帽及/或未佩戴安全帽的人体的头部位置添加对应的预设标识包括:
通过所述安全帽佩戴检测模型确定所述目标特征区域对应的标识框;
根据所述检测结果确定所述标识框的预设颜色;
计算所述检测结果的置信度;及
将具有所述预设颜色的标识框及计算得到的所述置信度标示在所述当前监控区域场景的视频图像中所述人体的头部位置。
7.如权利要求6所述的安全帽佩戴检测方法,其特征在于,所述方法还包括:
将标示有所述标识框及所述置信度的视频图像显示在显示装置;
在所述显示装置上显示未佩戴安全帽的人体对应的个人信息;及
通过音频装置基于所述个人信息输出警示信息。
8.如权利要求7所述的安全帽佩戴检测方法,其特征在于,所述方法还包括:
将标示有所述标识框及所述置信度的视频图像及未佩戴安全帽的人员对应的个人信息上传至服务器,通过所述服务器对人员未佩戴安全帽的次数进行计数,在所述人员未佩戴安全帽的次数达到预设次数时,确定对所述人员的惩罚措施,并将所述惩罚措施对应的提示信息发送至所述人员的移动终端。
9.一种电子装置,其特征在于,所述电子装置包括:
处理器;以及
存储器,所述存储器中存储有多个程序模块,所述多个程序模块由所述处理器加载并执行如权利要求1至8中任一项所述的安全帽佩戴检测方法。
10.一种计算机可读存储介质,其上存储有至少一条计算机指令,其特征在于,所述指令由处理器加载并执行如权利要求1至8中任一项所述的安全帽佩戴检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110425177.6A CN113283296A (zh) | 2021-04-20 | 2021-04-20 | 安全帽佩戴检测方法、电子装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110425177.6A CN113283296A (zh) | 2021-04-20 | 2021-04-20 | 安全帽佩戴检测方法、电子装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113283296A true CN113283296A (zh) | 2021-08-20 |
Family
ID=77276865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110425177.6A Pending CN113283296A (zh) | 2021-04-20 | 2021-04-20 | 安全帽佩戴检测方法、电子装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113283296A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723308A (zh) * | 2021-08-31 | 2021-11-30 | 上海西井信息科技有限公司 | 基于图像的防疫套件的检测方法、系统、设备及存储介质 |
CN113920547A (zh) * | 2021-12-14 | 2022-01-11 | 成都考拉悠然科技有限公司 | 一种基于神经网络的手套检测方法及其系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN108564010A (zh) * | 2018-03-28 | 2018-09-21 | 浙江大华技术股份有限公司 | 一种安全帽佩戴的检测方法、装置、电子设备及存储介质 |
CN109670441A (zh) * | 2018-12-14 | 2019-04-23 | 广东亿迅科技有限公司 | 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质 |
CN111814762A (zh) * | 2020-08-24 | 2020-10-23 | 深延科技(北京)有限公司 | 头盔佩戴检测方法和装置 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
CN112329532A (zh) * | 2020-09-30 | 2021-02-05 | 浙江汉德瑞智能科技有限公司 | 基于YOLOv4的自动跟踪安全帽监测方法 |
-
2021
- 2021-04-20 CN CN202110425177.6A patent/CN113283296A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN108564010A (zh) * | 2018-03-28 | 2018-09-21 | 浙江大华技术股份有限公司 | 一种安全帽佩戴的检测方法、装置、电子设备及存储介质 |
CN109670441A (zh) * | 2018-12-14 | 2019-04-23 | 广东亿迅科技有限公司 | 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN111814762A (zh) * | 2020-08-24 | 2020-10-23 | 深延科技(北京)有限公司 | 头盔佩戴检测方法和装置 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
CN112329532A (zh) * | 2020-09-30 | 2021-02-05 | 浙江汉德瑞智能科技有限公司 | 基于YOLOv4的自动跟踪安全帽监测方法 |
Non-Patent Citations (1)
Title |
---|
崔俊: "工地安全帽佩戴监测系统", 《电子世界》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723308A (zh) * | 2021-08-31 | 2021-11-30 | 上海西井信息科技有限公司 | 基于图像的防疫套件的检测方法、系统、设备及存储介质 |
CN113723308B (zh) * | 2021-08-31 | 2023-08-22 | 上海西井科技股份有限公司 | 基于图像的防疫套件的检测方法、系统、设备及存储介质 |
CN113920547A (zh) * | 2021-12-14 | 2022-01-11 | 成都考拉悠然科技有限公司 | 一种基于神经网络的手套检测方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053427B (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 | |
CN110390262B (zh) | 视频分析方法、装置、服务器及存储介质 | |
CN108009473B (zh) | 基于目标行为属性视频结构化处理方法、系统及存储装置 | |
US9721173B2 (en) | Machine learning approach for detecting mobile phone usage by a driver | |
CN108052859B (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
US10796132B2 (en) | Public service system and method using autonomous smart car | |
CN104574547B (zh) | 一种基于人脸识别技术的高速公路防逃费方法 | |
CN109766779B (zh) | 徘徊人员识别方法及相关产品 | |
US20180047193A1 (en) | Adaptive bounding box merge method in blob analysis for video analytics | |
KR101615206B1 (ko) | 차량검출장치 | |
EP3090380A1 (en) | Driver behavior monitoring systems and methods for driver behavior monitoring | |
CN106529401A (zh) | 一种车辆反跟踪方法、装置及系统 | |
CN108376246A (zh) | 一种多人脸识别及跟踪系统及方法 | |
CN110728218A (zh) | 危险驾驶行为的预警方法、装置、电子设备及存储介质 | |
CN110889334A (zh) | 人员闯入识别方法及装置 | |
CN113283296A (zh) | 安全帽佩戴检测方法、电子装置及存储介质 | |
CN111444798A (zh) | 电动自行车驾驶行为的识别方法、装置和计算机设备 | |
KR100948382B1 (ko) | 방범 서비스 방법 및 시스템 | |
CN112464030B (zh) | 一种可疑人员确定方法及装置 | |
KR101092472B1 (ko) | 감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법 | |
JP2020518165A (ja) | 異なるデバイスによって生成されたビデオ画像、ピクチャ等のコンテンツの管理および検証のためのプラットフォーム | |
US20180189588A1 (en) | Device for reading vehicle license plate number and method therefor | |
CN114926824A (zh) | 一种不良驾驶行为判别方法 | |
CN106327876B (zh) | 一种基于行车记录仪的套牌车捕捉系统及方法 | |
CN109214316B (zh) | 周界防护方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210820 |