CN113255826B - 一种基于改进yolov3的安全帽佩戴检测方法及系统 - Google Patents
一种基于改进yolov3的安全帽佩戴检测方法及系统 Download PDFInfo
- Publication number
- CN113255826B CN113255826B CN202110669574.8A CN202110669574A CN113255826B CN 113255826 B CN113255826 B CN 113255826B CN 202110669574 A CN202110669574 A CN 202110669574A CN 113255826 B CN113255826 B CN 113255826B
- Authority
- CN
- China
- Prior art keywords
- frame
- pedestrian
- detection
- target
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于改进YOLOV3的安全帽佩戴检测方法及系统,通过将改进YOLOV3目标检测算法运用于行人检测模型中,提高了目标检测算法精度,降低了算法训练计算量,同时,基于IoU Tracker跟踪算法对目标行人进行持续跟踪,还通过人头检测模型对目标行人的头部识别,并通过安全帽分类模型对头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽,最后,还基于预设的佩戴判定规则判定相应的目标行人是否佩戴安全帽,从而能够提高安全帽佩戴检测的灵活性和可靠性,降低了当工作人员低头或临时被遮挡时产生误检从而导致的误报情况频发的概率。
Description
技术领域
本申请涉及图像检测技术领域,尤其涉及一种基于改进YOLOV3的安全帽佩戴检测方法及系统。
背景技术
在变电站日常运维、施工的环境中,安全帽对工作人员的头部起到了至关重要的保护作用。传统的人工检测方式主要通过观看监控视频进行检测,需要耗费大量的人力,且监控人员易疲劳,易出现误检的现象。以视频自动监控的方式进行安全帽的检测,可以减少人力、可以准确的监控变电站内作业人员的安全帽佩戴情况,降低了他们发生意外危险的概率。
公开号为CN112307984A的中国专利申请公开了基于神经网络的安全帽检测方法和装置,它基于YOLOv3算法作为基础网络,并对YOLOv3结构进行改进,实现了对安全帽和人的检测精度有明显提升的效果。但是,当出现工作人员低头或临时被遮挡时,采用上述方法仍然会产生误检的情况,如判断为未佩戴安全帽,从而导致误报的情况频发。
发明内容
本申请提供了一种基于改进YOLOV3的安全帽佩戴检测方法及系统,用于解决当工作人员低头或临时被遮挡时产生误检,从而导致误报的情况频发的技术问题。
有鉴于此,本申请第一方面提供了一种基于改进YOLOV3的安全帽佩戴检测方法,包括以下步骤:
S1、将变电站内的监控视频流解码为多个帧图像;
S2、基于行人检测模型检测每个所述帧图像中的目标行人,所述行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,所述改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,所述LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含所述预测框和所述真实框的最小框得到;
S3、生成行人检测框对所述目标行人进行标注,并对每个检测出的所述目标行人分配不同的ID;
S4、基于IoU Tracker跟踪算法在连续的所述帧图像中对所述目标行人进行持续跟踪;
S5、基于人头检测模型检测所述行人检测框中的所述目标行人的头部,生成头部检测框对所述头部进行标注;
S6、基于安全帽分类模型对所述头部检测框中的所述头部进行安全帽佩戴分类,从而判断每个所述帧图像中所述目标行人是否佩戴安全帽;
S7、获取同一ID的所述目标行人在连续的所述帧图像中的安全帽佩戴判断结果,当连续的N个所述帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的所述目标行人未佩戴安全帽。
优选地,步骤S2之前包括:
S21、制备带有行人标注信息的视频帧行人图像数据集,其中,行人标注信息包括行人预测框;
S22、基于所述视频帧行人图像数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出所述行人检测模型。
优选地,步骤S5之前包括:
S51、对所述视频帧行人图像数据集中的所述行人预测框进行截取,从而得到行人预测框数据集;
S52、通过头部预测框对所述行人预测框数据集中的头部进行标注,以获得头部数据集;
S53、基于所述头部数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出所述人头检测模型。
优选地,步骤S6之前包括:
S61、对所述头部数据集中的所述头部预测框进行截取,从而得到头部预测框数据集;
S62、判断所述头部预测框数据集中的头部是否佩戴有安全帽,根据安全帽佩戴结果对所述头部预测框数据集中的头部进行分类标注,其标注内容为未佩戴安全帽或佩戴安全帽,从而获得安全帽数据集;
S63、基于所述安全帽数据集作为训练集,对ResNet-50网络结构进行训练迭代,从而得出所述安全帽分类模型。
优选地,步骤S4具体包括:
基于IoU Tracker跟踪算法对连续前后两个所述帧图像中的所述行人检测框进行关联,具体为:当前后两个所述帧图像中的所述行人检测框的重叠程度大于预设的重叠程度值时,则判定为同一个目标行人,并向相应的两个所述帧图像中的所述目标行人分配同样的ID;当所述帧图像中的所述行人检测框在其它所述帧图像中未匹配与其的重叠程度大于预设的重叠程度值的所述行人检测框时,则判定有新的目标行人出现,并向相应的所述新的目标行人分配新的ID。
优选地,步骤S7之后还包括:
当判定为所述目标行人未佩戴安全帽时,则发出告警信号。
第二方面,本发明还提供了一种基于改进YOLOV3的安全帽佩戴检测系统,包括:
解码模块,用于将变电站内的监控视频流解码为多个帧图像;
行人检测模块,用于基于行人检测模型检测每个所述帧图像中的目标行人,所述行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,所述改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,所述LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含所述预测框和所述真实框的最小框得到;
标注模块,用于生成行人检测框对所述目标行人进行标注,还用于对每个检测出的所述目标行人分配不同的ID;
跟踪模块,用于基于IoU Tracker跟踪算法在连续的所述帧图像中对所述目标行人进行持续跟踪;
人头检测模块,用于基于人头检测模型检测所述行人检测框中的所述目标行人的头部,还用于生成头部检测框对所述头部进行标注;
安全帽分类模块,用于基于安全帽分类模型对所述头部检测框中的所述头部进行安全帽佩戴分类,从而判断每个所述帧图像中所述目标行人是否佩戴安全帽;
判定模块,用于获取同一ID的所述目标行人在连续的所述帧图像中的安全帽佩戴判断结果,还用于当连续的N个所述帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的所述目标行人未佩戴安全帽。
第三方面,本发明还提供了一种计算机可读存储介质,其中存储有计算机程序,所述计算机程序被处理器加载执行时,实现如上述的基于改进YOLOV3的安全帽佩戴检测方法。
第四方面,本发明还提供了一种电子设备,包括:处理器及存储器;其中,所述存储器用于存储计算机程序;所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如上述的基于改进YOLOV3的安全帽佩戴检测方法。
从以上技术方案可以看出,本发明例具有以下优点:
本发明通过将改进YOLOV3目标检测算法运用于行人检测模型中,提高了目标检测算法精度,降低了算法训练计算量,同时,基于IoU Tracker跟踪算法对目标行人进行持续跟踪,还通过人头检测模型对目标行人的头部识别,并通过安全帽分类模型对头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽,最后,还基于预设的佩戴判定规则判定相应的目标行人是否佩戴安全帽,从而能够提高安全帽佩戴检测的灵活性和可靠性,降低了当工作人员低头或临时被遮挡时产生误检从而导致的误报的情况频发的概率。
附图说明
图1为本申请实施例提供的一种基于改进YOLOV3的安全帽佩戴检测方法的流程图;
图2为本申请实施例提供的预测框和真实框的重叠情况示意图;
图3为本申请实施例提供的一种基于改进YOLOV3的安全帽佩戴检测系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
由于目前的安全帽佩戴检测方法在对变电站内的工作人员是否佩戴安全帽检测过程中,当出现工作人员低头或临时被遮挡时,仍然会产生误检的情况,如判断为未佩戴安全帽,从而导致误报的情况频发。
请参阅图1,为了解决上述问题,本发明提供的一种基于改进YOLOV3的安全帽佩戴检测方法,包括以下步骤:
S1、将变电站内的监控视频流解码为多个帧图像;
需要说明的是,该方法可以应用至现有的变电站视频监控系统中,并从摄像头中获取变电站内的监控视频流。
S2、基于行人检测模型检测每个帧图像中的目标行人,行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含预测框和真实框的最小框得到;
需要说明的是,如图2所示,其示意出了预测框和真实框的重叠情况示意图,其中,A为真实框,B为预测框,C为包含预测框和真实框的最小框,AB为真实框与预测框的重叠区域,d1和d2均为在包含预测框和真实框的最小框C中的真实框与预测框的非重叠区域。
在计算IOU(Intersection over union,重叠度)损失函数时,也即交并比,是计算预测框和真实框的交集和并集的比值,其计算公式表示为,
由于IoU损失函数是比值的概念,对目标物体的尺度是不敏感的,计算GIOU(Generalized Intersection over Union,广义重叠度)损失函数时,考虑了预测框和真实框的尺度,其计算公式表示为,
在本实施例中,采用LossIOU_GIOU损失函数进行训练改进YOLOV3目标检测算法,其LossIOU_GIOU损失函数是基于预测框和真实框的重叠区域以及包含预测框和真实框的最小框得到,其计算公式表示为,
由上式可以得出,LossIOU_GIOU损失函数即考虑了预测框和真实框的重叠区域,又考虑了重非重叠区域的面积,包含了IoU损失函数和GIOU损失函数的特性,同时,LossIOU_GIOU损失函数相比于GIOU损失函数的计算工作量较小,使算法训练速度更快,训练出来的算法行人检测框精度更高。
YOLO英文全称You Only Look Once,YOLOv3算法是通过其网络结构去实现的。
S3、生成行人检测框对目标行人进行标注,并对每个检测出的目标行人分配不同的ID;
可以理解的是,基于改进YOLOV3目标检测算法可以对目标行人进行标注,其标注形式即将目标行人框起来,同时,对每个检测出的目标行人分配不同的ID,其每个目标行人的ID是唯一的,如0001,0002,0003等。
S4、基于IoU Tracker跟踪算法在连续的帧图像中对目标行人进行持续跟踪;
S5、基于人头检测模型检测行人检测框中的目标行人的头部,生成头部检测框对头部进行标注;
S6、基于安全帽分类模型对头部检测框中的头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽;
需要说明的是,安全帽佩戴分类的结果为未佩戴安全帽和佩戴安全帽。
S7、获取同一ID的目标行人在连续的帧图像中的安全帽佩戴判断结果,当连续的N个帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的目标行人未佩戴安全帽。
需要说明的是,在经过对连续N个帧图像中的目标行人的检测和跟踪,获取目标行人在N个帧图像中安全帽佩戴结果,如果对于ID为0001的目标行人,在N个帧图像内均判别为未佩戴安全帽,则判定ID为0001的目标行人未佩戴安全帽,从而降低了当工作人员低头或临时被遮挡时产生误检的概率。
在本实施例中,通过将改进YOLOV3目标检测算法运用于行人检测模型中,提高了目标检测算法精度,降低了算法训练计算量,同时,基于IoU Tracker跟踪算法对目标行人进行持续跟踪,还通过人头检测模型对目标行人的头部识别,并通过安全帽分类模型对头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽,最后,还基于预设的佩戴判定规则判定相应的目标行人是否佩戴安全帽,从而能够提高安全帽佩戴检测的灵活性和可靠性,降低了当工作人员低头或临时被遮挡时产生误检从而导致的误报的情况频发的概率。
进一步地,步骤S2之前包括:
S21、制备带有行人标注信息的视频帧行人图像数据集,其中,行人标注信息包括行人预测框;
需要说明的是,本实施例中的数据集是基于变电站应用场所中得到的,因此,其视频帧行人图像数据集是由变电站中获得。采用LabelImage软件对初始的视频帧行人图像数据集中每帧视频帧行人图像进行标注,得到视频帧行人图像数据集。另外,在其它实施例中,还可以对视频帧行人图像数据集进行增广操作,以获得更多场景的大量视频帧行人图像数据。
S22、基于视频帧行人图像数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出行人检测模型。
进一步地,步骤S5之前包括:
S51、对视频帧行人图像数据集中的行人预测框进行截取,从而得到行人预测框数据集;
需要说明的是,基于YOLOV3目标检测算法,在检测出目标行人后,在原图中给出目标行人的坐标信息(检测框的坐标),以坐标信息为基准,在原图上进行截取操作(抠图操作)。
S52、通过头部预测框对行人预测框数据集中的头部进行标注,以获得头部数据集;
S53、基于头部数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出人头检测模型。
进一步地,步骤S6之前包括:
S61、对头部数据集中的头部预测框进行截取,从而得到头部预测框数据集;
需要说明的是,基于YOLOV3目标检测算法,在检测出头部后,在原图中给出头部的坐标信息(检测框的坐标),以坐标信息为基准,在原图上进行截取操作(抠图操作)。
S62、判断头部预测框数据集中的头部是否佩戴有安全帽,根据安全帽佩戴结果对头部预测框数据集中的头部进行分类标注,其标注内容为未佩戴安全帽或佩戴安全帽,从而获得安全帽数据集;
S63、基于安全帽数据集作为训练集,对ResNet-50网络结构进行训练迭代,从而得出安全帽分类模型。
进一步地,步骤S4具体包括:
基于IoU Tracker跟踪算法对连续前后两个帧图像中的行人检测框进行关联,具体为:当前后两个帧图像中的行人检测框的重叠程度大于预设的重叠程度值时,则判定为同一个目标行人,并向相应的两个帧图像中的目标行人分配同样的ID;当帧图像中的行人检测框在其它帧图像中未匹配与其的重叠程度大于预设的重叠程度值的行人检测框时,则判定有新的目标行人出现,并向相应的新的目标行人分配新的ID。
需要说明的是,在IoU Tracker跟踪算法中,采用IOU(Intersection over union)值反映前后两个帧图像中的行人检测框的重叠程度,IOU值即交并比,是通过预测框和真实框的交集和并集之间的比值计算得到。在处理每个帧图像中的行人检测框时,需要对当前追踪的目标行人检测框,从上一个帧图像中所有检测到的行人检测框中选取与其之间的IOU值最大的行人检测框,若该IOU值大于预设的重叠程度值,则说明两者匹配,并向两者分配同样的ID,否则匹配失败,如果不存在与其匹配的行人检测框,则认为是新出现的目标,并为之创建一个新的ID。
进一步地,步骤S7之后还包括:
当判定为目标行人未佩戴安全帽时,则发出告警信号。
需要说明的是,告警信号的发送方式可以为声光报警,也可以为语音提醒。
以下为实现本发明提供的一种基于改进YOLOV3的安全帽佩戴检测方法的系统,为了方便理解,请参阅图3,本发明提供的一种基于改进YOLOV3的安全帽佩戴检测系统,包括:
解码模块100,用于将变电站内的监控视频流解码为多个帧图像;
行人检测模块200,用于基于行人检测模型检测每个帧图像中的目标行人,行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含预测框和真实框的最小框得到;
标注模块300,用于生成行人检测框对目标行人进行标注,还用于对每个检测出的目标行人分配不同的ID;
跟踪模块400,用于基于IoU Tracker跟踪算法在连续的帧图像中对目标行人进行持续跟踪;
人头检测模块500,用于基于人头检测模型检测行人检测框中的目标行人的头部,还用于生成头部检测框对头部进行标注;
安全帽分类模块600,用于基于安全帽分类模型对头部检测框中的头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽;
判定模块700,用于获取同一ID的目标行人在连续的帧图像中的安全帽佩戴判断结果,还用于当连续的N个帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的目标行人未佩戴安全帽。
在本实施例与上述的基于改进YOLOV3的安全帽佩戴检测方法的工作过程一致,在此不再赘述。
本实施例通过将改进YOLOV3目标检测算法运用于行人检测模型中,提高了目标检测算法精度,降低了算法训练计算量,同时,基于IoU Tracker跟踪算法对目标行人进行持续跟踪,还通过人头检测模型对目标行人的头部识别,并通过安全帽分类模型对头部进行安全帽佩戴分类,从而判断每个帧图像中目标行人是否佩戴安全帽,最后,还基于预设的佩戴判定规则判定相应的目标行人是否佩戴安全帽,从而能够提高安全帽佩戴检测的灵活性和可靠性,降低了当工作人员低头或临时被遮挡时产生误检从而导致的误报的情况频发的概率。
本发明还提供了一种计算机可读存储介质,其中存储有计算机程序,计算机程序被处理器加载执行时,实现如上述的基于改进YOLOV3的安全帽佩戴检测方法。
本发明还提供了一种电子设备,包括:处理器及存储器;其中,存储器用于存储计算机程序;处理器用于加载执行计算机程序,以使电子设备执行如上述的基于改进YOLOV3的安全帽佩戴检测方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (9)
1.一种基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,包括以下步骤:
S1、将变电站内的监控视频流解码为多个帧图像;
S2、基于行人检测模型检测每个所述帧图像中的目标行人,所述行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,所述改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,所述LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含所述预测框和所述真实框的最小框得到,其计算公式表示为,
式中,A为真实框,B为预测框,C为包含预测框和真实框的最小框;
S3、生成行人检测框对所述目标行人进行标注,并对每个检测出的所述目标行人分配不同的ID;
S4、基于IoU Tracker跟踪算法在连续的所述帧图像中对所述目标行人进行持续跟踪;
S5、基于人头检测模型检测所述行人检测框中的所述目标行人的头部,生成头部检测框对所述头部进行标注;
S6、基于安全帽分类模型对所述头部检测框中的所述头部进行安全帽佩戴分类,从而判断每个所述帧图像中所述目标行人是否佩戴安全帽;
S7、获取同一ID的所述目标行人在连续的所述帧图像中的安全帽佩戴判断结果,当连续的N个所述帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的所述目标行人未佩戴安全帽。
2.根据权利要求1所述的基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,步骤S2之前包括:
S21、制备带有行人标注信息的视频帧行人图像数据集,其中,行人标注信息包括行人预测框;
S22、基于所述视频帧行人图像数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出所述行人检测模型。
3.根据权利要求2所述的基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,步骤S5之前包括:
S51、对所述视频帧行人图像数据集中的所述行人预测框进行截取,从而得到行人预测框数据集;
S52、通过头部预测框对所述行人预测框数据集中的头部进行标注,以获得头部数据集;
S53、基于所述头部数据集作为训练集,以LossIOU_GIOU损失函数作为边框置信度损失函数,对YOLOV3目标检测算法进行训练迭代,从而得出所述人头检测模型。
4.根据权利要求3所述的基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,步骤S6之前包括:
S61、对所述头部数据集中的所述头部预测框进行截取,从而得到头部预测框数据集;
S62、判断所述头部预测框数据集中的头部是否佩戴有安全帽,根据安全帽佩戴结果对所述头部预测框数据集中的头部进行分类标注,其标注内容为未佩戴安全帽或佩戴安全帽,从而获得安全帽数据集;
S63、基于所述安全帽数据集作为训练集,对ResNet-50网络结构进行训练迭代,从而得出所述安全帽分类模型。
5.根据权利要求1所述的基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,步骤S4具体包括:
基于IoU Tracker跟踪算法对连续前后两个所述帧图像中的所述行人检测框进行关联,具体为:当前后两个所述帧图像中的所述行人检测框的重叠程度大于预设的重叠程度值时,则判定为同一个目标行人,并向相应的两个所述帧图像中的所述目标行人分配同样的ID;当所述帧图像中的所述行人检测框在其它所述帧图像中未匹配与其的重叠程度大于预设的重叠程度值的所述行人检测框时,则判定有新的目标行人出现,并向相应的所述新的目标行人分配新的ID。
6.根据权利要求1所述的基于改进YOLOV3的安全帽佩戴检测方法,其特征在于,步骤S7之后还包括:
当判定为所述目标行人未佩戴安全帽时,则发出告警信号。
7.一种基于改进YOLOV3的安全帽佩戴检测系统,其特征在于,包括:
解码模块,用于将变电站内的监控视频流解码为多个帧图像;
行人检测模块,用于基于行人检测模型检测每个所述帧图像中的目标行人,所述行人检测模型是预先基于改进YOLOV3目标检测算法训练得到,所述改进YOLOV3目标检测算法采用LossIOU_GIOU损失函数进行训练,所述LossIOU_GIOU损失函数为基于预测框和真实框的重叠区域以及包含所述预测框和所述真实框的最小框得到,其计算公式表示为,
式中,A为真实框,B为预测框,C为包含预测框和真实框的最小框;
标注模块,用于生成行人检测框对所述目标行人进行标注,还用于对每个检测出的所述目标行人分配不同的ID;
跟踪模块,用于基于IoU Tracker跟踪算法在连续的所述帧图像中对所述目标行人进行持续跟踪;
人头检测模块,用于基于人头检测模型检测所述行人检测框中的所述目标行人的头部,还用于生成头部检测框对所述头部进行标注;
安全帽分类模块,用于基于安全帽分类模型对所述头部检测框中的所述头部进行安全帽佩戴分类,从而判断每个所述帧图像中所述目标行人是否佩戴安全帽;
判定模块,用于获取同一ID的所述目标行人在连续的所述帧图像中的安全帽佩戴判断结果,还用于当连续的N个所述帧图像中的安全帽佩戴判断结果为未佩戴安全帽,且N值大于预设帧值,则判定相应的所述目标行人未佩戴安全帽。
8.一种计算机可读存储介质,其中存储有计算机程序,其特征在于,所述计算机程序被处理器加载执行时,实现如权利要求1所述的基于改进YOLOV3的安全帽佩戴检测方法。
9.一种电子设备,其特征在于,包括:处理器及存储器;其中,所述存储器用于存储计算机程序;所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如权利要求1所述的基于改进YOLOV3的安全帽佩戴检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110669574.8A CN113255826B (zh) | 2021-06-17 | 2021-06-17 | 一种基于改进yolov3的安全帽佩戴检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110669574.8A CN113255826B (zh) | 2021-06-17 | 2021-06-17 | 一种基于改进yolov3的安全帽佩戴检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255826A CN113255826A (zh) | 2021-08-13 |
CN113255826B true CN113255826B (zh) | 2021-09-24 |
Family
ID=77188298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110669574.8A Active CN113255826B (zh) | 2021-06-17 | 2021-06-17 | 一种基于改进yolov3的安全帽佩戴检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255826B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792629B (zh) * | 2021-08-31 | 2023-07-18 | 华南理工大学 | 一种基于深度神经网络的安全帽佩戴检测方法及系统 |
CN113781469A (zh) * | 2021-09-24 | 2021-12-10 | 南方科技大学嘉兴研究院 | 基于yolo改进模型的安全头盔佩戴检测的方法及系统 |
CN116092198B (zh) * | 2023-03-31 | 2023-07-21 | 常州海图信息科技股份有限公司 | 一种矿用安全帽识别检测方法、装置、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570389B (zh) * | 2018-09-18 | 2020-07-17 | 阿里巴巴集团控股有限公司 | 车辆损伤识别方法及装置 |
CN110119686B (zh) * | 2019-04-17 | 2020-09-25 | 电子科技大学 | 一种基于卷积神经网络的安全帽实时检测方法 |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
CN111598066A (zh) * | 2020-07-24 | 2020-08-28 | 之江实验室 | 一种基于级联预测的安全帽佩戴识别方法 |
CN112287788A (zh) * | 2020-10-20 | 2021-01-29 | 杭州电子科技大学 | 基于改进YOLOv3和改进NMS的行人检测方法 |
CN112329658B (zh) * | 2020-11-10 | 2024-04-02 | 江苏科技大学 | 一种对于yolov3网络的检测算法改进方法 |
-
2021
- 2021-06-17 CN CN202110669574.8A patent/CN113255826B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113255826A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113255826B (zh) | 一种基于改进yolov3的安全帽佩戴检测方法及系统 | |
CN108921159B (zh) | 用于检测安全帽的佩戴情况的方法和装置 | |
US10055961B1 (en) | Surveillance system and method for predicting patient falls using motion feature patterns | |
US8139817B2 (en) | Face image log creation | |
WO2020215552A1 (zh) | 多目标跟踪方法、装置、计算机设备及存储介质 | |
US20180115749A1 (en) | Surveillance system and surveillance method | |
US10795928B2 (en) | Image search apparatus, system, and method | |
US9292939B2 (en) | Information processing system, information processing method and program | |
KR102144531B1 (ko) | 딥 러닝 영상분석을 활용한 객체 메타데이터 기반의 자동 선별관제 방법 | |
CN113177469B (zh) | 人体属性检测模型的训练方法、装置、电子设备及介质 | |
CN111753724A (zh) | 一种异常行为识别方法及装置 | |
CN110619324A (zh) | 一种行人和安全帽检测方法、装置及系统 | |
CN113989858B (zh) | 一种工作服识别方法及系统 | |
US20230039549A1 (en) | Methods and apparatuses for early warning of climbing behaviors, electronic devices and storage media | |
CN110751809A (zh) | 施工安全监控方法及相关产品 | |
JP2009140264A (ja) | 犯罪防止装置及び犯罪防止プログラム | |
CN115565101A (zh) | 一种生产安全异常识别方法、装置、电子设备及存储介质 | |
CN116206255A (zh) | 基于机器视觉的危险区域人员监控方法与装置 | |
KR20160108740A (ko) | 작업 현장 영상 데이터 내의 작업자 인식 방법 | |
CN114092875A (zh) | 基于机器学习的作业现场安全监管方法及装置 | |
WO2018173947A1 (ja) | 画像検索装置 | |
CN114220117A (zh) | 一种穿戴合规性检测方法、装置和计算机可读存储介质 | |
CN111382705A (zh) | 逆行行为检测方法、装置、电子设备及可读存储介质 | |
CN111582183A (zh) | 一种公共场所的口罩识别方法及系统 | |
CN113947795A (zh) | 口罩佩戴检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |