CN115359392A - 一种基于改进YOLOv5模型的路边施工行为检测方法 - Google Patents
一种基于改进YOLOv5模型的路边施工行为检测方法 Download PDFInfo
- Publication number
- CN115359392A CN115359392A CN202210967046.5A CN202210967046A CN115359392A CN 115359392 A CN115359392 A CN 115359392A CN 202210967046 A CN202210967046 A CN 202210967046A CN 115359392 A CN115359392 A CN 115359392A
- Authority
- CN
- China
- Prior art keywords
- data set
- model
- feature
- network
- improved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Abstract
本发明公开了一种基于改进YOLOv5模型的路边施工行为检测方法,该方法包括:获取图像数据集并进行标注,得到带标注的数据集;以YOLOv5模型为基础,在Backbone骨干网络中增加CBAM注意力机制模块,在Neck网络中将自底向上特征金字塔改为加权双向特征金字塔,得到改进后的YOLOv5模型;基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型;将待测视频输入至检测模型进行识别,得到识别结果。能够通过沿途摄像头捕捉的视频,对路边施工行为检测识别并预警。本发明作为一种基于改进YOLOv5模型的路边施工行为检测方法,可广泛应用于图像检测领域。
Description
技术领域
本发明涉及图像检测领域,尤其涉及一种基于改进YOLOv5模型的路边施工行为检测方法。
背景技术
随着燃气管线、光缆输送线等地下铺设网的逐渐丰富,对埋设区域进行实时的监控保护,需要及时发现违法施工并进行预警变得尤为重要,光缆输送线和燃气管线路的早期巡检工作主要由人工排查方式来完成的,即工作负责人员到达现场通过肉眼观察,查找并识别线路上的安全隐患点,但这种巡检方式效率低、难度大且可靠性差。如今新巡检方法逐步取代人工巡检,这个新的巡检方法是通过图像采集工具,如高清摄像机,然后工作人员可以查看和分析收集到的视频图像,以此来判断光缆输送线和燃气管线路周边是否因为施工而存在安全隐患。然而,使用这种新的巡检方法,视频终端采集图像所产生的数据量巨大,还是需要工作人员再通过肉眼看,造成工作量繁重,以及容易出现漏判或者误判的情况,而且无法及时准确地发现光缆输送线和燃气管线路上存在的安全隐患。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于改进YOLOv5模型的路边施工行为检测方法,能够通过沿途摄像头捕捉的视频,对路边施工行为检测识别并预警。
本发明所采用的第一技术方案是:一种基于改进YOLOv5模型的路边施工行为检测方法,包括以下步骤:
获取图像数据集并进行标注,得到带标注的数据集;
以YOLOv5模型为基础,在Backbone骨干网络中增加CBAM注意力机制模块,在Neck网络中将自底向上特征金字塔改为加权双向特征金字塔,得到改进后的YOLOv5模型;
基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型;
将待测视频输入至检测模型进行识别,得到识别结果。
进一步,还包括:
根据精度指标和召回率指标评估检测模型的性能。
进一步,所述获取图像数据集并进行标注,得到带标注的数据集这一步骤,其具体包括:
获取图像数据集,所述图像图像数据集包括工程车辆、工人和施工警示物体;
对图像数据集进行标注,得到带标注的数据集;
工程车辆的标注包括挖掘机、卡车、装载机、推土机和混凝土车,施工警示物体的标注包括路锥、塑料隔离墩和施工预警牌。
进一步,所述改进后的YOLOv5模型包括输入端、Backbone骨干网络、Neck网络和Head输出端。
进一步,所述基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型这一步骤,其具体包括:
基于输入端对带标注的数据集中的图片进行预处理,得到预处理后的图片;
基于Backbone骨干网络对预处理后的图片进行特征提取,得到初步特征图;
基于Neck网络对初步特征图进行特征融合,得到最终特征图;
基于Head输出端根据最终特征图输出特征张量;
根据特征张量生成预测框信息;
将预测框信息与真实框进行匹配并计算损失函数,优化改进后的YOLOv5模型的参数,得到检测模型。
进一步,所述基于输入端对带标注的数据集中的图片进行预处理,得到预处理后的图片这一步骤,其具体包括:
将带标注的数据集输入至输入端;
基于Mosaic方式对带标注的数据集中的图片进行数据增强,得到数据增强后的数据集;
根据数据增强后的数据集设定初始锚框;
将数据增强后的数据集中的图片进行自适应图片缩放,得到预处理后的图片。
进一步,所述基于Backbone骨干网络对预处理后的图片进行特征提取,得到初步特征图这一步骤,其具体包括:
将预处理后的图片输入至Backbone骨干网络;
基于Backbone骨干网络的Focus结构进行切片操作;
将CBAM注意力机制模块置于C3模块之后;
基于C3模块进行特征提取并通过CBAM模块加强对小目标物体的特征信息的学习,得到初步特征图。
进一步,所述基于Neck网络对初步特征图进行特征融合,得到最终特征图这一步骤,其具体包括:
将初步特征图输入至Neck网络;
基于双向特征金字塔对初步特征图在不同尺度间进行融合,通过上采样和下采样同一特征分辨率尺度,并在同一特征的原始输入和输出节点之间添加横向连接,得到最终特征图。
进一步,所述损失函数的公式如下所示:
上式中,Bp为预测边界框,Bg为标注边界框,ρ为欧氏距离,p为预测边界框中心点,pgt为标注边界框中心点,c为框之间最小外接矩形框的对角线距离,w和h为预测边界框的宽和高,Wgt和hgt为标注边界框的宽和高,α为权重函数,v表示衡量长宽比的一致性。
本发明方法的有益效果是:本发明通过改进现有网络模型以实现高精度检测的目的,通过沿途摄像头捕捉的视频,对路边施工的工人,路锥和挖掘机、装载机、卡车等工程车辆进行检测识别并预警,达到智能巡检的效果,具备较高的实用价值。
附图说明
图1是本发明一种基于改进YOLOv5模型的路边施工行为检测方法的步骤流程图;
图2是本发明具体实施例改进后的YOLOv5模型的示意图;
图3是现有的Mosaic方式数据增强的原理示意图;
图4是本发明具体实施例Mosaic方式数据增强的原理示意图;
图5是本发明具体实施例加权双向特征金字塔的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1和图2,本发明提供了一种基于改进YOLOv5模型的路边施工行为检测方法,该方法包括以下步骤:
S1、获取图像数据集并进行标注,得到带标注的数据集;
S1.1、获取图像数据集,所述图像图像数据集包括工程车辆、工人和施工警示物体;
S1.2、对图像数据集进行标注,得到带标注的数据集;
S1.3、工程车辆的标注包括挖掘机、卡车、装载机、推土机和混凝土车,施工警示物体的标注包括路锥、塑料隔离墩和施工预警牌。
具体地,还包括将标注后的数据集转化为YOLOlabel格式,并进行训练集和测试集的划分,训练集和测试集比例为8:2。
S2、以YOLOv5模型为基础,在Backbone骨干网络中增加CBAM注意力机制模块,在Neck网络中将自底向上特征金字塔改为加权双向特征金字塔,得到改进后的YOLOv5模型;
具体地,所述改进后的YOLOv5模型包括输入端、Backbone骨干网络、Neck网络和Head输出端。
S3、基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型;
S3.1、基于输入端对带标注的数据集中的图片进行预处理,得到预处理后的图片;
具体地,图片预处理是将输入的图像缩放到网络的输入大小,并进行归一化等操作。在网络训练阶段,YOLOv5使用Mosaic数据增强操作提升模型的训练速度和网络的精度,并提出了一种自适应锚框计算与自适应图片缩放方法。
S3.1.1、将带标注的数据集输入至输入端;
S3.1.2、基于mixup和Mosaic方式对带标注的数据集中的图片进行数据增强,得到数据增强后的数据集;
具体地,Mosaic方式是一种混合四幅训练图像的数据增强方法,这种数据增强的方法可以丰富检测物体的背景,提高检测的精度。如图3所示,现有网络的Mosaic数据增强的基本流程为首先随机读取四张图片,然后分别对四张图片进行裁剪、翻转、缩放、色域变化等,并且按照四个方向位置摆好,最后再进行图片的组合。基于此,本改进的模型采用Mosaic方法的增强版—Mosaic-9,如图4所示,对9张图片随机裁剪、随机缩放、随机排列组合成一张图片,以此来对现有的YOLOv5网络模型改进,更利于小样本目标的检测。同时在Mosaic-9之前采用mixup数据增强,核心思想是从每个batch中随机选择两张图像,并以一定比例混合生成新的图像。需要注意的是,全部训练过程都只采用混合的新图像训练,原始图像不参与训练过程。mixup数据增强消除对错误标签的记忆、对对抗样本的敏感性以及对抗训练的不稳定性。
S3.1.3、根据数据增强后的数据集设定初始锚框;
具体地,在YOLOv5网络中,针对不同的数据集,都需要设定特定长宽的锚点框。在网络训练阶段,模型在初始锚点框的基础上输出对应的预测框,计算其与真实框之间的差距,并执行反向更新操作,从而更新整个网络的参数,因此设定初始锚点框也是比较关键的一环,本发明中,YOLOv5网络模型的初始锚框为[10,13,16,30,33,23]、[30,61,62,45,59,119]、[116,90,156,198,373,326],网络模型在初始锚框的基础上训练得到预测框,并和真实框进行差值比较,根据差值反向更新,迭代调整网络模型参数。
S3.1.4、将数据增强后的数据集中的图片进行自适应图片缩放,得到预处理后的图片。
具体地,在网络训练阶段,不同的图片长宽都不相同,因此常用的方式是将原始图片统一缩放到一个标准尺寸,也就是自适应图片缩放之后,再送入检测网络中进行训练,方式能够提高模型37%推理速度。在本发明中,网络在训练过程输入的图片统一尺寸为640×640×3。
S3.2、基于Backbone骨干网络对预处理后的图片进行特征提取,得到初步特征图;
具体地,预处理后的图片进入Backbone骨干网络,进行特征提取后得到三个不同大小的特征图。
S3.2.1、将预处理后的图片输入至Backbone骨干网络;
具体地,Backbone骨干网络包含Focus结构和CSP结构。
S3.2.2、基于Backbone骨干网络的Focus结构进行切片操作;
具体地,Focus结构中含有切片操作,将预处理后尺寸为640×640×3的图片接入Focus结构中,通过切片操作与Concat操作,得到160×160×12的特征图,然后进行一次32个卷积核操作,得到160×160×32的特征图。
S3.2.3、将CBAM注意力机制模块置于C3模块之后;
S3.2.4、基于C3模块进行特征提取并通过CBAM模块加强对小目标物体的特征信息的学习,得到初步特征图。
具体地,YOLOv5模型里中设计了2种跨阶段局部网络CSP(Cross Stage PartialNetwork)结构,BottleneckCSP(True)和BottleneckCSP(False)。其中,BottleneckCSP(True)结构主要应用于Backbone网络中,BottleneckCSP(False)结构主要应用于Head网络结构中。这两种CSP结构采用了密集跨层跳层连接的思想,进行局部跨层融合,利用不同层的特征信息来获得更为丰富的特征图。另外,现有的网络模型将BottleneckCSP优化为C3模块,其实C3模块就是是简化版的BottleneckCSP,该部分除了Bottleneck之外,只有3个卷积模块,可以减少参数,所以取名C3。C3模块主要用于提取图像特征的,在Backbone部分,C3模块包含的位置信息、细节信息较多,但语义信息较少。而Head部分,C3模块主要进行纹理特征提取,包含的位置信息、细节信息较少,而语义信息较多。小目标特征信息在经过多个C3模块处理后,位置信息粗糙,特征信息易丢失,从而引起网络模型对小目标的误检和漏检。
因此本方案在Backbone中增加CBAM注意力机制模块,置于C3模块之后,CBAM模块通过通道和空间注意力模块能在网络训练过程中加强对路锥和塑料隔离墩等小目标物体的点特征、线特征等特征信息的学习。CBAM可分为2部分,先是通道注意力模块(ChannelAttention)解决在卷积池化过程中feature map的不同通道所占的重要性不同带来的损失问题,然后是空间注意力模块(Spatial Attention),它融合了2种注意力机制,可添加在任意网络的卷积层后面。在通道注意力模块上分别经过最大值池化和平均池化将尺寸为C×H×W的特征图变成C×1×1,经过MLP转换,压缩通道数,再通过加和操作进行合并结果,并进行sigmoid归一化,使得提取到的高层特征更全面更丰富。将通道注意力模块的输出当作输入进入空间注意力模块,同样经过最大值池化和平均池化,再通过Concat操作将两者堆叠,只压缩通道维度而不压缩空间维度。关注重点在目标的位置信息,并专注于有用的目标对象。
S3.3、基于Neck网络对初步特征图进行特征融合,得到最终特征图;
具体地,将步骤S3.2得到的三个不同大小的特征图输入Neck网络进行特征融合,得到三个尺度的特征图。
S3.3.1、将初步特征图输入至Neck网络;
S3.3.2、基于双向特征金字塔对初步特征图在不同尺度间进行融合,通过上采样和下采样同一特征分辨率尺度,并在同一特征的原始输入和输出节点之间添加横向连接,得到最终特征图。
具体地,现有的YOLOv5的Neck网络采用FPN+PAN的结构,特征金字塔FPN利用上采样的方式对信息进行传递融合,路径聚合网络PAN采用自底向上的特征金字塔。PAN通过在FPN结构的基础上增加一条自下而上的路径,缩短了底层特征图信息与顶层特征图信息融合的路径,整个特征图融合的过程均使用Concat拼接完成。
本方法将自底向上特征金字塔(PAN)改进为双向特征金字塔(BiFPN)结构,其结构如图5所示,BiFPN是加权双向特征金字塔,其BiFPN主要思想有两点:一是高效的双向跨尺度连接,二是加权特征图融合。运用双向融合四项,构造自上而下、自下而上的双向通道,对来自主干网络不同尺度的信息,在不同尺度间进行融合时通过上采样和下采样同一特征分辨率尺度,并在同一特征的原始输入和输出节点之间添加横向连接,在不增加成本的情况下融合更多特征。且将自顶向下和自底向上融合构造为一个模块,使其可以重复堆叠,增强信息融合。而PAN只有一层自顶向下和一层自底向上的路径。而利用BiFPN结构能够加强特征融合,减少卷积过程中的特征丢失,提高了检测精度。
S3.4、基于Head输出端根据最终特征图输出特征张量;
S3.5、根据特征张量生成预测框信息;
具体地,将步骤S3.3得到的三个尺度的特征图输入Head输出端,得到三个特征张量,由此得到预测框的位置、类别和置信度。
S3.6、将预测框信息与真实框进行匹配并计算损失函数,优化改进后的YOLOv5模型的参数,得到检测模型。
具体地,在训练数据集阶段,直接将预测框与真实框进行匹配得出正负样本,然后计算YOLOv5损失函数(包括分类损失函数、定位损失函数和置信度损失函数);在验证集阶段,采用加权非极大值抑制,筛选出预测框,得出准确率、平均精度等评价指标来不断优化模型参数。
Head输出端包括损失函数和非极大值抑制(NMS)。YOLOv5的损失函数包括分类损失、定位损失和置信度损失,预测框的训练过程中使用GIOU_Loss作为定位损失函数,通过计算损失函数GIOU_Loss调节权重参数,有效解决了边界框不重合时问题。
现有模型的GIOU考虑了预测边界框和标注边界框不相交的情况,但未考虑预测边界框在目标边界框内部的情况,因此,对边框损失函数进行改进,相较于GIOU考虑的是重叠面积,改进的损失函数考虑了边界框的中心点距离和宽高比,增加影响因子α以考虑边界框的宽高比,其中α为权重函数,v衡量长宽比的一致性。损失函数的改进一定程度上可以提高道路周边施工行为目标的识别抗遮挡干扰能力。所述损失函数的公式如下所示:
上式中,Bp为预测边界框,Bg为标注边界框,ρ为欧氏距离,p为预测边界框中心点,pgt为标注边界框中心点,c为框之间最小外接矩形框的对角线距离,w和h为预测边界框的宽和高,wgt和hgt为标注边界框的宽和高,α为权重函数,v表示衡量长宽比的一致性。
目标检测的后处理过程中,针对出现的众多目标框的筛选,采用加权NMS(非极大值抑制)的方式筛选预测框,并通过与真实框比对,获得最优目标框,并使用反向传播算法以进一步训练YOLOv5网络,优化模型参数。但该方法具有以下两个缺点,第一,NMS仅保留得分最大的预测边界框而丢弃得分小的预测边界框,但得分较小的边界框也同样包含一定的特征信息,直接丢弃相当于没有完全利用全部信息。第二,在一些情况下得分最高的预测边界框也不能很好的拟合真实的目标框,直接选用该预测框作为最终预测值具有较高的损失,其函数关系为:
其中,Si为当前选中目标框和最高置信度框产生的新置信度,IoU(M,bi)是当前最高置信度预测框M与剩余第i个预测框bi的交并比,Nt为阈值,。
基于以上两点,本方案使用Soft-NMS代替NMS作为边界回归框中选择合适预测值的方法。因为NMS直接将删除所有IoU大于阈值的框,也就是将得分置零。而Soft-NMS在算法执行过程中不是简单的将IoU大于阈值的检测框置零,而是降低它的得分。算法流程同NMS相同,但是对原置信度得分使用函数运算,目标是降低置信度得分。其实NMS是Soft-NMS特殊形式,当得分重置函数采用二值化函数时,Soft-NMS和NMS是相同的。Soft-NMS算法可以认为是一种更加通用的非最大抑制算法,其函数关系为:
S4、将待测视频输入至检测模型进行识别,得到识别结果;
具体地,基于YOLOv5网络模型的识别结果,构建施工区域,数据上传,用于工作人员的辨别和处理。YOLOv5网络模型识别出传回视频的单帧图像中所有标定的目标,并得到视频图像包含的定位信息;通过设定目标数量的阈值初步辨别是否属于施工区域,低于阈值则不进行处理,若高于阈值则上传定位信息和识别的结果截图至云服务器中;工作人员对上传的信息进一步辨别和筛选,对于存在施工行为的且可能危害到地下管道安全的区域加以记录,以便公司安全管理部门去对施工方进行告知警示。
S5、根据精度(precision)指标和召回率(recall)指标评估检测模型的性能。
具体地,计算公式如下:
上式中TP(True Positive)表示正确检测识别出施工现场的物体,FP(FalsePositive)表示错误检测识别出施工现场的物体,FN(False Negative)表示未检测识别出施工现场的物体。
根据其模型的精度和召回率不断的更新模型和优化模型,以求达到一个高的识别精度。
一种基于改进YOLOv5模型的路边施工行为检测系统,包括:
标注模块,用于获取图像数据集并进行标注,得到带标注的数据集;
优化模块,以YOLOv5模型为基础,在Backbone骨干网络中增加CBAM注意力机制模块,在Neck网络中将自底向上特征金字塔改为加权双向特征金字塔,得到改进后的YOLOv5模型;
训练模块,基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型;
识别模块,用于将待测视频输入至检测模型进行识别,得到识别结果。
评估模块,用于根据精度指标和召回率指标评估检测模型的性能。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
一种基于改进YOLOv5模型的路边施工行为检测装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于改进YOLOv5模型的路边施工行为检测方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
一种存储介质,其中存储有处理器可执行的指令,其特征在于:所述处理器可执行的指令在由处理器执行时用于实现如上所述一种基于改进YOLOv5模型的路边施工行为检测方法。
上述方法实施例中的内容均适用于本存储介质实施例中,本存储介质实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,包括以下步骤:
获取图像数据集并进行标注,得到带标注的数据集;
以YOLOv5模型为基础,在Backbone骨干网络中增加CBAM注意力机制模块,在Neck网络中将自底向上特征金字塔改为加权双向特征金字塔,得到改进后的YOLOv5模型;
基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型;
将待测视频输入至检测模型进行识别,得到识别结果。
2.根据权利要求1所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,还包括:
根据精度指标和召回率指标评估检测模型的性能。
3.根据权利要求1所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述获取图像数据集并进行标注,得到带标注的数据集这一步骤,其具体包括:
获取图像数据集,所述图像图像数据集包括工程车辆、工人和施工警示物体;
对图像数据集进行标注,得到带标注的数据集;
工程车辆的标注包括挖掘机、卡车、装载机、推土机和混凝土车,施工警示物体的标注包括路锥、塑料隔离墩和施工预警牌。
4.根据权利要求1所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述改进后的YOLOv5模型包括输入端、Backbone骨干网络、Neck网络和Head输出端。
5.根据权利要求4所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述基于带标注的数据集对改进后的YOLOv5模型进行训练,得到检测模型这一步骤,其具体包括:
基于输入端对带标注的数据集中的图片进行预处理,得到预处理后的图片;
基于Backbone骨干网络对预处理后的图片进行特征提取,得到初步特征图;
基于Neck网络对初步特征图进行特征融合,得到最终特征图;
基于Head输出端根据最终特征图输出特征张量;
根据特征张量生成预测框信息;
将预测框信息与真实框进行匹配并计算损失函数,优化改进后的YOLOv5模型的参数,得到检测模型。
6.根据权利要求5所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述基于输入端对带标注的数据集中的图片进行预处理,得到预处理后的图片这一步骤,其具体包括:
将带标注的数据集输入至输入端;
基于mixup和Mosaic方式对带标注的数据集中的图片进行数据增强,得到数据增强后的数据集;
根据数据增强后的数据集设定初始锚框;
将数据增强后的数据集中的图片进行自适应图片缩放,得到预处理后的图片。
7.根据权利要求5所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述基于Backbone骨干网络对预处理后的图片进行特征提取,得到初步特征图这一步骤,其具体包括:
将预处理后的图片输入至Backbone骨干网络;
基于Backbone骨干网络的Focus结构进行切片操作;
将CBAM注意力机制模块置于C3模块之后;
基于C3模块进行特征提取并通过CBAM模块加强对小目标物体的特征信息的学习,得到初步特征图。
8.根据权利要求5所述一种基于改进YOLOv5模型的路边施工行为检测方法,其特征在于,所述基于Neck网络对初步特征图进行特征融合,得到最终特征图这一步骤,其具体包括:
将初步特征图输入至Neck网络;
基于双向特征金字塔对初步特征图在不同尺度间进行融合,通过上采样和下采样同一特征分辨率尺度,并在同一特征的原始输入和输出节点之间添加横向连接,得到最终特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210967046.5A CN115359392A (zh) | 2022-08-11 | 2022-08-11 | 一种基于改进YOLOv5模型的路边施工行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210967046.5A CN115359392A (zh) | 2022-08-11 | 2022-08-11 | 一种基于改进YOLOv5模型的路边施工行为检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115359392A true CN115359392A (zh) | 2022-11-18 |
Family
ID=84033557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210967046.5A Pending CN115359392A (zh) | 2022-08-11 | 2022-08-11 | 一种基于改进YOLOv5模型的路边施工行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115359392A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563205A (zh) * | 2023-03-10 | 2023-08-08 | 兰州理工大学 | 基于小目标检测和改进YOLOv5的麦穗计数检测方法 |
-
2022
- 2022-08-11 CN CN202210967046.5A patent/CN115359392A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563205A (zh) * | 2023-03-10 | 2023-08-08 | 兰州理工大学 | 基于小目标检测和改进YOLOv5的麦穗计数检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390691B (zh) | 一种基于深度学习的矿石尺度测量方法及应用系统 | |
Tan et al. | Automatic detection of sewer defects based on improved you only look once algorithm | |
CN111899227A (zh) | 基于无人机作业的铁路扣件缺陷自动采集辨识方法 | |
Siriborvornratanakul | An automatic road distress visual inspection system using an onboard in-car camera | |
CN110598784B (zh) | 基于机器学习的建筑垃圾分类方法及装置 | |
CN109993138A (zh) | 一种车牌检测与识别方法及装置 | |
KR102324684B1 (ko) | 무인관측 기반 해양쓰레기 모니터링 시스템 및 이를 이용한 해양쓰레기 모니터링 방법 | |
CN110956104A (zh) | 一种检测垃圾桶溢出的方法、装置及系统 | |
CN114049356B (zh) | 一种结构表观裂缝检测方法、装置及系统 | |
CN112257793A (zh) | 一种基于改进YOLO v3算法的远距离交通标志检测方法 | |
CN113642474A (zh) | 一种基于yolov5的危险区域人员监控方法 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN115471487A (zh) | 绝缘子缺陷检测模型构建及绝缘子缺陷检测方法、装置 | |
CN113963210A (zh) | 一种基于深度学习的废弃数据存储设备检测方法及分拣系统 | |
CN115359392A (zh) | 一种基于改进YOLOv5模型的路边施工行为检测方法 | |
CN114783149A (zh) | 一种基于大数据和图像识别的地质灾害监测预警方法 | |
CN111507398A (zh) | 基于目标检测的变电站金属仪器锈蚀识别方法 | |
CN115035328A (zh) | 转炉图像增量自动机器学习系统及其建立训练方法 | |
CN113971666A (zh) | 基于深度目标检测的输电线路机巡影像自适应识别方法 | |
KR102602439B1 (ko) | 인공지능 기반 cctv 촬영 이미지 정보를 이용한 이안류 탐지 방법 및 그 장치 | |
CN111767919A (zh) | 一种多层双向特征提取与融合的目标检测方法 | |
CN115641431A (zh) | 一种基于改进深度学习的输电线工程车辆检测方法 | |
CN112949630B (zh) | 基于边框分级筛选的弱监督目标检测方法 | |
KR102321130B1 (ko) | 이미지 분석 기반 해양쓰레기 모니터링 시스템 및 이를 이용한 해양쓰레기 모니터링 방법 | |
CN114549972A (zh) | 露天矿采场提取方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |