CN115439766A - 一种基于改进yolov5的无人机目标检测方法 - Google Patents
一种基于改进yolov5的无人机目标检测方法 Download PDFInfo
- Publication number
- CN115439766A CN115439766A CN202211163094.5A CN202211163094A CN115439766A CN 115439766 A CN115439766 A CN 115439766A CN 202211163094 A CN202211163094 A CN 202211163094A CN 115439766 A CN115439766 A CN 115439766A
- Authority
- CN
- China
- Prior art keywords
- layer
- candidate
- confidence
- frame
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,具体涉及一种基于改进yolov5的无人机目标检测方法;包括采集无人机巡检图像集并标注得到对应的标签文件,标签文件包括目标的类别和目标框坐标;将标签文件转换为文本文件,目标框坐标归一化得到归一化框坐标,预处理无人机巡检图像集得到预处理图像集;划分预处理图像集及归一化坐标集得到训练集、验证集和测试集;通过聚类算法得到训练集的锚框样本;构建基于ECA的目标检测模型并训练;采用改进nms算法对训练好的目标检测模型进行后处理;采用得到的目标检测模型进行无人机目标检测;本发明改进yolov5检测精度低、对中小目标检测效果差的缺点,实现无人机检测过程高速且精准的需求。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种基于改进yolov5的无人机目标检测方法。
背景技术
目标检测(Object Detection)是计算机视觉领域的基本任务之一,学术界已有将近二十年的研究历史,经过长期的发展和技术迭代,目标检测已广泛应用于人脸识别、缺陷检测、工业控制、航空航天等领域。当前无人机检测技术主要是基于机器学习中的目标检测模型。目标检测模型有两类算法:一阶段算法、二阶段算法,二者各有优劣;一阶段算法优势在于模型处理速度快,实时性较强,但精度不高,代表算法有yolo系列、SSD等;二阶段算法优势在于精度高,但训练速度慢,代表算法有Faster-RCNN。
近年来,随着我国经济的飞速发展,无人机产业的应用需求不断扩大,这对无人机产业中检测技术的要求也进一步提高。当前无人机检测技术的主要问题在于不同高空飞行,目标尺度变化非常大,密集目标运动轨迹模糊,中、小型目标检测效果差,且由于无人机在检测过程中需要较快的检测和处理速度,所以本发明将提供一种基于改进yolov5目标检测算法,在实现高速检测和处理速度的同时,改进yolov5检测精度低、对中小目标检测效果差的缺点,实现无人机检测过程高速且精准的需求。
发明内容
为解决无人机在飞行过程中存在目标尺度变化大、密集目标运动轨迹模糊,中、小型目标检测效果差等问题,本发明提供了一种基于改进yolov5的无人机目标检测方法,包括以下步骤:
一种基于改进yolov5的无人机目标检测方法,其特征在于,包括以下步骤:
S1.采集无人机巡检图像集,对无人机巡检图像集中的每一张无人机巡检图像进行标注得到对应的标签文件,所有标签文件组成标签文件集;标签文件包括无人机巡检图像中目标的类别和目标框坐标;
S2.对标签文件集进行处理,将每一个标签文件转换为文本文件,并将其中的目标框坐标归一化得到归一化框坐标,所有的归一化框坐标组成归一化坐标集合;同时对无人机巡检图像集进行预处理得到预处理图像集;
S3.按比例划分预处理图像集及归一化坐标集合,得到训练集、验证集和测试集;将训练集馈入K-means聚类算法,得到锚框样本;
S4.根据yolov5网络构建基于ECA的目标检测模型,通过训练集和锚框样本训练目标检测模型,采用总损失函数计算损失,反向传播更新网络参数;损失函数公式如下:
Loss=a*losscls+b*lossbox+c*lossconfidence
其中,losscls表示分类损失,lossbox表示定位损失,lossconfidence表示置信度损失,a、b、c分别对应三种损失的权重;
S5.基于soft-nms算法设计一种shape-nms算法,采用shape-nms算法对训练完成的目标检测模型进行后处理,滤除冗余框;
S6.采用S5得到的目标检测模型进行无人机目标检测。
进一步的,基于ECA的目标检测模型包括backbone模块、neck模块和head模块,与原始yolov5网络结构相比,
backbone模块包括逐层连接的第一CBL层、第二CBL层、第一C3层、第三CBL层、第二C3层、第四CBL层、第三C3层、第五CBL层、第四C3层和SPP层,其中在SPP层引入ECA注意力模块;
neck模块除特征金字塔网络和路径聚合网络外,添加了一个生成新特征图的分支网络,该新特征图的尺寸为160×160;
head模块包括Xsmall、Small、Medium和Big四个输出。
进一步的,特征金字塔网络包括逐层连接的第六CBL层、第一上采样层、第一融合层、第五C3层、第七CBL层、第二上采样层、第二融合层和第六C3层;
分支网络包括逐层连接的第八CBL层、第三采样层、第三融合层、第七C3层;
路径聚合网络包括逐层连接的第九CBL层、第四融合层、第八C3层、第十CBL层、第五融合层、第九C3层、第十一CBL层、第六融合层、第十C3层;
其中第五C3层、第六C3层、第七C3层、第八C3层、第九C3层和第十C3层中均引入了ECA注意力模块。
进一步的,ECA注意力模块采用ECA注意力机制,其计算过程为:
S11.将输入的特征图进行全局平均池化;
S12.对S11的结果进行卷积核为1的卷积操作,并将卷积结果经过Sigmoid激活函数得到各通道的权重ω,计算公式为:
ω=σ(C1Dk(y))
其中,σ表示Sigmoid激活函数,C1Dk(y)表示一维卷积,Dk(y)表示输入k维尺寸数,ψ(C)表示卷积尺寸变量,C表示通道数,b、γ表示实验系数;
S13.将权重与S11中输入特征图的对应元素相乘得到输出特征图。
进一步的,每一个上采样层的上采样方式为最邻近插值法。
进一步的,采用shape-nms算法对任一个类别的候选框集合过滤冗余框的过程包括:
S21.设置置信度阈值、IOU阈值和shape阈值,目标检测模型输出的候选框集合用A1表示,候选框集合对应的置信度集合用S1表示,
S22.在置信度集合S1中选取最大置信度F,将该最大置信度F添加到预测框置信度集合S2中,在置信度集合S1中删除F;
S23.在候选框集合A1中找到与F对应的候选框B,将该候选框B添加到预测框集合A2中,在候选框集合A1中移除该候选框B;
S24.将候选框集合A1中剩余的候选框分别与候选框B计算Shape值,并判断Shape值是否大于Shape阈值,若是,则将候选框的置信度降低,否则置信度不变;
S25.判断候选框集合A1中的候选框数量是否为1,若是,则进入步骤S26,否则返回步骤S22;
S26.将预测框集合A2中的候选框的置信度分别与置信度阈值作比较,若小于置信度阈值,则删除对应的候选框及其置信度,得到第二预测框集合A3;
S27.计算第二预测框集合中每两个候选框间的重合度,若重合度高于IOU阈值,则将两个候选框融合,最终得到一个融合框,该融合框的置信度为第二预测框集合A3对应的置信度集合中的最大值。
进一步的,候选框的置信度的计算公式为:
其中,si表示置信度分数,M表示置信度最大的候选框,bi表示除置信度最大的候选框以外的候选框,w表示分数权重,D表示候选框集合,widthi表示候选框bi的宽,widthM表示置信度最大的候选框M的宽,heighti表示候选框bi的高,heightM表示置信度最大的候选框M的高。
本发明的有益效果:
采用无人机巡检判断信号接收站是否存在缺陷的过程中,存在无人机拍摄图像中目标小、轮廓模糊的问题,同时检测结果中冗余框太多,所以针对上述技术难题本发明提出了基于yolov5的无人机巡检技术,该技术在原yolov5模型上做了改进,提出了4个检测器的网络模型,并在该网络模型中加入了ECA注意力机制,加强了对小目标的检测效果;为解决检测结果冗余框太多的问题提出了基于Shape的NMS算法,同时在NMS算法之后加入了预测框融合机制,进一步加强了检测结果中冗余框过滤能力。
附图说明
图1为本发明的方法流程图;
图2为本发明的目标检测模型的网络结构图;
图3为本发明的ECA注意力机制结构图;
图4为本发明的聚类效果图;
图5为本发明的4类检测器特征图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于改进yolov5的无人机目标检测方法,如图1所示,包括以下步骤:
S1.采集无人机在巡检过程中拍摄的图像数据,并对图像数据进行筛选,得到无人机巡检图像集,对无人机巡检图像集中的每一张无人机巡检图像进行标注得到对应的标签文件,所有标签文件组成标签文件集;标签文件包括无人机巡检图像中目标的类别和目标框坐标;
S2.对标签文件集进行处理,将每一个标签文件转换为文本文件,并将其中的目标框坐标归一化得到归一化框坐标,所有的归一化框坐标组成归一化坐标集合;同时对无人机巡检图像集进行预处理得到预处理图像集;
S3.按比例划分预处理图像集及归一化坐标集合,得到训练集、验证集和测试集;将训练集馈入K-means聚类算法,得到锚框样本;
S4.根据yolov5网络构建基于ECA的目标检测模型,采用训练集和锚框样本训练目标检测模型,采用总损失函数计算损失,反向传播更新网络参数;损失函数公式如下:
Loss=a*losscls+b*lossbox+c*lossconfidence
其中,losscls表示分类损失,lossbox表示定位损失,lossconfidence表示置信度损失,a、b、c分别对应三种损失的权重;
S5.基于soft-nms算法设计一种shape-nms算法,采用shape-nms算法对训练完成的目标检测模型进行后处理,滤除冗余框;
S6.采用S5得到的目标检测模型进行无人机目标检测。
在一实施例中,对无人机巡检图像集进行预处理,包括图像尺寸调整和数据增强。采用自适应图像缩放机制进行图像尺寸调整,在图像的长、宽按比例缩放的时候,将剩余部分以灰色进行填充,从而避免图像尺寸调整中的图像失真问题。数据增强采用了离线数据增强和在线数据增强两种方式;离线数据增强的目的是为了增加数据的数量和特征,这只针对某些数量稀疏的类别数据,而不是全部数据,离线数据增强包括翻转、平移、转置、融合和拼接等方式;在线数据增强的目的是为了避免由于数据量较低而造成训练过拟合,是针对所有训练数据进行增强,在线数据增强包括mix_up、mosaic、颜色变换、放缩、移位和翻转的方式。
具体地,采用K-means聚类算法处理图像数据获取锚框样本,将K-means聚类算法中计算聚类聚类所采用的的欧氏距离替换为1-IOU距离,计算公式为:
d(box,centroid)=1-IOU(box,centroid)
其中,d(box,centroid)表示真实框和中心框的距离,IOU(box,centroid)表示真实框和中心框做IOU计算,聚类效果如图4所示,图中较大的圆点是训练集聚类的锚框样本,其余小点是训练集中的样本。
具体地,对标签文件集进行处理,将每一个标签文件转换为文本文件,并将其中的目标框坐标归一化得到归一化框坐标,这是因为进行归一化处理之后更有利于提升模型训练速度。
采用训练集和锚框样本训练目标检测模型,在训练过程中还提供了矩形训练模式,其目的是在不改变图像信息的情况下,减少冗余信息,同时将图像的尺寸调整至模型能够得到更好训练效果的尺寸大小。
在一实施例中,基于yolov5网络进行优化改进,构建基于ECA的目标检测模型,如图2所示,和yolov5网络类似,基于ECA的目标检测模型也包括输入端、骨干网络(backbone模块)、特征融合网络(neck模块)和检测器网络(head模块),骨干网络负责对输入数据进行特征提取,这里的输入数据就是训练集数据;特征融合网络负责进行特征融合;检测器网络进行预测,将预测结果与实际标签进行对比,并进行梯度更新。
具体地,如图2所示,与原始yolov5网络结构相比,
backbone模块包括逐层连接的第一CBL层、第二CBL层、第一C3层、第三CBL层、第二C3层、第四CBL层、第三C3层、第五CBL层、第四C3层和空间池化金字塔(Spatial PyramidPooling,SPP)层,其中为了提升对无人机巡检图像中较多中、小型目标检测效果,在SPP层引入ECA注意力模块;
neck模块除特征金字塔网络和路径聚合网络外,新增加了一层对中、小目标训练效果更好的分支网络,得到新特征图,如图5所示,该新特征图的尺寸为160×160;新特征图更加清晰、感受野更小,这样的新特征图对中、小目标更加敏感,从而加强了对中、小目标的训练,并且在路径聚合网络(Path Aggregation Network,PANet)构建了对应的检测器,通过这样的方式提升了模型对中、小型目标的训练效果。
具体地,特征金字塔网络包括逐层连接的第六CBL层、第一上采样层、第一融合层、第五C3层、第七CBL层、第二上采样层、第二融合层和第六C3层;
分支网络包括逐层连接的第八CBL层、第三采样层、第三融合层、第七C3层。
路径聚合网络包括逐层连接的第九CBL层、第四融合层、第八C3层、第十CBL层、第五融合层、第九C3层、第十一CBL层、第六融合层、第十C3层。
其中,第五C3层、第六C3层、第七C3层、第八C3层、第九C3层和第十C3层中均引入了ECA注意力模块。
其中,第一融合层用于拼接第一上采样层的输出和第三C3层的输出;第二融合层用于拼接第二上采样层的输出和第二C3层的输出;第三融合层用于拼接第三上采样层的输出和第一C3层的输出;第四融合层用于拼接第八CBL层的输出和第九CBL层的输出,第五融合层用于拼接第十CBL层的输出和第七CBL层的输出;第六融合层用于拼接第十一CBL层的输出和第六CBL层的输出。
head模块包括Xsmall、Small、Medium和Big四个输出。
其中,Xsmall的输入为第七C3层未经过ECA注意力模块的输出;Small的输入为第八C3层未经过ECA注意力模块的输出;Medium的输入为第九C3层未经过ECA注意力模块的输出;Big的输入为第十C3层未经过ECA注意力模块的输出。
在一实施例中,ECA注意力模块采用ECA(Effificient Channel Attention)注意力机制,其目的是为了加强对有效特征通道的学习,提升模型的检测效果,图3是ECA注意力机制,这是一种通道注意力机制,其原理是特征图数据通过1D卷积进行学习,此时将通道数中的数据转化为0-1.0小数值,可以看做权重值,再与最开始的特征图进行通道数相乘,这样就可以降低无效通道数的比重,从而实现有效利用通道中数据,使模型注意它应该注意的地方。具体的计算过程为:
S11.将输入的特征图进行全局平均池化;
S12.对S11的结果进行卷积核为1的卷积操作,并将卷积结果经过Sigmoid激活函数得到各通道的权重ω,计算公式为:
ω=σ(C1Dk(y))
其中,σ表示Sigmoid激活函数,C1Dk(y)表示一维卷积,Dk(y)表示输入k维尺寸数,ψ(C)表示卷积尺寸变量,C表示通道数,b、γ表示实验系数。
S13.将权重与S11中输入特征图的对应元素相乘得到输出特征图。
通过这样的方式即可过滤掉特征图中无效的通道数据,利用卷积具有良好的跨通道信息获取能力的特性,将1D卷积结构与平局池化结构结合起来,再在Sigmoid函数处理之后,提升模型对于有效通道的注意力,从而实现了对于不同尺度变化图像检测效果的提升,ECA通道注意力机制相对于传统的通道注意力机制的改进在于避免了捕获所有通道。
在一实施例中,neck模块的各上采样层用于扩张特征图的尺寸大小,在本实施例中采用的上采样方式为最邻近插值法,计算公式为:
其中,Din、Dout为输入特征图和输出特征图的维度,scale_factor为扩张倍数,Hin、Win为输入特征图的长和宽,Hout、Wout为输出特征图的长和宽。在分支网络中,将第三上采样层的输出特征图与backbone模块中第三C3层的输出进行融合,从而构建出了对中、小目标更具有亲和力的特征图,该特征图缩小了感受野,加强了对中、小目标的训练,从而实现提升检测效果的目的。
在一实施例中,训练模型结束之后,即可使用得到的训练权重进行推理,但直接使用该训练权重进行推理,效果较差,会存在同一个目标出现多个冗余框的情况,所以需要对推理结果进行处理,即衍生出了后处理阶段。在后处理阶段的核心算法是非极大值抑制(non maximum suppression),简称“NMS算法”。NMS的作用是在冗余的边框中挑选出最好的预测框,NMS算法过滤冗余框的核心思想是:首先选取置信度最大的候选框,然后将其他候选框与置信度最大的候选框做IOU运算,如果运算结果大于提前设置的IOU阈值,那就将对应的候选框的置信度置为0,最后进行过滤。
但NMS过滤冗余框的方式略显粗暴,因为NMS是直接将运算结果大于IOU阈值的候选框进行过滤,这导致在检测过程中出现了很多漏检情况,故衍生出了soft-nms算法。soft-nms相对于原NMS算法的改进之处就是用稍微低一点的置信度来代替原有置信度,并不是直接置为0,置信度计算公式如下:
其中,si表示第i个候选框的置信度,iou(M,bi)表示iou运算,M表示置信度最大的候选框,bi表示除最大置信度的候选框以外的候选框。将与置信度最大的候选框M高度重叠的候选框的置信度降低,重叠度越高,置信度就降得越多,每循环一次就保留当前置信度最大的候选框,直到只有一个候选框为止,最后再通过置信度阈值筛选掉保留下的候选框中置信度较低的候选框。经过上述处理后在一定程度上缓解了漏检的问题。
在soft-nms中过滤冗余框采用的方法是基于IOU算法,该方法存在一定弊端,如果两个冗余框出现距离较远,或者尺寸差距较大的情况下,就会出现过滤不掉冗余框的情况,基于此本发明开发了基于比较冗余框长、宽比的方式过滤冗余框的方法,计算公式如下:
其中,si表示置信度分数,M表示置信度最大的候选框,bi表示除置信度最大的候选框以外的候选框,w表示分数权重,D表示候选框集合,widthi表示候选框bi的宽,widthM表示置信度最大的候选框M的宽,heighti表示候选框bi的高,heightM表示置信度最大的候选框M的高。该算法的改进之处在于将soft-nms算法中的iou(M,bi)替换成基于长宽比的Shape策略的过滤方式,通过这样修改,可以提升冗余框的过滤方式。
为了进一步起到过滤冗余框的目的,本发明在基于shape-nms的算法基础上提出了融合冗余框机制,即将shape-nms算法没有过滤掉的冗余框进行融合,具体包括:获取经过shape-nms算法后的框集合,采用IOU算法计算框集合中每两个框间的重合度,若重合度大于IOU阈值,则将这两个框融合。具体地,融合公式为:
S=max(si)
其中,x1表示预测框左上角横坐标,y1表示预测框左上角纵坐标,x2表示预测框右下角横坐标,y2表示预测框右下角纵坐标,A表示一个候选预测框,则Ax1表示候选预测框A的左上角横坐标,Aarea表示A的面积,B表示另一个候选预测框,Barea表示B的面积,C表示融合后的预测框;S表示所有预测框置信度分数最大值,最终为融合框的置信度分数。
具体地,通过shape-nms算法对多个类别的候选框进行过滤操作,其中采用shape-nms算法对一个类别的候选框集合过滤冗余框的具体过程包括:
S21.设置置信度阈值、IOU阈值和shape阈值,目标检测模型输出的候选框集合用A1表示,候选框集合对应的置信度集合用S1表示,
S22.在置信度集合S1中选取最大置信度F,将该最大置信度F添加到预测框置信度集合S2中,在置信度集合S1中删除F;
S23.在候选框集合A1中找到与F对应的候选框B,将该候选框B添加到预测框集合A2中,在候选框集合A1中移除该候选框B;
S24.将候选框集合A1中剩余的候选框分别与候选框B计算Shape值,并判断Shape值是否大于Shape阈值,若是,则将候选框的置信度降低,否则置信度不变;
S25.判断候选框集合A1中的候选框数量是否为1,若是,则进入步骤S26,否则返回步骤S22;
S26.将预测框集合A2中的候选框的置信度分别与置信度阈值作比较,若小于置信度阈值,则删除对应的候选框及其置信度,得到第二预测框集合A3;
S27.计算第二预测框集合A3中每两个候选框间的重合度,若重合度高于IOU阈值,则将两个候选框融合,融合后的候选框再次与其余候选框进行重合度的计算并判断,直到不存在重合度大于IOU阈值的情况,即已经过滤掉了多余的冗余框,此时可能得到一个融合框,也可能得到多个融合框;若得到多个融合框,则进行选择得到一个最终融合框,该最终融合框的置信度为第二预测框集合A3对应的置信度集合中的最大值。
在本发明中,除非另有明确的规定和限定,术语“安装”、“设置”、“连接”、“固定”、“旋转”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种基于改进yolov5的无人机目标检测方法,其特征在于,包括以下步骤:
S1.采集无人机巡检图像集,对无人机巡检图像集中的每一张无人机巡检图像进行标注得到对应的标签文件,所有标签文件组成标签文件集;标签文件包括无人机巡检图像中目标的类别和目标框坐标;
S2.对标签文件集进行处理,将每一个标签文件转换为文本文件,并将其中的目标框坐标归一化得到归一化框坐标,所有的归一化框坐标组成归一化坐标集合;同时对无人机巡检图像集进行预处理得到预处理图像集;
S3.按比例划分预处理图像集及归一化坐标集合,得到训练集、验证集和测试集;将训练集馈入K-means聚类算法,得到锚框样本;
S4.根据yolov5网络构建基于ECA的目标检测模型,通过训练集和锚框样本训练目标检测模型,采用总损失函数计算损失,反向传播更新网络参数;损失函数公式如下:
Loss=a*losscls+b*lossbox+c*lossconfidence
其中,losscls表示分类损失,lossbox表示定位损失,lossconfidence表示置信度损失,a、b、c分别对应三种损失的权重;
S5.基于soft-nms算法设计一种shape-nms算法,采用shape-nms算法对训练完成的目标检测模型进行后处理,滤除冗余框;
S6.采用S5得到的目标检测模型进行无人机目标检测。
2.根据权利要求1所述的一种基于改进yolov5的无人机目标检测方法,其特征在于,基于ECA的目标检测模型包括backbone模块、neck模块和head模块,与原始yolov5网络结构相比,
backbone模块包括逐层连接的第一CBL层、第二CBL层、第一C3层、第三CBL层、第二C3层、第四CBL层、第三C3层、第五CBL层、第四C3层和SPP层,其中在SPP层引入ECA注意力模块;
neck模块除特征金字塔网络和路径聚合网络外,添加了一个生成新特征图的分支网络,该新特征图的尺寸为160×160;
head模块包括Xsmall、Small、Medium和Big四个输出。
3.根据权利要求2所述的一种基于改进yolov5的无人机目标检测方法,其特征在于,特征金字塔网络包括逐层连接的第六CBL层、第一上采样层、第一融合层、第五C3层、第七CBL层、第二上采样层、第二融合层和第六C3层;
分支网络包括逐层连接的第八CBL层、第三采样层、第三融合层、第七C3层;
路径聚合网络包括逐层连接的第九CBL层、第四融合层、第八C3层、第十CBL层、第五融合层、第九C3层、第十一CBL层、第六融合层、第十C3层;
其中第五C3层、第六C3层、第七C3层、第八C3层、第九C3层和第十C3层中均引入了ECA注意力模块。
5.根据权利要求3所述的一种基于改进yolov5的无人机目标检测方法,其特征在于,每一个上采样层的上采样方式为最邻近插值法。
6.根据权利要求1所述的一种基于改进yolov5的无人机目标检测方法,其特征在于,采用shape-nms算法对任一个类别的候选框集合过滤冗余框的过程包括:
S21.设置置信度阈值、IOU阈值和shape阈值,目标检测模型输出的候选框集合用A1表示,候选框集合对应的置信度集合用S1表示,
S22.在置信度集合S1中选取最大置信度F,将该最大置信度F添加到预测框置信度集合S2中,在置信度集合S1中删除F;
S23.在候选框集合A1中找到与F对应的候选框B,将该候选框B添加到预测框集合A2中,在候选框集合A1中移除该候选框B;
S24.将候选框集合A1中剩余的候选框分别与候选框B计算Shape值,并判断Shape值是否大于Shape阈值,若是,则将候选框的置信度降低,否则置信度不变;
S25.判断候选框集合A1中的候选框数量是否为1,若是,则进入步骤S26,否则返回步骤S22;
S26.将预测框集合A2中的候选框的置信度分别与置信度阈值作比较,若小于置信度阈值,则删除对应的候选框及其置信度,得到第二预测框集合A3;
S27.计算第二预测框集合A3中每两个候选框间的重合度,若重合度高于IOU阈值,则将两个候选框融合,最终得到一个融合框,该融合框的置信度为第二预测框集合A3对应的置信度集合中的最大值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211163094.5A CN115439766A (zh) | 2022-09-23 | 2022-09-23 | 一种基于改进yolov5的无人机目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211163094.5A CN115439766A (zh) | 2022-09-23 | 2022-09-23 | 一种基于改进yolov5的无人机目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115439766A true CN115439766A (zh) | 2022-12-06 |
Family
ID=84249569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211163094.5A Pending CN115439766A (zh) | 2022-09-23 | 2022-09-23 | 一种基于改进yolov5的无人机目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115439766A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761815A (zh) * | 2023-01-10 | 2023-03-07 | 合肥中科类脑智能技术有限公司 | 人体检测模型的训练方法及人体检测方法、设备、介质 |
CN116993963A (zh) * | 2023-09-21 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备及存储介质 |
-
2022
- 2022-09-23 CN CN202211163094.5A patent/CN115439766A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761815A (zh) * | 2023-01-10 | 2023-03-07 | 合肥中科类脑智能技术有限公司 | 人体检测模型的训练方法及人体检测方法、设备、介质 |
CN116993963A (zh) * | 2023-09-21 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN116993963B (zh) * | 2023-09-21 | 2024-01-05 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884064A (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN115439766A (zh) | 一种基于改进yolov5的无人机目标检测方法 | |
CN117253154B (zh) | 一种基于深度学习的集装箱弱小序列号目标检测识别方法 | |
CN110490155B (zh) | 一种禁飞空域无人机检测方法 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN113159215A (zh) | 一种基于Faster Rcnn的小目标检测识别方法 | |
CN113128564B (zh) | 一种基于深度学习的复杂背景下典型目标检测方法及系统 | |
CN117037119A (zh) | 基于改进YOLOv8的道路目标检测方法及系统 | |
CN111754507A (zh) | 一种轻量化的基于强注意力机制的工业缺陷图像分类方法 | |
CN114463759A (zh) | 一种基于无锚框算法的轻量化文字检测方法及装置 | |
CN116091979A (zh) | 一种基于特征融合和通道注意力的目标跟踪方法 | |
CN117218550A (zh) | 一种基于改进yolov5网络的遥感图像多尺度舰船目标检测方法 | |
CN117557779A (zh) | 一种基于yolo的多尺度目标检测方法 | |
Zhang et al. | Full-scale Feature Aggregation and Grouping Feature Reconstruction Based UAV Image Target Detection | |
CN118247645A (zh) | 一种新型DDCE-YOLOv8s模型的水下图像目标检测方法 | |
CN111368848B (zh) | 一种复杂场景下的文字检测方法 | |
CN117475137A (zh) | 一种基于复合特征图的密集小目标检测方法 | |
CN117495825A (zh) | 一种变电站塔杆异物检测方法 | |
CN116740572A (zh) | 一种基于改进yolox的海上船舰目标检测方法和系统 | |
CN115761552B (zh) | 面向无人机机载平台的目标检测方法、设备及介质 | |
CN110348311B (zh) | 一种基于深度学习的道路交叉口识别系统及方法 | |
CN116052149A (zh) | 一种基于CS-ABCNet的电力塔牌检测识别方法 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 | |
CN116246113A (zh) | 一种基于远程-短程依赖图学习的点云分类与分割方法 | |
CN118262257A (zh) | 一种航空图像目标检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |