CN116682090A - 一种基于改进YOLOv3算法的车辆目标检测方法 - Google Patents
一种基于改进YOLOv3算法的车辆目标检测方法 Download PDFInfo
- Publication number
- CN116682090A CN116682090A CN202310530783.3A CN202310530783A CN116682090A CN 116682090 A CN116682090 A CN 116682090A CN 202310530783 A CN202310530783 A CN 202310530783A CN 116682090 A CN116682090 A CN 116682090A
- Authority
- CN
- China
- Prior art keywords
- network
- loss
- vehicle target
- algorithm
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进YOLOv3算法的车辆目标检测方法,涉及计算机视觉技术领域,包括下述几个步骤:获取真实场景下的车辆目标图像,并对车辆图像进行数据增强;改进YOLOv3网络,使网络变得更加轻量化,在多尺度特征融合部分嵌入注意力机制CBAM,并引入新的损失函数;训练改进后的YOLOv3网络,并进行特征提取;最后使用训练好的模型来进行车辆目标检测。本发明解决了原算法应用于车辆目标检测时存在的实时性和精确性不足的问题,实现了在理想的检测精度下快速准确的检测出车辆目标。
Description
技术领域
本发明涉及计算机视觉技术领域,具体为一种基于改进YOLOv3算法的车辆目标检测方法。
背景技术
近年来伴随着5G和人工智能技术的迅猛发展,智能交通逐渐成为可能,车辆目标检测方法的研究就具有了重要意义。车辆目标检测一方面可以帮助实现智能交通系统,提高道路交通的安全性和效率,另一方面可以促进整个智能汽车行业的发展,推动产业创新。
卷积神经网络中的目标检测算法可以大致分为两类:基于区域提取的目标检测算法和单阶段的目标检测算法。基于区域提取的目标检测算法一般由两个阶段组成。首先,该算法会使用一个候选框生成器(例如选择性搜索或RPN)在图像中生成若干个候选框,这些候选框通常数量很多。接下来,在每个候选框上应用分类器和回归器对对象进行分类和位置校正。这些分类器和回归器通常是通过卷积神经网络实现的。著名的基于区域提取的目标检测算法有RCNN、Fast RCNN和Faster RCNN等。而单阶段的目标检测算法则只需要一个前向传播过程就可以同时完成候选框生成、分类和位置回归。这种算法的优点是速度快,但缺点是精度相对较低。著名的单阶段目标检测算法包括YOLO和SSD等。
现阶段的车辆目标检测算法多数都是基于深度学习,但是若应用于真实场景下仍然存在实时性和精确性不足等问题,所以就需要进行改进算法的研究,进而解决模型参数量大和检测效果差等问题。
发明内容
为了攻克上述难关,本发明提出了一种基于改进YOLOv3算法的车辆目标检测方法,在降低模型参数量的同时提高了网络的检测精度,实现了在理想检测效果下的模型的轻量化。
为实现上述目的,发明提供如下技术方案:
一种基于改进YOLOv3算法的车辆目标检测方法,包括以下步骤:
步骤1,获取车辆图像,划分训练集、验证集和测试集,并对车辆图像进行数据增强操作;
步骤2,首先改进YOLOv3算法,使网络变得更加轻量化,其次在多尺度特征融合部分嵌入注意力机制CBAM,可以使网络在训练过程中更加关注目标区域,最后引入新的损失函数,提升网络的学习能力;
步骤3,训练改进后的YOLOv3算法,进行特征提取,其中使用Adam优化方法进行实验训练,初始学习率设置为0.001,Batch Size设置为16,采用学习率自动衰减策略,如果经过3次迭代损失值没有降低,就将学习率变为原来的一半;
步骤4,将测试集中的图像输入到训练好的最佳模型中,模型将待测车辆目标用框标记出来,也可使用该模型对行车视频进行检测,获取视频流检测结果。
作为进一步技术限定,所述的轻量化是通过引入EfficientNetv2和ShuffleNetv2的残差块结构,对YOLOv3网络进行轻量化改造,降低了模型的参数量,进而实现模型轻量化的目的。改进措施如下:在骨干网络的浅层部分使用EfficientNetv2的Fused-MBConv模块,重复堆叠次数为2和8,这样做能够明显提升网络的训练速度;在骨干网络的深层部分使用ShuffleNetv2的残差模块,重复堆叠次数为8和4。整个改进后的骨干网络由浅入深分别进行2倍、4倍、8倍、16倍和32倍的下采样,并且选取最后的8倍、16倍和32倍的特征图作为之后特征融合网络的输入。
作为进一步技术限定,所述的注意力机制CBAM模块是由通道注意力模块和空间注意力模块组成,将前一步经过卷积运算的输入特征层通过一个通道注意力模块赋予不同的通道权重,再通过一个空间注意力模块考虑不同位置的重要性,最后就得到了调整后的特征层。注意力机制CBAM增强了重要特征,忽略了不重要的特征,可以使网络在训练过程中更加关注目标区域。其中,在多尺度特征融合部分的三个不同的检测层嵌入CBAM可以使网络在训练过程中更加关注目标本身,进而提高模型的检测效果。
作为进一步技术限定,所述的改进的损失函数由三部分组成:边框回归损失、置信度损失和分类损失。所述损失函数为Lloss=Lreg+Lconf+Lcls。式中,Lreg是引入DIoU的边框回归损失,Lconf是引入Focal Loss的置信度损失,Lcls是二元交叉熵损失。其中,DIoU考虑到了两框之间的重叠面积和中心点距离,使两框之间的距离直接得到最小化,收敛速度更快;Focal Loss解决了单阶段检测算法的正负样本不均衡的问题,降低易分样本的权重,让模型去关注训练难分样本。
作为进一步技术限定,所述的数据增强是采用三种叠加形式数据增强方法,该三种叠加形式数据增强方法为几何变换+Cutout+Mosaic,数据增强不但可以扩充数据集图像的数量,而且能够增加训练图像的多样性,提升模型的泛化能力,减少过拟合现象的发生,提高算法的精度。
作为进一步技术限定,所述的实验选用谷歌公司提供的Colab平台,深度学习框架采用的是PyTorch,另外还使用了OpenCV、Numpy以及PIL等第三方库。
与现有技术相比,发明的有益效果:
1、本发明通过引入EfficientNetv2和ShuffleNetv2的残差块结构对YOLOv3网络进行轻量化改造,降低了模型的参数量,进而实现模型轻量化的目的;
2、本发明在多尺度特征融合部分的三个不同的检测层嵌入CBAM可以使网络在训练过程中更加关注目标本身,进而提高模型的检测效果;
3、本发明使用DIoU和Focal Loss来改进损失函数,解决了边框定位不准确和正负样本不均衡问题,提升了算法的检测精度;
4、相较于其他车辆目标检测算法,本发明所提出的改进算法具有良好的检测精度和检测速度,满足实时检测的要求,能够很好的应用于真实场景下的车辆目标检测任务中。
附图说明
图1为一种基于改进YOLOv3算法的车辆目标检测方法的流程图;
图2为改进的YOLOv3网络的结构示意图;
图3为改进的YOLOv3骨干网络的网络结构图;
图4为注意力机制CBAM示意图;
图5为图4中通道注意力模块示意图;
图6为图4中空间注意力模块示意图;
图7为在夜晚使用本发明进行车辆目标检测的效果图;
图8为在白天使用本发明进行车辆目标检测的效果图。
具体实施方式
下面将结合发明实施例中的附图,对发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是发明一部分实施例,而不是全部的实施例。基于发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于发明保护的范围。
本发明提供一种技术方案:
如图1所示,本发明提供一种基于改进YOLOv3算法的车辆目标检测方法,包括以下几个步骤:
步骤1,获取车辆图像,划分训练集、验证集和测试集,并对车辆图像进行数据增强操作;
采用开源标注小程序Labelimg来对采集到的车辆图像进行人工标注,每张图像的标注结果存入到对应的xml标注文件中,xml标注文件中包含了当前图像中所有目标的位置和类别信息。
完成标注工作后,将数据集按照8:1:1的比例随机划分为训练集、验证集和测试集。
所述的数据增强是采用三种叠加形式数据增强方法,该三种叠加形式数据增强方法为几何变换+Cutout+Mosaic,数据增强不但可以扩充数据集图像的数量,而且能够增加训练图像的多样性,提升模型的泛化能力,减少过拟合现象的发生,提高算法的精度。其中,几何变换主要包括水平翻转、角度旋转、图像缩放、随机裁减等,Cutout可以使模型在做出决定之前考虑更多的图像上下文,例如次要特征,而不是严重依赖主要特征;Mosaic数据增强既能够增加目标的个数和数据的多样性,也能够使BN层一次性统计多张图像的参数。
步骤2,首先改进YOLOv3算法,使网络变得更加轻量化,其次在多尺度特征融合部分嵌入注意力机制CBAM,可以使网络在训练过程中更加关注目标区域,最后引入新的损失函数,提升网络的学习能力;
所述的轻量化是通过引入EfficientNetv2和ShuffleNetv2的残差块结构,对YOLOv3网络进行轻量化改造,降低了模型的参数量,进而实现模型轻量化的目的。改进措施如下:在骨干网络的浅层部分使用EfficientNetv2的Fused-MBConv模块,重复堆叠次数为2和8,这样做能够明显提升网络的训练速度;在骨干网络的深层部分使用ShuffleNetv2的残差模块,重复堆叠次数为8和4(图3中的stage3和stage4)。整个改进后的骨干网络由浅入深分别进行2倍、4倍、8倍、16倍和32倍的下采样,并且选取最后的8倍、16倍和32倍的特征图作为之后特征融合网络的输入。图2为改进的YOLOv3网络的结构示意图;图3为改进的YOLOv3骨干网络的网络结构图。
所述的注意力机制CBAM模块是由通道注意力模块和空间注意力模块组成,将前一步经过卷积运算的输入特征层通过一个通道注意力模块赋予不同的通道权重,再通过一个空间注意力模块考虑不同位置的重要性,最后就得到了调整后的特征层。注意力机制CBAM增强了重要特征,忽略了不重要的特征,可以使网络在训练过程中更加关注目标区域。其中,在多尺度特征融合部分的三个不同的检测层嵌入CBAM可以使网络在训练过程中更加关注目标本身,进而提高模型的检测效果。
图4为注意力机制CBAM示意图。其中,通道注意力模块表示如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
式中,F表示输入特征图,Avgpool和Maxpool分别表示平均池化和最大池化,MLP表示共享的全连接层,σ表示Sigmoid激活函数。
空间注意力模块表示如下:
Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))
式中,f7×7表示通过一个7×7的卷积,σ表示Sigmoid激活函数。
所述的改进的损失函数由三部分组成:边框回归损失、置信度损失和分类损失。所述损失函数为Lloss=Lreg+Lconf+Lcls。式中,Lreg是引入DIoU的边框回归损失,Lconf是引入Focal Loss的置信度损失,Lcls是二元交叉熵损失。其中,DIoU考虑到了两框之间的重叠面积和中心点距离,使两框之间的距离直接得到最小化,收敛速度更快;Focal Loss解决了单阶段检测算法的正负样本不均衡的问题,降低易分样本的权重,让模型去关注训练难分样本。
DIoU的计算公式如下:
式中,IoU表示预测框与真实框的交并比,ρ表示预测框与真实框中心点之间的欧氏距离,c表示包含预测框与真实框的最小外接矩形的对角线距离。
引入Focal Loss来作为置信度损失,Focal Loss的计算公式如下:
式中,γ取值为2,α取值为0.25,p表示正样本的概率,y表示标签值。
步骤3,训练改进后的YOLOv3算法,进行特征提取,其中使用Adam优化方法进行实验训练,初始学习率设置为0.001,Batch Size设置为16,采用学习率自动衰减策略,如果经过3次迭代损失值没有降低,就将学习率变为原来的一半。
所述的实验选用谷歌公司提供的Colab平台,深度学习框架采用的是PyTorch,另外还使用了OpenCV、Numpy以及PIL等第三方库。
步骤4,将测试集中的图像输入到训练好的最佳模型中,模型将待测车辆目标用框标记出来,也可使用该模型对行车视频进行检测,获取视频流检测结果。如图7和图8所示。
为了验证本发明的效果,将本发明提出的改进YOLOv3算法跟原始的YOLOv3算法的检测结果进行比较,得到这两种算法的检测精度和检测速度的对比结果:原始YOLOv3的mAP为90.37%,FPS为27;改进YOLOv3的mAP为92.35%,FPS为32。
通过结果可知,本发明所提出的算法在检测精度和速度上均优于原始YOLOv3算法,也满足实时检测的要求。
对于本领域技术人员而言,显然发明不限于上述示范性实施例的细节,而且在不背离发明的精神或基本特征的情况下,能够以其他的具体形式实现发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (6)
1.一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述方法包括以下步骤:
步骤1,获取车辆图像,划分训练集、验证集和测试集,并对车辆图像进行数据增强操作;
步骤2,首先改进YOLOv3算法,使网络变得更加轻量化,其次在多尺度特征融合部分嵌入注意力机制CBAM,可以使网络在训练过程中更加关注目标区域,最后引入新的损失函数,提升网络的学习能力;
步骤3,训练改进后的YOLOv3算法,进行特征提取,其中使用Adam优化方法进行实验训练,初始学习率设置为0.001,Batch Size设置为16,采用学习率自动衰减策略,如果经过3次迭代损失值没有降低,就将学习率变为原来的一半;
步骤4,将测试集中的图像输入到训练好的最佳模型中,模型将待测车辆目标用框标记出来,也可使用该模型对行车视频进行检测,获取视频流检测结果。
2.如权利要求1中所述的一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述的轻量化是通过引入EfficientNetv2和ShuffleNetv2的残差块结构,对YOLOv3网络进行轻量化改造,降低了模型的参数量,进而实现模型轻量化的目的;
改进措施如下:在骨干网络的浅层部分使用EfficientNetv2的Fused-MBConv模块,重复堆叠次数为2和8,这样做能够明显提升网络的训练速度;在骨干网络的深层部分使用ShuffleNetv2的残差模块,重复堆叠次数为8和4;
整个改进后的骨干网络由浅入深分别进行2倍、4倍、8倍、16倍和32倍的下采样,并且选取最后的8倍、16倍和32倍的特征图作为之后特征融合网络的输入。
3.如权利要求1中所述的一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述的注意力机制CBAM模块是由通道注意力模块和空间注意力模块组成,将前一步经过卷积运算的输入特征层通过一个通道注意力模块赋予不同的通道权重,再通过一个空间注意力模块考虑不同位置的重要性,最后就得到了调整后的特征层。注意力机制CBAM增强了重要特征,忽略了不重要的特征,可以使网络在训练过程中更加关注目标区域;
其中,在多尺度特征融合部分的三个不同的检测层嵌入CBAM可以使网络在训练过程中更加关注目标本身,进而提高模型的检测效果。
4.如权利要求1中所述的一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述的改进的损失函数由三部分组成:边框回归损失、置信度损失和分类损失;
所述损失函数为Lloss=Lreg+Lconf+Lcls。式中,Lreg是引入DIoU的边框回归损失,Lconf是引入Focal Loss的置信度损失,Lcls是二元交叉熵损失;
其中,DIoU考虑到了两框之间的重叠面积和中心点距离,使两框之间的距离直接得到最小化,收敛速度更快;Focal Loss解决了单阶段检测算法的正负样本不均衡的问题,降低易分样本的权重,让模型去关注训练难分样本。
5.如权利要求1中所述的一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述的数据增强是采用三种叠加形式数据增强方法,该三种叠加形式数据增强方法为几何变换+Cutout+Mosaic,数据增强不但可以扩充数据集图像的数量,而且能够增加训练图像的多样性,提升模型的泛化能力,减少过拟合现象的发生,提高算法的精度。
6.如权利要求1中所述的一种基于改进YOLOv3算法的车辆目标检测方法,其特征在于,所述的实验选用谷歌公司提供的Colab平台,深度学习框架采用的是PyTorch,另外还使用了OpenCV、Numpy以及PIL等第三方库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310530783.3A CN116682090A (zh) | 2023-05-12 | 2023-05-12 | 一种基于改进YOLOv3算法的车辆目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310530783.3A CN116682090A (zh) | 2023-05-12 | 2023-05-12 | 一种基于改进YOLOv3算法的车辆目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116682090A true CN116682090A (zh) | 2023-09-01 |
Family
ID=87779982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310530783.3A Pending CN116682090A (zh) | 2023-05-12 | 2023-05-12 | 一种基于改进YOLOv3算法的车辆目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116682090A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422696A (zh) * | 2023-11-08 | 2024-01-19 | 河北工程大学 | 基于改进YOLOv8-EfficientNet的皮带磨损状态检测方法 |
CN118190168A (zh) * | 2023-10-19 | 2024-06-14 | 重庆大学 | 一种高速车辆关键区域温度监测方法及系统 |
-
2023
- 2023-05-12 CN CN202310530783.3A patent/CN116682090A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118190168A (zh) * | 2023-10-19 | 2024-06-14 | 重庆大学 | 一种高速车辆关键区域温度监测方法及系统 |
CN117422696A (zh) * | 2023-11-08 | 2024-01-19 | 河北工程大学 | 基于改进YOLOv8-EfficientNet的皮带磨损状态检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109657584B (zh) | 辅助驾驶的改进LeNet-5融合网络交通标志识别方法 | |
CN109902806B (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
CN116682090A (zh) | 一种基于改进YOLOv3算法的车辆目标检测方法 | |
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN112989942A (zh) | 一种基于交通监控视频的目标实例分割方法 | |
CN112784756B (zh) | 人体识别跟踪方法 | |
CN111680739A (zh) | 一种目标检测和语义分割的多任务并行方法及系统 | |
CN113743505A (zh) | 基于自注意力和特征融合的改进ssd目标检测方法 | |
CN113205103A (zh) | 一种轻量级的文身检测方法 | |
CN114998879A (zh) | 一种基于事件相机的模糊车牌识别方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
CN117011728A (zh) | 基于改进YOLOv7的无人机航拍目标检测方法 | |
CN114550134A (zh) | 基于深度学习的交通标志检测与识别方法 | |
CN117593623A (zh) | 基于改进YOLOv8n模型的轻量化车辆检测方法 | |
CN117333841A (zh) | 一种基于多层次跨通道结构的交通信号灯检测 | |
CN117710841A (zh) | 一种无人机航拍图像的小目标检测方法、装置 | |
CN112418358A (zh) | 一种强化深度融合网络的车辆多属性分类方法 | |
CN116563636A (zh) | 一种合成孔径雷达图像生成方法及系统 | |
CN115690770A (zh) | 基于空间注意力特征的非受限场景下的车牌识别方法 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 | |
CN113033427A (zh) | 一种基于dl的车底异物自动识别方法 | |
CN112149666A (zh) | 一种基于深度学习的车辆目标检测方法 | |
CN117746066B (zh) | 一种扩散模型引导的高速车辆检测集成学习方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |