CN117037109A - 一种基于改进YOLOv5模型的交通目标检测方法 - Google Patents

一种基于改进YOLOv5模型的交通目标检测方法 Download PDF

Info

Publication number
CN117037109A
CN117037109A CN202310806031.5A CN202310806031A CN117037109A CN 117037109 A CN117037109 A CN 117037109A CN 202310806031 A CN202310806031 A CN 202310806031A CN 117037109 A CN117037109 A CN 117037109A
Authority
CN
China
Prior art keywords
model
training
traffic target
target detection
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310806031.5A
Other languages
English (en)
Inventor
卢熙
张淑媚
吕嘉迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Technology
Original Assignee
Guilin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Technology filed Critical Guilin University of Technology
Priority to CN202310806031.5A priority Critical patent/CN117037109A/zh
Publication of CN117037109A publication Critical patent/CN117037109A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉领域、具体涉及一种YOLOv5的交通目标检测方法。S1:采集交通标志图像并对图像进行预处理;S2:构建基于改进YOLOv5的交通目标检测模型;S3:优化损失函数;S4:训练构建的改进YOLOv5交通目标检测模型;S5:对训练模型进行性能评估。本发明提供的一种基于YOLOv5的交通目标检测方法,可以通过改进后的YOLOv5模型对采集的交通目标数据集进行训练和测试,评估模型性能,得到更高的检测准确率。本发明通过图像增强处理,可以有效的增强模型的泛化性。通过CA注意力模块,提升对于小目标的检测精度。通过Ghost卷积较少参数量,精而提升检测速度。通过使用CIOU和soft‑NMS提升检测精度。

Description

一种基于改进YOLOv5模型的交通目标检测方法
技术领域
本发明涉及目标检测领域,具体是涉及一种基于改进YOLOv5S模型的交通目标检测方法。
背景技术
随着社会的快速发展,越来越多人拥有了自己的私家车。虽然汽车为我们的生活带来了很多便利,但是也给城市交通造成了很多不便和隐患。在道路发生拥堵严重时,交通事故就有可能发生,严重的更会威胁到人们的生命安全。每年因交通事故导致死亡的人数都非常惊人,这已经成为交通管理部门必须关注的问题。为了解决这个问题,研究人员在传感器技术、环境感知等方面进行了大量的探索和实验,希望能够减少交通事故的发生,保障人们的出行安全。
自动驾驶可以将人类从车辆驾驶中解放出来,这能有效降低事故的发生率,人员死伤率,提高人们出行安全保障等。计算机视觉是智能驾驶的核心技术,而驾驶过程中行车记录仪的普及实现了基于计算机视觉的实时车辆目标检测。车辆实时检测在图像识别领域是一项至关重要的技术。为了实现这一点,首先需要确定车辆实时检测的对象类别,如:行驶的车辆、标识牌、骑行者和车道线等。然后需要了解实时车辆检测的传统原理和局限性,最后需要研究当前相对较新的实时车辆检测方法。
而近年来,以YOLO系列为代表的单阶段检测模型发展尤为迅速,在目标检测领域内应用极为广泛。其中YOLOv5目标检测算法作为一种检测速度快的轻量化模型,它的大小只有27MB,与YOLOv4相比,仅为其大小的11%,且检测速度是YOLOv4的两倍。所以选择使用YOLOv5进行交通目标的检测并对其改进以期望取得良好的准确率。
发明内容
本发明目的在于提供一种基于YOLOv5模型的交通目标检测方法,旨在提高交通目标的检测精度以及检测稳定性。
为了实现以上目的,本发明所采用的技术方案包括以下步骤,其特征在于,包括:
S1:采集交通标志图像并对图像进行预处理;
S2:构建基于改进YOLOv5的交通目标检测模型;
S3:优化损失函数;
S4:训练构建的改进YOLOv5交通目标检测模型;
S5:对训练模型进行性能评估。
所述步骤S1中的具体包括以下步骤:
S1.1:在BDD100K数据集中选取一定数量的交通目标图像,加上自行拍摄或网络上获取的若干交通目标图像,建立交通标志检测数据集,根据8:1:1的比例划分为训练集、验证集和测试集;
S1.2:采用Mosaic-8以及随机亮度变换的方式实现交通目标图像的数据增强;
所述步骤S2具体包括以下步骤:
S2.1:引入Ghost卷积神经网络替代原始主干卷积神经网络中的普通卷积操作;
S2.2:引入坐标注意力机制(coordinateattention,CA)模型,在原有网络模型的主干网络后添加CA模块,使网络在更大区域内进行注意;
所述步骤S3包括以下步骤:
S3.1:采用CIoU损失函数替代原有的GIoU损失函数能够有效解决预测框在目标框内部且预测框大小一致的情况,CIoU_loss中考虑了预测框与目标框之间的重叠面积和中心点距离,也考虑了预测框和目标框的长宽比,使边界回归效果更好,其定义如下:
其中,式中,b表示预测框中心点,bgt表示目标框中心点,ρ表示欧氏距离,c代表包含目标框与预测框的最小矩形的对角线长度,α为权重系数,v用来衡量目标框与预测框长宽比的相似性,公式如下:
S3.2:使用soft-NMS代替传统的NMS。传统的NMS存在存在两个问题,一是当两个类别相同的预测框重叠面积比例过大时,置信度更低的框就会被删除,在检测两个相同的粘连目标时就会出现漏框现象,二是NMS的阈值需要手动设置,设置的数值过小就会出现漏框现象,设置过大就会出现重框现象;
soft-NMS的公式如下所示:
其中si表示当前检测框的得分,Nt为IOU的阈值,M为得分最高的检测框;
所述步骤S4具体包括以下步骤:
S4.1:设置训练参数,采用Adam算法进行优化训练,设置训练的批次大小batch为64,动量参数momentum为0.9,初始学习率为0.0001,迭代次数epoch为1000;
S4.2:将数据集中的训练集和验证集图像放入改进的YOLOv5交通目标检测模型中进行训练;
S4.3:根据设置的参数对模型进行训练,通过观察损失函数的变化趋势,调整模型训练的学习率以及迭代次数,直到损失函数变化趋于稳定,得到最终训练模型;
所述步骤S5根据训练的基于改进YOLOv5的交通标志检测模型,从检测准确率、召回率、平均检测精度mAP、检测速度FPS以及模型大小等评价指标对模型进行评估,其公式如下:
式中,TP表示实际是正样本且预测对了的样本数,FP表示实际为负样本但预测是正样本的样本数,FN表示实际是正样本但预测是负样本的样本数,Precision表示预测结果的准确性,值越高说明误检越少,Recall表示目标预测的全面性,值越高说明漏检越少,通过计算以Recall为横坐标,Precision为纵坐标绘制的PR曲线下的面积得到AP值,最终以mAP作为精度的评价指标,衡量训练得到的模型在所有类别上的综合表现;
本发明与现有技术相比,具有的有益效果如下:
本发明在模型结构中引入Ghost卷积可以在一定程度上减少模型的参数量。还添加了CA注意力用以提高模型对小目标的检测能力。使用了soft-NMS避免重框的出现。以及使用CIOU提高检测精度。所以采用改进后的YOLOv5模型能够快速并准确地检测出图像中的交通目标,在实际应用中能够发挥巨大作用。
附图说明
图1本发明具体实施方式的一种基于改进YOLOv5模型的交通目标检测方法的流程图;
图2为本发明具体实施方式的一种基于改进YOLOv5模型的交通目标检测方法中Ghost卷积的示意图;
图3为本发明具体实施方式的一种基于改进YOLOv5模型的交通目标检测方法中CA注意力的示意图;
具体实施方式
实施例
如图1所示,本发明技术方案包括以下步骤:
S1:采集交通标志图像并对图像进行预处理;
S2:构建基于改进YOLOv5的交通目标检测模型;
S3:优化损失函数;
S4:训练构建的改进YOLOv5交通目标检测模型;
S5:对训练模型进行性能评估;
所述步骤S1具体包括以下步骤:
S1.1:在BDD100K数据集中选取一定数量的交通标志图像,加上自行拍摄或网络上获取的若干交通标志图像,建立交通标志检测数据集,根据8:1:1的比例划分为训练集、验证集和测试集;
S1.2:采用Mosaic方法的增强版Mosaic-8实现交通标志图像的数据增强,即随机采取8张图片随机裁剪、排列、缩放后组合成一张图像,丰富样本的数据量,增强网络模型对图像中小目标的区分能力,提高模型的泛化性能;并且将得到的图像进行随机亮度变换;
所述步骤S2具体包括以下步骤:
S2.1:引入Ghost卷积替代主干网络中原有的标准卷积网络;
Ghost卷积旨在通过廉价操作生成更多的特征图。Ghost卷积将卷积层输出的特征图分为两部分,第一部分是通过普通的卷积操作生成的特征图,这部分的特征图的数量会被严格的控制。这种操作可以显著的降低模型的参数量进而提高监测速度;
S2.2:引入坐标注意力机制(coordinateattention,CA)模型;
在原有网络模型的主干网络后添加CA模块,CA是将位置信息加入到了通道注意力中,可以使网络在更大区域内进行注意,对于小目标和密集目标来说,可以有效地提取重要特征,进一步提高网络模型的检测准确率;
所述步骤S3具体包括以下步骤:
S3.1:采用CIoU损失函数替代原有的GIoU损失函数能够有效解决预测框在目标框内部且预测框大小一致的情况,CIoU_loss中考虑了预测框与目标框之间的重叠面积和中心点距离,当目标框包裹预测框的时候,直接度量两个框的距离,从而考虑了边界框中心点距离的信息与边界框宽高比的尺度信息,与此同时也考虑了预测框和目标框的长宽比,使边界回归效果更好,其定义如下:
其中,式中,b表示预测框中心点,bgt表示目标框中心点,ρ表示欧氏距离,c代表包含目标框与预测框的最小矩形的对角线长度,α为权重系数,v用来衡量目标框与预测框长宽比的相似性,公式如下:
S3.2:使用soft-NMS代替传统的NMS。传统的NMS存在存在两个问题,一是当两个类别相同的预测框重叠面积比例过大时,置信度更低的框就会被删除,在检测两个相同的粘连目标时就会出现漏框现象,二是NMS的阈值需要手动设置,设置的数值过小就会出现漏框现象,设置过大就会出现重框现象;
soft-NMS的公式如下所示:
其中si表示当前检测框的得分,Nt为IOU的阈值,M为得分最高的检测框;
所述步骤S4具体包括以下步骤:
S4.1:设置训练参数,采用Adam算法进行优化训练,设置训练的批次大小batch为64,动量参数momentum为0.91,初始学习率为0.001,迭代次数epoch为1000;
S4.2:将数据集中的训练集和验证集图像放入改进的YOLOv5交通目标检测模型中进行训练;
S4.3:根据设置的参数对模型进行训练,通过观察损失函数的变化趋势,调整模型训练的学习率以及迭代次数,直到损失函数变化趋于稳定,得到最终训练模型;
所述步骤S5根据训练的基于改进YOLOv5的交通标志检测模型,从检测准确率、召回率、平均检测精度mAP、检测速度FPS以及模型大小等评价指标对模型进行评估,其公式如下:
式中,TP表示实际是正样本且预测对了的样本数,FP表示实际为负样本但预测是正样本的样本数,FN表示实际是正样本但预测是负样本的样本数,Precision表示预测结果的准确性,值越高说明误检越少,Recall表示目标预测的全面性,值越高说明漏检越少,通过计算以Recall为横坐标,Precision为纵坐标绘制的PR曲线下的面积得到AP值,最终以mAP作为精度的评价指标,衡量训练得到的模型在所有类别上的综合表现;
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (6)

1.一种基于YOLOv5的交通目标检测方法,其特征在于,包括以下步骤:
S1:采集交通目标图像并对图像进行预处理;
S2:构建基于改进YOLOv5的交通目标检测模型;
S3:优化损失函数;
S4:训练构建的改进YOLOv5交通目标检测模型;
S5:对训练模型进行性能评估。
2.根据权利要求1所述的一种基于YOLOv5的交通目标检测方法,其特征在于,所述步骤S1具体包括以下步骤:
S1.1:在BDD100K数据集中选取一定数量的交通目标图像,加上自行拍摄或网络上获取的若干交通目标图像,建立交通目标检测数据集,根据8:1:1的比例划分为训练集、验证集和测试集;
S1.2:采用Mosaic-8以及随机亮度变换的方式实现交通目标图像的数据增强。
3.根据权利要求1所述的一种基于YOLOv5的交通目标检测方法,其特征在于,所述步骤S2具体包括以下步骤:
S2.1:引入Ghost卷积替代主干网络中原有的普通卷积;
S2.2:引入坐标注意力机制(coordinateattention,CA)模型,在原有网络模型的主干网络后添加CA模块,使网络在更大区域内进行注意。
4.根据权利要求1所述的一种基于YOLOv5的交通目标检测方法,其特征在于,所述步骤S3包括以下步骤:
S3.1:采用CIoU损失函数替代原有的GIoU损失函数能够有效解决预测框在目标框内部且预测框大小一致的情况,CIoU_loss中考虑了预测框与目标框之间的重叠面积和中心点距离,也考虑了预测框和目标框的长宽比,使边界回归效果更好;
S3.2:使用soft-NMS代替传统的NMS;传统的NMS存在存在两个问题,一是当两个类别相同的预测框重叠面积比例过大时,置信度更低的框就会被删除,在检测两个相同的粘连目标时就会出现漏框现象,二是NMS的阈值需要手动设置,设置的数值过小就会出现漏框现象,设置过大就会出现重框现象;Soft-NMS可以较好的解决这些问题。
5.根据权利要求1所述的一种基于YOLOv5的交通苗木表检测方法,其特征在于,所述步骤S4具体包括以下步骤:
S4.1:设置训练参数,采用Adam算法进行优化训练,设置训练的批次大小batch为64,动量参数momentum为0.9,初始学习率为0.0001,迭代次数epoch为1000;
S4.2:将数据集中的训练集和验证集图像放入改进的YOLOv5交通目标检测模型中进行训练;
S4.3:根据设置的参数对模型进行训练,通过观察损失函数的变化趋势,调整模型训练的学习率以及迭代次数,直到损失函数变化趋于稳定,得到最终训练模型。
6.根据权利要求1所述的一种基于YOLOv5的交通目标检测方法,其特征在于,所述步骤S5根据训练的基于改进YOLOv5的交通目标检测模型,从检测准确率、召回率、平均检测精度mAP、检测速度FPS以及模型大小等评价指标对模型进行评估。
CN202310806031.5A 2023-07-03 2023-07-03 一种基于改进YOLOv5模型的交通目标检测方法 Pending CN117037109A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310806031.5A CN117037109A (zh) 2023-07-03 2023-07-03 一种基于改进YOLOv5模型的交通目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310806031.5A CN117037109A (zh) 2023-07-03 2023-07-03 一种基于改进YOLOv5模型的交通目标检测方法

Publications (1)

Publication Number Publication Date
CN117037109A true CN117037109A (zh) 2023-11-10

Family

ID=88601166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310806031.5A Pending CN117037109A (zh) 2023-07-03 2023-07-03 一种基于改进YOLOv5模型的交通目标检测方法

Country Status (1)

Country Link
CN (1) CN117037109A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274929A (zh) * 2023-11-21 2023-12-22 深圳中科超远科技有限公司 一种基于视觉分析的交通管理方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274929A (zh) * 2023-11-21 2023-12-22 深圳中科超远科技有限公司 一种基于视觉分析的交通管理方法及系统
CN117274929B (zh) * 2023-11-21 2024-06-11 博时信息科技(深圳)有限公司 一种基于视觉分析的交通管理方法及系统

Similar Documents

Publication Publication Date Title
US11084494B2 (en) Method for detecting safety of driving behavior, apparatus, device and storage medium
CN109191830B (zh) 一种基于视频图像处理的道路拥堵检测方法
WO2020177217A1 (zh) 基于变尺度多特征融合卷积网络的路侧图像行人分割方法
CN111695448B (zh) 一种基于视觉传感器的路侧车辆识别方法
CN111460919B (zh) 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN111325978B (zh) 一种高速公路车辆异常行为的全程监测警示系统和方法
CN111415533B (zh) 弯道安全预警监控方法、装置以及系统
CN110992683A (zh) 一种基于动态图像感知的交叉口盲区预警方法及系统
CN110077398B (zh) 一种用于智能驾驶的危险处理方法
CN109190488B (zh) 基于深度学习YOLOv3算法的前车车门打开检测方法及装置
CN110533909B (zh) 一种基于交通环境的驾驶行为分析方法及系统
CN108960074B (zh) 基于深度学习的小尺寸行人目标检测方法
CN117037109A (zh) 一种基于改进YOLOv5模型的交通目标检测方法
CN110414421A (zh) 一种基于连续帧图像的行为识别方法
CN106960189A (zh) 一种基于隐含马尔可夫模型的驾驶意图判定方法
CN114926984B (zh) 一种实时交通冲突收集与道路安全评价方法
CN110674887A (zh) 一种基于视频分类的端到端道路拥堵检测算法
CN114639067A (zh) 一种基于注意力机制的多尺度全场景监控目标检测方法
CN116153082B (zh) 一种基于机器视觉的高速公路路况采集分析处理系统
CN113359673B (zh) 一种基于大数据的自动驾驶汽车性能判定系统
CN110555425A (zh) 一种视频流实时行人检测方法
CN116434056A (zh) 一种基于雷视融合的目标识别方法、系统及电子设备
CN113570877B (zh) 一种非机动车逆行检测装置及检测方法
CN112131996B (zh) 基于通道分离卷积的路侧图像多尺度行人快速检测方法
Chao et al. Research on the Influence of the Depth and Width of YOLOv5 Network Structure on Traffic Signal Detection Performance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication