CN111709381A - 基于YOLOv3-SPP的道路环境目标检测方法 - Google Patents

基于YOLOv3-SPP的道路环境目标检测方法 Download PDF

Info

Publication number
CN111709381A
CN111709381A CN202010564359.7A CN202010564359A CN111709381A CN 111709381 A CN111709381 A CN 111709381A CN 202010564359 A CN202010564359 A CN 202010564359A CN 111709381 A CN111709381 A CN 111709381A
Authority
CN
China
Prior art keywords
box
yolov3
spp
frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010564359.7A
Other languages
English (en)
Inventor
陈名松
吴冉冉
周奕捷
李孜涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010564359.7A priority Critical patent/CN111709381A/zh
Publication of CN111709381A publication Critical patent/CN111709381A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于YOLOv3‑SPP的道路环境目标检测方法,包括如下步骤:1)构建模型;2)预处理;3)重新聚类并分配;4)训练与评估;5)检测。这种方法提高了检测效果,降低了漏检区域。

Description

基于YOLOv3-SPP的道路环境目标检测方法
技术领域
本发明涉及智能交通领域,具体是一种基于YOLOv3-SPP的道路环境目标检测方法。
背景技术
近年来,随着经济技术、汽车工业和公路技术的飞速发展,越来越多家庭开始拥有私家车,汽车在给我们带来便利交通的同时,也产生了频繁的交通事故,造成了大量的财产流失及人员死伤,为了获得一种更加安全、快速、便捷的交通方式,近年来工业界和学术界在智能车辆领域进行了广泛的探索。智能汽车通过设置在车上的多个传感器(摄像机、雷达)获得行驶环境中车辆、障碍物、交通标志等信息,由后端的决策系统根据这些感知信息进一步处理,进行决策,规划行驶路线,自动地引导汽车驾驶。
道路环境感知技术是智能车辆系统的关键技术之一,是智能车辆安全性和智能性保障。目前应用比较广泛的传感器技术包括:计算机视觉、激光雷达以及毫米波雷达,其中基于计算机视觉的环境传感器具有采集信息量大、成本低的优点,是整个环境感知系统至关重要的组成部分。在实际行车环境,存在阴天、雨雪或者树木等其他物体遮挡等多方面环境因素影响,并且由于汽车行驶过程中,速度较快,相机拍摄图像与车辆在静止时拍摄质量有很大差异,鉴于此,传统的视觉感知技术在实际应用中存在非常大的挑战。本文利用深度学习技术与图像处理技术,相比于传统算法更能应对多变、背景信息复杂的行车环境下检测问题,具有更好的抗噪性能和识别精度,为智能驾驶系统精准感知行车提供了可能,对于促进汽车产业升级换代,形成一个“安全、高效、舒适”交通系统具有非常明显的应用价值和社会意义。
发明内容
本发明的目的是针对现有技术中存在的不足,而提供一种基于YOLOv3-SPP的道路环境目标检测方法。这种方法提高了检测效果,降低了漏检区域。
实现本发明目的的技术方案是:
基于YOLOv3-SPP的道路环境目标检测方法,包括如下步骤:
1)构建模型:在YOLOv3网络中引入空间金字塔池化(Spatial Pyramid Pooling,简称SPP)模块,构建基于YOLOv3-SPP目标检测模型;
2)预处理:对BDD100K数据集预处理,即从BDD100K数据集标注文件中提取车辆、行人和交通标志这三类道路目标的标注信息,并将这三类标注信息转换为Darknet框架下支持的格式;
3)重新聚类并分配:依据BDD100K数据集中训练集图像分辨率1280x720,利用k-means++算法对步骤2)中转换为Darknet框架下支持的格式的标注信息框重新聚类,得到新的初始Anchor Box,并按照Alexey Bochkovskiy设定的Anchor Box分配规则,为YOLOv3-SPP目标检测模型中的每个检测尺度分配相应个数的Anchor Box;
4)训练与评估:将BDD100K数据集中的训练集和验证集分别输入到YOLOv3-SPP目标检测模型中进行检测模型的训练与评估;
5)检测:利用步骤4)训练后的YOLOv3-SPP目标检测模型对GTSDB数据集中的道路环境进行目标检测。
步骤1)中所述的构建基于YOLOv3-SPP目标检测模型,包括如下过程:
SPP模块由Kernel Size分别为1×1,5×5,9×9,13×13的四个并行池化层组成,将SPP模块集成在YOLOv3网络中第一个检测尺度的第5和第6个卷积之间,即完成了构建基于YOLOv3-SPP目标检测模型,用于实现不同尺度特征的融合,丰富最终特征图的表达能力,提高道路环境中目标尺度差异较大时的检测效果。
步骤2)中所述的对BDD100K数据集预处理,过程为:
从BDD100K标注文件中提取车辆、行人、交通标志这三类道路目标的标注信息,并将这三类标注信息写入以图片命名的XML文件中,在BDD100K数据集的JSON文件中目标位置是以框左上角坐标(boxxmin,boxymin)和右下角坐标(boxxmax,boxymax)确定的,设计代码按照以下公式将标注信息转换成Darknet框架下的格式:
xcenter=(boxxmin+boxxmax)/(2×picture_width)
ycenter=(boxymin+boxymax)/(2×picture_height)
width=(boxxmax-boxxmin)/picture_width
height=(boxymax-boxymin)/picture_height,
其中,(xcenter,ycenter)表示标注框中心点坐标,width表示标注框的宽,height表示标注框的高,转换后每个图片的TXT标注框格式变为:
<object-class><x_center><y_center><width><height>,
将BDD100K数据集文件目录结构转化为形如PASCAL VOC数据集文件目录结构,将带有标注信息的TXT文件放入Labels文件夹,将生成XML文件放入Annotation文件夹中,BDD100K中的图片放入JPEGImages文件夹中,用于模型训练和验证图片的名字分别写入ImageSets目录下Main文件夹中train.txt和val.txt中。
步骤3)中所述的得到新的初始Anchor Box的具体过程如下:
4.1观察BDD100K数据集中训练集标注框坐标信息分布,随机选取选择k个簇中心(wi,hi),i∈{1,2,……,k},其中,wi和hi为框的宽和高;
4.2分别计算每个标注框和每个簇中心的距离d,计算公式如下:
Figure BDA0002547267200000031
其中,IOU表示交并比,anchor表示锚框,truth表示标注框,计算公式如下:
Figure BDA0002547267200000032
其中,分子表示锚框和标注框相交的面积大小,分母表示锚框和标注框相并的面积大小,当IOU值最大时,即标注框和锚框匹配得最好,此时d最小,将标注框分别分到与之最近即d最小的簇中;
4.3重新计算k个簇中心所属的标注框宽和高的平均值,作为新的簇中心;
4.4重复步骤4.2和4.3,当聚类中心不再改变时,输出聚类结果;
4.5最后输出聚类结果:(7,11),(14,18),(10,33),(25,32),(19,77),(45,54),(68,99),(113,146),(162,237);
4.6分别为YOLOv3-SPP目标检测模型中三个检测尺度分配2个、1个和6个AnchorBoxes,即调整YOLOv3-SPP网络结构中所有YOLO层Filter数量为N×(5+3)=24,N为分配Anchor Box个数并将配置文件中对应MASK改为7,8;6;0,1,2,3,5,6。
步骤4)中所述的训练与评估过程如下:
5.1采用ImageNet数据集上预先训练好的模型参数darknet53.conv.74作为初始化权重以减少训练时间;
5.2设置训练超参数:网络分辨率、动量、权值衰减、Base_lr、批次、最大迭代次数、学习率调整策略,将BDD100K训练集中的图片作为训练输入,利用Darknet-53深度学习框架进行网络训练,当训练平均损失达到稳定值并且不再降低时得到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型;
5.3将BDD100K验证集中行车道路图片输入到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型中,经过网络逐层计算,将网络预测结果记录在TXT文件,通过代码,得到基于YOLOV3-SPP网络的车辆、行人以及交通标志的目标检测模型的精确率、召回率、F1值、检测速率(FPS)和P-R曲线评估指标。
步骤5)中所述的检测过程如下:
6.1调整GTSDB数据集图片分辨率为1280x720,然后输入到步骤4)训练后的YOLOv3-SPP目标检测模型中,经过32倍下采样特征提取,最终网络输出三个尺度的特征图;
6.2为每个尺度的每个网格分配2、1、6个不同Anchor Box进行检测,每个AnchorBox预测包括4个边界框偏移量、1个置信度t0和C个检测目标类别,4个边界偏移量包括tx,ty,tw,th,置信度定义如下:
Figure BDA0002547267200000041
pr(object)表示该Anchor Box中存在目标的概率,如果不包含目标,其值为0,
Figure BDA0002547267200000042
表示预测边界框与真实边界框(Ground Truth Box)的交并比:
Figure BDA0002547267200000043
每一个网格都会预测C个类别概率,pr(classi|object)表示网格在包含目标条件下属于某个类别的概率,则预测Bounding Box属于类别i的概率表示为:
Figure BDA0002547267200000044
根据预测的Anchor Box相对于标注框的偏移值,得到所预测的边界框的位置信息,计算公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002547267200000045
Figure BDA0002547267200000046
σ(to)=pr(object)*IOU(b,object),
其中,σ(to)为预测定位框对应的置信度,σ(tx),σ(ty)是tx,ty经过Sigmoid函数归一化值表示网格中心相对于网格左上角的横纵坐标,bx,by,bw,bh是最终输出的边界框;
6.3针对重叠的检测框,通过NMS算法抑制置信度较低和重叠率高于设定阈值的检测边框,得到最优检测框;
6.4在道路环境图片中用矩形框框出目标位置并标注所属类别。
本技术方案的方法在YOLOv3网络中引入了SPP模块,根据训练集图像大小相应调整了网络分辨率,重新聚类初始Anchor Box,同时调整网络检测类别个数,将多类别检测分类问题转化为在行车道路场景下针对车辆、行人和交通标志三类别检测分类问题,并通过融合不同尺度特征,实现了对高密度下以及细粒度下车辆、行人和交通标志特征具有较好的检测效果,漏检区域较少。
这种方法提高了检测效果,降低了漏检区域。
附图说明
图1为实施例的流程图;
图2为实施例中YOLOv3网络的结构图;
图3为实施例中SPP模块示意图;
图4为实施例与现有模型训练时损失值-迭代次数曲线对比图;
图5为实施例与现有模型精确度-召回率即PR曲线对比图;
图6为实施例的检测结果示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细描述,但不是对本发明的限定。
实施例:
本实施例基于TensorFlow深度学习框架下完成的,硬件配置如下:Intel(R)Core(TM)i7-7800X CPU@3.50GHz 8核CPU,16G内存,显存,NVIDIA GeForce RTX 2080Ti,10GB。软件配置:Linux系统,Python 3.5。
参照图1,基于YOLOv3-SPP的道路环境目标检测方法,包括如下步骤:
1)构建模型:在YOLOv3网络中引入SPP模块,构建基于YOLOv3-SPP目标检测模型;
2)预处理:对BDD100K数据集预处理,即从BDD100K数据集标注文件中提取车辆、行人和交通标志这三类道路目标的标注信息,并将这三类标注信息转换为Darknet框架下支持的格式;
3)重新聚类并分配:依据BDD100K数据集中训练集图像分辨率1280x720,利用k-means++算法对步骤2)中转换为Darknet框架下支持的格式的标注信息框重新聚类,得到新的初始Anchor Box,并按照Alexey Bochkovskiy设定的Anchor Box分配规则,为YOLOv3-SPP目标检测模型中的每个检测尺度分配相应个数的Anchor Box;
4)训练与评估:将BDD100K数据集中的训练集和验证集分别输入到YOLOv3-SPP目标检测模型中进行检测模型的训练与评估;
5)检测:利用步骤4)训练后的YOLOv3-SPP目标检测模型对GTSDB数据集中的道路环境进行目标检测。
步骤1)中所述的构建基于YOLOv3-SPP目标检测模型,包括如下过程:
如图3所示,SPP模块由Kernel Size分别为1×1,5×5,9×9,13×13的四个并行池化层组成,如图2所示,将SPP模块集成在YOLOv3网络中第一个检测尺度的第5和第6个卷积之间,即完成了构建基于YOLOv3-SPP目标检测模型。
本例YOLOv3在训练深层网络难度减小条件下,通过更多连续3×3、1×1卷积层组成残差块进一步加深网络并将网络层数提高到53层,精度提升比较明显,且YOLOv3采用多个尺度融合的方式进行预测,YOLOv3将YOLOv2中跨层拼接的思想进一步加强,将神经网络浅层的特征与神经网络深层的特征进行拼接,最终采用3个尺度特征图进行检测,特征图大小分别是13×13、26×26和52×52。
本例在SPP模块前,YOLOv3网络输出大小为23×13×512的特征图,SPP模块将这个特征图分别送入不同尺度大小池化层进行下采样,得到4种尺度且大小为23×13×512的特征图,最后SPP模块将提取的多尺度的深度特征拼接得到不同尺度融合大小23×13×2048特征图。
步骤2)中所述的对BDD100K数据集预处理,过程为:
从BDD100K标注文件中提取车辆、行人、交通标志这三类道路目标的标注信息,并将这三类标注信息写入以图片命名的XML文件中,在BDD100K数据集的JSON文件中目标位置是以框左上角坐标(boxxmin,boxymin)和右下角坐标(boxxmax,boxymax)确定的,设计代码按照以下公式将标注信息转换成Darknet框架下的格式:
xcenter=(boxxmin+boxxmax)/(2×picture_width)
ycenter=(boxymin+boxymax)/(2×picture_height)
width=(boxxmax-boxxmin)/picture_width
height=(boxymax-boxymin)/picture_height,
其中,(xcenter,ycenter)表示标注框中心点坐标,width表示标注框的宽,height表示标注框的高,转换后每个图片的TXT标注框格式变为:
<object-class><x_center><y_center><width><height>,
将BDD100K数据集文件目录结构转化为形如PASCAL VOC数据集文件目录结构,将带有标注信息的TXT文件放入Labels文件夹,将生成XML文件放入Annotation文件夹中,BDD100K中的图片放入JPEGImages文件夹中,用于模型训练和验证图片的名字分别写入ImageSets目录下Main文件夹中train.txt和val.txt中。
步骤3)中所述的得到新的初始Anchor Box的具体过程如下:
4.1观察BDD100K数据集中训练集标注框坐标信息分布,随机选取选择k个簇中心(wi,hi),i∈{1,2,……,k},其中,wi和hi为框的宽和高;
4.2分别计算每个标注框和每个簇中心的距离d,计算公式如下:
Figure BDA0002547267200000061
其中,IOU表示交并比,anchor表示锚框,truth表示标注框,计算公式如下:
Figure BDA0002547267200000062
其中,分子表示锚框和标注框相交的面积大小,分母表示锚框和标注框相并的面积大小,当IOU值最大时,即标注框和锚框匹配得最好,此时d最小,将标注框分别分到与之最近即d最小的簇中;
4.3重新计算k个簇中心所属的标注框宽和高的平均值,作为新的簇中心;
4.4重复步骤4.2和4.3,当聚类中心不再改变时,输出聚类结果;
4.5最后输出聚类结果:(7,11),(14,18),(10,33),(25,32),(19,77),(45,54),(68,99),(113,146),(162,237);
4.6分别为YOLOv3-SPP目标检测模型中三个检测尺度分配2个、1个和6个AnchorBoxes,即调整YOLOv3-SPP网络结构中所有YOLO层Filter数量为N×(5+3)=24,N为分配Anchor Box个数并将配置文件中对应MASK改为7,8;6;0,1,2,3,5,6。
步骤4)中所述的训练与评估过程如下:
5.1采用ImageNet数据集上预先训练好的模型参数darknet53.conv.74作为初始化权重;
5.2设置训练超参数:网络分辨率、动量、权值衰减、Base_lr、批次、最大迭代次数、学习率调整策略,选取BDD100K训练集中的69832张图片作为训练输入,利用Darknet-53深度学习框架进行网络训练,当训练平均损失达到稳定值并且不再降低时得到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型,训练超参数设置如下表1所示:
表1网络训练超参数设置表
Figure BDA0002547267200000071
学习率调整策略policy设置为Steps,当迭代次数为5600,6300时,学习率lr缩减10倍,设置score_thresh=0.25,iou_thresh=0.7,配置好训练参数后利用NVIDIAGeForce RTX 2080Ti,10GB训练网络,YOLOv3-SPP、YOLOv3和YOLOv3-tiny三组网络结构训练过程中函数损失值-迭代次数曲线对比图如图4所示;
当迭代到5000次时,YOLOv3-SPP网络的Loss值收敛到3.5左右,YOLOv3网络收敛到6左右,Tiny YOLOv3网络训练Loss值上下波动幅度较大,网络不稳定,因此,在相同学习率下,YOLOv3-SPP网络相对于YOLOv3、Tiny YOLOv3可以更快地收敛,具有更好的特征学习能力且具有更低的Loss值;
5.3将BDD100K验证集中1000张行车道路图片输入到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型中,经过网络逐层计算,将网络预测结果记录在TXT文件,通过代码,得到基于YOLOV3-SPP网络的车辆、行人以及交通标志的目标检测模型的精确率、召回率、F1值、检测速率(FPS)和P-R曲线评估指标;
本例为了更全面分析模型检测性能,将训练完成的YOLOv3-SPP、YOLOv3和YOLOv3-Tiny这三种模型基于BDD100K验证集1000张验证图片上进行性能评估,GPU采用RTX2080Ti,具体指标如表2所示:
表2不同模型评估指标对比
Figure BDA0002547267200000081
YOLOv3-SPP网络模型检测效果最好,精确度、召回率和F1值高达74.45%、71.19%和0.73,且各指标与YOLOv3网络相比分别提高了14.35%、3.87和0.14,YOLOv3-Tiny网络层次浅,结构简单各项评估指标都比较低,难以满足行车环境中背景复杂、目标尺度差异大检测需求,YOLOv3-SPP网络由于存在大量卷积运算,使得检测速率相对较慢,检测速率为26fps,目前一般摄像头录制视频的帧率为25帧~30帧,YOLOv3-SPP模型基本满足实时性需求;
接着,为了综合衡量模型检测性能,如图5所示为精确度—召回率即PR曲线图,该曲线下的面积就是平均精确率AP,AP越高,模型检测性能越好;
虚线表示YOLOv3-SPP网络PR曲线,实线表示YOLOv3网络PR曲线,由图5可知,YOLOv3-SPP平均精确率达到了70.95%,明显优于YOLOv3网络,由于BDD100K训练集中“Person”样本个数最少,在YOLOv3-SPP和YOLOv3检测模型中,“Person”检测效果都不理想,AP都比较低。
步骤5)中所述的检测过程如下:
6.1调整德国交通标志检测GTSDB数据集图片分辨率为1280x720,然后输入到步骤4)训练后的YOLOv3-SPP目标检测模型中,经过32倍下采样特征提取,最终网络输出三个尺度的特征图;
6.2为每个尺度的每个网格分配2、1、6个不同Anchor Box进行检测,每个AnchorBox预测包括4个边界框偏移量、1个置信度t0和C个检测目标类别,4个边界偏移量包括tx,ty,tw,th,置信度定义如下:
Figure BDA0002547267200000091
pr(object)表示该Anchor Box中存在目标的概率,如果不包含目标,其值为0,
Figure BDA0002547267200000092
表示预测边界框与真实边界框(Ground Truth Box)的交并比:
Figure BDA0002547267200000093
每一个网格都会预测C个类别概率,pr(classi|object)表示网格在包含目标条件下属于某个类别的概率,则预测Bounding Box属于类别i的概率表示为:
Figure BDA0002547267200000094
根据预测的Anchor Box相对于标注框的偏移值,得到所预测的边界框的位置信息,计算公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002547267200000095
Figure BDA0002547267200000096
σ(to)=pr(object)*IOU(b,object),
其中,σ(to)为预测定位框对应的置信度,σ(tx),σ(ty)是tx,ty经过Sigmoid函数归一化值表示网格中心相对于网格左上角的横纵坐标,bx,by,bw,bh是最终输出的边界框;
6.3针对重叠的检测框,通过NMS算法抑制置信度较低和重叠率高于设定阈值的检测边框,得到最优检测框;
6.4在道路环境图片中用矩形框框出目标位置并标注所属类别。
检测结果如图6所示,通过观察检测结果,可以得出本例方法通过融合不同尺度特征,实现了对高密度下以及细粒度下车辆、行人和交通标志特征具有较好的检测效果,漏检区域较少。

Claims (6)

1.基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,包括如下步骤:
1)构建模型:在YOLOv3网络中引入SPP模块,构建基于YOLOv3-SPP目标检测模型;
2)预处理:对BDD100K数据集预处理,即从BDD100K数据集标注文件中提取车辆、行人和交通标志这三类道路目标的标注信息,并将这三类标注信息转换为Darknet框架下支持的格式;
3)重新聚类并分配:依据BDD100K数据集中训练集图像分辨率1280x720,利用k-means++算法对步骤2)中转换为Darknet框架下支持的格式的标注信息框重新聚类,得到新的初始Anchor Box,并按照Alexey Bochkovskiy设定的Anchor Box分配规则,为YOLOv3-SPP目标检测模型中的每个检测尺度分配相应个数的Anchor Box;
4)训练与评估:将BDD100K数据集中的训练集和验证集分别输入到YOLOv3-SPP目标检测模型中进行检测模型的训练与评估;
5)检测:利用步骤4)训练后的YOLOv3-SPP目标检测模型对GTSDB数据集中的道路环境进行目标检测。
2.根据权利要求1所述的基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,步骤1)中所述的构建基于YOLOv3-SPP目标检测模型,包括如下过程:
SPP模块由Kernel Size分别为1×1,5×5,9×9,13×13的四个并行池化层组成,将SPP模块集成在YOLOv3网络中第一个检测尺度的第5和第6个卷积之间,即完成了构建基于YOLOv3-SPP目标检测模型。
3.根据权利要求1所述的基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,步骤2)中所述的对BDD100K数据集预处理,过程为:
从BDD100K标注文件中提取车辆、行人、交通标志这三类道路目标的标注信息,并将这三类标注信息写入以图片命名的XML文件中,在BDD100K数据集的JSON文件中目标位置是以框左上角坐标(boxxmin,boxymin)和右下角坐标(boxxmax,boxymax)确定的,设计代码按照以下公式将标注信息转换成Darknet框架下的格式:
xcenter=(boxxmin+boxxmax)/(2×picture_width)
ycenter=(boxymin+boxymax)/(2×picture_height)
width=(boxxmax-boxxmin)/picture_width
height=(boxymax-boxymin)/picture_height,
其中,(xcenter,ycenter)表示标注框中心点坐标,width表示标注框的宽,height表示标注框的高,转换后每个图片的TXT标注框格式变为:
<object-class><x_center><y_center><width><height>,
将BDD100K数据集文件目录结构转化为形如PASCAL VOC数据集文件目录结构,将带有标注信息的TXT文件放入Labels文件夹,将生成XML文件放入Annotation文件夹中,BDD100K中的图片放入JPEGImages文件夹中,用于模型训练和验证图片的名字分别写入ImageSets目录下Main文件夹中train.txt和val.txt中。
4.根据权利要求1所述的基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,步骤3)中所述的得到新的初始Anchor Box的具体过程如下:
4.1观察BDD100K数据集中训练集标注框坐标信息分布,随机选取选择k个簇中心(wi,hi),i∈{1,2,……,k},其中,wi和hi为框的宽和高;
4.2分别计算每个标注框和每个簇中心的距离d,计算公式如下:
Figure FDA0002547267190000021
其中,IOU表示交并比,anchor表示锚框,truth表示标注框,计算公式如下:
Figure FDA0002547267190000022
其中,分子表示锚框和标注框相交的面积大小,分母表示锚框和标注框相并的面积大小,当IOU值最大时,即标注框和锚框匹配得最好,此时d最小,将标注框分别分到与之最近即d最小的簇中;
4.3重新计算k个簇中心所属的标注框宽和高的平均值,作为新的簇中心;
4.4重复步骤4.2和4.3,当聚类中心不再改变时,输出聚类结果;
4.5最后输出聚类结果:(7,11),(14,18),(10,33),(25,32),(19,77),(45,54),(68,99),(113,146),(162,237);
4.6分别为YOLOv3-SPP目标检测模型中三个检测尺度分配2个、1个和6个AnchorBoxes,即调整YOLOv3-SPP网络结构中所有YOLO层Filter数量为N×(5+3)=24,N为分配Anchor Box个数并将配置文件中对应MASK改为7,8;6;0,1,2,3,5,6。
5.根据权利要求1所述的基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,步骤4)中所述的训练与评估过程如下:
5.1采用ImageNet数据集上预先训练好的模型参数darknet53.conv.74作为初始化权重;
5.2设置训练超参数:网络分辨率、动量、权值衰减、Base_lr、批次、最大迭代次数、学习率调整策略,将BDD100K训练集中的图片作为训练输入,利用Darknet-53深度学习框架进行网络训练,当训练平均损失达到稳定值并且不再降低时得到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型;
5.3将BDD100K验证集中行车道路图片输入到基于YOLOV3-SPP的车辆、行人以及交通标志的目标检测模型中,经过网络逐层计算,将网络预测结果记录在TXT文件,通过代码,得到基于YOLOV3-SPP网络的车辆、行人以及交通标志的目标检测模型的精确率、召回率、F1值、检测速率(FPS)和P-R曲线评估指标。
6.根据权利要求1所述的基于YOLOv3-SPP的道路环境目标检测方法,其特征在于,步骤5)中所述的检测过程如下:
6.1调整GTSDB数据集图片分辨率为1280x720,然后输入到步骤4)训练后的YOLOv3-SPP目标检测模型中,经过32倍下采样特征提取,最终网络输出三个尺度的特征图;
6.2为每个尺度的每个网格分配2、1、6个不同Anchor Box进行检测,每个Anchor Box预测包括4个边界框偏移量、1个置信度t0和C个检测目标类别,4个边界偏移量包括tx,ty,tw,th,置信度定义如下:
Figure FDA0002547267190000031
pr(object)表示该Anchor Box中存在目标的概率,如果不包含目标,其值为0,
Figure FDA0002547267190000032
表示预测边界框与真实边界框(Ground Truth Box)的交并比:
Figure FDA0002547267190000033
每一个网格都会预测C个类别概率,pr(classi|object)表示网格在包含目标条件下属于某个类别的概率,则预测Bounding Box属于类别i的概率表示为:
Figure FDA0002547267190000034
根据预测的Anchor Box相对于标注框的偏移值,得到所预测的边界框的位置信息,计算公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure FDA0002547267190000035
Figure FDA0002547267190000036
σ(to)=pr(object)*IOU(b,object),
其中,σ(to)为预测定位框对应的置信度,σ(tx),σ(ty)是tx,ty经过Sigmoid函数归一化值表示网格中心相对于网格左上角的横纵坐标,bx,by,bw,bh是最终输出的边界框;
6.3针对重叠的检测框,通过NMS算法抑制置信度较低和重叠率高于设定阈值的检测边框,得到最优检测框;
6.4在道路环境图片中用矩形框框出目标位置并标注所属类别。
CN202010564359.7A 2020-06-19 2020-06-19 基于YOLOv3-SPP的道路环境目标检测方法 Pending CN111709381A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010564359.7A CN111709381A (zh) 2020-06-19 2020-06-19 基于YOLOv3-SPP的道路环境目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010564359.7A CN111709381A (zh) 2020-06-19 2020-06-19 基于YOLOv3-SPP的道路环境目标检测方法

Publications (1)

Publication Number Publication Date
CN111709381A true CN111709381A (zh) 2020-09-25

Family

ID=72541919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010564359.7A Pending CN111709381A (zh) 2020-06-19 2020-06-19 基于YOLOv3-SPP的道路环境目标检测方法

Country Status (1)

Country Link
CN (1) CN111709381A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200189A (zh) * 2020-10-19 2021-01-08 平安国际智慧城市科技股份有限公司 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质
CN112329721A (zh) * 2020-11-26 2021-02-05 上海电力大学 一种模型轻量化设计的遥感小目标检测方法
CN112329542A (zh) * 2020-10-10 2021-02-05 中国人民解放军战略支援部队航天工程大学 基于特征细化网络模型的sar图像舰船目标检测方法
CN112633127A (zh) * 2020-12-18 2021-04-09 深圳赛安特技术服务有限公司 基于图像识别的公交车道检测方法、装置及介质
CN112686314A (zh) * 2020-12-30 2021-04-20 苏州科达科技股份有限公司 基于远距离拍摄场景的目标检测方法、装置及存储介质
CN112991733A (zh) * 2021-03-02 2021-06-18 南京航空航天大学 一种公交车智能网联碰撞优化系统及方法
CN112991782A (zh) * 2021-04-08 2021-06-18 河北工业大学 交通信号灯的控制方法、系统、终端、设备、介质及应用
CN113134683A (zh) * 2021-05-13 2021-07-20 兰州理工大学 基于机器学习的激光标刻方法及装置
CN113160140A (zh) * 2021-03-24 2021-07-23 华南理工大学 基于yolov3-spp网络模型的钢板表面缺陷检测方法
CN113191235A (zh) * 2021-04-22 2021-07-30 上海东普信息科技有限公司 杂物检测方法、装置、设备及存储介质
CN113536885A (zh) * 2021-04-02 2021-10-22 西安建筑科技大学 一种基于YOLOv3-SPP的人体行为识别方法及系统
CN113591543A (zh) * 2021-06-08 2021-11-02 广西综合交通大数据研究院 交通标志识别方法、装置、电子设备及计算机存储介质
CN114092917A (zh) * 2022-01-10 2022-02-25 南京信息工程大学 一种基于mr-ssd的被遮挡交通标志检测方法及系统
CN114241425A (zh) * 2022-02-21 2022-03-25 南京甄视智能科技有限公司 垃圾检测模型的训练方法、装置、存储介质及设备
CN115115925A (zh) * 2022-08-29 2022-09-27 福建(泉州)哈工大工程技术研究院 一种基于多尺度特征信息融合的MS-YOLOv3工业仪表读数检测方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447034A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于YOLOv3网络的自动驾驶中交通标识检测方法
CN109508710A (zh) * 2018-10-23 2019-03-22 东华大学 基于改进YOLOv3网络的无人车夜间环境感知方法
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109829429A (zh) * 2019-01-31 2019-05-31 福州大学 基于YOLOv3的监控场景下的安防敏感物品检测方法
CN110348268A (zh) * 2018-04-02 2019-10-18 鲁班嫡系机器人(深圳)有限公司 一种电子元器件的局部的特征识别方法、装置及设备
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、系统及设备
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110826520A (zh) * 2019-11-14 2020-02-21 燕山大学 一种基于改进YOLOv3-tiny算法的港口抓斗检测方法
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN110929577A (zh) * 2019-10-23 2020-03-27 桂林电子科技大学 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN111178451A (zh) * 2020-01-02 2020-05-19 中国民航大学 一种基于YOLOv3网络的车牌检测方法
CN111178295A (zh) * 2019-12-31 2020-05-19 华为技术有限公司 车位检测和模型训练方法、装置、车辆、设备及存储介质
CN111259736A (zh) * 2020-01-08 2020-06-09 上海海事大学 一种基于深度学习的复杂环境下行人实时检测方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348268A (zh) * 2018-04-02 2019-10-18 鲁班嫡系机器人(深圳)有限公司 一种电子元器件的局部的特征识别方法、装置及设备
CN109508710A (zh) * 2018-10-23 2019-03-22 东华大学 基于改进YOLOv3网络的无人车夜间环境感知方法
CN109447034A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于YOLOv3网络的自动驾驶中交通标识检测方法
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109829429A (zh) * 2019-01-31 2019-05-31 福州大学 基于YOLOv3的监控场景下的安防敏感物品检测方法
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、系统及设备
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN110929577A (zh) * 2019-10-23 2020-03-27 桂林电子科技大学 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN110826520A (zh) * 2019-11-14 2020-02-21 燕山大学 一种基于改进YOLOv3-tiny算法的港口抓斗检测方法
CN111178295A (zh) * 2019-12-31 2020-05-19 华为技术有限公司 车位检测和模型训练方法、装置、车辆、设备及存储介质
CN111178451A (zh) * 2020-01-02 2020-05-19 中国民航大学 一种基于YOLOv3网络的车牌检测方法
CN111259736A (zh) * 2020-01-08 2020-06-09 上海海事大学 一种基于深度学习的复杂环境下行人实时检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YOLO-SPP: "《https://blog.csdn.net/qq_3905698/article/details/104327638》", 15 February 2020 *
梁思源等: "基于改进YOLO v3的相似外部特征人员检测算法", 《平顶山学院学报》 *
胡贵桂: "改进的YOLOv3算法在道路环境目标检测中的应用", 《汽车实用技术》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329542B (zh) * 2020-10-10 2022-11-11 中国人民解放军战略支援部队航天工程大学 基于特征细化网络模型的sar图像舰船目标检测方法
CN112329542A (zh) * 2020-10-10 2021-02-05 中国人民解放军战略支援部队航天工程大学 基于特征细化网络模型的sar图像舰船目标检测方法
CN112200189A (zh) * 2020-10-19 2021-01-08 平安国际智慧城市科技股份有限公司 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质
CN112200189B (zh) * 2020-10-19 2024-04-19 平安国际智慧城市科技股份有限公司 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质
CN112329721A (zh) * 2020-11-26 2021-02-05 上海电力大学 一种模型轻量化设计的遥感小目标检测方法
CN112329721B (zh) * 2020-11-26 2023-04-25 上海电力大学 一种模型轻量化设计的遥感小目标检测方法
CN112633127A (zh) * 2020-12-18 2021-04-09 深圳赛安特技术服务有限公司 基于图像识别的公交车道检测方法、装置及介质
CN112686314A (zh) * 2020-12-30 2021-04-20 苏州科达科技股份有限公司 基于远距离拍摄场景的目标检测方法、装置及存储介质
CN112991733A (zh) * 2021-03-02 2021-06-18 南京航空航天大学 一种公交车智能网联碰撞优化系统及方法
CN113160140A (zh) * 2021-03-24 2021-07-23 华南理工大学 基于yolov3-spp网络模型的钢板表面缺陷检测方法
CN113536885A (zh) * 2021-04-02 2021-10-22 西安建筑科技大学 一种基于YOLOv3-SPP的人体行为识别方法及系统
CN112991782A (zh) * 2021-04-08 2021-06-18 河北工业大学 交通信号灯的控制方法、系统、终端、设备、介质及应用
CN113191235A (zh) * 2021-04-22 2021-07-30 上海东普信息科技有限公司 杂物检测方法、装置、设备及存储介质
CN113191235B (zh) * 2021-04-22 2024-05-17 上海东普信息科技有限公司 杂物检测方法、装置、设备及存储介质
CN113134683A (zh) * 2021-05-13 2021-07-20 兰州理工大学 基于机器学习的激光标刻方法及装置
CN113591543A (zh) * 2021-06-08 2021-11-02 广西综合交通大数据研究院 交通标志识别方法、装置、电子设备及计算机存储介质
CN113591543B (zh) * 2021-06-08 2024-03-26 广西综合交通大数据研究院 交通标志识别方法、装置、电子设备及计算机存储介质
CN114092917A (zh) * 2022-01-10 2022-02-25 南京信息工程大学 一种基于mr-ssd的被遮挡交通标志检测方法及系统
CN114241425A (zh) * 2022-02-21 2022-03-25 南京甄视智能科技有限公司 垃圾检测模型的训练方法、装置、存储介质及设备
CN115115925A (zh) * 2022-08-29 2022-09-27 福建(泉州)哈工大工程技术研究院 一种基于多尺度特征信息融合的MS-YOLOv3工业仪表读数检测方法

Similar Documents

Publication Publication Date Title
CN111709381A (zh) 基于YOLOv3-SPP的道路环境目标检测方法
CN110796168B (zh) 一种基于改进YOLOv3的车辆检测方法
AU2019101142A4 (en) A pedestrian detection method with lightweight backbone based on yolov3 network
Al-qaness et al. An improved YOLO-based road traffic monitoring system
CN109241349B (zh) 一种基于深度学习的监控视频多目标分类检索方法及系统
CN109325502B (zh) 基于视频渐进区域提取的共享单车停放检测方法和系统
CN111460919A (zh) 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN113269040A (zh) 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN110781806A (zh) 一种基于yolo的行人检测追踪方法
CN111507353B (zh) 一种基于文字识别的中文字段检测方法及系统
CN112084890A (zh) 基于gmm和cqfl的多尺度识别交通信号标志的方法
Yu et al. A cascaded deep convolutional network for vehicle logo recognition from frontal and rear images of vehicles
CN114049572A (zh) 识别小目标的检测方法
CN116205024A (zh) 一种面向高低维测评场景的自适应自动驾驶动态场景通用生成方法
CN106529391B (zh) 一种鲁棒的限速交通标志检测与识别方法
Wu et al. A variable dimension-based method for roadside LiDAR background filtering
CN113673527A (zh) 一种车牌识别方法及系统
CN112288702A (zh) 一种基于车联网的道路图像检测方法
CN116630702A (zh) 一种基于语义分割网络的路面附着系数预测方法
CN110765900A (zh) 一种基于dssd的自动检测违章建筑方法及系统
CN115909245A (zh) 一种基于深度学习的视觉多任务处理方法
KR102516890B1 (ko) 드론 영상과 인공지능 기술을 이용한 불법 주정차 차량 번호 식별 시스템
CN112233079B (zh) 多传感器图像融合的方法及系统
CN114882205A (zh) 基于注意力机制的目标检测方法
CN114913504A (zh) 一种融合自注意力机制的遥感图像的车辆目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200925

WD01 Invention patent application deemed withdrawn after publication