CN113609895A - 基于改进Yolov3的获取道路交通信息方法 - Google Patents

基于改进Yolov3的获取道路交通信息方法 Download PDF

Info

Publication number
CN113609895A
CN113609895A CN202110690870.6A CN202110690870A CN113609895A CN 113609895 A CN113609895 A CN 113609895A CN 202110690870 A CN202110690870 A CN 202110690870A CN 113609895 A CN113609895 A CN 113609895A
Authority
CN
China
Prior art keywords
value
grid
target
prediction
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110690870.6A
Other languages
English (en)
Inventor
刘清
杨辰曲
张斌
周建武
张银河
刘敏
汪韩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shnaghai Zhongan Electron Information Technology Co ltd
Original Assignee
Shnaghai Zhongan Electron Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shnaghai Zhongan Electron Information Technology Co ltd filed Critical Shnaghai Zhongan Electron Information Technology Co ltd
Priority to CN202110690870.6A priority Critical patent/CN113609895A/zh
Publication of CN113609895A publication Critical patent/CN113609895A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明涉及一种基于改进Yolov3的获取道路交通信息方法,从已有道理交通信息图像中选取训练样本;建立Yolov3模型,采用了非线性映射将训练样本映射到高维度空间中,在高维度空间进行K‑means值聚类计算,对样本进行优化,使用最终生成的聚类结果计算符合本网络模型使用的anchors值,获得新的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数,从而提高了检测算法的准确性和鲁棒性;利用高斯分布特性对每个边界框进行损失函数计算,增加对边界框准确度的判断,兼具检测速度的同时提高了检测精度。实验结果表明,改进后的Yolov3模型克服了原始模型提取的特征过于单一问题,提高了检测速度。

Description

基于改进Yolov3的获取道路交通信息方法
技术领域
本发明涉及一种目标检测技术,特别涉及一种基于改进Yolov3的获取道路交通信息方法。
背景技术
随着计算机视觉相关技术的不断发展与创新,目标检测算法在自动驾驶领域取得了重大进展,行人、车辆、道路线等各类道路目标检测算法应运而生。此外,随着深度学习近年来的迅猛发展,越来越多的深度学习模型开始广泛应用于计算机视觉的各项技术中。
深度卷积神经网络由于能够自主完成对目标特征的学习,提取关键信息,因而具有较强的鲁棒性。近年来,基于卷积神经网络的深度学习得到迅速发展,主要分为两类:一类是R-CNN、Fast R-CNN、Faster R-CNN等基于目标候选框思想的two-stage检测算法,需要先使用启发式方法(selective search)或者CNN网络(RPN)产生Region Proposal,然后再在Region Proposal上做分类与回归,虽然精度很高,但速度非常慢。另一类是基于Yolo(You Only Look Once)、SSD(Single Shot Multi-box Detector)这类算法,其仅仅使用一个CNN网络直接预测不同目标的类别与位置,拥有更高的检测速度。但现有的Yolov3模型提取的特征过于单一,导致在识别时的精准度不高。
发明内容
本发明是针对深度卷积神经网络运用到视觉识别检测存在的问题,提出了一种基于改进Yolov3的获取道路交通信息方法。
本发明的技术方案为一种基于改进Yolov3的获取道路交通信息方法,具体包括如下步骤:
1)从已有道理交通信息图像中选取训练样本;
2)建立识别网络:主干网络是Darknet-53网络,引入多尺度特征融合,选择输出为5种不同尺度的特征图,除顶层特征图外,其余特征图均融合相邻下层特征图的特征信息;
3)采用了非线性映射将步骤1)训练样本映射到高维度空间中,在高维度空间进行K-means值聚类计算,对样本进行优化,使用最终生成的聚类结果计算符合本网络模型使用的anchors值,获得新的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数;
4)利用高斯分布特性对每个边界框进行损失函数计算,增加对边界框准确度的判断;
5)训练后的改进Yolov3模型对车辆、行人和信号灯进行检测,得到检测结果。
优选的:所述步骤3)实现的具体方法如下:
采用了非线性映射θ,将样本pi,i=1,2,...,l映射到高维度空间G中,即样本为θ(p1),…,θ(pi),...,θ(pl),其中pi∈RN,i=1,2,...l;根据Mercer定理存在映射:θ:RN→RG使得核函数N(pi,pj)=θ(pi)Tθ(pj);设在RG空间中,把样本分为K类,mk为第k类的均值,k=1,2,...,K;在高维度空间进行K-means值聚类操作,将函数最优化,目标函数为:
Figure BDA0003126122320000021
其中,minJ为最小化误差平方和;θ(pi)为高维度空间G中第i个样本;
mk可由下式得到:
Figure BDA0003126122320000022
lk为第k类的样本数;
在核空间中,计算两个特征点的核距离:
Figure BDA0003126122320000023
将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值:
Figure BDA0003126122320000031
其中α为簇,αk为第k个质心,即簇的最小化J的最佳质心是簇中各点的均值;在核空间中,计算两个特征点的核距离,再将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值,计算任意两个类均值间的距离为:
Figure BDA0003126122320000032
其中dist为任意两个类均值间的距离,
Figure BDA0003126122320000033
代表任意两个不同类均值;
若两个目标类别均值之间的距离小于预先设定的阈值,则将这两个目标类别合并为一个类;再继续通过上式计算类均值的距离,经过对样本子集的并集进行合并,得到最终的K-means值聚类结果;使用最终生成的聚类结果计算符合本模型使用的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数。
优选的:所述步骤4)实现的具体方法如下:从边界框坐标预测误差、边界框置信度误差、类别预测误差进行损失函数计算,预测目标的损失函数loss(object)公式表示为:
Figure BDA0003126122320000034
其中,s2表示图像的网格数;B表示每个网格中预测的边界框数;M表示总类别数;pi(c)表示第i个网格属于c类别的概率,c为类别序号,c=0,1,...,M;C为第i个网格的置信度得分,i为网格序号i=0,1,...,s2,j为边框序号,j=0,1,...,B;xij代表第i个网格中第j个边界框中心点的横坐标,yij代表第i个网格中第j个边界框中心点的纵坐标,wij代表第i个网格中第j个边界框的宽度,hij代表第i个网格中第j个边界框的高度,λcoord为确定边界框位置信息的权重系数,λnoobj为网格中没有目标时的惩罚权重系数,
Figure BDA0003126122320000035
定义为,如果第i个网格中存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1,如果第i个网格中不存在目标,则取值为0;
Figure BDA0003126122320000041
定义为,如果第i个网格中不存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1,如果第i个网格中存在目标,则取值为0;
Figure BDA0003126122320000042
定义为,如果第i个网格中存在目标,则取值为1;如果第i个网格中不存在目标,则取值为0;有上标^的值代表真实值,无上标的代表预测值;
利用高斯分布特性改进损失函数,增加对边界框准确度的判断,以边界框中心点x方向坐标为例,修改后的边界框x坐标预测误差计算方法如下式:
Figure BDA0003126122320000043
式中,tx表示边界框中心点坐标相对于所在网格,输入图片分为W*H个网格,左上角x坐标的偏移量,W对应预测层中网格横方向的数目,H对应预测层中网格纵方向的数目,V对应先验框的数目,
Figure BDA0003126122320000044
表示输出层第(i,j)个网格中第v个先验框的tx的均值;
Figure BDA0003126122320000045
表示对应的tx的不确定性,
Figure BDA0003126122320000046
表示tx的真值,γijv表示针对修改后边界框x坐标预测的权重系数,ε为常数项。
优选的:所述步骤5)具体实现步骤如下:
5.1)输入模型时,先自适应调整图像的尺寸,将图像调整为正方形,然后使用N*N大小的网格进行栅格化;
5.2)每个单元格负责去检测那些中心点落在该格子内的目标,并对此目标进行位置预测和类别预测,当某个目标的中心点落入被划分出的N*N个网格中,则该网格将生成B个预测框对该目标进行检测,即每个网格有B个由anchors值预测生成的边界框以及表明该网格是否包含目标的置信度CS,以综合反映基于当前模型的边界框内存在目标的可能性和预测目标位置的准确性:
Figure BDA0003126122320000047
其中,Pr(Object)表示该网格内是否包含目标的中心点,包含则Pr(Object)=1;反之则Pr(Object)=0;
Figure BDA0003126122320000048
是预测框与实际框的交并比,用于表征边界框的准确度;每个网格生成B个预测的边界框对网格中的目标进行检测,其中每个边界框包含5个参数(x,y,w,h,confidence),(x,y)表示边界框的中心点坐标,(w,h)表示边界框的宽和高,confidence表示预测边界框和该物体真实边界框的交并比,每个网格对应一个预测是否包含目标的置信度得分Ci,其表达式为:
Ci=Pr(Classi|Object)
5.3)将每个边界框的5个参数用向量Yi表示,具体表示为
Yi=(bx,by,bw,bh,con)
其中,(bx,by)代表目标中心点的坐标,(bw,bh)代表网格对目标预测生成的边界框的宽和高,con代表该预测框总的置信度得分;
5.4)完成对N*N个网格的预测后,将所有网格的参数进行汇总,输出整个图像的检测结果。
本发明的有益效果在于:本发明基于改进Yolov3的获取道路交通信息方法,通过K值聚类计算新的anchors值以替换原始Yolov3数据集参数,从而提高了检测算法的准确性和鲁棒性;利用高斯分布优化损失函数,增加对边界框准确度的判断,在兼具检测速度的同时,还提高了检测精度。
附图说明
图1是本发明基于改进Yolov3的获取道路交通信息方法流程示意图;
图2是本发明Yolov3网络体系结构图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本发明提供一种基于改进Yolov3的获取道路交通信息方法,包括以下步骤:
(1)样本数据准备
从公开数据集Apolloscape数据集中选取其中的图像,以训练集:测试集为2:1的比例进行训练,分别将训练集和测试集记为
Figure BDA0003126122320000051
Figure BDA0003126122320000052
其中TR表示训练集,TE表示测试集,
Figure BDA0003126122320000061
分别表示输入的训练集、测试集中第n个样本图像,
Figure BDA0003126122320000062
分别表示训练集、测试集中第n个样本图像对应的标签,TR、TE分别表示训练集、测试集数据集的数量。
(2)多尺度特征融合
其中Darknet-53网络作为主干网络,一般的CNN特征提取网络采取层级的下采样结构,使用单尺度特征图进行检测与输出。为了使模型对小目标行人检测鲁棒性更高,引入了多尺度融合,选择输出为5种不同尺度的特征图,除顶层特征图外,其余特征图均融合相邻下层特征图的特征信息;
(3)K-means值聚类计算,获得新的anchors值
本发明的检测网络沿用K-means聚类的方法确定初始锚点框bbox的位置。K-means值聚类算法随机选取数个目标点,具体对象是训练集的边界框。这种方式在数据集足够大的情况下更贴近实际,特别是行人整体特征长宽比范围有一定特性;
根据(1)中的TR训练集读取行人的宽度、高度作为待分类数据,并初始化聚类中心点,其坐标描述了矩形框的宽度、高度、计算聚类中心点与待分类数据所分别描述的矩形框的IOU值(IOU值是一种测量在特定数据集中检测相应物体准确度的一个标准),以1-IOU的距离作为分类依据,最终得到9组的anchors值,其中包括预测中心点的坐标值,锚点框的宽度和高度以及预测目标的类别;
Figure BDA0003126122320000063
其中,S表示下标所示矩形框的面积;
采用了非线性映射θ,将样本pi(i=1,2,...,l)映射到高维度空间G中,即样本为θ(p1),…,θ(pi),...,θ(pl),其中pi∈RN,i=1,2,...l。根据Mercer定理存在映射:θ:RN→RG使得核函数N(pi,pj)=θ(pi)Tθ(pj)。设在RG空间中,把样本分为K类,mk为第k类的均值(k=1,2,...,K)。在高维度空间进行K-means值聚类操作,将函数最优化,目标函数为:
Figure BDA0003126122320000071
其中,minJ为最小化误差平方和;θ(pi)为高维度空间G中第i个样本。
mk可由下式得到:
Figure BDA0003126122320000072
lk为第k类的样本数。
在核空间中,计算两个特征点的核距离:
Figure BDA0003126122320000073
其中,N是核函数,N(pi,pj)=θ(pi)Tθ(pj);
将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值:
Figure BDA0003126122320000074
其中α为簇,αk为第k个质心。即簇的最小化J的最佳质心是簇中各点的均值。
在核空间中,计算两个特征点的核距离,再将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值。计算任意两个类均值间的距离为:
Figure BDA0003126122320000075
其中dist为任意两个类均值间的距离,
Figure BDA0003126122320000076
代表任意两个不同类均值。
若两个目标类别均值之间的距离小于预先设定的阈值,则将这两个目标类别合并为一个类;再继续通过上式计算类均值的距离。经过对样本子集的并集进行合并,得到最终的K-means值聚类结果;使用最终生成的聚类结果计算符合本模型使用的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数。
(3)在Yolov3损失函数中利用高斯分布特性增加对每个边界框准确度的预测,以提升网络的精度。
Yolov3算法的损失函数主要从边界框坐标预测误差、边界框置信度误差、类别预测误差这三个方面考虑,其损失函数公式表示为:
Figure BDA0003126122320000081
其中,s2表示图像的网格数,B表示每个网格中预测的边界框数,M表示总类别数,pi(c)表示第i个网格属于c类别的概率,c为类别序号(c=0,1,...,M),C为第i个网格的置信度得分,i为网格序号(i=0,1,...,s2),j为边框序号(j=0,1,...,B);xij代表第i个网格中第j个边界框中心点的横坐标,yij代表第i个网格中第j个边界框中心点的纵坐标,wij代表第i个网格中第j个边界框的宽度,hij代表第i个网格中第j个边界框的高度,λcoord为确定边界框位置信息的权重系数,λnoobj为网格中没有目标时的惩罚权重系数,
Figure BDA0003126122320000082
定义为,如果第i个网格中存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1;如果第i个网格中不存在目标,则取值为0。
Figure BDA0003126122320000083
定义为,如果第i个网格中不存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1;如果第i个网格中存在目标,则取值为0。
Figure BDA0003126122320000084
定义为,如果第i个网格中存在目标,则取值为1;如果第i个网格中不存在目标,则取值为0。loss(object)代表预测目标的损失函数。有上标^的值代表真实值,无上标的代表预测值。
利用高斯分布特性改进损失函数,增加对边界框准确度的判断,以边界框中心点x方向坐标为例,修改后的边界框x坐标预测误差计算方法如下式:
Figure BDA0003126122320000085
式中,tx表示边界框中心点坐标相对于所在网格(输入图片分为W*H个网格)左上角x坐标的偏移量,W对应预测层中网格横方向的数目,H对应预测层中网格纵方向的数目,V对应先验框的数目,
Figure BDA0003126122320000091
表示输出层第(i,j)个网格中第v个先验框的tx的均值;
Figure BDA0003126122320000092
表示对应的tx的不确定性,
Figure BDA0003126122320000093
表示tx的真值,γijv表示针对修改后边界框x坐标预测的权重系数,ε为常数项。
(4)使用改进后的Yolov3模型对车辆、行人和信号灯进行检测。
(4.1)输入模型时,先自适应调整图像的尺寸,将图像调整为正方形,然后使用N*N大小的网格进行栅格化;
(4.2)每个单元格负责去检测那些中心点落在该格子内的目标,并对此目标进行位置预测和类别预测。当某个目标的中心点落入被划分出的N*N个网格中,则该网格将生成B个预测框对该目标进行检测,即每个网格有B个由anchors值预测生成的边界框以及表明该网格是否包含目标的置信度CS(confidence score),以综合反映基于当前模型的边界框内存在目标的可能性和预测目标位置的准确性:
Figure BDA0003126122320000094
其中,Pr(Object)表示该网格内是否包含目标的中心点,包含则Pr(Object)=1;反之则Pr(Object)=0;
Figure BDA0003126122320000095
是预测框与实际框的交并比,用于表征边界框的准确度;
每个网格生成B个预测的边界框对网格中的目标进行检测,其中每个边界框包含5个参数(x,y,w,h,confidence),(x,y)表示边界框的中心点坐标,(w,h)表示边界框的宽和高,confidence表示预测边界框和该物体真实边界框的交并比,每个网格对应一个预测是否包含目标的置信度得分Ci,其表达式为:
Ci=Pr(Classi|Object)
(4.3)将每个边界框的5个参数用向量Yi表示,具体表示为
Yi=(bx,by,bw,bh,con)
其中,(bx,by)代表目标中心点的坐标,(bw,bh)代表网格对目标预测生成的边界框的宽和高,con代表该预测框总的置信度得分;
(4.4)完成对N*N个网格的预测后,将所有网格的参数进行汇总,输出整个图像的检测结果。
如图2所示,输入的图像分辨率调整为1280*720,首先对其尺寸自适应调整为416*416,然后使用N*N大小的网格进行划分,作为新的输入图像;
将新的输入图像通过改进的Yolov3网络,完成对N*N个网格的预测后,根据其网络输出结果,判断目标车辆、行人和信号灯所在位置,输出其构成的矩形框坐标值以及置信度分数,最后将所有网格的参数进行整理汇总,输出对整幅图像的检测结果;
为了定量评估本发明改进Yolov3算法在性能上的优越性,实验使用相同的数据集进行训练与测试,最终分析出各项性能测试结果如下表1。
表1
模型 Precision Recall Avg IOU
Yolov3 76% 72% 72.89%
改进Yolov3 78% 74% 74.55%
从表1的数据中可以看出,相比于原始的Yolov3模型,本发明的改进的Yolov3模型在准确度、召回率和平均IOU值上均有提升。

Claims (4)

1.一种基于改进Yolov3的获取道路交通信息方法,其特征在于,具体包括如下步骤:
1)从已有道理交通信息图像中选取训练样本;
2)建立识别网络:主干网络是Darknet-53网络,引入多尺度特征融合,选择输出为5种不同尺度的特征图,除顶层特征图外,其余特征图均融合相邻下层特征图的特征信息;
3)采用了非线性映射将步骤1)训练样本映射到高维度空间中,在高维度空间进行K-means值聚类计算,对样本进行优化,使用最终生成的聚类结果计算符合本网络模型使用的anchors值,获得新的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数;
4)利用高斯分布特性对每个边界框进行损失函数计算,增加对边界框准确度的判断;
5)训练后的改进Yolov3模型对车辆、行人和信号灯进行检测,得到检测结果。
2.根据权利要求1所述基于改进Yolov3的获取道路交通信息方法,其特征在于,所述步骤3)实现的具体方法如下:
采用了非线性映射θ,将样本pi,i=1,2,...,l映射到高维度空间G中,即样本为θ(p1),…,θ(pi),...,θ(pl),其中pi∈RN,i=1,2,...l;根据Mercer定理存在映射:θ:RN→RG使得核函数N(pi,pj)=θ(pi)Tθ(pj);设在RG空间中,把样本分为K类,mk为第k类的均值,k=1,2,...,K;在高维度空间进行K-means值聚类操作,将函数最优化,目标函数为:
Figure FDA0003126122310000011
其中,minJ为最小化误差平方和;θ(pi)为高维度空间G中第i个样本;
mk可由下式得到:
Figure FDA0003126122310000012
lk为第k类的样本数;
在核空间中,计算两个特征点的核距离:
Figure FDA0003126122310000021
将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值:
Figure FDA0003126122310000022
其中α为簇,αk为第k个质心,即簇的最小化J的最佳质心是簇中各点的均值;在核空间中,计算两个特征点的核距离,再将聚类得到的所有样本子集进行合并,则样本子集的并集中包含了K个目标类别计算其均值,计算任意两个类均值间的距离为:
Figure FDA0003126122310000023
其中dist为任意两个类均值间的距离,
Figure FDA0003126122310000024
代表任意两个不同类均值;
若两个目标类别均值之间的距离小于预先设定的阈值,则将这两个目标类别合并为一个类;再继续通过上式计算类均值的距离,经过对样本子集的并集进行合并,得到最终的K-means值聚类结果;使用最终生成的聚类结果计算符合本模型使用的anchors值,将新的anchors值替换原始Yolov3模型中的数据集参数。
3.根据权利要求1所述基于改进Yolov3的获取道路交通信息方法,其特征在于,所述步骤4)实现的具体方法如下:
从边界框坐标预测误差、边界框置信度误差、类别预测误差进行损失函数计算,预测目标的损失函数loss(object)公式表示为:
Figure FDA0003126122310000025
其中,s2表示图像的网格数;B表示每个网格中预测的边界框数;M表示总类别数;pi(c)表示第i个网格属于c类别的概率,c为类别序号,c=0,1,...,M;C为第i个网格的置信度得分,i为网格序号i=0,1,...,s2,j为边框序号,j=0,1,...,B;xij代表第i个网格中第j个边界框中心点的横坐标,yij代表第i个网格中第j个边界框中心点的纵坐标,wij代表第i个网格中第j个边界框的宽度,hij代表第i个网格中第j个边界框的高度,λcoord为确定边界框位置信息的权重系数,λnoobj为网格中没有目标时的惩罚权重系数,
Figure FDA0003126122310000031
定义为,如果第i个网格中存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1,如果第i个网格中不存在目标,则取值为0;
Figure FDA0003126122310000032
定义为,如果第i个网格中不存在目标,则该网格的第j个边界框预测值对该预测有效,且取值为1,如果第i个网格中存在目标,则取值为0;
Figure FDA0003126122310000033
定义为,如果第i个网格中存在目标,则取值为1;如果第i个网格中不存在目标,则取值为0;有上标^的值代表真实值,无上标的代表预测值;
利用高斯分布特性改进损失函数,增加对边界框准确度的判断,以边界框中心点x方向坐标为例,修改后的边界框x坐标预测误差计算方法如下式:
Figure FDA0003126122310000034
式中,tx表示边界框中心点坐标相对于所在网格,输入图片分为W*H个网格,左上角x坐标的偏移量,W对应预测层中网格横方向的数目,H对应预测层中网格纵方向的数目,V对应先验框的数目,
Figure FDA0003126122310000035
表示输出层第(i,j)个网格中第v个先验框的tx的均值;
Figure FDA0003126122310000036
表示对应的tx的不确定性,
Figure FDA0003126122310000037
表示tx的真值,γijv表示针对修改后边界框x坐标预测的权重系数,ε为常数项。
4.根据权利要求1所述基于改进Yolov3的获取道路交通信息方法,其特征在于,所述步骤5)具体实现步骤如下:
5.1)输入模型时,先自适应调整图像的尺寸,将图像调整为正方形,然后使用N*N大小的网格进行栅格化;
5.2)每个单元格负责去检测那些中心点落在该格子内的目标,并对此目标进行位置预测和类别预测,当某个目标的中心点落入被划分出的N*N个网格中,则该网格将生成B个预测框对该目标进行检测,即每个网格有B个由anchors值预测生成的边界框以及表明该网格是否包含目标的置信度CS,以综合反映基于当前模型的边界框内存在目标的可能性和预测目标位置的准确性:
Figure FDA0003126122310000041
其中,Pr(Object)表示该网格内是否包含目标的中心点,包含则Pr(Object)=1;反之则Pr(Object)=0;
Figure FDA0003126122310000042
是预测框与实际框的交并比,用于表征边界框的准确度;每个网格生成B个预测的边界框对网格中的目标进行检测,其中每个边界框包含5个参数(x,y,w,h,confidence),(x,y)表示边界框的中心点坐标,(w,h)表示边界框的宽和高,confidence表示预测边界框和该物体真实边界框的交并比,每个网格对应一个预测是否包含目标的置信度得分Ci,其表达式为:
Ci=Pr(Classi|Object)
5.3)将每个边界框的5个参数用向量Yi表示,具体表示为Yi=(bx,by,bw,bh,con)
其中,(bx,by)代表目标中心点的坐标,(bw,bh)代表网格对目标预测生成的边界框的宽和高,con代表该预测框总的置信度得分;
5.4)完成对N*N个网格的预测后,将所有网格的参数进行汇总,输出整个图像的检测结果。
CN202110690870.6A 2021-06-22 2021-06-22 基于改进Yolov3的获取道路交通信息方法 Pending CN113609895A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110690870.6A CN113609895A (zh) 2021-06-22 2021-06-22 基于改进Yolov3的获取道路交通信息方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110690870.6A CN113609895A (zh) 2021-06-22 2021-06-22 基于改进Yolov3的获取道路交通信息方法

Publications (1)

Publication Number Publication Date
CN113609895A true CN113609895A (zh) 2021-11-05

Family

ID=78303613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110690870.6A Pending CN113609895A (zh) 2021-06-22 2021-06-22 基于改进Yolov3的获取道路交通信息方法

Country Status (1)

Country Link
CN (1) CN113609895A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049616A (zh) * 2021-12-01 2022-02-15 清华大学 一种基于模糊分类的立体空间目标检测方法及系统
CN114677501A (zh) * 2022-05-30 2022-06-28 松立控股集团股份有限公司 一种基于二维高斯边界框重叠度度量的车牌检测方法
CN117274862A (zh) * 2023-09-20 2023-12-22 华设设计集团北京民航设计研究院有限公司 基于卷积神经网络的机场地勤车辆状态检测方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及系统
CN109882019A (zh) * 2019-01-17 2019-06-14 同济大学 一种基于目标检测和动作识别的汽车电动尾门开启方法
CN111046787A (zh) * 2019-12-10 2020-04-21 华侨大学 一种基于改进YOLO v3模型的行人检测方法
AU2020101011A4 (en) * 2019-06-26 2020-07-23 Zhejiang University Method for identifying concrete cracks based on yolov3 deep learning model
CN111553201A (zh) * 2020-04-08 2020-08-18 东南大学 一种基于YOLOv3优化算法的交通灯检测方法
CN111626128A (zh) * 2020-04-27 2020-09-04 江苏大学 一种基于改进YOLOv3的果园环境下行人检测方法
CN111832463A (zh) * 2020-07-07 2020-10-27 哈尔滨理工大学 一种基于深度学习的交通标志检测方法
CN112613387A (zh) * 2020-12-18 2021-04-06 五邑大学 一种基于YOLOv3的交通标志检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109882019A (zh) * 2019-01-17 2019-06-14 同济大学 一种基于目标检测和动作识别的汽车电动尾门开启方法
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及系统
AU2020101011A4 (en) * 2019-06-26 2020-07-23 Zhejiang University Method for identifying concrete cracks based on yolov3 deep learning model
CN111046787A (zh) * 2019-12-10 2020-04-21 华侨大学 一种基于改进YOLO v3模型的行人检测方法
CN111553201A (zh) * 2020-04-08 2020-08-18 东南大学 一种基于YOLOv3优化算法的交通灯检测方法
CN111626128A (zh) * 2020-04-27 2020-09-04 江苏大学 一种基于改进YOLOv3的果园环境下行人检测方法
CN111832463A (zh) * 2020-07-07 2020-10-27 哈尔滨理工大学 一种基于深度学习的交通标志检测方法
CN112613387A (zh) * 2020-12-18 2021-04-06 五邑大学 一种基于YOLOv3的交通标志检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
葛雯 等: "改进YOLOV3算法在行人识别中的应用", 《计算机工程与应用》, vol. 55, no. 20, 31 December 2019 (2019-12-31), pages 128 - 133 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049616A (zh) * 2021-12-01 2022-02-15 清华大学 一种基于模糊分类的立体空间目标检测方法及系统
CN114677501A (zh) * 2022-05-30 2022-06-28 松立控股集团股份有限公司 一种基于二维高斯边界框重叠度度量的车牌检测方法
CN117274862A (zh) * 2023-09-20 2023-12-22 华设设计集团北京民航设计研究院有限公司 基于卷积神经网络的机场地勤车辆状态检测方法和系统
CN117274862B (zh) * 2023-09-20 2024-04-30 华设设计集团北京民航设计研究院有限公司 基于卷积神经网络的机场地勤车辆状态检测方法和系统

Similar Documents

Publication Publication Date Title
CN111091105B (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN108830188B (zh) 基于深度学习的车辆检测方法
WO2021139069A1 (zh) 自适应注意力指导机制的一般性目标检测方法
CN110059554B (zh) 一种基于交通场景的多支路目标检测方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN113160192B (zh) 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置
CN108681693B (zh) 基于可信区域的车牌识别方法
CN106228125B (zh) 基于集成学习级联分类器的车道线检测方法
CN110033473B (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN113609895A (zh) 基于改进Yolov3的获取道路交通信息方法
CN111079602A (zh) 基于多尺度区域特征约束的车辆细粒度识别方法及装置
CN111046787A (zh) 一种基于改进YOLO v3模型的行人检测方法
CN112101221A (zh) 一种用于交通信号灯实时检测与识别的方法
CN113920107A (zh) 一种基于改进yolov5算法的绝缘子破损检测方法
CN105225226A (zh) 一种基于图像分割的级联可变形部件模型目标检测方法
CN112001411B (zh) 一种基于fpn结构的大坝裂缝检测算法
CN104850865A (zh) 一种多特征迁移学习的实时压缩跟踪方法
CN111950488B (zh) 一种改进的Faster-RCNN遥感图像目标检测方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统
CN112149665A (zh) 一种基于深度学习的高性能多尺度目标检测方法
CN111833353B (zh) 一种基于图像分割的高光谱目标检测方法
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
CN111738164B (zh) 一种基于深度学习的行人检测方法
CN112541884A (zh) 缺陷检测方法及设备、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination