CN112016449A - 一种基于深度学习的车辆识别与检测方法 - Google Patents

一种基于深度学习的车辆识别与检测方法 Download PDF

Info

Publication number
CN112016449A
CN112016449A CN202010878637.6A CN202010878637A CN112016449A CN 112016449 A CN112016449 A CN 112016449A CN 202010878637 A CN202010878637 A CN 202010878637A CN 112016449 A CN112016449 A CN 112016449A
Authority
CN
China
Prior art keywords
target
value
width
conf
center point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010878637.6A
Other languages
English (en)
Inventor
陈鹏
周星宇
吴垠
于春
单文煜
武德安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xihua University
Original Assignee
Xihua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xihua University filed Critical Xihua University
Priority to CN202010878637.6A priority Critical patent/CN112016449A/zh
Publication of CN112016449A publication Critical patent/CN112016449A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值。本发明对复杂场景下车辆的识别与检验给出了高效的解决方案:在算法CenterNet的基础上进行改进搭建了一个卷积神经网络,提高了对车辆的识别准确率,对于目标检测领域的标准数据集Pascal VOC,本方法的准确率也能与常用的目标检测算法基本持平。

Description

一种基于深度学习的车辆识别与检测方法
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的车辆识别与检测方法。
背景技术
随着我国社会经济的迅速发展,机动车数量增多,停车需求也迅速增加,但是目前的停车管理系统还存在很多局限性,如:智能化程度不够、效率低下、适用的停车环境不够广泛等。例如目前大量应用的车牌识别,首先它对于大角度复杂场景下的检测有困难,其次只适用于具有标准设备的停车场出入口的检测,不能应用于路边停车的检测。
当下深度学习发展迅速,在多行业发挥了重要作用并取得了显著进步,在停车管理领域也有应用。目前车辆检测主要是利用的目标检测算法。在大角度情况下,车辆边界框之间重叠部分较多,框内特征不能准确代表车辆特征。目前常用的目标检测算法主要提取框内特征,不适合大角度情况下的车辆识别。目前,复杂场景大角度情况下的高点视频的车辆检测与识别是研究的热点与难点。
现阶段,基于深度学习的目标检测算法一般分为以下两种:(1)基于锚点框的方法(Anchor-based);(2)不基于锚点框的方法(Anchor-free)。其中基于锚点框的方法又可分为两大类:一是分两步走的two-stage类;二是一步实现检测的one-stage类。一般而言,two-stage类精度较高,速度较慢;而one-stage类速度较快,精度较低。
文献【1,2,3】属于two-stage类目标检测算法,也是基于深度学习的目标检测算法的开山之作,首先在图像的基础上获取可能存在目标的候选区域,再在此候选区域的基础上进行分类回归得到最终的目标检测结果。在Faster R-CNN中引入了锚点思想,基于数据集特性生成相应的不同大小和不同形状的锚点框,通过卷积神经网络的反向传播学习在此锚点框的基础上生成候选框,这种锚点思想在后续基于深度学习的目标检测算法中有大量应用。Two-stage类算法检测速度较慢且训练较复杂,针对该问题,文献【4,5,6】将目标检测问题视为回归问题,通过端到端的卷积神经网络训练,直接回归得到目标的类别及目标边界框相应坐标。YOLO系列属于one-satge类算法,并且同样引入了Fast R-CNN中的锚点思想,在锚点的基础上生成最终的目标边界框。该类算法在速度上能够满足实时检测,在工业领域应用广泛。文献【7】提出了One-stage类算法检测精度较two-stage类低的主要原因是正负样本不平衡问题导致,基于此问题提出了focal loss损失函数以减少正负样本不平衡问题所带来的影响并且使得算法更关注于难分样本,降低易分样本的损失权重。对于基于锚点的目标检测算法,其网络均主要学习目标边界框内及其周边的图像特征,根据这些特征来实现对目标的检测,而车辆间有大量重叠的情况下,框内特征不一定就是车辆的特征并且重叠区域特征属于多个目标,此类特征提取不具有代表性。
文献:
【1】R.Girshich,J.Donahue,T.Darrell,et al.Rich Feature hierarchies foraccurate object detection and semantic segmentation[C].In IEEE ComputerVision and Patterrn Recognition(CVPR),Colunbus,2014,580-587
【2】R.Girshick.Fast r-cnn[C].IEEE International Conferrence onComputer Vision(ICCV),Santiago.2015,1440-1448
【3】S.Ren,K.He,R.Girshick,et al.Faster R-CNN:Toward real-time objectdetection with region proposal networks[C].In Neural Information ProcessingSystems(NIPS),Montreal,2015,39(6):1137-1149
【4】J.Redmon,S.Divvala,R.Girshick,et al.You only look once:Unified,real-time object detection[C].2016IEEE Conference on Computer Vision andPattern Recognition(CVPR),2016,779-788
【5】J.Redmon,A.Farhadi.Yolo9000:Better,faster,stronger[C].IEEEConference on Computer Vision and Pattern Recognition(CVPR),2017,7263-7271
【6】J.Redmon,A.Farhadi.Yolov3:An incremental improvement[J].arXivpreprint arXiv:1804.02767,2018,1:1-6
【7】T.Lin,P.Goyal,R.Girshick,et al.Focal loss for dense objectdetection[C].The IEEE International Conference on Computer Vision(ICCV),2017,2980-2988
发明内容
本发明为解决大角度复杂场景下车辆之间存在大面积重叠从而造成车辆检测精度较低的问题,而提供一种卷积神经网络对复杂场景的停车图像进行识别与检测的方法,以达到符合要求的检测精度并在速度上实现实时检测。
为了实现上述目的,本公开提供一种基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值,综合可得目标类别,并由下式得边界框的位置信息(x1,x2,y1,y2):
Figure BDA0002653414500000041
式中,
Figure BDA0002653414500000042
为中心点坐标,
Figure BDA0002653414500000043
为中心点坐标偏移值,
Figure BDA0002653414500000044
为宽偏移值
Figure BDA0002653414500000045
和对应锚点框宽值wa计算所得的目标边界框的宽值,
Figure BDA0002653414500000046
为高偏移值
Figure BDA0002653414500000047
和对应锚点框宽值ha计算所得的目标边界框的高值。
可选地,给出损失函数I-预测宽高偏移值与实际宽高偏移值之间的损失:
Figure BDA0002653414500000048
式中,宽高偏移量
Figure BDA0002653414500000049
已知,
Figure BDA00026534145000000410
为网络预测值,若两者差越小,则预测的宽高值与实际的宽高值越接近,由此得到更接近于目标的目标边界框。
可选地,给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
可选地,给出关于目标中心点坐标的损失函数III:
Figure BDA00026534145000000411
式中,
Figure BDA00026534145000000412
表示网络预测的特征图上某点为目标中心点的可能性,值越大则可能性越高,Yxyc是实际值,位于目标中心点处Yxyc为1,越接近中心点Yxyc越接近1,越远离中心点Yxyc越接近0,α和β均为变量。
可选地,给出关于目标中心点坐标偏移值的损失函数IV:
Figure BDA00026534145000000413
式中,p为原图目标中心点坐标,R为原图与特征图的缩放比例,
Figure BDA0002653414500000051
为特征图上预测的中心点坐标,
Figure BDA0002653414500000052
为网络预测的目标中心点坐标偏移。
可选地,算法网络中各神经元激活函数均为ReLu函数。
可选地,绘制PR曲线,PR曲线下的面积即为平均精度AP的值;
Figure BDA0002653414500000053
上式表示当识别出k张图像或目标时准确率变化量P(k)和召回率变化量Δr(k)的乘积类加和;
分别计算各类别的AP,再计算各类别AP的平均值即mAP,mAP值越高说明检验的识别失误越少。
本发明的有益效果在于:
本发明对复杂场景下车辆的识别与检验给出了高效的解决方案:在算法CenterNet的基础上进行改进搭建了一个卷积神经网络,提高了对车辆的识别准确率,对于目标检测领域的标准数据集Pascal VOC,本方法的准确率也能与常用的目标检测算法基本持平。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为本发明涉及的基于深度学习的车辆识别与检测方法的网络结构图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
如图1所示,本发明涉及的基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值,综合可得目标类别,并由下式得边界框的位置信息(x1,x2,y1,y2):
Figure BDA0002653414500000061
式中,
Figure BDA0002653414500000062
为中心点坐标,
Figure BDA0002653414500000063
为中心点坐标偏移值,
Figure BDA0002653414500000064
为宽偏移值
Figure BDA0002653414500000065
和对应锚点框宽值wa计算所得的目标边界框的宽值,
Figure BDA0002653414500000066
为高偏移值
Figure BDA0002653414500000067
和对应锚点框宽值ha计算所得的目标边界框的高值。
可选地,给出损失函数I-预测宽高偏移值与实际宽高偏移值之间的损失:
Figure BDA0002653414500000068
式中,宽高偏移量
Figure BDA0002653414500000069
已知,
Figure BDA00026534145000000610
为网络预测值,若两者差越小,则预测的宽高值与实际的宽高值越接近,由此得到更接近于目标的目标边界框。
可选地,给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
可选地,给出关于目标中心点坐标的损失函数III:
Figure BDA0002653414500000071
式中,
Figure BDA0002653414500000072
表示网络预测的特征图上某点为目标中心点的可能性,值越大则可能性越高,Yxyc是实际值,由在标签的基础上利用二维高斯分布获得,位于目标中心点处Yxyc为1,越接近中心点Yxyc越接近1,越远离中心点Yxyc越接近0,α和β均为变量,α是为了降低负样本的权重,在目标检测领域,普遍存在的一个问题就是正负样本的不平衡,这是由于图像中大部分为背景,只有少部分是目标,加入α可以降低负样本的权重,是网络更关注于正样本,而参数β是使网络更关注于难分样本。
相比于交叉熵损失函数,设定参数
Figure BDA0002653414500000073
并定义
Figure BDA0002653414500000074
如下式所示:
Figure BDA0002653414500000075
Figure BDA0002653414500000076
式(1)为正样本对应梯度,式(2)为负样本对应梯度。
当Yxyc=1时,若
Figure BDA0002653414500000077
损失函数的梯度最小,即通过训练使得网络对正样本的预测值Yxyc趋近于1。当
Figure BDA0002653414500000078
时,损失函数的梯度大小与Yxyc
Figure BDA0002653414500000079
的值有关,两者相互制约。对于负样本有两种情况:第一种是容易识别的负样本,即离中心点较远的样本点,此类样本点我们希望其预测值
Figure BDA00026534145000000710
趋于0,而其真实标签值Yxyc为0,此时损失函数趋于0;第二种情况是真实中心点周围的样本点,其真实标签值接近1,但是需要网络预测值趋于0,此时若预测值接近1也能接受,参数(1-Yxyc)β就是用来平衡此种情况。此时权重(1-Yxyc)β趋于0,梯度值较小,减少此类负样本对梯度的影响。总的来说,该损失函数适合于关键点检测的训练与学习,使得网络能够检测出适合的精度较高的关键点。
可选地,给出关于目标中心点坐标偏移值的损失函数IV:
Figure BDA0002653414500000081
式中,p为原图目标中心点坐标,R为原图与特征图的缩放比例,
Figure BDA0002653414500000082
为特征图上预测的中心点坐标,
Figure BDA0002653414500000083
为网络预测的目标中心点坐标偏移。
由上述可知,损失函数包含四个部分,如下式所示:
L=LkoffLoffsizeLsizeconfLconf
即分别对应了三种特征图,将其结合便可得到目标类别和边界框。
可选地,算法网络中各神经元激活函数均为ReLu函数,没有其它复杂激活函数中诸如指数项的影响,同时活跃度的分散性使得网络整体计算成本下降,能够更加有效的执行梯度下降以及反向传播,避免了梯度爆炸和梯度消失问题。
可选地,对于某一类别计算AP(Average Precision)值,即平均精确度。AP是设置不同的IOU为阈值以获得精度(precision)和召回率(recall),计算方式如式(3)所示,其中TP为真正例,FP为假正例,FN为假反例。
Figure BDA0002653414500000084
绘制PR曲线,PR曲线下的面积即为平均精度AP的值;
Figure BDA0002653414500000085
上式表示当识别出k张图像或目标时准确率变化量P(k)和召回率变化量Δr(k)的乘积类加和;
分别计算各类别的AP,再计算各类别AP的平均值即mAP,mAP值越高说明检验的识别失误越少。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。

Claims (7)

1.一种基于深度学习的车辆识别与检测方法,其特征在于,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值,综合可得目标类别,并由下式得边界框的位置信息(x1,x2,y1,y2):
Figure FDA0002653414490000011
式中,
Figure FDA0002653414490000012
为中心点坐标,
Figure FDA0002653414490000013
为中心点坐标偏移值,
Figure FDA0002653414490000014
为宽偏移值
Figure FDA0002653414490000015
和对应锚点框宽值wa计算所得的目标边界框的宽值,
Figure FDA0002653414490000016
为高偏移值
Figure FDA0002653414490000017
和对应锚点框宽值ha计算所得的目标边界框的高值。
2.根据权利要求1所述的一种基于深度学习的车辆识别与检测方法,其特征在于:给出损失函数I-预测宽高偏移值与实际宽高偏移值之间的损失:
Figure FDA0002653414490000018
式中,宽高偏移量
Figure FDA0002653414490000019
已知,
Figure FDA00026534144900000110
为网络预测值,若两者差越小,则预测的宽高值与实际的宽高值越接近,由此得到更接近于目标的目标边界框。
3.根据权利要求2所述的一种基于深度学习的车辆识别与检测方法,其特征在于:给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
4.根据权利要求1所述的一种基于深度学习的车辆识别与检测方法,其特征在于:给出关于目标中心点坐标的损失函数III:
Figure FDA0002653414490000021
式中,
Figure FDA0002653414490000022
表示网络预测的特征图上某点为目标中心点的可能性,值越大则可能性越高,Yxyc是实际值,位于目标中心点处Yxyc为1,越接近中心点Yxyc越接近1,越远离中心点Yxyc越接近0,α和β均为变量。
5.根据权利要求1所述的一种基于深度学习的车辆识别与检测方法,其特征在于:给出关于目标中心点坐标偏移值的损失函数IV:
Figure FDA0002653414490000023
式中,p为原图目标中心点坐标,R为原图与特征图的缩放比例,
Figure FDA0002653414490000024
为特征图上预测的中心点坐标,
Figure FDA0002653414490000025
为网络预测的目标中心点坐标偏移。
6.根据权利要求1-5任一项所述的一种基于深度学习的车辆识别与检测方法,其特征在于:算法网络中各神经元激活函数均为ReLu函数。
7.根据权利要求1所述的一种基于深度学习的车辆识别与检测方法,其特征在于:绘制PR曲线,PR曲线下的面积即为平均精度AP的值;
Figure FDA0002653414490000026
上式表示当识别出k张图像或目标时准确率变化量P(k)和召回率变化量Δr(k)的乘积类加和;
分别计算各类别的AP,再计算各类别AP的平均值即mAP,mAP值越高说明识别失误越少。
CN202010878637.6A 2020-08-27 2020-08-27 一种基于深度学习的车辆识别与检测方法 Pending CN112016449A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010878637.6A CN112016449A (zh) 2020-08-27 2020-08-27 一种基于深度学习的车辆识别与检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010878637.6A CN112016449A (zh) 2020-08-27 2020-08-27 一种基于深度学习的车辆识别与检测方法

Publications (1)

Publication Number Publication Date
CN112016449A true CN112016449A (zh) 2020-12-01

Family

ID=73502738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010878637.6A Pending CN112016449A (zh) 2020-08-27 2020-08-27 一种基于深度学习的车辆识别与检测方法

Country Status (1)

Country Link
CN (1) CN112016449A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329776A (zh) * 2020-12-03 2021-02-05 北京智芯原动科技有限公司 基于改进CenterNet网络的车牌检测方法及装置
CN112560852A (zh) * 2020-12-15 2021-03-26 三峡大学 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法
CN113221716A (zh) * 2021-05-06 2021-08-06 西华大学 一种基于前景目标检测的无监督交通异常行为检测方法
CN113903028A (zh) * 2021-09-07 2022-01-07 武汉大学 一种目标检测方法及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009509A (zh) * 2017-12-12 2018-05-08 河南工业大学 车辆目标检测方法
CN109886947A (zh) * 2019-02-19 2019-06-14 浙江理工大学 基于区域的卷积神经网络的高压电线缺陷检测方法
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110197152A (zh) * 2019-05-28 2019-09-03 南京邮电大学 一种用于自动驾驶系统的道路目标识别方法
US20200074178A1 (en) * 2018-08-31 2020-03-05 Alibaba Group Holding Limited Method and system for facilitating recognition of vehicle parts based on a neural network
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111242061A (zh) * 2020-01-17 2020-06-05 电子科技大学 一种基于注意力机制的合成孔径雷达舰船目标检测方法
CN111428625A (zh) * 2020-03-23 2020-07-17 武汉理工大学 一种基于深度学习的交通场景目标检测方法及系统
CN111444801A (zh) * 2020-03-18 2020-07-24 成都理工大学 一种无人机红外目标实时检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009509A (zh) * 2017-12-12 2018-05-08 河南工业大学 车辆目标检测方法
US20200074178A1 (en) * 2018-08-31 2020-03-05 Alibaba Group Holding Limited Method and system for facilitating recognition of vehicle parts based on a neural network
CN109886947A (zh) * 2019-02-19 2019-06-14 浙江理工大学 基于区域的卷积神经网络的高压电线缺陷检测方法
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110197152A (zh) * 2019-05-28 2019-09-03 南京邮电大学 一种用于自动驾驶系统的道路目标识别方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111242061A (zh) * 2020-01-17 2020-06-05 电子科技大学 一种基于注意力机制的合成孔径雷达舰船目标检测方法
CN111444801A (zh) * 2020-03-18 2020-07-24 成都理工大学 一种无人机红外目标实时检测方法
CN111428625A (zh) * 2020-03-23 2020-07-17 武汉理工大学 一种基于深度学习的交通场景目标检测方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FURONG SHI ET AL.: "Orientation-Aware Vehicle Detection in Aerial Images via an Anchor-Free Object Detection Approach", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
YANGYANG LI ET AL.: "Anchor-Free Single Stage Detector in Remote Sensing Images Based on Multiscale Dense Path Aggregation Feature Pyramid Network", 《IEEE ACCESS》 *
周星宇: "基于深度学习复杂场景下停车管理视觉算法的研究与实现", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *
程怀俊 等: "基于视觉感受野的无人机目标检测", 《现代计算机》 *
范丽丽 等: "基于深度卷积神经网络的目标检测研究综述", 《光学精密工程》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329776A (zh) * 2020-12-03 2021-02-05 北京智芯原动科技有限公司 基于改进CenterNet网络的车牌检测方法及装置
CN112329776B (zh) * 2020-12-03 2023-10-27 北京智芯原动科技有限公司 基于改进CenterNet网络的车牌检测方法及装置
CN112560852A (zh) * 2020-12-15 2021-03-26 三峡大学 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法
CN113221716A (zh) * 2021-05-06 2021-08-06 西华大学 一种基于前景目标检测的无监督交通异常行为检测方法
CN113903028A (zh) * 2021-09-07 2022-01-07 武汉大学 一种目标检测方法及电子设备

Similar Documents

Publication Publication Date Title
CN112016449A (zh) 一种基于深度学习的车辆识别与检测方法
CN111310583B (zh) 一种基于改进的长短期记忆网络的车辆异常行为识别方法
CN112233097B (zh) 基于空时域多维融合的道路场景他车检测系统和方法
Li et al. Traffic light recognition for complex scene with fusion detections
CN108875608B (zh) 一种基于深度学习的机动车交通信号识别方法
Mao et al. Finding every car: a traffic surveillance multi-scale vehicle object detection method
Viraktamath et al. Object detection and classification using YOLOv3
Farag et al. Deep learning versus traditional methods for parking lots occupancy classification
Tian et al. Vehicle detection grammars with partial occlusion handling for traffic surveillance
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
Dahirou et al. Motion Detection and Object Detection: Yolo (You Only Look Once)
Anwer et al. Accident vehicle types classification: a comparative study between different deep learning models
CN117037085A (zh) 基于改进YOLOv5的车辆识别及数量统计的监控方法
CN117593623A (zh) 基于改进YOLOv8n模型的轻量化车辆检测方法
CN112668662A (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
Piroli et al. LS-VOS: Identifying outliers in 3D object detections using latent space virtual outlier synthesis
Chen et al. Research on vehicle detection and tracking algorithm for intelligent driving
Saadeldin et al. Real-time vehicle counting using custom YOLOv8n and DeepSORT for resource-limited edge devices
Tsai et al. Real-time automatic multilevel color video thresholding using a novel class-variance criterion
Yan et al. Object Detection Method Based On Improved SSD Algorithm For Smart Grid
Wen et al. An algorithm based on SVM ensembles for motorcycle recognition
Suarez-Mash et al. Using deep neural networks to classify symbolic road markings for autonomous vehicles
Ma et al. Dangerous driving behavior recognition using CA-CenterNet
CN113435383B (zh) 基于双三元组伪孪生架构的遥感飞机目标分类方法和装置
Xiang et al. An Improved Visual Detection Model for Oversize Vehicle Intrusion in Transmission Corridors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201201