CN112016449A - 一种基于深度学习的车辆识别与检测方法 - Google Patents
一种基于深度学习的车辆识别与检测方法 Download PDFInfo
- Publication number
- CN112016449A CN112016449A CN202010878637.6A CN202010878637A CN112016449A CN 112016449 A CN112016449 A CN 112016449A CN 202010878637 A CN202010878637 A CN 202010878637A CN 112016449 A CN112016449 A CN 112016449A
- Authority
- CN
- China
- Prior art keywords
- target
- value
- width
- center point
- conf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 44
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 23
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims 2
- 230000010354 integration Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 8
- 238000007689 inspection Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 description 4
- 101000802640 Homo sapiens Lactosylceramide 4-alpha-galactosyltransferase Proteins 0.000 description 2
- 102100035838 Lactosylceramide 4-alpha-galactosyltransferase Human genes 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值。本发明对复杂场景下车辆的识别与检验给出了高效的解决方案:在算法CenterNet的基础上进行改进搭建了一个卷积神经网络,提高了对车辆的识别准确率,对于目标检测领域的标准数据集Pascal VOC,本方法的准确率也能与常用的目标检测算法基本持平。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的车辆识别与检测方法。
背景技术
随着我国社会经济的迅速发展,机动车数量增多,停车需求也迅速增加,但是目前的停车管理系统还存在很多局限性,如:智能化程度不够、效率低下、适用的停车环境不够广泛等。例如目前大量应用的车牌识别,首先它对于大角度复杂场景下的检测有困难,其次只适用于具有标准设备的停车场出入口的检测,不能应用于路边停车的检测。
当下深度学习发展迅速,在多行业发挥了重要作用并取得了显著进步,在停车管理领域也有应用。目前车辆检测主要是利用的目标检测算法。在大角度情况下,车辆边界框之间重叠部分较多,框内特征不能准确代表车辆特征。目前常用的目标检测算法主要提取框内特征,不适合大角度情况下的车辆识别。目前,复杂场景大角度情况下的高点视频的车辆检测与识别是研究的热点与难点。
现阶段,基于深度学习的目标检测算法一般分为以下两种:(1)基于锚点框的方法(Anchor-based);(2)不基于锚点框的方法(Anchor-free)。其中基于锚点框的方法又可分为两大类:一是分两步走的two-stage类;二是一步实现检测的one-stage类。一般而言,two-stage类精度较高,速度较慢;而one-stage类速度较快,精度较低。
文献【1,2,3】属于two-stage类目标检测算法,也是基于深度学习的目标检测算法的开山之作,首先在图像的基础上获取可能存在目标的候选区域,再在此候选区域的基础上进行分类回归得到最终的目标检测结果。在Faster R-CNN中引入了锚点思想,基于数据集特性生成相应的不同大小和不同形状的锚点框,通过卷积神经网络的反向传播学习在此锚点框的基础上生成候选框,这种锚点思想在后续基于深度学习的目标检测算法中有大量应用。Two-stage类算法检测速度较慢且训练较复杂,针对该问题,文献【4,5,6】将目标检测问题视为回归问题,通过端到端的卷积神经网络训练,直接回归得到目标的类别及目标边界框相应坐标。YOLO系列属于one-satge类算法,并且同样引入了Fast R-CNN中的锚点思想,在锚点的基础上生成最终的目标边界框。该类算法在速度上能够满足实时检测,在工业领域应用广泛。文献【7】提出了One-stage类算法检测精度较two-stage类低的主要原因是正负样本不平衡问题导致,基于此问题提出了focal loss损失函数以减少正负样本不平衡问题所带来的影响并且使得算法更关注于难分样本,降低易分样本的损失权重。对于基于锚点的目标检测算法,其网络均主要学习目标边界框内及其周边的图像特征,根据这些特征来实现对目标的检测,而车辆间有大量重叠的情况下,框内特征不一定就是车辆的特征并且重叠区域特征属于多个目标,此类特征提取不具有代表性。
文献:
【1】R.Girshich,J.Donahue,T.Darrell,et al.Rich Feature hierarchies foraccurate object detection and semantic segmentation[C].In IEEE ComputerVision and Patterrn Recognition(CVPR),Colunbus,2014,580-587
【2】R.Girshick.Fast r-cnn[C].IEEE International Conferrence onComputer Vision(ICCV),Santiago.2015,1440-1448
【3】S.Ren,K.He,R.Girshick,et al.Faster R-CNN:Toward real-time objectdetection with region proposal networks[C].In Neural Information ProcessingSystems(NIPS),Montreal,2015,39(6):1137-1149
【4】J.Redmon,S.Divvala,R.Girshick,et al.You only look once:Unified,real-time object detection[C].2016IEEE Conference on Computer Vision andPattern Recognition(CVPR),2016,779-788
【5】J.Redmon,A.Farhadi.Yolo9000:Better,faster,stronger[C].IEEEConference on Computer Vision and Pattern Recognition(CVPR),2017,7263-7271
【6】J.Redmon,A.Farhadi.Yolov3:An incremental improvement[J].arXivpreprint arXiv:1804.02767,2018,1:1-6
【7】T.Lin,P.Goyal,R.Girshick,et al.Focal loss for dense objectdetection[C].The IEEE International Conference on Computer Vision(ICCV),2017,2980-2988
发明内容
本发明为解决大角度复杂场景下车辆之间存在大面积重叠从而造成车辆检测精度较低的问题,而提供一种卷积神经网络对复杂场景的停车图像进行识别与检测的方法,以达到符合要求的检测精度并在速度上实现实时检测。
为了实现上述目的,本公开提供一种基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值,综合可得目标类别,并由下式得边界框的位置信息(x1,x2,y1,y2):
可选地,给出损失函数I-预测宽高偏移值与实际宽高偏移值之间的损失:
可选地,给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
可选地,给出关于目标中心点坐标的损失函数III:
可选地,给出关于目标中心点坐标偏移值的损失函数IV:
可选地,算法网络中各神经元激活函数均为ReLu函数。
可选地,绘制PR曲线,PR曲线下的面积即为平均精度AP的值;
上式表示当识别出k张图像或目标时准确率变化量P(k)和召回率变化量Δr(k)的乘积类加和;
分别计算各类别的AP,再计算各类别AP的平均值即mAP,mAP值越高说明检验的识别失误越少。
本发明的有益效果在于:
本发明对复杂场景下车辆的识别与检验给出了高效的解决方案:在算法CenterNet的基础上进行改进搭建了一个卷积神经网络,提高了对车辆的识别准确率,对于目标检测领域的标准数据集Pascal VOC,本方法的准确率也能与常用的目标检测算法基本持平。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为本发明涉及的基于深度学习的车辆识别与检测方法的网络结构图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
如图1所示,本发明涉及的基于深度学习的车辆识别与检测方法,输入初始图,通过卷积神经网络获取三种特征图,分别输出目标中心点坐标及类别、目标中心点坐标偏移值和目标边界框宽高偏移值,目标检测算法CenterNet结合锚点思想,在锚点框的基础上通过对目标边界框与锚点框之间宽高偏移值的预测而得到目标边界框宽高值,综合可得目标类别,并由下式得边界框的位置信息(x1,x2,y1,y2):
可选地,给出损失函数I-预测宽高偏移值与实际宽高偏移值之间的损失:
可选地,给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
可选地,给出关于目标中心点坐标的损失函数III:
式中,表示网络预测的特征图上某点为目标中心点的可能性,值越大则可能性越高,Yxyc是实际值,由在标签的基础上利用二维高斯分布获得,位于目标中心点处Yxyc为1,越接近中心点Yxyc越接近1,越远离中心点Yxyc越接近0,α和β均为变量,α是为了降低负样本的权重,在目标检测领域,普遍存在的一个问题就是正负样本的不平衡,这是由于图像中大部分为背景,只有少部分是目标,加入α可以降低负样本的权重,是网络更关注于正样本,而参数β是使网络更关注于难分样本。
式(1)为正样本对应梯度,式(2)为负样本对应梯度。
当Yxyc=1时,若损失函数的梯度最小,即通过训练使得网络对正样本的预测值Yxyc趋近于1。当时,损失函数的梯度大小与Yxyc和的值有关,两者相互制约。对于负样本有两种情况:第一种是容易识别的负样本,即离中心点较远的样本点,此类样本点我们希望其预测值趋于0,而其真实标签值Yxyc为0,此时损失函数趋于0;第二种情况是真实中心点周围的样本点,其真实标签值接近1,但是需要网络预测值趋于0,此时若预测值接近1也能接受,参数(1-Yxyc)β就是用来平衡此种情况。此时权重(1-Yxyc)β趋于0,梯度值较小,减少此类负样本对梯度的影响。总的来说,该损失函数适合于关键点检测的训练与学习,使得网络能够检测出适合的精度较高的关键点。
可选地,给出关于目标中心点坐标偏移值的损失函数IV:
由上述可知,损失函数包含四个部分,如下式所示:
L=Lk+λoffLoff+λsizeLsize+λconfLconf
即分别对应了三种特征图,将其结合便可得到目标类别和边界框。
可选地,算法网络中各神经元激活函数均为ReLu函数,没有其它复杂激活函数中诸如指数项的影响,同时活跃度的分散性使得网络整体计算成本下降,能够更加有效的执行梯度下降以及反向传播,避免了梯度爆炸和梯度消失问题。
可选地,对于某一类别计算AP(Average Precision)值,即平均精确度。AP是设置不同的IOU为阈值以获得精度(precision)和召回率(recall),计算方式如式(3)所示,其中TP为真正例,FP为假正例,FN为假反例。
绘制PR曲线,PR曲线下的面积即为平均精度AP的值;
上式表示当识别出k张图像或目标时准确率变化量P(k)和召回率变化量Δr(k)的乘积类加和;
分别计算各类别的AP,再计算各类别AP的平均值即mAP,mAP值越高说明检验的识别失误越少。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (7)
3.根据权利要求2所述的一种基于深度学习的车辆识别与检测方法,其特征在于:给出损失函数II-预测conf值:
Lconf=Smooth L1 Loss(conf,conf*),
conf值用于判断负责预测特征图上某点对应目标的锚点框,式中,conf为预测值,而conf*为标签值,conf*初始值全为0,与实际框最接近的锚点框所对应位置的conf*=1,其余为0;
结合损失函数I、损失函数II可得目标边界框宽高值。
6.根据权利要求1-5任一项所述的一种基于深度学习的车辆识别与检测方法,其特征在于:算法网络中各神经元激活函数均为ReLu函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010878637.6A CN112016449A (zh) | 2020-08-27 | 2020-08-27 | 一种基于深度学习的车辆识别与检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010878637.6A CN112016449A (zh) | 2020-08-27 | 2020-08-27 | 一种基于深度学习的车辆识别与检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112016449A true CN112016449A (zh) | 2020-12-01 |
Family
ID=73502738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010878637.6A Pending CN112016449A (zh) | 2020-08-27 | 2020-08-27 | 一种基于深度学习的车辆识别与检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112016449A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329776A (zh) * | 2020-12-03 | 2021-02-05 | 北京智芯原动科技有限公司 | 基于改进CenterNet网络的车牌检测方法及装置 |
CN112560852A (zh) * | 2020-12-15 | 2021-03-26 | 三峡大学 | 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法 |
CN113221716A (zh) * | 2021-05-06 | 2021-08-06 | 西华大学 | 一种基于前景目标检测的无监督交通异常行为检测方法 |
CN113903028A (zh) * | 2021-09-07 | 2022-01-07 | 武汉大学 | 一种目标检测方法及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
CN109886947A (zh) * | 2019-02-19 | 2019-06-14 | 浙江理工大学 | 基于区域的卷积神经网络的高压电线缺陷检测方法 |
CN109977812A (zh) * | 2019-03-12 | 2019-07-05 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110197152A (zh) * | 2019-05-28 | 2019-09-03 | 南京邮电大学 | 一种用于自动驾驶系统的道路目标识别方法 |
US20200074178A1 (en) * | 2018-08-31 | 2020-03-05 | Alibaba Group Holding Limited | Method and system for facilitating recognition of vehicle parts based on a neural network |
CN110909800A (zh) * | 2019-11-26 | 2020-03-24 | 浙江理工大学 | 一种基于Faster R-CNN改进算法的车辆检测方法 |
CN111242061A (zh) * | 2020-01-17 | 2020-06-05 | 电子科技大学 | 一种基于注意力机制的合成孔径雷达舰船目标检测方法 |
CN111428625A (zh) * | 2020-03-23 | 2020-07-17 | 武汉理工大学 | 一种基于深度学习的交通场景目标检测方法及系统 |
CN111444801A (zh) * | 2020-03-18 | 2020-07-24 | 成都理工大学 | 一种无人机红外目标实时检测方法 |
-
2020
- 2020-08-27 CN CN202010878637.6A patent/CN112016449A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
US20200074178A1 (en) * | 2018-08-31 | 2020-03-05 | Alibaba Group Holding Limited | Method and system for facilitating recognition of vehicle parts based on a neural network |
CN109886947A (zh) * | 2019-02-19 | 2019-06-14 | 浙江理工大学 | 基于区域的卷积神经网络的高压电线缺陷检测方法 |
CN109977812A (zh) * | 2019-03-12 | 2019-07-05 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110197152A (zh) * | 2019-05-28 | 2019-09-03 | 南京邮电大学 | 一种用于自动驾驶系统的道路目标识别方法 |
CN110909800A (zh) * | 2019-11-26 | 2020-03-24 | 浙江理工大学 | 一种基于Faster R-CNN改进算法的车辆检测方法 |
CN111242061A (zh) * | 2020-01-17 | 2020-06-05 | 电子科技大学 | 一种基于注意力机制的合成孔径雷达舰船目标检测方法 |
CN111444801A (zh) * | 2020-03-18 | 2020-07-24 | 成都理工大学 | 一种无人机红外目标实时检测方法 |
CN111428625A (zh) * | 2020-03-23 | 2020-07-17 | 武汉理工大学 | 一种基于深度学习的交通场景目标检测方法及系统 |
Non-Patent Citations (5)
Title |
---|
FURONG SHI ET AL.: "Orientation-Aware Vehicle Detection in Aerial Images via an Anchor-Free Object Detection Approach", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 * |
YANGYANG LI ET AL.: "Anchor-Free Single Stage Detector in Remote Sensing Images Based on Multiscale Dense Path Aggregation Feature Pyramid Network", 《IEEE ACCESS》 * |
周星宇: "基于深度学习复杂场景下停车管理视觉算法的研究与实现", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
程怀俊 等: "基于视觉感受野的无人机目标检测", 《现代计算机》 * |
范丽丽 等: "基于深度卷积神经网络的目标检测研究综述", 《光学精密工程》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329776A (zh) * | 2020-12-03 | 2021-02-05 | 北京智芯原动科技有限公司 | 基于改进CenterNet网络的车牌检测方法及装置 |
CN112329776B (zh) * | 2020-12-03 | 2023-10-27 | 北京智芯原动科技有限公司 | 基于改进CenterNet网络的车牌检测方法及装置 |
CN112560852A (zh) * | 2020-12-15 | 2021-03-26 | 三峡大学 | 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法 |
CN113221716A (zh) * | 2021-05-06 | 2021-08-06 | 西华大学 | 一种基于前景目标检测的无监督交通异常行为检测方法 |
CN113903028A (zh) * | 2021-09-07 | 2022-01-07 | 武汉大学 | 一种目标检测方法及电子设备 |
CN113903028B (zh) * | 2021-09-07 | 2024-10-29 | 武汉大学 | 一种目标检测方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rahmaniar et al. | Real-time human detection using deep learning on embedded platforms: A review | |
Wei et al. | Enhanced object detection with deep convolutional neural networks for advanced driving assistance | |
Bouti et al. | A robust system for road sign detection and classification using LeNet architecture based on convolutional neural network | |
CN108416394B (zh) | 基于卷积神经网络的多目标检测模型构建方法 | |
Şentaş et al. | Performance evaluation of support vector machine and convolutional neural network algorithms in real-time vehicle type and color classification | |
CN112016449A (zh) | 一种基于深度学习的车辆识别与检测方法 | |
Huo et al. | Vehicle type classification and attribute prediction using multi-task RCNN | |
KR102731826B1 (ko) | 차원 축소에 기반한 영상 객체 인식 시스템 및 방법 | |
CN104077613A (zh) | 一种基于级联多级卷积神经网络的人群密度估计方法 | |
CN111738300A (zh) | 一种交通标志及信号灯检测和识别的优化算法 | |
Tripathi et al. | Object detection using yolo: A survey | |
CN111626120A (zh) | 工业环境下基于改进的yolo-6d算法的目标检测方法 | |
CN116563825A (zh) | 一种基于改进的Yolov5的自动驾驶目标检测算法 | |
Zhang et al. | Bus passenger flow statistics algorithm based on deep learning | |
Li et al. | Small object detection based on lightweight feature pyramid | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN112926495A (zh) | 一种基于多级卷积特征级联的车辆检测方法 | |
CN117636124A (zh) | 一种基于sma-yolo模型的目标检测方法及系统 | |
Nguyen et al. | Study on Tracking Real‐Time Target Human Using Deep Learning for High Accuracy | |
Xu et al. | A lightweight vehicles detection network model based on YOLOv5 | |
Zhang et al. | Research on traffic target detection method based on improved yolov3 | |
Liao | Road damage intelligent detection with deep learning techniques | |
Wu et al. | A Pavement Distress Detection Method Based on Yolov5 Model | |
Defaoui et al. | PedVis-VGG-16: A Fine-tuned deep convolutional neural network for pedestrian image classifications | |
Hao et al. | Multi-target vehicle detection based on corner pooling with attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201201 |
|
RJ01 | Rejection of invention patent application after publication |