CN110399884B - 一种特征融合自适应锚框模型车辆检测方法 - Google Patents

一种特征融合自适应锚框模型车辆检测方法 Download PDF

Info

Publication number
CN110399884B
CN110399884B CN201910622037.0A CN201910622037A CN110399884B CN 110399884 B CN110399884 B CN 110399884B CN 201910622037 A CN201910622037 A CN 201910622037A CN 110399884 B CN110399884 B CN 110399884B
Authority
CN
China
Prior art keywords
frame
anchor
anchor frame
feature
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910622037.0A
Other languages
English (en)
Other versions
CN110399884A (zh
Inventor
吕文涛
郭理鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910622037.0A priority Critical patent/CN110399884B/zh
Publication of CN110399884A publication Critical patent/CN110399884A/zh
Application granted granted Critical
Publication of CN110399884B publication Critical patent/CN110399884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种特征融合自适应锚框模型车辆检测方法。采集车辆数据集的多幅图像,将图像输入到卷积神经网络中进行特征提取,利用A2中得到的特征图来预测候选框,建立预测网络模型,预测中自适应锚框,根据图像中GT框的大小建立自适应阈值得到多个锚框的大小;标签和偏移量的获取:建立预测网络模型的损失函数,训练预测网络;针对未知物体GT框的待测图像,输入到训练后的预测网络模型中,得到候选框及其候选框的位置坐标。本发明提高了对小物体的检测能力,有效的提高了车辆检测性能,结果较为准确。

Description

一种特征融合自适应锚框模型车辆检测方法
技术领域
本发明涉及目标检测领域,更具体的涉及一种特征融合自适应锚框模型车辆检测方法。
背景技术
车辆检测在无人驾驶、道路监控、辅助驾驶等方面都有着重要应用,随着近些年车辆的不断增多和人们对于车辆检测技术需求的不断提高,车辆检测已经成为目标检测领域的重要研究对象。
在传统的车辆检测算法中,图像处理和机器学习发挥了重要的作用,被许多学者研究,并将取得的成果应用在科学研究和工程领域。这些算法通常包括两个步骤:首先,通过局部二值模式(LBP)、方向梯度直方图(HOG)、尺度不变特征变换(SIFT)等方法从图像中提取目标的特征向量。然后将提取的特征向量送入分类器,如:支持向量机(SVM)、自适应增强(AdaBoost)、决策树(DT)等进行分类。这些方法依托人工设计的特征提高了检测性能,但是无法在复杂场景中取得好的效果,在车辆检测中存在瓶颈。
深度学习使用大量数据训练的更深更复杂的网络模型对图像提取特征,所提取的特征优于传统方法所提取的特征,在一定程度上解决了训练时间长,检测速度慢的问题。但是现有深度学习的目标检测方法的步骤都比较繁琐,使用选择性搜索方法产生的候选框存在很多冗余,并且这些区域会进行多次卷积操作,造成很大的计算量,十分耗时。
尤其是对于小目标车辆的检测,这些方法不能获得较好的检测结果。
发明内容
本发明目的是针对现有的车辆检测方法对小目标车辆检测能力的不足之处,以提高车辆检测的准确性,提供了一种特征融合自适应锚框模型车辆检测方法。
本发明方法的基本思路是首先将特征提取网络提取的不同尺度的特征图相融合,然后根据训练数据中Ground Truth(GT)的长宽分布自适应阈值得到合适尺寸的锚框,这样通过提升对小目标的检测能力,来提高检测性能。
本发明的目的是通过以下技术方案来实现的,如图2所示,包括以下具体步骤:
A1,采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,物体对象为车辆,GT框数据为[c*,x*,y*,w*,h*],c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,特征融合,将图像I输入到卷积神经网络中进行特征提取,将特征提取后得到不同尺度相融合的大小特征图,在大特征图中对小物体进行检测,在小特征图中对大物体进行检测;
A3,候选框预测,利用A2中得到的特征图来预测候选框,具体建立如下预测网络模型:
A3-1,同时用滑动窗口分别在融合后的大小特征图上分别进行卷积,滑动窗口的中心作为锚点,以每个锚点为中心产生固定数量的不同尺寸的锚框,每个滑动窗口生成一个固定维度的特征;
A3-2,将A3-1中生成的特征输入到两个全连接层,一个全连接层用于预测锚框是物体的概率p,另外一个全连接层用于预测候选框坐标相对于锚框的偏移量t;
A4,预测中自适应锚框,根据图像I中GT框的大小建立自适应阈值得到多个锚框的大小,以进行实时处理,这样能加快损失函数的收敛速度,并提高对小目标的检测能力;
A5,标签和偏移量的获取:为锚框设定标签p*,将A4-3得到的不同尺寸的锚框,通过计算锚框和GT框之间的交并比(IOU)来确定锚框的标签p*;并且计算候选框与锚框之间的偏移量tki,GT框与锚框之间的偏移量tki *
A6,建立预测网络模型的损失函数;
所述的损失函数是由分类损失和回归损失组成:
分类损失函数为:
Figure GDA0002203185270000021
其中,k是融合后的大小特征图的索引,i是锚框的索引,pki表示第k特征图第i个锚框是物体的预测概率;pki *是k层第i个锚框的真实标签;Lcls是分类损失,Ncls是分类样本图像数;
回归损失函数为:
Figure GDA0002203185270000022
其中,tki表示第k特征图的候选框与第i个锚框之间的偏移量,tki *是第k特征图的GT框与第i个锚框的偏移量,Nreg是偏移量的数据总数,Lreg是回归损失,Lreg(tki,tki *)=R(tki-tki *),R表示具有鲁棒性的平滑L1损失函数;
总损失函数为:
Figure GDA0002203185270000031
其中,λk为比例系数;
A7,将车辆数据集的包含多幅已知物体GT框的图像I采用上述A2~A6进行处理,并输入到预测网络模型通过梯度下降最小化进行训练,使得预测的候选框和GT框相匹配;针对未知物体GT框的待测图像,输入到训练后的预测网络模型中,得到候选框及其候选框的位置坐标,作为车辆物体的检测结果。
所述A4具体为:
A4-1,将所有图像I中GT框的宽尺寸归一化,得到归一化后的宽数值大小xw,以相同的宽数值大小xw组成作为同一种宽数值组,统计每一种宽数值组中宽数值大小xw的数值个数为yw,以最大的数值个数yw作为宽峰值ymax,计算获得自适应宽阈值γw=ymax/5;
A4-2,以宽数值大小xw及其对应的数值个数yw分别作为横纵坐标,绘制曲线图,处理获得将数据个数yw等于自适应宽阈值γw时对应的两个宽数值大小xw,两个宽数值大小xw按照大小分别作为最小宽数值αw和最大宽数值βw
A4-3,按照A4-1和A4-2相同的方法,设定自适应高阈值γh,得到最小高数值αh和最大高数值βh
A4-4,将得到的最小宽数值αw、最大宽数值βw、最小高数值αh和最大高数值βh乘以图像的宽和高,据此得到多个锚框的尺寸范围。
所述A5中,当锚框与GT框的交并比大于0.7时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比大于0.3时,认为该锚框为背景,标签p*为负样本。
本发明的有益效果是:
本发明与现有车辆检测方法相比,充分利用了不同特征图中的信息,并利用GT框的长宽分布自适应阈值得到合适尺寸的锚框大小,提高了对小物体的检测能力,有效的提高了车辆检测性能,结果较为准确。
附图说明
图1为卷积后各层的特征图;
图2为本发明方法的实现流程图;
图3为自适应锚框的实施效果图;左侧表示自适应锚框宽的结果,右侧表示自适应锚框高的结果;上侧两幅图为GT数据的宽高分布,下侧两幅图为自适应锚框的结果;
图4为不同方法的车辆图像检测对比结果图;(a)输入图像,(b)Faster R-CNN检测结果,(c)基于Faster R-CNN的特征融合自适应锚框模型检测结果。
图5为不同方法的检测率性能图。
具体实施方式
下面结合附图与实施例对本发明做进一步说明,本发明的目的和效果将变得更加明显。
本发明的具体实施例及其实施过程如下:
实验数据是从真实道路交通场景中采集的图像,从中选取质量高、形变小的车辆图像作为数据集进行实验。
A1,采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,物体对象为车辆,GT框数据为[c*,x*,y*,w*,h*],c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,特征融合,将图像I输入到卷积神经网络中进行特征提取,将特征提取后得到不同尺度相融合的大小特征图,具体为大特征图和小特征图的两种特征图,在大特征图中对小物体进行检测,在小特征图中对大物体进行检测;
具体实施中,车辆数据集包含10000张图像,7000张作为训练集,3000张作为测试集,采用卷积神经网络VGG-16,用卷积、池化和激活函数等相结合的方式对训练集图像I进行特征提取,特征提取后各层的特征图如图1所示。输出获得五个不同尺度的特征图,尺寸尺度从大到小顺序,对特征提取得到的五层不同尺度的特征图做如下处理:将第一层特征图通过最大池化将维度减小和第三层特征图进行连接融合起来为大特征图l1,对小物体进行检测,通过反卷积将第五层特征图维度增大为小特征图l2,对大物体进行检测。
A3,候选框预测,利用A2中得到的特征图来预测候选框,具体建立如下预测网络模型:
A3-1,同时用两个3×3的滑动窗口分别在l1和l2特征图上进行卷积,滑动窗口的中心作为锚点,以每个锚点为中心产生k个不同尺寸的锚框,每个滑动窗口生成一个512维的特征;
A3-2,将A3-1中生成的512维的特征输入到两个全连接层,一个全连接层用于预测锚框是物体的概率p,另外一个全连接层用于预测候选框坐标相对于锚框的偏移量t;
A4,预测中自适应锚框,根据图像I中GT框的大小建立自适应阈值得到多个锚框的大小,以进行实时处理;
所述A4具体为:
A4-1,将所有图像I中GT框的宽尺寸归一化,得到归一化后的宽数值大小xw,以相同的宽数值大小xw组成作为同一种宽数值组,统计每一种宽数值组中宽数值大小xw的数值个数为yw,以最大的数值个数yw作为宽峰值ymax,计算获得自适应宽阈值γw=ymax/5;
A4-2,以宽数值大小xw及其对应的数值个数yw分别作为横纵坐标,绘制曲线图,处理获得将数据个数yw等于自适应宽阈值γw时对应的两个宽数值大小xw,两个宽数值大小xw按照大小分别作为最小宽数值αw和最大宽数值βw,如图3所示;
A4-3,按照A4-1和A4-2相同的方法,设定自适应高阈值γh,得到最小高数值αh和最大高数值βh,如图3所示;
A4-4,将得到的最小宽数值αw、最大宽数值βw、最小高数值αh和最大高数值βh乘以图像的宽和高,由此得到多个锚框的尺寸范围。
具体实施,最小宽数值αw=0.303,最大宽数值βw=0.405,最小高数值αh=0.371和最大高数值βh=0.584。在最小宽数值αw和最大宽数值βw的尺寸范围中选择两个端点值和中间值的三个值,并且也在最小高数值αh和最大高数值βh的尺寸范围中选择两个端点值和中间值的三个值,3×3构成9种尺寸的锚框比例。即将(0.303*W,(0.303+0.405)*W/2,0.405*W)和(0.371*H,(0.371+0.584)*H/2,0.584*H)作为锚框的长和宽尺寸,由此可以得到k=9个不同尺寸的锚框。
A5,标签和偏移量的获取:为9种不同尺寸的锚框设定标签p*,将A4-3得到的不同尺寸的锚框,通过计算锚框和GT框之间的交并比(IOU)来确定锚框的标签p*;并且计算候选框与锚框之间的偏移量tki,GT框与锚框之间的偏移量tki *
当锚框与GT框的交并比大于0.7时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比大于0.3时,认为该锚框为背景,标签p*为负样本。
将既不为正样本也不为负样本的锚框舍去,通过计算候选框与锚框的偏移量得到t=(tx,ty,tw,th),GT框与锚框的偏移量得到t*=(tx *,ty *,tw *,th *):
Figure GDA0002203185270000051
Figure GDA0002203185270000052
Figure GDA0002203185270000053
Figure GDA0002203185270000054
其中,[x,y,w,h],[x*,y*,w*,h*]分别是候选框和GT框的中心坐标、宽和高。
A6,建立预测网络模型的损失函数;
所述的损失函数是由分类损失和回归损失组成:
分类损失函数为:
Figure GDA0002203185270000061
其中,k是融合后的大小特征图的索引,i是锚框的索引,pki表示第k特征图第i个锚框是物体的预测概率;pki *是k层第i个锚框的真实标签,如果锚框为正样本,真实标签pki *为1,为负样本,真实标签pki *为0;Lcls是分类损失,Ncls是分类样本图像数;
回归损失函数为:
Figure GDA0002203185270000062
其中,tki表示第k特征图的候选框与第i个锚框之间的偏移量,tki *是第k特征图的GT框与第i个锚框的偏移量,Nreg是偏移量的数据总数,Lreg是回归损失,Lreg(tki,tki *)=R(tki-tki *),R表示具有鲁棒性的平滑L1损失函数;
总损失函数为:
Figure GDA0002203185270000063
其中,λk为比例系数;
A7,将车辆数据集的包含多幅已知物体GT框的图像I采用上述A2~A6进行处理,并输入到预测网络模型通过带动量的梯度算法下降算法最小化进行训练,使得预测的候选框和GT框相匹配,从而完成训练;针对未知物体GT框的待测图像,输入到训练后的预测网络模型中,得到候选框及其候选框的位置坐标,作为车辆物体的检测结果。
具体实施中,一共迭代10000次,前6000次的学习率设置为10-3,后4000次的学习率设置为10-4,动量设置为0.9。
为了验证我们方法的性能,利用测试集对R-CNN、Fast R-CNN、Faster R-CNN和我们的方法进行了测试。使用目标检测的标准评判准则mAP进行评价,mAP值越大,说明性能越好。本方法和不同方法的车辆图像检测mAP值如表所示。
Figure GDA0002203185270000064
Figure GDA0002203185270000071
从上表可以看出,本发明提供方法的mAP值高于其他方法。可见本方法针对现有车辆检测方法对小目标检测能力的不足之处,充分利用不同特征图中的信息,并利用GT框的长宽分布自适应阈值得到合适尺寸的锚框大小,提高了对小物体的检测能力,有效的提高了车辆检测性能。

Claims (2)

1.一种特征融合自适应锚框模型车辆检测方法,其特征在于:方法如下:
A1,采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,物体对象为车辆,GT框数据为[c*,x*,y*,w*,h*],c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,特征融合,将图像I输入到卷积神经网络中进行特征提取,将特征提取后得到不同尺度相融合的大小特征图,在大特征图中对小物体进行检测,在小特征图中对大物体进行检测;
A3,候选框预测,利用A2中得到的特征图来预测候选框,具体建立如下预测网络模型:
A3-1,同时用滑动窗口分别在融合后的大小特征图上分别进行卷积,滑动窗口的中心作为锚点,以每个锚点为中心产生固定数量的不同尺寸的锚框,每个滑动窗口生成一个固定维度的特征;
A3-2,将A3-1中生成的特征输入到两个全连接层,一个全连接层用于预测锚框是物体的概率p,另外一个全连接层用于预测候选框坐标相对于锚框的偏移量t;
A4,预测中自适应锚框,根据图像I中GT框的大小建立自适应阈值得到多个锚框的大小,以进行实时处理;
A5,标签和偏移量的获取:为锚框设定标签p*,将A4得到的不同尺寸的锚框,通过计算锚框和GT框之间的交并比(IOU)来确定锚框的标签p*;并且计算候选框与锚框之间的偏移量tki,GT框与锚框之间的偏移量tki *
A6,建立预测网络模型的损失函数;
所述的损失函数是由分类损失和回归损失组成:
分类损失函数为:
Figure FDA0003109488620000011
其中,k是融合后的大小特征图的索引,i是锚框的索引,pki表示第k特征图第i个锚框是物体的预测概率;pki *是k层第i个锚框的真实标签;Lcls是分类损失,Ncls是分类样本图像数;
回归损失函数为:
Figure FDA0003109488620000012
其中,tki表示第k特征图的候选框与第i个锚框之间的偏移量,tki *是第k特征图的GT框与第i个锚框的偏移量,Nreg是偏移量的数据总数,Lreg是回归损失,Lreg(tki,tki *)=R(tki-tki *),R表示具有鲁棒性的平滑L1损失函数;
总损失函数为:
Figure FDA0003109488620000021
其中,λk为比例系数;
A7,将车辆数据集的包含多幅已知物体GT框的图像I采用上述A2~A6进行处理,并输入到预测网络模型通过梯度下降最小化进行训练,使得预测的候选框和GT框相匹配;针对未知物体GT框的待测图像,输入到训练后的预测网络模型中,得到候选框及其候选框的位置坐标,作为车辆物体的检测结果;
所述A4具体为:
A4-1,将所有图像I中GT框的宽尺寸归一化,得到归一化后的宽数值大小xw,以相同的宽数值大小xw组成作为同一种宽数值组,统计每一种宽数值组中宽数值大小xw的数值个数为yw,以最大的数值个数yw作为宽峰值ymax,计算获得自适应宽阈值γw=ymax/5;
A4-2,以宽数值大小xw及其对应的数值个数yw分别作为横纵坐标,绘制曲线图,处理获得将数据个数yw等于自适应宽阈值γw时对应的两个宽数值大小xw,两个宽数值大小xw按照大小分别作为最小宽数值aw和最大宽数值βw
A4-3,按照A4-1和A4-2相同的方法,设定自适应高阈值γh,得到最小高数值ah和最大高数值βh
A4-4,将得到的最小宽数值aw、最大宽数值βw、最小高数值ah和最大高数值βh乘以图像的宽和高,据此得到多个锚框的尺寸范围。
2.根据权利要求1所述的一种特征融合自适应锚框模型车辆检测方法,其特征在于:所述A5中,当锚框与GT框的交并比大于0.7时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比小于0.3时,认为该锚框为背景,标签p*为负样本。
CN201910622037.0A 2019-07-10 2019-07-10 一种特征融合自适应锚框模型车辆检测方法 Active CN110399884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910622037.0A CN110399884B (zh) 2019-07-10 2019-07-10 一种特征融合自适应锚框模型车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910622037.0A CN110399884B (zh) 2019-07-10 2019-07-10 一种特征融合自适应锚框模型车辆检测方法

Publications (2)

Publication Number Publication Date
CN110399884A CN110399884A (zh) 2019-11-01
CN110399884B true CN110399884B (zh) 2021-08-20

Family

ID=68324413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910622037.0A Active CN110399884B (zh) 2019-07-10 2019-07-10 一种特征融合自适应锚框模型车辆检测方法

Country Status (1)

Country Link
CN (1) CN110399884B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909800B (zh) * 2019-11-26 2023-08-08 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111178451A (zh) * 2020-01-02 2020-05-19 中国民航大学 一种基于YOLOv3网络的车牌检测方法
CN111488918A (zh) * 2020-03-20 2020-08-04 天津大学 一种基于卷积神经网络的变电站红外图像设备检测方法
WO2021151277A1 (zh) * 2020-05-26 2021-08-05 平安科技(深圳)有限公司 目标物损伤程度判定方法、装置、电子设备及存储介质
CN111832479B (zh) * 2020-07-14 2023-08-01 西安电子科技大学 基于改进的自适应锚点r-cnn的视频目标检测方法
CN111860679B (zh) * 2020-07-29 2022-04-26 浙江理工大学 一种基于YOLO v3改进算法的车辆检测方法
CN113111708B (zh) * 2021-03-10 2023-12-29 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113378864B (zh) * 2021-08-16 2021-11-12 浙江啄云智能科技有限公司 一种锚框参数的确定方法、装置、设备及可读存储介质
CN114549507B (zh) * 2022-03-01 2024-05-24 浙江理工大学 改进Scaled-YOLOv4的织物瑕疵检测方法
CN115905767B (zh) * 2023-01-07 2023-06-02 珠海金智维信息科技有限公司 基于固定候选框目标检测算法的网页登录方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN108734219A (zh) * 2018-05-23 2018-11-02 北京航空航天大学 一种基于全卷积神经网络结构的端到端撞击坑检测与识别方法
CN108875600A (zh) * 2018-05-31 2018-11-23 银江股份有限公司 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8958614B2 (en) * 2011-11-28 2015-02-17 Siemens Medical Solutions Usa, Inc. Image-based detection using hierarchical learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN108734219A (zh) * 2018-05-23 2018-11-02 北京航空航天大学 一种基于全卷积神经网络结构的端到端撞击坑检测与识别方法
CN108875600A (zh) * 2018-05-31 2018-11-23 银江股份有限公司 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Adaptive anchor box mechanism to improve the accuracy in the object detection system;Mingyu Gao et al.;《Multimedia tools and applications》;20190618;27383-27402 *
融合多尺度上下文卷积特征的车辆目标检测;高琳 等;《光电工程》;20190430;第46卷(第4期);1-8 *

Also Published As

Publication number Publication date
CN110399884A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
CN110399884B (zh) 一种特征融合自适应锚框模型车辆检测方法
CN108830188B (zh) 基于深度学习的车辆检测方法
CN110543837B (zh) 一种基于潜在目标点的可见光机场飞机检测方法
CN110942000B (zh) 一种基于深度学习的无人驾驶车辆目标检测方法
CN108171112B (zh) 基于卷积神经网络的车辆识别与跟踪方法
Zhao et al. Cloud shape classification system based on multi-channel cnn and improved fdm
CN109101924B (zh) 一种基于机器学习的路面交通标志识别方法
CN110909800A (zh) 一种基于Faster R-CNN改进算法的车辆检测方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN110969166A (zh) 一种巡检场景下小目标识别方法和系统
CN109658442B (zh) 多目标跟踪方法、装置、设备及计算机可读存储介质
CN111695514B (zh) 一种基于深度学习的雾天下车辆检测方法
CN104615986B (zh) 利用多检测器对场景变化的视频图像进行行人检测的方法
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN113838089B (zh) 一种基于特征匹配算法的气泡轨迹跟踪方法
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
Cepni et al. Vehicle detection using different deep learning algorithms from image sequence
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
Li et al. Robust vehicle detection in high-resolution aerial images with imbalanced data
Farag Real-time detection of road lane-lines for autonomous driving
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
CN109543498B (zh) 一种基于多任务网络的车道线检测方法
US20070223785A1 (en) Image processor and method
CN105354547A (zh) 一种结合纹理和彩色特征的行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant