CN110909800A - 一种基于Faster R-CNN改进算法的车辆检测方法 - Google Patents

一种基于Faster R-CNN改进算法的车辆检测方法 Download PDF

Info

Publication number
CN110909800A
CN110909800A CN201911173474.5A CN201911173474A CN110909800A CN 110909800 A CN110909800 A CN 110909800A CN 201911173474 A CN201911173474 A CN 201911173474A CN 110909800 A CN110909800 A CN 110909800A
Authority
CN
China
Prior art keywords
frame
anchor
feature
candidate
box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911173474.5A
Other languages
English (en)
Other versions
CN110909800B (zh
Inventor
吕文涛
林琪琪
郭理鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Sci Tech University ZSTU
Original Assignee
Zhejiang Sci Tech University ZSTU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Sci Tech University ZSTU filed Critical Zhejiang Sci Tech University ZSTU
Priority to CN201911173474.5A priority Critical patent/CN110909800B/zh
Publication of CN110909800A publication Critical patent/CN110909800A/zh
Application granted granted Critical
Publication of CN110909800B publication Critical patent/CN110909800B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于Faster R‑CNN改进算法的车辆检测方法。通过使用基本单元为深度可分离卷积的轻量级卷积网络MobileNet特征提取网络提取特征图,将不同尺度的特征图进行特征融合,维度聚类GT框的长和宽得到更精准的锚框尺寸;通过将MobileNet的神经网络提取的不同尺度的特征图相融合,融合后的特征图被区域生成网络和检测网络共享;在RPN网络中引入维度聚类方法处理GT框得到更为准确的锚框尺寸,更快得到准确候选区域。本发明减少了模型参数量,加快了检测速度,提高了车辆检测的性能,具有替代一些先进方法的优越性。

Description

一种基于Faster R-CNN改进算法的车辆检测方法
技术领域
本发明涉及图像目标检测方法,具体涉及了一种基于Faster R-CNN改进算法的车辆检测方法。
背景技术
目标检测是计算机视觉领域的重要组成模块,而车辆检测在辅助驾驶、道路监控、遥感图像等方面有着重要应用,已成为目标检测中重要的研究对象。
传统的车辆检测通常包括两个步骤:首先,通过局部二值模式(LBP)、方向梯度直方图(HOG)、尺度不变特征变换(SIFT)等方法从图像中提取车辆目标的特征向量。然后将提取的特征向量送入分类器,如:支持向量机(SVM)、自适应增强(AdaBoost)、决策树(DT)等进行分类。这些方法依托人工设计的特定目标特征提取算法提高了检测性能,但是在很大程度上这些算法取决于研究者已知的经验和知识,这些经验和知识无法在复杂场景中取得好的效果,传统的方法在车辆检测中存在瓶颈。
基于深度学习的目标检测方法使用大量数据训练的更深更复杂的网络模型对图像提取特征,所提取的特征优于传统方法中人工设计方法所提取的特征,在一定程度上解决了传统方法训练时间长,检测速度慢的问题。Faster R-CNN利用基于CNN的RPN提取候选区域,将特征提取、RPN、ROI Pooling、目标分类和边框回归这四个步骤整合在一个深度学习网络框架中,实现了端到端的过程,使得目标检测的性能有了较大提高。
但是此方法模型参数量大,检测消耗时间长,对小目标车辆检测错误和漏检情况多,使得车辆检测不能获得较好的检测结果。
发明内容
本发明的目的是针对现有的Faster R-CNN车辆检测方法所存在的模型参数量大、检测消耗时间长、对小目标车辆检测错误和漏检情况多的问题。为提高车辆检测的性能,提供了一种基于Faster R-CNN改进算法的车辆检测方法。
本方法是首先将MobileNet特征提取网络提取的不同尺度的特征图进行特征融合,融合后的特征图被RPN网络和检测网络共享;然后在RPN网络中引入维度聚类得到更准确的锚框的宽和高,作为目标分类和边框回归的依据。这样通过降低模型参数量,加快检测速度,以及提升对小目标的检测能力,提高了Faster R-CNN检测的性能。
本发明的目的是通过以下具体技术方案来实现的,如图1所示,包括以下具体步骤:
A1,采集车辆数据集,车辆数据集包含物体Ground Truth(GT)框的多幅图像I,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,使用维度聚类方法对GT框的宽和高进行聚类,生成若干聚类后的框宽和高尺寸,供后续区域生成网络(Region Proposal Network,RPN)中使用;
A3,特征融合:将图像I输入到基本单元为深度可分离卷积(depthwise separableconvolution,DSC)的轻量级卷积网络MobileNet中进行特征提取得到不同尺度的特征图,将不同尺度的特征图相融合,融合后的特征图后续被RPN网络和检测网络共享,即特征图被输入到RPN网络和检测网络;
A4,利用A3中得到的特征图,输入到RPN网络进行候选框预测;
A4-1,用滑动窗口在A3中得到的特征图上进行卷积,滑动窗口的中心为锚点,以每个锚点作为中心由A2产生的框宽和高尺寸生成固定数量的不同尺寸的框作为锚框,每个滑动窗口卷积后生成一个固定维度的特征;
A4-2,将A4-1中生成的特征输入到两个全连接层,一个全连接层输出是图像中车辆的预测概率p,另一个全连接层通过边框回归的方法输出候选框及其相对于锚框的位置偏移量t;
A4-3,标签和偏移量设定:锚框的真实值标签设为p*,将不同尺寸的锚框,通过计算锚框和GT框(Ground Truth)之间的交并比(Intersection-over-Union,IOU),根据交并比确定锚框为正样本还是负样本而设置真实值标签p*,即确定真实值标签p*的值为1还是0;把标定为正样本的锚框与GT框之间的偏移量设为t*
A4-4,基于A4-2中得到的预测概率p,对候选框按照预测概率p按由高到低的顺序进行排序,输出排序高的若干候选框;
A5,利用A3中得到的特征图和A4-4中得到的候选框输入到检测网络中进行检测;
所述的检测网络由ROI Pooling层和全连接层构成。首先将A3中得到的共享特征图和A4-4中得到的候选框输入到ROI Pooling层,将每个候选框映射到共享特征图中,得到每个候选框对应特征图中的候选区域,经过ROI Pooling层将特征图上大小不一的候选区域转变为大小统一的特征向量,送入到两个全连接层。一个全连接层是对候选框的内容进行分类,并计算出候选框在该分类下的类别置信度;另一个全连接层是对候选框进行边框回归,调整候选框的坐标,以更好的逼近目标。最后输出候选框的类别置信度分数及其候选框的位置坐标。
A6,重复步骤A3~A5,即将车辆数据集的包含多幅已知物体GT框的图像I采用上述A2~A5进行处理,将图像I输入到由RPN网络和检测网络组成的Faster R-CNN改进模型中,通过梯度下降最小化损失函数进行训练,使得预测的候选框和GT框相匹配;针对未知物体GT框的待测图像,输入到训练后的Faster R-CNN改进模型中,得到候选框的类别置信度分数及其候选框的位置坐标,作为车辆物体的检测结果。
本发明创新在于在特征提取网络MobileNet基础上将MobileNet网络提取获得的不同尺度的特征图相融合,且输入RPN网络中并特别使用了维度聚类方法处理GT框数据生成了更为准确的锚框尺寸,实现增加对小物体检测的能力、减少网络模型的参数量、提高速度性能的优势效果。
所述A2具体为:
A2-1,聚类输入的原始数据是GT框数据,数据中每行都包含
Figure BDA0002289361050000031
Figure BDA0002289361050000032
j∈(1,2,…,N),
Figure BDA0002289361050000033
是GT框的中心点,
Figure BDA0002289361050000034
是GT框的宽和高,N是所有GT框的个数。
A2-2,首先初始化k个聚类中心centroid(Wi,Hi),i∈(1,2,…,k),k即为需要生成的锚框个数,Wi和Hi分别是聚类中心点的宽和高的尺寸;
A2-3,通过计算GT框与聚类中心点的距离,把GT框划分到与之最近的一个簇中,计算GT框box与聚类中心距离d时,选用两者之间的交并比(Intersection-over-Union,IOU)值作为距离指标,距离计算公式为:d(box,centroid)=1-IOU(box,centroid);
A2-4,所有GT框划分完毕后,对每个簇重新计算聚类中心,更新聚类中心的值(Wi,Hi),更新为当前簇中的所有GT框的宽和高的均值,计算方式为
Figure BDA0002289361050000035
Ni是第i个簇的GT框个数;
A2-5,重复A2-3和A2-4步骤,直到聚类中心改变量收敛,得到k个聚类中心点(Wi,Hi),即得到k个锚框的宽和高的尺寸。
所述A3具体为:
A3-1,特征提取网络是MobileNet,对输入图片进行多次卷积和池化操作,将最大尺度特征图通过池化减小维度,将最小尺度特征图通过反卷积增大维度;
A3-2,将处于尺度最大、中间和最小的特征图进行特征叠加融合。
所述A4-3中,当锚框与GT框的交并比大于0.7或者锚框与GT框的交并比为最大值时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比小于0.3时,认为该锚框为背景,标签p*为负样本。
所述步骤A4中,建立RPN网络的损失函数,损失函数是由分类损失函数和回归损失函数按照一定比重组成;
分类损失函数为:
Figure BDA0002289361050000041
其中,i是锚框的索引,pi是第i个锚框是物体的预测概率,
Figure BDA0002289361050000042
是第i个锚框的真实值标签,Lcls是分类损失,Ncls为分类样本数量;
回归损失函数为:
Figure BDA0002289361050000043
其中,ti是预测候选框与锚框的偏移量,
Figure BDA0002289361050000044
是GT框与锚框的偏移量,Nreg为偏移量的数据总数,Lreg是回归损失,
Figure BDA0002289361050000045
R表示具有鲁棒性的Smooth L1损失函数;
总损失函数为:
Figure BDA0002289361050000046
其中,λ为比例系数。
本发明的有益效果是:
本发明与现有车辆检测方法相比,选择了轻量级的MobileNet卷积神经网络,用特征融合方法充分利用了不同特征图中的信息,并利用维度聚类得到合适尺寸的锚框大小,从而降低了模型的大小,加快了检测速度,提高了对小物体的检测能力,有效的提高了车辆检测性能,结果较为准确。
附图说明
图1是本发明方法的流程示意图;
图2是维度聚类结果:左边部分子图真实道路车辆锚框聚类结果,右边部分子图为光学遥感车辆锚框聚类结果;
图3是普通车辆检测结果:左边部分子图为Faster R-CNN检测结果,右边部分子图为本发明检测结果;
图4是遥感车辆检测结果:左边部分子图为Faster R-CNN检测结果,右边部分子图为本发明检测结果。
具体实施方式
下面结合附图与实施例对本发明做进一步说明,本发明的目的和效果将变得更加明显。
本发明的具体实施例及其实施过程如下:
A1,采集真实道路车辆图像和光学遥感车辆图像分别进行实验,从中选取质量高、形变小的图像作为数据集进行实验。车辆数据集包含物体GT框的多幅图像I,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,使用维度聚类方法对GT框数据的宽和高进行聚类,生成k=9个聚类后的框宽和高尺寸,供后续RPN网络中使用;
具体实施中,将真实道路车辆训练数据集和光学遥感车辆训练数据集的GT框数据,通过维度聚类的方法得到锚框的宽和高,将锚框的数量设置为k=9,两种数据集的GT框数据通过维度聚类后的结果如图2所示。真实道路车辆锚框宽和高:(102,114),(131,163),(192,181),(205,197),(204,225),(219,215),(231,239),(217,270),(254,297);光学遥感车辆锚框宽和高:(30,27),(27,41),(26,56),(59,27),(43,39),(29,68),(77,33),(37,84),(54,60)。
A3,特征融合:将图像I输入到基本单元为DSC的轻量级卷积网络MobileNet网络中进行特征提取,具体为DSC中使用3*3的卷积核来进行卷积,计算量和参数量比标准卷积减少了1/8到1/9,将特征提取后,将大尺度的特征图通过池化将尺度减小,将小尺度的特征图通过反卷积将尺度增大。由此将前面,中间和后面的不同尺度的特征图,进行特征融合,融合后的特征图被RPN网络和检测网络共享;
具体实施中,真实道路车辆图像数据集大约包含10000张图片,光学遥感车辆图像数据集大约包含7000张图片,从中随机选择70%作为训练集对模型进行训练,30%作为测试集。通过MobileNet网络中进行特征提取,将前面提取的特征图进行池化操作减小维度,后边的特征图通过反卷积增大维度。将前面,中间和后面的特征图进行特征融合,将特征图的通道数变为512。
A4,利用A3中得到的特征图,输入到RPN网络进行候选框预测;
A4-1,用3×3的滑动窗口在A3中得到的特征图上进行卷积,滑动窗口的中心为锚点,每个锚点对应k个由A2产生的不同尺寸的锚框,每个滑动窗口卷积后生成一个512维的特征;
A4-2,将A4-1中生成的特征输入到两个全连接层,一个全连接层输出是图像中车辆的预测概率p,另一个全连接层通过边框回归的方法计算出候选框相对于锚框的位置偏移量t,由此得到候选框的位置;
A4-3,标签和偏移量设定:锚框的真实值标签设为p*,将不同尺寸的锚框,通过计算锚框和GT框之间的IOU,来确定此锚框为正样本还是负样本;把标定为正样本的锚框与GT框之间的偏移量设为t*
具体实施中,当锚框与GT框的交并比大于0.7或者锚框与GT框的交并比为最大值时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比小于0.3时,认为该锚框为背景,标签p*为负样本;
通过计算得到,候选框和锚框的位置偏移量t=(tx,ty,tw,th),GT框和锚框的位置偏移量
Figure BDA0002289361050000061
Figure BDA0002289361050000062
Figure BDA0002289361050000063
Figure BDA0002289361050000064
Figure BDA0002289361050000065
其中,(x,y,w,h),(x*,y*,w*,h*),(xa,ya,wa,ha)是候选框,GT框和锚框的中心坐标、宽和高。tx,ty分别表示候选框和锚框在x,y上的平移量,tw,th分别表示候选框和锚框在w,h上的尺度缩放量,
Figure BDA0002289361050000066
分别表示GT框和锚框在x,y上的平移量,
Figure BDA0002289361050000067
分别表示候选框和锚框在w,h上的尺度缩放量。
A4-4,建立预测网络模型的损失函数;
所述损失函数是由分类损失和回归损失按照一定比重组成。
分类损失函数为:
Figure BDA0002289361050000068
其中,i是一次批处理中锚框的索引,pi是第i个锚框是物体的预测概率,pi *是第i个锚框的真实值标签,如果锚框为正样本,pi *为1,为负样本,pi *为0,Lcls是分类损失,Ncls为分类样本数量;
回归损失函数为:
Figure BDA0002289361050000071
其中,ti是预测候选框与锚框的偏移量,ti *是GT框与锚框的偏移量,Nreg为偏移量的数据总数,Lreg是回归损失,Lreg(ti,ti *)=R(ti-ti *),R表示具有鲁棒性的Smooth L1损失函数;
总损失函数为:
Figure BDA0002289361050000072
其中,λ为比例系数;
A4-5,基于A4-2中得到的预测概率p,对候选框按照预测概率p按由高到低的顺序进行排序,输出排序高的若干候选框;
具体实施中,输出预测概率p最高的300个候选框。
A5,利用A3中得到的特征图,和A4-5中得到的候选框,输入到最后的检测网络中进行检测;
所述的检测网络由ROI Pooling层和全连接层构成。首先将A3中得到的共享特征图和A4-5中得到的候选框输入到ROI Pooling层,将每个候选框映射到共享特征图中,得到每个候选框对应特征图中的候选区域,经过ROI Pooling层将特征图上大小不一的候选区域转变为大小统一的特征向量,送入到两个全连接层。一个全连接层是对候选框的内容进行分类,并计算出候选框在该分类下的类别置信度;另一个全连接层是对候选框进行边框回归,调整候选框的坐标,以更好的逼近目标。最后输出候选框的类别置信度分数及其候选框的位置坐标。
A6,重复步骤A3~A5,即将车辆数据集的包含多幅已知物体GT框的图像I采用上述A2~A5进行处理,将图像I输入到由RPN网络和检测网络组成的Faster R-CNN改进模型中,通过梯度下降最小化损失函数进行训练,使得预测的候选框和GT框相匹配;针对未知物体GT框的待测图像,输入到训练后的Faster R-CNN改进模型中,得到候选框的类别置信度分数及其候选框的位置坐标,作为车辆物体的检测结果。
具体实施中,采用动量优化器,动量参数设置为0.9,初始的学习率设置为10-3,最大迭代次数设置为50000次。
为了验证方法的性能,利用测试集对R-CNN、Fast R-CNN、Faster R-CNN(VGG16)、Faster R-CNN(ResNet101)和方法(DSC Faster R-CNN)进行了测试。使用目标检测评判准则中的平均精度均值mAP、检测时间、模型大小进行评价,mAP值越大,检测时间越短,模型大小越小,说明性能越好。本方法和不同方法对普通车辆图像和遥感车辆图像的检测性能如图3和图4以及表1和表2所示(上方表1为普通车辆图像检测性能结果,下方表2为遥感车辆图像检测性能结果)。
表1不同方法对普通车辆图像的检测性能对比表
Figure BDA0002289361050000081
表2不同方法对遥感车辆图像的检测性能对比表
Figure BDA0002289361050000082
由表可以看出,本发明提供方法的mAP值高于其他方法,检测时间低于其他方法,模型大小小于其他方法。可见本发明方法,与现有车辆检测方法相比,选择了轻量级的MobileNet卷积神经网络,用特征融合方法充分利用了不同特征图中的信息,并利用维度聚类得到合适尺寸的锚框大小,从而降低了模型的大小,加快了检测速度,提高了对小物体的检测能力,有效的提高了车辆检测性能。

Claims (5)

1.一种基于Faster R-CNN改进算法的车辆检测方法,包括如下步骤:
A1,采集车辆数据集,车辆数据集包含物体Ground Truth(GT)框的多幅图像I,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*,y*分别表示GT框内中心点的x坐标和y坐标,w*,h*分别表示GT框的高度和宽度;
A2,使用维度聚类方法对GT框的宽和高进行聚类,生成聚类后的框宽和高尺寸;
A3,特征融合:将图像I输入到基本单元为深度可分离卷积(depthwise separableconvolution,DSC)的轻量级卷积网络MobileNet中进行特征提取得到不同尺度的特征图,将不同尺度的特征图相融合;
A4,利用A3中得到的特征图,输入到RPN网络进行候选框预测;
A4-1,用滑动窗口在A3中得到的特征图上进行卷积,滑动窗口的中心为锚点,以每个锚点作为中心由A2产生的框宽和高尺寸生成固定数量的不同尺寸的框作为锚框,每个滑动窗口卷积后生成一个固定维度的特征;
A4-2,将A4-1中生成的特征输入到两个全连接层,一个全连接层输出是图像中车辆的预测概率p,另一个全连接层通过边框回归的方法输出候选框及其相对于锚框的位置偏移量t;
A4-3,标签和偏移量设定:锚框的真实值标签设为p*,将不同尺寸的锚框,通过计算锚框和GT框之间的交并比(Intersection-over-Union,IOU),根据交并比确定锚框为正样本还是负样本而设置真实值标签p*;把标定为正样本的锚框与GT框之间的偏移量设为t*
A4-4,基于A4-2中得到的预测概率p,对候选框按照预测概率p按由高到低的顺序进行排序,输出排序高的若干候选框;
A5,利用A3中得到的特征图和A4-4中得到的候选框输入到检测网络中进行检测;
A6,重复步骤A3~A5,将图像I输入到由RPN网络和检测网络组成的Faster R-CNN改进模型中,通过梯度下降最小化损失函数进行训练,使得预测的候选框和GT框相匹配;针对未知物体GT框的待测图像,输入到训练后的Faster R-CNN改进模型中,得到候选框的类别置信度分数及其候选框的位置坐标,作为车辆物体的检测结果。
2.根据权利要求1所述的一种基于Faster R-CNN改进算法的车辆检测方法,其特征是:
所述A2具体为:
A2-1,聚类输入的原始数据是GT框数据,数据中每行都包含
Figure FDA0002289361040000021
Figure FDA0002289361040000022
Figure FDA0002289361040000023
是GT框的中心点,
Figure FDA0002289361040000024
是GT框的宽和高,N是所有GT框的个数。
A2-2,首先初始化k个聚类中心centroid(Wi,Hi),i∈(1,2,…,k),k即为需要生成的锚框个数,Wi和Hi分别是聚类中心点的宽和高的尺寸;
A2-3,通过计算GT框与聚类中心点的距离,把GT框划分到与之最近的一个簇中,计算GT框box与聚类中心距离d时,选用两者之间的交并比值作为距离指标,距离计算公式为:d(box,centroid)=1-IOU(box,centroid);
A2-4,所有GT框划分完毕后,对每个簇重新计算聚类中心,更新聚类中心的值(Wi,Hi),更新为当前簇中的所有GT框的宽和高的均值,计算方式为
Figure FDA0002289361040000025
Ni是第i个簇的GT框个数;
A2-5,重复A2-3和A2-4步骤,直到聚类中心改变量收敛,得到k个聚类中心点(Wi,Hi),即得到k个锚框的宽和高的尺寸。
3.根据权利要求1所述的一种基于Faster R-CNN改进算法的车辆检测方法,其特征是:所述A3具体为:
A3-1,特征提取网络是MobileNet,对输入图片进行多次卷积和池化操作,将最大尺度特征图通过池化减小维度,将最小尺度特征图通过反卷积增大维度;
A3-2,将处于尺度最大、中间和最小的特征图进行特征叠加融合。
4.根据权利要求1所述的一种基于Faster R-CNN改进算法的车辆检测方法,其特征是:所述A4-3中,当锚框与GT框的交并比大于0.7或者锚框与GT框的交并比为最大值时,认为该锚框为物体,标签p*为正样本;当锚框与GT框的交并比小于0.3时,认为该锚框为背景,标签p*为负样本。
5.根据权利要求1所述的一种基于Faster R-CNN改进算法的车辆检测方法,其特征是:所述步骤A4中,建立RPN网络的损失函数,损失函数是由分类损失函数和回归损失函数组成;
分类损失函数为:
Figure FDA0002289361040000026
其中,i是锚框的索引,pi是第i个锚框是物体的预测概率,
Figure FDA0002289361040000031
是第i个锚框的真实值标签,Lcls是分类损失,Ncls为分类样本数量;
回归损失函数为:
Figure FDA0002289361040000032
其中,ti是预测候选框与锚框的偏移量,
Figure FDA0002289361040000033
是GT框与锚框的偏移量,Nreg为偏移量的数据总数,Lreg是回归损失,
Figure FDA0002289361040000034
R表示具有鲁棒性的Smooth L1损失函数;
总损失函数为:
Figure FDA0002289361040000035
其中,λ为比例系数。
CN201911173474.5A 2019-11-26 2019-11-26 一种基于Faster R-CNN改进算法的车辆检测方法 Active CN110909800B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911173474.5A CN110909800B (zh) 2019-11-26 2019-11-26 一种基于Faster R-CNN改进算法的车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911173474.5A CN110909800B (zh) 2019-11-26 2019-11-26 一种基于Faster R-CNN改进算法的车辆检测方法

Publications (2)

Publication Number Publication Date
CN110909800A true CN110909800A (zh) 2020-03-24
CN110909800B CN110909800B (zh) 2023-08-08

Family

ID=69819585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911173474.5A Active CN110909800B (zh) 2019-11-26 2019-11-26 一种基于Faster R-CNN改进算法的车辆检测方法

Country Status (1)

Country Link
CN (1) CN110909800B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209903A (zh) * 2020-04-21 2020-05-29 亮风台(上海)信息科技有限公司 一种人脸检测的方法与设备
CN111553414A (zh) * 2020-04-27 2020-08-18 东华大学 一种基于改进Faster R-CNN的车内遗失物体检测方法
CN111709449A (zh) * 2020-05-20 2020-09-25 西安理工大学 一种基于聚类算法的多层特征融合的小尺度目标检测方法
CN111860493A (zh) * 2020-06-12 2020-10-30 北京图森智途科技有限公司 一种基于点云数据的目标检测方法及装置
CN111860679A (zh) * 2020-07-29 2020-10-30 浙江理工大学 一种基于YOLO v3改进算法的车辆检测方法
CN112016449A (zh) * 2020-08-27 2020-12-01 西华大学 一种基于深度学习的车辆识别与检测方法
CN112381030A (zh) * 2020-11-24 2021-02-19 东方红卫星移动通信有限公司 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112419310A (zh) * 2020-12-08 2021-02-26 中国电子科技集团公司第二十研究所 一种基于交并融合边框优选的目标检测方法
CN112465736A (zh) * 2020-11-18 2021-03-09 武汉理工大学 一种用于港口船舶监控的红外视频图像增强方法
CN112580665A (zh) * 2020-12-18 2021-03-30 深圳赛安特技术服务有限公司 车款识别方法、装置、电子设备及存储介质
CN112711981A (zh) * 2020-12-02 2021-04-27 国网陕西省电力公司检修公司 一种高精度输电线路缺陷识别方法
CN113065478A (zh) * 2021-04-09 2021-07-02 长安大学 一种复杂天气道路车辆目标检测方法
CN113111708A (zh) * 2021-03-10 2021-07-13 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113409289A (zh) * 2021-06-29 2021-09-17 南开大学 一种基于Faster R-CNN的古建筑砖面缺陷检测方法
CN113449738A (zh) * 2021-07-06 2021-09-28 国网信息通信产业集团有限公司 基于样本特性的先验框参数自适应改进frc检测方法
CN113469070A (zh) * 2021-07-06 2021-10-01 中国工商银行股份有限公司 车载人员数量检测方法、装置和服务器
CN113673534A (zh) * 2021-04-22 2021-11-19 江苏大学 一种基于Faster RCNN的RGB-D图像果实检测方法
CN115115887A (zh) * 2022-07-07 2022-09-27 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN109409252A (zh) * 2018-10-09 2019-03-01 杭州电子科技大学 一种基于改进型ssd网络的车辆行人多目标检测方法
CN109815799A (zh) * 2018-12-18 2019-05-28 南京理工大学 一种基于ssd的快速航拍车辆检测算法
CN109977780A (zh) * 2019-02-26 2019-07-05 广东工业大学 一种基于深度学习算法的硅藻的检测与识别方法
CN110399884A (zh) * 2019-07-10 2019-11-01 浙江理工大学 一种特征融合自适应锚框模型车辆检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN109409252A (zh) * 2018-10-09 2019-03-01 杭州电子科技大学 一种基于改进型ssd网络的车辆行人多目标检测方法
CN109815799A (zh) * 2018-12-18 2019-05-28 南京理工大学 一种基于ssd的快速航拍车辆检测算法
CN109977780A (zh) * 2019-02-26 2019-07-05 广东工业大学 一种基于深度学习算法的硅藻的检测与识别方法
CN110399884A (zh) * 2019-07-10 2019-11-01 浙江理工大学 一种特征融合自适应锚框模型车辆检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱锋彬等: "基于改进卷积神经网络的快速车辆检测", 《传感器与微系统》 *
王凯等: "基于改进Faster R-CNN图像小目标检测", 《电视技术》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209903A (zh) * 2020-04-21 2020-05-29 亮风台(上海)信息科技有限公司 一种人脸检测的方法与设备
CN111553414A (zh) * 2020-04-27 2020-08-18 东华大学 一种基于改进Faster R-CNN的车内遗失物体检测方法
CN111709449A (zh) * 2020-05-20 2020-09-25 西安理工大学 一种基于聚类算法的多层特征融合的小尺度目标检测方法
CN111860493A (zh) * 2020-06-12 2020-10-30 北京图森智途科技有限公司 一种基于点云数据的目标检测方法及装置
CN111860493B (zh) * 2020-06-12 2024-02-09 北京图森智途科技有限公司 一种基于点云数据的目标检测方法及装置
CN111860679A (zh) * 2020-07-29 2020-10-30 浙江理工大学 一种基于YOLO v3改进算法的车辆检测方法
CN112016449A (zh) * 2020-08-27 2020-12-01 西华大学 一种基于深度学习的车辆识别与检测方法
CN112465736A (zh) * 2020-11-18 2021-03-09 武汉理工大学 一种用于港口船舶监控的红外视频图像增强方法
CN112381030B (zh) * 2020-11-24 2023-06-20 东方红卫星移动通信有限公司 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112381030A (zh) * 2020-11-24 2021-02-19 东方红卫星移动通信有限公司 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112711981A (zh) * 2020-12-02 2021-04-27 国网陕西省电力公司检修公司 一种高精度输电线路缺陷识别方法
CN112419310B (zh) * 2020-12-08 2023-07-07 中国电子科技集团公司第二十研究所 一种基于交并融合边框优选的目标检测方法
CN112419310A (zh) * 2020-12-08 2021-02-26 中国电子科技集团公司第二十研究所 一种基于交并融合边框优选的目标检测方法
CN112580665A (zh) * 2020-12-18 2021-03-30 深圳赛安特技术服务有限公司 车款识别方法、装置、电子设备及存储介质
CN112580665B (zh) * 2020-12-18 2024-04-19 深圳赛安特技术服务有限公司 车款识别方法、装置、电子设备及存储介质
CN113111708A (zh) * 2021-03-10 2021-07-13 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113111708B (zh) * 2021-03-10 2023-12-29 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113065478A (zh) * 2021-04-09 2021-07-02 长安大学 一种复杂天气道路车辆目标检测方法
CN113673534A (zh) * 2021-04-22 2021-11-19 江苏大学 一种基于Faster RCNN的RGB-D图像果实检测方法
CN113409289A (zh) * 2021-06-29 2021-09-17 南开大学 一种基于Faster R-CNN的古建筑砖面缺陷检测方法
CN113469070A (zh) * 2021-07-06 2021-10-01 中国工商银行股份有限公司 车载人员数量检测方法、装置和服务器
CN113449738A (zh) * 2021-07-06 2021-09-28 国网信息通信产业集团有限公司 基于样本特性的先验框参数自适应改进frc检测方法
CN113449738B (zh) * 2021-07-06 2023-06-23 国网信息通信产业集团有限公司 基于样本特性的先验框参数自适应改进frc检测方法
CN115115887A (zh) * 2022-07-07 2022-09-27 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络
CN115115887B (zh) * 2022-07-07 2023-09-12 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络

Also Published As

Publication number Publication date
CN110909800B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
CN110909800A (zh) 一种基于Faster R-CNN改进算法的车辆检测方法
CN106803247B (zh) 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法
CN108830188B (zh) 基于深度学习的车辆检测方法
CN110414377B (zh) 一种基于尺度注意力网络的遥感图像场景分类方法
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN104599275B (zh) 基于概率图模型的非参数化的rgb-d场景理解方法
CN108268838B (zh) 人脸表情识别方法及人脸表情识别系统
CN110399884B (zh) 一种特征融合自适应锚框模型车辆检测方法
CN106156777B (zh) 文本图片检测方法及装置
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN112016605B (zh) 一种基于边界框角点对齐和边界匹配的目标检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
US9122957B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
CN109035196B (zh) 基于显著性的图像局部模糊检测方法
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
CN110008844B (zh) 一种融合slic算法的kcf长期手势跟踪方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN106326916B (zh) 基于多尺度特征估计和高阶bing特征的目标检测方法
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN109241816B (zh) 一种基于标签优化的图像再识别系统及损失函数确定方法
CN108960260A (zh) 一种分类模型生成方法、医学影像图像分类方法及装置
CN112926652A (zh) 一种基于深度学习的鱼类细粒度图像识别方法
Asgarian Dehkordi et al. Vehicle type recognition based on dimension estimation and bag of word classification
CN111815582A (zh) 改进背景先验和前景先验的二维码区域检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant