CN108932471B - 一种车辆检测方法 - Google Patents
一种车辆检测方法 Download PDFInfo
- Publication number
- CN108932471B CN108932471B CN201810498277.XA CN201810498277A CN108932471B CN 108932471 B CN108932471 B CN 108932471B CN 201810498277 A CN201810498277 A CN 201810498277A CN 108932471 B CN108932471 B CN 108932471B
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle
- original image
- neural network
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims abstract description 42
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000003062 neural network model Methods 0.000 claims description 15
- 238000012417 linear regression Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 7
- 241000287196 Asthenes Species 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 3
- 101100460704 Aspergillus sp. (strain MF297-2) notI gene Proteins 0.000 claims description 2
- 238000009432 framing Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 21
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000009891 weiqi Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种车辆检测方法,其包括训练阶段和测试阶段两个过程,在训练阶段,先用矩形框框出包含车辆的原始图像中的每辆车辆;然后利用神经网络,得到原始图像的特征图、特征图对应的建议窗口、感兴趣区域图像,进而得到原始图像上形成的包含特征信息的图像;接着利用神经网络,得到原始图像上形成的包含特征信息的图像的分类得分,进而判定包含特征信息的图像是否包含车辆;再计算原始图像及其上形成的包含特征信息的图像的损失函数值;最终根据最小损失函数值得到最优的权值矢量和偏置项;在测试阶段,利用最优的权值矢量和偏置项对测试图像进行检测,得到检测结果;优点是检测速度快,且检测精度高。
Description
技术领域
本发明涉及一种目标检测方法,尤其是涉及一种车辆检测方法。
背景技术
随着我国经济的持续快速增长,车辆的持有率大幅度上升,汽车已成为不可缺少的代步工具,人们对于汽车的舒适度和安全度也提出了更高的要求。随着2016年世纪围棋大战的落幕,2017年迎来了人工智能年,无人驾驶作为人工智能的热门应用迎来了巨大的发展。在无人驾驶领域,车辆检测是车辆感知外界环境的基础环节,也是计算机视觉和图像处理方向的重要分支。
车辆检测方法主要分为传统的手工特征设计并通过机器学习的方法和深度学习的方法。传统的手工特征设计并通过机器学习的方法对于特征设计要求较高,需要具体问题具体分析;深度学习的方法主要依赖于大量的训练数据集,但对于常见的诸如光照、遮挡等问题具有一定的抗干扰性。近年来,深度学习的方法在目标检测领域已发展起来了,主要分为不基于区域建议和基于区域建议两种方式。
不基于区域建议的算法主要采用回归的思想,通过计算图像中可能出现感兴趣区域的概率得分并加以比较,具有速度快的优点,基本可以实现实时监测,但这类算法的检测效果略逊于基于区域建议的算法。基于区域建议的算法主要分为两步,第一步:通过卷积神经网络提取特征,从而找到感兴趣区域;第二步:通过卷积神经网络对感兴趣区域进行检测得到目标,并标定矩形框确定目标的具体位置,这类算法由于分为两步走,检测速度略慢,但是检测精度较高。
发明内容
本发明所要解决的技术问题是提供一种车辆检测方法,其检测速度快,且检测精度高。
本发明解决上述技术问题所采用的技术方案为:一种车辆检测方法,其特征在于包括训练阶段和测试阶段两个过程;
所述的训练阶段过程的具体步骤如下:
步骤①_1:选取包含车辆的原始图像和不包含车辆的原始图像共Q幅原始图像,并构成图像集,将图像集中的第q幅原始图像记为{Iq(i,j)};然后将图像集中的每幅包含车辆的原始图像中的每辆车辆用矩形框框出,假设{Iq(i,j)}为包含车辆的原始图像,则将{Iq(i,j)}中框出的任意一个包含一辆车辆的矩形框记为t(xq,yq,hq,wq);其中,Q≥5,q为正整数,1≤q≤Q,1≤i≤W,1≤j≤H,W表示{Iq(i,j)}的宽度,H表示{Iq(i,j)}的高度,Iq(i,j)表示{Iq(i,j)}中坐标位置为(i,j)的像素点的像素值,xq表示t(xq,yq,hq,wq)的中心像素点的横坐标,yq表示t(xq,yq,hq,wq)的中心像素点的纵坐标,hq表示t(xq,yq,hq,wq)的高,wq表示t(xq,yq,hq,wq)的宽;
步骤①_2:将图像集中的每幅原始图像输入到神经网络中的Squeezenet网络框架中,输出图像集中的每幅原始图像的多幅特征图,将{Iq(i,j)}的第k幅特征图记为然后将图像集中的每幅原始图像的每幅特征图输入到神经网络中的基于区域推荐网络的网络层中,输出图像集中的每幅原始图像的每幅特征图对应的前N个可能性最大的包含车辆的建议窗口,将对应的第n个可能性最大的包含车辆的建议窗口记为其中,k为正整数,1≤k≤K,K表示图像集中的每幅原始图像的特征图的总幅数,K>1,符号为向上取整运算符号,的宽度为的高度为表示中坐标位置为(i',j')的像素点的像素值,N>1,n为正整数,1≤n≤N,的宽度为的高度为表示中坐标位置为(i',j')的像素点的像素值;
步骤①_3:将图像集中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到神经网络中的感兴趣区域池化层中,输出图像集中的每幅原始图像对应的M幅感兴趣区域图像,将{Iq(i,j)}对应的第m幅感兴趣区域图像记为其中,M>1,m为正整数,1≤m≤M,的宽度为的高度为 表示中坐标位置为(i',j')的像素点的像素值;
步骤①_4:将图像集中的每幅原始图像对应的每幅感兴趣区域图像输入到神经网络中的全连接层中,输出图像集中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像,将{Iq(i,j)}对应的所有感兴趣区域图像通过神经网络中的全连接层映射到{Iq(i,j)}上形成的包含特征信息的图像记为然后将图像集中的每幅原始图像上形成的包含特征信息的图像输入到神经网络中的多分类层中,输出图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,分类得分的范围为0~1;接着根据图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定图像集中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,若的分类得分大于或等于0.8,则判定包含车辆,若的分类得分小于0.8,则判定不包含车辆;之后采用线性回归方式在图像集范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框,假设包含车辆,则将中框出的任意一个包含一辆车辆的矩形框记为再计算图像集中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值,将{Iq(i,j)}与的损失函数值记为L(p*,k*,t,t*),L(p*,k*,t,t*)=Lcls(p*,k*)+λ×Loc(t,t*), 其中,的宽度为W,的高度为H,表示中坐标位置为(i,j)的像素点的像素值,表示的中心像素点的横坐标,表示的中心像素点的纵坐标,表示的高,表示的宽,p*表示是否包含车辆的标记,包含车辆时p*=1,不包含车辆时p*=0,k*表示分类的个数,k*=2,t代表t(xq,yq,hq,wq),t*代表λ表示常数,e表示自然基数,
步骤①_5:按大小对步骤①_4得到的Q个损失函数值进行排序;然后将值最大的L个损失函数值对应的原始图像构成疑难样本集合;接着将疑难样本集合中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到神经网络中的感兴趣区域池化层中,输出疑难样本集合中的每幅原始图像对应的M幅感兴趣区域图像;之后将疑难样本集合中的每幅原始图像对应的每幅感兴趣区域图像输入到神经网络中的全连接层中,输出疑难样本集合中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像;将疑难样本集合中的每幅原始图像上形成的包含特征信息的图像输入到神经网络中的多分类层中,输出疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分;根据疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定疑难样本集合中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,分类得分大于或等于0.8时判定包含车辆,分类得分小于0.8时判定不包含车辆;再采用线性回归方式在疑难样本集合范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框;最后计算疑难样本集合中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值;至此得到疑难样本集合中的所有原始图像对应的损失函数值与图像集中排除疑难样本集合外的所有原始图像对应的损失函数值共Q个损失函数值,并构成损失函数值子集;其中,1<L<Q;
步骤①_6:重复执行步骤①_1至步骤①_5共V次,训练得到神经网络模型,并将V个损失函数值子集中共Q×V个损失函数值中的最小损失函数值对应的权值矢量和偏置项对应作为神经网络模型的最优权值矢量和最优偏置项,对应记为Wbest和bbest;其中,V>1;
所述的测试阶段过程的具体步骤如下:
步骤②_2:将输入到训练阶段过程得到的神经网络模型中,并利用Wbest和bbest进行测试,若神经网络模型无输出,则认为不包含车辆;若神经网络模型输出测试结果:上形成的包含特征信息的图像的分类得分及上形成的包含特征信息的图像中框出的每辆车辆的多个矩形框,则认为包含车辆,然后利用Soft-nms算法对上形成的包含特征信息的图像包含的每辆车辆的多个矩形框进行筛选,使上形成的包含特征信息的图像包含的每辆车辆仅由一个矩形框框出,得到的每个矩形框的具体位置即为中检测出的每辆车辆的具体位置。
与现有技术相比,本发明的优点在于:
1)本发明方法利用神经网络中的Squeezenet网络框架用于提取图像的多幅特征图,能在保证特征图提取精度的前提下通过多尺度的卷积核(如3×3和1×1两种尺寸的卷积核),有效地减少训练过程中的神经网络的拟合参数个数,从而提高了本发明方法的运算性能。
2)本发明方法通过对神经网络中的感兴趣区域池化层输出的感兴趣区域图像对应的损失函数值进行排序,对于疑难样本集合进行再学习,保证了训练过程中样本学习的充分率,利于提高检测精度。
3)本发明方法最后输出车辆的具体位置时,考虑到可能会出现重叠的矩形框的存在性,通过soft-nms算法有效减少了重叠的矩形框的存在。
4)本发明方法利用了神经网络自主学习的特性,对于车辆检测中常见的尺度变化、姿态变化等问题具有一定的抗干扰性。
附图说明
图1为本发明方法的总体实现框图;
图2a为测试集中的其中一幅待检测图像(有重叠车辆)的测试结果;
图2b为测试集中的另一幅待检测图像(车辆小尺度)的测试结果。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种车辆检测方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程。
所述的训练阶段过程的具体步骤如下:
步骤①_1:选取包含车辆的原始图像和不包含车辆的原始图像共Q幅原始图像,并构成图像集,将图像集中的第q幅原始图像记为{Iq(i,j)};然后将图像集中的每幅包含车辆的原始图像中的每辆车辆用矩形框人工框出,假设{Iq(i,j)}为包含车辆的原始图像,则将{Iq(i,j)}中框出的任意一个包含一辆车辆的矩形框记为t(xq,yq,hq,wq);其中,Q≥5,如取Q=100,包含车辆的原始图像与不包含车辆的原始图像的比率为4:1~6:1,即若共选择Q=6幅原始图像,则选取包含车辆的原始图像5幅,选取不包含车辆的原始图像1幅,q为正整数,1≤q≤Q,1≤i≤W,1≤j≤H,W表示{Iq(i,j)}的宽度,H表示{Iq(i,j)}的高度,Iq(i,j)表示{Iq(i,j)}中坐标位置为(i,j)的像素点的像素值,xq表示t(xq,yq,hq,wq)的中心像素点的横坐标,yq表示t(xq,yq,hq,wq)的中心像素点的纵坐标,hq表示t(xq,yq,hq,wq)的高,wq表示t(xq,yq,hq,wq)的宽。
步骤①_2:由于神经网络中的Squeezenet网络框架在不牺牲精度的前提条件下可以减少必需的参数个数,能有效提高计算效率,因此本发明将图像集中的每幅原始图像输入到现有的神经网络中的Squeezenet网络框架中,输出图像集中的每幅原始图像的多幅特征图,将{Iq(i,j)}的第k幅特征图记为然后将图像集中的每幅原始图像的每幅特征图输入到现有的神经网络中的基于区域推荐网络(Region Proposal Networks,RPN)的网络层中,输出图像集中的每幅原始图像的每幅特征图对应的前N个可能性最大的包含车辆的建议窗口,每幅特征图对应有超过N个的包含车辆的建议窗口,选择可能性最大的前N个包含车辆的建议窗口,将对应的第n个可能性最大的包含车辆的建议窗口记为其中,k为正整数,1≤k≤K,K表示图像集中的每幅原始图像的特征图的总幅数,K>1,在本实施例中取K=64, 符号为向上取整运算符号,的宽度为的高度为表示中坐标位置为(i',j')的像素点的像素值,N>1,在本实施例中取N=300,n为正整数,1≤n≤N,的宽度为 的高度为表示中坐标位置为(i',j')的像素点的像素值。
步骤①_3:将图像集中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到现有的神经网络中的感兴趣区域(ROI)池化层中,输出图像集中的每幅原始图像对应的M幅感兴趣区域图像,将{Iq(i,j)}对应的第m幅感兴趣区域图像记为其中,M>1,m为正整数,1≤m≤M,的宽度为 的高度为表示中坐标位置为(i',j')的像素点的像素值。
步骤①_4:将图像集中的每幅原始图像对应的每幅感兴趣区域图像输入到现有的神经网络中的全连接层中,输出图像集中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像,将{Iq(i,j)}对应的所有感兴趣区域图像通过神经网络中的全连接层映射到{Iq(i,j)}上形成的包含特征信息的图像记为然后将图像集中的每幅原始图像上形成的包含特征信息的图像输入到现有的神经网络中的多分类层中,输出图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,分类得分的范围为0~1;接着根据图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定图像集中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,若的分类得分大于或等于0.8,则判定包含车辆,若的分类得分小于0.8,则判定不包含车辆;之后采用现有的线性回归方式在图像集范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框,假设包含车辆,则将中框出的任意一个包含一辆车辆的矩形框记为再计算图像集中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值,将{Iq(i,j)}与的损失函数值记为L(p*,k*,t,t*),L(p*,k*,t,t*)=Lcls(p*,k*)+λ×Loc(t,t*),
其中,的宽度为W,的高度为H,表示中坐标位置为(i,j)的像素点的像素值,表示的中心像素点的横坐标,表示的中心像素点的纵坐标,表示的高,表示的宽,p*表示是否包含车辆的标记,包含车辆时p*=1,不包含车辆时p*=0,k*表示分类的个数,k*=2,t代表t(xq,yq,hq,wq),t*代表λ表示常数,在本实施例中取λ=1,e表示自然基数,
步骤①_5:通过步骤①_4中的损失函数值的计算,发现有疑难样本的存在,这些疑难样本具有损失函数值较高的特点,因此按大小对步骤①_4得到的Q个损失函数值进行排序;然后将值最大的L个损失函数值对应的原始图像构成疑难样本集合;接着将疑难样本集合中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到现有的神经网络中的感兴趣区域(ROI)池化层中,输出疑难样本集合中的每幅原始图像对应的M幅感兴趣区域图像;之后将疑难样本集合中的每幅原始图像对应的每幅感兴趣区域图像输入到现有的神经网络中的全连接层中,输出疑难样本集合中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像;将疑难样本集合中的每幅原始图像上形成的包含特征信息的图像输入到现有的神经网络中的多分类层中,输出疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分;根据疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定疑难样本集合中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,分类得分大于或等于0.8时判定包含车辆,分类得分小于0.8时判定不包含车辆;再采用现有的线性回归方式在疑难样本集合范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框;最后计算疑难样本集合中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值;至此得到疑难样本集合中的所有原始图像对应的损失函数值与图像集中排除疑难样本集合外的所有原始图像对应的损失函数值共Q个损失函数值,并构成损失函数值子集;其中,1<L<Q,在本实施例中取L=600,损失函数值的计算方式与步骤①_4中的损失函数值的计算方式相同。
步骤①_6:重复执行步骤①_1至步骤①_5共V次,训练得到神经网络模型,并将V个损失函数值子集中共Q×V个损失函数值中的最小损失函数值对应的权值矢量和偏置项对应作为神经网络模型的最优权值矢量和最优偏置项,对应记为Wbest和bbest;其中,V>1,在本实施例中取V=2000。
所述的测试阶段过程的具体步骤如下:
步骤②_2:将输入到训练阶段过程得到的神经网络模型中,并利用Wbest和bbest进行测试,若神经网络模型无输出,则认为不包含车辆;若神经网络模型输出测试结果:上形成的包含特征信息的图像的分类得分及上形成的包含特征信息的图像中框出的每辆车辆的多个矩形框,则认为包含车辆,然后利用现有的Soft-nms算法对上形成的包含特征信息的图像包含的每辆车辆的多个矩形框进行筛选,使上形成的包含特征信息的图像包含的每辆车辆仅由一个矩形框框出,得到的每个矩形框的具体位置即为中检测出的每辆车辆的具体位置。
由于现有的线性回归方式对于同一位置的同一辆车辆会输出多个重叠的矩形框,通常利用现有的非极大值抑制(Non Maximum Suppression,NMS)算法对检测获得的多个矩形框进行筛选,只保留覆盖面积最广的一个矩形框,然而一幅待检测图像中可能存在两辆甚至多辆车辆相互位置重叠的情况,此时若只通过现有的非极大值抑制算法会出现漏检的情况,考虑到此种情况,因此本发明利用现有的Soft-nms算法进行矩形框筛选,这样有效地提高了检测精度。
为了验证本发明方法的可行性与有效性,进行如下实验。
选用KITTI官网提供的数据集作为测试集,通过对测试集中的每幅待检测图像进行一定的格式处理之后,将测试集中的每幅待检测图像输入到卷积神经网络模型中,并利用Wbest和bbest进行测试,得到测试结果。图2a给出了测试集中的其中一幅待检测图像(有重叠车辆)的测试结果,图2b给出了测试集中的另一幅待检测图像(车辆小尺度)的测试结果。图2a和图2b中的“car detections with p(car|box)>=0.8”表示分类得分值大于或等于0.8。从图2a和图2b中可以看出,当待检测图像存在不同问题时,如车辆重叠、车辆尺寸较小等,利用本发明方法都能够很好地检测到车辆信息,针对视角不同的车辆也能精确地检测出来,对于复杂情况具有一定的抗干扰性。
Claims (1)
1.一种车辆检测方法,其特征在于包括训练阶段和测试阶段两个过程;
所述的训练阶段过程的具体步骤如下:
步骤①_1:选取包含车辆的原始图像和不包含车辆的原始图像共Q幅原始图像,并构成图像集,将图像集中的第q幅原始图像记为{Iq(i,j)};然后将图像集中的每幅包含车辆的原始图像中的每辆车辆用矩形框框出,假设{Iq(i,j)}为包含车辆的原始图像,则将{Iq(i,j)}中框出的任意一个包含一辆车辆的矩形框记为t(xq,yq,hq,wq);其中,Q≥5,q为正整数,1≤q≤Q,1≤i≤W,1≤j≤H,W表示{Iq(i,j)}的宽度,H表示{Iq(i,j)}的高度,Iq(i,j)表示{Iq(i,j)}中坐标位置为(i,j)的像素点的像素值,xq表示t(xq,yq,hq,wq)的中心像素点的横坐标,yq表示t(xq,yq,hq,wq)的中心像素点的纵坐标,hq表示t(xq,yq,hq,wq)的高,wq表示t(xq,yq,hq,wq)的宽;
步骤①_2:将图像集中的每幅原始图像输入到神经网络中的Squeezenet网络框架中,输出图像集中的每幅原始图像的多幅特征图,将{Iq(i,j)}的第k幅特征图记为然后将图像集中的每幅原始图像的每幅特征图输入到神经网络中的基于区域推荐网络的网络层中,输出图像集中的每幅原始图像的每幅特征图对应的前N个可能性最大的包含车辆的建议窗口,将对应的第n个可能性最大的包含车辆的建议窗口记为其中,k为正整数,1≤k≤K,K表示图像集中的每幅原始图像的特征图的总幅数,K>1,符号为向上取整运算符号,的宽度为 的高度为 表示中坐标位置为(i',j')的像素点的像素值,N>1,n为正整数,1≤n≤N,的宽度为 的高度为 表示中坐标位置为(i',j')的像素点的像素值;
步骤①_3:将图像集中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到神经网络中的感兴趣区域池化层中,输出图像集中的每幅原始图像对应的M幅感兴趣区域图像,将{Iq(i,j)}对应的第m幅感兴趣区域图像记为其中,M>1,m为正整数,1≤m≤M,的宽度为 的高度为 表示中坐标位置为(i',j')的像素点的像素值;
步骤①_4:将图像集中的每幅原始图像对应的每幅感兴趣区域图像输入到神经网络中的全连接层中,输出图像集中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像,将{Iq(i,j)}对应的所有感兴趣区域图像通过神经网络中的全连接层映射到{Iq(i,j)}上形成的包含特征信息的图像记为然后将图像集中的每幅原始图像上形成的包含特征信息的图像输入到神经网络中的多分类层中,输出图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,分类得分的范围为0~1;接着根据图像集中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定图像集中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,若的分类得分大于或等于0.8,则判定包含车辆,若的分类得分小于0.8,则判定不包含车辆;之后采用线性回归方式在图像集范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框,假设包含车辆,则将中框出的任意一个包含一辆车辆的矩形框记为再计算图像集中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值,将与的损失函数值记为L(p*,k*,t,t*),L(p*,k*,t,t*)=Lcls(p*,k*)+λ×Loc(t,t*), 其中,的宽度为W,的高度为H,表示中坐标位置为(i,j)的像素点的像素值,表示的中心像素点的横坐标,表示的中心像素点的纵坐标,表示的高,表示的宽,p*表示是否包含车辆的标记,包含车辆时不包含车辆时p*=0,k*表示分类的个数,k*=2,t代表t(xq,yq,hq,wq),t*代表λ表示常数,e表示自然基数, 符号“||”为取绝对值符号;
步骤①_5:按大小对步骤①_4得到的Q个损失函数值进行排序;然后将值最大的L个损失函数值对应的原始图像构成疑难样本集合;接着将疑难样本集合中的每幅原始图像的所有特征图及其对应的所有建议窗口输入到神经网络中的感兴趣区域池化层中,输出疑难样本集合中的每幅原始图像对应的M幅感兴趣区域图像;之后将疑难样本集合中的每幅原始图像对应的每幅感兴趣区域图像输入到神经网络中的全连接层中,输出疑难样本集合中的每幅原始图像对应的所有感兴趣区域图像通过神经网络中的全连接层映射到该原始图像上形成的包含特征信息的图像;将疑难样本集合中的每幅原始图像上形成的包含特征信息的图像输入到神经网络中的多分类层中,输出疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分;根据疑难样本集合中的每幅原始图像上形成的包含特征信息的图像的分类得分,判定疑难样本集合中的每幅原始图像上形成的包含特征信息的图像是否包含车辆,分类得分大于或等于0.8时判定包含车辆,分类得分小于0.8时判定不包含车辆;再采用线性回归方式在疑难样本集合范围内判定为包含车辆的包含特征信息的图像中框出包含每辆车辆的矩形框;最后计算疑难样本集合中的每幅原始图像与其上形成的包含特征信息的图像的损失函数值;至此得到疑难样本集合中的所有原始图像对应的损失函数值与图像集中排除疑难样本集合外的所有原始图像对应的损失函数值共Q个损失函数值,并构成损失函数值子集;其中,1<L<Q;
步骤①_6:重复执行步骤①_1至步骤①_5共V次,训练得到神经网络模型,并将V个损失函数值子集中共Q×V个损失函数值中的最小损失函数值对应的权值矢量和偏置项对应作为神经网络模型的最优权值矢量和最优偏置项,对应记为Wbest和bbest;其中,V>1;
所述的测试阶段过程的具体步骤如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810498277.XA CN108932471B (zh) | 2018-05-23 | 2018-05-23 | 一种车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810498277.XA CN108932471B (zh) | 2018-05-23 | 2018-05-23 | 一种车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108932471A CN108932471A (zh) | 2018-12-04 |
CN108932471B true CN108932471B (zh) | 2020-06-26 |
Family
ID=64449646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810498277.XA Active CN108932471B (zh) | 2018-05-23 | 2018-05-23 | 一种车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108932471B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711325B (zh) * | 2018-12-25 | 2023-05-23 | 华南农业大学 | 一种芒果采摘点识别方法 |
CN109615925A (zh) * | 2019-01-03 | 2019-04-12 | 上海钧正网络科技有限公司 | 基于视频监控的车辆停车控制方法、装置、系统及服务器 |
CN110348297B (zh) * | 2019-05-31 | 2023-12-26 | 纵目科技(上海)股份有限公司 | 一种用于识别立体停车库的检测方法、系统、终端和存储介质 |
CN112712012B (zh) * | 2020-12-29 | 2024-09-13 | 中通服公众信息产业股份有限公司 | 一种道路卡口车辆位置检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036323A (zh) * | 2014-06-26 | 2014-09-10 | 叶茂 | 一种基于卷积神经网络的车辆检测方法 |
CN107730904A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统 |
CN107972662A (zh) * | 2017-10-16 | 2018-05-01 | 华南理工大学 | 一种基于深度学习的车辆前向碰撞预警方法 |
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9514391B2 (en) * | 2015-04-20 | 2016-12-06 | Xerox Corporation | Fisher vectors meet neural networks: a hybrid visual classification architecture |
US10068171B2 (en) * | 2015-11-12 | 2018-09-04 | Conduent Business Services, Llc | Multi-layer fusion in a convolutional neural network for image classification |
-
2018
- 2018-05-23 CN CN201810498277.XA patent/CN108932471B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036323A (zh) * | 2014-06-26 | 2014-09-10 | 叶茂 | 一种基于卷积神经网络的车辆检测方法 |
CN107730904A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统 |
CN107972662A (zh) * | 2017-10-16 | 2018-05-01 | 华南理工大学 | 一种基于深度学习的车辆前向碰撞预警方法 |
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
Non-Patent Citations (2)
Title |
---|
Convolutional neural network for vehicle detection in low resolution traffic videos;BAUTISTA C M等;《IEEE region 10 symposium》;20161231;全文 * |
一种基于Faster_R_CNN的车辆检测算法;韩凯等;《西南科技大学学报》;20171231;第32卷(第4期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108932471A (zh) | 2018-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN111091105B (zh) | 基于新的边框回归损失函数的遥感图像目标检测方法 | |
CN110363182B (zh) | 基于深度学习的车道线检测方法 | |
CN108932471B (zh) | 一种车辆检测方法 | |
CN107657279B (zh) | 一种基于少量样本的遥感目标检测方法 | |
CN109118479B (zh) | 基于胶囊网络的绝缘子缺陷识别定位装置及方法 | |
CN109165623B (zh) | 基于深度学习的水稻病斑检测方法及系统 | |
CN111179217A (zh) | 一种基于注意力机制的遥感图像多尺度目标检测方法 | |
CN106408030B (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN107122776A (zh) | 一种基于卷积神经网络的交通标志检测与识别方法 | |
CN107038416B (zh) | 一种基于二值图像改进型hog特征的行人检测方法 | |
CN111640125A (zh) | 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置 | |
CN105809121A (zh) | 多特征协同的交通标志检测与识别方法 | |
CN104182985B (zh) | 遥感图像变化检测方法 | |
CN110599463B (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN108171119B (zh) | 基于残差网络的sar图像变化检测方法 | |
CN111738114B (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN111507227B (zh) | 基于深度学习的多学生个体分割及状态自主识别方法 | |
CN112488229A (zh) | 一种基于特征分离和对齐的域自适应无监督目标检测方法 | |
CN112668441B (zh) | 一种结合先验知识的卫星遥感影像飞机目标识别方法 | |
CN102087790A (zh) | 一种低空对地车辆检测与运动分析的方法和系统 | |
CN113096085A (zh) | 基于两阶段卷积神经网络的集装箱表面损伤检测方法 | |
CN106845458A (zh) | 一种基于核超限学习机的快速交通标识检测方法 | |
CN115147418A (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN105354547A (zh) | 一种结合纹理和彩色特征的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220623 Address after: Unit a2203e, innovation Plaza, No. 2007, Pingshan Avenue, Liulian community, Pingshan street, Pingshan District, Shenzhen, Guangdong 518118 Patentee after: Shenzhen Muye Microelectronics Technology Co.,Ltd. Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY |
|
TR01 | Transfer of patent right |