CN102509098B - 一种鱼眼图像车辆识别方法 - Google Patents

一种鱼眼图像车辆识别方法 Download PDF

Info

Publication number
CN102509098B
CN102509098B CN 201110299504 CN201110299504A CN102509098B CN 102509098 B CN102509098 B CN 102509098B CN 201110299504 CN201110299504 CN 201110299504 CN 201110299504 A CN201110299504 A CN 201110299504A CN 102509098 B CN102509098 B CN 102509098B
Authority
CN
China
Prior art keywords
prime
vehicle
axis
symmetry
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN 201110299504
Other languages
English (en)
Other versions
CN102509098A (zh
Inventor
程广涛
宋占杰
庞彦伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN 201110299504 priority Critical patent/CN102509098B/zh
Publication of CN102509098A publication Critical patent/CN102509098A/zh
Application granted granted Critical
Publication of CN102509098B publication Critical patent/CN102509098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种鱼眼图像车辆识别方法,属于车辆识别领域,所述方法包括以下步骤:用鱼眼摄像机获取鱼眼图像;对所述鱼眼图像进行校正,获取校正后鱼眼图像;以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;对所述车辆候选区域进行分类,识别车辆和非车辆。本发明通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。

Description

一种鱼眼图像车辆识别方法
技术领域
本发明涉及车辆识别领域,特别涉及一种鱼眼图像车辆识别方法,用于在智能交通系统中有效地进行交通路况监测和避免交通事故发生。
背景技术
随着车辆的不断增多,通过对车辆进行计算机信息化、智能化的管理成为必然,车辆识别技术是智能交通系统的重要组成部分,广泛应用在交通自动管理系统和车辆辅助驾驶系统中。长期以来,各国研究机构对车辆识别技术在不断改进,对识别率的要求也在不断提高。车辆识别技术主要有以下两类方法:
一种方法是基于模板匹配的方法,这种方法利用预先定义的车辆模板,建立图像中的车辆和模板的关系。常见的模板匹配方法认为车辆具有“U”型样式,如果在候选区域中有“U”型样式出现就认为图像中有车辆存在。基于模板匹配的方法简单,计算速度快,但是由于道路上存在和车辆样式相近的物体,因此误识别率较高。
另外一种方法是基于特征的方法。这种方法对大量的训练样本进行特征提取,根据车辆和非车辆特征来建立一个最优决策边界对车辆和非车辆进行分类。在特征提取阶段常见的方法有主元分析法(PCL),Haar小波特征提取法,Gabor特征提取法等。在分类器设计阶段,常见的分类器有支持向量机(SVM),AdaBoost和基于神经网络(NN)的分类器等。基于特征的车辆识别方法有很好的识别性能,但计算过程相对复杂,有待于在实时性方面进一步改进。
发明内容
本发明要解决的技术问题在于提供一种鱼眼图像车辆识别方法,该方法降低了误识别率、计算过程的复杂度,实时的对车辆进行识别,详见下文描述:
一种鱼眼图像车辆识别方法,所述方法包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对所述鱼眼图像进行校正,获取校正后鱼眼图像;
103:以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
104:对所述车辆候选区域进行分类,识别车辆和非车辆;
其中,步骤102中所述对所述鱼眼图像进行校正,获取校正后鱼眼图像具体为:
建立校正图像坐标系中点(u′,v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x′,y′,z′)转换到世界坐标系中点(x,y,z);其中
R wc 1 ′ = cos γ ′ sin γ ′ 0 - sin γ ′ cos γ ′ 0 0 0 1 × cos β ′ 0 - sin β ′ 0 1 0 sin β ′ 0 cos β ′ × 1 0 0 0 cos α ′ sin α ′ 0 - sin α ′ cos α ′
R′cw1=R′wc1 -1
根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x″,y″,z″);其中
R wc 2 ′ ′ = cos γ ′ ′ sin γ ′ ′ 0 - sin γ ′ ′ cos γ ′ ′ 0 0 0 1 × cos β ′ ′ 0 - sin β ′ ′ 0 1 0 sin β ′ ′ 0 cos β ′ ′ × 1 0 0 0 cos α ′ ′ sin α ′ ′ 0 - sin α ′ ′ cos α ′ ′
通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x″,y″,z″)到鱼眼相机平面(u″,v″)的映射关系,获取所述校正后鱼眼图像;其中
G = 1 z ′ ′ 1 dx ′ ′ 0 u 0 ′ ′ 0 1 dy ′ ′ v 0 ′ ′ 0 0 1 f ′ ′ 0 0 0 0 f ′ ′ 0 0 0 0 1 0
鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
1 u ′ ′ v ′ ′ = f ′ · G · R wc 2 ′ ′ · R cw 1 ′ · cos ( ( u ′ - u 0 ′ ) · dθ ) - sin ( ( u ′ - u 0 ′ ) · dθ ) ( v ′ - v 0 ′ ) · d y ′ f ′ ;
其中,步骤103中所述以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域具体为:
(1)判断所述校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天;否则车辆当前环境为夜晚;
(2)当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
提取车辆阴影,其中,设R表示垂直方向的对比敏感度值
Figure BDA0000096537680000031
Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为车辆阴影点,获取车辆阴影点的二值图;
计算实际车辆阴影在图像中的像素宽度,对所述校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离,设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,获取车辆阴影在图像中的最小像素宽度和最大像素宽度;
PixelWidth = Rwidth × f Z × dx
其中,PixelWidth是车辆阴影的像素宽度,f是鱼眼摄像机的焦距,dx是径向畸变系数;车辆阴影在图像中的最小像素宽度和最大像素宽度;
对所述粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
T = Σ j = 1 w min 1 ≤ i ≤ h ( V i , j ) w
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度;在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边;
计算所述粗分割区域的二值轮廓对称轴;
计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
对所述二值轮廓对称轴、所述灰度对称轴和所述S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对垂直边缘进行垂直投影,结合车辆对称轴的位置确定车辆左右边缘;
(3)当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
对所述粗分割区域进行中值滤波处理,用最大类间方差法产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,(i=1,2,K,p),将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),所述组合规则具体为:
两个连通区域的中心连线是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
一般取Thar为2;
确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用所述阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘;
其中,
T max = 1 N Σ Row = 1 Height ( Σ Col = 1 Width SearchRegion ( Row , Col ) )
T min = min Col = 1 Width ( min Row = 1 Height ( SearchRegion ( Row , Col ) ) )
Height,Width表示搜索范围的高和宽,N=Width×Height。
所述计算所述粗分割区域的二值轮廓对称轴具体为:
(a)用Sobel算子在所述粗分割区域内抽取轮廓图像;
(b)设定所述粗分割区域内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在所述粗分割区域内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对所述粗分割区域内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取所述对称轴计数器数组A[col]中最大的元素,其所对应的列就是二值轮廓对称轴。
所述计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴具体包括:
(a)在所述粗分割区域内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr
(b)计算车底阴影的宽度W=Xr-Xl;按下述公式计算灰度对称轴或HSV色彩空间的S分量对称轴,
S ( j ) = Σ i = Row Row + H Σ Δx = 1 W / 2 Σ j = X l - Δk X r + Δk | P ( i , j ) + Δx - P ( i , j - Δx ) |
j sym = arg min j S ( j )
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴。
步骤104中的所述对车辆候选区域进行分类,识别车辆和非车辆具体为:
(1)在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
(2)把所述Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
(3)利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,(i=1,2,…,Q),梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,(i=1,2,…,Q),梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
(4)将所述车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…+a2,QV2,Q
(5)通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
(6)定义一个指标函数
Figure BDA0000096537680000061
Figure BDA0000096537680000062
在稀疏系数
Figure BDA0000096537680000063
中选取与第i类有关的指标,保留这些指标对应的元素值,其他指标对应的元素值都设置为0,即 T 1 ( x ^ ) = [ a 1,1 , a 1,2 , . . . , a 1 , Q , 0,0 , . . . , 0 ] , T 2 ( x ^ ) = [ 0,0 , . . . , 0 , a 2 , 1 , a 2 , 2 , . . . , a 2 , Q ] ;
(7)根据i=1,2计算残差,若r1<r2,则测试样本为车辆样本;否则测试样本为非车辆样本。
所述通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数具体为:
(a)初始化稀疏系数x0=0,残差r0=y,迭代次数s=1,稀疏系数中非零元素对应的指标集
Figure BDA0000096537680000067
(b)在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤(f).
(c)选择cs中元素绝对值大于某个阈值所对应的指标集合,即Js={j:|c(j)|>tsσs},
其中n为残差rs-1向量长度,ts根据具体情况
在2到3间取值,即2≤ts≤3;
(d)更新估计的指标集合Λs=Λs-1∪Js
(e)在指标集合Λs下的稀疏表示为
Figure BDA0000096537680000069
其中(xss表示在xs中指标不属于Λs的元素都为零;
(f)更新残差rs=y-Axs
(g)如果||rs||2≤10-3,||rs||2是向量rs的2范数,令y在基矩阵A下的稀疏表示
Figure BDA00000965376800000610
终止迭代;否则,令s=s+1,重复步骤(b)到(g),稀疏系数记为 x ^ = [ a 1,1 , a 1,2 , . . . , a 1 , Q , a 2,1 , a 2,2 , . . . , a 2 , Q ] .
本发明提供的一种鱼眼图像车辆识别方法,与现有技术相比具有如下的优点:
鱼眼图像可以提供比正常图像更加丰富的信息,基于柱面模型的鱼眼图像校正方法可以有效地完成图像校正,恢复真实场景中的水平边缘和垂直边缘信息,为后续的车辆识别提供可靠的保障;通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。
附图说明
图1为本发明提供的一种鱼眼图像车辆识别方法的流程图;
图2为本发明提供的鱼眼图像校正流程图;
图3为本发明提供的车辆候选区域的示意图;
图4为本发明提供的识别车辆和非车辆的示意图;
图5-1和图5-2为本发明提供的车辆样本梯度向量在基矩阵下的稀疏解示意图;
图6-1和图6-2为本发明提供的非车辆样本梯度向量在基矩阵下的稀疏解示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
压缩采样理论是近几年出现的一种新颖的理论。它可以在采样信号的同时对数据进行适当的压缩,在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩采样理论具有巨大的吸引力和应用前景,它的应用研究已经涉及到众多领域,如CS雷达、图像处理、生物传感和模式识别等。它可以通过对要识别的目标进行稀疏表示,根据所得到的最稀疏解直接进行分类。这样对车辆识别技术在识别率和实时性方面都有很大改进。
参见图1,一种鱼眼图像车辆识别方法,该方法主要包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对鱼眼图像进行校正,获取校正后鱼眼图像;
其中,通过对鱼眼图像进行校正恢复人眼对真实场景的正确理解,参见图2,该步骤具体包括:
以相机光心为原点,建立世界坐标系O,X轴指向车辆前方,Z轴指向地面。建立校正后图像坐标系O′,其各轴角度位置由世界坐标系分别绕X轴旋转α′,绕Y轴旋转β′,绕Z轴旋转γ′得到。建立图像拍摄时的鱼眼摄像机坐标系O″,其各轴角度位置由世界坐标系分别绕X轴旋转α″,绕Y轴旋转β″,绕Z轴旋转γ″得到。设校正相机平面为O(u′,v′),中心所在的空间位置在O′中坐标为(f′,u′0,v′0),实际相机平面为O(u″,v″),中心所在的空间位置在O″中坐标为(f″,u″0,v″0),设两个成像平面的分辨率分别为dx′,dy′与dx″,dy″。校正的关键是建立(u″,v″)与(u′,v′)之间的映射。
图像经过柱面展开校正之后,柱面展开图展开角度间隔dθ为:
Figure BDA0000096537680000081
其中f为相机焦距。
(1)建立校正图像坐标系中点(u′,v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
(2)根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x′,y′,z′)转换到世界坐标系中点(x,y,z);其中
R wc 1 ′ = cos γ ′ sin γ ′ 0 - sin γ ′ cos γ ′ 0 0 0 1 × cos β ′ 0 - sin β ′ 0 1 0 sin β ′ 0 cos β ′ × 1 0 0 0 cos α ′ sin α ′ 0 - sin α ′ cos α ′
R′cw1=R′wc1 -1
(3)根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x″,y″,z″);其中
R wc 2 ′ ′ = cos γ ′ ′ sin γ ′ ′ 0 - sin γ ′ ′ cos γ ′ ′ 0 0 0 1 × cos β ′ ′ 0 - sin β ′ ′ 0 1 0 sin β ′ ′ 0 cos β ′ ′ × 1 0 0 0 cos α ′ ′ sin α ′ ′ 0 - sin α ′ ′ cos α ′ ′
(4)通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x″,y″,z″)到鱼眼相机平面(u″,v″)的映射关系,获取校正后鱼眼图像;其中
G = 1 z ′ ′ 1 dx ′ ′ 0 u 0 ′ ′ 0 1 dy ′ ′ v 0 ′ ′ 0 0 1 f ′ ′ 0 0 0 0 f ′ ′ 0 0 0 0 1 0
联立上面的等式,就可以得到鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
1 u ′ ′ v ′ ′ = f ′ · G · R wc 2 ′ ′ · R cw 1 ′ · cos ( ( u ′ - u 0 ′ ) · dθ ) - sin ( ( u ′ - u 0 ′ ) · dθ ) ( v ′ - v 0 ′ ) · d y ′ f ′ - - - ( 1 )
通过图像校正公式(1)建立了鱼眼图像坐标和校正平面坐标的映射关系,进而完成鱼眼图像校正任务,来恢复人眼对真实场景的正确理解。上述实施方案算法简单,校正后信息损失小,有效地保持了真实场景中的水平和垂直边缘,为后续的车辆假设验证和车辆假设产生提供可靠保证。
103:以校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
参照附图3,鱼眼图像校正后,以校正后鱼眼图像为基础进行车辆假设产生步骤,针对当前环境是白天还是夜晚采用不同的车辆假设产生方法。
判断校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天,否则车辆当前环境为夜晚。
当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
(1)提取车辆阴影;
由于车辆阴影区域和相邻的道路区域有比较明显的灰度变化,利用对比敏感度来提取阴影。
其中,设R表示垂直方向的对比敏感度值
Figure BDA0000096537680000092
Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为可能的车辆阴影点,这样可以得到表示车辆阴影点的二值图。
(2)计算实际车辆阴影在图像中的像素宽度,对校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离。根据鱼眼摄像机的成像原理,可以计算出车辆阴影点和鱼眼摄像机之间的距离Z。设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,车辆阴影在图像中的像素宽度表示如下:
PixelWidth = Rwidth × f Z × dx - - - ( 2 )
其中,PixelWidth是车辆阴影的像素宽度,Z是车辆与车辆阴影的实际距离,f是鱼眼摄像机的焦距,dx是径向畸变系数。现实场景中要求在世界坐标系中车辆的最小宽度为1.2m,最大宽度为2.8m。因此通过上面的公式(2),可以得到车辆阴影在图像中的最小像素宽度和最大像素宽度。
对校正后鱼眼图像可能的车辆区域进行粗分割,利用检测到的连续的车辆阴影点做为粗分割区域的下边,车辆阴影点的两端做为粗分割区域的左右两边。得到的粗分割区域缩小了进行车辆假设产生的图像区域,提高车辆分割的速度和准确率。
(3)对粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
其中,通过对粗分割区域进行直方图均衡化处理,使得车底阴影区域的灰度值比其他区域更低,利用粗分割区域的图像灰度值来形成阴影检测的一个阈值:
T = Σ j = 1 w min 1 ≤ i ≤ h ( V i , j ) w - - - ( 3 )
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度。定义粗分割区域的灰度值小于T的点为车底阴影点。再根据鱼眼摄像机成像原理,车底边缘所在的行不同,得到不同的阴影长度阈值WT,然后在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边。这样就可以很准确的定位车辆下边缘。
(4)计算粗分割区域的二值轮廓对称轴;
其中,该步骤具体包括:
(a)用Sobel算子在粗分割区域ROI内抽取轮廓图像IMG;
(b)设定该粗分割区域ROI内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在粗分割区域ROI内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对粗分割区域ROI内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取对称轴计数器数组A[col]中最大的元素,其所对应的列就是二值轮廓对称轴。
(5)计算粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
其中,该步骤具体包括:
(a)在粗分割区域ROI内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr
(b)计算车底阴影的宽度W=Xr-Xl;按公式(4),(5)计算灰度对称轴或HSV色彩空间的S分量对称轴,
S ( j ) = Σ i = Row Row + H Σ Δx = 1 W / 2 Σ j = X l - Δk X r + Δk | P ( i , j ) + Δx - P ( i , j - Δx ) | - - - ( 4 )
j sym = arg min j S ( j ) - - - ( 5 )
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴。
(6)对二值轮廓对称轴、灰度对称轴和S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
二值轮廓对称的优点是不容易受光照的影响,但是二值轮廓对称容易受背景等噪声的影响,如电线杆、树木、楼房等;灰度对称性的优点是不容易受背景影响,但是灰度对称容易受光照的影响;HSV色彩空间是以色彩的色调(H),饱和度(S),亮度(V)为三要素表示的,是适合人的视觉特性的色彩空间。其中S分量是与材料特性有关的分量,受光照影响较小,但受车身颜色影响较大。因此有效地结合它们各自的信息进行融合,避免了使用各种对称轴的固有缺点,充分利用各自的优点,得到准确的对称轴位置,不易受外界因素干扰。
(7)通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对垂直边缘进行垂直投影,结合车辆对称轴的位置确定车辆左右边缘。
其中,粗分割区域内车辆的两边会形成较明显的波峰。然后,基于对称性约束进行边缘过滤,去掉关于车辆对称轴不对称的边缘点,这样就得到了一个更加简单对称的区域。在得到过滤后的垂直边缘图像后,在车辆对称轴的左右离开车辆对称轴一定范围的区域内分别投影,找出两个投影区域的最大值作为车辆的一个边缘,利用对称性得到另一个边缘,从而比较准确地定位车辆的左右边缘。
根据车辆下边缘和车辆左右边缘,确定车辆候选区域,完成车辆在白天环境下的车辆假设产生步骤,其得到的候选区域可能是车辆也可能是非车辆,需要车辆假设验证系统来对其进行验证。车辆的自身特征为车辆检测算法的研究提供了丰富的信息,针对于白天道路环境,使用车底阴影、对称性、垂直和水平边缘等多特征知识,并进行有效地融合,可以更加可靠准确地在图像中分割车辆。
参见图3,当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
(1)对粗分割区域进行中值滤波处理,用最大类间方差法(OTSU)[1]产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
其中,获取粗分割区域的方法和当前环境为白天时的获取方法一致,在此不再赘述。
(2)应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,(i=1,2,K,p),将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
通过该步骤去除了一些形状不合理的光亮目标物及去掉车辆头灯造成的尖刺,这样可以减少夜晚其他光源对车灯检测的干扰。
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),两个连通区域需要满足下面的组合规则才能被认为是一组车灯:
两个连通区域的中心连线几乎是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
一般取Thar为2。
(3)确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘。
其中,由于头灯光源照射地面,头灯照在地面在两个灯下形成区域比两灯中间区域要暗,会出现车底阴影区域。确定车底阴影的搜索范围,在搜索范围中计算阴影阈值
T max = 1 N Σ Row = 1 Height ( Σ Col = 1 Width SearchRegion ( Row , Col ) )
T min = min Col = 1 Width ( min Row = 1 Height ( SearchRegion ( Row , Col ) ) )
Height,Width表示搜索范围的高和宽,N=Width×Height。
在夜晚,白天车辆的特征变得模糊甚至消失,车辆头灯成为了车辆在夜晚环境下显著的视觉特征。上述在夜晚环境下的车辆假设产生方法,可以有效地排除其他光源对车灯检测的影响,提高了在夜晚环境下车辆分割的准确率。
104:对车辆候选区域进行分类,识别车辆和非车辆。
参见图4,上述的车辆分割结果即车辆候选区域,车辆候选区域中可能是车辆,也可能是和车辆特征非常相似的其他物体,下面的车辆假设验证步骤就是对车辆候选区域进行分类,来判断车辆候选区域中是否有车辆存在。本发明实施方案利用压缩采样理论对车辆分割结果进行车辆和非车辆的分类。
该步骤具体为:
S401:在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
S402:把Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
S403:利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,(i=1,2,…,Q),梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,(i=1,2,…,Q),梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
S404:将车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…a2,QV2,Q
S405:通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
其中,该步骤具体包括:
a.初始化稀疏系数x0=0,残差r0=y,迭代次数s=1,稀疏系数中非零元素对应的指标集
Figure BDA0000096537680000141
b.在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤f.
c.选择cs中元素绝对值大于某个阈值所对应的指标集合,即
Js={j:|c(j)|>tsσs},其中
Figure BDA0000096537680000142
n为残差rs-1向量长度,ts根据具体情况在2到3间取值,即2≤ts≤3;
d.更新估计的指标集合Λs=Λs-1∪Js
e.在指标集合Λs下的稀疏表示为其中(xss表示在xs中指标不属于Λs的元素都为零;
f.更新残差rs=y-Axs
g.如果||rs||2≤10-3,||rs||2是向量rs的2范数,令y在基矩阵A下的稀疏表示
Figure BDA0000096537680000144
终止迭代;否则,令s=s+1,重复步骤b到g。
这样就得到测试样本梯度向量y在基矩阵A下的稀疏系数,稀疏系数记为 x ^ = [ a 1,1 , a 1,2 , . . . , a 1 , Q , a 2,1 , a 2,2 , . . . , a 2 , Q ] .
参见图5-1、图5-2、图6-1和图6-2,通过上述方法求得的稀疏系数
Figure BDA0000096537680000146
非零元素很稀疏,而且非零项并没有分布在各类上,如果y表示车辆测试样本的梯度向量,则稀疏系数
Figure BDA0000096537680000147
非零项主要集中在车辆这类上;如果y表示非车辆测试样本的梯度向量,则稀疏系数
Figure BDA0000096537680000148
非零项主要集中在非车辆这类上。
S406:定义一个指标函数
Figure BDA0000096537680000149
Figure BDA00000965376800001410
在稀疏系数
Figure BDA00000965376800001411
中选取与第i类有关的指标,保留这些指标对应的元素值,其他指标对应的元素值都设置为0,即 T 1 ( x ^ ) = [ a 1,1 , a 1,2 , . . . , a 1 , Q , 0,0 , . . . , 0 ] , T 2 ( x ^ ) = [ 0,0 , . . . , 0 , a 2 , 1 , a 2 , 2 , . . . , a 2 , Q ] ;
S407:根据
Figure BDA00000965376800001414
i=1,2计算残差,若r1<r2,则测试样本为车辆样本;否则测试样本为非车辆样本。
下面以具体的试验来验证本发明实施例的可行性,详见下文描述:
为了验证本发明实施例的可行性,把本发明实施例与常见的最近邻法(NN)和支持向量机(SVM)车辆识别方法进行比较,在MATLAB环境下进行了仿真测试。利用鱼眼摄像机拍摄正常天气、雨天和夜晚环境下的道路视频,对各种天气情况下的道路视频图像进行矫正,采用多特征融合的方法对矫正后的视频图像进行车辆候选区域提取,从中选择350个车辆训练样本和350个非车辆训练样本,将训练样本和测试样本统一转换为大小为12×10的灰度图像,利用Sobel算子计算他们对应的梯度,按列排列为大小为120×1的梯度向量,然后再利用本发明实施例提供的识别方法求出测试样本对应的稀疏梯度向量,利用稀疏梯度向量完成车辆和非车辆的分类和识别。经过大量的实验比较,采用NN车辆识别方法达到的识别率是92.1%,采用SVM车辆识别方法的识别率是95.0%,采用本发明实施例识别率达到98.2%。因此本发明实施例和现有的车辆识别系统比较,分类算法简单,并且具有更高的识别率。
参考文献
[1]景晓军,蔡安妮,孙景鳌.一种基于二维最大类间方差的图像分割算法[J],通信学报,2001,22(4):71-76.
综上所述,本发明实施例提供了一种鱼眼图像车辆识别方法,鱼眼图像可以提供比正常图像更加丰富的信息,基于柱面模型的鱼眼图像校正方法可以有效地完成图像校正,恢复真实场景中的水平边缘和垂直边缘信息,为后续的车辆识别提供可靠的保障;通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种鱼眼图像车辆识别方法,其特征在于,所述方法包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对所述鱼眼图像进行校正,获取校正后鱼眼图像;
103:以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
104:对所述车辆候选区域进行分类,识别车辆和非车辆;
其中,步骤102中所述对所述鱼眼图像进行校正,获取校正后鱼眼图像具体为:
建立校正图像坐标系中点(u',v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x',y',z')转换到世界坐标系中点(x,y,z);其中
R wc 1 ′ = cos γ ′ sin γ ′ 0 - sin γ ′ cos γ ′ 0 0 0 1 × cos β ′ 0 - sin β ′ 0 1 0 sin β ′ 0 cos β ′ × 1 0 0 0 cos α ′ sin α ′ 0 - sin α ′ cos α ′
R′cw1=R′wc1 -1
根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x",y",z");其中
R wc 2 ′ ′ = cos γ ′ ′ sin γ ′ ′ 0 - sin γ ′ ′ cos γ ′ ′ 0 0 0 1 × cos β ′ ′ 0 - sin β ′ ′ 0 1 0 sin β ′ ′ 0 cos β ′ ′ × 1 0 0 0 cos α ′ ′ sin α ′ ′ 0 - sin α ′ ′ cos α ′ ′
通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x",y",z")到鱼眼相机平面(u",v")的映射关系,获取所述校正后鱼眼图像;其中
G = 1 z ′ ′ 1 d x ′ ′ 0 u 0 ′ ′ 0 1 d y ′ ′ v 0 ′ ′ 0 0 1 f ′ ′ 0 0 0 0 f ′ ′ 0 0 0 0 1 0
鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
1 u ′ ′ v ′ ′ = f ′ · G · R wc 2 ′ ′ · R cw 1 ′ · cos ( ( u ′ - u 0 ′ ) · dθ ) - sin ( ( u ′ - u 0 ′ ) · dθ ) ( v ′ - v 0 ′ ) · dy ′ f ′ ;
其中,建立校正后图像坐标系O′,其各轴角度位置由世界坐标系分别绕X轴旋转α',绕Y轴旋转β′,绕Z轴旋转γ'得到;建立图像拍摄时的鱼眼摄像机坐标系O″,其各轴角度位置由世界坐标系分别绕X轴旋转α",绕Y轴旋转β″,绕Z轴旋转γ"得到;设校正相机平面为O(u′,v′),中心所在的空间位置在O′中坐标为(f',u′0,v′0),实际相机平面为O(u",v"),中心所在的空间位置在O″中坐标为(f",u″0,v″0),设两个成像平面的分辨率分别为dx′,dy′与dx",dy";柱面展开图展开角度间隔dθ为:
Figure FDA00002875951600021
其中f为相机焦距;
其中,步骤103中所述以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域具体为:
(1)判断所述校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天;否则车辆当前环境为夜晚;
(2)当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
提取车辆阴影,其中,设R表示垂直方向的对比敏感度值
Figure FDA00002875951600022
Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为车辆阴影点,获取车辆阴影点的二值图;
计算实际车辆阴影在图像中的像素宽度,对所述校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离,设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,获取车辆阴影在图像中的最小像素宽度和最大像素宽度;
PixelWidth = Rwidth × f Z × dx
其中,PixelWidth是车辆阴影的像素宽度,f是鱼眼摄像机的焦距,dx是径向畸变系数;车辆阴影在图像中的最小像素宽度和最大像素宽度;
对所述粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
T = Σ j = 1 w min 1 ≤ i ≤ h ( V i , j ) w
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度;在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边;
计算所述粗分割区域的二值轮廓对称轴;
计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
对所述二值轮廓对称轴、所述灰度对称轴和所述S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对所述垂直边缘进行垂直投影,结合所述车辆对称轴的位置确定所述车辆左右边缘;
(3)当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
对所述粗分割区域进行中值滤波处理,用最大类间方差法产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,i=1,2,…,p,将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),所述组合规则具体为:
两个连通区域的中心连线是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用所述阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘;
其中, T max = 1 N Σ Row = 1 Height ( Σ Col = 1 Width SearchRegion ( Row , Col ) )
T min = min Col = 1 Width ( min Row = 1 Height ( SearchRegion ( Row , Col ) ) )
Height,Width表示搜索范围的高和宽,N=Width×Height;
其中,所述计算所述粗分割区域的二值轮廓对称轴具体为:
(a)用Sobel算子在所述粗分割区域内抽取轮廓图像;
(b)设定所述粗分割区域内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在所述粗分割区域内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对所述粗分割区域内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取所述对称轴计数器数组A[col]中最大的元素,其所对应的列就是所述二值轮廓对称轴;
其中,所述计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴具体包括:
(a)在所述粗分割区域内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr
(b)计算车底阴影的宽度W=Xr-Xl;按下述公式计算灰度对称轴或HSV色彩空间的S分量对称轴,
S ( j ) = &Sigma; i = Row Row + H &Sigma; &Delta;x = 1 W / 2 &Sigma; j = X l - &Delta;k X r + &Delta;k | P ( i , j + &Delta;x ) - P ( i , j - &Delta;x ) |
j sym = arg min j S ( j )
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴;
其中,步骤104中的所述对车辆候选区域进行分类,识别车辆和非车辆具体为:
(1)在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
(2)把所述Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
(3)利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,i=1,2,…,Q,梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,i=1,2,…,Q,梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
(4)将所述车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…+a2,QV2,Q
(5)通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
(6)定义一个指标函数
Figure FDA00002875951600051
Figure FDA00002875951600052
在稀疏系数
Figure FDA00002875951600053
中选取与第i类有关的指标,保留这些指标对应的元素值,其他指标对应的元素值都设置为0,即 T 1 ( x ^ ) = [ a 1,1 , a 1,2 , . . . , a 1 , Q , 0,0 , . . . , 0 ] , T 2 ( x ^ ) = [ 0,0 , . . . , 0 , a 2,1 , a 2,2 , . . . , a 2 , Q ] ;
(7)根据i=1,2计算残差,若r1<r2,则测试样本为车辆样本;否则测试样本为非车辆样本。
2.根据权利要求1所述的一种鱼眼图像车辆识别方法,其特征在于,所述通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数具体为:
(a)初始化稀疏系数x0=0,残差r0=y,迭代次数s=1,稀疏系数中非零元对应的指标集
Figure FDA00002875951600057
(b)在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤(f);
(c)选择cs中元素绝对值大于某个阈值所对应的指标集合,即Js={j:|c(j)|>tsσs},其中
Figure FDA00002875951600061
n为残差rs-1向量长度,ts根据具体情况在2到3间取值,即2≤ts≤3;
(d)更新估计的指标集合Λss-1∪Js
(e)在指标集合Λs下的稀疏表示为
Figure FDA00002875951600062
其中(xs)Δs表示在xs中指标不属于Λs的元素都为零;
(f)更新残差rs=y-Axs
(g)如果||rs||2≤10-3,||rs||2是向量rs的2范数,令y在基矩阵A下的稀疏表示
终止迭代;否则,令s=s+1,重复步骤(b)到(g),稀疏系数记为 x ^ = [ a 1,1 , a 1,2 , . . . , a 1 , Q , a 2,1 , a 2,2 , . . . , a 2 , Q ] .
CN 201110299504 2011-10-08 2011-10-08 一种鱼眼图像车辆识别方法 Active CN102509098B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110299504 CN102509098B (zh) 2011-10-08 2011-10-08 一种鱼眼图像车辆识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110299504 CN102509098B (zh) 2011-10-08 2011-10-08 一种鱼眼图像车辆识别方法

Publications (2)

Publication Number Publication Date
CN102509098A CN102509098A (zh) 2012-06-20
CN102509098B true CN102509098B (zh) 2013-05-15

Family

ID=46221179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110299504 Active CN102509098B (zh) 2011-10-08 2011-10-08 一种鱼眼图像车辆识别方法

Country Status (1)

Country Link
CN (1) CN102509098B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304750A (zh) * 2017-01-13 2018-07-20 比亚迪股份有限公司 前方车辆识别方法、装置及车辆

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456171B (zh) * 2013-09-04 2016-04-06 北京英泰智软件技术发展有限公司 一种基于鱼眼镜头的车流量检测系统、方法及图像校正方法
TWI521448B (zh) * 2014-03-18 2016-02-11 Univ Yuan Ze Vehicle identification system and method
US9437001B2 (en) * 2014-09-18 2016-09-06 Intel Corporation Tracking objects in bowl-shaped imaging systems
CN104463170A (zh) * 2014-12-04 2015-03-25 江南大学 一种卡口系统下基于多重检测的无牌车辆检测方法
CN105809131B (zh) * 2016-03-08 2019-10-15 宁波裕兰信息科技有限公司 一种基于图像处理技术进行车位积水检测的方法及系统
CN107578632A (zh) * 2016-07-05 2018-01-12 奥迪股份公司 交通密度检测系统、交通工具及方法
CN106407895A (zh) * 2016-08-30 2017-02-15 天津天地伟业数码科技有限公司 基于图像灰度和Lab色彩空间的车辆阴影检测算法
CN107845056A (zh) * 2016-09-21 2018-03-27 西安英诺视通信息技术有限公司 基于柱面模型的鱼眼图像全景生成方法
CN108229248A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 基于车底阴影的车辆检测方法
CN106898016A (zh) * 2017-01-19 2017-06-27 博康智能信息技术有限公司北京海淀分公司 获取交通图像中车辆尺度信息的方法及装置
CN109747529A (zh) * 2017-11-02 2019-05-14 郭宇铮 一种车道线预警装置
CN107808367B (zh) * 2017-11-29 2020-10-16 天津聚飞创新科技有限公司 鱼眼图像校正方法、装置、无人机及存储介质
CN109086812B (zh) * 2018-07-20 2022-01-07 影石创新科技股份有限公司 全景相机防水壳自动识别方法、装置及便携式终端
CN109358067A (zh) * 2018-11-30 2019-02-19 桂林电子科技大学 基于计算机视觉的马达环形压敏电阻缺陷检测系统及方法
CN109584183B (zh) * 2018-12-05 2020-05-29 吉林大学 一种激光雷达点云去畸变方法及系统
WO2020133488A1 (zh) * 2018-12-29 2020-07-02 深圳市大疆创新科技有限公司 车辆检测方法和设备
TWI727352B (zh) * 2019-06-26 2021-05-11 國立臺灣海洋大學 以非還原校正方式及人工智慧處理擷取影像的方法、裝置及系統
CN115993829A (zh) * 2023-03-21 2023-04-21 安徽大学 一种基于盲道识别的机器狗导盲运动控制方法
CN117373689B (zh) * 2023-12-05 2024-02-13 吉林大学第一医院 一种产程心率实时分析方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1897015A (zh) * 2006-05-18 2007-01-17 王海燕 基于机器视觉的车辆检测和跟踪方法及系统
US7676087B2 (en) * 2006-09-20 2010-03-09 Delphi Technologies, Inc. Method for identifying vehicles in electronic images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304750A (zh) * 2017-01-13 2018-07-20 比亚迪股份有限公司 前方车辆识别方法、装置及车辆
CN108304750B (zh) * 2017-01-13 2020-11-06 比亚迪股份有限公司 前方车辆识别方法、装置及车辆

Also Published As

Publication number Publication date
CN102509098A (zh) 2012-06-20

Similar Documents

Publication Publication Date Title
CN102509098B (zh) 一种鱼眼图像车辆识别方法
CN108549864B (zh) 面向车载热成像行人检测的感兴趣区域过滤方法和装置
WO2019196130A1 (zh) 面向车载热成像行人检测的分类器训练方法和装置
CN104778444B (zh) 道路场景下车辆图像的表观特征分析方法
CN104392205B (zh) 一种非正常车牌的识别方法和系统
CN105893949B (zh) 一种复杂路况场景下的车道线检测方法
CN109657632B (zh) 一种车道线检测识别方法
CN103927526B (zh) 一种基于高斯差分多尺度边缘融合的车辆检测方法
Fleyeh et al. Eigen-based traffic sign recognition
CN105701483B (zh) 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法
CN112819094B (zh) 一种基于结构相似度度量的目标检测与识别方法
CN109389046B (zh) 用于自动驾驶的全天候物体识别与车道线检测方法
CN102663760B (zh) 一种对图像中的车辆挡风镜区域进行定位分割的方法
CN105488492B (zh) 一种彩色图像预处理方法、道路识别方法及相关装置
CN105005989B (zh) 一种弱对比度下的车辆目标分割方法
CN104881661B (zh) 基于结构相似度的车辆检测方法
CN104778721A (zh) 一种双目图像中显著性目标的距离测量方法
CN105404857A (zh) 一种基于红外的夜间智能车前方行人检测方法
KR101409340B1 (ko) 교통 표지 인식 방법 및 그 시스템
CN102880863B (zh) 一种基于可变形部件模型的车牌及驾驶员人脸定位方法
CN103065138A (zh) 一种机动车牌号的识别方法
CN106686280A (zh) 影像修补系统及其方法
Wu et al. Raindrop detection and removal using salient visual features
CN105447503A (zh) 基于稀疏表示lbp和hog融合的行人检测方法
CN104766344B (zh) 基于运动边缘提取器的车辆检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant