CN103324936B - 一种基于多传感器融合的车辆下边界检测方法 - Google Patents
一种基于多传感器融合的车辆下边界检测方法 Download PDFInfo
- Publication number
- CN103324936B CN103324936B CN201310197154.XA CN201310197154A CN103324936B CN 103324936 B CN103324936 B CN 103324936B CN 201310197154 A CN201310197154 A CN 201310197154A CN 103324936 B CN103324936 B CN 103324936B
- Authority
- CN
- China
- Prior art keywords
- threshold value
- interest
- group
- point
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于多传感器融合的车辆下边界检测方法,通过采用毫米波雷达和摄像机的测量信息,得到空间对准点,再根据空间对准点信息在摄像机图像中选择包括目标车辆的感兴趣区域,通过确定感兴趣区域的k个峰值,再确定感兴趣区域的k-1个阈值,再得到最小阈值,从而得到该最小阈值划分出的灰度级区域对应的车辆下边界阴影区,最后从阴影区中获得车辆下边界阴影线,实现车辆下边界检测;通过采用一定的搜索策略,确定目标感兴趣区域,既可以使得目标感兴趣区域包括目标车辆,又能使得该区域大小适中,方便后续计算;通过采用粒子群优化算法确定k-1个阈值,简化运算步骤,提高运算速度,同时提高区域划分的精度。
Description
技术领域
本发明涉及无人车环境感知技术领域,具体涉及一种基于多传感器融合的车辆检测方法。
背景技术
无人车又称室外智能移动机器人,是一种集环境感知、动态决策与规划、行为控制与执行等多功能为一体的智能化程度很高的装置,其对环境感知的快速性、准确性与多传感器信息融合技术密不可分。环境感知技术是无人车进行自主行驶的前提,是一项最基础、最关键和最具挑战性的课题,其主要功能是在动态场景下,确定车辆等目标位置及无人车的可安全行驶区域。因此,车辆检测是无人车环境感知的重要研究内容,对无人车的自主导航具有重要意义。根据传感器的种类,车辆检测方法主要分为基于视觉的检测方法和基于雷达的检测方法,其中,基于视觉的检测方法目前研究最为广泛,可以获得目标的尺寸和轮廓信息,但不能获得目标的位置和相对速度信息。基于雷达的检测方法可以获得准确的目标位置和相对速度信息,但不能识别目标的形状和大小。其中,基于视觉的检测方法最关键的是车辆下边界检测,直接影响车辆检测的准确性,如果车辆下边界检测不准确,在后续的车辆检测过程中,其它非车辆目标会影响检测算法的有效性。由于车辆底部阴影区域的灰度比沥青铺设的路面要暗,因此,目前的车辆下边界检测主要通过图像分割方法(如最多类间方差法和区域统计法)获取车辆底部阴影,然后通过提取阴影线的方法来实现,但由于自然环境的复杂性,现有的分割方法不能自适应场景的变化,进而影响车辆下边界检测。为克服这两种方法的局限性及充分利用各传感器信息,得到较单一传感器更全面、更可靠的目标信息,提出了一种多传感器融合的车辆下边界检测方法。
发明内容
有鉴于此,本发明提供了一种基于多传感器融合的车辆检测方法,能够充分利用毫米波雷达和摄像机同时对目标车辆进行探测,再根据两者提供的互补信息,实现车辆下边界检测。
本发明的一种基于多传感器融合的车辆下边界检测方法,包括如下步骤:
步骤1、在同一场景下,针对目标车辆,采用毫米波雷达对其位置进行测量,采用摄像机对目标车辆进行图像采集,然后将毫米波雷达量测的位置信息通过基于单应性变换矩阵的空间对准方法投影到摄像机采集的图像中,把雷达在车辆上扫描点坐标转换成摄像机图像坐标系下的坐标,作为空间对准点(uc,vc);
步骤2、利用空间对准点(uc,vc)信息,在实时获得的每一帧摄像机图像中提取包含目标车辆的目标感兴趣区域;
步骤3、绘制步骤2中的目标感兴趣区域,得到灰度直方图,确定灰度直方图中的峰值个数k;
步骤4、根据步骤3得到的峰值个数k,确定目标感兴趣区域的k-1个阈值,根据k-1个阈值把目标感兴趣区域分成k个不同区域,以k-1个阈值中的最小值作为二值化阈值,将已分区的目标感兴趣区域的图像进行二值化处理,得到目标感兴趣区域的二值图;
步骤5、根据目标感兴趣区域的二值图,提取车辆底部阴影线,确定车辆下边界,具体方法如下:
S500、以目标感兴趣区域图像的左上角顶点为原点o″′,令目标感兴趣区域图像的坐标系为o″′u′v′,根据步骤2中确定的摄像机图像坐标与目标感兴趣区域坐标的关系,得到步骤1中的空间对准点坐标(uc,vc)在目标感兴趣区域的二值图中的坐标(u′c,v′c);
S501、在目标感兴趣区域的二值图中,以空间对准点为参考点,其下方左侧区域作为起始点的可能范围,其下方右侧区域作为终止点的可能范围;
S502、在起始点可能范围与终止点可能范围组成的区域内,针对每一行像素点,分别在起始点和终止点可能范围内寻找该行的起始点和终止点:
如果某一像素点与其前一像素点的像素值之差为1,且该像素点与其后一像素点的像素值之差为0,则该像素点为所在行的起始点;
同时,如果某一像素点与其前一像素点的像素值之差为0,且该像素点与其后一像素点的像素值之差为1,则该像素点为所在行的终止点;
如果在该行像素点上同时找到起始点和终止点,连接两点形成一条阴影线;如果只找到一个点或者没找到符合条件的点,则该行没有阴影线;
遍历起始点可能范围与终止点可能范围组成的区域内所有行,连接所有符合条件的阴影线,形成阴影区;
S503、找到S502中阴影区中所有阴影线中最长的一条,即为车辆底部的下边界。
进一步的,在所述步骤3中,利用峰值自适应方法确定目标感兴趣区域灰度直方图中的峰值个数k,具体方法为:
S301、在所述灰度直方图上,针对每一个灰度级对应的峰值,如果该灰度级的峰值大于其左、右相邻灰度级的峰值,则将此灰度级和其对应的峰值添加到第一局部最大峰值集合hist_s1中;
S302、在所述第一局部最大峰值集合hist_s1中,遵照S301的方法寻找第二局部最大峰值集合hist_s2;
S303、在所述第二局部最大峰值集合hist_s2中,移除峰值小于阈值th1的元素,组成第三局部最大峰值集合hist_s3;其中,阈值th1的取值范围为:th1∈[0.025max(hist),0.05max(hist)],其中max(hist)表示灰度直方图hist中的最大峰值;
S304、在所述第三局部最大峰值集合hist_s3中,移除两相邻灰度级距离小于阈值th2的元素,组成第四局部最大峰值集合hist_s4;其中,阈值th2为15;
所述第四局部最大峰值集合hist_s4中元素的个数就是目标感兴趣区域图像灰度直方图中峰值的个数k。
进一步的,在所述步骤3的S304中,针对第四局部最大峰值集合hist_s4中每两相邻峰值元素,如果该两相邻峰值间的距离小于阈值th3,并且两峰值和的四分之一小于两相邻峰值之间区域的平均峰值,则剔除两峰值中较小的元素,组成剔除后的第四局部最大峰值集合hist_s5,其中阈值th3取40。
进一步的,所述步骤1中计算空间对准点(uc,vc)的具体方法为:
令OXrYrZr表示毫米波雷达直角坐标系,O为毫米波雷达表面的中心;Yr轴垂直于毫米波雷达表面,指向正前方;Xr轴与Yr轴垂直,指向右侧;Zr轴垂直于Xr、Yr确定的平面,指向正上方;Oρθ表示毫米波雷达极坐标系,原点O与坐标系OXrYrZr的原点重合;ρ表示目标的直线距离;θ表示目标偏离Yr轴的角度,逆时针方向为正,顺时针方向为负;O'XcYcZc表示摄像机坐标系,原点O'位于摄像机的光心;Xc轴平行于摄像机扫描行方向,指向扫描像素增大的方向;Yc轴垂直于摄像机扫描行方向,指向扫描行减小的方向;Zc轴垂直于成像平面,指向摄像头视线方向;O″uv表示以像素为单位的图像坐标系,O″位于成像平面的左上角;u轴与Xc平行,指向扫描像素增大的方向;v轴与Yc平行,指向扫描行增大的方向;
当摄像机和毫米波雷达观测同一目标车辆时,通过式(1)把毫米波雷达采集的目标信息投影到摄像头采集的图像中,形成空间对准点:
其中,(ρ,θ)为毫米波雷达极坐标系的坐标;(uc,vc)为摄像头图像坐标系下的质心坐标,即空间对准点坐标; 称为单应性变换矩阵,其结果通过建立(ρ,θ)和(uc,vc)的空间对应点集并带入式(1),利用最小二乘法求解得到;得到单应性变换矩阵N后,通过步骤1中毫米波雷达测得的位置坐标,通过式(1)得到空间对准点坐标。
进一步的,在所述步骤2中获得所述目标感兴趣区域的具体方法为:
以空间对准点(uc,vc)为参考点,沿摄像机图像水平方向,在参考点的左、右各取W/4的宽度,分别作为目标感兴趣区域的左、右边界;沿摄像机图像的垂直方向,在参考点上、下方各取感兴趣区域左右宽度的40%作为目标感兴趣区域的上、下边界;如果左、右、上或下边界中超过摄像机图像边界,则以摄像机图像的左、右、上或下边界作为目标感兴趣区域的左、右、上或下边界,其中W分别为摄像机采集图像的宽度。
进一步的,所述步骤4中采用最大类间差分割方法计算k-1个阈值,具体为:
通过式(2)计算第m个区域的概率wm和第m个区域的灰度均值um:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;
令表示k个区域的类间方差,遍历整幅目标感兴趣区域的灰度图像,找到使类间方差达到最大的一组阈值,即为k-1个阈值,其中表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数。
进一步的,在所述步骤5的S503中,针对每一条阴影线,在目标感兴趣区域二值图的空间对准点所在列,即在列为时像素点的像素值如果为1,在阴影区中剔除该像素点所在的阴影线。
进一步的,在所述步骤5的S501中,阴影线的起始点和终止点的各自可能区域范围为:
起始点在行范围为v′∈[v′c,H′]以及列范围为u′∈[2,u′c]的区域内;
终止点在行范围为v′∈[v′c,H′]以及列范围为u′∈[u′c,W′-1]的区域内;
其中H′和W′分别为目标感兴趣区域的高和宽。
进一步的,所述步骤4中采用粒子群优化方法计算k-1个阈值,具体包括如下步骤:
S600、定义变量:定义表示阈值组数的粒子群的规模为N;第j组阈值为其中,1≤j≤N;第j组阈值速度为第j组阈值的适应度为fitj;第j组阈值的最优适应度为fit_pbestj;第j组阈值的最优阈值为 N组阈值群的最优适应度为fit_gbest;阈值群的最优阈值为t_gbest;最优阈值索引号为jbest;
S601、初始化第j组阈值tj和第j组阈值速度vj,并用第j组阈值tj初始化第j组阈值的最优阈值t_pbestj;根据式(4)计算第j组阈值的适应度fitj,并用第j组阈值的适应度fitj初始化第j组阈值的最优适应度fit_pbestj;选取第j组阈值的最优适应度fit_pbestj中最大值初始化fit_gbest,并用最大值对应的索引行初始化最优阈值索引号jbest;利用第j组阈值的最优阈值t_pbestjbest初始化阈值群的最优阈值t_gbest;
其中,wm表示第m个区域的概率,um表示第m个区域的灰度均值:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数;
S602、设置最大迭代次数itermax,令迭代次数iter=0;
S603、判断迭代次数iter是否小于itermax,如果是,执行S604至S607,如果否,执行S608;
S604、根据式(5)和式(6)更新第j组阈值tj和速度vj:
vj=w·vj+c1×rand(1,k-1)×(t_pbestj-tj)+c2×rand(1,k-1)×(t_gbest-tj)(5)
tj=tj+vj(6)
其中,w为惯性权重系数,其取值范围为w∈[0.4,0.9];c1、c2为学习因子c1=c2=2.05;rand(1,k-1)为含有k-1个元素的行向量,其元素的值为[0,1]之间的随机数;
S605、根据更新后的N组阈值,分别更新各组阈值的适应度fitj:
S606、判断第j组阈值的当前适应度fitj是否大于第j组阈值的最优适应度fit_pbestj,如果是,用第j组阈值的当前适应度fitj更新第j组阈值的最优适应度fit_pbestj,同时,用第j组阈值更新的第j组最优阈值t_pbestj;
S607、在N组当前阈值的N个最优适应度中,找到最大的一个最优适应度,判断该最大的最优适应度是否大于当前阈值群的最优适应度fit_gbest,如果是,用前者更新后者,并用最大的最优适应度组号更新最优阈值索引号jbest,用最大的最优适应度对应的该组阈值更新阈值群的最优阈值t_gbest;迭代次数iter累计一次:iter=iter+1,执行S603至S607;
S608、输出阈值群的最优阈值t_gbest。
进一步的,所述粒子群的规模N取20。
进一步的,所述最大迭代次数itermax取100。
本发明具有如下有益效果:
1)、本发明通过采用毫米波雷达和摄像机的测量信息,得到空间对准点,再根据空间对准点信息在摄像机图像中选择包括目标车辆的感兴趣区域,通过确定感兴趣区域的k个峰值,再确定感兴趣区域的k-1个阈值,再得到最小阈值,从而得到该最小阈值划分出的灰度级区域对应的车辆下边界阴影区,最后从阴影区中获得车辆下边界阴影线,实现车辆下边界检测。
2)通过采用一定的搜索策略,确定目标感兴趣区域,既可以使得目标感兴趣区域包括目标车辆,又能使得该区域大小适中,方便后续计算。
3)本发明通过采用粒子群优化算法确定k-1个阈值,简化运算步骤,提高运算速度,同时提高区域划分的精度。
4)针对第四局部最大峰值集合hist_s4中元素,再次判断该两相邻峰值间是否存在明显的波谷,如果不存在,剔除两峰值中较小的元素,组成剔除后的第四局部最大峰值集合,完成对最大峰值集合的进一步剔除,降低后续运算的发杂程度,同时提高区域划分精度。
附图说明
图1为毫米波雷达和摄像头空间对准示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于多传感器融合的车辆下边界检测方法,包括如下步骤:
步骤1、在同一场景下,针对目标车辆,采用毫米波雷达对其位置进行测量,采用摄像机对目标车辆进行图像采集,然后将毫米波雷达量测的位置信息通过基于单应性变换矩阵的空间对准方法投影到摄像机采集的图像中,把雷达在车辆上扫描点坐标转换成摄像机图像坐标系下的坐标,作为空间对准点(uc,vc),具体方法如下:
如图1所示,OXrYrZr表示毫米波雷达直角坐标系,原点O为毫米波雷达表面的中心;Yr轴垂直于毫米波雷达表面,指向正前方;Xr轴与Yr轴垂直,指向右侧;Zr轴垂直于Xr、Yr确定的平面,指向正上方。Oρθ表示毫米波雷达极坐标系,原点O与坐标系OXrYrZr的原点重合;ρ表示目标的直线距离;θ表示目标偏离Yr轴的角度,逆时针方向为正,顺时针方向为负。O'XcYcZc表示摄像机坐标系,原点O'位于摄像机的光心;Xc轴平行于摄像机扫描行方向,指向扫描像素增大的方向;Yc轴垂直于摄像机扫描行方向,指向扫描行减小的方向;Zc轴垂直于成像平面,指向摄像头视线方向。O″uv表示以像素为单位的图像坐标系,O″位于成像平面的左上角;u轴与Xc平行,指向扫描像素增大的方向;v轴与Yc平行,指向扫描行增大的方向。
当摄像头和毫米波雷达观测同一目标时,可通过式(1)把毫米波雷达采集的目标信息投影到摄像头采集的图像中,形成空间对准点。
其中,(ρ,θ)为毫米波雷达极坐标系的坐标;(uc,vc)为摄像头图像坐标系下的质心坐标; 称为单应性变换矩阵,其结果可以通过建立(ρ,θ)和(uc,vc)的空间对应点集并代入式(1),利用最小二乘法求解得到。得到空间变换矩阵N后,通过步骤1中毫米波雷达测得的位置坐标,通过式(1)得到空间对准点坐标。
上述步骤1的方法在中国专利申请“一种基于单应性变换矩阵的分段空间对准方法”(申请号为:201310013045.8,申请日为:2013年1月14日)中有详细介绍,本发明不再赘述。
步骤2、利用空间对准点(uc,vc)信息,在实时获得的每一帧摄像机图像中提取包含目标车辆的目标感兴趣区域:
为减少后续图像处理时间,根据步骤1求解得到的空间对准点信息,采取一定的搜索策略,获取包含目标车辆的子图像即提取目标感兴趣区域ROI。试验中,摄像头采集的图像大小为W×H,例如1600×1200像素,空间对准点坐标为(uc,vc)。由于雷达和摄像机之间的空间对准可能会存在一定偏差,因此,ROI应该选择一个左右边界相距较长的宽度,通过大量实验分析,选择W/2,即600个像素为ROI的左右边界相距的宽度,ROI的高度为ROI左右边界相距宽度的80%,ROI的底部位于空间对准点坐标(uc,vc)下ROI高度的50%处。如果左、右、上或下边界中超过摄像机图像边界,则以摄像机图像的左、右、上或下边界作为目标感兴趣区域的左、右、上或下边界,其中W分别为摄像机采集图像的宽度。
步骤3、采用步骤2中的所述目标感兴趣区域图像的灰度直方图中峰值表示图像中的不同区域,利用峰值自适应方法确定目标感兴趣区域灰度直方图中的峰值个数k,具体方法为:
S300、绘制目标感兴趣区域图像的灰度直方图hist;
S301、在所述灰度直方图hist上,针对每一个灰度级对应的峰值,如果该灰度级的峰值大于其左、右相邻灰度级的峰值,则将此灰度级和其对应的峰值添加到第一局部最大峰值集合hist_s1中;
S302、在所述第一局部最大峰值集合hist_s1中,遵照S301的方法寻找第二局部最大峰值集合hist_s2;
S303、在第二局部最大峰值集合hist_s2中,可能存在一些峰值较小的元素,因此,设置峰值阈值th1,移除峰值小于阈值th1的元素,组成第三局部最大峰值集合hist_s3;其中,阈值th1的取值范围为:th1∈[0.025max(hist),0.05max(hist)],其中max(hist)表示灰度直方图hist中的最大峰值;
S304、由分割区域间的阈值一般出现在两峰值之间波谷处可知,在集合hist_s3中,在灰度级上,可能存在一些距离相距较小的元素,相邻峰值间并没有明显的波谷,因此,设置灰度级距离阈值th2,移除灰度级相距太近且峰值小的元素,组成集合hist_s4。通过对百幅由简单或复杂背景构成的图像进行分析,可以得出,阈值th2为15。
在集合hist_s4中,设置相邻峰值的距离阈值th3,如果相邻峰值之间的距离小于th3,并且计算两峰值灰度级组成的区域内的平均峰值,如果该平均峰值大于两峰值和的四分之一,则它们之间不存在明显的波谷,剔除两峰值中较小的元素,组成集合hist_s5。通过对百幅由简单或复杂背景构成的图像进行分析,可以得出,阈值th3为40。
第四局部最大峰值集合hist_s4中元素的个数就是目标感兴趣区域图像灰度直方图中峰值的个数k;
步骤4、根据步骤3得到的峰值个数k,确定目标感兴趣区域的k-1个阈值,该k-1个阈值可根据经验进行确定,也可将0-255的灰度级按照均分方法进行确定,然后再根据k-1个阈值把目标感兴趣区域分成k个不同区域,由于车辆底部阴影对应的灰度级较小,因此以k-1个阈值中的最小值作为二值化阈值,将已分区的目标感兴趣区域的图像进行二值化处理,得到目标感兴趣区域的二值图。
在本发明中,可以采用最大类间差分割方法计算k-1个阈值,具体为:
通过式(2)计算第m个区域的概率wm和第m个区域的灰度均值um:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;
令表示k个区域的类间方差,遍历整幅目标感兴趣区域的灰度图像,找到使类间方差达到最大的一组阈值,即为k-1个阈值,其中表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数。
鉴于上述最大类间差分割方法计算负载,计算时间较长,因此,本发明还可以采用粒子群优化方法计算k-1个阈值,具体包括如下步骤:
S600、定义变量:定义表示阈值组数的粒子群的规模为N;第j组阈值为其中,1≤j≤N;第j组阈值速度为第j组阈值的适应度为fitj;第j组阈值的最优适应度fit_pbestj;第j组阈值的最优阈值N组阈值群的最优适应度为fit_gbest;阈值群的最优阈值为t_gbest;最优阈值索引号为jbest;通过对百幅由简单或复杂背景构成的图像进行计算分析可以得出,当N=20时,算法性能和计算时间有一个很好的折中。
S601、初始化第j组阈值tj和第j组阈值速度vj,并用第j组阈值tj初始化第j组阈值的最优阈值t_pbestj;根据式(4)计算第j组阈值的适应度fitj,并用第j组阈值的适应度fitj初始化第j组阈值的最优适应度fit_pbestj;选取第j组阈值的最优适应度fit_pbestj中最大值初始化fit_gbest,并用最大值对应的索引行初始化最优阈值索引号jbest;利用第j组阈值的最优阈值t_pbestjbest初始化阈值群的最优阈值t_gbest;
其中,wm表示第m个区域的概率,um表示第m个区域的灰度均值:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数;
S602、设置最大迭代次数itermax(根据计算时间的要求,一般取100),令迭代次数iter=0;
S603、判断迭代次数iter是否小于itermax,如果是,执行S604至S607,如果否,执行S608;
S604、根据式(5)和式(6)更新第j组阈值tj和速度vj:
vj=w·vj+c1×rand(1,k-1)×(t_pbestj-tj)+c2×rand(1,k-1)×(t_gbest-tj)(5)
tj=tj+vj(6)
其中,w为惯性权重系数,体现了优化算法在全局搜索和局部搜索上的协调性,其取值范围为w∈[0.4,0.9]。c1、c2为学习因子,c1反映了粒子飞行过程中所记忆的最好位置对飞行速度的影响,c2反映了粒子全所记忆的最好位置对粒子飞行速度的影响,实验证明,c1与c2之和最好接近于4,通常取c1=c2=2.05。rand(1,k-1)为含有k-1个元素的行向量,其元素的值为[0,1]之间的随机数。
S605、根据更新后的N组阈值,分别更新各组阈值的适应度fitj:
S606、判断第j组阈值的当前适应度fitj是否大于第j组阈值的最优适应度fit_pbestj,如果是,用第j组阈值的当前适应度fitj更新第j组阈值的最优适应度fit_pbestj,同时,用第j组阈值更新的第j组最优阈值t_pbestj,即:
iffitj>fit_pbestjfit_pbestj=fitjt_pbestj=tj(7)
S607、在N组当前阈值的N个最优适应度中,找到最大的一个最优适应度,判断该最大的最优适应度是否大于当前阈值群的最优适应度fit_gbest,如果是,用前者更新后者,并用最大的最优适应度组号更新最优阈值索引号jbest,用最大的最优适应度对应的该组阈值更新阈值群的最优阈值t_gbest,即:
迭代次数iter累计一次:iter=iter+1,执行S603至S607;
S608、输出阈值群的最优阈值t_gbest;
步骤5、根据目标感兴趣区域的二值图,提取车辆底部阴影线,确定车辆下边界,具体方法如下:
S500、以目标感兴趣区域图像的左上角顶点为原点o″′,令目标感兴趣区域图像的坐标系为o″′u′v′,根据步骤2中确定的摄像机图像坐标与目标感兴趣区域坐标的关系,得到步骤1中的空间对准点坐标(uc,vc)在目标感兴趣区域的二值图中的坐标(u′c,v′c);
S501、由于车辆的下边界一定是在空间对准点(车辆质心)的下部,而下边界的起始点应当在空间对准点的左下方区域,下边界的终止点应当在空间对准点的右下方区域,因此,在本发明的目标感兴趣区域的二值图中,以空间对准点为参考点,选择其下方左侧区域作为起始点的可能范围,其下方右侧区域作为终止点的可能范围;
S502、在起始点可能范围与终止点可能范围组成的区域内,针对每一行像素点,分别在起始点和终止点可能范围内寻找该行的起始点和终止点:
如果某一像素点与其前一像素点的像素值之差为1,且该像素点与其后一像素点的像素值之差为0,则该像素点为所在行的起始点;
同时,如果某一像素点与其前一像素点的像素值之差为0,且该像素点与其后一像素点的像素值之差为1,则该像素点为所在行的终止点;
如果在该行像素点上同时找到起始点和终止点,连接两点形成一条阴影线;如果只找到一个点或者没找到符合条件的点,则该行没有阴影线;
遍历起始点可能范围与终止点可能范围组成的区域内所有行,连接所有符合条件的阴影线,形成阴影区;
S503、找到S502中阴影区中所有阴影线中最长的一条,即为车辆底部的下边界。
在上述步骤5的S503中,针对每一条阴影线,在目标感兴趣区域二值图的空间对准点所在列,即在列为时像素点的像素值如果为1,在阴影区中剔除该像素点所在的阴影线。
为了进一步缩小起始点和终止点的搜索范围,缩短搜索时间,根据实际经验可知,在上述步骤5的S501中,阴影线的起始点和终止点的各自可能区域范围为:
起始点在行范围为v′∈[v′c,H′]以及列范围为u′∈[2,u′c]的区域内;
终止点在行范围为v′∈[v′c,H′]以及列范围为u′∈[u′c,W′-1]的区域内;
其中H′和W′分别为目标感兴趣区域的高和宽。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.一种基于多传感器融合的车辆下边界检测方法,其特征在于,包括如下步骤:
步骤1、在同一场景下,针对目标车辆,采用毫米波雷达对其位置进行测量,采用摄像机对目标车辆进行图像采集,然后将毫米波雷达量测的位置信息通过基于单应性变换矩阵的空间对准方法投影到摄像机采集的图像中,把雷达在车辆上扫描点坐标转换成摄像机图像坐标系下的坐标,作为空间对准点(uc,vc);
步骤2、利用空间对准点(uc,vc)信息,在实时获得的每一帧摄像机图像中提取包含目标车辆的目标感兴趣区域;
步骤3、绘制步骤2中的目标感兴趣区域,得到灰度直方图,确定灰度直方图中的峰值个数k;
步骤4、根据步骤3得到的峰值个数k,确定目标感兴趣区域的k-1个阈值根据k-1个阈值把目标感兴趣区域分成k个不同区域,以k-1个阈值中的最小值作为二值化阈值,将已分区的目标感兴趣区域的图像进行二值化处理,得到目标感兴趣区域的二值图;
步骤5、根据目标感兴趣区域的二值图,提取车辆底部阴影线,确定车辆下边界,具体方法如下:
S500、以目标感兴趣区域图像的左上角顶点为原点o″′,令目标感兴趣区域图像的坐标系为o″′u′v′,根据步骤2中确定的摄像机图像坐标与目标感兴趣区域坐标的关系,得到步骤1中的空间对准点坐标(uc,vc)在目标感兴趣区域的二值图中的坐标(u′c,v′c);
S501、在目标感兴趣区域的二值图中,以空间对准点为参考点,其下方左侧区域作为起始点的可能范围,其下方右侧区域作为终止点的可能范围;
S502、在起始点可能范围与终止点可能范围组成的区域内,针对每一行像素点,分别在起始点和终止点可能范围内寻找该行的起始点和终止点:
如果某一像素点与其前一像素点的像素值之差为1,且该像素点与其后一像素点的像素值之差为0,则该像素点为所在行的起始点;
同时,如果某一像素点与其前一像素点的像素值之差为0,且该像素点与其后一像素点的像素值之差为1,则该像素点为所在行的终止点;
如果在该行像素点上同时找到起始点和终止点,连接两点形成一条阴影线;如果只找到一个点或者没找到符合条件的点,则该行没有阴影线;
遍历起始点可能范围与终止点可能范围组成的区域内所有行,连接所有符合条件的阴影线,形成阴影区;
S503、找到S502中阴影区中所有阴影线中最长的一条,即为车辆底部的下边界。
2.如权利要求1所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,在所述步骤3中,利用峰值自适应方法确定目标感兴趣区域灰度直方图中的峰值个数k,具体方法为:
S301、在所述灰度直方图上,针对每一个灰度级对应的峰值,如果该灰度级的峰值大于其左、右相邻灰度级的峰值,则将此灰度级和其对应的峰值添加到第一局部最大峰值集合hist_s1中;
S302、在所述第一局部最大峰值集合hist_s1中,遵照S301的方法寻找第二局部最大峰值集合hist_s2;
S303、在所述第二局部最大峰值集合hist_s2中,移除峰值小于阈值th1的元素,组成第三局部最大峰值集合hist_s3;其中,阈值th1的取值范围为:th1∈[0.025max(hist),0.05max(hist)],其中max(hist)表示灰度直方图hist中的最大峰值;
S304、在所述第三局部最大峰值集合hist_s3中,移除两相邻灰度级距离小于阈值th2的元素,组成第四局部最大峰值集合hist_s4;其中,阈值th2为15;
所述第四局部最大峰值集合hist_s4中元素的个数就是目标感兴趣区域图像灰度直方图中峰值的个数k。
3.如权利要求2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,在所述步骤3的S304中,针对第四局部最大峰值集合hist_s4中每两相邻峰值元素,如果该两相邻峰值间的距离小于阈值th3,并且两峰值和的四分之一小于两相邻峰值之间区域的平均峰值,则剔除两峰值中较小的元素,组成剔除后的第四局部最大峰值集合hist_s5,其中阈值th3取40。
4.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,所述步骤1中计算空间对准点(uc,vc)的具体方法为:
令OXrYrZr表示毫米波雷达直角坐标系,O为毫米波雷达表面的中心;Yr轴垂直于毫米波雷达表面,指向正前方;Xr轴与Yr轴垂直,指向右侧;Zr轴垂直于Xr、Yr确定的平面,指向正上方;Oρθ表示毫米波雷达极坐标系,原点O与坐标系OXrYrZr的原点重合;ρ表示目标的直线距离;θ表示目标偏离Yr轴的角度,逆时针方向为正,顺时针方向为负;O'XcYcZc表示摄像机坐标系,原点O'位于摄像机的光心;Xc轴平行于摄像机扫描行方向,指向扫描像素增大的方向;Yc轴垂直于摄像机扫描行方向,指向扫描行减小的方向;Zc轴垂直于成像平面,指向摄像头视线方向;O″uv表示以像素为单位的图像坐标系,O″位于成像平面的左上角;u轴与Xc平行,指向扫描像素增大的方向;v轴与Yc平行,指向扫描行增大的方向;
当摄像机和毫米波雷达观测同一目标车辆时,通过式(1)把毫米波雷达采集的目标信息投影到摄像头采集的图像中,形成空间对准点:
其中,(ρ,θ)为毫米波雷达极坐标系的坐标;(uc,vc)为摄像头图像坐标系下的质心坐标,即空间对准点坐标; 称为单应性变换矩阵,其结果通过建立(ρ,θ)和(uc,vc)的空间对应点集并代入式(1),利用最小二乘法求解得到;得到单应性变换矩阵N后,通过步骤1中毫米波雷达测得的位置坐标,通过式(1)得到空间对准点坐标。
5.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,在所述步骤2中获得所述目标感兴趣区域的具体方法为:
以空间对准点(uc,vc)为参考点,沿摄像机图像水平方向,在参考点的左、右各取W/4的宽度,分别作为目标感兴趣区域的左、右边界;沿摄像机图像的垂直方向,在参考点上、下方各取感兴趣区域左右宽度的40%作为目标感兴趣区域的上、下边界;如果左、右、上或下边界中超过摄像机图像边界,则以摄像机图像的左、右、上或下边界作为目标感兴趣区域的左、右、上或下边界,其中W分别为摄像机采集图像的宽度。
6.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,所述步骤4中采用最大类间差分割方法计算k-1个阈值,具体为:
通过式(2)计算第m个区域的概率wm和第m个区域的灰度均值um:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;
令表示k个区域的类间方差,遍历整幅目标感兴趣区域的灰度图像,找到使类间方差达到最大的一组阈值,即为k-1个阈值,其中表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数。
7.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,在所述步骤5的S503中,针对每一条阴影线,在目标感兴趣区域二值图的空间对准点所在列,即在列为时像素点的像素值如果为1,在阴影区中剔除该像素点所在的阴影线。
8.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,在所述步骤5的S501中,阴影线的起始点和终止点的各自可能区域范围为:
起始点在行范围为v′∈[v′c,H′]以及列范围为u′∈[2,u′c]的区域内;
终止点在行范围为v′∈[v′c,H′]以及列范围为u′∈[u′c,W′-1]的区域内;
其中H′和W′分别为目标感兴趣区域的高和宽。
9.如权利要求1或2所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,所述步骤4中采用粒子群优化方法计算k-1个阈值,具体包括如下步骤:
S600、定义变量:定义表示阈值组数的粒子群的规模为N;第j组阈值为其中,1≤j≤N;第j组阈值速度为第j组阈值的适应度为fitj;第j组阈值的最优适应度fit_pbestj;第j组阈值的最优阈值 N组阈值群的最优适应度为fit_gbest;阈值群的最优阈值为t_gbest;最优阈值索引号为jbest;
S601、初始化第j组阈值tj和第j组阈值速度vj,并用第j组阈值tj初始化第j组阈值的最优阈值t_pbestj;根据式(4)计算第j组阈值的适应度fitj,并用第j组阈值的适应度fitj初始化第j组阈值的最优适应度fit_pbestj;选取第j组阈值的最优适应度fit_pbestj中最大值初始化fit_gbest,并用最大值对应的索引行初始化最优阈值索引号jbest;利用第j组阈值的最优阈值t_pbestjbest初始化阈值群的最优阈值t_gbest;
其中,wm表示第m个区域的概率,um表示第m个区域的灰度均值:
其中,{t1,t2,...,tk-1}表示k-1个阈值,1≤m≤k,表示灰度级i出现的概率,ni表示目标感兴趣区域图像中像素点的灰度级为i的个数,n表示目标感兴趣区域图像中像素的总数;表示目标感兴趣区域的灰度均值,L表示目标感兴趣区域内的灰度级个数;
S602、设置最大迭代次数itermax,令迭代次数iter=0;
S603、判断迭代次数iter是否小于itermax,如果是,执行S604至S607,如果否,执行S608;
S604、根据式(5)和式(6)更新第j组阈值tj和速度vj:
vj=w·vj+c1×rand(1,k-1)×(t_pbestj-tj)+c2×rand(1,k-1)×(t_gbest-tj)(5)
tj=tj+vj(6)
其中,w为惯性权重系数,其取值范围为w∈[0.4,0.9];c1、c2为学习因子c1=c2=2.05;rand(1,k-1)为含有k-1个元素的行向量,其元素的值为[0,1]之间的随机数;
S605、根据更新后的N组阈值,分别更新各组阈值的适应度fitj:
S606、判断第j组阈值的当前适应度fitj是否大于第j组阈值的最优适应度fit_pbestj,如果是,用第j组阈值的当前适应度fitj更新第j组阈值的最优适应度fit_pbestj,同时,用第j组阈值更新的第j组最优阈值t_pbestj;
S607、在N组当前阈值的N个最优适应度中,找到最大的一个最优适应度,判断该最大的最优适应度是否大于当前阈值群的最优适应度fit_gbest,如果是,用前者更新后者,并用最大的最优适应度组号更新最优阈值索引号jbest,用最大的最优适应度对应的该组阈值更新阈值群的最优阈值t_gbest;迭代次数iter累计一次:iter=iter+1,执行S603至S607;
S608、输出阈值群的最优阈值t_gbest。
10.如权利要求9所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,所述粒子群的规模N取20。
11.如权利要求9所述的一种基于多传感器融合的车辆下边界检测方法,其特征在于,所述最大迭代次数itermax取100。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310197154.XA CN103324936B (zh) | 2013-05-24 | 2013-05-24 | 一种基于多传感器融合的车辆下边界检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310197154.XA CN103324936B (zh) | 2013-05-24 | 2013-05-24 | 一种基于多传感器融合的车辆下边界检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103324936A CN103324936A (zh) | 2013-09-25 |
CN103324936B true CN103324936B (zh) | 2016-05-25 |
Family
ID=49193664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310197154.XA Active CN103324936B (zh) | 2013-05-24 | 2013-05-24 | 一种基于多传感器融合的车辆下边界检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103324936B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574542A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于多传感器融合的多视觉特征车辆检测方法 |
CN105809694B (zh) * | 2016-03-10 | 2018-09-18 | 成都康烨科技有限公司 | 图像数据处理方法以及装置 |
CN107977995B (zh) * | 2016-10-25 | 2022-05-06 | 菜鸟智能物流控股有限公司 | 一种目标区域的位置检测方法及相关装置 |
CN108528449B (zh) * | 2017-03-02 | 2020-02-21 | 比亚迪股份有限公司 | 车辆行驶自动控制方法和装置 |
CN113486797B (zh) * | 2018-09-07 | 2023-08-11 | 百度在线网络技术(北京)有限公司 | 无人车位置检测方法、装置、设备、存储介质及车辆 |
CN109633621A (zh) * | 2018-12-26 | 2019-04-16 | 杭州奥腾电子股份有限公司 | 一种车载环境感知系统数据处理方法 |
CN109886308B (zh) * | 2019-01-25 | 2023-06-23 | 中国汽车技术研究中心有限公司 | 一种基于目标级别的双传感器数据融合方法和装置 |
CN110422173B (zh) * | 2019-07-11 | 2021-01-15 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种行车环境识别方法 |
CN110794405B (zh) * | 2019-10-18 | 2022-06-10 | 北京全路通信信号研究设计院集团有限公司 | 一种基于相机和雷达融合的目标检测方法及系统 |
CN111369541B (zh) * | 2020-03-06 | 2022-07-08 | 吉林大学 | 一种智能汽车恶劣天气条件下车辆检测方法 |
CN112116031B (zh) * | 2020-10-29 | 2024-02-09 | 重庆长安汽车股份有限公司 | 基于路侧设备的目标融合方法、系统、车辆及存储介质 |
CN112863183B (zh) * | 2021-01-14 | 2022-04-08 | 深圳尚桥信息技术有限公司 | 一种交通流数据融合方法及系统 |
CN113313041B (zh) * | 2021-06-08 | 2022-11-15 | 安徽工程大学 | 基于信息融合的前方车辆识别方法及系统 |
CN114252449B (zh) * | 2021-09-27 | 2023-10-24 | 上海电机学院 | 一种基于线结构光的铝合金焊缝表面质量检测系统及方法 |
CN114663434B (zh) * | 2022-05-25 | 2022-08-23 | 国家海洋局北海海洋技术保障中心 | 一种侧扫声呐影像的阴影判别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183427A (zh) * | 2007-12-05 | 2008-05-21 | 浙江工业大学 | 基于计算机视觉的违章停车检测装置 |
CN101777263A (zh) * | 2010-02-08 | 2010-07-14 | 长安大学 | 一种基于视频的交通车流量检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4253271B2 (ja) * | 2003-08-11 | 2009-04-08 | 株式会社日立製作所 | 画像処理システム及び車両制御システム |
-
2013
- 2013-05-24 CN CN201310197154.XA patent/CN103324936B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183427A (zh) * | 2007-12-05 | 2008-05-21 | 浙江工业大学 | 基于计算机视觉的违章停车检测装置 |
CN101777263A (zh) * | 2010-02-08 | 2010-07-14 | 长安大学 | 一种基于视频的交通车流量检测方法 |
Non-Patent Citations (1)
Title |
---|
Vehicle Detection Using Normalized Color and Edge Map;Luo-Wei Tsai et al;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20070331;第16卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN103324936A (zh) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103324936B (zh) | 一种基于多传感器融合的车辆下边界检测方法 | |
CN110175576B (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
CN111486855B (zh) | 一种具有物体导航点的室内二维语义栅格地图构建方法 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
WO2020151109A1 (zh) | 基于点云带权通道特征的三维目标检测方法及系统 | |
CN108596055B (zh) | 一种复杂背景下高分辨遥感图像的机场目标检测方法 | |
CN107463890B (zh) | 一种基于单目前视相机的前车检测与跟踪方法 | |
CN102073846B (zh) | 基于航拍图像的交通信息获取方法 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN108052624A (zh) | 点云数据处理方法、装置及计算机可读存储介质 | |
EP3196853A1 (en) | Machine vision-based method and system for aircraft docking guidance and aircraft type identification | |
CN104899590A (zh) | 一种无人机视觉目标跟随方法及系统 | |
CN104700398A (zh) | 一种点云场景物体提取方法 | |
CN104536009A (zh) | 一种激光红外复合的地面建筑物识别及导航方法 | |
CN102446355B (zh) | 一种基于双视场的无标定平面突起目标检测方法 | |
CN105989334A (zh) | 基于单目视觉的道路检测方法 | |
CN110674674A (zh) | 一种基于yolo v3的旋转目标检测方法 | |
CN106529417A (zh) | 一种视觉激光数据融合的道路检测方法 | |
Aeschliman et al. | Tracking vehicles through shadows and occlusions in wide-area aerial video | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN117949942B (zh) | 基于雷达数据和视频数据融合的目标跟踪方法及系统 | |
CN103745197A (zh) | 一种车牌检测方法及装置 | |
CN103942786B (zh) | 无人机可见光和红外图像的自适应团块目标检测方法 | |
CN113221883A (zh) | 无人机飞行导航路线实时修正方法 | |
Samadzadegan et al. | Automatic lane detection in image sequences for vision-based navigation purposes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |