CN104700071B - 一种全景图道路轮廓的提取方法 - Google Patents
一种全景图道路轮廓的提取方法 Download PDFInfo
- Publication number
- CN104700071B CN104700071B CN201510021612.3A CN201510021612A CN104700071B CN 104700071 B CN104700071 B CN 104700071B CN 201510021612 A CN201510021612 A CN 201510021612A CN 104700071 B CN104700071 B CN 104700071B
- Authority
- CN
- China
- Prior art keywords
- road
- point
- boundary
- image
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种全景图道路轮廓的提取方法,包括步骤:(1)输入原始的道路图像,使用基于Gabor小波的消失点估计方法计算全景图每点像素的纹理方向信息和置信函数,获得消失点位置的局部自适应软投票算法的输入信息从而得到消失点位置;(2)从消失点或边界点发射一组道路预测线段,从而计算OCR特征和分隔颜色区域,获得融合多特征信息和约束函数来判别出最合适的道路边界方向;(3)将下一个边界点选为预测线段的起点,并重复步骤(2)直至到达图像边界;(4)对道路边界进行上下位移形成前景线与背景线,将前景线与背景线作为输入传到分水岭方法中进行计算,最后获得优化后的全景图道路轮廓。
Description
技术领域
本发明属于图像处理和道路检测的技术领域,具体地涉及一种全景图道路轮廓的提取方法。
背景技术
道路提取技术需要运用计算机视觉、模式识别等相关知识来完成。道路图像主要分为两类:结构化道路和非结构化道路。结构化道路一般是指高速公路或城市化道路,它们有着完整的行车线以及明显的路标等特点。非结构化道路,则是指越野环境或乡村道路。它们没有明确的行车线和道路边缘,且道路形状不规则、光照复杂。对于如上两种情况,道路提取可分为自动道路特征提取和半自动道路特征提取。
由于目前计算机自动识别能力不是十分完善,因此需要结合半自动部分来取得更好的道路提取效果。目前主流的半自动方法分为如下几类:基于边缘跟踪的方法是跟据给定的种子点和初始方向开始边缘跟踪直到边缘末端。最小二乘模板匹配方法,该方法基于初始特征点,估计模板与图像间的参数进而得到道路的数学表示。Snake模型法,采用能量函数表示各种特征,通过求解能量函数的最小值来达到提取道路便捷的目的。分水岭算法最初是由Digabel和Lantuejoul引入图像处理领域,随后被Beucher等人应用到轮廓检测。它是一种基于地理学的图像分割方法,通过对图像灰度值的大小表示地理海拔高度,灰度最小值及其影响区域形成集水盆,整个集水盆边界形成图像边界的分水岭。
自动道路特征提取主要包括道路特征的自动检测与定位。相关的主要方法有:
基于区域的方法。主要有Pohle等人提出用正态分布表示整个待分割区域像素值,用原始区域生长算法估计出分布参数并更新到下次生长过程中,以达到增强分割效果的目的。Baatz等人提出了一个经典的算法面向对象的多尺度分割算法,图片特征由颜色形状等信息表征,分割过程采用区域合并的方法来实现整个的道路提取。Cheng等人提出了一种基于阈值和区域合并的彩色影响分割算法。利用全局和局部信息,首先寻找同质区域并避免了道路的过分割。
基于边缘的方法。其中较为经典的是Canny算子算法,其首先运用高斯卷积对图像进行平滑处理随后进行微分操作得到梯度图找出边缘点,最后得到整幅图像的边缘图。Moon提出使用差分运算把边缘检测变成一个目标检测的问题利用熵的极小化方法确定图像边缘。
基于平行线对的方法。P.Dal Poz等人于2006年提出了高分辨率和中等分辨率的自动道路提取算法。该算法分为两步,首先提取整个区域的道路种子,在提取过程中,寻找符合几何学和辐射线测定的局部道路属性,通过canny算子进行边缘检测并连接出图像的边缘。
标点随机过程方法。2002年X.Descombes,J Zerubia等提出了将MPP(Markedpoint process)理论应用与图像分析从而提取道路信息的方法。核心思想是标点随机过程采用随机框架对目标问题进行建模。需要分析的目标可以用任意的参数来定义。该算法最大的特点是不需要起始点。
基于小波理论提取道路的方法。Zhang和Couloigner在2004年提出了一种基于小波理论提取道路的方法。在小波域上,小波系数的极大值可用来检测道路交点,然后基于检测的道路交点跟踪形成道路中心线部件,通常这些点的小波系数值在近似的道路方向上高于一定的阈值,接着根据道路线去除伪节点和产生新交点,最后用DAUGLAS-PEUCKER算法用来简化线的描述。Kong Hui提出运用LASV方法获得道路消失点,并对道路进行了初步的提取。对于道路提取方面,各种方法都取得了不错的效果,但是对于全景图到目前为仍没有一种有效的道路提取方法。
总体而言,道路轮廓的全自动提取无疑是道路提取中的最终目标,上述道路提取算法各有特点,也各有缺点,理论上可以达到全自动化,但有些算法由于诸多因素离实际应用还有一定距离。半自动提取法虽然取得了较好的实验结果,但随着道路场景复杂性的增加,需要更精确的人机交互处理,导致整体的实用性大打折扣。因此,研究全自动方法将是未来的主要趋势。很多已有的自动道路提取算法只利用道路的一种或几种特征并且模型也比较简单。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种全景图道路轮廓的提取方法,其能够实现不同场景全景图像道路轮廓的自动提取。
本发明的技术解决方案是:这种全景图道路轮廓的提取方法,包括以下步骤:
(1)输入原始的道路图像,使用基于Gabor小波的消失点估计方法来计算全景图每点像素的纹理方向信息和置信函数,获得消失点位置的局部自适应软投票算法的输入信息从而得到消失点位置;
(2)在计算得到消失点位置后,从消失点或边界点发射一组道路预测线段,从而计算OCR特征和分隔颜色区域,获得融合多特征信息和约束函数来判别出最合适的道路边界方向;
(3)将下一个边界点选为预测线段的起点,并重复步骤(2)直至到达图像边界;
(4)对道路边界进行上下位移形成前景线与背景线,将前景线与背景线作为输入传到分水岭方法中进行计算,最后获得优化后的全景图道路轮廓。
本发明采用Gabor小波和局部自适应软投票算法估计道路的消失点,在此消失点的基础上,融合纹理和颜色信息对全景图进行道路轮廓提取,通过分水岭方法对道路图像进行轮廓优化,从而能够实现不同场景全景图像道路轮廓的自动提取。
附图说明
图1是根据本发明的全景图道路轮廓的提取方法的流程图。
图2是根据本发明的消失点的示意图。
具体实施方式
如图1所示,这种全景图道路轮廓的提取方法,包括以下步骤:
(1)输入原始的道路图像,使用基于Gabor小波的消失点估计方法来计算全景图每点像素的纹理方向信息和置信函数,获得消失点位置的局部自适应软投票算法(OCR特征是预测线上方向一致的点的个数SumO与整条直线总点数SumL的比率,表示一条预测线指向道路消失点方向的一致性程度OCR特征值越大则说明此条预测线是道路边界的可能性越高)的输入信息从而得到消失点位置;
(2)在计算得到消失点位置后,从消失点或边界点发射一组道路预测线段,从而计算OCR特征和分隔颜色区域,获得融合多特征信息和约束函数来判别出最合适的道路边界方向;
(3)将下一个边界点选为预测线段的起点,并重复步骤(2)直至到达图像边界;
(4)对道路边界进行上下位移形成前景线与背景线,将前景线与背景线作为输入传到分水岭方法中进行计算,最后获得优化后的全景图道路轮廓。
OCR特征是预测线上方向一致的点的个数SumO与整条直线总点数SumL的比率,表示一条预测线指向道路消失点方向的一致性程度OCR特征值越大则说明此条预测线是道路边界的可能性越高。
本发明采用Gabor小波和局部自适应软投票算法估计道路的消失点,在此消失点的基础上,融合纹理和颜色信息对全景图进行道路轮廓提取,通过分水岭方法对道路图像进行轮廓优化,从而能够实现不同场景全景图像道路轮廓的自动提取。
优选地,所述步骤(1)包括以下分步骤:
(1.1)对于原始的道路图像的每个像素,通过公式(1)、(2)计算纹理方向信息,通过公式(3)计算置信函数
其中g(x,y)是用来调制的高斯函数;x=xcosθ+ysinθ,y=-xsinθ+ycosθ;θ是Gabor核函数的方向; σx和σy是其在两个坐标轴上的标准方差,它们决定了滤波器作用区域的大小;W为复正弦函数在横轴上的频率;将Gabor函数分解为实部hR(x,y)和虚部hI(x,y)两个分量;h*I表示图像I和滤波器h的卷积;rn(z)表示36个方向中z像素的响应程度并让r1(z)>…>r36(z);
(1.2)对置信函数进行归一化操作,保留所有置信函数高于阈值0.3的像素点;
(1.3)将前90%的像素点作为消失点候选点;
(1.4)对每个消失点候选点创建选区Vote aera,并基于公式(4)进行投票
V是消失点,Rv是选区域,选区半径r1等于0.35乘以图像对角线长度;r是Rv中某个点P的纹理方向OP与PV的角度;d(p,v)是PV的距离与图像对角线长度的比率;举例来说,如果d(p,v)=0.3则投票的角度r要大约小于等于3°(5/1.6=3.125);
(1.5)得到最多票数的像素点作为初始化消失点。
消失点是道路图像中道路与地平线的交汇点也是道路的起始点。好比沿着公路线去看两条道路分界线,沿着街道去看两边排列整齐的树木时,两条平行的标示线或两排树木连线交与很远的某一点。而全景图与传统图像不同,其最大的特点便是全视角,一张全景图是由多个镜头使用全景图拼接技术合成所得。在合成的过程中,融合部分会变得扭曲变形以及产生一定的遮挡问题,所以对于消失点的计算选取存在一定影响。
本文采用基于Gabor小波的纹理方向来进行全景图消失点位置的估计。因为Gabor小波具有边缘敏感的特性,所以能够给出良好的方向选择和尺度选择。而且其对于光照变化不敏感,能够提供对光照变化良好的适应性。Gabor函数是一个用高斯函数调制的复正弦函数,能够在给定区域内提取出局部的频域特征。
S(x,y)经过高斯平滑,即为该Gabor滤波器取出的特征图像。纹理方向特征在区分道路与非道路部分有着良好的效果,本文也采用此类研究方法通过Gabor函数计算得到道路图像中每一点的纹理方向运用局部软投票法得到消失点。不同于传统的局部硬投票法,LASV算法(局部自适应软投票算法,Local adaptive soft-voting)所建立的选区是候选点以下一定半径以内的像素点,这种方式不仅避免了因为位置高的因素而获得相对于其他低位置候选点更多投票可能。而且由于置信函数的引入保证了参与投票像素点的方向信息的可靠性。其中置信函数的阈值是Hui Kong等人采用大量的实验数据获得的经验数据。
举例来说,如果投票点p和候选点v之间的距离d(p,v)=0.3,p投票给V当且仅当r≤5/(1+0.6)约等于3°的时候,其余情况等于0。可以看出不同于传统的硬投票法即候选点一下全为投票区,当投票点与候选点间的距离越近时需要它们之间的角度可以越大,反之距离越远角度差距要求越小,从而很好地增强了投票的有效性。最后所有像素点进行投票,全景图中最亮的点便是票值最大的像素点也就是估计的消失点。最后在原图上进行对应位置的标记形成最后的效果。
优选地,所述步骤(2)包括以下分步骤:
(2.1)获取初始化消失点坐标vp0(c,r);
(2.2)判断c>(imageW)/m是否成立,是则执行步骤(2.3),否则执行步骤(2.4),其中m是横向融合成全景图的图片数。
(2.3)道路迭代点由上至下逐步计算,跳转步骤(2.4);
(2.4)道路迭代点由下至上逐步计算若,若c≤1时跳转步骤(2.5);
(2.5)若c≤1时,第一条边提取结束;(说明:若c>1则边界点并未到达图像左边界,应该继续进行计算。若小于等于1了则说明边界点从消失点位置移到图像左边界了)
(2.6)基于道路的第一条边界和先验信息对第二条边界进行计算并获得完整道路边界。
优选地,所述步骤(2.3)包括以下分步骤:
(2.3.1)通过公式(5)计算vp点的OCR,通过公式(6)ColorD(6),获得对应角度的OCR特征值与最大的颜色通道区域平均像素差,并通过公式(8)计算Final特征值
ColorD(a1,a2)=max{ColorD(a1,a2)c|c=(R,G,B)} (6)
其中OCR为OCR特征,SumO为预测线上方向一致的点的个数,SumL为整条直线总点数,a1,a2是对应道路预测线的两个三角形区域,实验中取30°,average(an)是n区域单通道颜色值的平均值;
(2.3.2)计算的下一点坐标并检验是否满足条件约束公式(13),当c坐标处于约束段时,0°的SumL=imageW/m,其中m是横向融合成全景图的图片数。
(2.3.3)通过步骤(2.3.2)确定的角度计算RoadNextPoint(x,y),并更新为vp(c,r)。
优选地,所述步骤(2.4)包括以下分步骤:
(2.4.1)通过公式(5)计算vp点的OCR,通过公式(6)ColorD(6),获得对应角度的OCR特征值与最大的颜色通道区域平均像素差,并通过公式(8)计算Final特征值
ColorD(a1,a2)=max{ColorD(a1,a2)c|c=(R,G,B)} (6)
其中OCR为OCR特征,SumO为预测线上方向一致的点的个数,SumL为整条直线总点数,a1,a2是对应道路预测线的两个三角形区域,实验中取30°,average(an)是n区域单通道颜色值的平均值;
(2.4.2)通过公式(8)计算Final,通过公式(13)检验约束条件,得到最大Final的角度;
(2.4.3)通过步骤(2.3.2)确定的角度计算RoadNextPoint(x,y),并更新为vp(c,r)。
颜色是区分道路边界的重要信息,区域颜色区分度越大则成为边界的可能性也越大。但是颜色信息也存在一定问题,那便是阴影和光照的影响。针对此问题,本文采用OCR特征即方向一致程度来弥补颜色区域的偏差。在此基础上结合条件约束函数,通过道路直线段来逼近整个道路曲线。在估计出初始消失点的位置后,开始使用多特征融合的方法逐步计算道路预测线端点位置从而提取出整条道路曲线。所以一个正确的消失起始点对于全景图的道路轮廓提取有着至关重要的作用。在得到相对准确的消失点后,分别计算预测线OCR特征值、颜色信息以及进行约束函数的判断。最终选取36个不同方向中融合特征数值最大的方向作为下一个消失点的位置参数。重复该过程直到消失点到达图像边缘。
道路预测线是一组预测道路边界的线段。预测线的范围从0°到180°,每5°一个间隔,总共有36个方向。预测线的起点和终点的长度可任意设置,在实验中是5像素。对于每个方向分别计算OCR特征。OCR特征是预测线上方向一致的点的个数SumO与整条直线总点数SumL的比率,表示一条预测线指向道路消失点方向的一致性程度OCR特征值越大则说明此条预测线是道路边界的可能性越高。对应的判别条件是每个直线点上的纹理方向与预测线方向夹角不大于5°。举例来说,本实验采用的全景图横向是由5幅图像融合所得,所以当x坐标位于(1/5—2/5)imageW之间时是道路拐点,0°的SumL取1/5×imageW。
颜色信息是判断道路边界的重要条件,道路预测线与消失点划分道路为两个区域a1和a2。在实验中每个区域与预测线的夹角为30°长度为10像素并以消失点为起始点依次从0°至180°进行颜色区域的划分。对应的颜色信息是RGB三个颜色通道中的最大值,公式表示如下:
ColorD(a1,a2)=max{ColorD(a1,a2)c|c=(R,G,B)} (6)
average(an)是n区域单通道颜色值的平均值。对于结构化道路颜色的巨大变化很有可能是道路边界;但是对于非结构化道路,道路之间的颜色信息的变化则相对不明显。还有图片中的光照条件阴影等客观因素都会影响颜色信息的准确性。Final函数是一组道路预测线OCR特征与对应颜色信息的乘积。Final函数的最大值对应的方向便是下一个边界点的方向。
AngleofFirstLine是Final对应的角度。判别公式如下
后续消失点的位置计算分为两种情况,当c>(imageW)/m时,其中m是横向融合成全景图的图片数,下一点计算公式如下:
RoadNextPointX=c-cos((180-AngleOfFirstLine)*π/180)*step (9)
RoadNextPointY=tan((180-AngleOfFirstLine)*π/180)*(c-RoadNextPointX)+r (10)
当c<(imageW)/m时,其中m是横向融合成全景图的图片数,下一点计算公式如下:
RoadNextPointX=c-cos((AngleOfFirstLine)*π/180)*step (11)
RoadNextPointY=-tan((AngleOfFirstLine)*π/180)*(c-RoadNextPointX)+r (12)
其中step是RoadNextPoint与当前消失点的距离。c是消失点或边界点的x坐标,r是消失点或边界点的y坐标。imageW为图像宽度实验中为240px,imageH为图像高度实验中为180px。
由于在进行颜色计算的过程中,会有阴影或者图片融合等因素的影响,计算所得结果并非最优的道路边界点。因此根据先验信息提出约束函数:道路第一条左边界横坐标应该单调减小,若下一点x坐标大于前一点x坐标,则此Final置0并重新获取下一个Final值进行计算。其中diffx为两个X坐标间的差值。所以本文提出一个约束函数:
道路提取算法首先根据初始的道路消失点,以此为基础计算每条道路预测线的OCR和颜色信息。其中第一条边界线夹角(AngleOfFirstLine)是从初始消失点右水平线为0°开始向下开始逐渐递增直至消失点做水平线为180°,当消失点位置向左位移到小于五分之一图像宽度时,夹角变为该位移消失点左水平线为0°逐渐向上递增直到该消失点有水平线180°停止。当完成整个0°至180°的计算过程后,取得前n个最大预测线OCR值(n=min{l,8},l表示有效的预测线个数)与对应最大的颜色通道区域平均像素差相乘从而获得对应的Final值。在约束函数的约束下,求得这一点最有可能的道路边界角度并将消失点移动到下一点的边界位置。
分水岭算法是一种基于形态学和拓扑理论的分割方法。最早由Digabel和Lantuejoul在图像处理领域提出,分水岭算法凭借其计算速度快、对微弱边缘拥有较强的敏感性以及封闭性好等特点,很快成为了人们研究的重点。随后为了获取更加通用的模型,L.Vincent等人在前人的基础上继续深入研究并最终提出了一种经典的计算方法。
分水岭方法的主要思想是将输入的图像看作地理地貌,图像中每一个像素的灰度值代表着该点的地貌高度,整幅图像自然形成一个高度序列。其中局部最小值和其影响的区域形成集水盆,集水盆的边界则形成分水岭。在L.Vincent提出的方法中,分水岭的计算过程分为如下两个阶段,第一个阶段是排序,第二个阶段是淹没过程。淹没过程可以看作是对于图像中每一个局部极小值设置一个小孔,通过小孔形成溢流然后水流慢慢波及其影响区域,形成集水盆,进而形成分水岭获得区域边界。
本文所使用的多特征融合算法虽然可以正确的提取道路边界,但是也存在着道路边界不够平滑边界并围绕实际边界浮动的问题。为了在没有阴影和车辆影响的情况下,解决上述问题本文采用了对于微弱边缘有较强提取效果的分水岭方法。在已有的分界线基础上,进行上下位移形成两条线。它们分别为前景、背景标识线,主要的作用是进行区域分割的标识,避免注水过程覆盖到其他区域。以多特征融合算法提取的道路边界为标志线输入时,不仅可以将半自动的分水岭算法变为了自动的分水岭算法,而且还可以在没有其他干扰因素的影响下提高道路边界的准确度。由于分水岭算法只考虑颜色和标识信息,所以在有阴影或车辆遮挡条件下无法进行道路边界优化。但是输入信息为本文提取的边界,所以可以一定程度上在车辆和阴影内部按照颜色轮廓进行边界划分。整体而言,分水岭算法可以将本文提取的边界结果提高精确度和去除浮动。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (1)
1.一种全景图道路轮廓的提取方法,其特征在于,包括以下步骤:
(1)输入原始的道路图像,使用基于Gabor小波的消失点估计方法来计算全景图每点像素的纹理方向信息和置信函数,获得消失点位置的局部自适应软投票算法的输入信息从而得到消失点位置;
(2)在计算得到消失点位置后,从消失点或边界点发射一组道路预测线段,从而计算OCR特征和分隔颜色区域,获得融合多特征信息和约束函数来判别出最合适的道路边界方向;
(3)将下一个边界点选为预测线段的起点,并重复步骤(2)直至到达图像边界;
(4)对道路边界进行上下位移形成前景线与背景线,将前景线与背景线作为输入传到分水岭方法中进行计算,最后获得优化后的全景图道路轮廓;
所述步骤(1)包括以下分步骤:
(1.1)对于原始的道路图像的每个像素,通过公式(1)、(2)计算纹理方向信息,通过公式(3)计算置信函数
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msub>
<mi>&pi;&sigma;</mi>
<mi>x</mi>
</msub>
<msub>
<mi>&sigma;</mi>
<mi>y</mi>
</msub>
</mrow>
</mfrac>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>(</mo>
<mrow>
<mfrac>
<msup>
<mi>x</mi>
<mn>2</mn>
</msup>
<mrow>
<msup>
<msub>
<mi>&sigma;</mi>
<mi>x</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<msup>
<mi>y</mi>
<mn>2</mn>
</msup>
<mrow>
<msup>
<msub>
<mi>&sigma;</mi>
<mi>y</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>&pi;</mi>
<mi>j</mi>
<mi>W</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>H</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>(</mo>
<mrow>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>-</mo>
<mi>W</mi>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<msup>
<msub>
<mi>&sigma;</mi>
<mi>u</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<msup>
<mi>v</mi>
<mn>2</mn>
</msup>
<mrow>
<msup>
<msub>
<mi>&sigma;</mi>
<mi>v</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msqrt>
<mrow>
<mo>(</mo>
<msub>
<mi>h</mi>
<mi>R</mi>
</msub>
<mo>*</mo>
<mi>I</mi>
<mo>)</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mo>(</mo>
<msub>
<mi>h</mi>
<mi>I</mi>
</msub>
<mo>*</mo>
<mi>I</mi>
<mo>)</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mrow>
<mi>A</mi>
<mi>v</mi>
<mi>e</mi>
<mi>r</mi>
<mi>a</mi>
<mi>g</mi>
<mi>e</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>5</mn>
</msub>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>r</mi>
<mn>15</mn>
</msub>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>r</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
其中g(x,y)是用来调制的高斯函数;x=xcosθ+ysinθ,y=-xsinθ+ycosθ;θ是Gabor核函数的方向; σx和σy是其在两个坐标轴上的标准方差,它们决定了滤波器作用区域的大小;W为复正弦函数在横轴上的频率;将Gabor函数分解为实部hR(x,y)和虚部hI(x,y)两个分量;h*I表示图像I和滤波器h的卷积;rn(z)表示36个方向中z像素的响应程度并让r1(z)>…>r36(z);
(1.2)对置信函数进行归一化操作,保留所有置信函数高于阈值0.3的像素点;
(1.3)将前90%的像素点作为消失点候选点;
(1.4)对每个消失点候选点创建选区Vote aera,并基于公式(4)进行投票,
<mrow>
<mi>V</mi>
<mi>o</mi>
<mi>t</mi>
<mi>e</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>,</mo>
<mi>V</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<mi>r</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>r</mi>
<mo>&le;</mo>
<mfrac>
<mn>5</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mn>2</mn>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
V是消失点,Rv是选区域,r是Rv中某个点P的纹理方向OP与PV的角度,d(p,v)是PV的距离与图像对角线长度的比率;
(1.5)得到最多票数的像素点作为初始化消失点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510021612.3A CN104700071B (zh) | 2015-01-16 | 2015-01-16 | 一种全景图道路轮廓的提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510021612.3A CN104700071B (zh) | 2015-01-16 | 2015-01-16 | 一种全景图道路轮廓的提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700071A CN104700071A (zh) | 2015-06-10 |
CN104700071B true CN104700071B (zh) | 2018-04-27 |
Family
ID=53347170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510021612.3A Active CN104700071B (zh) | 2015-01-16 | 2015-01-16 | 一种全景图道路轮廓的提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700071B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105005761B (zh) * | 2015-06-16 | 2018-08-17 | 北京师范大学 | 一种结合显著性分析的全色高分辨率遥感图像道路检测方法 |
CN105069411B (zh) * | 2015-07-24 | 2019-03-29 | 深圳市佳信捷技术股份有限公司 | 道路识别方法和装置 |
CN106023180A (zh) * | 2016-05-17 | 2016-10-12 | 李迎春 | 一种非结构化道路rgb熵分割方法 |
CN106570495A (zh) * | 2016-11-19 | 2017-04-19 | 南宁市浩发科技有限公司 | 一种复杂环境下的道路检测方法 |
CN107977664B (zh) * | 2017-12-08 | 2019-12-31 | 重庆大学 | 一种基于单幅图像的道路消失点检测方法 |
CN108090479B (zh) * | 2018-01-26 | 2020-05-12 | 湖北工业大学 | 一种改进Gabor变换和更新消失点的车道检测方法 |
CN110132288B (zh) * | 2019-05-08 | 2022-11-22 | 南京信息工程大学 | 一种等宽路面的微型车视觉导航方法 |
CN112132751B (zh) * | 2020-09-28 | 2023-02-07 | 广西信路威科技发展有限公司 | 基于频域变换的视频流车身全景图像拼接装置和方法 |
CN112818775B (zh) * | 2021-01-20 | 2023-07-25 | 北京林业大学 | 基于区域边界像素交换的林区道路快速识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915441A (zh) * | 2012-08-30 | 2013-02-06 | 杭州电子科技大学 | 基于Haar纹理的非结构化道路检测方法 |
CN103440649A (zh) * | 2013-08-23 | 2013-12-11 | 安科智慧城市技术(中国)有限公司 | 一种车道边界线检测方法及装置 |
CN104050681A (zh) * | 2014-07-04 | 2014-09-17 | 哈尔滨工业大学 | 一种基于视频图像的道路消失点检测方法 |
-
2015
- 2015-01-16 CN CN201510021612.3A patent/CN104700071B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915441A (zh) * | 2012-08-30 | 2013-02-06 | 杭州电子科技大学 | 基于Haar纹理的非结构化道路检测方法 |
CN103440649A (zh) * | 2013-08-23 | 2013-12-11 | 安科智慧城市技术(中国)有限公司 | 一种车道边界线检测方法及装置 |
CN104050681A (zh) * | 2014-07-04 | 2014-09-17 | 哈尔滨工业大学 | 一种基于视频图像的道路消失点检测方法 |
Non-Patent Citations (3)
Title |
---|
General Road Detection From a Single Image;Hui Kong et al.;《IEEE Transactions on image processing》;20101231;第96-103页 * |
基于 GVF 和 Snake 模型的高分辨率遥感图像四元数空间道路提取;唐伟 等;《遥感学报》;20111231(第5期);第1048页第2-4段 * |
基于纹理特征和消失点的道路识别算法研究;米超;《中国优秀硕士学位论文全文数据库·信息科技辑》;20130615(第6期);第24-27页,第35-36页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104700071A (zh) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104700071B (zh) | 一种全景图道路轮廓的提取方法 | |
CN108280450B (zh) | 一种基于车道线的高速公路路面检测方法 | |
CN107045629B (zh) | 一种多车道线检测方法 | |
Cheng et al. | Extraction and classification of road markings using mobile laser scanning point clouds | |
CN106909902B (zh) | 一种基于改进的层次化显著模型的遥感目标检测方法 | |
Zhou et al. | On detecting road regions in a single UAV image | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN107092871B (zh) | 基于多尺度多特征融合的遥感影像建筑物检测方法 | |
CN111027446B (zh) | 一种高分辨率影像的海岸线自动提取方法 | |
CN108171695A (zh) | 一种基于图像处理的高速公路路面检测方法 | |
CN101901343A (zh) | 基于立体约束的遥感影像道路提取方法 | |
CN109978848A (zh) | 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法 | |
CN103955913A (zh) | 一种基于线段共生矩阵特征和区域图的sar图像分割方法 | |
CN109886168B (zh) | 一种基于层阶的地面交通标志识别方法 | |
CN103198479A (zh) | 基于语义信息分类的sar图像分割方法 | |
CN109635722B (zh) | 一种高分辨率遥感影像路口自动识别方法 | |
CN111753693B (zh) | 一种静态场景下目标检测方法 | |
Baluyan et al. | Novel approach for rooftop detection using support vector machine | |
Jin et al. | Road feature extraction from high resolution aerial images upon rural regions based on multi-resolution image analysis and Gabor filters | |
Peng et al. | Incorporating generic and specific prior knowledge in a multiscale phase field model for road extraction from VHR images | |
CN108022245A (zh) | 基于面线基元关联模型的光伏面板模板自动生成方法 | |
Yao et al. | Automatic extraction of road markings from mobile laser-point cloud using intensity data | |
CN111652033A (zh) | 基于OpenCV的车道线检测方法 | |
CN110853000B (zh) | 一种车辙的检测方法 | |
CN109359653A (zh) | 一种棉花叶部粘连病斑图像分割方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |