CN103411536B - 基于双目立体视觉的驾驶辅助障碍物检测方法 - Google Patents
基于双目立体视觉的驾驶辅助障碍物检测方法 Download PDFInfo
- Publication number
- CN103411536B CN103411536B CN201310373949.1A CN201310373949A CN103411536B CN 103411536 B CN103411536 B CN 103411536B CN 201310373949 A CN201310373949 A CN 201310373949A CN 103411536 B CN103411536 B CN 103411536B
- Authority
- CN
- China
- Prior art keywords
- image
- img
- pixel
- prime
- ccd video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明公开了一种基于双目立体视觉的驾驶辅助障碍物检测方法,属于环境感知技术领域。其主要步骤包括:同步采集安装在车辆正前方的两个CCD摄像机各自输出的一帧图像;对所采集的图像分别进行畸变校正;调用立体匹配子流程对校正后的两幅图像进行立体匹配,得到所有像素点的对应关系;根据摄像机参数分别计算两个CCD摄像机的投影矩阵;寻找两幅校正后的图像中所有对应像素点对;根据投影矩阵对该时刻采集的图像进行场景的三维重建,得到障碍物场景的空间坐标,并进行障碍物区域筛选,输出障碍物位置信息图像。本发明实现了车辆在静止或行进过程中对路面障碍物的自动检测功能,其突出优点是,可无人值守、检测结果精度高。
Description
技术领域
本发明属于环境感知技术领域,主要涉及一种智能车辆的障碍物检测方法,尤其涉及一种基于双目立体视觉的驾驶辅助障碍物检测方法。
背景技术
障碍物检测技术是智能车辆辅助驾驶信息感知系统中的关键技术之一。利用障碍物检测技术可以感知到车辆前方可能存在的障碍物,包括车辆前方障碍物的位置、尺寸、与本车的距离等信息,进而判断自身车辆是否需要采取障碍物信息预警或障碍物躲避等。实现对车辆前方障碍物的探测及对危险的预测是智能车辆辅助驾驶系统中不可缺少的一个功能,也是智能车辆实现自主驾驶的前提条件。
目前,绝大部分智能车辆采用距离传感器进行障碍物检测,虽然距离传感器可以提供关于障碍物距离-朝向信息,但是只能检测位于扫描平面上的障碍物,而机器视觉系统则可以为智能车辆辅助驾驶提供丰富和实时的环境信息,因此得到了广泛的应用。
公开号为CN201010189865.9的中国专利申请公开了一种基于机器人双目立体视觉的地面障碍物检测方法,该方法使用双目视觉系统俯视地面并采集图像,根据双目基线长度、焦距和系统距地面的高度,解算图像中各行的地面视差值,并在此基础上,通过反投影模型计算像素对应的场景点坐标,从而判断该像素属于障碍物或是地面点,建立栅格地图。该方法在室内较为复杂的环境中可精确识别障碍物,并具有很高的实时性。但由于该方法在视差解算时,视差精度与双目视觉系统距地面的高度成反比关系,因此该方法的检测误差随着双目视觉系统距地面高度的减小而增大,对系统的安装位置有一定的要求,此外,该方法使用俯视方式采集地面图像,导致对障碍物高度信息采集不完整,因此对被检测的障碍物高度也有一定的限制。
发明内容
本发明要解决的技术问题是,为智能车辆辅助驾驶系统提供一种障碍物检测方法,具体地说,是提供一种基于双目立体视觉的驾驶辅助障碍物检测方法。
为解决上述技术问题,本发明提供的检测方法是由装有驾驶辅助障碍物检测软件包的计算机实现的,当计算机上电后,该软件包执行以下操作步骤:
第一步,打开CCD摄像机Cam_L和CCD摄像机Cam_R的电源,将存储器中存有的已知参数加载至计算机内存中,且计数参数circle_num清零;
第二步,查询检测指令,若未接到检测指令,等待;若接到检测指令,通过图像采集卡同步采集CCD摄像机Cam_L和CCD摄像机Cam_R各自输出的一帧分辨率均为M×N的图像CL和图像CR,并存储于存储器中;
第三步,调用存储器中的图像CL和图像CR,根据下组公式对图像CL和图像CR进行畸变校正,分别得到两幅分辨率均为M×N的图像CL′和图像CR′:
式中,(xcl,ycl)和(xcr,ycr)分别是图像CL和图像CR中任意像素点的图像坐标,(xcl′,ycl′)和(xcr′,ycr′)分别是图像CL′和图像CR′中任意像素点的图像坐标,且xcl=1,2,...M,xcr=1,2,...M,xcl′=1,2,...M,xcr′=1,2,...M,ycl=1,2,...N,ycr=1,2,...N,ycl′=1,2,...N,ycr′=1,2,...N,kl1、kl2均为CCD摄像机Cam_L的径向畸变参数,pl1、pl2均为CCD摄像机Cam_L切向畸变参数,kr1、kr2均为CCD摄像机Cam_R的径向畸变参数,pr1、pr2均为CCD摄像机Cam_R的切向畸变参数,kl1、kl2、pl1、pl2、kr1、kr2、pr1、pr2均为对摄像机标定得到的已知参数;
第四步,对图像CL′和图像CR′进行立体匹配,具体步骤如下:
(4.1)计算图像CL′和图像CR′的极线约束基本矩阵F;
(4.2)将图像CL′作为基准图像,图像CR′作为待配准图像,进行如下匹配操作:
(4.2.1)在基准图像CL′中选取像素点AL(xA,yA),其中,xA=n+1,yA=n+1,且n满足n≤(min(M,N)-1)/2;
(4.2.2)计算像素点AL(xA,yA)在图像CR′中满足下式的对应待配准像素点集SA={Pq(xq,yq)},q=1,2,...,k,其中,k为像素点集SA中像素点的个数;
[xqyq1]F[xAyA1]T=0
(4.2.3)在图像CL′中建立一个以像素点AL(xA,yA)为中心,大小为(2n+1)×(2n+1)的配准窗口,在图像CR′中建立一个以像素点集SA={Pq(xq,yq)}中第q个像素点为中心,大小为(2n+1)×(2n+1)的配准窗口,并按照下式计算像素点AL(xA,yA)和像素点集SA={Pq(xq,yq)}中所有像素点的相关参数Cq,共计得到k个Cq值;
式中,Il(xA+i,yA+j)为图像CL′中对应像素点(xA+i,yA+j)的灰度值,Ir(xq+dq+i,yq+j)为图像CR′中对应像素点(xq+dq+i,yq+j)的灰度值,其中,i=-n,-n+1,...,n,j=-n,-n+1,...,n,dq为图像CL′和图像CR′中对应待配准像素点对A(xA,yA)和Pq(xq,yq)的视差;
(4.2.4)将k个相关参数Cq与阈值Tth逐一比较,若有t个Cq值满足Cq<Tth,则计数参数circle_num=circle_num+t,其中1≤t≤k;
(4.2.5)判断计数参数circle_num的值:
若circle_num=0,直接跳至(4.2.6);
若circle_num=1,选择满足Cq<Tth时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储,跳至步骤(4.2.6);
若circle_num≥2,选择满足Cq<Tth且满足Cq=min{Cq}时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储;
(4.2.6)令yA=yA+1,且计数参数circle_num清零,反复重复步骤(4.2.2)-(4.2.5),直至计算出图像CL′中yA=N-n的像素点在图像CR′中的对应配准点为止;
(4.2.7)令xA=xA+1,反复重复步骤(4.2.2)-(4.2.6),直至计算出图像CL′中坐标值为(M-n,N-n)的像素点在图像CR′中的对应配准点为止;
(4.3)根据基准图像CL′和待配准图像CR′中的所有配准点对,并利用最小二乘法计算基准图像CL′和待配准图像CR′的像素点对应关系flr,其中,fij为矩阵flr中的元素,i=1,2,3,j=1,2,3;
第五步,根据CCD标定的已知参数,计算CCD摄像机Cam_L的投影矩阵Ml和CCD摄像机Cam_R的投影矩阵Mr;
第六步,根据下式计算图像CL′中所有像素点(xcl′,ycl′)在图像CR′中一一对应的配准点的坐标值(xr,yr);
第七步,根据下式对图像CL′中和图像CR′中所有的对应配准点对(xcl′,ycl′)和(xr,yr)进行三维场景重建,得到所有的对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系对应的实际坐标(XW,YW,ZW),并将其存入存储器中;
A=(PTP)-1PTb
其中,A=[XW,YW,ZW]T为图像CL′中和图像CR′中对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系中对应的实际三维坐标(XW,YW,ZW)的列向量,其中,xcl′∈{1,2,3,...,M},xr∈{1,2,3,...,M},ycl′∈{1,2,3,...,N},yr∈{1,2,3,...,N},矩阵P为一个4×3的矩阵,表示如下:
b为一个四维列向量,表示如下:
其中,mlij为CCD摄像机Cam_L投影矩阵Ml中的元素,mrij为CCD摄像机Cam_R投影矩阵Mr中的元素,i=1,2,3,j=1,2,3,4;
第八步,根据世界坐标系中每一个场景点的实际坐标用下式进行障碍物区域筛选,得到筛选后的所有场景点的实际坐标(XW′,YW′,ZW′);
其中,Desth为探测距离阈值;
第九步,根据下式建立障碍物信息图像IMG,存储并在计算机屏幕上显示;
其中,(ximg,yimg)为障碍物信息图像IMG中的像素点坐标,I(ximg,yimg)为障碍物信息图像IMG中对应像素点(ximg,yimg)的灰度值;
第十步,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0的区域面积S,若满足S≥S0,则进入第十一步,若满足S<S0,则进入第十二步,其中,S0为障碍物正向投影面积阈值;
第十一步,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0区域中所有像素点坐标(ximg,yimg)所对应的ZW′坐标值的平均值Zaverage,将Zaverage与障碍物报警距离阈值Zth进行比较:若满足Zaverage<Zth时,向蜂鸣器发送障碍物报警指令,若满足Zaverage≥Zth时,则直接进入第十二步,其中,Zth=VMOV·timeth,VMOV为车辆当前行驶速度,timeth为车辆当前位置至与障碍物发生碰撞所需的时间阈值;
第十二步,查询关机指令,若未接到关机指令,返回第二步;若接到关机指令,结束。
本发明的有益效果体现在以下几个方面。
(一)本发明是基于双目立体视觉系统,提出了一种不需人为干涉的障碍物检测方法,它使用两个经过标定的CCD摄像机,同步采集车辆在静止或行驶过程中正前方路面的环境图像数据,并自主通过同一时刻采集的两幅图像进行基于三维重构的一系列图像处理和相应的计算后,精确获取车辆前方场景中障碍物的位置、尺寸、与本车的距离等信息,使智能车辆可以实时的进行车辆前方场景中障碍物的检测,从而实现障碍物告警。
(二)本发明在两个CCD摄像机采集图像的畸变校正过程中加入了切向畸变校正,进一步有效的提高图像坐标获取的准确性,同时在立体匹配的过程中加入了极线约束条件,缩小了特征点匹配范围,减少了立体匹配过程的计算量,提高了立体特征匹配的匹配精度,从而实现更精确的获取障碍物场景的三维信息,为车辆障碍物告警与规避提供了很好的准备条件。
附图说明
图1是双目立体视觉障碍物检测设备组成示意图。
图2是本发明驾驶辅助障碍物检测方法的主流程图。
图3是图2中立体匹配子程序的流程图。
具体实施方式
下面结合附图及实施例对本发明作进一步的详述。
本发明的主要任务是提供一种基于双目立体视觉的驾驶辅助障碍物检测方法,实现在车辆处于静止或行驶状态下对车辆正前方的障碍物进行实时检测。
根据图1所示,实现本发明障碍物检测方法所需的检测设备包括两个带有光学镜头的CCD摄像机、一台计算机和一个用于报警的蜂鸣器。两个CCD摄像机的参数完全相同,两个光学镜头的参数完全相同。两个CCD摄像机安装在车辆正前方,两个CCD摄像机成像中心点的连线OLOR称为双目基线,其长度范围可任意取值,但应与车辆尺寸和摄像机的径向外形尺寸相匹配;两个CCD摄像机光轴的夹角为α,且满足0°≤α<180°;双目基线OLOR和两个CCD摄像机的光轴OOL、OOR分别与地面平行。本优选实施例中,双目基线OLOR=180mm,两个CCD摄像机的光轴夹角α=0°。计算机装有图像采集卡、存储器和驾驶辅助障碍物检测软件包。计算机和两个CCD摄像机通过电缆相连。计算机和蜂鸣器通过电缆相连。图像采集卡的采集速率应不小于30fps,存储器中存有实现驾驶辅助障碍物检测方法所需要的已知参数,这些参数包括经过立体标定得到的CCD摄像机Cam_L的图像坐标系X轴上尺度因子axl,图像坐标系Y轴上尺度因子ayl,图像中心点坐标(ul0,vl0),摄像机坐标系与世界坐标系之间的旋转矩阵Rl和平移向量Tl,摄像机的径向畸变参数kl1、kl2和切向畸变参数pl1、pl2;CCD摄像机Cam_R的图像坐标系X轴上尺度因子axr、图像坐标系Y轴上尺度因子ayr,图像中心点坐标(ur0,vr0),摄像机坐标系与世界坐标系之间的旋转矩阵Rr和平移向量Tr,摄像机的径向畸变参数kr1、kr2和切向畸变参数pr1、pr2;CCD摄像机Cam_L和CCD摄像机Cam_R的相对角度因子γ,相对旋转矩阵R和相对平移向量T,其中,Rl、Rr、R均为3×3的正单位矩阵,Tl、Tr、T均为三维列向量。
不难看出,实现驾驶辅助障碍物检测的核心是驾驶辅助障碍物检测软件包,当计算机上电后,该软件包按照图2所示的流程执行以下操作步骤。
第一步,初始化。打开CCD摄像机Cam_L和CCD摄像机Cam_R的电源,将存储器中存有的已知参数加载至计算机内存中,且计数参数circle_num清零;
第二步,查询检测指令,若未接到检测指令,等待;若接到检测指令,通过图像采集卡同步采集CCD摄像机Cam_L和CCD摄像机Cam_R各自输出的一帧分辨率均为M×N的图像CL和图像CR,并存储于存储器中,在本优选实施例中,M=1920,N=1080;
第三步,调用存储器中的图像CL和图像CR,根据式(1)和式(2)所示模型对图像CL和图像CR进行畸变校正,分别得到校正后的两幅分辨率均为M×N的图像CL′和图像CR′。
式中,(xcl,ycl)和(xcr,ycr)分别是图像CL和图像CR中任意像素点的图像坐标,(xcl′,ycl′)和(xcr′,ycr′)分别是图像CL′和图像CR′中任意像素点的图像坐标,且xcl=1,2,...M,xcr=1,2,...M,xcl′=1,2,...M,xcr′=1,2,...M,ycl=1,2,...N,ycr=1,2,...N,ycl′=1,2,...N,ycr′=1,2,...N;
第四步,调用如图3所示的立体匹配子流程对第三步中经畸变校正后的图像CL′和图像CR′进行立体匹配,具体步骤如下:
(4.1)根据式(3)计算图像CL′和图像CR′的极线约束基本矩阵F,即
其中,[T]×为两个CCD摄像机Cam_L和Cam_R的相对平移向量T的反对称矩阵,计算得到的极线约束基本矩阵F为3×3的矩阵。
(4.2)将图像CL′作为基准图像,图像CR′作为待配准图像,进行如下匹配操作:
(4.2.1)在基准图像CL′中选取像素点AL(xA,yA),其中,xA=n+1,yA=n+1,且n满足n≤(min(M,N)-1)/2;
(4.2.2)计算像素点AL(xA,yA)在图像CR′中满足式(4)的对应待配准像素点集SA={Pq(xq,yq)},q=1,2,...,k,其中,k为像素点集SA中像素点的个数,即k=size(S);
[xqyq1]F[xAyA1]T=0(4)
(4.2.3)在图像CL′中建立一个以像素点AL(xA,yA)为中心,大小为(2n+1)×(2n+1)的配准窗口,在图像CR′中建立一个以像素点集SA={Pq(xq,yq)}中第q个像素点为中心,大小为(2n+1)×(2n+1)的配准窗口,并按照式(5)计算像素点AL(xA,yA)和像素点Pq(xq,yq)的相关系数Cq。
式(5)中,Il(xA+i,yA+j)为图像CL′中对应像素点(xA+i,yA+j)的灰度值,Ir(xq+dq+i,yq+j)为图像CR′中对应像素点(xq+dq+i,yq+j)的灰度值,其中,i=-n,-n+1,...,n,j=-n,-n+1,...,n,dq为图像CL′和图像CR′中对应待配准像素点对A(xA,yA)和Pq(xq,yq)的视差。
本步骤中,反复利用式(5)计算像素点AL(xA,yA)和像素点集SA={Pq(xq,yq)}中所有像素点的相关参数Cq,共计得到k个Cq值;
(4.2.4)将k个相关参数Cq与阈值Tth逐一比较,若有t个Cq值满足Cq<Tth,则计数参数circle_num=circle_num+t,其中1≤t≤k;
(4.2.5)判断计数参数circle_num的值:
若circle_num=0,直接跳至(4.2.6);
若circle_num=1,选择满足Cq<Tth时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储,跳至步骤(4.2.6);
若circle_num≥2,选择满足Cq<Tth且满足Cq=min{Cq}时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储,跳至步骤(4.2.6);
(4.2.6)令yA=yA+1,且计数参数circle_num清零,反复重复步骤(4.2.2)-(4.2.5),直至计算出图像CL′中yA=N-n的像素点在图像CR′中的对应配准点为止;
(4.2.7)令xA=xA+1,反复重复步骤(4.2.2)-(4.2.6),直至计算出图像CL′中坐标值为(M-n,N-n)的像素点在图像CR′中的对应配准点为止;
(4.3)调用经过步骤(4.1)-(4.2)计算得到的基准图像CL′和待配准图像CR′中的所有配准点对,分别代入(6)式,利用最小二乘法计算基准图像CL′和待配准图像CR′的像素点对应关系flr,其中,flr为一个3×3的矩阵;
第五步,根据式(7)-(8)分别计算CCD摄像机Cam_L的投影矩阵Ml和CCD摄像机Cam_R的投影矩阵Mr:
其中,CCD摄像机Cam_L的投影矩阵Ml和CCD摄像机Cam_R的投影矩阵Mr均为3×4的矩阵;
第六步,根据式(9)计算图像CL′中所有像素点(xcl′,ycl′)在图像CR′中一一对应的配准点的坐标值(xr,yr)。
第七步,根据式(10)对图像CL′中和图像CR′中所有的对应配准点对(xcl′,ycl′)和(xr,yr)进行三维场景重建,得到所有的对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系对应的实际坐标(XW,YW,ZW),并将其存入存储器中。
A=(PTP)-1PTb(10)
其中,A=[XW,YW,ZW]T为图像CL′中和图像CR′中对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系中对应的实际三维坐标(XW,YW,ZW)的列向量,其中,xcl′∈{1,2,3,...,M},xr∈{1,2,3,...,M},ycl′∈{1,2,3,...,N},yr∈{1,2,3,...,N},矩阵P为一个4×3的矩阵,表示如下:
b为一个四维列向量,表示如下:
第八步,调用第七步中计算得到的世界坐标系中所有场景点的实际坐标(XW,YW,ZW),并对世界坐标系中每一个场景点的实际坐标使用式(11)进行障碍物区域筛选:
得到筛选后的所有场景点的实际坐标(XW′,YW′,ZW′),其中,Desth为探测距离阈值,其值可根据实际情况选取,并应小于两个CCD摄像机的实际最远探测距离。
第九步,针对第八步计算得到的所有场景点的实际坐标(XW′,YW′,ZW′),根据式(12)建立障碍物信息图像IMG,存储并在计算机屏幕上显示。
其中,(ximg,yimg)为障碍物信息图像IMG中的像素点坐标,I(ximg,yimg)为障碍物信息图像IMG中对应像素点(ximg,yimg)的灰度值。
第十步,调用第九步得到的障碍物信息图像IMG,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0的区域面积S,若满足S≥S0,则进入第十一步,若满足S<S0,则进入第十二步,其中,S0为障碍物正向投影面积阈值,可根据经验选取。
第十一步,当S≥S0时,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0区域中所有像素点坐标(ximg,yimg)所对应的ZW′坐标值的平均值Zaverage,将Zaverage与障碍物报警距离阈值Zth进行比较:若满足Zaverage<Zth时,向蜂鸣器发送障碍物报警指令,若满足Zaverage≥Zth时,则直接进入第十二步,其中,Zth=VMOV·timeth,VMOV为车辆当前行驶速度,timeth为车辆当前位置至与障碍物发生碰撞所需的时间阈值,根据经验,timeth的值取10秒。
第十二步,查询关机指令,若未接到关机指令,返回第二步;若接到关机指令,结束。
Claims (1)
1.一种基于双目立体视觉的驾驶辅助障碍物检测方法,其特征在于,该方法是由装有驾驶辅助障碍物检测软件包的计算机实现的,当计算机上电后,该软件包执行以下操作步骤:
第一步,打开CCD摄像机Cam_L和CCD摄像机Cam_R的电源,将存储器中存有的已知参数加载至计算机内存中,且计数参数circle_num清零;
第二步,查询检测指令,若未接到检测指令,等待;若接到检测指令,通过图像采集卡同步采集CCD摄像机Cam_L和CCD摄像机Cam_R各自输出的一帧分辨率均为M×N的图像CL和图像CR,并存储于存储器中;
第三步,调用存储器中的图像CL和图像CR,根据下组公式对图像CL和图像CR进行畸变校正,分别得到两幅分辨率均为M×N的图像CL′和图像CR′:
式中,(xcl,ycl)和(xcr,ycr)分别是图像CL和图像CR中任意像素点的图像坐标,(xcl′,ycl′)和(xcr′,ycr′)分别是图像CL′和图像CR′中任意像素点的图像坐标,且xcl=1,2,...M,xcr=1,2,...M,xcl′=1,2,...M,xcr′=1,2,...M,ycl=1,2,...N,ycr=1,2,...N,ycl′=1,2,...N,ycr′=1,2,...N,kl1、kl2均为CCD摄像机Cam_L的径向畸变参数,pl1、pl2均为CCD摄像机Cam_L切向畸变参数,kr1、kr2均为CCD摄像机Cam_R的径向畸变参数,pr1、pr2均为CCD摄像机Cam_R的切向畸变参数,kl1、kl2、pl1、pl2、kr1、kr2、pr1、pr2均为对摄像机标定得到的已知参数;
第四步,对图像CL′和图像CR′进行立体匹配,具体步骤如下:
(4.1)计算图像CL′和图像CR′的极线约束基本矩阵F;
(4.2)将图像CL′作为基准图像,图像CR′作为待配准图像,进行如下匹配操作:
(4.2.1)在基准图像CL′中选取像素点AL(xA,yA),其中,xA=n+1,yA=n+1,且n满足n≤(min(M,N)-1)/2;
(4.2.2)计算像素点AL(xA,yA)在图像CR′中满足下式的对应待配准像素点集SA={Pq(xq,yq)},q=1,2,...,k,其中,k为像素点集SA中像素点的个数;
[xqyq1]F[xAyA1]T=0
(4.2.3)在图像CL′中建立一个以像素点AL(xA,yA)为中心,大小为(2n+1)×(2n+1)的配准窗口,在图像CR′中建立一个以像素点集SA={Pq(xq,yq)}中第q个像素点为中心,大小为(2n+1)×(2n+1)的配准窗口,并按照下式计算像素点AL(xA,yA)和像素点集SA={Pq(xq,yq)}中所有像素点的相关参数Cq,共计得到k个Cq值;
式中,Il(xA+i,yA+j)为图像CL′中对应像素点(xA+i,yA+j)的灰度值,Ir(xq+dq+i,yq+j)为图像CR′中对应像素点(xq+dq+i,yq+j)的灰度值,其中,i=-n,-n+1,...,n,j=-n,-n+1,...,n,dq为图像CL′和图像CR′中对应待配准像素点对A(xA,yA)和Pq(xq,yq)的视差;
(4.2.4)将k个相关参数Cq与阈值Tth逐一比较,若有t个Cq值满足Cq<Tth,则计数参数circle_num=circle_num+t,其中1≤t≤k;
(4.2.5)判断计数参数circle_num的值:
若circle_num=0,直接跳至(4.2.6);
若circle_num=1,选择满足Cq<Tth时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储,跳至步骤(4.2.6);
若circle_num≥2,选择满足Cq<Tth且满足Cq=min{Cq}时对应的像素点对AL(xA,yA)和Pq(xq,yq)为一个配准点对,并存储后跳至步骤(4.2.6);
(4.2.6)令yA=yA+1,且计数参数circle_num清零,反复重复步骤(4.2.2)-(4.2.5),直至计算出图像CL′中yA=N-n的像素点在图像CR′中的对应配准点为止;
(4.2.7)令xA=xA+1,反复重复步骤(4.2.2)-(4.2.6),直至计算出图像CL′中坐标值为(M-n,N-n)的像素点在图像CR′中的对应配准点为止;
(4.3)根据基准图像CL′和待配准图像CR′中的所有配准点对,并利用最小二乘法计算基准图像CL′和待配准图像CR′的像素点对应关系flr,其中,fij为矩阵flr中的元素,i=1,2,3,j=1,2,3;
第五步,根据CCD标定的已知参数,计算CCD摄像机Cam_L的投影矩阵Ml和CCD摄像机Cam_R的投影矩阵Mr;
第六步,根据下式计算图像CL′中所有像素点(xcl′,ycl′)在图像CR′中一一对应的配准点的坐标值(xr,yr);
第七步,根据下式对图像CL′中和图像CR′中所有的对应配准点对(xcl′,ycl′)和(xr,yr)进行三维场景重建,得到所有的对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系对应的实际坐标(XW,YW,ZW),并将其存入存储器中;
A=(PTP)-1PTb
其中,A=[XW,YW,ZW]T为图像CL′中和图像CR′中对应配准点对(xcl′,ycl′)和(xr,yr)在世界坐标系中对应的实际三维坐标(XW,YW,ZW)的列向量,其中,xcl′∈{1,2,3,...,M},xr∈{1,2,3,...,M},ycl′∈{1,2,3,...,N},yr∈{1,2,3,...,N},矩阵P为一个4×3的矩阵,表示如下:
b为一个四维列向量,表示如下:
其中,mlij为CCD摄像机Cam_L投影矩阵Ml中的元素,mrij为CCD摄像机Cam_R投影矩阵Mr中的元素,i=1,2,3,j=1,2,3,4;
第八步,根据世界坐标系中每一个场景点的实际坐标用下式进行障碍物区域筛选,得到筛选后的所有场景点的实际坐标(XW′,YW′,ZW′);
其中,Desth为探测距离阈值;
第九步,根据下式建立障碍物信息图像IMG,存储并在计算机屏幕上显示;
其中,(ximg,yimg)为障碍物信息图像IMG中的像素点坐标,I(ximg,yimg)为障碍物信息图像IMG中对应像素点(ximg,yimg)的灰度值;
第十步,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0的区域面积S,若满足S≥S0,则进入第十一步,若满足S<S0,则进入第十二步,其中,S0为障碍物正向投影面积阈值;
第十一步,计算障碍物信息图像IMG中满足I(ximg,yimg)≠0区域中所有像素点坐标(ximg,yimg)所对应的ZW′坐标值的平均值Zaverage,将Zaverage与障碍物报警距离阈值Zth进行比较:若满足Zaverage<Zth时,向蜂鸣器发送障碍物报警指令,若满足Zaverage≥Zth时,则直接进入第十二步,其中,Zth=VMOV·timeth,VMOV为车辆当前行驶速度,timeth为车辆当前位置至与障碍物发生碰撞所需的时间阈值;
第十二步,查询关机指令,若未接到关机指令,返回第二步;若接到关机指令,结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310373949.1A CN103411536B (zh) | 2013-08-23 | 2013-08-23 | 基于双目立体视觉的驾驶辅助障碍物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310373949.1A CN103411536B (zh) | 2013-08-23 | 2013-08-23 | 基于双目立体视觉的驾驶辅助障碍物检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103411536A CN103411536A (zh) | 2013-11-27 |
CN103411536B true CN103411536B (zh) | 2016-03-23 |
Family
ID=49604565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310373949.1A Active CN103411536B (zh) | 2013-08-23 | 2013-08-23 | 基于双目立体视觉的驾驶辅助障碍物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103411536B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9481287B2 (en) * | 2014-01-21 | 2016-11-01 | Harman International Industries, Inc. | Roadway projection system |
CN104484648B (zh) * | 2014-11-27 | 2017-07-25 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
US10706580B2 (en) * | 2015-12-09 | 2020-07-07 | Hajime Kasahara | Position-information specifying method, position-information specifying device, and position-information specifying program |
WO2018018597A1 (zh) * | 2016-07-29 | 2018-02-01 | 深圳市赛亿科技开发有限公司 | 一种自动探测和规避障碍物的机器人、系统及方法 |
CN106444837A (zh) * | 2016-10-17 | 2017-02-22 | 北京理工大学 | 一种无人机避障方法及系统 |
CN106627463A (zh) * | 2016-12-22 | 2017-05-10 | 深圳市招科智控科技有限公司 | 一种无人驾驶公交车的视觉感知系统及工作方法 |
JP6878219B2 (ja) * | 2017-09-08 | 2021-05-26 | 株式会社東芝 | 画像処理装置および測距装置 |
CN108205658A (zh) * | 2017-11-30 | 2018-06-26 | 中原智慧城市设计研究院有限公司 | 基于单双目视觉融合的障碍物检测预警系统 |
CN109344687B (zh) * | 2018-08-06 | 2021-04-16 | 深圳拓邦股份有限公司 | 基于视觉的障碍物检测方法、装置、移动设备 |
CN109269478A (zh) * | 2018-10-24 | 2019-01-25 | 南京大学 | 一种基于双目视觉的集装箱码头场桥障碍物检测方法 |
CN110069990B (zh) * | 2019-03-18 | 2021-09-17 | 北京中科慧眼科技有限公司 | 一种限高杆检测方法、装置以及自动驾驶系统 |
CN112330726B (zh) * | 2020-10-27 | 2022-09-09 | 天津天瞳威势电子科技有限公司 | 一种图像处理方法及装置 |
CN118279542A (zh) * | 2024-05-31 | 2024-07-02 | 烟台大学 | 一种图像数据分析处理系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012236A (zh) * | 2010-09-26 | 2011-04-13 | 郑州辰维科技股份有限公司 | 一种月球车双目视觉避障系统标定方法 |
CN202271980U (zh) * | 2011-10-25 | 2012-06-13 | 河海大学 | 一种基于立体视觉的车辆行驶应急处理装置 |
CN102520721A (zh) * | 2011-12-08 | 2012-06-27 | 北京控制工程研究所 | 一种基于双目立体视觉的巡视探测器自主避障规划方法 |
CN103231708A (zh) * | 2013-04-12 | 2013-08-07 | 安徽工业大学 | 一种基于双目视觉的智能车辆避障方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5146716B2 (ja) * | 2007-03-01 | 2013-02-20 | マツダ株式会社 | 車両用障害物検知装置 |
KR101289386B1 (ko) * | 2011-11-11 | 2013-07-29 | 재단법인대구경북과학기술원 | 스테레오 비전 기반의 장애물체 검출 및 분리 방법과 이를 실행하는 장치 |
-
2013
- 2013-08-23 CN CN201310373949.1A patent/CN103411536B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012236A (zh) * | 2010-09-26 | 2011-04-13 | 郑州辰维科技股份有限公司 | 一种月球车双目视觉避障系统标定方法 |
CN202271980U (zh) * | 2011-10-25 | 2012-06-13 | 河海大学 | 一种基于立体视觉的车辆行驶应急处理装置 |
CN102520721A (zh) * | 2011-12-08 | 2012-06-27 | 北京控制工程研究所 | 一种基于双目立体视觉的巡视探测器自主避障规划方法 |
CN103231708A (zh) * | 2013-04-12 | 2013-08-07 | 安徽工业大学 | 一种基于双目视觉的智能车辆避障方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103411536A (zh) | 2013-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103411536B (zh) | 基于双目立体视觉的驾驶辅助障碍物检测方法 | |
CN111986506B (zh) | 基于多视觉系统的机械式停车位泊车方法 | |
AU2015234395B2 (en) | Real-time range map generation | |
JP6031554B2 (ja) | 単眼カメラに基づく障害物検知方法及び装置 | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
CN102999919B (zh) | 自运动估计系统和方法 | |
CN110910453B (zh) | 基于无重叠视域多相机系统的车辆位姿估计方法及其系统 | |
US20170017839A1 (en) | Object detection apparatus, object detection method, and mobile robot | |
CN109263637B (zh) | 一种碰撞预测的方法及装置 | |
JP2016009487A (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
CN105938619A (zh) | 一种融合RGB和Depth信息的视觉里程计实现方法 | |
CN105389543A (zh) | 基于全方位双目视觉深度信息融合的移动机器人避障装置 | |
JP2010218226A (ja) | 計測マップ生成装置及び走行環境確認装置 | |
KR101030317B1 (ko) | 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법 | |
CN113031597A (zh) | 一种基于深度学习和立体视觉的自主避障方法 | |
Balta et al. | Terrain traversability analysis for off-road robots using time-of-flight 3d sensing | |
JP6337504B2 (ja) | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム | |
CN105744138A (zh) | 快速对焦方法和电子设备 | |
KR20120065067A (ko) | 다중센서 융합을 통한 3차원 환경 모델링 장치 및 그 방법 | |
CN114550042A (zh) | 一种道路消失点提取方法、车载传感器标定方法及装置 | |
CN105205459A (zh) | 一种图像特征点类型的识别方法和装置 | |
CN109883433B (zh) | 基于360度全景视图的结构化环境中车辆定位方法 | |
Muresan et al. | Real-time object detection using a sparse 4-layer LIDAR | |
CN107145828A (zh) | 车辆全景图像处理方法及装置 | |
KR101868898B1 (ko) | 자율주행을 위한 차선 인식 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |