CN101303732A - 基于车载单目相机的运动目标感知与告警方法 - Google Patents

基于车载单目相机的运动目标感知与告警方法 Download PDF

Info

Publication number
CN101303732A
CN101303732A CNA2008100179302A CN200810017930A CN101303732A CN 101303732 A CN101303732 A CN 101303732A CN A2008100179302 A CNA2008100179302 A CN A2008100179302A CN 200810017930 A CN200810017930 A CN 200810017930A CN 101303732 A CN101303732 A CN 101303732A
Authority
CN
China
Prior art keywords
point
module
static
background
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100179302A
Other languages
English (en)
Other versions
CN101303732B (zh
Inventor
孙冲
袁泽剑
郑南宁
刘跃虎
张雪涛
盛兴东
袁茂军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN2008100179302A priority Critical patent/CN101303732B/zh
Publication of CN101303732A publication Critical patent/CN101303732A/zh
Application granted granted Critical
Publication of CN101303732B publication Critical patent/CN101303732B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于车载单目相机的运动目标感知与告警方法,该方法软件中的特征点检测与跟踪模块包括特征点提取与匹配模块和图像背景静止特征点跟踪模块;图像背景静止特征点跟踪模块跟踪静止背景特征点,图像静止背景特征点和运动目标特征点分类模块使用图像静止背景特征点几何约束模型参数估计模块输出的模型参数构建几何约束模型,将特征点提取与匹配模块所输出的所有匹配特征点分成静止背景点和运动目标点;静止背景点将反馈到图像背景静止特征点跟踪模块;运动目标点将输出到运动特征点时域滤波模块,滤波后的数据输入到运动目标分割模块,目标分割结果输出到运动目标显示告警模块。该方法能够提高模型参数估计精度,减少参数估计的耗时。

Description

基于车载单目相机的运动目标感知与告警方法
技术领域
本发明属于车载相机的运动目标感知方法,特别涉及基于车载单目相机的运动目标感知与告警方法。
背景技术
环境感知是车辆主动安全系统的主要功能,运动目标感知又是环境感知中的重要组成部分。目前智能车辆的环境感知传感器主要是毫米波雷达和激光雷达,这类主动传感器的作用区域有限,而且价格昂贵。当前,如何使用摄像机感知环境,这类技术备受关注。所提出的解决方法主要有三类:一类是使用双目视觉方法,直接获得场景深度,为运动目标检测提供线索,但是双目视觉系统结构复杂,成本高;另一类方法是结合使用标定过的单目相机和车辆速度表、陀螺仪,或其它测量车辆运动状态的传感器,通过检测车辆运动状态,计算背景在图像中运动的轨迹,以此检测出不符合这种运动轨迹的运动目标,然而相机的参数有可能会随着运动中车辆的振动而改变,初始设定的相机参数不一定始终保持可靠,其次廉价的车辆运动状态传感器不能提供精确的运动状态信息;第三种方法是只使用非标定单目相机,通过模型参数估计方法,计算出背景在成像平面的投影的运动模型,以此检测不符合这类模型的运动目标。
当使用非标定单目车载相机感知运动目标时,最大的困难是,车载相机随车运动,导致静止的背景投影在相机的成像平面上时也发生了运动,干扰了原本的运动目标检测。现有技术多只使用由基础矩阵来描述的外极点约束模型来区分背景和运动的像素点。(外极点约束模型是一种相机几何模型,它表示了相机移动时,空间中静止点在两个相机成像平面中的关系。基础矩阵是一个3×3的方阵,其秩为2。)但是外极点约束模型并不能全面地区分背景和运动的像素点,导致不能检测与本车平行运动的目标。有些技术是把问题简化(IEEE CVPRW’06 pp.131-138),认为车辆只有直线运动,从而简化外极点约束模型,但是这种简化导致系统的适用范围变小。有些技术则在外极点约束模型的基础上加入部分先验知识(IEEE IVS’06 pp.261-267),例如车辆高于地面,以期获得更好的运动目标检测效果。但是这些先验知识没有在本质上克服外极点约束模型的缺点。
发明内容
本发明的目的在于克服上述现有技术的不足,提供一种基于车载单目相机的运动目标感知与告警方法,该方法能够可靠地检测运动目标,并在提高模型参数估计精度的同时,减少参数估计的耗时。
本发明的技术方案是这样实现的:包括以下步骤:
1)摄像机采集道路前方连续的图像序列,并通过图像采集卡,输入到计算机系统中,由计算机软件处理;
2)计算机软件中的特征点检测与跟踪模块包括特征点提取与匹配模块和图像背景静止特征点跟踪模块;特征点提取与匹配模块从图像序列中抽取连续的三帧图像,实施苏珊SUSAN特征点检测和尺度不变特征点检测,并使用尺度不变特征点描述方法生成特征点描述向量,再使用欧氏空间距离度量,进行三帧图像之间的特征点匹配;特征点提取与匹配模块输出的匹配特征点将同时输出到图像背景静止特征点跟踪模块、图像静止背景特征点和运动目标特征点分类模块;
3)图像背景静止特征点跟踪模块跟踪静止背景特征点,并将数据输入到图像静止背景特征点几何约束模型参数估计模块进行模型参数估计;
4)图像静止背景特征点和运动目标特征点分类模块使用图像静止背景特征点几何约束模型参数估计模块输出的模型参数构建几何约束模型,将特征点提取与匹配模块所输出的所有匹配特征点分成静止背景点和运动目标点;静止背景点将反馈到图像背景静止特征点跟踪模块;运动目标点将输出到运动特征点时域滤波模块,滤波后的运动特征点数据将输入到运动目标分割模块,目标分割结果输出到运动目标显示告警模块。
图像背景静止特征点跟踪模块使用图像静止背景特征点和运动目标特征点分类模块反馈的前一帧的静止背景特征点,与当前帧的特征点实行匹配,实现跟踪静止背景特征点;
其过程为:以前一帧静止背景特征点的坐标为参考,在当前帧的一个矩形区域中,寻找可与前一帧静止特征点匹配的当前帧的特征点,矩形区域的长和宽与特征点的(x,y)坐标呈下面的函数关系:
w = a 0 + a 1 | x - e 1 | + a 2 ( x - e 1 ) 2 h = b 0 + b 1 | x - e 1 | | y - e 2 |
其中w和h是矩形的长和宽,(x,y)是特征点坐标,(e1,e2)是上一图像帧的外极点参数,是(a0,a1,a2,b0,b1)函数参数。矩形的中心坐标(hx,hy)为:
h x = x - 1 2 w h y = y
匹配使用的描述向量就是尺度不变特征点描述向量,找到的这些匹配特征点,确定为当前图像中的背景静止特征点;经过该模块对静止背景点的跟踪,从所有特征点中筛选出部分背景静止点,用于几何约束模型参数估计。
所述的图像静止背景特征点和运动目标特征点分类模块使用图像静止背景特征点几何约束模型参数估计模块输出的模型参数构建几何约束模型,采用一种通过2D平面投影变换计算外极点约束模型和结构一致性约束模型的技术:
首先,使用图像背景静止特征点跟踪模块筛选得到的连续三帧图像(A、B、C)中的匹配的静止特征点,估计相邻两帧之间的2D投影变换参数H12和H23;使用参数H12和H23,计算B、C两帧的静止特征点在A、B两帧中的2D平面投影以及平面视差;
其次,使用所述的平面视差,估计第二帧图像B在第一帧图像A中的外极点e12,和第三帧图像C在第二帧图像B中的外极点e23;再使用平面视差和外极点e12和e23计算静止特征点的3D结构向量,并使用3D结构向量估计3D结构一致性模型参数G;
最后,使用了外极点约束模型和结构一致性模型对特征点提取与匹配模块输出的所有特征点进行分类:特征点越是符合模型,则与模型的匹配误差越小,特征点就越趋向于被分类为静止点;反之则越趋向于被分为运动点;外极点约束模型的匹配误差为:
de=(y-yw)e1-(x-xw)e2-(yxw-xyw)
其中[e1,e2]是约束模型估计模块的外极点参数e12,(x,y)是特征点x的坐标,(xw,yw)是x的2D平面投影坐标;结构一致性模型的匹配误差为:
d G = | | P ~ 1 G P ~ 2 | |
其中G是约束模型估计模块输出的结构一致性模型参数,
Figure A20081001793000082
Figure A20081001793000083
是3D结构向量。
本发明所提出的跟踪静止背景点估计约束模型参数的技术,可以使模型参数估计时间减少2/3,模型参数估计的精度提高15%左右。本发明提出的通过2D投影变换,联合外极点约束模型和结构一致性约束模型,分类图像静止或运动像素点的技术,能够可靠地感知道路上的运动目标,克服了单一使用外极点约束模型时,无法感知与本车平行运动的目标的缺点。
附图说明
图1是方法工作的原理示意图。
图2是方法的框架结构示意图。
图3是方法流程示意图。
图4是结合随机采样一致拟合方法的外极点约束模型参数估计流程示意图。
图5是结合最小中值方差拟合方法的结构一致性约束模型参数估计流程示意图。
图6(a)是本发明对道路上单个运动目标检测的效果示意图。
图6(b)是本发明对道路上多个运动目标检测的效果示意图。
下面结合附图对本发明的内容作进一步详细说明。
具体实施方式
参照图1所示,道路上运动的目标和静止的背景,例如运动的车辆和静止的房屋、树木,虽然在车载相机的成像平面中均在运动,但是它们运动的特性有明显区别。通过连续几帧图像之间的特征点匹配,图像特征点一般是图像灰度变化的局部极值点,或含有显著结构信息的区域中心,现存在多种特征点提取方法;图像中匹配的特征点代表了空间中同一个物理点,可以获得特征点的运动向量v,例如图1中运动目标上的特征点运动向量v1,背景中房屋和树木的运动向量v2和v3。外极点约束模型和结构一致性约束模型是一种描述静止背景特征点在相机成像平面上的运动特性的模型。外极点约束模型是一种相机几何模型,它表示了相机移动时,空间中静止点在两个相机成像平面中的关系;结构一致性约束模型也是一种相机几何模型,它表示了相机移动时,空间中静止点在三个相机成像平面中的关系;这两种模型均是线性模型。静止背景特征点的运动向量对于约束模型具有很小的匹配误差,而运动目标特征点的运动向量对于约束模型具有很大的匹配误差。使用这一原理,可以利用连续图像帧之间的特征点匹配获取特征点的运动信息,并通过准确估计约束模型的参数,然后对特征点进行分类,实现运动目标感知。
参照图2所示,其包含:一台不需要标定的单目摄像机;一块连接计算机系统和摄像机的图像采集卡,图像采集结果输入一个特征点检测与跟踪模块,其中包括特征点提取与匹配模块和图像静止背景特征点跟踪模块,其输出包括两部分,一部分是将要输入静止背景特征点与运动特征点分类模块的所有图像特征点及其匹配信息,另一部分是将要输入图像静止背景特征点几何约束模型参数估计模块的经过跟踪筛选出来的部分静止背景特征点匹配信息;图像静止背景特征点几何约束模型参数估计模块将计算得到的模型参数估计结果输入一个静止背景特征点与运动特征点分类模块;静止背景特征点与运动特征点分类模块的输出包括两部分,一部分是运动特征点,将输入运动特征点时域滤波模块,另一部分是静止背景特征点,将输入特征点检测与跟踪模块,用于下一帧循环跟踪静止背景点;一个运动特征点时域滤波模块,输出滤波后的运动特征点到一个运动目标分割模块,为目标显示与告警模块提供最终的目标信息;一个参数输入模块用于系统参数设定。
参照图3所示,其具体描述如下:
第一阶段,摄像机拍摄的道路场景视频首先被分解成图像序列,然后每连续的三帧图像为一组参与运算,相邻图像组之间有二帧图像是重复的。特征点提取与匹配模块对三帧图像进行苏珊SUSAN特征点检测和尺度不变特征点检测,并使用尺度不变特征点描述方法生成特征点描述向量f,再使用欧氏空间距离度量确定三帧图像的特征点之间匹配关系其中xi是第一帧图像中编号为i的特征点,x′j是第二帧图像中编号为j的特征点,x″1是第三帧图像中编号为l的特征点。已知xi寻找x′j的公式如下:
j = arg k min ( | | f i - f k ′ | | 2 )
其中fi是第一帧图像中编号为i的特征点的描述向量,fk是第二帧图像中编号为k的特征点描述向量。同理,已知x′j可以寻找到x″1,最终形成匹配特征点对
Figure A20081001793000113
然后图像背景静止特征点跟踪模块使用图像静止背景特征点与运动目标特征点分类模块返回的前一帧图像静止背景特征点,跟踪当前帧的特征点中的部分静止背景特征点。其方法是,以前一帧静止背景特征点的坐标为参考,在当前帧的一个矩形区域中,寻找可与前一帧静止特征点匹配的当前帧的特征点。矩形区域的长和宽与特征点的(x,y)坐标呈下面的函数关系:
w = a 0 + a 1 | x - e 1 | + a 2 ( x - e 1 ) 2 h = b 0 + b 1 | x - e 1 | | y - e 2 |
其中w和h是矩形的长和宽,(x,y)是特征点坐标,(e1,e2)是上一图像帧的外极点参数,是(a0,a1,a2,b0,b1)函数参数。矩形的中心坐标(hx,hy)为:
h x = x - 1 2 w h y = y
匹配使用的描述向量就是特征点提取与匹配模块提取的尺度不变特征点描述向量。匹配方法也是使用欧氏空间距离度量决定匹配关系。该模块为下一阶段的模型参数估计提供相对可靠的匹配特征点数据。
第二阶段是约束模型参数估计阶段。首先使用第一阶段筛选得到的连续三帧图像A、B、C中的匹配的静止特征点{x1,x2,x3},估计相邻两帧之间的2D投影变换参数H12和H23,使其满足下面的条件:
x 1 _ i = H 12 x 2 _ i x 1 _ i = H 23 x 3 _ i
可以使用直接线性变换法求解H12和H23
其次使用x1w_i=H12x2_i和x2w_i=H23x3_i计算B、C两帧的静止特征点在A、B两帧中的2D投影{x1w,x2w}。
然后估计第二帧图像B在第一帧图像A中的外极点e12,和第三帧图像C在第二帧图像B中的外极点e23,使其满足下面的条件:
e 12 · [ x 1 × x 1 w ] = 0 e 23 · [ x 2 × x 2 w ] = 0
为了便于运算,可将上式简化。以计算e12为例,e12是一个2维向量[e1,e2],第一帧A中的某个特征点x1和对应的2D投影x1w也是2维向量,分别为[x,y]和[xw,yw ],那么对于每一个静止特征点,均有下面的方程:
(y-yw)e1-(x-xw)e2=yxw-xyw
若第一阶段提供N个静止特征点,可以构建N个这样的方程,构成超定方程组。使用奇异值分解法可以计算出[e1,e2]。为了减轻第一阶段提供的静止特征点中含有的错误跟踪点,被称为外点,对外极点约束模型参数估计精度的影响,要结合使用随机采样一致RANSAC参数拟合方法。随机采样一致参数拟合方法是一种随机参数估计法,具体过程参考图4。
然后计算静止特征点的3D结构向量
Figure A20081001793000131
这是一个4维向量[x,y,1,k]。其中x,y即为特征点在成像平面上的坐标,k被称为归一化的相对高度,其中包含了点在空间的高度和深度信息。计算3D结构向量,主要是计算k,这需要两帧图像。以第一帧A和第二帧B为例,计算特征点在这两帧中的归一化的相对高度,需要B帧在A帧中的外极点e12,特征点在A帧的坐标x1,以及该特征点从B帧2D投影到A帧的坐标x1w。计算公式如下:
k 1 = ( x 1 w × x 1 ) T ( x 1 × e 12 ) | | x 1 × e 12 | | 2
其中,x1、x1w、e12均采用齐次坐标,即x1=[x1,y1,1]T,x1w=[x1w,y1w,1]T,e12=[e1,e2,1](这一点与外极点估计时不同)。于是就可以得到A帧和B帧的特征点3D结构向量 P ~ 1 = [ x 1 , y 1 , 1 , k 1 ] . 同理可以得到B帧和C帧的特征点3D结构向量 P ~ 2 = [ x 2 , y 2 , 1 , k 2 ] .
最后是估计三帧图像的结构一致性约束模型。对于A帧和B帧的特征点3D结构向量
Figure A20081001793000135
B帧和C帧的特征点3D结构向量
Figure A20081001793000136
该模型可以表述为 P ~ 1 G P ~ 2 = 0 , 其中G是一个4×4的矩阵,且秩为2。对于每一个特征点均可构成一个 P ~ 1 _ i G P ~ 2 _ i = 0 的方程。若第一阶段提供N个静止特征点,可以构建N个这样的方程,构成超定方程组。使用奇异值分解法可以计算出G。为了减轻第一阶段提供的静止特征点中含有的错误跟踪点(称为外点),对结构一致性约束模型参数估计精度的影响,要结合使用最小中值方差LMedS参数拟合方法。最小中值方差参数拟合方法是一种随机参数估计法,具体过程参考图5。
第三阶段是特征点分类阶段。使用第二阶段得到的模型参数,对当前帧的所有特征点进行分类。分类的依据是特征点和模型的匹配误差。特征点越是符合模型,与模型的匹配误差越小,特征点就越趋向于被分类为静止点。特征点提取与跟踪模块输出的A、B、C连续三帧图像中的匹配的所有特征点{x1,x2,x3},先被外极点约束模型分类。计算特征点与外极点模型匹配误差的公式如下:
de=(y-yw)e1-(x-xw)e2-(yxw-xyw)
其中[e1,e2]是约束模型估计模块的外极点参数。当某个特征点与外极点模型的匹配误差超过设定的阈值te时,则将该特征点分入运动目标点。匹配误差小于阈值te的特征点进入使用结构一致性约束模型分类的阶段。在此阶段,首先计算特征点在A、B两帧中的3D结构向量 P ~ 1 = [ x 1 , y 1 , 1 , k 1 ] 和B、C两帧中的3D结构向量 P ~ 2 = [ x 2 , y 2 , 1 , k 2 ] , 计算方法和第二阶段描述的方法相同。然后计算特征点与结构一致性约束模型的匹配误差,公式如下:
d G = | | P ~ 1 G P ~ 2 | |
其中G是约束模型估计模块的结构一致性模型参数。当某个特征点的匹配误差dG超过设定的阈值te时,则将该特征点分入运动目标点
第四阶段是运动目标的产生与分割阶段。首先对运动特征点进行时域滤波,即某个特征点只有在连续三帧内均被分入运动特征点时,才被系统确认为运动目标特征点。接着计算以特征点附近一定区域内的多个图像块内的光流,根据比较图像块内的光流与以特征点为中心的图像块内的光流的一致性,确定该图像块是否属于运动目标。最后将邻近的图像块聚类在一起,形成最后的运动目标区域。
参照图4所示,首先设定系统参数:循环次数k和误差阈值t,然后进入循环。在循环中,先随机挑选3个特征点,构建3个如下的方程:
( y 1 - 1 1 w ) e 1 - ( x 1 - x 1 w ) e 2 = y 1 x 1 w - x 1 y 1 w ( y 2 - y 2 w ) e 1 - ( x 2 - x 2 w ) e 2 = y 2 x 2 w - x 2 y 2 w ( y 3 - y 3 w ) e 1 - ( x 3 - x 3 w ) e 2 = y 3 x 3 w - x 3 y 3 w
其中(xi,yi)是第i个特征点的坐标,(xiw,yiw)是第i个特征点的2D投影变换坐标。使用奇异值分解得到的(e1,e2)值。然后使用该(e1,e2)值,计算其余特征点的模型拟合误差,公式如下:
dei=(yi-yiw)e1-(xi-xiw)e2-(yixiw-xiyiw)
剔除误差大于设定阈值t的特征点,使用剩余的特征点(称为内点),再次构建方程组:
( y 1 - y 1 w ) e 1 - ( x 1 - x 1 w ) e 2 = y 1 y 1 w - x 1 y 1 w · · · ( y i - y iw ) e 1 - ( x i - x iw ) e 2 = y i x iw - x i y iw · · ·
使用奇异值分解重新估计(e1,e2)值,记录参数拟合误差:
d k = Σ i ( y i - y iw ) e 1 - ( x i - x iw ) e 2 - ( y i x iw - x i y iw )
其中,参与累加计算参数拟合误差的特征点中均为内点。结束循环后,挑选参数拟合误差最小的那一轮循环中,计算得到的(e1,e2)值作为最终的外极点参数值。
参照图5所示,首先设定系统参数:循环次数k,然后进入循环。在循环中,先随机挑选15个特征点,构建方程组:
P ~ 1 G P ~ 1 ′ = 0 · · · P ~ 15 G P ~ 15 ′ = 0
其中
Figure A20081001793000155
表示第i个特征点在第一帧和第二帧中的3D结构向量,
Figure A20081001793000156
表示第i个特征点在第二帧和第三帧中的3D结构向量。使用奇异值分解法得到的G值。然后使用该G值,计算其余特征点的模型拟合误差,记录模型拟合中值误差:
d med = med i ( | | P ~ i G P ~ i ′ | | )
结束循环后,找出所有循环中模型拟合中值误差最小的那一轮循环,取该轮循环中估计的G值,计算各个特征点的拟合误差:
d G = | | P ~ i G P ~ i ′ | |
取模型拟合误差小于中值误差的那些特征点,构造方程组:
P ~ 1 G P ~ 1 ′ = 0 · · · P ~ i G P ~ i ′ = 0 · · ·
使用奇异值分解法,重新计算G的值,作为最终结构一致性模型的参数。参照图6所示,其中方框标注的区域是感知到的运动目标存在区域。

Claims (3)

1、基于车载单目相机的运动目标感知与告警方法,其特征在于,包括以下步骤:
1)摄像机采集道路前方连续的图像序列,并通过图像采集卡,输入到计算机系统中,等待计算机软件处理;
2)计算机软件中的特征点检测与跟踪模块包括特征点提取与匹配模块和图像背景静止特征点跟踪模块;特征点提取与匹配模块从图像序列中抽取连续的三帧图像,实施苏珊SUSAN特征点检测和尺度不变特征点检测,并使用尺度不变特征点描述方法生成特征点描述向量,再使用欧氏空间距离度量,进行三帧图像之间的特征点匹配;特征点提取与匹配模块输出的匹配特征点将同时输出到图像背景静止特征点跟踪模块、图像静止背景特征点和运动目标特征点分类模块;
3)图像背景静止特征点跟踪模块跟踪静止背景特征点,并将数据输入到图像静止背景特征点几何约束模型参数估计模块进行模型参数估计;
4)图像静止背景特征点和运动目标特征点分类模块使用图像静止背景特征点几何约束模型参数估计模块输出的模型参数构建几何约束模型,将特征点提取与匹配模块所输出的所有匹配特征点分成静止背景点和运动目标点;静止背景点将反馈到图像背景静止特征点跟踪模块;运动目标点将输出到运动特征点时域滤波模块,滤波后的运动特征点数据将输入到运动目标分割模块,目标分割结果输出到运动目标显示告警模块。
2、根据权利要求1所述的方法,其特征在于,图像背景静止特征点跟踪模块使用图像静止背景特征点和运动目标特征点分类模块反馈的前一帧的静止背景特征点,与当前帧的特征点实行匹配,实现跟踪静止背景特征点;
其过程为:以前一帧静止背景特征点的坐标为参考,在当前帧的一个矩形区域中,寻找可与前一帧静止特征点匹配的当前帧的特征点,矩形区域的长和宽与特征点的(x,y)坐标呈下面的函数关系:
w = a 0 + a 1 | x - e 1 | + a 2 ( x - e 1 ) 2 h = b 0 + b 1 | x - e 1 | | y - e 2 |
其中w和h是矩形的长和宽,(x,y)是特征点坐标,(e1,e2)是上一图像帧的外极点参数,是(a0,a1,a2,b0,b1)函数参数。矩形的中心坐标(hx,hy)为:
h x = x - 1 2 w h y = y
匹配使用的描述向量就是尺度不变特征点描述向量,找到的这些匹配特征点,确定为当前图像中的背景静止特征点;经过该模块对静止背景点的跟踪,从所有特征点中筛选出部分背景静止点,用于几何约束模型参数估计。
3.根据权利要求1所述的方法,其特征在于,所述的图像静止背景特征点和运动目标特征点分类模块使用图像静止背景特征点几何约束模型参数估计模块输出的模型参数构建几何约束模型,采用一种通过2D平面投影变换计算外极点约束模型和结构一致性约束模型的技术:
首先,使用图像背景静止特征点跟踪模块筛选得到的连续三帧图像(A、B、C)中的匹配的静止特征点,估计相邻两帧之间的2D投影变换参数H12和H23;使用参数H12和H23,计算B、C两帧的静止特征点在A、B两帧中的2D平面投影以及平面视差;
其次,使用所述的平面视差,估计第二帧图像B在第一帧图像A中的外极点e12,和第三帧图像C在第二帧图像B中的外极点e23;再使用平面视差和外极点e12和e23计算静止特征点的3D结构向量,并使用3D结构向量估计3D结构一致性模型参数G;
最后,使用了外极点约束模型和结构一致性模型对特征点提取与匹配模块输出的所有特征点进行分类:特征点越是符合模型,则与模型的匹配误差越小,特征点就越趋向于被分类为静止点;反之则越趋向于被分为运动点;外极点约束模型的匹配误差为:
de=(y-yw)e1-(x-xw)e2-(yxw-xyw)
其中[e1,e2]是约束模型估计模块的外极点参数e12,(x,y)是特征点x的坐标,(xw,yw)是x的2D平面投影坐标;结构一致性模型的匹配误差为:
d G = | | P ~ 1 G P ~ 2 | |
其中G是约束模型估计模块输出的结构一致性模型参数,
Figure A20081001793000042
Figure A20081001793000043
是3D结构向量。
CN2008100179302A 2008-04-11 2008-04-11 基于车载单目相机的运动目标感知与告警方法 Expired - Fee Related CN101303732B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100179302A CN101303732B (zh) 2008-04-11 2008-04-11 基于车载单目相机的运动目标感知与告警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100179302A CN101303732B (zh) 2008-04-11 2008-04-11 基于车载单目相机的运动目标感知与告警方法

Publications (2)

Publication Number Publication Date
CN101303732A true CN101303732A (zh) 2008-11-12
CN101303732B CN101303732B (zh) 2011-06-22

Family

ID=40113631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100179302A Expired - Fee Related CN101303732B (zh) 2008-04-11 2008-04-11 基于车载单目相机的运动目标感知与告警方法

Country Status (1)

Country Link
CN (1) CN101303732B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101820501A (zh) * 2010-03-22 2010-09-01 中国科学院长春光学精密机械与物理研究所 一种电视波门稳定跟踪的方法
CN102222341A (zh) * 2010-04-16 2011-10-19 东软集团股份有限公司 运动特征点检测方法及装置、运动目标检测方法及装置
CN101799865B (zh) * 2010-02-25 2012-04-18 上海复控华龙微系统技术有限公司 基于椭圆傅立叶分解的行人时空轮廓表示方法
CN103679120A (zh) * 2012-09-11 2014-03-26 株式会社理光 不平道路的检测方法和系统
CN103985136A (zh) * 2014-03-21 2014-08-13 南京大学 一种基于局部特征点特征流型的目标跟踪方法
GB2525587A (en) * 2014-04-14 2015-11-04 Quantum Vision Technologies Ltd Monocular camera cognitive imaging system for a vehicle
CN105205459A (zh) * 2015-09-16 2015-12-30 东软集团股份有限公司 一种图像特征点类型的识别方法和装置
CN105741320A (zh) * 2016-01-27 2016-07-06 北京航空航天大学 一种高实时性机器视觉运动分析方法
CN106289067A (zh) * 2016-07-21 2017-01-04 成都之达科技有限公司 基于图像的车距测算方法
WO2017077261A1 (en) 2015-11-05 2017-05-11 Quantum Vision Technologies Ltd A monocular camera cognitive imaging system for a vehicle
WO2017167159A1 (zh) * 2016-03-29 2017-10-05 中兴通讯股份有限公司 图像定位方法及装置
WO2017177651A1 (en) * 2016-04-15 2017-10-19 Huawei Technologies Co., Ltd. Systems and methods for side-directed radar from a vehicle
CN107833212A (zh) * 2017-11-01 2018-03-23 国网山东省电力公司电力科学研究院 一种提高输电线路通道隐患检测准确率的图像匹配方法
CN109032125A (zh) * 2018-05-31 2018-12-18 上海工程技术大学 一种视觉agv的导航方法
CN109887040A (zh) * 2019-02-18 2019-06-14 北京航空航天大学 面向视频监控的运动目标主动感知方法及系统
CN109983469A (zh) * 2016-11-23 2019-07-05 Lg伊诺特有限公司 使用车辆驾驶信息的图像分析方法、装置、系统和程序以及存储介质
CN110610150A (zh) * 2019-09-05 2019-12-24 北京佳讯飞鸿电气股份有限公司 一种目标运动物体的跟踪方法、装置、计算设备和介质
WO2020113452A1 (zh) * 2018-12-05 2020-06-11 珊口(深圳)智能科技有限公司 移动目标的监控方法、装置、监控系统及移动机器人
CN111428573A (zh) * 2020-03-02 2020-07-17 南京莱斯电子设备有限公司 一种复杂背景下的红外弱小目标检测虚警抑制方法
US11328601B1 (en) 2021-02-22 2022-05-10 Volvo Car Corporation Prevention of low-speed sideswipe collisions with non-moving objects
CN114581517A (zh) * 2022-02-10 2022-06-03 北京工业大学 一种针对复杂光照环境的改进型vins方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2183878B (en) * 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
US5763283A (en) * 1994-10-12 1998-06-09 Sandia Corporation Method and apparatus for phase for and amplitude detection
CN100502463C (zh) * 2005-12-14 2009-06-17 浙江工业大学 一种交通流信息视频检测中的特征采集方法
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101141633B (zh) * 2007-08-28 2011-01-05 湖南大学 一种复杂场景中的运动目标检测与跟踪方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799865B (zh) * 2010-02-25 2012-04-18 上海复控华龙微系统技术有限公司 基于椭圆傅立叶分解的行人时空轮廓表示方法
CN101820501A (zh) * 2010-03-22 2010-09-01 中国科学院长春光学精密机械与物理研究所 一种电视波门稳定跟踪的方法
CN102222341A (zh) * 2010-04-16 2011-10-19 东软集团股份有限公司 运动特征点检测方法及装置、运动目标检测方法及装置
CN103679120B (zh) * 2012-09-11 2016-12-28 株式会社理光 不平道路的检测方法和系统
CN103679120A (zh) * 2012-09-11 2014-03-26 株式会社理光 不平道路的检测方法和系统
CN103985136A (zh) * 2014-03-21 2014-08-13 南京大学 一种基于局部特征点特征流型的目标跟踪方法
GB2525587A (en) * 2014-04-14 2015-11-04 Quantum Vision Technologies Ltd Monocular camera cognitive imaging system for a vehicle
CN105205459A (zh) * 2015-09-16 2015-12-30 东软集团股份有限公司 一种图像特征点类型的识别方法和装置
CN105205459B (zh) * 2015-09-16 2019-02-05 东软集团股份有限公司 一种图像特征点类型的识别方法和装置
WO2017077261A1 (en) 2015-11-05 2017-05-11 Quantum Vision Technologies Ltd A monocular camera cognitive imaging system for a vehicle
CN105741320A (zh) * 2016-01-27 2016-07-06 北京航空航天大学 一种高实时性机器视觉运动分析方法
WO2017167159A1 (zh) * 2016-03-29 2017-10-05 中兴通讯股份有限公司 图像定位方法及装置
WO2017177651A1 (en) * 2016-04-15 2017-10-19 Huawei Technologies Co., Ltd. Systems and methods for side-directed radar from a vehicle
US10317524B2 (en) 2016-04-15 2019-06-11 Huawei Technologies Co., Ltd. Systems and methods for side-directed radar from a vehicle
CN106289067A (zh) * 2016-07-21 2017-01-04 成都之达科技有限公司 基于图像的车距测算方法
CN109983469A (zh) * 2016-11-23 2019-07-05 Lg伊诺特有限公司 使用车辆驾驶信息的图像分析方法、装置、系统和程序以及存储介质
CN109983469B (zh) * 2016-11-23 2023-08-08 Lg伊诺特有限公司 使用车辆驾驶信息的图像分析方法、装置、系统和程序以及存储介质
CN107833212A (zh) * 2017-11-01 2018-03-23 国网山东省电力公司电力科学研究院 一种提高输电线路通道隐患检测准确率的图像匹配方法
CN109032125A (zh) * 2018-05-31 2018-12-18 上海工程技术大学 一种视觉agv的导航方法
WO2020113452A1 (zh) * 2018-12-05 2020-06-11 珊口(深圳)智能科技有限公司 移动目标的监控方法、装置、监控系统及移动机器人
US10970859B2 (en) 2018-12-05 2021-04-06 Ankobot (Shenzhen) Smart Technologies Co., Ltd. Monitoring method and device for mobile target, monitoring system and mobile robot
CN109887040B (zh) * 2019-02-18 2020-04-14 北京航空航天大学 面向视频监控的运动目标主动感知方法及系统
CN109887040A (zh) * 2019-02-18 2019-06-14 北京航空航天大学 面向视频监控的运动目标主动感知方法及系统
CN110610150A (zh) * 2019-09-05 2019-12-24 北京佳讯飞鸿电气股份有限公司 一种目标运动物体的跟踪方法、装置、计算设备和介质
CN111428573A (zh) * 2020-03-02 2020-07-17 南京莱斯电子设备有限公司 一种复杂背景下的红外弱小目标检测虚警抑制方法
CN111428573B (zh) * 2020-03-02 2021-06-25 南京莱斯电子设备有限公司 一种复杂背景下的红外弱小目标检测虚警抑制方法
US11328601B1 (en) 2021-02-22 2022-05-10 Volvo Car Corporation Prevention of low-speed sideswipe collisions with non-moving objects
CN114581517A (zh) * 2022-02-10 2022-06-03 北京工业大学 一种针对复杂光照环境的改进型vins方法

Also Published As

Publication number Publication date
CN101303732B (zh) 2011-06-22

Similar Documents

Publication Publication Date Title
CN101303732B (zh) 基于车载单目相机的运动目标感知与告警方法
Geiger et al. Are we ready for autonomous driving? the kitti vision benchmark suite
Klappstein et al. Moving object segmentation using optical flow and depth information
Erbs et al. Moving vehicle detection by optimal segmentation of the dynamic stixel world
KR101551026B1 (ko) 차량 검출 방법
KR20150008056A (ko) 단일-카메라 거리 추정
CN102194239A (zh) 用于处理图像数据的方法和系统
CN102222341A (zh) 运动特征点检测方法及装置、运动目标检测方法及装置
US11430199B2 (en) Feature recognition assisted super-resolution method
CN113888639B (zh) 基于事件相机与深度相机的视觉里程计定位方法及系统
Bak et al. Dynamic objects detection through visual odometry and stereo-vision: a study of inaccuracy and improvement sources
Shukla et al. Speed determination of moving vehicles using Lucas-Kanade algorithm
CN104574993A (zh) 一种道路监控的方法及装置
CN101572770A (zh) 一种可用于实时监控的运动检测方法与装置
Willersinn et al. Robust obstacle detection and tracking by motion analysis
Yang et al. Vision-based intelligent vehicle road recognition and obstacle detection method
Na et al. Stereo-based road obstacle detection and tracking
CN110864670A (zh) 目标障碍物位置的获取方法和系统
Partsinevelos et al. Automated spatiotemporal scaling for video generalization
Lim et al. Integration of Vehicle Detection and Distance Estimation using Stereo Vision for Real-Time AEB System.
Bota et al. A framework for object detection, tracking and classification in urban traffic scenarios using stereovision
Wong et al. Position interpolation using feature point scale for decimeter visual localization
Neelima et al. A computer vision model for vehicle detection in traffic surveillance
Fu et al. Computer vision based object detection and recognition for vehicle driving
Rill Speed estimation evaluation on the KITTI benchmark based on motion and monocular depth information

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110622

Termination date: 20140411