CN103325108A - 一种融合光流与特征点匹配的单目视觉里程计的设计方法 - Google Patents
一种融合光流与特征点匹配的单目视觉里程计的设计方法 Download PDFInfo
- Publication number
- CN103325108A CN103325108A CN2013102011222A CN201310201122A CN103325108A CN 103325108 A CN103325108 A CN 103325108A CN 2013102011222 A CN2013102011222 A CN 2013102011222A CN 201310201122 A CN201310201122 A CN 201310201122A CN 103325108 A CN103325108 A CN 103325108A
- Authority
- CN
- China
- Prior art keywords
- image
- light stream
- feature points
- surf
- points matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种融合光流与特征点匹配的单目视觉里程计的设计方法。准确的实时定位对于自主导航系统至关重要。基于SURF特征点匹配的定位具有对光照变化鲁棒、定位精度高的特点,但缺点是处理速度慢,无法做到实时定位。光流跟踪法具有较好实时性,缺点在于定位精度略差。本发明结合两者的优点,设计了一种融合光流与特征点匹配的单目视觉里程计。实验结果表明,融合后的算法能够提供准确的实时定位输出,并对光照变化和路面纹理较少的情况具有鲁棒性。
Description
技术领域
本发明涉及计算机视觉技术,特别是涉及一种融合光流与特征点匹配的单目视觉里程计的设计方法。
背景技术
精确定位对于自主导航系统是至关重要的。多种传感器被用于自主导航系统以提供准确的位置信息,比如GPS/差分GPS,惯性导航系统(IMUs)和轮式里程计等。但是,这些传感器各自都有应用场景的限制。近年来,基于视觉方法设计的里程计逐渐成为自主定位的重要选择。相比于传统的定位方法,视觉里程计在没有卫星的情况下也能使用,不会受到轮子侧滑的影响,在车体没有运动的情况下,不会出现输出结果上的漂移。
视觉里程计分为双目立体视觉里程计和单目视觉里程计。双目立体视觉里程计由于精度较高,被广泛应用于机器人自主定位中,Nister在2004年提出视觉里程计,采用Harris算子提取特征点,通过NCC算法匹配,进行了长距离实验,相对误差在1%~5%。Howard采用Harris和FAST特征点,能保证一定的实时性,但是由于特征点的性能较弱,存在一定几率的匹配失败。近些年来,多种立体视觉里程计是基于SIFT算子提取特征点的,精度很高,但是对于硬件要求高,处理速度较低,在要求实时性的系统中不适用。Bernd Kitt应用单目视觉里程计解决尺度问题,实现精确定位,但是处理时间长,没有经过大尺度实验进行验证。在城市化道路的环境中,大部分的路面满足平面假设的要求,所以在这种场景中,采用单目视觉里程计是合理且有效的,同时由于单目视觉里程计对于硬件要求低,处理速度快,能满足实时性的要求。经过将近30年的发展,光流法对基于图像的运动估计已经满足较低程度上精度和稳定性的要求,并且由于计算速度快,基于光流法的视觉里程计已经达到实际应用的速度要求。为解决其精度不高的问题,光流法需要与传统的特征点匹配方法进行融合,以提高精度,同时满足实时性的要求。
发明内容
本发明的目的在于提供一种融合光流与特征点匹配的单目视觉里程计的设计方法,将光流法和特征点匹配方法进行融合,该方法得到的结果相比于传统的单目视觉里程计系统硬件要求低,计算时间短,鲁棒性更好。
本发明采用的技术方案的步骤如下:
包括如下步骤:
1)对于系统输入的连续两帧图像Ik和Ik+1,首先通过采样构建图像金字塔:金字塔的底层图像为原始图像,对底层图像利用线性插值的方法进行降采样,得到长和宽减半的上一层图像,依次类推,向上采样,构建4层金字塔;
2)对于前一帧图像中的像素点进行金字塔跟踪:从最顶层开始跟踪像素点u,计算光流d=[dx,dy]和变换矩阵A,使得通过d和A变换后的前一帧图像与后一帧在这层上的灰度差异最小;然后再把这一层的结果传递给下一层,重新计算光流d和变换矩阵A,再传递给下一层;不断循环,直到底层,也就是原始图像,计算光流d和变换矩阵A,前后两帧图像经过变换后的灰度差小于阈值δ1或循环次数大于δ2时,循环结束,输出结果;
3)通过相机标定,将In和In+1中的二维像素点反投影到三维空间内得到空间坐标:在地面上选取四个点,同时记录其在车体坐标系下的坐标和在图像坐标系下对应点的坐标,应用homography基本原理标定,将匹配的二维像素点对投影到空间中的三维点对,从而得到车体的旋转和平移;
4)对于图像重叠区域30%~90%的两帧图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间的运动;
5)当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果。
所述步骤4)中,对于图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间运动,包括如下步骤:
1)SURF算子选取图像在尺度空间上的极值点作为候选特征点,图像I(x,y)在尺度空间σ上的Hessian矩阵表示为:
其中Lxx,Lxy,Lyy是对应方向高斯二阶偏导数和图像的卷积,高斯卷积函数为:
图像在不同尺度空间上与高斯函数进行卷积,从而构建图像金字塔,同时利用Hessian矩阵求出极值,在一个3*3*3的立体邻域内进行非极大值抑制,任何一个候选点都要与上一个尺度、当前尺度和下一个尺度的26个邻域值比较,只有比周围的都大或者都小,才能作为稳定的SURF特征点;
2)特征点匹配过程以特征向量的欧氏距离作为匹配基准:对于前一帧图像中的特征点p,在后一帧中计算距离特征点p最近点p1和次近的两个特征点并且记录最近距离d1和次近距离d2,若d1<d2*δ3,δ3∈(0.6,0.9),认为p1是p的匹配点。
所述步骤5)中,当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果,包括如下步骤:
1)两帧图像之间用光流法得到旋转R和位移T,并且不断累积,在n帧后,对于Ik帧图像和Ik+n帧图像用SURF特征点匹配得到旋转R和位移T,对于光流法的结果和特征点匹配得到结果进行卡尔曼滤波,得到更加准确的结果作为下一次计算的初始值,不断循环;
根据离散卡尔曼滤波器时间更新方程:
其中,是光流法计算出来的前k-1帧累积的机器人位置坐标以及航向角,uk-1是位置控制函数,这里设置为uk-1=[Δx,Δy,Δθ]T,B是控制增益,设为常数,A是一个常数,通过公式(2),计算出当前状态Pk-1是前一帧的协方差估计,Q是过程激励噪声协方差矩阵,这里设为常数,根据离散卡尔曼滤波器时间更新方程,计算当前协方差估计
观测方程为:
zk=Hxk+vk (4)
其中zk是通过SURF特征点匹配法计算出来的机器人的位置,H是单位矩阵,vk表示观测噪声,为正态分布白噪声:p(v)~N(0,R)其中,R是观测噪声协方差矩阵,这里假设是常数,计算卡尔曼增益Kk:
根据离散卡尔曼滤波器状态更新方程,更新整个系统位置:
与背景技术相比,本发明具有的有益效果是:
1)因为本发明使用了快速光流法,所以在处理时间上有优势,能实现实时定位。
2)因为本发明融合了特征点匹配法,所以在结果精度上比传统光流精确。
3)因为本发明使用的SURF特征点具有亮度不变性,所以在光照出现变化时能正常应用。
4)因为本发明使用了光流法,所以在地面纹理不清的情况下也能实现定位。
附图说明
图1是本发明的流程图。
图2是实验结果轨迹对比图。
图3是特征点匹配和光流两种方法处理时间对比图。
图4是特征点匹配法、光流法和两者融合之后的误差对比图。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
如图1所示,融合光流与特征点匹配的单目视觉里程计的设计方法包括如下步骤:
1)对于系统输入的连续两帧图像Ik和Ik+1,首先通过采样构建图像金字塔:金字塔的底层图像为原始图像,对底层图像利用线性插值的方法进行降采样,得到长和宽减半的上一层图像,依次类推,向上采样,构建4层金字塔;
2)对于前一帧图像中的像素点进行金字塔跟踪:从最顶层开始跟踪像素点u,计算光流d=[dx,dy]和变换矩阵A,使得通过d和A变换后的前一帧图像与后一帧在这层上的灰度差异最小;然后再把这一层的结果传递给下一层,重新计算光流d和变换矩阵A,再传递给下一层;不断循环,直到底层,也就是原始图像,计算光流d和变换矩阵A,前后两帧图像经过变换后的灰度差小于阈值δ1或循环次数大于δ2时,循环结束,输出结果;
3)通过相机标定,将In和In+1中的二维像素点反投影到三维空间内得到空间坐标:在地面上选取四个点,同时记录其在车体坐标系下的坐标和在图像坐标系下对应点的坐标,应用homography基本原理标定,将匹配的二维像素点对投影到空间中的三维点对,从而得到车体的旋转和平移;
4)对于有一定间隔(图像重叠区域30%~90%)的两帧图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间的运动;
5)当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果。
以上所述步骤4)中的对于图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间运动,其中SURF算子选取图像在尺度空间上的极值点作为候选特征点,图像I(x,y)在尺度空间σ上的Hessian矩阵表示为:
其中Lxx,Lxy,Lyy是对应方向高斯二阶偏导数和图像的卷积,高斯卷积函数为:
图像在不同尺度空间上与高斯函数进行卷积,从而构建图像金字塔,同时利用Hessian矩阵求出极值,在一个3*3*3的立体邻域内进行非极大值抑制,任何一个候选点都要与上一个尺度、当前尺度和下一个尺度的26个邻域值比较,只有比周围的都大或者都小,才能作为稳定的SURF特征点;
特征点匹配过程以特征向量的欧氏距离作为匹配基准:对于前一帧图像中的特征点p,在后一帧中计算距离特征点p最近点p1和次近的两个特征点并且记录最近距离d1和次近距离d2,若d1<d2*δ3,δ3∈(0.6,0.9),认为p1是p的匹配点。
以上所述步骤5)中,当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果。
两帧图像之间用光流法得到旋转R和位移T,并且不断累积,在n帧后,对于Ik帧图像和Ik+n帧图像用SURF特征点匹配得到旋转R和位移T,对于光流法的结果和特征点匹配得到结果进行卡尔曼滤波,得到更加准确的结果作为下一次计算的初始值,不断循环。
根据离散卡尔曼滤波器时间更新方程:
其中,是光流法计算出来的前k-1帧累积的机器人位置坐标以及航向角,uk-1是位置控制函数,这里设置为uk-1=[Δx,Δy,Δθ]T,B是控制增益,设为常数,A是一个常数,通过公式(2),计算出当前状态Pk-1是前一帧的协方差估计,Q是过程激励噪声协方差矩阵,这里设为常数,根据离散卡尔曼滤波器时间更新方程,计算当前协方差估计
观测方程为:
zk=Hxk+vk (4)
其中zk是通过SURF特征点匹配法计算出来的机器人的位置,H是单位矩阵,vk表示观测噪声,为正态分布白噪声:p(v)~N(0,R)
其中,R是观测噪声协方差矩阵,这里假设是常数,计算卡尔曼增益Kk:
根据离散卡尔曼滤波器状态更新方程,更新整个系统位置:
实施例:
本发明是需要实时采集图像,实时计算定位的,所以要想发挥本发明运算速度快的优点,采集图像场景必须近似是一个平面。本发明采集图像是一个循环过程,对于连续两帧图像使用光流法估计出车体运动,每n帧图像应用SURF特征点匹配结果进行矫正。所以本实施例就以n=20帧图像为例,来阐述本发明的整个流程。
步骤1)对于系统输入的连续两帧图像Ik和Ik+1,首先通过采样构建图像金字塔:金字塔的底层图像为原始图像,对底层图像利用线性插值的方法进行降采样,得到长和宽减半的上一层图像,依次类推,向上采样,构建4层金字塔;
对于一幅大小为nx×ny的图像,金字塔的第0层就是图像本身,即I0=I。图像的大小保持原有的分辨率。金字塔的构建是一个重复的过程:从I0中计算I1,从I1中计算I2,以此类推。定义L=1,2,...是金字塔的层数,IL-1代表第L-1层的图像,并且定义和是第L-1层图像的宽和高。这样第L层图像由第L-1层图像中该点周围领域像素差值产生:
在本实施例中L取3。
步骤2)对于前一帧图像中的像素点进行金字塔跟踪:从最顶层开始跟踪像素点u,计算光流d=[dx,dy]和变换矩阵A,使得通过d和A变换后的前一帧图像与后一帧在这层上的灰度差异最小;然后再把这一层的结果传递给下一层,重新计算光流d和变换矩阵A,再传递给下一层;不断循环,直到底层,也就是原始图像,计算光流d和变换矩阵A,前后两帧图像经过变换后的灰度差小于阈值δ1或循环次数大于δ2时,循环结束,输出结果;
在金字塔的每一层,目标是计算出光流dL和仿射变换矩阵AL从而使误差εL最小。每一层的迭代过程是相同的:首先将上一层的光流u和A传给这一层,计算这一帧图像中像素点的光照I(x)←IL(x+u/2L),同时计算出图像在该点x方向和y方向上的偏导
在此基础上,计算出空间梯度矩阵:
更新光流v←2v
迭代过程:计算后一帧图像中对应像素点的灰度J(x)←JL(Ax+v),计算两帧图像间相同位置点的灰度值之差,δI(x)←I(x)-J(x);在计算图像之间的误差向量,
最后计算针对仿射Lucas-Kanade光流 更新跟踪结果
步骤3)通过相机标定,将In和In+1中的二维像素点反投影到三维空间内得到空间坐标:在地面上选取四个点,同时记录其在车体坐标系下的坐标和在图像坐标系下对应点的坐标,应用homography基本原理标定,将匹配的二维像素点对投影到空间中的三维点对,从而得到车体的旋转和平移;
步骤4)对于有一定间隔(图像重叠区域30%~90%)的两帧图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间的运动。SURF算子选取图像在尺度空间上的极值点作为候选特征点。图像I(x,y)在尺度空间σ上的Hessian矩阵表示为:
其中Lxx,Lxy,Lyy是对应方向高斯二阶偏导数和图像的卷积,高斯卷积函数为:
图像在不同尺度空间上与高斯函数进行卷积,从而构建图像金字塔,同时利用Hessian矩阵求出极值,在一个3*3*3的立体邻域内进行非极大值抑制,任何一个候选点都要与上一个尺度、当前尺度和下一个尺度的26个邻域值比较,只有比周围的都大或者都小,才能作为稳定的SURF特征点;
特征点匹配过程以特征向量的欧氏距离作为匹配基准:对于前一帧图像中的特征点p,在后一帧中计算距离特征点p最近点p1和次近的两个特征点并且记录最近距离d1和次近距离d2,若d1<d2*δ3,δ3∈(0.6,0.9),认为p1是p的匹配点。
步骤5)当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果。
两帧图像之间用光流法得到旋转R和位移T,并且不断累积,在n=20帧后,对于Ik帧图像和Ik+n帧图像用SURF特征点匹配得到旋转R和位移T,对于光流法的结果和特征点匹配得到结果进行卡尔曼滤波,得到更加准确的结果作为下一次计算的初始值,不断循环。
根据离散卡尔曼滤波器时间更新方程:
其中,是光流法计算出来的前k-1帧累积的机器人位置坐标以及航向角,uk-1是位置控制函数,这里设置为uk-1=[Δx,Δy,Δθ]T,B是控制增益,设为常数,A是一个常数,通过公式,计算出当前状态Pk-1是前一帧的协方差估计,Q是过程激励噪声协方差矩阵,这里设为常数,根据离散卡尔曼滤波器时间更新方程,计算当前协方差估计
观测方程为:
zk=Hxk+vk
其中zk是通过SURF特征点匹配法计算出来的机器人的位置,H是单位矩阵,vk表示观测噪声,为正态分布白噪声:p(v)~N(0,R)
其中,R是观测噪声协方差矩阵,这里假设是常数,计算卡尔曼增益Kk:
根据离散卡尔曼滤波器状态更新方程,更新整个系统位置:
本实验是在校园环境中道路上进行的,应用bumblebee2相机采集图像,图像分辨率是640*480,采集频率是20赫兹,车上搭载差分GPS,以10赫兹采集GPS点作为真值,误差是0.01米。车辆平均行驶速度是7.56km/h,行驶里程是302m。计算和测量的轨迹曲线如图2所示。
光流法在处理时间上相比较于传统的特征点匹配算法有优势,见图3。光流法处理时间平均是60.69ms;SURF特征点匹配算法的处理时间平均是304.96ms。
在车辆行驶速度较快的情况下,容易出现两帧之间变化较大,超出匹配范围的情况,特征点匹配精度不高。这种情况下,光流法可以提供一种快速定位的方法,用以弥补特征点定位信息的缺失。在运动速度加快时,光流法可以增加金字塔的层数来实现跟踪,提供一种稳定的光流,用于估计机器人的运动。同时由于光流法的精度不高,需要特征点匹配算法进行融合,减小误差,矫正位置和姿态。误差曲线是计算融合后的点和GPS点(真值)之间的欧式距离,如图4。可以看出卡尔曼融合后曲线的误差相比较于光流计算结果和单纯的特征点匹配算法误差要小。
Claims (3)
1.一种融合光流与特征点匹配的单目视觉里程计的设计方法,其特征在于,包括如下步骤:
1)对于系统输入的连续两帧图像Ik和Ik+1,首先通过采样构建图像金字塔:金字塔的底层图像为原始图像,对底层图像利用线性插值的方法进行降采样,得到长和宽减半的上一层图像,依次类推,向上采样,构建4层金字塔;
2)对于前一帧图像中的像素点进行金字塔跟踪:从最顶层开始跟踪像素点u,计算光流d=[dx,dy]和变换矩阵A,使得通过d和A变换后的前一帧图像与后一帧在这层上的灰度差异最小;然后再把这一层的结果传递给下一层,重新计算光流d和变换矩阵A,再传递给下一层;不断循环,直到底层,也就是原始图像,计算光流d和变换矩阵A,前后两帧图像经过变换后的灰度差小于阈值δ1或循环次数大于δ2时,循环结束,输出结果;
3)通过相机标定,将In和In+1中的二维像素点反投影到三维空间内得到空间坐标:在地面上选取四个点,同时记录其在车体坐标系下的坐标和在图像坐标系下对应点的坐标,应用homography基本原理标定,将匹配的二维像素点对投影到空间中的三维点对,从而得到车体的旋转和平移;
4)对于图像重叠区域30%~90%的两帧图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间的运动;
5)当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果。
2.根据权利要求1所述的一种融合光流与特征点匹配的单目视觉里程计的设计方法,其特征在于:所述步骤4)中,对于图像Ik和Ik+n利用SURF特征点匹配算法得到两帧图像间运动,包括如下步骤:
1)SURF算子选取图像在尺度空间上的极值点作为候选特征点,图像I(x,y)在尺度空间σ上的Hessian矩阵表示为:
其中Lxx,Lxy,Lyy是对应方向高斯二阶偏导数和图像的卷积,高斯卷积函数为:
图像在不同尺度空间上与高斯函数进行卷积,从而构建图像金字塔,同时利用Hessian矩阵求出极值,在一个3*3*3的立体邻域内进行非极大值抑制,任何一个候选点都要与上一个尺度、当前尺度和下一个尺度的26个邻域值比较,只有比周围的都大或者都小,才能作为稳定的SURF特征点;
2)特征点匹配过程以特征向量的欧氏距离作为匹配基准:对于前一帧图像中的特征点p,在后一帧中计算距离特征点p最近点p1和次近的两个特征点并且记录最近距离d1和次近距离d2,若d1<d2*δ3,δ3∈(0.6,0.9),认为p1是p的匹配点。
3.根据权利要求1所述的一种融合光流与特征点匹配的单目视觉里程计的设计方法,其特征在于:所述步骤5)中,当车体运动,系统采集了多帧图像之后,首先针对连续图像进行光流计算,得到光流运动,同时对于这一段距离的头尾两帧图像进行SURF特征点匹配,将光流运动的累积结果和SURF特征点的匹配结果进行卡尔曼滤波,更新车体位置,输出结果,包括如下步骤:
1)两帧图像之间用光流法得到旋转R和位移T,并且不断累积,在n帧后,对于Ik帧图像和Ik+n帧图像用SURF特征点匹配得到旋转R和位移T,对于光流法的结果和特征点匹配得到结果进行卡尔曼滤波,得到更加准确的结果作为下一次计算的初始值,不断循环;
根据离散卡尔曼滤波器时间更新方程:
其中,是光流法计算出来的前k-1帧累积的机器人位置坐标以及航向角,uk-1是位置控制函数,这里设置为uk-1=[Δx,Δy,Δθ]T,B是控制增益,设为常数,A是一个常数,通过公式(2),计算出当前状态Pk-1是前一帧的协方差估计,Q是过程激励噪声协方差矩阵,这里设为常数,根据离散卡尔曼滤波器时间更新方程,计算当前协方差估计
观测方程为:
zk=Hxk+vk (4)
其中zk是通过SURF特征点匹配法计算出来的机器人的位置,H是单位矩阵,vk表示观测噪声,为正态分布白噪声:p(v)~N(0,R)
其中,R是观测噪声协方差矩阵,这里假设是常数,计算卡尔曼增益Kk:
根据离散卡尔曼滤波器状态更新方程,更新整个系统位置:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013102011222A CN103325108A (zh) | 2013-05-27 | 2013-05-27 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013102011222A CN103325108A (zh) | 2013-05-27 | 2013-05-27 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103325108A true CN103325108A (zh) | 2013-09-25 |
Family
ID=49193831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013102011222A Pending CN103325108A (zh) | 2013-05-27 | 2013-05-27 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103325108A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104599286A (zh) * | 2013-10-31 | 2015-05-06 | 展讯通信(天津)有限公司 | 一种基于光流的特征跟踪方法及装置 |
CN104778697A (zh) * | 2015-04-13 | 2015-07-15 | 清华大学 | 基于快速定位图像尺度和区域的三维跟踪方法及系统 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN105976402A (zh) * | 2016-05-26 | 2016-09-28 | 同济大学 | 一种单目视觉里程计的真实尺度获取方法 |
CN106210449A (zh) * | 2016-08-11 | 2016-12-07 | 上海交通大学 | 一种多信息融合的帧率上变换运动估计方法及系统 |
CN103955950B (zh) * | 2014-04-21 | 2017-02-08 | 中国科学院半导体研究所 | 一种利用关键点特征匹配的图像跟踪方法 |
CN106683129A (zh) * | 2016-12-13 | 2017-05-17 | 中山大学 | 一种基于双边核回归的相对约减纹理分解方法及其装置 |
CN106709890A (zh) * | 2017-01-18 | 2017-05-24 | 聚龙智瞳科技有限公司 | 用于低照度视频图像处理的方法及装置 |
CN106803899A (zh) * | 2015-11-26 | 2017-06-06 | 华为技术有限公司 | 合并图像的方法和装置 |
CN106920259A (zh) * | 2017-02-28 | 2017-07-04 | 武汉工程大学 | 一种定位方法及系统 |
CN107025668A (zh) * | 2017-03-30 | 2017-08-08 | 华南理工大学 | 一种基于深度相机的视觉里程计的设计方法 |
CN107403442A (zh) * | 2016-05-19 | 2017-11-28 | 视辰信息科技(上海)有限公司 | 增强现实系统的跟踪方法和终端设备 |
CN107569181A (zh) * | 2016-07-04 | 2018-01-12 | 九阳股份有限公司 | 一种智能清洁机器人及清扫方法 |
CN108475426A (zh) * | 2017-06-30 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 光流跟踪装置和方法 |
CN108981687A (zh) * | 2018-05-07 | 2018-12-11 | 清华大学 | 一种视觉与惯性融合的室内定位方法 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN109059930A (zh) * | 2018-08-31 | 2018-12-21 | 西南交通大学 | 一种基于视觉里程计的移动机器人定位方法 |
CN109559330A (zh) * | 2017-09-25 | 2019-04-02 | 北京金山云网络技术有限公司 | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 |
CN109715047A (zh) * | 2016-09-07 | 2019-05-03 | 威尔乌集团 | 用于眼动追踪应用的传感器融合系统和方法 |
CN109978982A (zh) * | 2019-04-02 | 2019-07-05 | 广东电网有限责任公司 | 一种基于倾斜影像的点云快速上色方法 |
CN110006444A (zh) * | 2019-03-21 | 2019-07-12 | 南京师范大学 | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 |
CN111060948A (zh) * | 2019-12-14 | 2020-04-24 | 深圳市优必选科技股份有限公司 | 一种定位方法、装置、头盔及计算机可读存储介质 |
CN111368883A (zh) * | 2020-02-21 | 2020-07-03 | 浙江大华技术股份有限公司 | 基于单目摄像头的避障方法、计算装置及存储装置 |
CN111402294A (zh) * | 2020-03-10 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN113284232A (zh) * | 2021-06-10 | 2021-08-20 | 西北工业大学 | 一种基于四叉树的光流跟踪方法 |
CN114119759A (zh) * | 2022-01-28 | 2022-03-01 | 杭州宏景智驾科技有限公司 | 多位置机动车定位方法和装置、电子设备和存储介质 |
CN114973175A (zh) * | 2022-05-24 | 2022-08-30 | 深圳市航盛电子股份有限公司 | 运动物体检测方法、装置、终端设备以及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080144925A1 (en) * | 2006-08-15 | 2008-06-19 | Zhiwei Zhu | Stereo-Based Visual Odometry Method and System |
CN102155955A (zh) * | 2011-03-11 | 2011-08-17 | 天津理工大学 | 立体视觉里程计及测量方法 |
-
2013
- 2013-05-27 CN CN2013102011222A patent/CN103325108A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080144925A1 (en) * | 2006-08-15 | 2008-06-19 | Zhiwei Zhu | Stereo-Based Visual Odometry Method and System |
CN102155955A (zh) * | 2011-03-11 | 2011-08-17 | 天津理工大学 | 立体视觉里程计及测量方法 |
Non-Patent Citations (3)
Title |
---|
JEAN-Y VES BOUGUENT: "Pyramidal Implementation of the Affine Lucas Kanade Feature Tracker Description of the algorithm", 《INTER CORPORATION》, vol. 1, no. 2, 31 December 2001 (2001-12-31) * |
李宇波等: "视觉里程计技术综述", 《计算机应用研究》, vol. 29, no. 8, 30 August 2012 (2012-08-30) * |
路丹晖: "融合视觉与惯性导航的机器人自主定位", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 07, 15 July 2012 (2012-07-15) * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104599286A (zh) * | 2013-10-31 | 2015-05-06 | 展讯通信(天津)有限公司 | 一种基于光流的特征跟踪方法及装置 |
CN104599286B (zh) * | 2013-10-31 | 2018-11-16 | 展讯通信(天津)有限公司 | 一种基于光流的特征跟踪方法及装置 |
CN103955950B (zh) * | 2014-04-21 | 2017-02-08 | 中国科学院半导体研究所 | 一种利用关键点特征匹配的图像跟踪方法 |
CN104778697A (zh) * | 2015-04-13 | 2015-07-15 | 清华大学 | 基于快速定位图像尺度和区域的三维跟踪方法及系统 |
CN104778697B (zh) * | 2015-04-13 | 2017-07-28 | 清华大学 | 基于快速定位图像尺度和区域的三维跟踪方法及系统 |
CN106803899A (zh) * | 2015-11-26 | 2017-06-06 | 华为技术有限公司 | 合并图像的方法和装置 |
CN106803899B (zh) * | 2015-11-26 | 2019-10-01 | 华为技术有限公司 | 合并图像的方法和装置 |
CN107403442B (zh) * | 2016-05-19 | 2020-11-27 | 视辰信息科技(上海)有限公司 | 增强现实系统的跟踪方法和终端设备 |
CN107403442A (zh) * | 2016-05-19 | 2017-11-28 | 视辰信息科技(上海)有限公司 | 增强现实系统的跟踪方法和终端设备 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN105976402A (zh) * | 2016-05-26 | 2016-09-28 | 同济大学 | 一种单目视觉里程计的真实尺度获取方法 |
CN107569181A (zh) * | 2016-07-04 | 2018-01-12 | 九阳股份有限公司 | 一种智能清洁机器人及清扫方法 |
CN106210449B (zh) * | 2016-08-11 | 2020-01-07 | 上海交通大学 | 一种多信息融合的帧率上变换运动估计方法及系统 |
CN106210449A (zh) * | 2016-08-11 | 2016-12-07 | 上海交通大学 | 一种多信息融合的帧率上变换运动估计方法及系统 |
CN109715047A (zh) * | 2016-09-07 | 2019-05-03 | 威尔乌集团 | 用于眼动追踪应用的传感器融合系统和方法 |
CN109715047B (zh) * | 2016-09-07 | 2021-08-03 | 威尔乌集团 | 用于眼动追踪应用的传感器融合系统和方法 |
CN106683129B (zh) * | 2016-12-13 | 2020-02-21 | 中山大学 | 一种基于双边核回归的相对约减纹理分解方法及其装置 |
CN106683129A (zh) * | 2016-12-13 | 2017-05-17 | 中山大学 | 一种基于双边核回归的相对约减纹理分解方法及其装置 |
CN106709890B (zh) * | 2017-01-18 | 2020-03-27 | 聚龙智瞳科技有限公司 | 用于低照度视频图像处理的方法及装置 |
CN106709890A (zh) * | 2017-01-18 | 2017-05-24 | 聚龙智瞳科技有限公司 | 用于低照度视频图像处理的方法及装置 |
CN106920259A (zh) * | 2017-02-28 | 2017-07-04 | 武汉工程大学 | 一种定位方法及系统 |
CN106920259B (zh) * | 2017-02-28 | 2019-12-06 | 武汉工程大学 | 一种定位方法及系统 |
CN107025668A (zh) * | 2017-03-30 | 2017-08-08 | 华南理工大学 | 一种基于深度相机的视觉里程计的设计方法 |
CN107025668B (zh) * | 2017-03-30 | 2020-08-18 | 华南理工大学 | 一种基于深度相机的视觉里程计的设计方法 |
CN108475426A (zh) * | 2017-06-30 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 光流跟踪装置和方法 |
CN109559330A (zh) * | 2017-09-25 | 2019-04-02 | 北京金山云网络技术有限公司 | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 |
CN108981687B (zh) * | 2018-05-07 | 2021-01-15 | 清华大学 | 一种视觉与惯性融合的室内定位方法 |
CN108981687A (zh) * | 2018-05-07 | 2018-12-11 | 清华大学 | 一种视觉与惯性融合的室内定位方法 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN109029417B (zh) * | 2018-05-21 | 2021-08-10 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN109059930A (zh) * | 2018-08-31 | 2018-12-21 | 西南交通大学 | 一种基于视觉里程计的移动机器人定位方法 |
CN110006444A (zh) * | 2019-03-21 | 2019-07-12 | 南京师范大学 | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 |
CN109978982A (zh) * | 2019-04-02 | 2019-07-05 | 广东电网有限责任公司 | 一种基于倾斜影像的点云快速上色方法 |
CN111060948A (zh) * | 2019-12-14 | 2020-04-24 | 深圳市优必选科技股份有限公司 | 一种定位方法、装置、头盔及计算机可读存储介质 |
CN111368883B (zh) * | 2020-02-21 | 2024-01-19 | 浙江大华技术股份有限公司 | 基于单目摄像头的避障方法、计算装置及存储装置 |
CN111368883A (zh) * | 2020-02-21 | 2020-07-03 | 浙江大华技术股份有限公司 | 基于单目摄像头的避障方法、计算装置及存储装置 |
CN111402294A (zh) * | 2020-03-10 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN111402294B (zh) * | 2020-03-10 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN113284232B (zh) * | 2021-06-10 | 2023-05-26 | 西北工业大学 | 一种基于四叉树的光流跟踪方法 |
CN113284232A (zh) * | 2021-06-10 | 2021-08-20 | 西北工业大学 | 一种基于四叉树的光流跟踪方法 |
CN114119759A (zh) * | 2022-01-28 | 2022-03-01 | 杭州宏景智驾科技有限公司 | 多位置机动车定位方法和装置、电子设备和存储介质 |
CN114973175A (zh) * | 2022-05-24 | 2022-08-30 | 深圳市航盛电子股份有限公司 | 运动物体检测方法、装置、终端设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103325108A (zh) | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 | |
EP3735675B1 (en) | Image annotation | |
US10762645B2 (en) | Stereo visual odometry method based on image gradient joint optimization | |
CN107945220B (zh) | 一种基于双目视觉的重建方法 | |
CN105300403B (zh) | 一种基于双目视觉的车辆里程计算法 | |
Scaramuzza et al. | Absolute scale in structure from motion from a single vehicle mounted camera by exploiting nonholonomic constraints | |
Heo et al. | EKF-based visual inertial navigation using sliding window nonlinear optimization | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN102999759B (zh) | 一种基于光流的车辆运动状态估计方法 | |
Kitt et al. | Monocular visual odometry using a planar road model to solve scale ambiguity | |
EP2761252B1 (en) | Localising a vehicle along a route | |
Cui et al. | Real-time dense mapping for self-driving vehicles using fisheye cameras | |
US20120308114A1 (en) | Voting strategy for visual ego-motion from stereo | |
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN103761737A (zh) | 基于稠密光流的机器人运动估计方法 | |
CN105976402A (zh) | 一种单目视觉里程计的真实尺度获取方法 | |
CN106931962A (zh) | 一种基于gpu‑sift的实时双目视觉定位方法 | |
CN106153041B (zh) | 一种基于多景深信息的视觉里程计测速方法 | |
CN114693754A (zh) | 一种基于单目视觉惯导融合的无人机自主定位方法与系统 | |
CN102663812A (zh) | 基于变分光流的三维运动检测与稠密结构重建的直接方法 | |
Zhu et al. | Stereo visual tracking within structured environments for measuring vehicle speed | |
CN115540875B (zh) | 一种用于股道内列车车辆高精度检测定位的方法及系统 | |
Cigla et al. | Gaussian mixture models for temporal depth fusion | |
Jiang et al. | Icp stereo visual odometry for wheeled vehicles based on a 1dof motion prior | |
CN207351462U (zh) | 基于gpu-sift的实时双目视觉定位系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130925 |