CN103761737A - 基于稠密光流的机器人运动估计方法 - Google Patents

基于稠密光流的机器人运动估计方法 Download PDF

Info

Publication number
CN103761737A
CN103761737A CN201410029520.5A CN201410029520A CN103761737A CN 103761737 A CN103761737 A CN 103761737A CN 201410029520 A CN201410029520 A CN 201410029520A CN 103761737 A CN103761737 A CN 103761737A
Authority
CN
China
Prior art keywords
robot
light stream
camera
point
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410029520.5A
Other languages
English (en)
Other versions
CN103761737B (zh
Inventor
李秀智
赵冠荣
贾松敏
秦宝岭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410029520.5A priority Critical patent/CN103761737B/zh
Publication of CN103761737A publication Critical patent/CN103761737A/zh
Application granted granted Critical
Publication of CN103761737B publication Critical patent/CN103761737B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种基于稠密光流的机器人运动估计方法,包括:对相机的内参和外参进行标定;采集图像序列并畸变校正;通过多项式展开的方法求解稠密光流;光流提纯;图像坐标与机器人坐标之间的坐标变换;估计机器人的运动速度。本发明针对现有技术中存在的运动估计精度不高,在光照不均匀、运动模糊情况下鲁棒性较差以及相机的作用受到局限等问题,提供一种基于稠密光流的机器人运动速度估计方法,引入基于多项式分解的稠密光流算法,提高了运动估计的精度;将RANSAC算法应用于光流提纯过程,提高了算法的鲁棒性;采用单目相机,且镜头斜向下放置,使机器人可以实时地检测前方的情况,为完成避障、路径规划等其他任务提供了便利。

Description

基于稠密光流的机器人运动估计方法
技术领域
本发明属于机器人视觉领域,涉及利用视觉信息实现对机器人进行运动速度估计的方法。
背景技术
运动状态的测量在移动机器人的自定位、路径规划、自主导航以及其它应用领域至关重要。近年来,基于视觉的方法成为移动机器人运动估计的研究热点。视觉里程计(visionodometry)是一种利用相机采集到的图像序列来估计机器人相对运动的方法。与传统的机器人运动估计方法相比,基于视觉运动估计方法具有结构简单、精度较高等优点。而且,对于全向运动机器人,传统基于里程计的航位推算难以实现,基于视觉的方法的优势更为明显。
申请号为201110449925.0的专利公开了一种移动机器人双目视觉里程计实现方法。该方法使用双目摄像机采集室内天花板图像对,通过特征提取、匹配获得点的三维对应关系,最后采用分段优化算法获得机器人的运动参数。但是此方法中相机镜头为垂直向上放置,检测不到机器人前方的情况,无法完成避障、路径规划等其他任务。而且采用双目视觉提高了机器人运动估计的系统复杂度及成本。
申请号为201310201122.2的专利公开了一种融合光流与特征点匹配的单目视觉里程计的设计方法。该方法将SURF特征匹配与光流相融合,然后对匹配结果进行卡尔曼滤波,获得车体运动估计的结果。但是该方法采用稀疏光流跟踪,定位精度略差,而且没有对得到的光流结果进行提纯,在光照不均匀或运动模糊时不具有较好的鲁棒性。
发明内容
针对现有技术中存在的运动估计精度不高,在光照不均匀、运动模糊情况下鲁棒性较差以及相机的作用受到局限等问题,本发明提供一种基于稠密光流的机器人运动速度估计方法,引入一种基于多项式分解的稠密光流算法,提高了运动估计的精度;将RANSAC算法应用于光流提纯过程,提高了算法的鲁棒性;将相机镜头斜向下放置,使机器人可以实时地检测前方的情况,为完成避障、路径规划等其他任务提供了便利。
基于稠密光流的机器人运动估计方法步骤如下:
步骤1,对相机的内参和外参进行标定。
假定世界坐标系平行于机器人坐标系,并且调整相机的位置使得相机的偏航角和侧倾角为零。在图像测量和机器视觉应用中,相机参数的标定是非常关键的环节,本发明采用张正友的平面标定法对相机进行标定。
步骤2,采集连续图像序列作为输入,并对获得的图像序列进行畸变校正。
首先使机器人平台沿着一定的轨迹移动,通过数字相机采集连续的图像序列,然后对输入的图像序列进行径向畸变校正和切向畸变校正,其中用到的相机参数可以通过步骤1获得。
步骤3,计算相邻两帧图像之间的稠密光流。
首先对灰度图像进行多项式展开,然后对每一个像素点邻域附加权重,最后通过最小二乘法求得稠密的光流结果。
步骤4,对获得的光流估计结果进行提纯。
本发明采用随机抽样一致性(RANSAC)算法来剔除光照不均匀以及运动模糊产生的错误光流矢量。首先通过3D运动场与2D速度场之间的关系建立平面片光流二次模型,然后将光流模型带入到RANSAC算法中即可实现光流的提纯。
步骤5,进行图像坐标与机器人坐标之间的坐标变换。
首先通过求解单应性矩阵将点的图像坐标转化到世界坐标系下,然后通过标定的外参矩阵将点的世界坐标转化到机器人坐标系下。
步骤6,通过非线性迭代的方法计算机器人帧间角速度和线速度的测量值,并对测量结果进行卡尔曼滤波,最终获得机器人运动速度的估计值。
与传统的视觉里程计相比,本发明具有以下优势:
(1)采用单目相机,且镜头为斜向下放置,可以实时地检测到机器人前方的情况,为完成避障、路径规划等其他任务提供了便利。
(2)机器人运动估计模型中世界坐标系平行于机器人坐标系,并且调整相机的偏航角和侧倾角近似为零,简化了坐标系间的转化关系,提高了运动估计算法的精度。
(3)本发明采用了稠密光流算法,与传统的稀疏匹配算法相比,提高了运动估计的精度。
(4)引入RANSAC算法来剔除错误的光流矢量,提高了运动估计算法的鲁棒性。
附图说明
图1为基于稠密光流的机器人运动速度测量方法流程图;
图2为本发明用到的三种坐标系示意图:Oc-XcYcZc为相机坐标系,Or-XrYrZr为机器人坐标系,Ow-XwYwZw为世界坐标系;
图3为本发明实施例得到的稠密光流:(a)为相机采集到的真实场景图像,(b)为基于多项式分解获得的稠密光流。
图4为本发明实施例光流提纯结果:(a)为真实场景图,(b)为RANSAC排异之前的光流矢量图,(c)为RANSAC排异之后的光流矢量图。
图5为实验环境:(a)为实验的真实场景,(b)为实验环境的二维几何示意图。
图6为机器人速度估计结果:(a)为X轴方向线速度估计结果,(b)为Y轴方向线速度估计结果,(c)为角速度估计结果,(d)为估计速度的模值与真值的误差。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
基于稠密光流的机器人运动速度测量方法流程图如图1所示,具体包括以下几个步骤。
步骤1,对相机的内参和外参进行标定。
(1)打印一张尺寸为A2的靶标模板,靶标上特征点的间隔为30mm。
(2)从多个角度拍摄靶标。拍摄时,应尽量让靶标占满屏幕,并保证靶标的每一个角都在屏幕中,一共拍摄9张靶标图像。
(3)检测出图像中的特征点,即靶标的每一个黑色交叉点。
(4)建立相机坐标系、机器人坐标系和世界坐标系,如附图2所示,相机镜头为斜向下放置,其中:Oc-XcYcZc表示相机坐标系,原点固定于相机的光心,Zc轴沿相机的光轴方向,Xc和Yc轴与成像面的x和y轴平行;Or-XrYrZr表示机器人坐标系,原点位于机器人的中心,Zr轴垂直于地面向上,Yr轴沿机器人前进的方向,Xr垂直于YrOrZr所在平面;Ow-XwYwZw表示世界坐标系,原点建立在机器人视野范围内的一个靶标的左上角上,Zw轴垂直于地面向上,Xw和Yw轴分别与靶标上的两直角边平行。
(5)求出相机标定的内参矩阵A:
A = f x γ C x 0 f y C y 0 0 1
其中,(fx,fy)是相机的归一化焦距,(Cx,Cy)是相机像平面中心坐标,γ为像平面横轴与纵轴之间的倾斜因子。
(6)为了简化运动估计的数学模型,首先将平面靶标放置在机器人的正前方,沿机器人坐标轴YR引出一条辅助直线,调整平面靶标的位置使得它的坐标轴YW垂直于辅助直线,而XW平行于辅助直线。然后调整相机的位置使得相机的偏航角和侧倾角为零。
(7)拍摄第10幅靶标图像。
(8)通过(7)中拍摄的图像计算相机与靶标之间的相对位置关系。
外参矩阵表达式如下:
[ R w c | t w c ]
其中,
Figure BDA0000460031670000033
Figure BDA0000460031670000034
分别为世界坐标系到相机坐标系的旋转矩阵和平移向量。
步骤2,采集图像序列并畸变校正,具体方法如下:
(1)使机器人平台沿着一定的轨迹移动,移动的速度为30-60mm/s,通过Point Grey Flea2相机采集连续的图像序列,相机的采样频率为1-10Hz。
(2)对获得的原始图像序列进行畸变校正。
通过双线性插值来计算输出图像的像素值,公式如下:
x′=x(1+k1r2+k2r4)+p1(r2+2x2)+2p1xy
y′=y(1+k1r2+k2r4)+p1(r2+2y2)+2p2xy
其中,(x,y)和(x′,y′)分别是图像校正前和校正后的像素点的坐标,k1和k2是径向形变系数,p1和p2是切向形变系数,且有:r2=x2+y2
步骤3,通过多项式展开的方法求解稠密光流,具体方法如下:
本发明引入全局光流算法,可以得到致密的光流场从而提高机器人速度估计的精度。对相邻两帧灰度图像在空间上逐点进行多项式展开,即:
I1(x)=xTA1x+b1 Tx+c1
I2(x)=xTA2x+b2 Tx+c2
其中,Ai是一个对称阵,bi是一个向量,ci是一个标量。
第二幅图像序列的灰度由光流矢量表示如下:
Figure BDA0000460031670000041
由灰度守恒约束可以得到:b2=b1-2A1u,当A1可逆时可求得光流值
Figure BDA0000460031670000042
为了提升光流算法的鲁棒性,对每一个像素点的邻域附加权重。
建立求解光流的目标函数:
E ( u ( x ) ) = Σ Δx ∈ I ω ( Δx ) | | A ( x + Δx ) u ( x ) - Δb ( x + Δx ) | |
其中,ω(Δx)表示像素点在邻域内的权重系数,表示邻域上各个像素点对约束产生的影响的大小分配。
由最小二乘法求解光流:
u=(∑w AT A)-1∑w ATΔb
稠密光流计算结果见图3,其中(a)为相机采集到的真实场景图像,(b)为基于多项式展开获得的稠密光流。由图3(b)可以得到:本发明引入的光流算法能够获得平滑、稠密的光流,具有较高的精度。
步骤4,光流提纯,具体方法如下:
(1)建立平面片光流模型
设刚体上有一点P=(X,Y,Z),它相对于原点的平移速度t=(tx,ty,tz)T,同时伴有一旋转速度R=(Rx,Ry,Rz)T,则可得P处的瞬时速度矢量V=(Vx,Vy,Vz)T
V=R×P+t
设透视投影模型中有一运动的平面片,在某一时刻该平面片在3D坐标系下的方程为:
kXX+kYY+kZZ=1
由于焦距是常数,可以令f=1,根据透镜成像的基本原理和简单的几何知识可以推导出点P的3D坐标(X,Y,Z)和在成像平面上与这对应的像点p的图像坐标(x,y)满足如下关系:
x = X Z , y = Y Z
在上述方程两边分别对时间t求导可得平面片光流方程:
u = ψ x ( x , y ) = a 1 + a 2 x + a 3 y + a 7 x 2 + a 8 xy v = ψ y ( x , y ) = a 4 + a 5 x + a 6 y + a 7 xy + a 8 y 2
其中:
Figure BDA0000460031670000053
(2)基于RANSAC算法的光流提纯,具体过程如下:
1)随机选取一组光流矢量作为样本,通过最小二乘法来估计平面片光流模型系数ψ0
2)将剩余的所有光流矢量带入到ψ0中,计算它们与ψ0之间的误差,如果误差较小,则这个矢量被划分为内点光流;否则,划分为异常光流。记录这一组样本获得的内点光流数量,如果内点数大于设定的内点数阈值,则对这一组样本进行精提纯。
3)用获得的所有内点光流矢量重新估计平面片光流模型系数ψk,然后将所有的光流矢量带入到更新的光流模型ψk中并计算误差率。
4)重复步骤1)~3)50次,找到误差率最低的光流模型ψ*,也就是最优的光流模型。
5)用最优的光流模型ψ*划分内点光流和异常光流,并将异常光流排除。光流提纯的结果见图4。其中(a)为真实场景图,(b)为RANSAC排异之前的光流矢量图,(c)为RANSAC排异之后的光流矢量图。由图4可得:RANSAC算法可以排除光照不均匀以及运动模糊产生的错误光流,提升了运动估计的鲁棒性。
步骤5,图像坐标与机器人坐标之间的坐标变换。具体方法如下:
(1)求解单应矩阵H,将点的图像坐标转化到世界坐标系下。
假设图像坐标系中一点的齐次坐标为m=(u,v,1)T,在世界坐标系中与之相对应的一点的齐次坐标为M=(X,Y,Z,1)T。可得如下的投影方程:
sm=A[R,T]M
其中s是任意比例因子,[R,T]为外参矩阵,A为内参矩阵。模型中靶标上点的Z坐标为0,可得单应矩阵的定义:
H=A[r1,r2,T]
其中,r1和r2分别表示旋转矩阵R的第一列和第二列。然后将靶标上特征点的图像坐标以及设定的世界坐标作为输入,通过最优化反投影误差得到两坐标系之间的透视变换H,最终获得点的世界坐标M’。最优化反投影误差为:
Σ i [ ( X i - h 11 u i + h 12 v i + h 13 h 31 u i + h 32 v i + h 33 ) 2 + ( Y i - h 21 u i + h 22 v i + h 23 h 31 u i + h 32 v i + h 33 ) 2 ]
(2)通过标定的外参矩阵将点的世界坐标转化到机器人坐标系。
首先计算相机光心到世界坐标系原点的距离
Figure BDA0000460031670000062
世界坐标系的原点到机器人中心之间的距离
Figure BDA0000460031670000063
由于运动估计的数学模型在步骤一中已简化,因此将点从世界坐标系转化到机器人坐标系的旋转矩阵和平移向量可由下式表示:
R w r = I , t w r = D w r
其中,I为单位矩阵。
步骤6,估计机器人的运动速度,具体方法如下:
(1)通过Levenberg-Marquardt算法恢复运动参数(旋转矩阵R和平移向量t)
机器人的运动可以看成是刚体运动,满足Xk=R*Xk+1+t,即通过旋转矩阵R和平移向量t把机器人坐标系下t+1时刻的点坐标变换到t时刻,R和t分别为:
R = cos θ - sin sin θ cos θ , t = ( t x , t y ) T
然后,通过最小化如下的目标函数来求解R,t:
E ( R , t ) = Σ i = 1 n [ ω i ( X k i - RX ( k + 1 ) i - t ) ] 2 = ( X k i - RX ( k + 1 ) i - t ) 2 W ( X k i - RX ( k + 1 ) i - t )
通过LM算法求取机器人相对位姿,公式如下:
[JTWJ+λI]hlm=JTW(Xk-RX(k+1)-t)
其中,J为相机的雅各比矩阵。
然后通过如下公式求解机器人速度的测量值:
v k ≈ 1 T s t x t y θ T
(2)进行卡尔曼滤波
设定KF模型的状态变量S=[a,v]T,其中a=[ax,ay,aθ]T,v=[vx,vy,vθ]T分别表示机器人帧间的速度与加速度。状态变量的一步预测为:
S ^ ( k + 1 / k ) = Φ k + 1 , k S ^ k
然后计算状态向量的后验估计:
S ^ ( k + 1 ) = S ^ ( k + 1 / k ) + K k [ S k - H S ^ ( k + 1 | k ) ]
其中,H为系统的观测矩阵;Sk为状态变量的测量值,由前面计算得到;Kk为卡尔曼增益,由下式获得:
Kk=Pk/k-1HT(HPk/k-1HT+Rk)-1
其中,Pk为预测误差的协方差,由下式计算获得:
Pk=(I-KkHk)Pk/k-1(I-KkHk)T+KkRkKk T
最终,通过KF模型的后验状态变量得到了机器人运动速度估计值。
下面给出应用本发明所述方法在室内真实环境下进行速度估计一个实验实例。
实验采用Point Grey Flea2数字相机,图像分辨率为640×480。室内环境如图5所示,图5(a)为实验的真实场景,图5(b)为实验环境的二维几何示意图。实验时机器人平台沿图示的路径移动,分别通过轮式里程计和基于光流的运动估计方法对机器人的速度进行估计,速度的真值由基于激光测距仪的SLAM提供。速度估计结果见图6所示。(a)(b)(c)中的实线表示基于光流的速度估计结果,点线表示轮式里程计估计结果,虚线表示速度的真值;(d)中实线为基于光流的速度估计结果与真值的误差,虚线为轮式里程计估计结果与真值的误差。由图可知,基于光流的运动速度估计的精度优于轮式里程计。
实验结果表明,本发明所述方法可对机器人的速度进行估计,具有较好的精度和鲁棒性。

Claims (2)

1.一种基于稠密光流的机器人运动速度估计方法,其特征在于包括以下步骤:
步骤1,对相机的内参和外参进行标定;
(1)打印一张靶标模板;
(2)从多个角度拍摄靶标;拍摄时,应尽量让靶标占满屏幕,并保证靶标的每一个角都在屏幕中,一共拍摄9张靶标图像;
(3)检测出图像中的特征点,即靶标的每一个黑色交叉点;
(4)建立相机坐标系、机器人坐标系和世界坐标系:相机镜头为斜向下放置,其中Oc-XcYcZc表示相机坐标系,原点固定于相机的光心,Zc轴沿相机的光轴方向,Xc和Yc轴与成像面的x和y轴平行;Or-XrYrZr表示机器人坐标系,原点位于机器人的中心,Zr轴垂直于地面向上,Yr轴沿机器人前进的方向,Xr垂直于YrOrZr所在的平面;Ow-XwYwZw表示世界坐标系,原点建立在机器人视野范围内的一个靶标的左上角上,Zw轴垂直于地面向上,Xw和Yw轴分别与靶标上的两条直角边平行;
(5)求出相机标定的内参矩阵A:
A = f x γ C x 0 f y C y 0 0 1
其中,(fx,fy)是相机的归一化焦距,(Cx,Cy)是相机像平面中心坐标,γ为像平面横轴与纵轴之间的倾斜因子;
(6)首先将平面靶标放置在机器人的正前方,沿机器人坐标轴YR引出一条辅助直线,调整平面靶标的位置使得它的坐标轴YW垂直于辅助直线,而XW平行于辅助直线;然后调整相机的位置使得相机的偏航角和侧倾角为零;
(7)拍摄第10幅靶标图像;
(8)通过(7)中拍摄的图像计算相机与靶标之间的相对位置关系;
外参矩阵表达式如下:
[ R w c | t w c ]
其中,
Figure FDA0000460031660000013
Figure FDA0000460031660000014
分别为世界坐标系到相机坐标系的旋转矩阵和平移向量;
步骤2,采集图像序列并畸变校正,具体方法如下:
(1)使机器人平台沿着一定的轨迹移动,移动的速度为30-60mm/s,通过相机采集连续的图像序列,相机的采样频率为1-10Hz;
(2)对获得的原始图像序列进行畸变校正;
通过双线性插值来计算输出图像的像素值,公式如下:
x′=x(1+k1r2+k2r4)+p1(r2+2x2)+2p1xy
y′=y(1+k1r2+k2r4)+p1(r2+2y2)+2p2xy
其中,(x,y)和(x’,y’)分别是图像校正前和校正后的像素点的坐标,k1和k2是径向形变系数,p1和p2是切向形变系数,且有:r2=x2+y2
步骤3,通过多项式展开的方法求解稠密光流,具体方法如下:
引入全局光流算法,可以得到致密的光流场从而提高机器人速度估计的精度;对相邻两帧灰度图像在空间上逐点进行多项式展开,即:
I1(x)=xTA1x+b1 Tx+c1
I2(x)=xTA2x+b2 Tx+c2
其中,Ai是一个对称阵,bi是一个向量,ci是一个标量;
第二幅图像序列的灰度由光流矢量表示如下:
Figure FDA0000460031660000021
由灰度守恒约束可以得到:b2=b1-2A1u,当A1可逆时可求得光流值
Figure FDA0000460031660000022
为了提升光流算法的鲁棒性,对每一个像素点的邻域附加权重;
建立求解光流的目标函数:
E ( u ( x ) ) = Σ Δx ∈ I ω ( Δx ) | | A ( x + Δx ) u ( x ) - Δb ( x + Δx ) | |
其中,ω(Δx)表示像素点在邻域内的权重系数,表示邻域上各个像素点对约束产生的影响的大小分配;
由最小二乘法求解光流:
u=(∑w AT A)-1∑w AT Δb
步骤4,光流提纯,具体方法如下:
(1)建立平面片光流模型
设刚体上有一点P=(X,Y,Z),它相对于原点的平移速度t=(tx,ty,tz)T,同时伴有一旋转速度R=(Rx,Ry,Rz)T,则可得P处的瞬时速度矢量V=(Vx,Vy,Vz)T
V=R×P+t
设透视投影模型中有一运动的平面片,在某一时刻该平面片在3D坐标系下的方程为:
kXX+kYY+kZZ=1
由于焦距是常数,令f=1,点P的3D坐标(X,Y,Z)和在成像面上与之对应的像点p的图像坐标(x, y)满足如下关系:
x = X Z , y = Y Z
在上述方程两边分别对时间t求导可得平面片光流方程:
u = ψ x ( x , y ) = a 1 + a 2 x + a 3 y + a 7 x 2 + a 8 xy v = ψ y ( x , y ) = a 4 + a 5 x + a 6 y + a 7 xy + a 8 y 2
其中:
Figure FDA0000460031660000033
(2)基于RANSAC算法的光流提纯;
步骤5,图像坐标与机器人坐标之间的坐标变换;具体方法如下:
(1)求解单应矩阵H,将点的图像坐标转化到世界坐标系下;
假设图像坐标系中一点的齐次坐标为m=(u,v,1)T,在世界坐标系中与之相对应的一点的齐次坐标为M=(X,Y,Z,1)T;得到如下的投影方程:
sm=A[R,T]M
其中s是任意比例因子,[R,T]为外参矩阵,A为内参矩阵;模型中靶标上点的Z坐标为0,可得单应矩阵的定义:
H=A[r1,r2,T]
其中,r1和r2分别表示旋转矩阵R的第一列和第二列;然后将靶标上特征点的图像坐标以及设定的世界坐标作为输入,通过最优化反投影误差得到两坐标系之间的透视变换H,最终获得点的世界坐标M’;最优化反投影误差为:
Σ i [ ( X i - h 11 u i + h 12 v i + h 13 h 31 u i + h 32 v i + h 33 ) 2 + ( Y i - h 21 u i + h 22 v i + h 23 h 31 u i + h 32 v i + h 33 ) 2 ]
(2)通过标定的外参矩阵将点的世界坐标转化到机器人坐标系;
首先计算相机光心到世界坐标系原点的距离世界坐标系的原点到机器人中心之间的距离
Figure FDA0000460031660000042
由于运动估计的数学模型在步骤一中已简化,因此将点从世界坐标系转化到机器人坐标系的旋转矩阵和平移向量由下式表示:
R w r = I , t w r = D w r
其中,I为单位矩阵;
步骤6,估计机器人的运动速度,具体方法如下:
(1)通过Levenberg-Marquardt算法恢复运动参数:旋转矩阵R和平移向量t;
机器人的运动可以看成是刚体运动,满足Xk=R*Xk+1+t,即通过旋转矩阵R和平移向量t把机器人坐标系下t+1时刻的点坐标变换到t时刻,R和t分别为:
R = cos θ - sin sin θ cos θ , t = ( t x , t y ) T
然后,通过最小化如下的目标函数来求解R,t:
E ( R , t ) = Σ i = 1 n [ ω i ( X k i - RX ( k + 1 ) i - t ) ] 2 = ( X k i - RX ( k + 1 ) i - t ) 2 W ( X k i - RX ( k + 1 ) i - t )
通过LM算法求取机器人相对位姿,公式如下:
[JTWJ+λI]hlm=JTW(Xk-RX(k+1)-t)
其中,J为相机的雅各比矩阵;
然后通过如下公式求解机器人速度的测量值:
v k ≈ 1 T s t x t y θ T
(2)进行卡尔曼滤波;
设定KF模型的状态变量S=[a,v]T,其中a=[ax,ay,aθ]T,v=[vx,vy,vθ]T分别表示机器人帧间的速度与加速度;状态变量的一步预测为:
S ^ ( k + 1 / k ) = Φ k + 1 , k S ^ k
然后计算状态向量的后验估计:
S ^ ( k + 1 ) = S ^ ( k + 1 / k ) + K k [ S k - H S ^ ( k + 1 | k ) ]
其中,H为系统的观测矩阵;Sk为状态变量的测量值,由前面计算得到;Kk为卡尔曼增益,由下式获得:
Kk=Pk/k-1HT(HPk/k-1HT+Rk)-1
其中,Pk为预测误差的协方差,由下式计算获得:
P k = ( I - K k H k ) P k / k - 1 ( I - K k H k ) T + K k R k K k T
最终,通过KF模型的后验状态变量得到了机器人运动速度估计值。
2.根据权利要求1所述的一种基于稠密光流的单目视觉运动估计方法,其特征在于,所述步骤4基于RANSAC算法的光流提纯还包括以下步骤:
(1)随机选取一组光流矢量作为样本,通过最小二乘法来估计平面片光流模型系数ψ0
(2)将剩余的所有光流矢量带入到ψ0中,计算它们与ψ0之间的误差,如果误差较小,则这个矢量被划分为内点光流;否则,划分为异常光流;记录这一组样本获得的内点光流数量,如果内点数大于设定的内点数阈值,则对这一组样本进行精提纯;
(3)用获得的所有内点光流矢量重新估计平面片光流模型系数ψk,然后将所有的光流矢量带入到更新的光流模型ψk中并计算误差率;
(4)重复步骤(1)~(3)50次,找到误差率最低的光流模型ψ*,也就是最优的光流模型;
(5)用最优的光流模型ψ*划分内点光流和异常光流,并将异常光流排除。
CN201410029520.5A 2014-01-22 2014-01-22 基于稠密光流的机器人运动估计方法 Expired - Fee Related CN103761737B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410029520.5A CN103761737B (zh) 2014-01-22 2014-01-22 基于稠密光流的机器人运动估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410029520.5A CN103761737B (zh) 2014-01-22 2014-01-22 基于稠密光流的机器人运动估计方法

Publications (2)

Publication Number Publication Date
CN103761737A true CN103761737A (zh) 2014-04-30
CN103761737B CN103761737B (zh) 2016-08-31

Family

ID=50528970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410029520.5A Expired - Fee Related CN103761737B (zh) 2014-01-22 2014-01-22 基于稠密光流的机器人运动估计方法

Country Status (1)

Country Link
CN (1) CN103761737B (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104019745A (zh) * 2014-06-18 2014-09-03 福州大学 基于单目视觉间接标定方法的自由平面尺寸测量方法
CN104180819A (zh) * 2014-07-28 2014-12-03 浙江大学 一种同轴心距等光流折反射相机测距系统的参数标定方法
CN104616292A (zh) * 2015-01-19 2015-05-13 南开大学 基于全局单应矩阵的单目视觉测量方法
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN105261042A (zh) * 2015-10-19 2016-01-20 华为技术有限公司 光流估计的方法及装置
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN106920259A (zh) * 2017-02-28 2017-07-04 武汉工程大学 一种定位方法及系统
CN107092264A (zh) * 2017-06-21 2017-08-25 北京理工大学 面向银行厅堂环境的服务机器人自主导航与自动充电方法
CN107194366A (zh) * 2017-06-06 2017-09-22 西安电子科技大学 基于稠密轨迹协方差描述子的行为识别方法
US9802539B2 (en) 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
CN107316005A (zh) * 2017-06-06 2017-11-03 西安电子科技大学 基于稠密轨迹核协方差描述子的行为识别方法
CN107506040A (zh) * 2017-08-29 2017-12-22 上海爱优威软件开发有限公司 一种空间路径规划方法及系统
US9902071B2 (en) 2015-12-18 2018-02-27 General Electric Company Control system and method for brake bleeding
CN107924573A (zh) * 2015-08-31 2018-04-17 三菱电机株式会社 图像处理装置、图像处理方法和程序
CN107993255A (zh) * 2017-11-29 2018-05-04 哈尔滨工程大学 一种基于卷积神经网络的稠密光流估计方法
CN108053375A (zh) * 2017-12-06 2018-05-18 智车优行科技(北京)有限公司 图像数据修正方法、装置及其汽车
CN108230305A (zh) * 2017-12-27 2018-06-29 浙江新再灵科技股份有限公司 基于视频分析扶梯异常运行状态检测的方法
CN108305330A (zh) * 2018-01-15 2018-07-20 石化盈科信息技术有限责任公司 一种3d场景的展示方法及用于3d场景展示的电子设备
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN109978924A (zh) * 2017-12-27 2019-07-05 长沙学院 一种基于单目的视觉里程计实现方法和系统
CN110264455A (zh) * 2019-06-19 2019-09-20 北京市商汤科技开发有限公司 图像处理、神经网络训练方法及装置、存储介质
CN111275746A (zh) * 2020-01-19 2020-06-12 浙江大学 一种基于fpga的稠密光流计算系统及方法
CN111482963A (zh) * 2020-04-08 2020-08-04 江西理工大学 一种机器人的标定方法
CN111598918A (zh) * 2020-04-29 2020-08-28 江苏大学 一种基于参考帧优选和前后景分离的视频稳像运动估计方法
CN111679099A (zh) * 2020-06-17 2020-09-18 中国科学院空天信息创新研究院 基于相干光视觉光流检测的加速度计标定方法及装置
CN111899280A (zh) * 2020-07-13 2020-11-06 哈尔滨工程大学 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN112116633A (zh) * 2020-09-25 2020-12-22 深圳爱莫科技有限公司 一种矿井打钻计数方法
CN112184830A (zh) * 2020-09-22 2021-01-05 深研人工智能技术(深圳)有限公司 相机内参和外参标定方法、装置、计算机设备及存储介质
CN113158816A (zh) * 2021-03-29 2021-07-23 东北大学 面向室外场景物体的视觉里程计二次曲面路标构建方法
CN113570546A (zh) * 2021-06-16 2021-10-29 北京农业信息技术研究中心 一种风机运行状态检测方法及装置
CN115235527A (zh) * 2022-07-20 2022-10-25 上海木蚁机器人科技有限公司 传感器外参标定方法、装置以及电子设备
CN116625380A (zh) * 2023-07-26 2023-08-22 广东工业大学 一种基于机器学习和slam的路径规划方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GUILHERME N. DESOUZA AND AVINASH C. KAK: "Vision for Mobile Robot Navigation: A Survey", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
MICHAEL DILLE ET AL.: "Outdoor Downward-facing Optical Flow Odometry with Commodity Sensors", 《PROCEEDING OF FIELD & SERVICE ROBOTICS》 *
RICHARD ROBERTS AND FRANK DELLAERT: "Optical Flow Templates for Superpixel Labeling in Autonomous Robot Navigation", 《PPNIV13》 *
李秀智 等: "移动机器人结构光视觉", 《红外与激光工程》 *
贾松敏 等: "基于双层协作定位机制的移动机器人目标跟踪", 《高技术通讯》 *

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104019745B (zh) * 2014-06-18 2016-06-01 福州大学 基于单目视觉间接标定方法的自由平面尺寸测量方法
CN104019745A (zh) * 2014-06-18 2014-09-03 福州大学 基于单目视觉间接标定方法的自由平面尺寸测量方法
CN104180819A (zh) * 2014-07-28 2014-12-03 浙江大学 一种同轴心距等光流折反射相机测距系统的参数标定方法
CN104616292A (zh) * 2015-01-19 2015-05-13 南开大学 基于全局单应矩阵的单目视觉测量方法
CN104616292B (zh) * 2015-01-19 2017-07-11 南开大学 基于全局单应矩阵的单目视觉测量方法
US9802539B2 (en) 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN107924573B (zh) * 2015-08-31 2021-05-11 三菱电机株式会社 图像处理装置、图像处理方法和存储介质
CN107924573A (zh) * 2015-08-31 2018-04-17 三菱电机株式会社 图像处理装置、图像处理方法和程序
CN105261042A (zh) * 2015-10-19 2016-01-20 华为技术有限公司 光流估计的方法及装置
US9902071B2 (en) 2015-12-18 2018-02-27 General Electric Company Control system and method for brake bleeding
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN106920259A (zh) * 2017-02-28 2017-07-04 武汉工程大学 一种定位方法及系统
CN106920259B (zh) * 2017-02-28 2019-12-06 武汉工程大学 一种定位方法及系统
CN107316005A (zh) * 2017-06-06 2017-11-03 西安电子科技大学 基于稠密轨迹核协方差描述子的行为识别方法
CN107194366A (zh) * 2017-06-06 2017-09-22 西安电子科技大学 基于稠密轨迹协方差描述子的行为识别方法
CN107316005B (zh) * 2017-06-06 2020-04-14 西安电子科技大学 基于稠密轨迹核协方差描述子的行为识别方法
CN107194366B (zh) * 2017-06-06 2020-04-14 西安电子科技大学 基于稠密轨迹协方差描述子的行为识别方法
CN107092264A (zh) * 2017-06-21 2017-08-25 北京理工大学 面向银行厅堂环境的服务机器人自主导航与自动充电方法
CN107506040A (zh) * 2017-08-29 2017-12-22 上海爱优威软件开发有限公司 一种空间路径规划方法及系统
CN107993255A (zh) * 2017-11-29 2018-05-04 哈尔滨工程大学 一种基于卷积神经网络的稠密光流估计方法
CN107993255B (zh) * 2017-11-29 2021-11-19 哈尔滨工程大学 一种基于卷积神经网络的稠密光流估计方法
CN108053375A (zh) * 2017-12-06 2018-05-18 智车优行科技(北京)有限公司 图像数据修正方法、装置及其汽车
CN108053375B (zh) * 2017-12-06 2020-06-05 智车优行科技(北京)有限公司 图像数据修正方法、装置及其汽车
CN109978924A (zh) * 2017-12-27 2019-07-05 长沙学院 一种基于单目的视觉里程计实现方法和系统
CN108230305A (zh) * 2017-12-27 2018-06-29 浙江新再灵科技股份有限公司 基于视频分析扶梯异常运行状态检测的方法
CN108305330A (zh) * 2018-01-15 2018-07-20 石化盈科信息技术有限责任公司 一种3d场景的展示方法及用于3d场景展示的电子设备
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN108986150B (zh) * 2018-07-17 2020-05-22 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN110264455A (zh) * 2019-06-19 2019-09-20 北京市商汤科技开发有限公司 图像处理、神经网络训练方法及装置、存储介质
CN111275746A (zh) * 2020-01-19 2020-06-12 浙江大学 一种基于fpga的稠密光流计算系统及方法
WO2021143569A1 (zh) * 2020-01-19 2021-07-22 浙江大学 一种基于fpga的稠密光流计算系统及方法
CN111482963A (zh) * 2020-04-08 2020-08-04 江西理工大学 一种机器人的标定方法
CN111598918A (zh) * 2020-04-29 2020-08-28 江苏大学 一种基于参考帧优选和前后景分离的视频稳像运动估计方法
CN111679099A (zh) * 2020-06-17 2020-09-18 中国科学院空天信息创新研究院 基于相干光视觉光流检测的加速度计标定方法及装置
CN111679099B (zh) * 2020-06-17 2022-08-30 中国科学院空天信息创新研究院 基于相干光视觉光流检测的加速度计标定方法及装置
CN111899280A (zh) * 2020-07-13 2020-11-06 哈尔滨工程大学 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN111899280B (zh) * 2020-07-13 2023-07-25 哈尔滨工程大学 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN112184830A (zh) * 2020-09-22 2021-01-05 深研人工智能技术(深圳)有限公司 相机内参和外参标定方法、装置、计算机设备及存储介质
CN112116633A (zh) * 2020-09-25 2020-12-22 深圳爱莫科技有限公司 一种矿井打钻计数方法
CN113158816A (zh) * 2021-03-29 2021-07-23 东北大学 面向室外场景物体的视觉里程计二次曲面路标构建方法
CN113158816B (zh) * 2021-03-29 2024-02-20 东北大学 面向室外场景物体的视觉里程计二次曲面路标构建方法
CN113570546A (zh) * 2021-06-16 2021-10-29 北京农业信息技术研究中心 一种风机运行状态检测方法及装置
CN113570546B (zh) * 2021-06-16 2023-12-05 北京农业信息技术研究中心 一种风机运行状态检测方法及装置
CN115235527A (zh) * 2022-07-20 2022-10-25 上海木蚁机器人科技有限公司 传感器外参标定方法、装置以及电子设备
CN116625380A (zh) * 2023-07-26 2023-08-22 广东工业大学 一种基于机器学习和slam的路径规划方法及系统
CN116625380B (zh) * 2023-07-26 2023-09-29 广东工业大学 一种基于机器学习和slam的路径规划方法及系统

Also Published As

Publication number Publication date
CN103761737B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
CN103761737B (zh) 基于稠密光流的机器人运动估计方法
CN107945220B (zh) 一种基于双目视觉的重建方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN104318561B (zh) 基于双目立体视觉与光流融合的车辆运动信息检测方法
CN110567469B (zh) 视觉定位方法、装置、电子设备及系统
CN105225482B (zh) 基于双目立体视觉的车辆检测系统和方法
CN102607535B (zh) 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN101887589B (zh) 一种基于立体视觉的实拍低纹理图像重建方法
CN107590827A (zh) 一种基于Kinect的室内移动机器人视觉SLAM方法
CN106558080A (zh) 一种单目相机外参在线标定系统及方法
CN106780590A (zh) 一种深度图的获取方法及系统
CN102682448B (zh) 一种基于双三视张量的立体视觉快速导航定位方法
CN103325108A (zh) 一种融合光流与特征点匹配的单目视觉里程计的设计方法
CN103106688A (zh) 基于双层配准方法的室内三维场景重建方法
CN103458261B (zh) 一种基于立体视觉的视频场景变化检测方法
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN103983263A (zh) 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
CN102629329B (zh) 基于自适应sift算法的人员室内定位方法
CN112347205B (zh) 一种车辆误差状态的更新方法和装置
CN102722697A (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN109917359B (zh) 基于车载单目视觉的鲁棒车辆距离估计方法
CN105976377A (zh) 车载鱼眼摄像头自标定的方法
CN106569225A (zh) 一种基于测距传感器的无人车实时避障方法
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160831

CF01 Termination of patent right due to non-payment of annual fee