CN102261916B - 一种沙质环境中基于视觉的月球车定位方法 - Google Patents

一种沙质环境中基于视觉的月球车定位方法 Download PDF

Info

Publication number
CN102261916B
CN102261916B CN2011101869059A CN201110186905A CN102261916B CN 102261916 B CN102261916 B CN 102261916B CN 2011101869059 A CN2011101869059 A CN 2011101869059A CN 201110186905 A CN201110186905 A CN 201110186905A CN 102261916 B CN102261916 B CN 102261916B
Authority
CN
China
Prior art keywords
image
point
lunar rover
vision
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2011101869059A
Other languages
English (en)
Other versions
CN102261916A (zh
Inventor
李琳辉
连静
李明
迟春华
赵一兵
郭烈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN2011101869059A priority Critical patent/CN102261916B/zh
Publication of CN102261916A publication Critical patent/CN102261916A/zh
Application granted granted Critical
Publication of CN102261916B publication Critical patent/CN102261916B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种在沙质环境中基于视觉的月球车定位方法,包括以下步骤:特征点提取与增强;特征点匹配与跟踪;运动估计。通过上述步骤获取车体位置和方向的变化。采用本发明的定位算法避免了沙质环境的月球表面特征点稀少且不够强壮的问题,保证了在沙质环境中所提取的特征点的数量和质量,提高运动估计的精度,从降维、合理选择搜索窗口和预估搜索方向等角度出发,提高特征匹配与跟踪的效率,采用基于随机采样序列RANSAC的方法,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。

Description

一种沙质环境中基于视觉的月球车定位方法
技术领域
本发明属于模式识别与人工智能技术领域,涉及到基于视觉的月球车定位方法,特别涉及到一种在沙质环境中基于视觉的月球车定位方法。
背景技术
基于视觉的月球车定位方法是目前在月球环境进行探测的月球车上比较常用的一种自主导航技术,其技术要点是通过跟踪图像中的特征点来进行车体运动估计,它依靠视觉输入信息,不受滑移、倾斜、下陷等因素的影响,在松软的外星环境下具有较高的相对定位精度和巡视里程统计结果,与车轮里程计和惯导信息互相补充,提高月球车的行驶安全性和通过性,达到了提高车体运动估计精度的目的。在月表环境下,虽然基于视觉的月球车定位理论已基本完善,但是针对沙质地面缺乏特征点等诸多情况的影响,基于视觉的月球车定位理论仍存在以下缺陷:在沙质的外星环境,难以保证找到足够的特征点进行跟踪,受计算机处理能力的限制,不能像地面用里程计那样通过频繁更新的方法来减小搜索空间,需要研究对特征点位置变化更具有鲁棒性的特征跟踪算法,需要提高里程计对不收敛问题的鲁棒性。
发明内容
为解决现有技术存在的上述问题,本发明要提出一种在沙质环境中基于视觉的月球车定位方法,提高所提取特征点的数量和质量,并且使特征点的分布尽量均匀,提高特征匹配与跟踪的效率,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。
本发明的技术方案是:一种在沙质环境中基于视觉的月球车定位方法,利用月球车定位系统对月球车进行定位,所述的月球车定位系统包括避障立体视觉系统、计算机系统及其电源系统,所述的避障立体视觉系统包括一对CCD图像传感器、一对广角镜头和图像采集卡,其中CCD图像传感器作用是把图像像素转换成数字信号,广角镜头作用是近距离拍摄大范围景物,图像采集卡将图像信号采集到电脑中,以数据文件的形式保存在硬盘上;所述的计算机系统用来处理图像采集卡采集到的图像数据,所述的电源系统为避障立体视觉系统和计算机系统提供电能;具体定位方法包括以下步骤:
A、特征点提取与增强
A1、计算机系统采集图像中的像素点,利用Harris角点检测算子的卷积计算每个像素点的能量函数E的值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按E的值由高到低进行排序,并设定能量函数的最小阈值;然后,设定一个候选角点间的最小距离,以其为约束条件对顺序排列的各候选角点进行筛选,提取所需的角点数目n;若采集到的角点个数n不足,则转步骤A2,否则,转步骤B;
A2、计算机系统对局部图像进行增强,采用形态学的Top-Hat顶帽变换来提高图像每个像素点的临域梯度,对图像f进行白Top-Hat顶帽变换和黑Top-Hat顶帽变换,分别用WTH和BTH来表示;
其中:f为图像灰度帧;
白Top-Hat顶帽变换定义为原始图像f与开运算γ(f)的差,即
WTH(f)=f-γ(f)
黑Top-Hat顶帽变换定义为原始图像f与闭运算φ(f)的差,即
BTH(f)=φ(f)-f
根据WTH变换和BTH变换能分别检测出图像峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,从上面相加的结果中减去BTH变换的结果,就会加强图像中的暗目标,从而提高整幅图像的对比度,用kTH表示运算结果为:
kTH=3f-γ(f)-φ(f)
返回步骤A1,直到采集到符合条件的像素点数为止;
B、特征点匹配与跟踪
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,计算机系统采用基于随机采样序列RANSAC的方法求取基础矩阵:
B1、提取利用Harris角点检测算子所提取的Harris角点作为待匹配特征点,以相似性度量函数
γ SSD ( s , t ) = Σ ( x , y ) ∈ f mw ( I A ( x , y ) - I B ( x + dx , y + dy ) ) 2
为判断依据,来确定匹配特征点数据集;式中,I表示匹配窗口的灰度值,fmw表示匹配窗口,上标A和B分别表示同时刻左右两个摄像头拍摄的图像;
B2、在待匹配特征点数据集中,取基本子集数目为p,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于某一阈值则被分类的为正确匹配点;如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式
Г=1-(1-(1-ε)p)m
做相应的调整,其中Г为至少取得一个良性基本子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目,p大于等于8;
B3、通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵;通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率;
C、运动估计
C1、根据立体视觉原理,计算机系统确定左、右图像上特征点的对应关系后,依据摄像机标定结果,获取该特征点在车体坐标系下的三维坐标;定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为
Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T
C2、引入随机采样序列RANSAC思想,寻找坐标系间的旋转矩阵R和平移向量T,实现过程如下:
C21、在数据集中,取基本子集p,p大于或者等于4;
C22、对基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;
C23、定义误差阈值,检测所有匹配点对旋转矩阵R和平移向量T的支持程度,统计内点数;
C24、重复步骤C21-C23m次,找到内点数最多的旋转矩阵R和平移向量T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的旋转矩阵R和平移向量T;
C3、确保找到新的坐标系间的旋转矩阵R和平移向量T,使得式
E ( R , T ) = Σ i = 1 N | | P pi - ( RP ci + T ) | | 2
最小,从而获取车体位置和方向的变化,其中N为跟踪上的特征点的个数。
与现有技术相比,本发明的效果和益处是:
采用本发明的定位算法避免了沙质环境的月球表面特征点稀少且不够强壮的问题,保证了在沙质环境中所提取的特征点的数量和质量,提高运动估计的精度,从降维、合理选择搜索窗口和预估搜索方向等角度出发,提高特征匹配与跟踪的效率,采用基于随机采样序列RANSAC的方法,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。
附图说明
本发明共有附图2幅,其中:
图1基于视觉的月球车定位系统组成示意图。
图2基于视觉的月球车定位方法的流程图。
图中:1、广角镜头,2、CCD图像传感器,3、图像采集卡,4、计算机系统。
具体实施方式
下面结合附图对本发明进行进一步说明。如图1所示,一种基于视觉的月球车定位系统包括避障立体视觉系统、计算机系统4及其电源系统组成。避障立体视觉系统包括一对CCD图像传感器2、一对广角镜头1、图像采集卡3,其中CCD图像传感器2作用是把采集到的左右图像像素转换成数字信号,广角镜头1作用是近距离拍摄大范围景物,图像采集卡3将图像信号采集到电脑中,以数据文件的形式保存在硬盘上。计算机系统4用来处理采集卡采集的图像数据,电源系统为避障立体视觉系统和计算机系统4提供电源。
本发明定位过程包括:特征点提取与增强、特征点匹配与跟踪、运动估计三部分。
A、特征点提取与增强过程为:
第一步,计算机系统4采集图片中的像素点,沙质环境中采集到的图像灰度均匀,没有明显的可提取特征用于匹配跟踪。采用Harris角点检测方法,
Harris算子的卷积表达式如下:
M = G ( s ~ ) ⊗ g x 2 g x g y g x g y g y 2 - - - ( 1 )
E=Det(M)-kTrace2(M),k=0.04(2)
其中M为与自相关函数相联系的矩阵,gx为图像坐标系x方向的梯度,gy为y方向的梯度,
Figure BDA0000073892920000052
为高斯模板,为卷积操作,E为每像素点的能量函数,Det为矩阵的行列式,Trace为矩阵的迹,k为常数,一般选取0.04。
计算每个像素点的E值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按值由高到低进行排序,并设定能量函数的最小阈值Emin。设定一个候选角点间的最小距离Dmin,以其为约束条件对顺序排列的各候选角点进行筛选,如果没有提取所需的角点数目n,转第二步。
第二步,计算机系统4对局部图像进行增强,采用形态学的Top-Hat变换来提高图像每个像素点的临域梯度,对该图像f进行白Top-Hat和黑Top-Hat变换,分别用WTH和BTH来表示,其中f为图像灰度帧。白Top-Hat定义为原始图像f与开运算γ(f)的差,即WTH(f)=f-γ(f),黑Top-Hat定义为原始图像f与闭运算φ(f)的差,即BTH(f)=φ(f)-f;根据WTH变换和BTH能分别检测出图像的峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,而从得到的结果中减去BTH变换的结果,就会加强图像中的暗目标,就提高了整幅图像的对比度,用kTH表示计算结果为:kTH=3f-γ(f)-φ(f)。返回步骤一,直到采集到符合条件的像素点数n为止。
B、特征点匹配与跟踪:
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,采用基于随机采样序列RANSAC的方法求取基础矩阵:
第一步,提取Harris角点作为待匹配特征点,以相似性度量函数
γ SSD ( s , t ) = Σ ( x , y ) ∈ f mw ( I A ( x , y ) - I B ( x + dx , y + dy ) ) 2
为判断依据,来确定匹配特征点数据集,其中I表示匹配窗口的灰度值,fmv表示匹配窗口,上标A和B分别表示不同的图像;
第二步,在数据集中,取样基本子集p=8,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于的为正确匹配点,如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式Г=1-(1-(1-ε)p)m做相应的调整,其中Г为至少取得一个良性取样子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目;
第三步,通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵,通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率。
除了通过对极线约束匹配方法将特征点匹配的搜索空间从二维降到一维的对极线上,提高特征匹配与跟踪的效率外,还可以采用设置合理的搜索窗口和搜索方向能够有效减少计算量,降低特征点位置变化对匹配跟踪的干扰,最终提高特征点匹配的效率。
C、运动估计过程为:
第一步,根据立体视觉原理,确定左、右图像上特征点的对应关系后,依据摄像机标定结果,可以获取该特征点在车体坐标系下的三维坐标。定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T
第二步,引入RANSAC思想,实现过程如下:1在数据集中,取样基本子集p=4;2对该基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;3定义误差阈值,检测所有匹配点对R和T的支持程度,统计内点数;4重复1~3m次,找到内点数最多的R和T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的R和T。
用奇异值分解法求解坐标变换的过程为:
1计算三维点集Pp和Pc的质心并生成新的三维点集
Figure BDA0000073892920000063
P ^ c = P c - P ‾ c ;
2计算
Figure BDA0000073892920000065
并对其进行奇异值分解Q=UDVT,如果det(U)det(V)=1,则R=VUT,如果det(U)det(V)=-1,则R=VSUT,其中S=[diag(1,1,Λ1,-1)N],N为跟踪上的特征点的个数;
3 T = P ‾ p - R P ‾ c .
第三步,确保找到新的坐标系间的旋转矩阵R和平移向量T,使得式
Figure BDA0000073892920000067
最小,从而获取车体位置和方向的变化,其中N为跟踪上的特征点的个数。

Claims (1)

1.一种在沙质环境中基于视觉的月球车定位方法,利用月球车定位系统对月球车进行定位,所述的月球车定位系统包括避障立体视觉系统、计算机系统(4)及其电源系统,所述的避障立体视觉系统包括一对CCD图像传感器(2)、一对广角镜头(1)和图像采集卡(3),其中CCD图像传感器(2)作用是把图像像素转换成数字信号,广角镜头(1)作用是近距离拍摄大范围景物,图像采集卡(3)将图像信号采集到电脑中,以数据文件的形式保存在硬盘上;所述的计算机系统(4)用来处理图像采集卡(3)采集到的图像数据,所述的电源系统为避障立体视觉系统和计算机系统(4)提供电能;其特征在于:具体定位方法包括以下步骤:
A、特征点提取与增强
A1、计算机系统(4)采集图像中的像素点,利用Harris角点检测算子的卷积计算每个像素点的能量函数E的值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按E的值由高到低进行排序,并设定能量函数的最小阈值;然后,设定一个候选角点间的最小距离,以其为约束条件对顺序排列的各候选角点进行筛选,提取所需的角点数目n;若采集到的角点个数n不足,则转步骤A2,否则,转步骤B;
A2、计算机系统(4)对局部图像进行增强,采用形态学的Top-Hat顶帽变换来提高图像每个像素点的临域梯度,对图像f进行白Top-Hat顶帽变换和黑Top-Hat顶帽变换,分别用WTH和BTH来表示;
其中:f为图像灰度帧;
白Top-Hat顶帽变换定义为原始图像f与开运算γ(f)的差,即
WTH(f)=f-γ(f)
黑Top-Hat顶帽变换定义为原始图像f与闭运算φ(f)的差,即
BTH(f)=φ(f)-f
根据WTH变换和BTH变换能分别检测出图像峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,从上面相加的结果中减去BTH变换的结果,就会加强图像中的暗目标,从而提高整幅图像的对比度,用kTH表示运算结果为:
kTH=3f-γ(f)-φ(f)
返回步骤A1,直到采集到符合条件的像素点数为止;
B、特征点匹配与跟踪
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,计算机系统(4)采用基于随机采样序列RANSAC的方法求取基础矩阵:
B1、提取利用Harris角点检测算子所提取的Harris角点作为待匹配特征点,以相似性度量函数
γ SSD ( s , t ) = Σ ( x , y ) ∈ f mw ( I A ( x , y ) - I B ( x + dx , y + dy ) ) 2
为判断依据,来确定匹配特征点数据集;式中,I表示匹配窗口的灰度值,fmw表示匹配窗口,上标A和B分别表示同时刻左右两个摄像头拍摄的图像;
B2、在待匹配特征点数据集中,取基本子集数目为p,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于某一阈值则被分类的为正确匹配点;如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式
Г=1-(1-(1-ε)p)m
做相应的调整,其中Г为至少取得一个良性基本子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目,p大于等于8;
B3、通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵;通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率;
C、运动估计
C1、根据立体视觉原理,计算机系统(4)确定左、右图像上特征点的对应关系后,依据摄像机标定结果,获取该特征点在车体坐标系下的三维坐标;定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为
Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T
C2、引入随机采样序列RANSAC思想,寻找坐标系间的旋转矩阵R和平移向量T,实现过程如下:
C21、在数据集中,取基本子集p,p大于或者等于4;
C22、对基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;
C23、定义误差阈值,检测所有匹配点对旋转矩阵R和平移向量T的支持程度,统计内点数;
C24、重复步骤C21-C23m次,找到内点数最多的旋转矩阵R和平移向量T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的旋转矩阵R和平移向量T;
C3、确保找到新的坐标系间的旋转矩阵R和平移向量T,使得式
E ( R , T ) = Σ i = 1 N | | P pi - ( RP ci + T ) | | 2
最小,从而获取车体位置和方向的变化,其中N为跟踪上的特征点的个数。
CN2011101869059A 2011-07-05 2011-07-05 一种沙质环境中基于视觉的月球车定位方法 Expired - Fee Related CN102261916B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011101869059A CN102261916B (zh) 2011-07-05 2011-07-05 一种沙质环境中基于视觉的月球车定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011101869059A CN102261916B (zh) 2011-07-05 2011-07-05 一种沙质环境中基于视觉的月球车定位方法

Publications (2)

Publication Number Publication Date
CN102261916A CN102261916A (zh) 2011-11-30
CN102261916B true CN102261916B (zh) 2012-08-01

Family

ID=45008638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011101869059A Expired - Fee Related CN102261916B (zh) 2011-07-05 2011-07-05 一种沙质环境中基于视觉的月球车定位方法

Country Status (1)

Country Link
CN (1) CN102261916B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473774B (zh) * 2013-09-09 2017-04-05 长安大学 一种基于路面图像特征匹配的车辆定位方法
CN106412441B (zh) * 2016-11-04 2019-09-27 珠海市魅族科技有限公司 一种视频防抖控制方法以及终端
CN106845028B (zh) * 2017-03-07 2019-11-12 中国科学院遥感与数字地球研究所 一种基于月基对地观测光学覆盖度的月球基地选址方法
CN109958311A (zh) * 2017-12-25 2019-07-02 大连楼兰科技股份有限公司 应用在停车场中车辆方位角检测系统
CN109961476A (zh) * 2017-12-25 2019-07-02 大连楼兰科技股份有限公司 基于视觉的地下停车场的定位方法
CN109785372B (zh) * 2019-01-10 2022-12-23 西安电子科技大学 基于软决策优化的基础矩阵鲁棒估计方法
CN111031258B (zh) * 2020-01-15 2021-02-05 北京航天飞行控制中心 月球车导航相机曝光参数确定方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422828A (en) * 1991-12-18 1995-06-06 Choate; William C. Method and system for image-sequence-based target tracking and range estimation
CN101354254A (zh) * 2008-09-08 2009-01-28 北京航空航天大学 一种飞行器航向跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422828A (en) * 1991-12-18 1995-06-06 Choate; William C. Method and system for image-sequence-based target tracking and range estimation
CN101354254A (zh) * 2008-09-08 2009-01-28 北京航空航天大学 一种飞行器航向跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王荣本,李琳辉,郑可勤.《基于激光扫描的智能车辆前方地形三维可视化技术研究》.《公路交通科技》.2008,第25卷(第1期),第134-138页. *
王荣本,赵一兵,李琳辉,张明恒.《智能车辆的障碍物检测研究方法综述》.《公路交通科技》.2007,第24卷(第11期),第109-113页. *

Also Published As

Publication number Publication date
CN102261916A (zh) 2011-11-30

Similar Documents

Publication Publication Date Title
CN102261916B (zh) 一种沙质环境中基于视觉的月球车定位方法
Ozgunalp et al. Multiple lane detection algorithm based on novel dense vanishing point estimation
Dawn et al. Remote sensing image registration techniques: A survey
Alcantarilla et al. On combining visual SLAM and dense scene flow to increase the robustness of localization and mapping in dynamic environments
CN111210477B (zh) 一种运动目标的定位方法及系统
US9989969B2 (en) Visual localization within LIDAR maps
CN102999759B (zh) 一种基于光流的车辆运动状态估计方法
Song et al. A Kalman filter-integrated optical flow method for velocity sensing of mobile robots
Klingner et al. Street view motion-from-structure-from-motion
US9280832B2 (en) Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
CN109993113A (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
Lee et al. Online self-supervised monocular visual odometry for ground vehicles
US9761008B2 (en) Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN104200492A (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN102682448A (zh) 一种基于双三视张量的立体视觉快速导航定位方法
CN103875020A (zh) 基于定向传感器解决单应性分解不明确性
CN102982556B (zh) 基于流形上粒子滤波算法的视频目标跟踪方法
CN108053445A (zh) 特征融合的rgb-d相机运动估计方法
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统
CN109741372A (zh) 一种基于双目视觉的里程计运动估计方法
CN117470248B (zh) 一种移动机器人室内定位方法
Seegmiller et al. Optical flow odometry with robustness to self-shadowing
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
EP2245593B1 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120801

Termination date: 20150705

EXPY Termination of patent right or utility model