CN104851094A - 一种基于rgb-d的slam算法的改进方法 - Google Patents

一种基于rgb-d的slam算法的改进方法 Download PDF

Info

Publication number
CN104851094A
CN104851094A CN201510246229.8A CN201510246229A CN104851094A CN 104851094 A CN104851094 A CN 104851094A CN 201510246229 A CN201510246229 A CN 201510246229A CN 104851094 A CN104851094 A CN 104851094A
Authority
CN
China
Prior art keywords
point
algorithm
matching
search
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510246229.8A
Other languages
English (en)
Inventor
张亮
沈沛意
朱光明
宋娟
刘强强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201510246229.8A priority Critical patent/CN104851094A/zh
Publication of CN104851094A publication Critical patent/CN104851094A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本发明公开了一种基于RGB-D的SLAM算法的改进方法,分为前端和后端两部分,前端的任务分为特征检测与描述符提取、特征匹配、运动变换估计和运动变换优化;后端的任务利用前端得到的6D运动变换关系初始化位姿图进行闭环检测添加闭环约束条件,利用非线性误差函数优化方法进行位姿图优化,得到全局最优相机位姿和相机运动轨迹,并进行三维环境重建。本发明使用ORB方法进行特征检测与描述符提取,并对深度信息不合法的特征点进行过滤;使用基于FLANN的KNN方法进行双向特征匹配,使用单应性矩阵变换对匹配结果进行优化;使用改进RANSAC的运动变换估计方法得到更精确的inliers匹配点对;使用基于GICP的运动变换优化方法提高点云配准的速度和精度。

Description

一种基于RGB-D的SLAM算法的改进方法
技术领域
本发明涉及移动机器人研究领域,具体是一种基于RGB-D的SLAM算法的改进方法。
背景技术
为了在未知环境中进行导航,移动机器人需要构建环境地图并且同时定位自身在地图中的位置,像这样同时解决这两个问题的过程就称为同步定位与地图构建(Simultaneously Localization And Mapping,SLAM)。当机器人处于室外环境的时候,这个问题可以通过高精度的GPS来解决。但是,当机器人处于室内环境时,或当GPS不够精确无法满足高精度的需求时,或者当机器人所处环境涉密时,人们就必须使用其他方法来精确估计机器人的位置并且同时构建环境地图。SLAM问题就是在这样的需求背景下提出的,是当前移动机器人研究领域的一个重要课题。
移动机器人可以通过不同类型的传感器获取所处环境的信息,传感器的类型不同,得到的环境信息的内容也不相同。如声呐测距仪获取的信息为传感器与障碍的距离信息,激光扫描测距仪获取的信息为传感器与障碍的距离和角度信息,视觉传感器获取的信息为环境的图像信息等等。移动机器人可以同时配置多类传感器,通过融合不同传感器所获取的信息,可以有效地提高地图环境的精度。
把视觉传感器和红外传感器集成到一起并实现两种传感器信息之间的良好同步,这样就构成了RGB-D传感器。基于RGB-D传感器的VSLAM则被称为RGB-D SLAM。
因此,本发明提出了一种针对RGB-D SLAM实现算法的各部分改进方法。
发明内容
本发明的目的在于提供一种增强特征匹配、匹配点精确的基于RGB-D的SLAM算法的改进方法,针对现有RGB-D SLAM算法中存在的效率低与误差大的问题做出改进。
为实现上述目的,本发明提供如下技术方案:
一种基于RGB-D的SLAM算法的改进方法,分为前端和后端两部分,前端的任务为提取不同观察结果之间的空间关系,分为特征检测与描述符提取、特征匹配、运动变换估计和运动变换优化;后端的任务为使用非线性误差函数优化位姿图中相机的位姿信息;使用基于图的位姿优化方法,利用前端得到的6D运动变换关系初始化位姿图,然后进行闭环检测添加闭环约束条件,再利用非线性误差函数优化方法进行位姿图优化,最终得到全局最优相机位姿和相机运动轨迹,并进行三维环境重建;其中,特征检测与描述符提取、特征匹配、运动变换估计和运动变换优化的具体方法如下所述:
1)基于ORB的特征检测与描述符提取方法
ORB算法是一种快速特征检测与描述符提取算法,包含oFAST特征点检测和rBRIEF描述符提取两个步骤;该算法的具体内容如下:
(1)在oFAST特征点检测步骤中,首先对原图像构建尺度空间金字塔,然后使用FAST特征点检测方法检测出足够多的特征点并使用Harris角点评估方法对检测到的特征点进行筛选,再根据强度矩心求出特征点的方向;
(2)在rBRIEF描述符提取步骤中,首先对oFAST特征点生成BRIEF特征描述符,然后利用oFAST特征点的方向矢量对BRIEF特征描述符进行转向生成steered BRIEF特征描述符,再使用贪心学习算法从训练集中筛选出一组具有较大方差值、高度不相关且位均值位于0.5附近的二元点集,然后使用这组二元点集生成BRIEF特征描述符并进行转向,得到具有旋转不变性的rBRIEF特征描述子;
2)基于FLANN的增强特征匹配方法
基于FLANN的增强特征匹配方法是对查找帧和训练帧特征描述符进行双向的基于FLANN的KNN匹配,然后使用单应性矩阵变换对匹配结果进行优化;
3)改进RANSAC的运动变换估计方法
使用RANSAC的方法进行运动变换估计总体上是一个迭代的过程;在每一次迭代过程中从三维坐标匹配点对集合中随机选择20个三维坐标匹配点对,根据这些三维坐标匹配点对求出一个运动变换模型;对于三维坐标匹配点对集合中的每一个元素,使用所求出的运动变换模型将元素中的原坐标进行投影以得到投影坐标,计算目标坐标与投影坐标之间的误差,如果误差小于阈值,则该三维坐标匹配点对是局内点,将其加入局内点集合;否则认为它是局外点,不作处理;统计局内点的数目,并计算该模型下的平均误差;如果局内点数目高于阈值并且平均误差低于阈值,则利用所有的局内点重新计算新的运动变换模型;然后再次对新的运动变换模型进行评估;
(4)基于GICP的运动变换优化方法
GICP算法在对标准ICP算法和点到面ICP算法进行归纳与综合的基础上,更进一步使用了面到面的思想进行改进;GICP算法的抽象程度更高,而且在一定条件下退化成标准ICP算法或者点到面ICP算法;GICP算法点云配准所需的时间高于标准ICP算法,但是GICP的精度远远高于标准ICP,使用GICP算法替换标准ICP算法进行RGB-D SLAM算法中的运动变换优化,以使得求解出的运动变换误差更小。
作为本发明进一步的方案:oFAST特征点检测的具体步骤如下所述,FAST是一种非常快速的特征点检测算法,根据候选点与其圆形邻域内相邻像素点的灰度值差异来判断候选点是否为特征点,具体判断方法如式(1-1)所示:
N = Σ x ∀ circle ( p ) | I ( x ) - I ( p ) | > ϵ d - - - ( 1 - 1 )
式中,p为候选点,circle(p)为p的圆形邻域,x为候选点圆形邻域内任意一像素点,I(p)为候选点的图像灰度值,I(x)为x处的图像灰度值;若N超出阈值条件εd,则该候选点为特征点;
在FAST特征点检测结束后,使用Harris角点评估方法对特征点进行筛选;如果想要得到的目标特征点数目为N,则首先设置一个足够低的阈值以获得超过N个特征点,然后使用Harris评估方法对这些特征点进行排序,然后选取前N个作为所得到的目标特征点;
为了使检测到的特征点满足旋转不变形,ORB算法中使用强度矩心的方法为检测到的特征点分配方向;该方法假设角点的强度为它与中心的偏移量,并且这个矢量能用于求解角点方向;局部图像的矩如式(1-2)所示:
mpq=Σx,yxpyqI(x,y)              (1-2)
然后通过式(1-2)求出矩m00、m10和m01后,根据式(1-3)求出矩心C:
C = ( m 10 m 00 , m 01 m 00 ) - - - ( 1 - 3 )
然后构建一个从角点中心O到矩心C的向量的方向正是局部图像角点的方向,计算公式如式(1-4)所示:
θ=atan2(m01,m10)            (1-4)
此外,为增强方法的旋转不变性,求取矩的时候,x和y应当始终在角点的r半径圆形邻域内,所以在ORB算法中显示地令r为局部图像的大小,即x和y的范围为[-r,r];得到了带有方向的FAST特征点,它被称为oFAST特征点。
作为本发明进一步的方案:rBRIEF描述符提取的具体步骤如下所述:其中BRIEF特征描述符是一种可快速计算的二进制编码形式描述符;它首先对图像进行高斯平滑滤波,然后在oFAST特征点的某邻域内随机选取点对(x,y)并对这些点的灰度值进行二值化测试,并将测试结果按照一定顺序生成一个二进制串,这个二进制串即为BRIEF特征描述符;二值化测试τ的定义如式(1-5)所示,其中,p(x)为p在点x处的强度;
&tau; ( p ; x , y ) : = 1 : p ( x ) < p ( y ) 0 : p ( x ) &GreaterEqual; p ( y ) - - - ( 1 - 5 )
BRIEF特征描述符即为n个二值化测试所构成的向量,如式(1-6)所示:
fn(p):=Σ1≤i≤n2i-1τ(p,xi,yi)           (1-6)
在ORB算法中,点对(x,y)的选取符合高斯分布,其中S为特征点的邻域大小;
由于BRIEF不具有旋转不变性,所以ORB算法中利用特征点的方向矢量对BRIEF特征描述符进行转向,生成steered BRIEF特征描述符;
设原始的BRIEF选取的点集如式(1-7)所示:
S = x 1 , . . . , x n y 1 , . . . , y n - - - ( 1 - 7 )
使用特征点方向θ和相应的旋转矩阵Rθ构建旋转的点集Sθ,如式(1-8)所示:
Sθ=RθS            (1-8)
则生成的steered BRIEF特征描述符即如式(1-9)所示:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ      (1-9)
贪心学习算法具体过程如下:首先对全部的训练局部图像执行所有可能的二值化测试,然后根据测试结果与均值0.5的距离对所有测试进行排序,并生成测试向量T,然后开始贪心搜索过程:首先从T中取出第一个测试放入结果向量R中,然后从T中取出下一个测试,并将它和R中的所有测试进行比较,并估算它们之间的相关性,如果相关性高于某个阈值,则丢弃它;否则将它加入R;重复上述步骤,直到R中的测试数目达到256个,然后结束;否则如果T中的所有测试都已经取出,而R中的测试数目仍然少于256,那么降低阈值,重新开始贪心搜索过程;通过上述步骤即可得到具有旋转不变形和强抗噪声能力rBRIEF特征描述符。
作为本发明进一步的方案:所述基于FLANN的增强特征匹配方法,具体内容如下:
FLANN是在高维空间执行快速近似最近邻搜索的一个库,它包含一组优秀的最近邻搜索算法和一个自动选择最优算法并且根据数据集对算法参数进行优化的系统;对于高维空间中的最近邻搜索问题,FLANN采用基于分层k-均值树的优先级搜索算法或采用多重随机k-d树时具有最好的性能;相对于其他传统最近邻搜索算法,基于FLANN的近似快速最近邻搜索的速度提高了一个数量级;
其次,为了解决BruteForce匹配法为查找帧中所有特征点查找其在训练帧中距离最近的匹配特征点的问题,采用基于FLANN的KNN搜索方法进行查找,并对查找结果进行过滤;当给定向量空间M中的一个点集P={p1,p2,...,pn}和一个待查询点q∈M,则q的最近邻元素NN(q,P)∈P定义为NN(q,P)=qrgminx∈pd(q,x),其中d(q,x)表示q与x的距离;KNN搜索就是同时查找K最近邻的搜索方法,K最近邻的定义如式(1-10)所示:
KNN(q,P,K)=Q               (1-10)
其中A是满足如式(1-11)所示约束的集合:
| A | = K , A &SubsetEqual; P , &ForAll; x &Element; A , y &Element; P - A , d ( q , x ) &le; d ( q , y ) - - - ( 1 - 11 )
在使用KNN搜索方法时令K=2,即对查找帧中的每一个特征点si,都在训练帧中使用KNN二近邻搜索方法查找它的最近邻点ti1和次近邻点ti2,si和它们的距离分别为di1和di2;比较di1和di2之间的距离,只有当di1远远小于di2时,则si和ti是正确匹配点对;否则当di1和di2比较接近时,则si和ti1、si和ti2都不是正确匹配点对,应该将其剔除;或者认为si和ti1、si和ti2都能够正确匹配,但是为了减少这种匹配关系对后续运动变换的影响,也应该将其剔除;令在最终实现的系统中,当ratioi小于0.6时保留对应的匹配点对,否则将其剔除;
为了消除单方向匹配造成的错误匹配点对,使用双向的基于FLANN的KNN搜索来查找正确的匹配点对;具体做法为,首先对于查找帧QueryFrame中的每一个特征点,使用基于FLANN的二近邻搜索在训练帧TrainFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S1;然后反方向执行上述步骤,即为对于训练帧TrainFrame中的每一个特征点,使用基于FLANN的二近邻搜索在查找帧QueryFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S2;对于任意pair(i,j)∈S1,查找相应的pqir(j,k)∈S2,如果i=k则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j是双向匹配的,将该匹配点对加入集合S;否则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j不匹配,将其丢弃;遍历集合S1中的各个匹配点对,对其执行上述操作,得到的集合S即为满足双向匹配关系的匹配点对集合;
为了解决相同或者相似物体在环境中重复出现导致匹配结果错误的问题,使用单应性矩阵变换来进一步优化匹配结果;具体做法是,对于每一个pair(i,j)∈S,提取出i在查找帧QueryFrame中的坐标(xi,yi)并加入查找帧坐标集合QureyPosSets,提取出j在训练帧TrainFrame中的坐标(xj,yj)并加入训练帧坐标集合TrainPosSets,然后对这两个坐标集合使用RANSAC方法进行单应性矩阵变换求出最优单应性变换矩阵,然后剔除集合S中不满足单应性变换矩阵约束的匹配点对,得到的集合S即为具有高可信度的匹配点对。
作为本发明进一步的方案:基于GICP的运动变换优化方法:标准ICP算法首先计算两个点云中的匹配点,然后计算使这些匹配点距离最小的运动变换;
点到面ICP是标准ICP的一种改进,通过使用表面法线信息来提高点云配准的精度;该算法使用 T &LeftArrow; T arg min { &Sigma; i w i | | &eta; i &CenterDot; ( T &CenterDot; b i - m i ) | | 2 } 来代替标准ICP算法的运动变换求解约束,其中ηi为点mi的表面法线;
GICP在对标准ICP和点到面ICP进行综合的基础上,还在运动变换求解步骤中使用了概率模型进行最小化运算;假设在标准ICP算法中for循环部分计算两个点云中的匹配点的步骤完成后得到了两个点云A={ai}i=1,...,N和B={bi}i=1,...,N,且下标相同的A和B的元素相互对应,同时假设A和B集合中满足||mi-T·bi||>dmax对应关系已经被剔除,则GICP算法的改进方法如下:
在概率模型中假设存在基础点集且它们根据生成集合A和B,其中是待测量点的协方差矩阵;假设完全对应,则存在运动变换T*满足式(1-12):
b ^ i = T * a ^ i - - - ( 1 - 12 )
对任意刚体变换T,定义di (T)=bi-Tai,则有式(1-13)成立:
T = arg min T &Sigma; i d i ( T ) T ( C i B + T C i A T T ) - 1 d i ( T ) - - - ( 1 - 13 )
而式(1-13)正是GICP对标准ICP运动变换求解步骤的具体改进方法;当时,式(1-13)退化为标准ICP的运动变换求解约束;当时,式(1-13)退化为而该式为点到面的ICP的运动变换求解约束的另一种表示形式,即GICP退化为点到面ICP;因此,上述改进方法被命名为GICP,即广义ICP。
与现有技术相比,本发明的有益效果是:
1、本发明提供在特征检测与描述符提取阶段使用基于ORB的特征检测和描述符提取方法,即使用ORB方法进行特征检测与描述符提取,并对深度信息不合法的特征点进行过滤。
2、本发明提出在特征匹配阶段使用基于FLANN的增强特征匹配方法,即使用基于FLANN的KNN方法进行双向特征匹配,并且使用单应性矩阵变换对匹配结果进行优化。
3、本发明中在运动变换估计阶段使用改进RANSAC的运动变换估计方法,以得到更精确的inliers匹配点对。
4、本发明中在运动变换优化阶段使用基于GICP的运动变换优化方法,该方法基于高精度的GICP算法进行点云配准,使用inliers生成的点云进行GICP点云配准并对失败的情况做了退化处理,并且对RANSAC失败的情况做了退化处理,以提高点云配准的速度和精度。
附图说明
图1为本发明中改进的RGB-D SLAM算法流程图
图2为本发明中GICP算法与其他方法误差对比;
图3为本发明中基于FLANN的增强特征匹配方法流程图;
图4为本发明中基于GICP的运动变换优化方法整体流程图;
图5为本发明中GICP算法与其他方法误差对比图;
图6是RGB-D SLAM算法整体过程示意图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图6,一种基于RGB-D的SLAM算法的改进方法,包括以下内容:
1)基于ORB的特征检测与描述符提取方法。
ORB(Oriented FAST and Rotated BRIEF,具有方向的FAST和旋转的BRIEF)算法是一种快速特征检测与描述符提取算法,包含oFAST特征点检测和rBRIEF描述符提取两个步骤。该算法的具体内容如下:
(1)在oFAST特征点检测步骤中,首先对原图像构建尺度空间金字塔,然后使用FAST(Features from Accelerated Segment Test,加速分割测试特征)特征点检测方法检测出足够多的特征点并使用Harris角点评估方法对检测到的特征点进行筛选,最后根据强度矩心(Intensity Centroid)求出特征点的方向。
其中,FAST是一种非常快速的特征点检测算法,它根据候选点与其圆形邻域内相邻像素点的灰度值差异来判断候选点是否为特征点,具体判断方法如式(1-1)所示:
N = &Sigma; x &ForAll; circle ( p ) | I ( x ) - I ( p ) | > &epsiv; d - - - ( 1 - 1 )
式中,p为候选点,circle(p)为p的圆形邻域,x为候选点圆形邻域内任意一像素点,I(p)为候选点的图像灰度值,I(x)为x处的图像灰度值。若N超出阈值条件εd,则该候选点为特征点。在ORB中采用的是FAST-9,即圆形邻域半径为9。
由于FAST特征点检测算法会产生非常大的边缘响应,所以在FAST特征点检测结束后,还需要使用Harris角点评估方法对特征点进行筛选。如果想要得到的目标特征点数目为N,则首先设置一个足够低的阈值以获得超过N个特征点,然后使用Harris评估方法对这些特征点进行排序,最终选取前N个作为所得到的目标特征点。
为了使检测到的特征点满足旋转不变形,ORB算法中使用强度矩心的方法为检测到的特征点分配方向。强度矩心的方法是由Rosin提出的,该方法假设角点的强度为它与中心的偏移量,并且这个矢量可以用于求解角点方向。Rosin定义局部图像的矩如式(1-2)所示:
mpq=Σx,yxpyqI(x,y)                     (1-2)
然后通过式(1-2)求出矩m00、m10和m01后,根据式(1-3)求出矩心C:
C = ( m 10 m 00 , m 01 m 00 ) - - - ( 1 - 3 )
然后构建一个从角点中心O到矩心C的向量的方向正是局部图像角点的方向,计算公式如式(1-4)所示:
θ=atan2(m01,m10)                     (1-4)
此外,为增强方法的旋转不变性,求取矩的时候,x和y应当始终在角点的r半径圆形邻域内,所以在ORB算法中显示地令r为局部图像的大小,即x和y的范围为[-r,r]。
至此,算法得到了带有方向的FAST特征点,它被称为oFAST特征点。
(2)在rBRIEF描述符提取步骤中,首先对oFAST特征点生成BRIEF特征描述符,然后利用特征点的方向矢量对BRIEF特征描述符进行转向生成steered BRIEF特征描述符,最后使用贪心学习算法从训练集中筛选出一组具有较大方差值、高度不相关且位均值位于0.5附近的二元点集,然后使用这组二元点集生成BRIEF特征描述符并进行转向,最终得到具有旋转不变性的rBRIEF特征描述子。
其中BRIEF(Binary Robust Independent Element Feature,二值化鲁棒独立元特征)特征描述符是由Michael Calonder和Vincent Lepetit等人于2010年提出的一种可快速计算的二进制编码形式描述符。它首先对图像进行高斯平滑滤波,然后在特征点的某邻域内随机选取点对(x,y)并对这些点的灰度值进行二值化测试,并将测试结果按照一定顺序生成一个二进制串,这个二进制串即为BRIEF特征描述符。二值化测试τ的定义如式(1-5)所示,其中,p(x)为p在点x处的强度。
&tau; ( p ; x , y ) : = 1 : p ( x ) < p ( y ) 0 : p ( x ) &GreaterEqual; p ( y ) - - - ( 1 - 5 )
BRIEF特征描述符即为n个二值化测试所构成的向量,如式(1-6)所示:
fn(p):=Σ1≤i≤n2i-1τ(p,xi,yi)         (1-6)
在ORB算法中,点对(x,y)的选取符合高斯分布,其中S为特征点的邻域大小。
由于BRIEF不具有旋转不变性,所以ORB算法中利用特征点的方向矢量对BRIEF特征描述符进行转向,生成steered BRIEF特征描述符。
设原始的BRIEF选取的点集如式(1-7)所示:
S = x 1 , . . . , x n y 1 , . . . , y n - - - ( 1 - 7 )
使用特征点方向θ和相应的旋转矩阵Rθ构建旋转的点集Sθ,如式(1-8)所示:
Sθ=RθS       (1-8)
则生成的steered BRIEF特征描述符即如式(1-9)所示:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ       (1-9)
由于steeredBRIEF通过添加方向矢量增强了描述子的旋转不变性,但其可区分性相对BRIEF有所减弱,为了解决这一问题,ORB提出使用贪心学习算法从训练集中筛选出一组具有较大方差值、高度不相关且位均值位于0.5附近的二元点集,然后使用这组二元点集生成BRIEF特征描述符并进行转向,得到具有旋转不变性的rBRIEF特征描述子。
贪心学习算法具体过程如下:首先对全部的训练局部图像执行所有可能的二值化测试,然后根据测试结果与均值0.5的距离对所有测试进行排序,并生成测试向量T,然后开始贪心搜索过程:首先从T中取出第一个测试放入结果向量R中,然后从T中取出下一个测试,并将它和R中的所有测试进行比较,并估算它们之间的相关性,如果相关性高于某个阈值,则丢弃它;否则将它加入R。重复上述步骤,直到R中的测试数目达到256个,然后结束;否则如果T中的所有测试都已经取出,而R中的测试数目仍然少于256,那么降低阈值,重新开始贪心搜索过程。通过上述步骤即可得到具有旋转不变形和强抗噪声能力rBRIEF特征描述符。
对一帧640×480的图像执行一次ORB算法所需平均时间如表1所示:
表1 单帧图像ORB算法执行时间分析表
ORB算法 构建尺度金字塔 oFAST rBRIEF
花费时间(ms) 4.43 8.68 2.12
从表1可以看出,无论是构建尺度金字塔、使用oFAST进行特征点检测还是使用rBRIEF进行描述符提取阶段,ORB算法所花费的时间都是非常少的,因此ORB特征检测与描述符提取方法的速度非常快,比SURF快一个数量级,比SIFT快两个数量级,可以很好地满足实时性要求较高的应用,三种算法平均每帧图像花费时间如表2所示:
表2 ORB与SIFT、SURF方法时间对比结果表
特征检测与描述符提取方法 ORB SURF SIFT
平均每帧图像所需时间(ms) 15.3 217.3 5228.7
2)基于FLANN的增强特征匹配方法。
使用基于FLANN的增强特征匹配方法对原始算法进行改进,具体内容如下:
首先,为了解决BruteForce匹配方法速度慢的问题,本发明使用基于FLANN(FastLibrary for Approximate Nearest Neighbors,快速近似最近邻搜索库)的特征匹配方法进行特征匹配。FLANN是在高维空间执行快速近似最近邻搜索的一个库,它包含一组优秀的最近邻搜索算法和一个自动选择最优算法并且根据数据集对算法参数进行优化的系统。对于高维空间中的最近邻搜索问题,FLANN采用基于分层k-均值树的优先级搜索算法或采用多重随机k-d树时具有最好的性能。相对于其他传统最近邻搜索算法,基于FLANN的近似快速最近邻搜索的速度提高了一个数量级。
其次,为了解决BruteForce匹配法为查找帧中所有特征点查找其在训练帧中距离最近的匹配特征点的问题,本发明采用基于FLANN的KNN搜索(KNearest Neighbor Search)方法进行查找,并对查找结果进行过滤。当给定向量空间M中的一个点集P={p1,p2,...,pn}和一个待查询点q∈M,则q的最近邻元素NN(q,P)∈P定义为NN(q,P)=argminx∈pd(q,x),其中d(q,x)表示q与x的距离。KNN搜索就是同时查找K最近邻的搜索方法,K最近邻的定义如式(1-10)所示:
KNN(q,P,K)=A            (1-10)
其中A是满足如式(1-11)所示约束的集合:
| A | = K , A &SubsetEqual; P , &ForAll; x &Element; A , y &Element; P - A , d ( q , x ) &le; d ( q , y ) - - - ( 1 - 11 )
本发明在使用KNN搜索方法时令K=2,即对查找帧中的每一个特征点si,都在训练帧中使用KNN二近邻搜索方法查找它的最近邻点ti1和次近邻点ti2,si和它们的距离分别为di1和di2。比较di1和di2之间的距离,只有当di1远远小于di2时,则si和ti是正确匹配点对;否则当di1和di2比较接近时,则si和ti1、si和ti2都不是正确匹配点对,应该将其剔除;或者认为si和ti1、si和ti2都能够正确匹配(比如在场景中出现若干相同物体),但是为了减少这种匹配关系对后续运动变换的影响,也应该将其剔除。令在最终实现的系统中,当ratioi小于0.6时保留对应的匹配点对,否则将其剔除。
再次,为了消除单方向匹配造成的错误匹配点对,本发明使用双向的基于FLANN的KNN搜索来查找正确的匹配点对。具体做法为,首先对于查找帧QueryFrame中的每一个特征点,使用基于FLANN的二近邻搜索在训练帧TrainFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S1;然后反方向执行上述步骤,即为对于训练帧TrainFrame中的每一个特征点,使用基于FLANN的二近邻搜索在查找帧QueryFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S2。对于任意pair(i,j)∈S1,查找相应的pair(j,k)∈S2,如果i=k则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j是双向匹配的,将该匹配点对加入集合S;否则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j不匹配,将其丢弃。遍历集合S1中的各个匹配点对,对其执行上述操作,最终得到的集合S即为满足双向匹配关系的匹配点对集合。
最后,为了解决若干相同或者相似物体在环境中重复出现导致匹配结果错误的问题,本发明使用单应性矩阵变换来进一步优化匹配结果。单应性变换是计算机视觉领域中一个射影平面到另一个射影平面的可逆变换,空间中同一平面的任意两幅图像可以通过单应性变换关联在一起,从而得到一个单应性变换矩阵,通过该单应性变换矩阵可以求出两幅图像之间的匹配点对关系。本发明使用单应性矩阵变换来剔除错误匹配点对的依据是如果某物体在场景中重复出现,但是其所在的背景场景相似度较低,那么可以利用背景的不匹配来剔除这些重复出现物体的错误匹配关系。具体做法是,对于每一个pair(i,j)∈S,提取出i在查找帧QueryFrame中的坐标(xi,yi)并加入查找帧坐标集合QureyPosSets,提取出j在训练帧TrainFrame中的坐标(xj,yj)并加入训练帧坐标集合TrainPosSets,然后对这两个坐标集合使用RANSAC方法进行单应性矩阵变换求出最优单应性变换矩阵,然后剔除集合S中不满足单应性变换矩阵约束的匹配点对,最终得到的集合S即为具有高可信度的匹配点对。
综上所述,基于FLANN的增强特征匹配方法可以综合描述为对查找帧和训练帧特征描述符进行双向的基于FLANN的KNN匹配,然后使用单应性矩阵变换对匹配结果进行优化,
3)改进RANSAC的运动变换估计方法。
运动变换估计方法的改进方案如下:
使用三维RANSAC的方法进行运动变换估计总体上是一个迭代的过程。在每一次迭代过程中从三维坐标匹配点对集合中随机选择20个三维坐标匹配点对,根据这些三维坐标匹配点对求出一个运动变换模型。对于三维坐标匹配点对集合中的每一个元素,使用所求出的运动变换模型将元素中的原坐标进行投影以得到投影坐标,计算目标坐标与投影坐标之间的误差,如果误差小于阈值,该三维坐标匹配点对是局内点(inlier),将其加入局内点集合;否则认为它是局外点,不作处理。统计局内点的数目,并计算该模型下的平均误差。如果局内点数目高于阈值并且平均误差低于阈值,则利用所有的局内点重新计算新的运动变换模型。然后再次对新的运动变换模型进行评估,具体方法为,对于三维坐标匹配点对集合中的每一个元素,使用最新求出的运动变换模型将元素中的原坐标进行投影以得到投影坐标,计算目标坐标与投影坐标之间的误差,如果误差小于阈值,该三维坐标匹配点对是局内点,将其加入局内点集合;否则认为它是局外点,不作处理。统计局内点的数目,并计算最新求得的模型的平均误差。如果得到的新的运动变换模型的局内点数目高于当前最优运动变换模型并且平均误差低于当前最优运动变换模型,则认为该新运动变换模型比当前最优变换模型更好,则将当前最优变换模型更新为新运动变换模型。上述过程迭代进行若干次,在每一次迭代过程中都随机选择新的三维坐标匹配点,并且在每一次迭代的末尾都保存当前最优的运动变换模型参数。迭代结束后即可得到最优运动变换模型和最优inliers集合及误差后。如果最优inliers集合中局内点的数目高于阈值并且误差低于阈值,则利用最优inliers集合再次计算新的运动变换模型并记为最终运动变换模型,然后再次对最终运动变换模型进行评估,对于三维坐标匹配点对集合中的每一个元素,使用最终运动变换模型对元素中的原坐标进行投影以得到投影坐标,计算目标坐标与投影坐标之间的误差,如果误差小于阈值,该三维坐标匹配点对是局内点,将其加入最终inliers集合;否则认为它是局外点,不作处理。最终得到的最终运动变换模型和最终inliers集合即为所求结果。
(4)基于GICP的运动变换优化方法
由于原始RGB-D SLAM算法中使用标准ICP算法进行运动变换优化,而标准ICP算法进行点云配准时的误差较大。Stanford大学的Aleksandr V.Segal、Dirk Haehnel和Sebastian Thrun最新提出了一种用于进行高精度点云配准的算法,即GICP(Generalized-ICP,广义ICP)算法,该算法的误差比标准ICP算法误差小一个数量级,所以本发明提出使用GICP算法对RGB-D SLAM算法的运动变换优化阶段进行改进。
GICP算法在对标准ICP算法和点到面ICP(point-to-plane ICP)算法进行归纳与综合的基础上,更进一步使用了面到面(plane-to-plane)的思想进行改进。GICP算法的抽象程度更高,而且在一定条件下可以退化成标准ICP算法或者点到面ICP算法。
标准ICP算法首先计算两个点云中的匹配点,然后计算使这些匹配点距离最小的运动变换。
点到面ICP是标准ICP的一种改进,通过使用表面法线信息来提高点云配准的精度。该算法使用 T &LeftArrow; arg min T { &Sigma; i w i | | &eta; i &CenterDot; ( T &CenterDot; b i - m i ) | | 2 } 来代替标准ICP算法的运动变换求解约束,其中ηi为点mi的表面法线。
GICP在对标准ICP和点到面ICP进行综合的基础上,还在运动变换求解步骤中使用了概率模型进行最小化运算。为了简化描述,假设在标准ICP算法中for循环部分计算两个点云中的匹配点的步骤完成后得到了两个点云A={ai}i=1,...,N和B={bi}i=1,...,N,且下标相同的A和B的元素相互对应(例如,ai和bi相对应),同时假设A和B集合中满足||mi-T·bi||>dmax对应关系已经被剔除,则GICP算法的改进方法如下:
在概率模型中假设存在基础点集且它们根据生成集合A和B,其中是待测量点的协方差矩阵。假设完全对应,则存在运动变换T*满足式(1-12):
对任意刚体变换T,定义di (T)=bi-Tai,则有式(1-13)成立:
T = arg min T &Sigma; i d i ( T ) T ( C i B + T C i A T T ) - 1 d i ( T ) - - - ( 1 - 13 )
而式(1-13)正是GICP对标准ICP运动变换求解步骤的具体改进方法。当时,式(1-13)退化为标准ICP的运动变换求解约束;当时,式(1-13)退化为而该式为点到面的ICP的运动变换求解约束的另一种表示形式,即GICP退化为点到面ICP。因此,上述改进方法被命名为GICP,即广义ICP。
GICP算法点云配准所需的时间高于标准ICP算法,但是GICP的精度远远高于标准ICP,所以本发明提出使用GICP算法替换标准ICP算法进行RGB-DSLAM算法中的运动变换优化,以使得求解出的运动变换误差更小。
实施例1
本发明实施例中,所运行的硬件环境为联想笔记本电脑Lenovo ideapad Y471A,InterCore i5-2410M CPU2.30GHz双核四线程2.3GHz处理器,三级缓存为3M和6M,4G内存。
算法所运行的系统为Ubuntu 12.04,内核版本为3.5.0-54-generic,本发明所有算法均通过gcc 4.6.3编译,优化级别为三级(-O3)。
在对RGB-D SLAM算法进行评估时,可以分别从效率和精度两方面进行考虑。如果优化后的算法比原始算法所需时间更短或者精度更高,误差更小,则认为优化是正确的。为了对所提出的改进方法进行验证,本发明分别从效率和精度两个方面对改进前和改进后的算法进行了测试与对比,并根据对比结果对算法进行评估。
同时,为了增强实验结果的说服力,本发明还使用了德国Munich理工大学计算机科学系的Jurgen Sturm和Daniel Cremers和Freiburg大学计算机科学系的NikolasEngelhard和Felix Endres提供的标准测试程序和标准测试数据集rgbd_dataset_freiburg1_360对改进前和改进后的算法进行评估。
rgbd_dataset_freiburg1_360数据集中包含754帧RGB和Depth图像和相应的groundtruth数据,其中图像所记录的内容为德国Freiburg大学某个实验室中的场景,包含书桌、椅子、风扇、电脑、黑板、门窗、海报、地面、天花板、墙面、摄像机、书柜、书和人等,groundtruth数据是使用包含8个高速追踪相机(100hz)的高精度运动捕捉系统所记录Kinect相机的真实位姿信息。数据集作者通过手持Kinect相机的方式录制数据,在录制过程中缓慢运动,并且在录制数据的时候,作者不断对相机进行各种平移和旋转,相机位姿不断发生变化,录制的RGB-D图像的为360°全方位图像,所以使用该数据集测试得到的实验结果非常具有说服力。
图1所示为改进的RGB-D SLAM算法流程图。其中提出使用基于ORB的特征检测和描述符提取提取方法、基于FLANN的增强特征匹配方法、改进的RANSAC运动变换估计方法和基于GICP的运动变换优化方法对原始RGB-D SLAM算法进行改进,以使得改进后的算法满足高效率和高精度的要求。
图2所示为基于ORB的特征检测与描述符提取方法流程图。在基于ORB的特征检测与描述符提取方法中,首先创建ORB特征检测算子进行特征检测,然后过滤深度信息不合法的特征点,然后再创建ORB描述符提取算子进行描述符提取。之所以要添加过滤深度信息不合法特征点这个步骤,是因为深度信息不合法特征点将导致运算结果误差变大,将其滤除能够有效地降低误差;而将过滤深度信息不合法特征点步骤加到描述符提取步骤之前,则可以有效地减少描述符提取的数量,从而减少运算量,提高算法速度。
图3所示为基于FLANN的增强特征匹配方法流程图。基于FLANN的增强特征匹配方法可以综合描述为对查找帧和训练帧特征描述符进行双向的基于FLANN的KNN匹配,然后使用单应性矩阵变换对匹配结果进行优化。
图4所示为基于GICP的运动变换优化方法整体流程图。为了接下来描述方便,本发明将由原始三维坐标匹配点对集合生成的点云称为MatchesPointCloud,将最终inliers匹配点对集合生成的点云称为InliersPointCloud,将对原始图像对应的整个点云称为TotalPointCloud;将对MatchesPointCloud进行ICP点云配准从而进行运动变换优化称为MatchesPointCloudICP,将对InliersPointCloud进行ICP点云配准从而进行运动变换优化称为InliersPointCloudICP,将对TotalPointCloud进行ICP点云配准从而进行运动变换优化称为TotalPointCloudICP;将对MatchesPointCloud进行GICP点云配准从而进行运动变换优化称为MatchesPointCloudGICP,将对InliersPointCloud进行GICP点云配准从而进行运动变换优化称为InliersPointCloudGICP,将对TotalPointCloud进行GICP点云配准从而进行运动变换优化称为TotalPointCloudGICP。
如图4所示,本发明所提出的基于GICP的运动变换估计方法具体表示为:当RANSAC成功时使用可退化的InliersPointCloudGICP子流程进行运动变换优化,而当特征匹配结果数目过小或者RANSAC失败的情况下进行无初始运动变换估计的TotalPointCloudGICP来求解运动变换矩阵,并直接返回结果。
图5所示为GICP算法与其他方法误差对比图。由于原始RGB-D SLAM算法中使用标准ICP算法进行运动变换优化,而标准ICP算法进行点云配准时的误差较大。Stanford大学的Aleksandr V.Segal、Dirk Haehnel和Sebastian Thrun最新提出了一种用于进行高精度点云配准的算法,即GICP(Generalized-ICP,广义ICP)算法,该算法的误差比标准ICP算法误差小一个数量级。
本发明在测试时选取了使用SIFT、SURF_default、SURF_0、ORB_default和ORB_10000分别对改进前后的算法进行了测试、对比与评估,其中SURF_0和ORB_10000用于极端情况下的对比。
特征检测与描述符提取测试主要是通过运用测试集的单幅图像测试结果对比、测试数据集所有图像测试结果对比和过滤深度信息不合法的特征点。
特征匹配测试主要是通过运用测试集的相邻两帧测试结果对比、测试数据集所有图像测试结果对比和特征检测、描述符提取与特征匹配综合比较。
运动变换估计测试主要是通过运用测试集的相邻两帧运动变换估计方法实验结果对比和测试数据集所有图像运动变换估计实验结果对比。
运动变化优化测试主要是通过运用测试集的点云降采样实验结果对比、对相邻帧运动变换优化方法实验结果对比和测试数据集所有图像运动变换优化实验结果对比,以及前端算法综合时间对比。
整个前端算法结果对比测试主要是通过运用测试集的前端综合优化结果与测试数据集groundtruth对比、前端结果相机位姿对比和前端地图拼接结果展示。
实际环境测试主要是通过小型场景地图拼接结果展示、中型场景地图拼接结果展示和前端地图拼接结果展示。
原始SIFT_RGB-D_SLAM算法和原始SURF_RGB-D_SLAM算法均为低速度低精度算法,其中原始SIFT_RGB-D_SLAM算法的速度和精度均略高于原始SURF_RGB-D_SLAM算法,而原始ORB_RGB-D_SLAM算法为高速度低精度算法。改进SIFT_RGB-D_SLAM算法和改进SURF_RGB-D_SLAM算法为低速度高精度算法,其中改进SIFT_RGB-D_SLAM算法的速度和精度均略高于改进SURF_RGB-D_SLAM算法;改进SIFT_RGB-D_SLAM算法与原始SIFT_RGB-D_SLAM算法相比精度大大提高,但是速度略有下降;改进SURF_RGB-D_SLAM算法和原始SURF_RGB-D_SLAM算法相比精度大大提高,且速度也略有提高。改进的ORB_RGB-D_SLAM算法为高速度高精度算法;相比于原始的ORB_RGB-D_SLAM算法,改进的ORB_RGB-D_SLAM算法的精度有了非常大的提高,而速度稍有降低;另一方面,改进的ORB_RGB-D_SLAM算法的精度与改进SIFT_RGB-D_SLAM算法基本相同,而速度远远高于改进的改进SIFT_RGB-D_SLAM算法。
综上所述,提出了RGB-D SLAM算法改进方法能够解决原始算法低速度和低精度的问题,使得改进后的RGB-D SLAM算法能够同时满足高速度和高精度的要求。因此可以得出以下结论:本发明提出的RGB-D SLAM算法改进方法是正确的。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (5)

1.一种基于RGB-D的SLAM算法的改进方法,分为前端和后端两部分,前端的任务为提取不同观察结果之间的空间关系,分为特征检测与描述符提取、特征匹配、运动变换估计和运动变换优化;后端的任务为使用非线性误差函数优化位姿图中相机的位姿信息;使用基于图的位姿优化方法,利用前端得到的6D运动变换关系初始化位姿图,然后进行闭环检测添加闭环约束条件,再利用非线性误差函数优化方法进行位姿图优化,最终得到全局最优相机位姿和相机运动轨迹,并进行三维环境重建;其特征在于,其中,特征检测与描述符提取、特征匹配、运动变换估计和运动变换优化的具体方法如下所述:
1)基于ORB的特征检测与描述符提取方法
ORB算法是一种快速特征检测与描述符提取算法,包含oFAST特征点检测和rBRIEF描述符提取两个步骤;该算法的具体内容如下:
(1)在oFAST特征点检测步骤中,首先对原图像构建尺度空间金字塔,然后使用FAST特征点检测方法检测出足够多的特征点并使用Harris角点评估方法对检测到的特征点进行筛选,再根据强度矩心求出特征点的方向;
(2)在rBRIEF描述符提取步骤中,首先对oFAST特征点生成BRIEF特征描述符,然后利用oFAST特征点的方向矢量对BRIEF特征描述符进行转向生成steered BRIEF特征描述符,再使用贪心学习算法从训练集中筛选出一组具有较大方差值、高度不相关且位均值位于0.5附近的二元点集,然后使用这组二元点集生成BRIEF特征描述符并进行转向,得到具有旋转不变性的rBRIEF特征描述子;
2)基于FLANN的增强特征匹配方法
基于FLANN的增强特征匹配方法是对查找帧和训练帧特征描述符进行双向的基于FLANN的KNN匹配,然后使用单应性矩阵变换对匹配结果进行优化;
3)改进RANSAC的运动变换估计方法
使用RANSAC的方法进行运动变换估计总体上是一个迭代的过程;在每一次迭代过程中从三维坐标匹配点对集合中随机选择20个三维坐标匹配点对,根据这些三维坐标匹配点对求出一个运动变换模型;对于三维坐标匹配点对集合中的每一个元素,使用所求出的运动变换模型将元素中的原坐标进行投影以得到投影坐标,计算目标坐标与投影坐标之间的误差,如果误差小于阈值,则该三维坐标匹配点对是局内点,将其加入局内点集合;否则认为它是局外点,不作处理;统计局内点的数目,并计算该模型下的平均误差;如果局内点数目高于阈值并且平均误差低于阈值,则利用所有的局内点重新计算新的运动变换模型;然后再次对新的运动变换模型进行评估;
(4)基于GICP的运动变换优化方法
GICP算法在对标准ICP算法和点到面ICP算法进行归纳与综合的基础上,更进一步使用了面到面的思想进行改进;GICP算法的抽象程度更高,而且在一定条件下退化成标准ICP算法或者点到面ICP算法;GICP算法点云配准所需的时间高于标准ICP算法,但是GICP的精度远远高于标准ICP,使用GICP算法替换标准ICP算法进行RGB-D SLAM算法中的运动变换优化,以使得求解出的运动变换误差更小。
2.根据权利要求1所述的基于RGB-D的SLAM算法的改进方法,其特征在于,所述oFAST特征点检测的具体步骤如下所述,FAST是一种非常快速的特征点检测算法,根据候选点与其圆形邻域内相邻像素点的灰度值差异来判断候选点是否为特征点,具体判断方法如式(1-1)所示:
N = &Sigma; x &ForAll; circle ( p ) | I ( x ) - I ( p ) | > &epsiv; d - - - ( 1 - 1 )
式中,p为候选点,circle(p)为p的圆形邻域,x为候选点圆形邻域内任意一像素点,I(p)为候选点的图像灰度值,I(x)为x处的图像灰度值;若N超出阈值条件εd,则该候选点为特征点;
在FAST特征点检测结束后,使用Harris角点评估方法对特征点进行筛选;如果想要得到的目标特征点数目为N,则首先设置一个足够低的阈值以获得超过N个特征点,然后使用Harris评估方法对这些特征点进行排序,然后选取前N个作为所得到的目标特征点;
为了使检测到的特征点满足旋转不变形,ORB算法中使用强度矩心的方法为检测到的特征点分配方向;该方法假设角点的强度为它与中心的偏移量,并且这个矢量能用于求解角点方向;局部图像的矩如式(1-2)所示:
mpq=Σx,yxpyqI(x,y)         (1-2)
然后通过式(1-2)求出矩m00、m10和m01后,根据式(1-3)求出矩心C:
C = ( m 10 m 00 , m 01 m 00 ) - - - ( 1 - 3 )
然后构建一个从角点中心O到矩心C的向量的方向正是局部图像角点的方向,计算公式如式(1-4)所示:
θ=atan2(m01,m10)          (1-4)
此外,为增强方法的旋转不变性,求取矩的时候,x和y应当始终在角点的r半径圆形邻域内,所以在ORB算法中显示地令r为局部图像的大小,即x和y的范围为[-r,r];得到了带有方向的FAST特征点,它被称为oFAST特征点。
3.根据权利要求1所述的基于RGB-D的SLAM算法的改进方法,其特征在于,所述rBRIEF描述符提取的具体步骤如下所述:其中BRIEF特征描述符是一种快速计算的二进制编码形式描述符;它首先对图像进行高斯平滑滤波,然后在oFAST特征点的某邻域内随机选取点对(x,y)并对这些点的灰度值进行二值化测试,并将测试结果按照一定顺序生成一个二进制串,这个二进制串即为BRIEF特征描述符;二值化测试τ的定义如式(1-5)所示,其中,p(x)为p在点x处的强度;
&tau; ( p ; x , y ) : = 1 : p ( x ) < p ( y ) 0 : p ( x ) &GreaterEqual; p ( y ) - - - ( 1 - 5 )
BRIEF特征描述符即为n个二值化测试所构成的向量,如式(1-6)所示:
fn(p):=Σ1≤i≤n2i-1τ(p,xi,yi)      (1-6)
在ORB算法中,点对(x,y)的选取符合高斯分布,其中S为特征点的邻域大小;
由于BRIEF不具有旋转不变性,所以ORB算法中利用特征点的方向矢量对BRIEF特征描述符进行转向,生成steered BRIEF特征描述符;
设原始的BRIEF选取的点集如式(1-7)所示:
S = x 1 , . . . , x n y 1 , . . . , y n - - - ( 1 - 7 )
使用特征点方向θ和相应的旋转矩阵Rθ构建旋转的点集Sθ,如式(1-8)所示:
Sθ=RθS             (1-8)
则生成的steered BRIEF特征描述符即如式(1-9)所示:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ    (1-9)
贪心学习算法具体过程如下:首先对全部的训练局部图像执行所有可能的二值化测试,然后根据测试结果与均值0.5的距离对所有测试进行排序,并生成测试向量T,然后开始贪心搜索过程:首先从T中取出第一个测试放入结果向量R中,然后从T中取出下一个测试,并将它和R中的所有测试进行比较,并估算它们之间的相关性,如果相关性高于某个阈值,则丢弃它;否则将它加入R;重复上述步骤,直到R中的测试数目达到256个,然后结束;否则如果T中的所有测试都已经取出,而R中的测试数目仍然少于256,那么降低阈值,重新开始贪心搜索过程;通过上述步骤即得到具有旋转不变形和强抗噪声能力rBRIEF特征描述符。
4.根据权利要求1所述的基于RGB-D的SLAM算法的改进方法,其特征在于,所述基于FLANN的增强特征匹配方法,具体内容如下:FLANN是在高维空间执行快速近似最近邻搜索的一个库,它包含一组优秀的最近邻搜索算法和一个自动选择最优算法并且根据数据集对算法参数进行优化的系统;对于高维空间中的最近邻搜索问题,FLANN采用基于分层k-均值树的优先级搜索算法或采用多重随机k-d树时具有最好的性能;相对于其他传统最近邻搜索算法,基于FLANN的近似快速最近邻搜索的速度提高了一个数量级;其次,为了解决BruteForce匹配法为查找帧中所有特征点查找其在训练帧中距离最近的匹配特征点的问题,采用基于FLANN的KNN搜索方法进行查找,并对查找结果进行过滤;当给定向量空间M中的一个点集P={p1,p2,...,pn}和一个待查询点q∈M,则q的最近邻元素NN(q,P)∈P定义为NN(q,P)=argminx∈pd(q,x),其中d(q,x)表示q与x的距离;KNN搜索就是同时查找K最近邻的搜索方法,K最近邻的定义如式(1-10)所示:
KNN(q,P,K)=A          (1-10)
其中A是满足如式(1-11)所示约束的集合:
| A | = K , A &SubsetEqual; P , &ForAll; x &Element; A , y &Element; P - A , ( q , x ) &le; d ( q , y ) - - - ( 1 - 11 )
在使用KNN搜索方法时令k=2,即对查找帧中的每一个特征点si,都在训练帧中使用KNN二近邻搜索方法查找它的最近邻点ti1和次近邻点ti2,si和它们的距离分别为di1和di2;比较di1和di2之间的距离,只有当di1远远小于di2时,则si和ti是正确匹配点对;否则当di1和di2比较接近时,则si和ti1、si和ti2都不是正确匹配点对,应该将其剔除;或者认为si和ti1、si和ti2都能够正确匹配,但是为了减少这种匹配关系对后续运动变换的影响,也应该将其剔除;令在最终实现的系统中,当ratioi小于0.6时保留对应的匹配点对,否则将其剔除;
为了消除单方向匹配造成的错误匹配点对,使用双向的基于FLANN的KNN搜索来查找正确的匹配点对;具体做法为,首先对于查找帧QueryFrame中的每一个特征点,使用基于FLANN的二近邻搜索在训练帧TrainFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S1;然后反方向执行上述步骤,即为对于训练帧TrainFrame中的每一个特征点,使用基于FLANN的二近邻搜索在查找帧QueryFrame中查找匹配点对,并对最近邻和次近邻距离相近的匹配点对过滤,记录下最终得到的好的匹配点对集合S2;对于任意pair(i,j)∈S1,查找相应的pair(j,k)∈S2,如果i=k则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j是双向匹配的,将该匹配点对加入集合S;否则认为查找帧QueryFrame中的特征点i与训练帧TrainFrame中的特征点j不匹配,将其丢弃;遍历集合S1中的各个匹配点对,对其执行上述操作,得到的集合S即为满足双向匹配关系的匹配点对集合;
为了解决相同或者相似物体在环境中重复出现导致匹配结果错误的问题,使用单应性矩阵变换来进一步优化匹配结果;具体做法是,对于每一个pair(i,j)∈S,提取出i在查找帧QueryFrame中的坐标(xi,yi)并加入查找帧坐标集合QureyPosSets,提取出j在训练帧TrainFrame中的坐标(xj,yj)并加入训练帧坐标集合TrainPosSets,然后对这两个坐标集合使用RANSAC方法进行单应性矩阵变换求出最优单应性变换矩阵,然后剔除集合S中不满足单应性变换矩阵约束的匹配点对,得到的集合S即为具有高可信度的匹配点对。
5.根据权利要求1所述的基于RGB-D的SLAM算法的改进方法,其特征在于,基于GICP的运动变换优化方法:标准ICP算法首先计算两个点云中的匹配点,然后计算使这些匹配点距离最小的运动变换;
点到面ICP是标准ICP的一种改进,通过使用表面法线信息来提高点云配准的精度;该算法使用 T &LeftArrow; arg min T { &Sigma; i w i | | &eta; i &CenterDot; ( T &CenterDot; b i - m i ) | | 2 } 来代替标准ICP算法的运动变换求解约束,其中ηi为点mi的表面法线;
GICP在对标准ICP和点到面ICP进行综合的基础上,还在运动变换求解步骤中使用了概率模型进行最小化运算;假设在标准ICP算法中for循环部分计算两个点云中的匹配点的步骤完成后得到了两个点云A={ai}i=1,...,N和B={bi}i=1,...,N,且下标相同的A和B的元素相互对应,同时假设A和B集合中满足||mi-T·bi||>dmax对应关系已经被剔除,则GICP算法的改进方法如下:
在概率模型中假设存在基础点集且它们根据生成集合A和B,其中是待测量点的协方差矩阵;假设完全对应,则存在运动变换T*满足式(1-12):
b &iota; ^ = T * a &iota; ^
对任意刚体变换T,定义di (T)=bi-Tai,则有式(1-13)成立:
T = arg min T &Sigma; i d i ( T ) T ( C i B + T C i A T T ) - 1 d i ( T )
而式(1-13)正是GICP对标准ICP运动变换求解步骤的具体改进方法;当时,式(1-13)退化为标准ICP的运动变换求解约束;当时,式(1-13)退化为而该式为点到面的ICP的运动变换求解约束的另一种表示形式,即GICP退化为点到面ICP;因此,上述改进方法被命名为GICP,即广义ICP。
CN201510246229.8A 2015-05-14 2015-05-14 一种基于rgb-d的slam算法的改进方法 Pending CN104851094A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510246229.8A CN104851094A (zh) 2015-05-14 2015-05-14 一种基于rgb-d的slam算法的改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510246229.8A CN104851094A (zh) 2015-05-14 2015-05-14 一种基于rgb-d的slam算法的改进方法

Publications (1)

Publication Number Publication Date
CN104851094A true CN104851094A (zh) 2015-08-19

Family

ID=53850721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510246229.8A Pending CN104851094A (zh) 2015-05-14 2015-05-14 一种基于rgb-d的slam算法的改进方法

Country Status (1)

Country Link
CN (1) CN104851094A (zh)

Cited By (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105352508A (zh) * 2015-10-22 2016-02-24 深圳创想未来机器人有限公司 机器人定位导航方法及装置
CN105488809A (zh) * 2016-01-14 2016-04-13 电子科技大学 基于rgbd描述符的室内场景语义分割方法
CN105719287A (zh) * 2016-01-19 2016-06-29 苏州博众精工科技有限公司 一种不规则图形的对位方法
CN105856230A (zh) * 2016-05-06 2016-08-17 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106056643A (zh) * 2016-04-27 2016-10-26 武汉大学 一种基于点云的室内动态场景slam方法及系统
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106408022A (zh) * 2016-09-20 2017-02-15 河南理工大学 基于简易采样方式和三值化策略的二值描述子构建方法
CN106408023A (zh) * 2016-09-20 2017-02-15 河南理工大学 基于点组比较策略的图像特征点二值描述及匹配方法
CN106447601A (zh) * 2016-08-31 2017-02-22 中国科学院遥感与数字地球研究所 一种基于投影‑相似变换的无人机遥感影像拼接方法
CN106570913A (zh) * 2016-11-04 2017-04-19 上海玄彩美科网络科技有限公司 基于特征的单目slam快速初始化方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN106778767A (zh) * 2016-11-15 2017-05-31 电子科技大学 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN106846608A (zh) * 2017-01-25 2017-06-13 杭州视氪科技有限公司 一种基于rgb‑d相机的视障人士纸币识别眼镜
CN106856012A (zh) * 2017-01-12 2017-06-16 上海云拟科技有限公司 一种实时大规模场景三维扫描建模方法及系统
CN106875482A (zh) * 2017-01-13 2017-06-20 浙江大学 一种同时定位与稠密三维重建方法
CN106875543A (zh) * 2017-01-25 2017-06-20 杭州视氪科技有限公司 一种基于rgb‑d相机的视障人士纸币识别系统及识别方法
CN106897666A (zh) * 2017-01-17 2017-06-27 上海交通大学 一种室内场景识别的闭环检测方法
WO2017107700A1 (zh) * 2015-12-21 2017-06-29 努比亚技术有限公司 一种实现图像配准的方法及终端
CN106952266A (zh) * 2017-03-17 2017-07-14 南昌航空大学 Rgbd序列场景流计算中深度图像优化方法
CN107016668A (zh) * 2017-03-23 2017-08-04 西安电子科技大学 基于视皮层方位选择性机理的无参考图像质量评价方法
CN107093166A (zh) * 2017-04-01 2017-08-25 华东师范大学 低重合率显微图像的无缝拼接方法
CN107256545A (zh) * 2017-05-09 2017-10-17 华侨大学 一种大圆机的破洞瑕疵检测方法
CN107272673A (zh) * 2017-05-18 2017-10-20 中山大学 基于位姿链模型的slam后端轨迹优化方法
CN107300917A (zh) * 2017-05-23 2017-10-27 北京理工大学 一种基于分层架构的视觉slam后端优化方法
CN107316328A (zh) * 2017-05-11 2017-11-03 浙江大学 一种基于二维激光扫描仪角点特征的闭环检测方法
CN108010045A (zh) * 2017-12-08 2018-05-08 福州大学 基于orb的视觉图像特征点误匹配提纯方法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108053367A (zh) * 2017-12-08 2018-05-18 北京信息科技大学 一种基于rgb-d特征匹配的3d点云拼接与融合方法
CN108090954A (zh) * 2017-12-15 2018-05-29 南方医科大学南方医院 基于图像特征的腹腔环境地图重建与腹腔镜定位的方法
CN108108716A (zh) * 2017-12-29 2018-06-01 中国电子科技集团公司信息科学研究院 一种基于深度信念网络的回环检测方法
CN108133226A (zh) * 2017-11-27 2018-06-08 西北工业大学 一种基于harris改进的三维点云特征提取方法
CN108171734A (zh) * 2017-12-25 2018-06-15 西安因诺航空科技有限公司 一种orb特征提取与匹配的方法及装置
CN108196828A (zh) * 2017-12-11 2018-06-22 江苏大学 基于android智能手机的无人插秧机监控系统APP软件的设计方法
CN108287550A (zh) * 2018-02-01 2018-07-17 速感科技(北京)有限公司 基于数据关联及错误检测的slam系统和构造数据关联的方法
CN108369420A (zh) * 2015-11-02 2018-08-03 星船科技私人有限公司 用于自主定位的设备和方法
CN108388902A (zh) * 2018-02-12 2018-08-10 山东大学 结合全局框架点与局部shot特征的复合3d描述子构建方法
CN108496186A (zh) * 2017-08-31 2018-09-04 深圳市大疆创新科技有限公司 特征提取电路和图像处理集成电路
CN108534797A (zh) * 2018-04-13 2018-09-14 北京航空航天大学 一种实时高精度视觉里程计方法
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN108776989A (zh) * 2018-06-08 2018-11-09 北京航空航天大学 基于稀疏slam框架的低纹理平面场景重建方法
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN109117496A (zh) * 2018-06-25 2019-01-01 国网经济技术研究院有限公司 一种变电站工程临建布置三维模拟设计方法和系统
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
CN109343540A (zh) * 2018-11-30 2019-02-15 广东工业大学 一种基于回环检测的slam后端轨迹优化方法
CN109682373A (zh) * 2018-12-28 2019-04-26 中国兵器工业计算机应用技术研究所 一种无人平台的感知系统
CN109710558A (zh) * 2016-11-03 2019-05-03 北京中科寒武纪科技有限公司 Slam运算装置和方法
CN109727287A (zh) * 2018-12-27 2019-05-07 江南大学 一种适用于增强现实的改进注册方法及其系统
CN109739844A (zh) * 2018-12-26 2019-05-10 西安电子科技大学 基于衰减权重的数据分类方法
CN110009549A (zh) * 2019-03-14 2019-07-12 北京航空航天大学 一种旋转对称描述子的计算方法及硬件加速器
CN110021029A (zh) * 2019-03-22 2019-07-16 南京华捷艾米软件科技有限公司 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN110060277A (zh) * 2019-04-30 2019-07-26 哈尔滨理工大学 一种多特征融合的视觉slam方法
CN110100217A (zh) * 2016-12-30 2019-08-06 罗伯特·博世有限公司 处理室内环境的非结构化数据分割设施中房间来改进设备通过设施的移动的移动机器人设备
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN110309329A (zh) * 2019-05-09 2019-10-08 河南萱闱堂医疗信息科技有限公司 内镜检查中智能化识别和记录消化道组织和异物的方法
CN110689013A (zh) * 2019-10-10 2020-01-14 北京课程帮科技有限公司 一种基于特征识别的自动阅卷方法及系统
CN110703760A (zh) * 2019-10-30 2020-01-17 杭州叙简科技股份有限公司 一种用于安防巡检机器人的新增可疑物体检测方法
CN110738695A (zh) * 2019-10-12 2020-01-31 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN110887487A (zh) * 2019-11-14 2020-03-17 天津大学 一种室内同步定位与建图方法
CN110945565A (zh) * 2017-07-20 2020-03-31 罗伯特·博世有限公司 利用概率面元地图的密集视觉slam
WO2020063475A1 (zh) * 2018-09-25 2020-04-02 清华大学 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置
CN111091084A (zh) * 2019-12-10 2020-05-01 南通慧识智能科技有限公司 一种应用深度数据分布约束的运动估计方法
CN111476305A (zh) * 2020-04-10 2020-07-31 深圳前海达闼云端智能科技有限公司 Slam闭环检测方法、装置、介质和设备
CN111667506A (zh) * 2020-05-14 2020-09-15 电子科技大学 一种基于orb特征点的运动估计方法
CN111862162A (zh) * 2020-07-31 2020-10-30 湖北亿咖通科技有限公司 回环检测方法及系统、可读存储介质、电子设备
CN112184783A (zh) * 2020-09-22 2021-01-05 西安交通大学 一种结合图像信息的三维点云配准方法
CN112325770A (zh) * 2020-10-26 2021-02-05 武汉中海庭数据技术有限公司 一种车端单目视觉测量相对精度置信度评估方法及系统
CN112396167A (zh) * 2020-12-30 2021-02-23 桂林电子科技大学 一种外观相似度与空间位置信息融合的回环检测方法
CN112614166A (zh) * 2020-12-11 2021-04-06 北京影谱科技股份有限公司 基于cnn-knn的点云匹配方法和装置
CN112710312A (zh) * 2020-12-24 2021-04-27 哈尔滨工业大学芜湖机器人产业技术研究院 融合距离残差和概率残差的激光slam前端匹配方法
CN113284184A (zh) * 2021-05-24 2021-08-20 湖南大学 面向机器人rgbd视觉感知的6d位姿估计方法及系统
CN113739786A (zh) * 2021-07-30 2021-12-03 国网江苏省电力有限公司电力科学研究院 一种面向四足机器人的室内环境感知方法、装置及设备
CN114445410A (zh) * 2022-04-11 2022-05-06 武汉飞恩微电子有限公司 基于图像识别的电路板检测方法、计算机及可读存储介质
CN115797423A (zh) * 2022-12-07 2023-03-14 中国矿业大学(北京) 基于描述子特征优化矿山点云临近迭代的配准方法、系统
CN113702941B (zh) * 2021-08-09 2023-10-13 哈尔滨工程大学 一种基于改进icp的点云测速方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
CN103700069A (zh) * 2013-12-11 2014-04-02 武汉工程大学 一种基于orb算子的无参考视频平滑度的评价方法
CN103761737A (zh) * 2014-01-22 2014-04-30 北京工业大学 基于稠密光流的机器人运动估计方法
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
CN103700069A (zh) * 2013-12-11 2014-04-02 武汉工程大学 一种基于orb算子的无参考视频平滑度的评价方法
CN103761737A (zh) * 2014-01-22 2014-04-30 北京工业大学 基于稠密光流的机器人运动估计方法
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ALEKSANDR SEGAL ET AL: "Generalized-ICP", 《ROBOTICS: SCIENCE AND SYSTEMS V》 *
ETHAN RUBLEE ET AL: "ORB: an efficient alternative to SIFT or SURF", 《2011 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
MARIUS MUJA ET AL: "Scalable Nearest Neighbor Algorithms for High Dimensional Data", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
闵华松 等: "融合IMU的RGBD-SLAM 算法改进研究", 《计算机工程与设计》 *

Cited By (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105352508A (zh) * 2015-10-22 2016-02-24 深圳创想未来机器人有限公司 机器人定位导航方法及装置
CN108369420B (zh) * 2015-11-02 2021-11-05 星船科技私人有限公司 用于自主定位的设备和方法
CN108369420A (zh) * 2015-11-02 2018-08-03 星船科技私人有限公司 用于自主定位的设备和方法
US11747822B2 (en) 2015-11-02 2023-09-05 Starship Technologies Oü Mobile robot system and method for autonomous localization using straight lines extracted from visual images
US11579623B2 (en) 2015-11-02 2023-02-14 Starship Technologies Oü Mobile robot system and method for generating map data using straight lines extracted from visual images
US11042165B2 (en) 2015-11-02 2021-06-22 Starship Technologies Oü Mobile robot system and method for autonomous localization using straight lines extracted from visual images
WO2017107700A1 (zh) * 2015-12-21 2017-06-29 努比亚技术有限公司 一种实现图像配准的方法及终端
CN105488809B (zh) * 2016-01-14 2018-04-17 电子科技大学 基于rgbd描述符的室内场景语义分割方法
CN105488809A (zh) * 2016-01-14 2016-04-13 电子科技大学 基于rgbd描述符的室内场景语义分割方法
CN105719287B (zh) * 2016-01-19 2019-04-26 博众精工科技股份有限公司 一种不规则图形的对位方法
CN105719287A (zh) * 2016-01-19 2016-06-29 苏州博众精工科技有限公司 一种不规则图形的对位方法
CN106056643A (zh) * 2016-04-27 2016-10-26 武汉大学 一种基于点云的室内动态场景slam方法及系统
CN106056643B (zh) * 2016-04-27 2018-10-26 深圳积木易搭科技技术有限公司 一种基于点云的室内动态场景slam方法及系统
CN105856230A (zh) * 2016-05-06 2016-08-17 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN105856230B (zh) * 2016-05-06 2017-11-24 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106052674B (zh) * 2016-05-20 2019-07-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN106127739B (zh) * 2016-06-16 2021-04-27 华东交通大学 一种结合单目视觉的rgb-d slam方法
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN106447601A (zh) * 2016-08-31 2017-02-22 中国科学院遥感与数字地球研究所 一种基于投影‑相似变换的无人机遥感影像拼接方法
CN106408022A (zh) * 2016-09-20 2017-02-15 河南理工大学 基于简易采样方式和三值化策略的二值描述子构建方法
CN106408023A (zh) * 2016-09-20 2017-02-15 河南理工大学 基于点组比较策略的图像特征点二值描述及匹配方法
CN106408023B (zh) * 2016-09-20 2019-05-14 河南理工大学 基于点组比较策略的图像特征点二值描述及匹配方法
CN106408022B (zh) * 2016-09-20 2019-05-17 河南理工大学 基于简易采样方式和三值化策略的二值描述子构建方法
CN109710558A (zh) * 2016-11-03 2019-05-03 北京中科寒武纪科技有限公司 Slam运算装置和方法
CN106570913A (zh) * 2016-11-04 2017-04-19 上海玄彩美科网络科技有限公司 基于特征的单目slam快速初始化方法
CN106570913B (zh) * 2016-11-04 2019-12-13 上海玄彩美科网络科技有限公司 基于特征的单目slam快速初始化方法
CN106778767A (zh) * 2016-11-15 2017-05-31 电子科技大学 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN106778767B (zh) * 2016-11-15 2020-08-11 电子科技大学 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN106780576B (zh) * 2016-11-23 2020-03-17 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN110100217B (zh) * 2016-12-30 2022-06-07 罗伯特·博世有限公司 处理室内环境的非结构化数据的移动机器人设备
CN110100217A (zh) * 2016-12-30 2019-08-06 罗伯特·博世有限公司 处理室内环境的非结构化数据分割设施中房间来改进设备通过设施的移动的移动机器人设备
CN106856012A (zh) * 2017-01-12 2017-06-16 上海云拟科技有限公司 一种实时大规模场景三维扫描建模方法及系统
CN106856012B (zh) * 2017-01-12 2018-06-22 上海云拟科技有限公司 一种实时大规模场景三维扫描建模方法及系统
CN106875482A (zh) * 2017-01-13 2017-06-20 浙江大学 一种同时定位与稠密三维重建方法
CN106875482B (zh) * 2017-01-13 2020-04-28 浙江大学 一种同时定位与稠密三维重建方法
CN106897666B (zh) * 2017-01-17 2020-09-08 上海交通大学 一种室内场景识别的闭环检测方法
CN106897666A (zh) * 2017-01-17 2017-06-27 上海交通大学 一种室内场景识别的闭环检测方法
CN106846608A (zh) * 2017-01-25 2017-06-13 杭州视氪科技有限公司 一种基于rgb‑d相机的视障人士纸币识别眼镜
CN106875543A (zh) * 2017-01-25 2017-06-20 杭州视氪科技有限公司 一种基于rgb‑d相机的视障人士纸币识别系统及识别方法
CN106846608B (zh) * 2017-01-25 2019-03-01 杭州视氪科技有限公司 一种基于rgb-d相机的视障人士纸币识别眼镜
CN106952266B (zh) * 2017-03-17 2019-04-30 南昌航空大学 Rgbd序列场景流计算中深度图像优化方法
CN106952266A (zh) * 2017-03-17 2017-07-14 南昌航空大学 Rgbd序列场景流计算中深度图像优化方法
CN107016668A (zh) * 2017-03-23 2017-08-04 西安电子科技大学 基于视皮层方位选择性机理的无参考图像质量评价方法
CN107016668B (zh) * 2017-03-23 2019-08-13 西安电子科技大学 基于视皮层方位选择性机理的无参考图像质量评价方法
CN107093166A (zh) * 2017-04-01 2017-08-25 华东师范大学 低重合率显微图像的无缝拼接方法
CN107093166B (zh) * 2017-04-01 2019-07-05 华东师范大学 低重合率显微图像的无缝拼接方法
CN107256545A (zh) * 2017-05-09 2017-10-17 华侨大学 一种大圆机的破洞瑕疵检测方法
CN107316328B (zh) * 2017-05-11 2020-07-07 浙江大学 一种基于二维激光扫描仪角点特征的闭环检测方法
CN107316328A (zh) * 2017-05-11 2017-11-03 浙江大学 一种基于二维激光扫描仪角点特征的闭环检测方法
CN107272673A (zh) * 2017-05-18 2017-10-20 中山大学 基于位姿链模型的slam后端轨迹优化方法
CN107300917A (zh) * 2017-05-23 2017-10-27 北京理工大学 一种基于分层架构的视觉slam后端优化方法
CN107300917B (zh) * 2017-05-23 2019-07-09 北京理工大学 一种基于分层架构的视觉slam后端优化方法
CN110945565A (zh) * 2017-07-20 2020-03-31 罗伯特·博世有限公司 利用概率面元地图的密集视觉slam
WO2019041265A1 (zh) * 2017-08-31 2019-03-07 深圳市大疆创新科技有限公司 特征提取电路和图像处理集成电路
CN108496186A (zh) * 2017-08-31 2018-09-04 深圳市大疆创新科技有限公司 特征提取电路和图像处理集成电路
CN108133226B (zh) * 2017-11-27 2021-07-13 西北工业大学 一种基于harris改进的三维点云特征提取方法
CN108133226A (zh) * 2017-11-27 2018-06-08 西北工业大学 一种基于harris改进的三维点云特征提取方法
CN108010045A (zh) * 2017-12-08 2018-05-08 福州大学 基于orb的视觉图像特征点误匹配提纯方法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108053367A (zh) * 2017-12-08 2018-05-18 北京信息科技大学 一种基于rgb-d特征匹配的3d点云拼接与融合方法
CN108053367B (zh) * 2017-12-08 2021-04-20 北京信息科技大学 一种基于rgb-d特征匹配的3d点云拼接与融合方法
CN108196828A (zh) * 2017-12-11 2018-06-22 江苏大学 基于android智能手机的无人插秧机监控系统APP软件的设计方法
CN108090954A (zh) * 2017-12-15 2018-05-29 南方医科大学南方医院 基于图像特征的腹腔环境地图重建与腹腔镜定位的方法
CN108171734B (zh) * 2017-12-25 2022-01-07 西安因诺航空科技有限公司 一种orb特征提取与匹配的方法及装置
CN108171734A (zh) * 2017-12-25 2018-06-15 西安因诺航空科技有限公司 一种orb特征提取与匹配的方法及装置
CN108108716A (zh) * 2017-12-29 2018-06-01 中国电子科技集团公司信息科学研究院 一种基于深度信念网络的回环检测方法
CN108287550A (zh) * 2018-02-01 2018-07-17 速感科技(北京)有限公司 基于数据关联及错误检测的slam系统和构造数据关联的方法
CN108287550B (zh) * 2018-02-01 2020-09-11 速感科技(北京)有限公司 基于数据关联及错误检测的slam系统和构造数据关联的方法
CN108388902A (zh) * 2018-02-12 2018-08-10 山东大学 结合全局框架点与局部shot特征的复合3d描述子构建方法
CN108388902B (zh) * 2018-02-12 2020-07-07 山东大学 结合全局框架点与局部shot特征的复合3d描述子构建方法
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN108665496B (zh) * 2018-03-21 2021-01-26 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN108534797A (zh) * 2018-04-13 2018-09-14 北京航空航天大学 一种实时高精度视觉里程计方法
CN108921893B (zh) * 2018-04-24 2022-03-25 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN108776989A (zh) * 2018-06-08 2018-11-09 北京航空航天大学 基于稀疏slam框架的低纹理平面场景重建方法
CN108776989B (zh) * 2018-06-08 2022-06-24 北京航空航天大学 基于稀疏slam框架的低纹理平面场景重建方法
CN109117496A (zh) * 2018-06-25 2019-01-01 国网经济技术研究院有限公司 一种变电站工程临建布置三维模拟设计方法和系统
CN109117496B (zh) * 2018-06-25 2023-10-27 国网经济技术研究院有限公司 一种变电站工程临建布置三维模拟设计方法和系统
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
WO2020063475A1 (zh) * 2018-09-25 2020-04-02 清华大学 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置
US11200696B2 (en) 2018-09-25 2021-12-14 Tsinghua University Method and apparatus for training 6D pose estimation network based on deep learning iterative matching
CN109343540A (zh) * 2018-11-30 2019-02-15 广东工业大学 一种基于回环检测的slam后端轨迹优化方法
CN109739844B (zh) * 2018-12-26 2023-03-24 西安电子科技大学 基于衰减权重的数据分类方法
CN109739844A (zh) * 2018-12-26 2019-05-10 西安电子科技大学 基于衰减权重的数据分类方法
CN109727287B (zh) * 2018-12-27 2023-08-08 江南大学 一种适用于增强现实的改进注册方法及其系统
CN109727287A (zh) * 2018-12-27 2019-05-07 江南大学 一种适用于增强现实的改进注册方法及其系统
CN109682373A (zh) * 2018-12-28 2019-04-26 中国兵器工业计算机应用技术研究所 一种无人平台的感知系统
CN110009549A (zh) * 2019-03-14 2019-07-12 北京航空航天大学 一种旋转对称描述子的计算方法及硬件加速器
CN110021029A (zh) * 2019-03-22 2019-07-16 南京华捷艾米软件科技有限公司 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN110060277A (zh) * 2019-04-30 2019-07-26 哈尔滨理工大学 一种多特征融合的视觉slam方法
CN110309329A (zh) * 2019-05-09 2019-10-08 河南萱闱堂医疗信息科技有限公司 内镜检查中智能化识别和记录消化道组织和异物的方法
CN110689013A (zh) * 2019-10-10 2020-01-14 北京课程帮科技有限公司 一种基于特征识别的自动阅卷方法及系统
CN110738695B (zh) * 2019-10-12 2021-08-13 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN110738695A (zh) * 2019-10-12 2020-01-31 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN110703760B (zh) * 2019-10-30 2023-06-02 杭州叙简科技股份有限公司 一种用于安防巡检机器人的新增可疑物体检测方法
CN110703760A (zh) * 2019-10-30 2020-01-17 杭州叙简科技股份有限公司 一种用于安防巡检机器人的新增可疑物体检测方法
CN110887487A (zh) * 2019-11-14 2020-03-17 天津大学 一种室内同步定位与建图方法
CN110887487B (zh) * 2019-11-14 2023-04-18 天津大学 一种室内同步定位与建图方法
CN111091084A (zh) * 2019-12-10 2020-05-01 南通慧识智能科技有限公司 一种应用深度数据分布约束的运动估计方法
CN111476305A (zh) * 2020-04-10 2020-07-31 深圳前海达闼云端智能科技有限公司 Slam闭环检测方法、装置、介质和设备
CN111476305B (zh) * 2020-04-10 2023-04-07 达闼机器人股份有限公司 Slam闭环检测方法、装置、介质和设备
CN111667506A (zh) * 2020-05-14 2020-09-15 电子科技大学 一种基于orb特征点的运动估计方法
CN111667506B (zh) * 2020-05-14 2023-03-24 电子科技大学 一种基于orb特征点的运动估计方法
CN111862162A (zh) * 2020-07-31 2020-10-30 湖北亿咖通科技有限公司 回环检测方法及系统、可读存储介质、电子设备
CN112184783A (zh) * 2020-09-22 2021-01-05 西安交通大学 一种结合图像信息的三维点云配准方法
CN112325770A (zh) * 2020-10-26 2021-02-05 武汉中海庭数据技术有限公司 一种车端单目视觉测量相对精度置信度评估方法及系统
CN112614166A (zh) * 2020-12-11 2021-04-06 北京影谱科技股份有限公司 基于cnn-knn的点云匹配方法和装置
CN112710312A (zh) * 2020-12-24 2021-04-27 哈尔滨工业大学芜湖机器人产业技术研究院 融合距离残差和概率残差的激光slam前端匹配方法
CN112710312B (zh) * 2020-12-24 2023-12-01 长三角哈特机器人产业技术研究院 融合距离残差和概率残差的激光slam前端匹配方法
CN112396167B (zh) * 2020-12-30 2022-07-15 桂林电子科技大学 一种外观相似度与空间位置信息融合的回环检测方法
CN112396167A (zh) * 2020-12-30 2021-02-23 桂林电子科技大学 一种外观相似度与空间位置信息融合的回环检测方法
CN113284184A (zh) * 2021-05-24 2021-08-20 湖南大学 面向机器人rgbd视觉感知的6d位姿估计方法及系统
CN113739786A (zh) * 2021-07-30 2021-12-03 国网江苏省电力有限公司电力科学研究院 一种面向四足机器人的室内环境感知方法、装置及设备
CN113702941B (zh) * 2021-08-09 2023-10-13 哈尔滨工程大学 一种基于改进icp的点云测速方法
CN114445410A (zh) * 2022-04-11 2022-05-06 武汉飞恩微电子有限公司 基于图像识别的电路板检测方法、计算机及可读存储介质
CN115797423A (zh) * 2022-12-07 2023-03-14 中国矿业大学(北京) 基于描述子特征优化矿山点云临近迭代的配准方法、系统

Similar Documents

Publication Publication Date Title
CN104851094A (zh) 一种基于rgb-d的slam算法的改进方法
Zhu et al. Single image 3D object detection and pose estimation for grasping
JP4644248B2 (ja) 多重視野特徴記述子を用いた同時位置決め及びマッピング
Chhaya et al. Monocular reconstruction of vehicles: Combining slam with shape priors
Delmerico et al. Building facade detection, segmentation, and parameter estimation for mobile robot localization and guidance
CN103646391A (zh) 一种针对动态变化场景的实时摄像机跟踪方法
Qin et al. Semantic loop closure detection based on graph matching in multi-objects scenes
Li et al. Review of vision-based Simultaneous Localization and Mapping
Yang et al. CubeSLAM: Monocular 3D object detection and SLAM without prior models
Alcantarilla et al. Learning visibility of landmarks for vision-based localization
Ekekrantz et al. Adaptive iterative closest keypoint
Zhang LILO: A Novel Lidar–IMU SLAM System With Loop Optimization
Goldman et al. Robust epipolar geometry estimation using noisy pose priors
Jiang et al. Icp stereo visual odometry for wheeled vehicles based on a 1dof motion prior
Yousif et al. 3D SLAM in texture-less environments using rank order statistics
Zhou et al. SLAM-based 3D line reconstruction
Chen et al. Inertial aided 3D LiDAR SLAM with hybrid geometric primitives in large-scale environments
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment
Tsai et al. Detection of vanishing points using Hough transform for single view 3D reconstruction
Doaa et al. 3d graph-based vision-slam registration and optimization
Wang et al. Dense 3D mapping for indoor environment based on kinect-style depth cameras
Yeh et al. Model quality aware ransac: A robust camera motion estimator
Yousif et al. A real-time RGB-D registration and mapping approach by heuristically switching between photometric and geometric information
Ma et al. Homography-Driven Plane Feature Matching and Pose Estimation
Zhang et al. A survey of the simultaneous localization and mapping (SLAM) based on RGB-D camera

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150819

RJ01 Rejection of invention patent application after publication