CN109766758A - 一种基于orb特征的视觉slam方法 - Google Patents
一种基于orb特征的视觉slam方法 Download PDFInfo
- Publication number
- CN109766758A CN109766758A CN201811514700.7A CN201811514700A CN109766758A CN 109766758 A CN109766758 A CN 109766758A CN 201811514700 A CN201811514700 A CN 201811514700A CN 109766758 A CN109766758 A CN 109766758A
- Authority
- CN
- China
- Prior art keywords
- point
- winding
- matching
- optimization
- constraint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于ORB特征的视觉SLAM方法,属于计算机视觉机技术领域。本发明采用基于ORB特征的视觉SLAM方法,在前端环节通过改变传统的SIFT特征提取算法,采用实时性和鲁棒性更好的ORB特征提取算法,并利用汉明距进行特征匹配判断,大大地减少运算量,减少了计算所需硬件资源。在后端环节,遵循图优化的思想,设计了一种非线性的优化方法,提出一种基于局部回环和全局回环相结合的点云优化算法,能够完成对摄像机的位姿和产生的稠密点云图进行优化。最终不仅提高了整体视觉SLAM的实时性,也提高了回环检测的鲁棒性。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于ORB特征的视觉SLAM方法。
背景技术
SLAM(Simultaneous localization and mapping),即时定位与地图构建技术已经成为目前增强现实研究领域的研究热点。这种技术是通过运动物体自身的传感器获取运动信息,并在过程中同时计算自身的位姿信息和构建环境地图。而在用增强现实技术进行设备维修指导的应用中,存在一些问题:一是对环境地图构建速度慢;二是当视线脱离设备再次回来时候会出现目标对准移位的情况。总体来说是由于设备维修时所用的移动头戴设备硬件资源相对通用计算机来说计算能力不足,资源受限。而且在增强现实技术领域中与移动机器人领域不同,使用的主体是人,因而导致获取信息的摄像头运动更加灵活快速,自由度更加复杂多变。而且设备所处的环境中往往有复杂的纹理和光照,所以要改进传统的移动机器人领域的视觉SLAM方法。从而满足在增强现实技术领域的实时性和精确度要求。
传统移动机器人领域中的视觉SLAM技术可以分为前端处理和后端优化,前端处理通常是确定关键帧,然后比较关键帧的特征匹配进而增量式地计算出移动机器人的当前位姿与前后位姿的相对运动。后端优化部分则是通过非线性优化方法去修正前端处理过程中的累积误差,并可加入回环检测来进一步优化系统的精确性。
传统的移动机器人领域中的前端处理环节中用来提取图像特征的复杂度高,实时性很差;后端的优化与回环检测不适合于稠密点云地图。这就需要改进传统的移动机器人领域的视觉SLAM方法。
在传统的移动机器人领域的视觉SLAM中,在前端处理环节所提取关键帧的特征算法为SIFT算法,由此所得到特征描述符为128维,从而在关键帧特征匹配所用的时间长,占用了较多的运算资源,从而用到增强现实领域中导致实时性较差。而在传统的回环检测中,方法太极端,大致上分为随机回环或者全局回环。随机回环是针对前面的关键帧序列进行随机的相似性检测,这样虽然可以提高优化的实时性,但是整体回环检测的鲁棒性不高。反之,全局的回环检测要对之前所有关键帧序列都进行相似性检测,这样可以大大提高回环检测的鲁棒性,但是却降低了回环优化的实时性。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何针对增强现实用于装备维修时所需要的实时性和回环检测需求,发明一种基于ORB特征的视觉SLAM方法。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于ORB特征的视觉SLAM方法,包括前端处理环节、后端优化环节;
所述前端处理环节是基于ORB特性提取算法和汉明距进行特征匹配,其中采用了ORB特征提取算法,且在特征匹配时采用了汉明距来加速匹配速度;
在所述后端优化环节中基于图优化,进行局部与全局结合的回环检测对在前端处理过程中随着运动的累计所得到的累积误差进行减小。
优选地,所述前端处理环节分为以下三个阶段:
第一阶段:利用改进的FAST算法找出特征点
首先,对于关键帧中的每一个像素点f,其灰度设为If,设定一个合适的阈值t:当某两个点的灰度值之差的绝对值大于t时,定义这两个点为不同的点,当该像素点f周围半径r圆周上的像素点中有连续的n个点都和点f不同,则认为点f是一个角点;然后利用Harris角点的度量方法,从FAST特征点中挑选出Harris角点响应值最大的N个特征点,其中Harris角点的响应函数定义为:
R=detM-α(trace M)2
其中α为常数;
det表示矩阵的行列式,trace表示矩阵的迹;Ix表示函数对x的偏导数,Iy表示函数对y的偏导数;
第二阶段:利用BRIEF算法来构造特征点的描述子,并用汉明距来匹配特征描述子
首先在特征点f’的周围以一定模式选取N个点对,把这N个点对的比较结果组合起来作为描述子,设N个点对为P1(A,B),P2(A,B),P3(A,B),P4(A,B)…PN(A,B),定义操作T,当IA比IB大的时候,T(P(A,B))为1,反之为0,这样对已经选取的点对进行T操作,将得到的结果进行组合,这样就得到了01组合的描述子;同时为了解决特征描述子的旋转不变性的要求,需要建立具有旋转不变的坐标轴,具体方法是取当前特征点为原点,原点与区域灰度形心连线作为X轴,垂直于X轴方向为Y轴,其中区域灰度形心为Q(Qx,Qy),
I(x,y)表示对应坐标位置的灰度值,这样当以原点与区域灰度形心连线作为坐标轴时,在不同的旋转角度下以同一取点模式取出来的点是一致的,得到了01组合的描述子之后,需要进行特征点匹配判断,当两幅关键帧上的两个特征点的描述子的相似度大于一定的阈值时,则认为匹配成功,由于特征点的描述子被设计为01序列,因而利用异或求两个描述子的汉明距就可以快速将两个特征描述符进行匹配;
第三阶段:用RANSAC算法消除误匹配并进行位姿求解
为了消除误匹配项,首先对匹配点进行了初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测,最后利用PNP问题求解方法对摄像机的位姿运动进行求解。
优选地,n设置为9。
优选地,n设置为12。
优选地,第一阶段中,不对所有圆周上的点进行测试,而是仅对圆周上等分的四个元素点进行测试,如果不满足有三个元素点与点f相同,那么直接认为点f不是角点。
优选地,α取值范围为0.04~0.06。
优选地,所述后端优化环节包括以下3个阶段:
第一阶段:模型的建立
在以kinect为主要的摄像机输入视觉信号的情况下,构建出状态变量和观测方程这两个目标函数:
e(xk,yj,zk,j)=zk,j-g(xk,yj)
E(X)=∑(k,j)∈Ce(xk,yj,zk,j)TΩkj -1e(xk,yj,zk,j)
X*=argmin E(X)
其中,g()表示观测方程,xk,yj分别表示在第k时刻的摄像机的位姿、当前时刻摄像头所能观测到的第j个路标,zk,j表示两者之间的约束,e(xk,yj,zk,j)表示两个时刻之间的向量误差函数,当它接近于0时,代表累计误差最小,两个时刻完全满足匹配约束,设误差函数e(xk,yj,zk,j)符合高斯分布(0,Ωkj)。当假设噪声是高斯分布之后,可将其等效为一个非线性最小二乘问题;
第二阶段:图优化
后端优化环节中的第一阶段SLAM模型全部抽象成节点与边,则可以利用图优化工具g2o进行求解,其中节点代表了待优化的变量包括姿势节点和位置节点,边代表了误差项约束条件,包括姿势-位置约束和姿势-姿势约束,姿势-位置约束依赖于相机观测产生的约束,姿势-姿势约束则依赖于系统中局部回环和全局回环检测中产生的约束,进过优化之后可减少前端处理环节中的累积误差,从而得到更加精确的地图;
第三阶段:局部和全局结合的回环检测
通过动态计算回环帧筛选阈值,确定出高质量匹配的回环帧候选序列,在回环检测结束后,遍历回环帧的候选序列,在当前关键帧与待回环的候选帧之间,进行相似变换矩阵的求解与优化,当回环队列中的某一候选帧通过了相似变换矩阵的求解与优化,那么认为检测到了回环,则结束当前回环帧候选序列的遍历。
(三)有益效果
本发明采用基于ORB特征的视觉SLAM方法,在前端环节通过改变传统的SIFT特征提取算法,采用实时性和鲁棒性更好的ORB特征提取算法,并利用汉明距进行特征匹配判断,大大地减少运算量,减少了计算所需硬件资源。在后端环节,遵循图优化的思想,设计了一种非线性的优化方法,提出一种基于局部回环和全局回环相结合的点云优化算法,能够完成对摄像机的位姿和产生的稠密点云图进行优化。最终不仅提高了整体视觉SLAM的实时性,也提高了回环检测的鲁棒性。
附图说明
图1是本发明基于ORB特征的视觉SLAM基本流程图;
图2是本发明FAST算法找特征点示意图;
图3是本发明BRIEF算法构造描述子示意图;
图4是本发明原点与区域灰度形心连线作为坐标轴;
图5是本发明Ransac算法的流程图;
图6是本发明局部和全局回环下的位姿优化原理图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明提供的一种基于ORB特征的视觉SLAM的基本流程图如图1所示,分为前端处理环节、后端优化环节。具体过程如下:
前端处理环节:基于ORB特性提取算法和汉明距进行特征匹配
为了更加实时地得到关键帧的特征点以及在匹配时更加迅速,在前端处理环节采用了ORB特征提取算法,且在特征匹配时采用了汉明距来加速匹配速度。主要分为以下三个阶段:
第一阶段:利用改进的FAST算法找出特征点
首先,对于关键帧中的每一个像素点f,其灰度设为If,设定一个合适的阈值t:当某两个点的灰度值之差的绝对值大于t时,定义这两个点为不同的点,当该像素点f周围半径r圆周上的像素点,(见图2)以16个像素点为例,若其中有连续的n个点都和点f不同,则认为点f是一个角点,n可以设置为9,12等,为了快速排除非特征点的点,可以不对所有圆周上的点进行测试,而是仅对圆周上等分的四个元素点进行测试,如果不满足有三个元素点与点f相同,那么直接认为点f不是角点;然后利用Harris角点的度量方法,从FAST特征点中挑选出Harris角点响应值最大的N个特征点,其中Harris角点的响应函数定义为:
R=detM-α(trace M)2
其中α为常数,取值范围为0.04~0.06。
det表示矩阵的行列式,trace表示矩阵的迹;Ix表示函数对x的偏导数,Iy表示函数对y的偏导数;
第二阶段:利用BRIEF算法来构造特征点的描述子,并用汉明距来匹配特征描述子
首先在特征点f’的周围以一定模式选取N个点对,把这N个点对的比较结果组合起来作为描述子,(见图3)设N个点对为P1(A,B),P2(A,B),P3(A,B),P4(A,B)…PN(A,B),定义操作T,当IA比IB大的时候,T(P(A,B))为1,反之为0。这样对已经选取的点对进行T操作,将得到的结果进行组合,这样就得到了01组合的描述子;同时为了解决特征描述子的旋转不变性的要求,需要建立具有旋转不变的坐标轴,具体方法是取当前特征点为原点,原点与区域灰度形心连线作为X轴,垂直于X轴方向为Y轴,其中区域灰度形心为Q(Qx,Qy),
I(x,y)表示对应坐标位置的灰度值,这样当以原点与区域灰度形心连线作为坐标轴时(图4),在不同的旋转角度下以同一取点模式取出来的点是一致的。得到了01组合的描述子之后,需要进行特征点匹配判断,当两幅关键帧上的两个特征点的描述子的相似度大于一定的阈值时,则认为匹配成功。由于特征点的描述子被设计为01序列,因而利用异或求两个描述子的汉明距就可以快速将两个特征描述符进行匹配。
第三阶段:用RANSAC算法消除误匹配并进行位姿求解。
如图5所示,是用RANSAC算法消除误匹配的流程图。为了消除这些误匹配项,首先对匹配点进行了初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离。其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点。然后采取了RANSAC算法对匹配的特征点进行一致性检测,最后利用PNP问题求解方法对摄像机的位姿运动进行求解。
后端优化环节:基于图优化,局部与全局结合的回环检测
在获取到摄像机的位姿运动之后,将对应关键帧的3D点云图累积拼接,即可获取摄像机运动轨迹以及运动场景的稠密点云图;但是在前端处理过程中存在着明显的累积误差,随着运动的累计,这个误差会越来越大,从而造成严重的漂移。所以需要利用图优化和回环检测对累积误差进行减小;后端优化环节主要由以下3个阶段实现:
第一阶段:模型的建立
在以kinect为主要的摄像机输入视觉信号的情况下,构建出状态变量和观测方程这两个目标函数:
e(xk,yj,zk,j)=zk,j-g(xk,yj)
E(X)=∑(k,j)∈Ce9xk,yj,zk,j)TΩkj -1e(xk,yj,zk,j)
X*=argmin E(X)
其中g()表示观测方程,xk,yj分别表示在第k时刻的摄像机的位姿、当前时刻摄像头所能观测到的第j个路标,zk,j表示两者之间的约束,e(xk,yj,zk,j)表示两个时刻之间的向量误差函数,当它接近于0时,代表累计误差最小,两个时刻完全满足匹配约束,设误差函数e(xk,yj,zk,j)符合高斯分布(0,Ωkj)。当假设噪声是高斯分布之后,可将其等效为一个非线性最小二乘问题。
第二阶段:图优化
后端优化环节中的第一阶段SLAM模型全部抽象成节点与边,则可以利用图优化工具g2o进行求解。其中节点代表了待优化的变量,包括姿势节点和位置节点。边代表了误差项约束条件,包括姿势-位置约束和姿势-姿势约束。姿势-位置约束依赖于相机观测产生的约束,姿势-姿势约束则依赖于系统中局部回环和全局回环检测中产生的约束,如图6所示。进过优化之后,则可有效地减少前端处理环节中的累积误差,从而得到更加精确的地图。
第三阶段:局部和全局结合的回环检测
通过动态计算回环帧筛选阈值,确定出高质量匹配的回环帧候选序列,在回环检测结束后,遍历回环帧的候选序列,在当前关键帧与待回环的候选帧之间,进行相似变换矩阵的求解与优化,当回环队列中的某一候选帧通过了相似变换矩阵的求解与优化,那么认为检测到了回环,则结束当前回环帧候选序列的遍历。
可以看出,本发明针对移动机器人领域的视觉SLAM实时性差的不足,提出了在增强现实领域中可以提高视觉SLAM实时性的方法:一方面针对前端处理环节中用SIFT算法进行特征匹配时计算量大,从而采用实时性和鲁棒性更好的ORB特征提取算法,并利用汉明距进行特征匹配判断,大大地减少运算量。另一方面,遵循图优化的思想,设计了一种非线性的优化方法,提出一种基于局部回环和全局回环相结合的点云优化算法,能够完成对摄像机的位姿和产生的稠密点云图进行优化。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于ORB特征的视觉SLAM方法,其特征在于,包括前端处理环节、后端优化环节;
所述前端处理环节是基于ORB特性提取算法和汉明距进行特征匹配,其中采用了ORB特征提取算法,且在特征匹配时采用了汉明距来加速匹配速度;
在所述后端优化环节中基于图优化,进行局部与全局结合的回环检测对在前端处理过程中随着运动的累计所得到的累积误差进行减小。
2.如权利要求1所述的方法,其特征在于,所述前端处理环节分为以下三个阶段:
第一阶段:利用改进的FAST算法找出特征点
首先,对于关键帧中的每一个像素点f,其灰度设为If,设定一个合适的阈值t:当某两个点的灰度值之差的绝对值大于t时,定义这两个点为不同的点,当该像素点f周围半径r圆周上的像素点中有连续的n个点都和点f不同,则认为点f是一个角点;然后利用Harris角点的度量方法,从FAST特征点中挑选出Harris角点响应值最大的N个特征点,其中Harris角点的响应函数定义为:
R=det M-α(trace M)2
其中α为常数;
det表示矩阵的行列式,trace表示矩阵的迹;Ix表示函数对x的偏导数,Iy表示函数对y的偏导数;
第二阶段:利用BRIEF算法来构造特征点的描述子,并用汉明距来匹配特征描述子
首先在特征点f’的周围以一定模式选取N个点对,把这N个点对的比较结果组合起来作为描述子,设N个点对为P1(A,B),P2(A,B),P3(A,B),P4(A,B)...PN(A,B),定义操作T,当IA比IB大的时候,T(P(A,B))为1,反之为0,这样对已经选取的点对进行T操作,将得到的结果进行组合,这样就得到了01组合的描述子;同时为了解决特征描述子的旋转不变性的要求,需要建立具有旋转不变的坐标轴,具体方法是取当前特征点为原点,原点与区域灰度形心连线作为X轴,垂直于X轴方向为Y轴,其中区域灰度形心为Q(Qx,Qy),
I(x,y)表示对应坐标位置的灰度值,这样当以原点与区域灰度形心连线作为坐标轴时,在不同的旋转角度下以同一取点模式取出来的点是一致的,得到了01组合的描述子之后,需要进行特征点匹配判断,当两幅关键帧上的两个特征点的描述子的相似度大于一定的阈值时,则认为匹配成功,由于特征点的描述子被设计为01序列,因而利用异或求两个描述子的汉明距就可以快速将两个特征描述符进行匹配;
第三阶段:用RANSAC算法消除误匹配并进行位姿求解
为了消除误匹配项,首先对匹配点进行了初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测,最后利用PNP问题求解方法对摄像机的位姿运动进行求解。
3.如权利要求2所述的方法,其特征在于,n设置为9。
4.如权利要求2所述的方法,其特征在于,n设置为12。
5.如权利要求2所述的方法,其特征在于,第一阶段中,不对所有圆周上的点进行测试,而是仅对圆周上等分的四个元素点进行测试,如果不满足有三个元素点与点f相同,那么直接认为点f不是角点。
6.如权利要求2所述的方法,其特征在于,α取值范围为0.04~0.06。
7.如权利要求2所述的方法,其特征在于,所述后端优化环节包括以下3个阶段:
第一阶段:模型的建立
在以kinect为主要的摄像机输入视觉信号的情况下,构建出状态变量和观测方程这两个目标函数:
e(xk,yj,zk,j)=zk,j-g(xk,yj)
E(X)=∑(k,j)∈ce(xk,yj,zk,j)TΩkj -1e(xk,yj,zk,j)
X*=argmin E(X)
其中,g()表示观测方程,xk,yj分别表示在第k时刻的摄像机的位姿、当前时刻摄像头所能观测到的第j个路标,zk,j表示两者之间的约束,e(xk,yj,zk,j)表示两个时刻之间的向量误差函数,当它接近于0时,代表累计误差最小,两个时刻完全满足匹配约束,设误差函数e(xk,yj,zk,j)符合高斯分布(o,Ωkj)。当假设噪声是高斯分布之后,可将其等效为一个非线性最小二乘问题;
第二阶段:图优化
后端优化环节中的第一阶段SLAM模型全部抽象成节点与边,则可以利用图优化工具g2o进行求解,其中节点代表了待优化的变量,包括姿势节点和位置节点,边代表了误差项约束条件,包括姿势-位置约束和姿势-姿势约束,姿势-位置约束依赖于相机观测产生的约束,姿势-姿势约束则依赖于系统中局部回环和全局回环检测中产生的约束,进过优化之后可减少前端处理环节中的累积误差,从而得到更加精确的地图;
第三阶段:局部和全局结合的回环检测
通过动态计算回环帧筛选阈值,确定出高质量匹配的回环帧候选序列,在回环检测结束后,遍历回环帧的候选序列,在当前关键帧与待回环的候选帧之间,进行相似变换矩阵的求解与优化,当回环队列中的某一候选帧通过了相似变换矩阵的求解与优化,那么认为检测到了回环,则结束当前回环帧候选序列的遍历。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811514700.7A CN109766758A (zh) | 2018-12-12 | 2018-12-12 | 一种基于orb特征的视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811514700.7A CN109766758A (zh) | 2018-12-12 | 2018-12-12 | 一种基于orb特征的视觉slam方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109766758A true CN109766758A (zh) | 2019-05-17 |
Family
ID=66450595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811514700.7A Pending CN109766758A (zh) | 2018-12-12 | 2018-12-12 | 一种基于orb特征的视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109766758A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110455301A (zh) * | 2019-08-01 | 2019-11-15 | 河北工业大学 | 一种基于惯性测量单元的动态场景slam方法 |
CN110807818A (zh) * | 2019-10-29 | 2020-02-18 | 北京影谱科技股份有限公司 | 基于关键帧的rgb-dslam方法和装置 |
CN110907947A (zh) * | 2019-12-04 | 2020-03-24 | 同济人工智能研究院(苏州)有限公司 | 一种移动机器人slam问题中的实时回环检测方法 |
CN111915680A (zh) * | 2020-09-01 | 2020-11-10 | 山东新一代信息产业技术研究院有限公司 | 机器人定位方法、系统、电子装置及计算机可读介质 |
CN112362072A (zh) * | 2020-11-17 | 2021-02-12 | 西安恒图智源信息科技有限责任公司 | 一种复杂城区环境中的高精度点云地图创建系统及方法 |
WO2021051358A1 (en) * | 2019-09-19 | 2021-03-25 | Beijing Voyager Technology Co., Ltd. | Systems and methods for generating pose graph |
CN113587934A (zh) * | 2021-07-30 | 2021-11-02 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113808152A (zh) * | 2021-09-14 | 2021-12-17 | 南京信息工程大学 | 一种基于orb_slam2的无人机自主导航方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355197A (zh) * | 2016-08-24 | 2017-01-25 | 广东宝乐机器人股份有限公司 | 基于K‑means聚类算法的导航图像匹配过滤方法 |
CN107680133A (zh) * | 2017-09-15 | 2018-02-09 | 重庆邮电大学 | 一种基于改进闭环检测算法的移动机器人视觉slam方法 |
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
CN108171734A (zh) * | 2017-12-25 | 2018-06-15 | 西安因诺航空科技有限公司 | 一种orb特征提取与匹配的方法及装置 |
-
2018
- 2018-12-12 CN CN201811514700.7A patent/CN109766758A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355197A (zh) * | 2016-08-24 | 2017-01-25 | 广东宝乐机器人股份有限公司 | 基于K‑means聚类算法的导航图像匹配过滤方法 |
CN107680133A (zh) * | 2017-09-15 | 2018-02-09 | 重庆邮电大学 | 一种基于改进闭环检测算法的移动机器人视觉slam方法 |
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
CN108171734A (zh) * | 2017-12-25 | 2018-06-15 | 西安因诺航空科技有限公司 | 一种orb特征提取与匹配的方法及装置 |
Non-Patent Citations (3)
Title |
---|
RAUL MUR-ARTAL等: "ORB-SLAM:a Versatile and Accurate Monocular SLAM System", 《ARXIV:1502.00956V2[CS.RO]》 * |
余杰: "基于ORB关键帧闭环检测算法的SLAM方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 * |
高宏伟: "《电子封装工艺与装备技术基础教程》", 31 July 2017 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110455301A (zh) * | 2019-08-01 | 2019-11-15 | 河北工业大学 | 一种基于惯性测量单元的动态场景slam方法 |
WO2021051358A1 (en) * | 2019-09-19 | 2021-03-25 | Beijing Voyager Technology Co., Ltd. | Systems and methods for generating pose graph |
CN113557548A (zh) * | 2019-09-19 | 2021-10-26 | 北京航迹科技有限公司 | 生成位姿图的系统和方法 |
CN110807818A (zh) * | 2019-10-29 | 2020-02-18 | 北京影谱科技股份有限公司 | 基于关键帧的rgb-dslam方法和装置 |
CN110907947A (zh) * | 2019-12-04 | 2020-03-24 | 同济人工智能研究院(苏州)有限公司 | 一种移动机器人slam问题中的实时回环检测方法 |
CN111915680A (zh) * | 2020-09-01 | 2020-11-10 | 山东新一代信息产业技术研究院有限公司 | 机器人定位方法、系统、电子装置及计算机可读介质 |
CN112362072A (zh) * | 2020-11-17 | 2021-02-12 | 西安恒图智源信息科技有限责任公司 | 一种复杂城区环境中的高精度点云地图创建系统及方法 |
CN112362072B (zh) * | 2020-11-17 | 2023-11-14 | 西安恒图智源信息科技有限责任公司 | 一种复杂城区环境中的高精度点云地图创建系统及方法 |
CN113587934A (zh) * | 2021-07-30 | 2021-11-02 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113587934B (zh) * | 2021-07-30 | 2024-03-19 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113808152A (zh) * | 2021-09-14 | 2021-12-17 | 南京信息工程大学 | 一种基于orb_slam2的无人机自主导航方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109766758A (zh) | 一种基于orb特征的视觉slam方法 | |
Zou et al. | StructVIO: Visual-inertial odometry with structural regularity of man-made environments | |
CN108596974B (zh) | 动态场景机器人定位建图系统及方法 | |
CN107392964B (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
CN106055091B (zh) | 一种基于深度信息和校正方式的手部姿态估计方法 | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN109558879A (zh) | 一种基于点线特征的视觉slam方法和装置 | |
CN103854283B (zh) | 一种基于在线学习的移动增强现实跟踪注册方法 | |
CN106204574B (zh) | 基于目标平面运动特征的相机位姿自标定方法 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
CN110125928A (zh) | 一种基于前后帧进行特征匹配的双目惯导slam系统 | |
Wang et al. | Point cloud and visual feature-based tracking method for an augmented reality-aided mechanical assembly system | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN108597009A (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN109781092A (zh) | 一种危险化工事故中移动机器人定位与建图方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Cao et al. | Tracking registration algorithm for augmented reality based on template tracking | |
Yu et al. | Drso-slam: A dynamic rgb-d slam algorithm for indoor dynamic scenes | |
CN111626307A (zh) | 一种基于l-orb算法的植株图像实时拼接方法 | |
Darujati et al. | Facial motion capture with 3D active appearance models | |
Carraro et al. | Skeleton estimation and tracking by means of depth data fusion from depth camera networks | |
CN112200917A (zh) | 一种高精度增强现实方法及系统 | |
Belter et al. | Accurate map-based RGB-D SLAM for mobile robots | |
Jaramillo et al. | 6-DoF pose localization in 3D point-cloud dense maps using a monocular camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190517 |