CN106885574B - 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 - Google Patents
一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 Download PDFInfo
- Publication number
- CN106885574B CN106885574B CN201710081158.XA CN201710081158A CN106885574B CN 106885574 B CN106885574 B CN 106885574B CN 201710081158 A CN201710081158 A CN 201710081158A CN 106885574 B CN106885574 B CN 106885574B
- Authority
- CN
- China
- Prior art keywords
- track
- current
- tracking
- camera
- strategy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法。本方法为:1)对每张图片提取ORB特征;2)利用相邻图片的特征匹配跟踪相机姿态;3)对跟踪丢失的图片执行重定位与重跟踪策略;4)若重定位成功执行,则估计当前相机的姿态,且停止执行重跟踪策略并删除其产生的临时变量;5)若重跟踪策略成功执行,则产生一条新的轨迹;6)对产生的轨迹数量进行判定,若数量超过阈值,则将最初始的轨迹剔除;7)对每个关键帧进行闭环检测,检测成功后进行轨迹融合;8)定位系统结束时,对所述轨迹进行筛选,得到一条姿态正确的轨迹。本发明的优势在于能在快速移动、遮挡、纹理不足、光照变化的条件下,定位完整的相机轨迹。
Description
技术领域
本发明属于基于单摄像头的移动机器人自主定位与导航领域,特别涉及一种基于重跟踪策略的单目视觉同步定位与地图构建方法。
背景技术
随着计算机技术和人工智能的发展,机器人的研究得到越来越多的关注和投入,智能自主移动机器人成为机器人领域的一个重要研究方向和研究热点。同步定位与地图构建(simultaneous localization and mapping,SLAM)问题是指移动机器人在未知环境中,利用自身的传感器(如激光雷达、里程计、摄像头、超声波等)创建一个与环境相一致的地图,并同时利用该地图对机器人的位置和姿态进行估计。该问题被认为能否真正实现机器人自主导航的关键问题。
近年来,随着计算机视觉技术的发展以及计算机运算能力的增强,出现了大量利用摄像机作为传感器的视觉SLAM方法。视觉传感器具有信息量大、灵活性高、成本低等优点,这是其他传感器所无法比拟的。单目视觉SLAM仅使用一个摄像头作为传感器完成同步定位与地图创建操作,具有系统结构简单、成本低且易实现等优点。因此,基于单目视觉SLAM技术具有广阔的应用前景。
现有的解决单目SLAM的方法主要分为基于概率框架的单目视觉SLAM方法和非概率框架的单目视觉SLAM方法。基于概率框架的单目视觉SLAM方法主要通过递归的贝叶斯滤波方法估计相机姿态和地图特征的空间位置,常用的解决方法有基于扩展卡尔曼滤波器(extended Kalman filter)或粒子滤波器(particle filter)。非概率框架的单目视觉SLAM系统目前主要是基于关键帧和稀疏捆绑调整等优化算法实现,常用的解决方法有直接法或基于特征的方法。
非概率框架的单目视觉SLAM系统要求相邻两帧的基线较短(small baseline),以便系统能够估计每帧的姿态。当跟踪丢失(tracking lost),即当前帧的姿态无法被正确估计时,系统采用重定位策略,只有当机器人回到曾经经过的地点时,SLAM系统才能继续定位相机的位置并重建周围环境。这种策略的缺点在于从跟踪丢失到重定位成功之间,相机的姿态和地图无法重建出来。
发明内容
针对现有技术存在的技术问题,本发明的目的是提供一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法;本发明致力于解决传统方法中由于使用重定位策略导致跟踪丢失后部分相机姿态和环境无法估计与建模的问题,创新性地提出了一种重跟踪策略,提高了相机姿态估计的成功率以及地图重建的完整率。
本发明采用的技术方案如下:
一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法,其步骤为:
1)输入摄像头捕获的场景图像,对每张图片提取ORB特征;
2)利用相邻图片的特征匹配跟踪相机姿态并估计特征点的深度信息;因特征匹配失败而导致相机姿态无法被估计定义为跟踪丢失;
3)对所述跟踪丢失的图片执行重定位与重跟踪策略;所述重跟踪策略采用局部初始化算法;
4)若所述重定位成功执行,则估计当前相机的姿态,且停止执行所述重跟踪策略并删除其产生的临时变量;
5)若所述重跟踪成功执行,则产生一条新的轨迹;
6)对所述产生的轨迹数量进行判定,若数量超过阈值,则将最初始的轨迹剔除;
7)对每个关键帧进行闭环检测,检测成功后进行轨迹融合;
8)定位系统结束时,对所述轨迹进行筛选,得到一条姿态正确的轨迹。
上述方法对跟踪丢失这种情况采用了重定位与重跟踪(局部初始化)两种策略。下面进一步具体说明本发明的技术内容:
1.局部初始化
本发明的局部初始化算法改进于ORB-SLAM(参考文献:R.Mur-Artal,J.M.MMontiel,and J.D.Tardos.ORB-SLAM:a versatile and accurate monocular SLAMsystem.IEEE Transactions on Robotics,2015)的自动地图初始化算法。当系统检测到跟踪丢失时,局部初始化的过程如下:
a)查找初始匹配点对:
提取当前帧的ORB特征,搜索当前帧与参考帧(首次迭代时,以跟踪丢失前的最后一个关键帧为参考帧)的特征点匹配个数。若匹配数量大于设定阈值,则执行b);否则,将当前帧设置为参考帧,重新执行a)。
b)模型选择:
采用RANSAC(Random Sample Consensus,随机抽样一致性)策略,分别用八点法与四点法估计基本矩阵F(Foundamental matrix)与单应矩阵H(Homography matrix),并计算相应的重投影误差,选择误差小的矩阵作为系统模型。
c)运动估计与地图构建:
利用上述b)中选择的模型,计算相机的姿态以及构建环境地图。
2.轨迹修正与融合
Loop closure即轨迹闭环,是指相机捕获的当前场景与先前走过的场景一样,即相机回到曾经经过的地方。利用该闭环,可以大大消除累计误差。具体步骤如下:
a)计算当前关键帧c与闭环关键帧l的相似变换Sc,l,获取累计误差:
其中,sc,l为正实数,表明尺度因子;Rc,l与tc,l分别为旋转矩阵与平移矩阵,Sim(3)为相似变换群。
b)用Sc,l修正当前关键帧的姿态Tc,w:
c)修正当前关键帧所在轨迹的其余关键帧。该步骤分为两种情况:一、若当前关键帧与闭环关键帧属于同一条轨迹,则修正当前关键帧的所有邻接关键帧,该过程与ORB-SLAM的方法一致;二、若当前关键帧与闭环关键帧属于不同的轨迹,则按从后向前的顺序修正当前轨迹上的所有关键帧,并将当前轨迹融合进闭环轨迹。该过程分两步执行,首先计算当前轨迹上相邻关键帧的相对姿态:
其中σ=(1,2,...,n-1),n为当前轨迹的关键帧数量;是Tc-σ,w的逆矩阵,Tc-σ,w是第c-σ帧在世界坐标系w的姿态。
其次,利用计算出的相对姿态从后向前修正当前轨迹剩余关键帧的姿态:
其中σ=(1,2,...,n-1),n为当前轨迹的关键帧数量;是ΔTc-σ+1,c-σ的逆矩阵
d)将当前轨迹的标签更改为闭环关键帧所在轨迹的标签。
3.轨迹删除
实际应用中,遮挡、抖动、纹理不足等状况可能使跟踪丢失的情况频繁出现,进而使SLAM系统产生多条轨迹。然而,SLAM系统只需要输出一条准确的相机轨迹,因此需要删除多余的相机轨迹。
本发明的有益效果是:
本发明提供了一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法,能够解决传统方法中由于使用重定位策略导致跟踪丢失后部分相机姿态和环境无法估计与建模的问题,通过重跟踪策略提高了相机姿态估计的成功率以及地图重建的完整率。本发明的优势在于能在快速移动、遮挡、纹理不足、光照变化的条件下,定位完整的相机轨迹。
附图说明
图1.本发明方法的总体框架图;
图2.本发明方法中生成新轨迹以及修正与融合轨迹的示意图。
具体实施方式
下面通过具体实施例和附图,对本发明做进一步说明。
参考图1,本发明流程图的具体设计如下:
1.输入摄像头捕获的场景图像:
本发明以30fps的速率处理普通数码摄像机采集的图像。需要注意的是,由于纯旋转运动没有时差,不能估计特征点的深度,因此要求系统开始运行时摄像机有一定的水平运动,且运动速度不宜太快,以便于完成系统的初始化。
2.判断是否跟踪丢失
若通过上一帧图像无法估计出相机姿态,则认为系统跟踪丢失,执行步骤4;否则,执行步骤3。
3.提取ORB特征并估计相机姿态
ORB是一种具有尺度与旋转不变性的特征提取算法。本发明利用开源计算机视觉数据库(OpenCV)中自带的特征点提取算法提取每帧图像的ORB特征。用RANSAC迭代算法与PnP(Perspective-N-Points)算法获取该图像与参考关键帧的特征点匹配以及相机的姿态。若特征点匹配个数太少导致无法估计出相机姿态,则跟踪丢失。
4.判断重定位是否成功
当系统处于跟踪丢失的状态时,需要对每一帧图像执行重定位算法(relocalization),该算法为现有的一种算法,其将图像转换成词袋模型(bag of words)并且在识别词典(recognition database)中查询匹配的关键帧(keyframe candidates),若查询到相匹配的关键帧,则说明重定位成功,删除由局部初始化产生的临时变量,然后估计相机的姿态与恢复地图构建,执行步骤6;若查询不到相匹配的关键帧,则说明重定位失败,执行步骤5。
5.判断局部初始化是否成功
若局部初始化成功,系统首先判断轨迹数量是否超过设定阈值Tr,如超过阈值,则首先删除由局部初始化生成的标签最小的轨迹,然后再生成新的轨迹,否则直接从当前位置生成新的轨迹。如图2(a)所示,l0是系统跟踪的原始轨迹,在帧i处跟踪丢失,由于重定位与局部初始化均失败,相机轨迹出现中断,如虚线b1所示。在虚线末尾,局部初始化成功,生成新的轨迹l1。
6.修正与融合轨迹
当系统检测到闭环时,需要修正轨迹的累计误差。若当前关键帧与闭环关键帧分别属于不同的轨迹,还需要将当前轨迹融合进闭环轨迹。如图2(b)所示,当前关键帧j与闭环关键帧k形成闭环,两帧之间存在累计误差,如j与k之间虚线所示。此时,需要修正当前轨迹l2的误差,并将其融合进轨迹l0,表示为l'0,如图2(c)所示。
7.删除冗余轨迹
实际应用中,遮挡、抖动等状况可能使跟踪丢失的情况频繁出现,进而使SLAM系统产生多条轨迹。然而,对轨迹跟踪或者场景重建这类任务来说,SLAM系统只需要输出一条准确的相机轨迹。在这里,冗余轨迹定义为未能与初始轨迹形成闭环的轨迹,若第一次跟踪丢失前的轨迹标签为0,由局部初始化算法生成的轨迹的标签逐渐递增,则在系统即将结束时,需要将标签不为0的轨迹删除。具体方法为:首先在关键帧数据库(keyframe database)上删除冗余轨迹上所有的关键帧,然后在重建地图中(map point)中删除这些关键帧对应的点云图。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。
Claims (6)
1.一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法,其步骤为:
1)输入摄像头捕获的场景图像,对每张图片提取ORB特征;
2)利用相邻图片的特征匹配跟踪相机姿态;
3)在跟踪丢失时,对跟踪丢失的图片执行重定位与重跟踪策略;所述重跟踪策略采用局部初始化算法;所述局部初始化包括以下步骤:
a)查找初始匹配点对:提取当前帧的ORB特征,搜索当前帧与参考帧的特征点匹配个数,若匹配数量大于设定阈值,则执行b);否则将当前帧设置为参考帧,重新执行a);
b)模型选择:采用RANSAC策略,分别用八点法与四点法估计基本矩阵F与单应矩阵H,并计算相应的重投影误差,选择误差小的矩阵作为系统模型;
c)运动估计与地图构建:利用上述b)中选择的模型,计算相机的姿态以及构建环境地图;
4)若所述重定位成功执行,则估计当前相机的姿态,且停止执行所述重跟踪策略并删除其产生的临时变量;然后执行步骤7);
5)若所述重跟踪策略成功执行,则产生一条新的轨迹;
6)对产生的轨迹数量进行判定,若数量超过阈值,则将最初始的轨迹剔除;
7)对每个关键帧进行闭环检测,检测成功后进行轨迹融合;进行轨迹融合的方法为:首先计算当前关键帧与闭环关键帧的相似变换矩阵Sc,l;然后用Sc,l修正当前关键帧的姿态Tc,w,获得修正后的姿态然后修正当前关键帧所在轨迹的关键帧;最后将当前轨迹的标签更改为闭环关键帧所在轨迹的标签;
8)对轨迹进行筛选,删除冗余轨迹,得到一条姿态正确的轨迹。
2.如权利要求1所述的方法,其特征在于,其具体执行流程为:
a)输入摄像头捕获的场景图像;
b)判断是否跟踪丢失,若是则执行步骤c),否则执行步骤d);
c)重定位当前图像,若成功,则删除临时变量,执行步骤d);否则执行步骤e);
d)提取ORB特征并估计相机姿态;执行步骤g);
e)局部初始化相机轨迹,若成功,执行步骤f),否则执行步骤g);
f)判断轨迹数量,若超过给定阈值,先删除标签最小的轨迹,再从当前位置生成新的轨迹;否则直接从当前位置生成新的轨迹;
g)检测闭环,若形成闭环,则修正并融合轨迹;
h)判断系统状态,若系统即将结束,则删除冗余轨迹;否则返回步骤a)。
3.如权利要求1所述的方法,其特征在于,对图像提取ORB特征,并采用RANSAC策略与PnP算法估计相机姿态。
4.如权利要求1所述的方法,其特征在于,系统在第一次跟踪丢失发生前,产生的轨迹标签设置为0。
5.如权利要求1所述的方法,其特征在于,修正当前关键帧所在轨迹的关键帧时,分两种情况考虑:一,若当前关键帧与闭环关键帧属于同一条轨迹,则修正当前关键帧的所有邻接关键帧;二,若当前关键帧与闭环关键帧属于不同的轨迹,则按从后向前的顺序修正当前轨迹上的所有关键帧。
6.如权利要求1所述的方法,其特征在于,系统在即将结束时删除冗余的轨迹的方法为:标签不为0的轨迹都属于冗余的轨迹,首先在关键帧数据库上删除这些轨迹上的关键帧;然后在重建地图中中删除这些关键帧对应的点云图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710081158.XA CN106885574B (zh) | 2017-02-15 | 2017-02-15 | 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710081158.XA CN106885574B (zh) | 2017-02-15 | 2017-02-15 | 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106885574A CN106885574A (zh) | 2017-06-23 |
CN106885574B true CN106885574B (zh) | 2020-02-07 |
Family
ID=59179268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710081158.XA Active CN106885574B (zh) | 2017-02-15 | 2017-02-15 | 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106885574B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6775263B2 (ja) * | 2016-12-02 | 2020-10-28 | 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. | 測位方法及び装置 |
CN107741745B (zh) * | 2017-09-19 | 2019-10-22 | 浙江大学 | 一种实现移动机器人自主定位与地图构建的方法 |
CN107589749B (zh) * | 2017-09-19 | 2019-09-17 | 浙江大学 | 水下机器人自主定位与节点地图构建方法 |
US11175148B2 (en) * | 2017-09-28 | 2021-11-16 | Baidu Usa Llc | Systems and methods to accommodate state transitions in mapping |
WO2019068222A1 (en) * | 2017-10-06 | 2019-04-11 | Qualcomm Incorporated | SIMULTANEOUS RELOCATION AND RESETTING OF VSLAM |
CN107990899B (zh) * | 2017-11-22 | 2020-06-30 | 驭势科技(北京)有限公司 | 一种基于slam的定位方法和系统 |
CN109839118A (zh) * | 2017-11-24 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 路径规划方法、系统、机器人和计算机可读存储介质 |
US10636198B2 (en) * | 2017-12-28 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for monocular simultaneous localization and mapping |
CN108062776B (zh) * | 2018-01-03 | 2019-05-24 | 百度在线网络技术(北京)有限公司 | 相机姿态跟踪方法和装置 |
CN110119649B (zh) * | 2018-02-05 | 2021-03-26 | 浙江商汤科技开发有限公司 | 电子设备状态跟踪方法、装置、电子设备及控制系统 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
CN108564616B (zh) * | 2018-03-15 | 2020-09-01 | 中国科学院自动化研究所 | 快速鲁棒的rgb-d室内三维场景重建方法 |
CN108876854B (zh) * | 2018-04-27 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN108615247B (zh) * | 2018-04-27 | 2021-09-14 | 深圳市腾讯计算机系统有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN108615248B (zh) * | 2018-04-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN110555883B (zh) * | 2018-04-27 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置及存储介质 |
CN108955687A (zh) * | 2018-05-31 | 2018-12-07 | 湖南万为智能机器人技术有限公司 | 移动机器人的综合定位方法 |
CN110727265B (zh) * | 2018-06-28 | 2022-09-23 | 深圳市优必选科技有限公司 | 机器人重定位的方法、装置以及存储装置 |
WO2020000395A1 (en) | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for robust self-relocalization in pre-built visual map |
US10948297B2 (en) * | 2018-07-09 | 2021-03-16 | Samsung Electronics Co., Ltd. | Simultaneous location and mapping (SLAM) using dual event cameras |
US10953545B2 (en) * | 2018-08-13 | 2021-03-23 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for autonomous navigation using visual sparse map |
CN111322993B (zh) * | 2018-12-13 | 2022-03-04 | 杭州海康机器人技术有限公司 | 一种视觉定位方法和装置 |
CN109631855B (zh) * | 2019-01-25 | 2020-12-08 | 西安电子科技大学 | 基于orb-slam的高精度车辆定位方法 |
CN109813327B (zh) * | 2019-02-01 | 2022-06-07 | 安徽中科美络信息技术有限公司 | 一种车辆行驶轨迹缺失补偿方法 |
CN110174107B (zh) * | 2019-04-30 | 2021-07-27 | 厦门大学 | 一种导览机器人定位建图激光视觉融合方法和机器人 |
US11604284B2 (en) * | 2019-05-06 | 2023-03-14 | Waymo Llc | Methods and systems to determine a strategy for a drop process associated with a light detection and ranging (LIDAR) device |
CN110095111A (zh) * | 2019-05-10 | 2019-08-06 | 广东工业大学 | 一种地图场景的构建方法、构建系统及相关装置 |
CN110587597B (zh) * | 2019-08-01 | 2020-09-22 | 深圳市银星智能科技股份有限公司 | 一种基于激光雷达的slam闭环检测方法及检测系统 |
CN111578947B (zh) * | 2020-05-29 | 2023-12-22 | 国网浙江省电力有限公司台州市椒江区供电公司 | 具有深度恢复能力的无人机单目slam可扩展框架 |
CN111780763B (zh) * | 2020-06-30 | 2022-05-06 | 杭州海康机器人技术有限公司 | 一种基于视觉地图的视觉定位方法、装置 |
CN113103232B (zh) * | 2021-04-12 | 2022-05-20 | 电子科技大学 | 一种基于特征分布匹配的智能设备自适应运动控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102866706A (zh) * | 2012-09-13 | 2013-01-09 | 深圳市银星智能科技股份有限公司 | 一种采用智能手机导航的清扫机器人及其导航清扫方法 |
CN103824080A (zh) * | 2014-02-21 | 2014-05-28 | 北京化工大学 | 动态稀疏环境下机器人slam物体状态检测方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN105513083A (zh) * | 2015-12-31 | 2016-04-20 | 新浪网技术(中国)有限公司 | 一种ptam摄像机跟踪方法及装置 |
CN105607071A (zh) * | 2015-12-24 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9420265B2 (en) * | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
WO2015006224A1 (en) * | 2013-07-08 | 2015-01-15 | Vangogh Imaging, Inc. | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis |
US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
US10185775B2 (en) * | 2014-12-19 | 2019-01-22 | Qualcomm Technologies, Inc. | Scalable 3D mapping system |
-
2017
- 2017-02-15 CN CN201710081158.XA patent/CN106885574B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102866706A (zh) * | 2012-09-13 | 2013-01-09 | 深圳市银星智能科技股份有限公司 | 一种采用智能手机导航的清扫机器人及其导航清扫方法 |
CN103824080A (zh) * | 2014-02-21 | 2014-05-28 | 北京化工大学 | 动态稀疏环境下机器人slam物体状态检测方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN105607071A (zh) * | 2015-12-24 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
CN105513083A (zh) * | 2015-12-31 | 2016-04-20 | 新浪网技术(中国)有限公司 | 一种ptam摄像机跟踪方法及装置 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
Non-Patent Citations (9)
Title |
---|
"A robust, multi-hypothesis approach to matching occupancy grid maps";Jose-Luis Blanco等;《ROBOTICA ROBOTICA》;20131231;第31卷;687-701 * |
"Continuous quality improvement process to track lost radiographs and reduce losses";Blane, Caroline E.等;《Canadian Association of Radiologists journal》;20111231;第52卷(第6期);373-378 * |
"一种基于改进ORB的视觉SLAM图像匹配算法";张洋等;《装甲兵工程学院学报》;20161231;第30卷(第6期);82-88 * |
"单目视觉同步定位与地图创建方法综述";顾照鹏等;《智能系统学报》;20150831;第10卷(第4期);499-507 * |
"基于单目视觉的同时定位与地图构建方法综述";刘浩敏等;《计算机辅助设计与图形学学报》;20160630;第28卷(第6期);855-868 * |
"基于单目视觉的同时定位与地图重建算法研究";孟旭炯;《中国博士学位论文全文数据库 信息科技辑》;20110815(第8期);I140-55 * |
"基于单目视觉的移动机器人SLAM问题的研究";李捐;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140315(第3期);I140-398 * |
"基于视觉FastSLAM的移动机器人自主探索方法";崔帅等;《模式识别与人工智能》;20161231;第29卷(第12期);1083-1094 * |
"自然环境中基于图优化的单目视觉SLAM的研究";郑顺凯;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160715(第7期);I138-1000 * |
Also Published As
Publication number | Publication date |
---|---|
CN106885574A (zh) | 2017-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106885574B (zh) | 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 | |
CN110533587B (zh) | 一种基于视觉先验信息和地图恢复的slam方法 | |
CN109544636B (zh) | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 | |
Lv et al. | Single view human action recognition using key pose matching and viterbi path searching | |
CN111445526B (zh) | 一种图像帧之间位姿的估计方法、估计装置和存储介质 | |
Luo et al. | Real-time dense monocular SLAM with online adapted depth prediction network | |
US9904845B2 (en) | Body feature detection and human pose estimation using inner distance shape contexts | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
US9299161B2 (en) | Method and device for head tracking and computer-readable recording medium | |
Fu et al. | Fast ORB-SLAM without keypoint descriptors | |
CN108537844B (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
WO2018214086A1 (zh) | 场景的三维重建方法、装置及终端设备 | |
CN116592897B (zh) | 基于位姿不确定性的改进orb-slam2定位方法 | |
Luo et al. | BEVPlace: Learning LiDAR-based place recognition using bird's eye view images | |
CN110533661A (zh) | 基于图像特征级联的自适应实时闭环检测方法 | |
CN111242985A (zh) | 基于马尔科夫模型的视频多行人追踪方法 | |
Hao et al. | LMVI-SLAM: Robust low-light monocular visual-inertial simultaneous localization and mapping | |
Alcantarilla et al. | Learning visibility of landmarks for vision-based localization | |
Zhang et al. | Robust head tracking based on multiple cues fusion in the kernel-bayesian framework | |
Zhou et al. | RVD-SLAM: A Real-time Visual SLAM towards Dynamic Environments Based on Sparsely Semantic Segmentation and Outlier Prior | |
Gong et al. | Real-time visual SLAM based YOLO-Fastest for dynamic scenes | |
Tomono | 3D localization based on visual odometry and landmark recognition using image edge points | |
CN106023252A (zh) | 一种基于oab算法的多摄像机人体跟踪方法 | |
CN112200850B (zh) | 一种基于成熟特征点的orb提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |