CN106875482B - 一种同时定位与稠密三维重建方法 - Google Patents

一种同时定位与稠密三维重建方法 Download PDF

Info

Publication number
CN106875482B
CN106875482B CN201710024828.4A CN201710024828A CN106875482B CN 106875482 B CN106875482 B CN 106875482B CN 201710024828 A CN201710024828 A CN 201710024828A CN 106875482 B CN106875482 B CN 106875482B
Authority
CN
China
Prior art keywords
camera
dimensional
frame
key frame
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710024828.4A
Other languages
English (en)
Other versions
CN106875482A (zh
Inventor
鲍虎军
章国锋
刘浩敏
李晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710024828.4A priority Critical patent/CN106875482B/zh
Publication of CN106875482A publication Critical patent/CN106875482A/zh
Application granted granted Critical
Publication of CN106875482B publication Critical patent/CN106875482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开了一种同时定位与稠密三维重建方法,该方法能够鲁棒的处理快速运动和频繁回路闭合,在较大规模的场景下可以无限时间运行。该方法除了可以用来扫描高质量的三维模型,还可以满足虚拟现实和增强现实的需求。该方法提出了一种基于关键帧的同时定位与地图构建的框架。首先,同时利用深度和颜色信息,基于关键帧的定位可以在CPU上高速运行,并且可以鲁棒地运行在具有挑战性的场景下。为减少累计误差,本发明引入了增量集束调整,可以极大的减少运算量,同时将局部和和全局集束调整在一个统一的框架下完成。其次,本发明提出了基于关键帧的一种融合方法,可以在线生成模型并在关键帧姿态调整时实时更新三维模型。

Description

一种同时定位与稠密三维重建方法
技术领域
本发明涉及一种可应用于增强现实、虚拟现实、机器人导航等领域的同时定位与稠密三维重建方法,尤其涉及一种同时定位与稠密三维重建方法。
背景技术
同时定位与地图构建(SimultaneouslyLocatingandMapping,SLAM)是机器人和计算机视觉领域的一个基本问题。在过去的几时年来,实时运动结构学(StructurefromMotion)和视觉SLAM有很多成功的应用。然而,视觉SLAM难以处理无纹理的场景,而且要做到实时稳定地恢复稠密三维结构也比较困难。使用深度传感器可以帮助解决这两个问题。随着深度传感器(如微软Kinect和英特尔RealSense 3D相机)的流行,大量基于RGB-D的SLAM方案得到提出。
大多数稠密的SLAM方法使用帧到帧或帧到模型的对准方法,这类方法很容易累计误差,在具有挑战性的场景下容易失败。一些方法提出使用非刚性网格变形优化模型,减小累积误差。然而由于不精确的对准导致的模型误差无法得到消除,并且会进一步增大对准误差。
最近,BundleFusion[A.Dai,M.Nieβner,M.
Figure BDA0001209323380000011
S.Izadi,andC.Theobalt.BundleFusion:Real-time globally consistent 3d reconstruction usingonline surface re-integration.arXiv preprint arXiv:1604.01093,2016.]提出了端到端的实时重建系统。BundleFusion使用所有的RGB-D输入数据,层次化的优化所有的相机姿态和三维模型。不同于前面的帧到模型的对准方法,BundleFusion采用每一帧和所有帧的暴力匹配求解相机姿态。为此,BundleFusion使用两颗强GPU(NVIDIA GeForce GTXTitan X和GTX Titan Black)以达到实时运行。同时,它保存所有的输入数据,有极大的内存消耗从而限制了其运行场景大小和运行时间。
近年来,许多研究者提出了不同的基于RGB-D相机进行稠密三维重建和实时同事定位与地图构建的方法。Huang[A.S.Huang,A.Bachrach,P.Henry,M.Krainin,D.Maturana,D.Fox,and N.Roy.Visual odometry and mapping for autonomous flight using anRGB-D camera.In Robotics Research-The 15th International Symposium ISRR,9-12December 2011,Flagstaff,Arizona,USA,pages 235–252,2011.]等人提出使用RGB-D数据进行实时的运动测量,使用稀疏的BA进行离线稠密三维重建。Endres[F.Endres,J.Hess,J.Sturm,D.Cremers,and W.Burgard.3-d mapping with an rgb-d camera.IEEETransactions on Robotics,30(1):177–187,2014.]等提出使用视觉特征结合深度信息估计相机姿态,用三维网格占据率表示场景。Kerl[C.Kerl,J.Sturm,and D.Cremers.Densevisual SLAM for RGB-D cameras.In 2013 IEEE/RSJ International Conference onIntelligent Robots and Systems,Tokyo,Japan,November 3-7,2013,pages 2100–2106,2013]等提出使用稠密的RGB-D数据,直接最小化光学误差和深度误差来实现相机姿态估计,这种方法比基于稀疏视觉特征的方法具有更高的精度。Newcombe[.R.A.Newcombe,S.Izadi,O.Hilliges,D.Molyneaux,D.Kim,A.J.Davison,P.Kohli,J.Shotton,S.Hodges,and A.W.Fitzgibbon.Kinectfusion:Real-time dense surface mapping andtracking.In 10th IEEE International Symposium on Mixed and Augmented Reality,ISMAR 2011,Basel,Switzerland,October 26-29,2011,pages 127–136,2011]等提出了KinectFusion,使用基于体素的表示重建三维模型,通过ICP算法将每一帧对准到模型上,实验表明其在小尺度下有很好的重建质量。然而,受制于GPU内存的限制,KinectFusion不适用于大尺度的场景重建。同时,KinectFusion也不能处理漂移问题和回路闭合。许多工作对KinectFusion进行了改进,这些工作主要集中在使用更有效的数据结构实现大尺度场景的重建。例如,Kintinuous[T.Whelan,J.McDonald,M.Kaess,M.Fallon,H.Johannsson,andJ.Leonard.Kintinuous:Spatially extended Kinect-Fusion.In RSS Workshop on RGB-D:Advanced Reasoning with Depth Cameras,Sydney,Australia,Jul 2012.]使用移动体积的方法改进KinectFusion。Nieβner[M.Nieβner,M.
Figure BDA0001209323380000021
S.Izadi,andM.Stamminger.Real-time 3d reconstruction at scale using voxel hashing.ACMTrans.Graph.,32(6):169:1–169:11,2013.]等提出用空间哈希的方法存储稀疏的体素信息。然而,这些方法都没有解决相机姿态估计的漂移问题和回路闭合所要求的模型调整。
无漂移的相机姿态估计和稀疏重建在视觉SLAM中得到了大量的研究。许多单目SLAM方法可以在小场景甚至街道大小的场景进行实时相机跟踪与稀疏三维重建。一些方法也可以处理重定位与回路闭合。然而,这些方法都不能产生稠密的三维模型。一些可以实时重建稠密三维模型的方法大都受制于小的场景或没有考虑无漂移的三维稠密重建。
一些离线方法可以通过回路闭合实现无漂移的稠密三维重建,然而其速度远达不到实时。最近,Whelan[T.Whelan,M.Kaess,H.Johannsson,M.F.Fallon,J.J.Leonard,andJ.McDonald.Real-time large-scale dense RGB-D SLAM with volumetricfusion.I.J.Robotics Res.,34(4-5):598–626,2015.]等提出基于体素融合的RGB-D SLAM系统可以在大场景下检测到回路闭合,通过尽量刚性的模型表面变形纠正相机漂移带来的模型误差。ElasticFusion[T.Whelan,S.Leutenegger,R.F.Salas-Moreno,B.Glocker,andA.J.Davison.ElasticFusion:Dense SLAM without A pose graph.In Robotics:Scienceand Systems XI,Sapienza University of Rome,Rome,Italy,July 13-17,2015,2015.]使用面片来表示三维模型,在回路闭合的时同样采用尽量刚性的模型变换矫正三维模型。这些方法使用帧到模型的对准,对准时的误差会影响模型精度,而不精准的模型又会降低相机追踪的精度。在回路闭合时使用表面变形无法纠正模型错误,最终会导致在复杂场景下追踪失败。BundleFusion[A.Dai,M.Nieβner,M.
Figure BDA0001209323380000031
S.Izadi,andC.Theobalt.BundleFusion:Real-time globally consistent 3d reconstruction usingonline surface reintegration.arXiv preprint arXiv:1604.01093,2016.]使用暴力匹配进行每一帧的对准,在调整姿态时重新集成,从而获得全局一致的模型。然而,BundleFusion保存所有的输入数据,限制了其在长序列数据上的运行。同时,即使用很强的GPU,在长序列输入时使用暴力匹配也是非常耗时的。本发明使用基于关键帧的表示和追踪框架,可以不断调整相机姿态并重新融合深度图。本发明的内存消耗是和关键帧的数据成线性的,因此在相当规模的场景下,由于关键帧的数目受限,可以无限长时间的运行。
发明内容
本发明针对上述技术的不足,提出了一种同时定位与稠密三维重建方法,能够可靠的处理强烈旋转和快速运动,支持重定位并能实时地构建与调整稠密三维模型。
本发明的同时定位与稠密三维重建方法包括如下步骤:
1)通过RGB-D对准估计相机初始姿态,使用基于单应性的特征匹配优化相机姿态;
2)运行“增量集束调整”算法,自适应地更新、优化关键帧的相机姿态;
3)将非关键深度图融合到关键帧,基于关键帧的深度图重建三维模型,通过重融合在相机姿态改变时更新三维模型。
通过RGB-D对准估计相机初始姿态,使用基于单应性的特征匹配优化相机姿态的具体步骤为:
对每个当前帧Fi,首先使用RGB-D对准估计相机从上一帧到当前帧的相对姿态T(i-1)→i,这里只需要一个相对粗糙的估计,因此使用小模糊图(SBI)估计两帧相对姿态以在CPU上达到实时运行。其中参考文献列举的方法为可选用的现有方法。
精确的相机姿态是通过特征匹配获得的,为处理剧烈旋转和快速运动,本发明使用基于单应性的特征匹配方法求解相机姿态。在剧烈旋转和快速运动下,两帧之间的透视变形可能会很大,以至于基于特征的匹配不能鲁棒运行。单应性可以用来纠正图片块的透视变形,从而使零均值的SSD可行。单应性也可以用来决定一个较小的搜索区域
Figure BDA0001209323380000041
避免沿着整个对极线搜索。在本发明中,由于有深度信息zk以及使用RGB-D对准的相机姿态估计Ci=T(i-1)→iCi-1,因此将搜索区域定为
Figure BDA0001209323380000042
以及
Figure BDA0001209323380000043
在确定了相对姿态T(i-1)→i以及3D-2D特征匹配的集合χ={(Xj,xj)}后,通过最小化相对误差与重投影误差来估计相机姿态Ci
Figure BDA0001209323380000044
这里,log(T)将3D刚性变换T∈SE(3)映射到se(3),并返回R6中的向量表示。
Figure BDA0001209323380000045
是标准马氏距离。
Figure BDA0001209323380000046
是投影函数,K是已知并且固定的相机内参。z(X)从X中提取出z分量,zj是xj在当前帧的深度。||∈||δ是Huber范数:
Figure BDA0001209323380000047
如果追踪失败,则重新跟踪特征。否则,则使用新特征的深度信息,用贝叶斯方法对特征的深度进行滤波。对关键帧Fk和当前帧Fi的每一对特征匹配(xi,xj),获取xk深度的倒数ρk
Figure BDA0001209323380000051
这里,
Figure BDA0001209323380000052
通过ρi→k,滤波器不断更新ρk和其内点的联合分布。
最后,本发明在每一新帧到来时决定是否选作关键帧。
所述的运行“增量集束调整”算法,自适应地更新、优化关键帧的相机姿态,其具体步骤为:
当有新的关键帧加入或者检测到闭合回路的时候,需要运行BA。在前一种情形下,由于只有局部地图调整,没有必要运行全局BA。然而,仅运行局部BA倾向于生成次优的解,尤其在局部地图有较大偏差的情况下。因此,需要在BA中引入更多的变量,否则误差无法得到完全消除。本发明提出的增量BA可以获得和全局BA相近的解,同时运行时间和BA中改变的变量数目线性相关,因此可以大幅减少运行时间。其具体方法如下:
将当前相机运动参数定义为
Figure BDA00012093233800000519
Ci∈SE(3),nc是相机个数,将当前三维点位置定义为
Figure BDA00012093233800000516
Xj∈R3,np为三维点的个数,将相机i可见的三维点的集合定义为
Figure BDA00012093233800000517
将三维点j可见的相机集合定义为
Figure BDA00012093233800000518
用高斯-牛顿算法迭代优化:
Figure BDA0001209323380000053
每次迭代,将当前相机运动参数定义为
Figure BDA0001209323380000054
将当前三维点位置定义为
Figure BDA0001209323380000055
将相机运动参数的增量定义为
Figure BDA0001209323380000056
将三维点位置的增量定义为
Figure BDA0001209323380000058
将e(Ci,Xj)在
Figure BDA00012093233800000510
处线性展开:
Figure BDA00012093233800000511
其中,
Figure BDA00012093233800000512
表示在
Figure BDA00012093233800000513
上叠加一个
Figure BDA00012093233800000514
对应的se(3)增量,定义法向方程:
Figure BDA00012093233800000515
U、V分别是nc×nc、np×np的对角矩阵块
Figure BDA00012093233800000621
Figure BDA00012093233800000622
对每个子矩阵Ui∈R6×6,Vj∈R3×3,W为nc×np的块矩阵:
Figure BDA0001209323380000061
每个子矩阵Wij∈R6×3,法向方程右侧向量:
Figure BDA0001209323380000062
Figure BDA0001209323380000063
每个子向量ui∈R6,vj∈R3,定义舒尔补方程
Figure BDA0001209323380000064
其中,
S=U-WV-1WT
g=u-WV-1v
S为nc×nc的块矩阵:
Figure BDA0001209323380000065
每个子矩阵Sij∈R6×6,舒尔补方程右侧向量
Figure BDA0001209323380000066
对每个子向量gi∈R6,定义辅助向量
Figure BDA0001209323380000067
Figure BDA0001209323380000068
其中i=1,…,nc
Figure BDA0001209323380000069
定义辅助变量
Figure BDA00012093233800000610
其中j=1,…,np
Figure BDA00012093233800000611
初始时刻,令U=0,V=0,W=0,u=0,v=0,S=0,g=0,
Figure BDA00012093233800000612
每次迭代,运行以下步骤:
a)对每个三维点j及其可见的相机
Figure BDA00012093233800000613
如果
Figure BDA00012093233800000614
Figure BDA00012093233800000615
上次迭代被更新,则计算
Figure BDA00012093233800000616
Figure BDA00012093233800000617
处的
Figure BDA00012093233800000618
并由下式更新各变量:
Figure BDA00012093233800000619
Figure BDA00012093233800000620
Figure BDA0001209323380000071
Figure BDA0001209323380000072
Figure BDA0001209323380000073
f)对每个三维点j,如果Vj在本次迭代中被更新,则对每个三维点j可见的相机
Figure BDA0001209323380000074
由下式更新各变量:
Figure BDA0001209323380000075
Figure BDA0001209323380000076
Figure BDA0001209323380000077
Figure BDA0001209323380000078
并对三维点j可见的相机对
Figure BDA0001209323380000079
由下式更新各变量:
Figure BDA00012093233800000710
Figure BDA00012093233800000711
Figure BDA00012093233800000712
g)使用预处理共轭梯度算法求解上述的舒尔补方程,得到相机增量
Figure BDA00012093233800000713
对每个相机i,如果
Figure BDA00012093233800000714
则用
Figure BDA00012093233800000715
更新
Figure BDA00012093233800000716
b)对每个三维点j,如果Vj本次迭代被更新,或相机
Figure BDA00012093233800000717
中存在
Figure BDA00012093233800000718
本次迭代被更新,则计算
Figure BDA00012093233800000719
如果
Figure BDA00012093233800000720
则用
Figure BDA00012093233800000721
更新
Figure BDA00012093233800000722
c)如果本次迭代没有任何相机或三维点被更新,或达到最大迭代次数,则结束循环,否则,重复步骤a)。
本发明采用基于体素的三维模型表示,每个体素保存其截断的到最近表面带符号距离(TSDF),为提高GPU显存利用率以及可重建场景尺度,采用空间哈希方法。
当相机姿态发生调整时,相应的,需要调整重建的三维模型。一种简单的方法是存储所有的深度图,并在每一深度图对应的相机姿态调整时重新融合进三维模型。然而,这种方法有着内存消耗高、计算量大的不足。为此,本发明提出基于关键帧的深度图表示和融合、反融合方法,有效的解决了这一问题。具体的:
如果当前帧Fi被选为关键帧,则直接将其对应的深度图Di融合到模型上。对每个体素v,其截断带符号最近表面距离(TSDF)用D(v)表示,权重用W(v)表示,对Fi中的每个像素x,采用如下方法更新其对应的体素v:
Figure BDA0001209323380000081
其中wi(x)是像素x的融合权重。
如果当前帧Fi未被选为关键帧,则首先寻找与Fi最匹配的关键帧,记为
Figure BDA0001209323380000082
首先反融合关键帧
Figure BDA0001209323380000083
所对应的深度图。反融合过程与融合过程相似,对每个像素x,采用如下方法更新其对应的体素v:
Figure BDA0001209323380000084
其中wi(x)是像素x的融合权重。
随后,通过深度图Di投影到
Figure BDA0001209323380000085
将其融合到
Figure BDA0001209323380000086
对Fi的每个像素x,用y表示其投影在
Figure BDA0001209323380000087
的坐标。如果y对应的深度的倒数
Figure BDA0001209323380000088
与x投影点深度的倒数(用
Figure BDA0001209323380000089
表示)小于阈值τd(本发明设置为0.1),则更新y的深度为:
Figure BDA00012093233800000810
Figure BDA00012093233800000811
对每个关键帧
Figure BDA00012093233800000812
记录其被融合的次数
Figure BDA00012093233800000813
Figure BDA00012093233800000814
大于某一阈值时,停止融合。由于Fi
Figure BDA00012093233800000815
的视角重合较大,除了一些在
Figure BDA00012093233800000816
视角之外的点,通常当前帧的大多数深度都能融合到
Figure BDA00012093233800000817
上。因此该融合策略可以有效地减少深度的冗余性。如果当前帧融合后残余的深度点数目小于τ(例如2000),则将这些点丢弃。否则,创建一个点云集Vi保存未融合的三维点并将其关联到
Figure BDA00012093233800000818
之后,将更新后的关键帧深度图
Figure BDA00012093233800000819
融合到模型上。如果Vi非空,则将Vi中的三维点投影到
Figure BDA00012093233800000820
将其融合到模型。因此,每个非关键帧,将会执行两次融合与一次反融合。由于未融合的点数目相对很少,因此其需要的融合时间也较少。因此,本发明计算量基本上略大于通常的融合方法的两倍。如果
Figure BDA00012093233800000821
较大并且关键帧的数目不再增加,这意味着RGB-D相机没有扫描新的信息,在这种情况下,简单的丢弃Di
为进一步减少深度数据的冗余,如果当前帧Fi被选为关键帧,则选择关联到相邻关键帧的若干点云集,融合到当前帧。如果融合后VI剩余的点数小于τ(例如2000),则将其从模型中反融合并丢弃。否则,将融合到当前帧的点从模型中反融合。
当关键帧的姿态被BA调整时,需要重新融合关键帧对应的深度图以及与其关联的点云集。然而,如果被调整的关键帧数目较大,重融合会耗费大量的时间而不能满足实时性的要求。因此,本发明限制每一帧重融合的次数,将所有重融合分摊到每一帧。特别的,姿态变化比较大的关键帧对应的深度图及其关联的点云集将会被首先重融合。此策略可以保证在BA发生时重建部分以恒定的速率运行。
为进一步加速,可以每两帧或更多融合一帧到模型,此方法可以极大地加速融合过程,在笔记本电脑上可以达到实时运行。
附图说明
图1是本发明的系统框架。
图2是本发明基于关键帧的相机追踪框架。
图3是本发明提出的增量BA与标准BA的性能比较,可以看到,相对于标准BA,在保留相当精度的同时,本发明可以极大的加快BA速度。
图4是本发明在使用华硕Xtion Pro Live拍摄的数据集上运行所生成的三维模型。
具体实施方式
本发明的系统架构如图1。系统的相机追踪部分和三维模型重建部分并行运行。对每个包含RGB图像与深度图的输入帧,相机追踪部分首先结合RGB-D对准和基于单应性的特征追踪方法计算相机姿态,实现了鲁棒的相机跟踪。同时,提取关键帧的ORB特征并进行匹配以检测全局回路闭合。最后,周期性的在后台运行增量BA以优化相机姿态。重建部分在输入帧追踪相机姿态可靠时将输入深度融合到关键帧的深度图上。为在线调整稠密的三维表面,系统会对关键帧进行反融合与在融合。此策略使得在相机姿态调整时,仅需要重融合关键帧的深度以及一些额外的点云集。由于在相当规模场景下的关键帧数目是有限的,本系统可以无限长时间运行。
本发明同时结合图片强度和深度信息跟踪相机运动,结合基于稠密RGB-D和基于稀疏特征的方法使相机跟踪更为准确和鲁棒。其基本框架如附图2所示。对每个当前帧Fi,首先使用RGB-D对准[C.Kerl,J.Sturm,and D.Cremers.Dense visual SLAM for RGB-Dcameras.In 2013 IEEE/RSJ International Conference on Intelligent Robots andSystems,Tokyo,Japan,November 3-7,2013,pages 2100–2106,2013.]估计相机从上一帧到当前帧的相对姿态T(i-1)→i,这里只需要一个相对粗糙的估计,因此我们使用小模糊图(SBI)[G.Klein and D.W.Murray.Improving the agility of keyframe-based SLAM.In10th European Conference on Computer Vision,Part II,pages 802–815.Springer,2008.]估计两帧相对姿态以在CPU上达到实时运行。
精确的相机姿态是通过特征匹配获得的,为处理剧烈旋转和快速运动,本发明使用基于单应性[H.Liu,G.Zhang,and H.Bao.Robust keyframe-based monocular SLAM foraugmented reality.In IEEE International Symposium on Mixed and AugmentedReality,ISMAR 2016.]的特征匹配方法求解相机姿态。在剧烈旋转和快速运动下,两帧之间的透视变形可能会很大,以至于基于特征的匹配不能鲁棒运行。单应性可以用来纠正图片块的透视变形,从而使零均值的SSD[G.Klein and D.W.Murray.Parallel tracking andmapping for small AR workspaces.In 6th IEEE/ACM International Symposium onMixed and Augmented Reality,pages 225–234,2007.]可行。单应性也可以用来决定一个较小的搜索区域
Figure BDA0001209323380000101
避免沿着整个对极线搜索。在本发明中,由于有深度信息zk以及使用RGB-D对准的相机姿态估计Ci=T(i-1)→iCi-1,因此将搜索区域定为
Figure BDA0001209323380000102
以及
Figure BDA0001209323380000103
Figure BDA0001209323380000104
在确定了相对姿态T(i-1)→i以及3D-2D特征匹配的集合χ={(Xj,xj)}后,通过最小化相对误差与重投影误差来估计相机姿态Ci
Figure BDA0001209323380000105
这里,log(T)将3D刚性变换T∈SE(3)映射到se(3),并返回R6中的向量表示。
Figure BDA0001209323380000106
是标准马氏距离。
Figure BDA0001209323380000107
是投影函数,K是已知并且固定的相机内参。z(X)从X中提取出z分量,zj是xj在当前帧的深度。||∈||δ是Huber范数:
Figure BDA0001209323380000108
如果追踪失败,则使用[G.Klein and D.W.Murray.Improving the agility ofkeyframe-based SLAM.In 10th European Conference on Computer Vision,Part II,pages 802–815.Springer,2008.]所述的方法重新跟踪特征。否则,则使用新特征的深度信息,用贝叶斯方法[G.Vogiatzis and C.Hernández.Video-based,real-time multi-viewstereo.Image Vision Comput.,29(7):434–441,2011.]对特征的深度进行滤波。对关键帧Fk和当前帧Fi的每一对特征匹配(xi,xj),获取xk深度的倒数ρk
Figure BDA0001209323380000111
这里,
Figure BDA0001209323380000112
通过ρi→k,滤波器不断更新ρk和其内点的联合分布。
最后,本发明在每一新帧到来时决定是否选作关键帧。
当有新的关键帧加入或者检测到闭合回路的时候,需要运行BA。在前一种情形下,由于只有局部地图调整,没有必要运行全局BA。然而,仅运行局部BA倾向于生成次优的解,尤其在局部地图有较大偏差的情况下。因此,需要在BA中引入更多的变量,否则误差无法得到完全消除。本发明提出的增量BA可以获得和全局BA相近的解,同时运行时间和BA中改变的变量数目线性相关,因此可以大幅减少运行时间。其具体方法如下:
将当前相机运动参数定义为
Figure BDA0001209323380000113
Ci∈SE(3),nc是相机个数,将当前三维点位置定义为
Figure BDA0001209323380000114
Xj∈R3,np为三维点的个数,将相机i可见的三维点的集合定义为
Figure BDA0001209323380000115
将三维点j可见的相机集合定义为
Figure BDA0001209323380000116
用高斯-牛顿算法迭代优化:
Figure BDA0001209323380000117
每次迭代,将当前相机运动参数定义为
Figure BDA0001209323380000118
将当前三维点位置定义为
Figure BDA0001209323380000119
将相机运动参数的增量定义为
Figure BDA00012093233800001110
将三维点位置的增量定义为
Figure BDA00012093233800001111
将e(Ci,Xj)在
Figure BDA00012093233800001112
处线性展开:
Figure BDA00012093233800001113
其中,
Figure BDA00012093233800001114
表示在
Figure BDA00012093233800001115
上叠加一个
Figure BDA00012093233800001116
对应的se(3)增量,定义法向方程:
Figure BDA0001209323380000121
U、V分别是nc×nc、np×np的对角矩阵块
Figure BDA00012093233800001219
Figure BDA00012093233800001220
对每个子矩阵Ui∈R6×6,Vj∈R3×3,W为nc×np的块矩阵:
Figure BDA0001209323380000122
每个子矩阵Wij∈R6×3,法向方程右侧向量:
Figure BDA0001209323380000123
Figure BDA0001209323380000124
每个子向量ui∈R6,vj∈R3,定义舒尔补方程
Figure BDA0001209323380000125
其中,
S=U-WV-1WT
g=u-WV-1v
S为nc×nc的块矩阵:
Figure BDA0001209323380000126
每个子矩阵Sij∈R6×6,舒尔补方程右侧向量
Figure BDA0001209323380000127
对每个子向量gi∈R6,定义辅助向量
Figure BDA0001209323380000128
Figure BDA0001209323380000129
其中i=1,…,nc
Figure BDA00012093233800001210
定义辅助变量
Figure BDA00012093233800001211
其中j=1,…,np
Figure BDA00012093233800001212
初始时刻,令U=0,V=0,W=0,u=0,v=0,S=0,g=0,
Figure BDA00012093233800001213
每次迭代,运行以下步骤:
a)对每个三维点j及其可见的相机
Figure BDA00012093233800001214
如果
Figure BDA00012093233800001215
Figure BDA00012093233800001216
上次迭代被更新,则计算
Figure BDA00012093233800001217
Figure BDA00012093233800001221
处的
Figure BDA00012093233800001218
并由下式更新各变量:
Figure BDA0001209323380000131
Figure BDA0001209323380000132
Figure BDA0001209323380000133
Figure BDA0001209323380000134
Figure BDA0001209323380000135
h)对每个三维点j,如果Vj在本次迭代中被更新,则对每个三维点j可见的相机
Figure BDA0001209323380000136
由下式更新各变量:
Figure BDA0001209323380000137
Figure BDA0001209323380000138
Figure BDA0001209323380000139
Figure BDA00012093233800001310
并对三维点j可见的相机对
Figure BDA00012093233800001311
由下式更新各变量:
Figure BDA00012093233800001312
Figure BDA00012093233800001313
Figure BDA00012093233800001314
i)使用预处理共轭梯度算法求解上述的舒尔补方程,得到相机增量
Figure BDA00012093233800001315
对每个相机i,如果
Figure BDA00012093233800001316
则用
Figure BDA00012093233800001317
更新
Figure BDA00012093233800001318
b)对每个三维点j,如果Vj本次迭代被更新,或相机
Figure BDA00012093233800001319
中存在
Figure BDA00012093233800001320
本次迭代被更新,则计算
Figure BDA00012093233800001321
如果
Figure BDA00012093233800001322
则用
Figure BDA00012093233800001323
更新
Figure BDA00012093233800001324
c)如果本次迭代没有任何相机或三维点被更新,或达到最大迭代次数,则结束循环,否则,重复步骤a)
同KinectFusion,本发明采用基于体素的三维模型表示,每个体素保存其截断的到最近表面带符号距离(TSDF),为提高GPU显存利用率以及可重建场景尺度,采用了Nieβner[M.Nieβner,M.
Figure BDA00012093233800001325
S.Izadi,and M.Stamminger.Real-time 3d reconstructionat scale using voxel hashing.ACM Trans.Graph.,32(6):169:1–169:11,2013.]等提出的空间哈希方法。
当相机姿态发生调整时,相应的,需要调整重建的三维模型。一种简单的方法是存储所有的深度图,并在每一深度图对应的相机姿态调整时重新融合进三维模型。然而,这种方法有着内存消耗高、计算量大的不足。为此,本发明提出基于关键帧的深度图表示和融合、反融合方法,有效地解决了这一问题。具体的:
如果当前帧Fi被选为关键帧,则直接将其对应的深度图Di融合到模型上。对每个体素v,其截断带符号最近表面距离(TSDF)用D(v)表示,权重用W(v)表示,对Fi中的每个像素x,采用如下方法更新其对应的体素v:
Figure BDA0001209323380000141
其中wi(x)是像素x的融合权重。
如果当前帧Fi未被选为关键帧,则首先寻找与Fi最匹配的关键帧,记为
Figure BDA0001209323380000142
首先反融合关键帧
Figure BDA0001209323380000143
所对应的深度图。反融合过程与融合过程相似,对每个像素x,采用如下方法更新其对应的体素v:
Figure BDA0001209323380000144
其中wi(x)是像素x的融合权重。
随后,通过深度图Di投影到
Figure BDA0001209323380000145
将其融合到
Figure BDA0001209323380000146
对Fi的每个像素x,用y表示其投影在
Figure BDA0001209323380000147
的坐标。如果y对应的深度的倒数
Figure BDA0001209323380000148
与x投影点深度的倒数(用
Figure BDA0001209323380000149
表示)小于阈值τd(本发明设置为0.1),则更新y的深度为:
Figure BDA00012093233800001410
Figure BDA00012093233800001411
对每个关键帧
Figure BDA00012093233800001412
记录其被融合的次数
Figure BDA00012093233800001413
Figure BDA00012093233800001414
大于某一阈值时,停止融合。由于Fi
Figure BDA00012093233800001415
的视角重合较大,除了一些在
Figure BDA00012093233800001416
视角之外的点,通常当前帧的大多数深度都能融合到
Figure BDA00012093233800001417
上。因此该融合策略可以有效的减少深度的冗余性。如果当前帧融合后残余的深度点数目小于τ(例如2000),则将这些点丢弃。否则,创建一个点云集Vi保存未融合的三维点并将其关联到
Figure BDA00012093233800001418
之后,将更新后的关键帧深度图
Figure BDA00012093233800001419
融合到模型上。如果Vi非空,则将Vi中的三维点投影到
Figure BDA00012093233800001420
将其融合到模型。因此,每个非关键帧,将会执行两次融合与一次反融合。由于未融合的点数目相对很少,因此其需要的融合时间也较少。因此,本发明计算量基本上略大于通常的融合方法的两倍。如果
Figure BDA00012093233800001421
较大并且关键帧的数目不再增加,这意味着RGB-D相机没有扫描新的信息,在这种情况下,我们简单的丢弃Di
为进一步减少深度数据的冗余,如果当前帧Fi被选为关键帧,则选择关联到相邻关键帧的若干点云集,融合到当前帧。如果融合后VI剩余的点数小于τ(例如2000),则将其从模型中反融合并丢弃。否则,将融合到当前帧的点从模型中反融合。考虑到实时计算的需求,本实施例只融合5个点云集。
当关键帧的姿态被BA调整时,需要重新融合关键帧对应的深度图以及与其关联的点云集。然而,如果被调整的关键帧数目较大,重融合会耗费大量的时间而不能满足实时性的要求。因此,本发明限制每一帧重融合的次数,将所有重融合分摊到每一帧。特别的,姿态变化比较大的关键帧对应的深度图及其关联的点云集将会被首先重融合。此策略可以保证在BA发生时重建部分以恒定的速率运行。
为进一步加速,可以每两帧或更多帧融合一帧到模型,此方法可以极大地加速融合过程,在笔记本电脑上可以达到实时运行。
在实验中测试了本发明的性能。在配置Intel i7 3.6GHz CPU,8GB内存,GTX960显卡的PC环境下,无GPU加速的相机跟踪可以达到10~25毫秒每帧,在融合每个输入帧的情况下稠密的重建部分需要50毫秒每帧,整个系统运行速率大概位20fps。在配置为i7 2.6GHzCPU,16GB内存,GTX960M显卡的笔记本电脑上,如果每三帧融合一帧,运行速度可以达到20fps。
在用华硕Xtion Pro Live拍摄的多个数据集上测试了算法性能。如附图4所示,本发明可以构建出高质量的模型。

Claims (3)

1.一种同时定位与稠密三维重建方法,其特征在于包括如下步骤:
1)通过RGB-D对准估计相机初始姿态,使用基于单应性的特征匹配优化相机姿态;
2)运行“增量集束调整”算法,自适应地更新、优化关键帧的相机姿态;
所述的步骤2)具体为:
当有新的关键帧加入或者检测到闭合回路的时候,运行如下增量集束调整:
将当前相机运动参数定义为
Figure FDA0002178652540000011
Ci∈SE(3),nc是相机个数,将当前三维点位置定义为
Figure FDA0002178652540000012
Xj∈R3,np为三维点的个数,将相机i可见的三维点的集合定义为Vi c,将三维点j可见的相机集合定义为
Figure FDA0002178652540000013
用高斯-牛顿算法迭代优化:
Figure FDA0002178652540000014
每次迭代,将当前相机运动参数定义为
Figure FDA0002178652540000015
将当前三维点位置定义为
Figure FDA0002178652540000016
将相机运动参数的增量定义为
Figure FDA0002178652540000017
将三维点位置的增量定义为
Figure FDA0002178652540000018
将e(Ci,Xj)在
Figure FDA0002178652540000019
处线性展开:
Figure FDA00021786525400000110
其中,
Figure FDA00021786525400000111
表示在
Figure FDA00021786525400000112
上叠加一个
Figure FDA00021786525400000113
对应的se(3)增量,定义法向方程:
Figure FDA00021786525400000114
U、V分别是nc×nc、np×np的对角块矩阵
Figure FDA00021786525400000115
Figure FDA00021786525400000116
对每个子矩阵Ui∈R6×6,Vj∈R3×3,W为nc×np的块矩阵:
Figure FDA00021786525400000117
每个子矩阵Wij∈R6×3,法向方程右侧向量:
Figure FDA0002178652540000021
Figure FDA0002178652540000022
每个子向量ui∈R6,vj∈R3,定义舒尔补方程
Figure FDA0002178652540000023
其中,
S=U-WV-1WT
g=u-WV-1v
S为nc×nc的块矩阵:
Figure FDA0002178652540000024
每个子矩阵Sij∈R6×6,舒尔补方程右侧向量
Figure FDA0002178652540000025
对每个子向量gi∈R6,定义辅助向量
Figure FDA0002178652540000026
Figure FDA0002178652540000027
其中i=1,...,nc,j∈Vi c,定义辅助变量
Figure FDA0002178652540000028
其中j=1,...,np
Figure FDA0002178652540000029
初始时刻,令U=0,V=0,W=0,u=0,v=0,S=0,g=0,
Figure FDA00021786525400000210
每次迭代,运行以下步骤:
a)对每个三维点j及其可见的相机
Figure FDA00021786525400000211
如果
Figure FDA00021786525400000212
Figure FDA00021786525400000213
上次迭代被更新,则计算
Figure FDA00021786525400000214
处的
Figure FDA00021786525400000215
并由下式更新各变量:
Figure FDA00021786525400000216
Figure FDA00021786525400000217
Figure FDA00021786525400000218
Figure FDA00021786525400000219
Figure FDA00021786525400000220
b)对每个三维点j,如果Vj在本次迭代中被更新,则对每个三维点j可见的相机
Figure FDA00021786525400000221
由下式更新各变量:
Figure FDA00021786525400000222
Yij=WijVj -1
Figure FDA0002178652540000031
Figure FDA0002178652540000032
并对三维点j可见的相机对
Figure FDA0002178652540000033
由下式更新各变量:
Figure FDA0002178652540000034
Figure FDA0002178652540000035
Figure FDA0002178652540000036
c)使用预处理共轭梯度算法求解上述的舒尔补方程,得到相机增量
Figure FDA0002178652540000037
对每个相机i,如果
Figure FDA0002178652540000038
则用
Figure FDA0002178652540000039
更新
Figure FDA00021786525400000310
d)对每个三维点j,如果Vj本次迭代被更新,或相机
Figure FDA00021786525400000311
中存在
Figure FDA00021786525400000312
本次迭代被更新,则计算
Figure FDA00021786525400000313
如果
Figure FDA00021786525400000314
则用
Figure FDA00021786525400000315
更新
Figure FDA00021786525400000316
e)如果本次迭代没有任何相机或三维点被更新,或达到最大迭代次数,则结束循环,否则,重复步骤a);
3)将非关键深度图融合到关键帧,基于关键帧的深度图重建三维模型,通过重融合在相机姿态改变时更新三维模型。
2.如权利要求1所述的一种同时定位与稠密三维重建方法,其特征在于所述的步骤1)具体为:
对每个当前帧Fi,使用RGB-D对准在小模糊图上估计相机从上一帧到当前帧的相对姿态T(i-1)→i,相应相机姿态估计为Ci=T(i-1)→iCi-1
使用单应性决定搜索区域
Figure FDA00021786525400000317
同时用深度信息zk以及相机姿态估计Ci决定搜索区域
Figure FDA00021786525400000318
在搜索区域上寻找3D-2D特征匹配的集合χ={(Xj,xj)},其中Xj∈R3,xj∈R2分别为三维点与二维点,K为相机内参;
在确定了相对姿态T(i-1)→i以及3D-2D特征匹配的集合χ={(Xj,xj)}后,通过最小化相对误差与重投影误差来优化相机姿态Ci
Figure FDA0002178652540000041
其中,log(T)将3D刚性变换T∈SE(3)映射到se(3),并返回R6中的向量表示,
Figure FDA0002178652540000042
是标准马氏距离,
Figure FDA0002178652540000043
是投影函数,K是已知并且固定的相机内参,z(X)从X中提取出z分量,zj是xj在当前帧的深度,||∈||δ是Huber范数:
Figure FDA0002178652540000044
如果追踪失败,则使用基于关键帧的重定位方法重新跟踪特征,否则,使用新特征的深度信息,用贝叶斯方法对特征的深度进行滤波;
对关键帧Fk和当前帧Fi的每一对特征匹配(xk,xi),更新xk深度的倒数ρk
Figure FDA0002178652540000045
这里,
Figure FDA0002178652540000046
通过ρi→k,滤波器不断更新ρk和其内点的联合分布;
最后,在每一新帧到来时决定是否选作关键帧。
3.如权利要求 1所述的一种同时定位与稠密三维重建方法,其特征在于所述的步骤3)具体为:
采用基于体素的三维模型表示,每个体素保存其截断的到最近表面带符号距离,采用空间哈希方法管理体素在GPU上的存储;
如果当前帧Fi被选为关键帧,则直接将其对应的深度图Di融合到模型上,对每个体素v,其截断带符号最近表面距离用D(v)表示,权重用W(v)表示,对Fi中的每个像素x,采用如下方法更新其对应的体素v:
Figure FDA0002178652540000047
其中wi(x)是像素x的融合权重;
如果当前帧Fi未被选为关键帧,则首先寻找与Fi最匹配的关键帧,记为
Figure FDA0002178652540000051
首先反融合关键帧
Figure FDA0002178652540000052
所对应的深度图,对每个像素x,采用如下方法更新其对应的体素v:
Figure FDA0002178652540000053
其中wi(x)是像素x的融合权重;
随后,通过深度图Di投影到
Figure FDA0002178652540000054
将其融合到
Figure FDA0002178652540000055
对Fi的每个像素x,用y表示其投影在
Figure FDA0002178652540000056
的坐标,如果y对应的深度的倒数
Figure FDA0002178652540000057
与x投影点深度的倒数
Figure FDA0002178652540000058
小于阈值τd,则更新y的深度为:
Figure FDA0002178652540000059
Figure FDA00021786525400000510
对每个关键帧
Figure FDA00021786525400000511
记录其被融合的次数
Figure FDA00021786525400000512
Figure FDA00021786525400000513
大于某一阈值时,停止融合;否则,创建一个点云集Vi保存未融合的三维点并将其关联到
Figure FDA00021786525400000514
之后,将更新后的关键帧深度图
Figure FDA00021786525400000515
融合到模型上;如果Vi非空,则将Vi中的三维点投影到
Figure FDA00021786525400000516
将其融合到模型,如果
Figure FDA00021786525400000517
较大并且关键帧的数目不再增加,则丢弃Di
如果当前帧Fi被选为关键帧,则选择关联到相邻关键帧的若干点云集,融合到当前帧,如果融合后VI剩余的点数较少,则将其从模型中反融合并丢弃,否则,将融合到当前帧的点从模型中反融合;
最后,限制每一帧重融合的次数,将所有重融合操作分摊到每一帧。
CN201710024828.4A 2017-01-13 2017-01-13 一种同时定位与稠密三维重建方法 Active CN106875482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710024828.4A CN106875482B (zh) 2017-01-13 2017-01-13 一种同时定位与稠密三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710024828.4A CN106875482B (zh) 2017-01-13 2017-01-13 一种同时定位与稠密三维重建方法

Publications (2)

Publication Number Publication Date
CN106875482A CN106875482A (zh) 2017-06-20
CN106875482B true CN106875482B (zh) 2020-04-28

Family

ID=59157585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710024828.4A Active CN106875482B (zh) 2017-01-13 2017-01-13 一种同时定位与稠密三维重建方法

Country Status (1)

Country Link
CN (1) CN106875482B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053437B (zh) * 2017-11-29 2021-08-03 奥比中光科技集团股份有限公司 基于体态的三维模型获取方法及装置
CN108550181B (zh) * 2018-03-12 2020-07-31 中国科学院自动化研究所 移动设备上在线跟踪与稠密重建方法、系统及设备
CN108416840B (zh) * 2018-03-14 2020-02-18 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN108564616B (zh) * 2018-03-15 2020-09-01 中国科学院自动化研究所 快速鲁棒的rgb-d室内三维场景重建方法
CN108594816B (zh) * 2018-04-23 2021-10-29 长沙学院 一种通过改进orb-slam算法实现定位与构图的方法和系统
CN110634150B (zh) * 2018-06-25 2023-08-11 上海汽车集团股份有限公司 一种即时定位与地图构建的生成方法、系统及装置
CN108898630B (zh) * 2018-06-27 2020-12-15 清华-伯克利深圳学院筹备办公室 一种三维重建方法、装置、设备和存储介质
CN115097627A (zh) * 2018-07-23 2022-09-23 奇跃公司 用于地图构建的系统和方法
CN109387204B (zh) * 2018-09-26 2020-08-28 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
CN109360268B (zh) * 2018-09-29 2020-04-24 清华大学 重建动态物体的表面优化方法及装置
CN110221690B (zh) 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
CN110349249B (zh) * 2019-06-26 2021-04-06 华中科技大学 基于rgb-d数据的实时稠密重建方法及系统
CN114270410A (zh) * 2019-10-17 2022-04-01 深圳市大疆创新科技有限公司 移动物体的点云融合方法、系统及计算机存储介质
CN111596665B (zh) * 2020-05-29 2021-06-22 浙江大学 一种适用于腿足机器人规划的稠密高度地图构建方法
CN111640180B (zh) * 2020-08-03 2020-11-24 深圳市优必选科技股份有限公司 一种三维重建方法、装置及终端设备
CN113222906B (zh) * 2021-04-22 2022-05-13 浙江大学 一种基于opensfm和three.js的裂缝位置快速定位显示方法
CN113450457B (zh) * 2021-08-31 2021-12-14 腾讯科技(深圳)有限公司 道路重建方法、装置、计算机设备和存储介质
CN113744410A (zh) * 2021-09-13 2021-12-03 浙江商汤科技开发有限公司 网格生成方法、装置、电子设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463953A (zh) * 2014-11-11 2015-03-25 西北工业大学 基于惯性测量单元与rgb-d传感器的三维重建方法
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN105809681A (zh) * 2016-03-04 2016-07-27 清华大学 基于单相机的人体rgb-d数据恢复与三维重建方法
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850027B1 (ko) * 2011-12-08 2018-04-24 한국전자통신연구원 실시간 3차원 실 환경 복원장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463953A (zh) * 2014-11-11 2015-03-25 西北工业大学 基于惯性测量单元与rgb-d传感器的三维重建方法
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN105809681A (zh) * 2016-03-04 2016-07-27 清华大学 基于单相机的人体rgb-d数据恢复与三维重建方法
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RGB-D Mapping: Using Depth Cameras for;Peter Henry1;《Experimental Robotics. Springer Tracts in Advanced Robotics》;20141231;第79卷;第1-15页 *
基于多视图深度采样的自然场景三维重建;姜翰青;《计算机辅助设计与图形学学报》;20151015(第10期);第1805-1815页 *

Also Published As

Publication number Publication date
CN106875482A (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
CN106875482B (zh) 一种同时定位与稠密三维重建方法
WO2018129715A1 (zh) 一种同时定位与稠密三维重建方法
Almalioglu et al. SelfVIO: Self-supervised deep monocular Visual–Inertial Odometry and depth estimation
EP3504682B1 (en) Simultaneous localization and mapping with an event camera
US10553026B2 (en) Dense visual SLAM with probabilistic surfel map
Engel et al. Large-scale direct SLAM with stereo cameras
US8929645B2 (en) Method and system for fast dense stereoscopic ranging
CN111707281B (zh) 一种基于光度信息和orb特征的slam系统
CN111445526B (zh) 一种图像帧之间位姿的估计方法、估计装置和存储介质
CN109242873A (zh) 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法
JP2015521419A (ja) コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム
Schenk et al. RESLAM: A real-time robust edge-based SLAM system
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Maier et al. Efficient online surface correction for real-time large-scale 3D reconstruction
CN113532420A (zh) 一种融合点线特征的视觉惯性里程计方法
Liu et al. Robust keyframe-based dense SLAM with an RGB-D camera
Dardelet et al. An event-by-event feature detection and tracking invariant to motion direction and velocity
Ok et al. Simultaneous tracking and rendering: Real-time monocular localization for MAVs
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
Rahimi et al. Reducing drift in differential tracking
Tu et al. PanoVLM: Low-Cost and accurate panoramic vision and LiDAR fused mapping
Jones Accurate and Computationally-inexpensive Recovery of Ego-Motion using Optical Flow and Range Flow with Extended Temporal Support.
Neyestani et al. Survey and research challenges in monocular visual odometry
Pagel Robust monocular egomotion estimation based on an iekf
Liu et al. Unsupervised Monocular Depth Estimation for Monocular Visual SLAM Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant