CN108776989B - 基于稀疏slam框架的低纹理平面场景重建方法 - Google Patents

基于稀疏slam框架的低纹理平面场景重建方法 Download PDF

Info

Publication number
CN108776989B
CN108776989B CN201810584937.6A CN201810584937A CN108776989B CN 108776989 B CN108776989 B CN 108776989B CN 201810584937 A CN201810584937 A CN 201810584937A CN 108776989 B CN108776989 B CN 108776989B
Authority
CN
China
Prior art keywords
image
plane
point
camera
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810584937.6A
Other languages
English (en)
Other versions
CN108776989A (zh
Inventor
赵永嘉
陈昌杰
雷小永
戴树岭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810584937.6A priority Critical patent/CN108776989B/zh
Publication of CN108776989A publication Critical patent/CN108776989A/zh
Application granted granted Critical
Publication of CN108776989B publication Critical patent/CN108776989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

本发明公开一种基于稀疏SLAM框架的低纹理平面场景重建方法,包括以下步骤:1、通过RGB‑D相机Kinect读取图像数据每一帧的RGB图像与深度图像。2、对于获取的每一帧图像,进行下述处理:A、在稀疏SLAM的框架下,通过像素之间的灰度差异获取图像中的特征点;B、提取图像中获取不到足够特征点的平面区域,作为平面路标;3、将特征点在世界坐标系下的坐标作为地图点,进行局部的建图;4、对局部地图进行捆集调整优化与回环检测局部地图;5、将特征点与平面都作为路标,进行回环检测,并进行全局的捆集调整来优化相机位姿与轨迹。本发明既可解决低纹理区域重建的质量问题,又提高了稀疏特征点SLAM系统的鲁棒性。

Description

基于稀疏SLAM框架的低纹理平面场景重建方法
技术领域
本发明涉及计算机视觉、数字图像处理和同时定位与建图领域,特别是涉及一种基于稀疏SLAM框架的低纹理平面场景重建方法。
背景技术
在计算机图形学领域,三维重建指利用摄像机拍摄得到的二维图像中的深度、纹理等信息恢复出三维空间中物体的形状与位置信息。基于视觉图像的三维重建具有成本低廉、自动化程度高的特点。
基于视觉的三维重建根据分类方法的不同有很多种类。近年来,无论是基于RGB-D图像还是其他单目相机的三维重建,SLAM框架都得到了广泛的运用。同时定位与建图(Simultaneous Localization and Mapping,SLAM)问题是让定位和重建同时进行,相较于传统的三维重建将定位与建模分割开来的方法,具有较好的实时性,能够满足更高层次的任务需求,因此目前多数的三维重建的方法与SLAM的研究紧密得结合在一起。
基于稀疏特征点的SLAM方法是研究者们研究的方向之一,其通过提取图像中的特征点进行立体匹配,对于纹理复杂,图像灰度差异大的场景,这些方法可以取得不错的效果。然而,现实场景中存在着大量的低纹理平面区域,如室内场景中的墙壁、桌面等物体。这些图像的灰度变化较为平缓,邻近区域的灰度相似度比较大,会导致提取不到充足的特征点来计算相机的运动。同时,每一个像素本身具有很大的歧义性,并且可区分性差,而像素间相似度的差异是进行特征点匹配过程中的很重要的约束条件,如果相似度差异小会产生比较多的错误匹配,影响重建的精度。通常用比较大的邻域像素信息来约束该像素,但是采用较大的邻域信息容易使重要的特征信息变的模糊,并且导致错误的视差计算。更为严重的会造成算法跟踪失败,影响SLAM系统的鲁棒性。
发明内容
为了解决基于稀疏特征点的SLAM系统在面对低纹理平面区域,如墙壁、柜子等,重建效果差,跟踪容易丢失,算法的鲁棒性不够强的问题,提出了一种将平面检测融合到基于特征点的SLAM系统中的重建方法,可以使得该类SLAM系统应用到更多的生活场景中去。
本发明基于稀疏SLAM框架的低纹理平面场景重建方法,包括以下步骤:
基于稀疏SLAM框架的低纹理平面场景重建方法,其特征在于:包括以下步骤:
步骤一:通过相机读取图像数据每一帧的RGB图像与深度图像。
步骤二:对于获取的每一帧图像,进行下述处理:
A、在稀疏SLAM的框架下,通过像素之间的灰度差异获取图像中的特征点。
B、提取图像中获取不到足够特征点的平面区域,作为平面路标。
步骤三:将特征点在世界坐标系下的坐标作为地图点,进行局部的建图。
步骤四:对局部地图进行捆集调整优化与回环检测局部地图。
步骤五:将特征点与平面都作为路标,进行回环检测,并进行全局的捆集调整来优化相机位姿与轨迹。
本发明的优点在于:
1、本发明基于稀疏SLAM框架的低纹理平面场景重建方法,将平面提取结合到稀疏特征点SLAM方法中,检测到的平面不仅可以在视觉里程计部分用来估计与跟踪相机姿态,还可以在后端用来对轨迹进行优化,既解决了对于低纹理区域重建的质量问题,又提高了稀疏特征点SLAM系统的鲁棒性。
2、本发明基于稀疏SLAM框架的低纹理平面场景重建方法,平面提取与特征点提取同时并行进行,不会过于降低原有的稀疏SLAM系统的计算效率,确保系统依然具有较好的实时性,以满足一些机器人及其他应用的要求。
3、本发明基于稀疏SLAM框架的低纹理平面场景重建方法,虽然增加了平面提取部分,但是,即使是在一些纹理密集,平面较少的区域,由于没有丢掉原有的稀疏特征点SLAM框架,本方法依然能够在这些场景进行重建工作,满足实际需要。
附图说明
图1为本发明基于稀疏SLAM框架的低纹理平面场景重建方法流程图;
图2为本发明基于稀疏SLAM框架的低纹理平面场景重建方法中获取图像中一点法向量示意图;
图3为本发明基于稀疏SLAM框架的低纹理平面场景重建方法中应用的图优化方法示意图。
具体实施方式
下面结合附图对本发明做进一步详细说明。
本发明基于稀疏SLAM框架的低纹理平面场景重建方法,如图1所示,包括以下步骤:
步骤一:通过RGB-D相机Kinect读取图像数据每一帧的RGB图像与深度图像。
步骤二:对于获取的每一帧图像,根据每一帧图像是否能够获取到足够数量的特征点,分为两种情况同时进行。分别是:
情况1:在稀疏SLAM的框架下,通过像素之间的灰度差异获取图像中的特征点。首先,对步骤一中获取的每一帧图像,提取图像中的ORB特征点。对于所需重建的场景中纹理特征复杂的部分,反映在图像上即为能够提取得到足够数量的ORB特征点。之后利用FLANN算法对每两帧图像提取得到的特征点进行匹配,得到ORB特征点对,用于跟踪相机的运动,估计相机的位姿。
情况2:对于图像中获取不到足够特征点的区域,比如一些低纹理的平面区域,则将这些平面区域从图像中提取出来,作为之后匹配与跟踪的平面路标。其主要由以下几步组成:
其中,提取图像中的平面区域通过下述方法实现:
注:下述说明公式中斜体加粗的为矢量,斜体为加粗的为标量,正体加粗的为矩阵。
a、估计图像中每个点的法向量。在三维空间中的一个点p的法线向量可以用np=(nx,ny,nz)表示,其中nx,ny,nz为法向量在空间坐标系三个轴方向上的分量。具体为:如图2所示,假设图像中的一点p,计算其左右相邻点的向量vp,h以及上下相邻点的向量vp,v。由此可以通过向量计算得到两个向量交点p的法向量np
np=vp,h×vp,v
b、步骤a中计算得到了每个点的法线np=(nx,ny,nz),于是在相机坐标系下对于图像中的每个点p可以给其增加向量信息表示为:
p={x,y,z,nx,ny,nz}
其中,(x,y,z)是点p在相机坐标系下的坐标,(nx,ny,nz)是点p的法向量。
同时通过点乘给点p增加距离信息nd
nd={x,y,z}·{nx,ny,nz}
由此,一个完整的具有几何信息的点p可表示为:
p={x,y,z,nx,ny,nz,nd}
针对图像上的任意两个点p1,p2,计算两个距离,分别是法线之间的角度差异distnormal(p1,p2)与两点之间的距离差异distrange(p1,p2):
distnormal(p1,p2)=np1·np2
distrange(p1,p2)=|nd1-nd2|
其中,np1与np2分别为点p1与p2的法向量;nd1与nd2分别为p1与p2的距离信息。
若上述两个距离同时小于各自对应的设定距离阈值threshnormal与threshrange,则可以认为两个点在同一平面上,由此可以将图像中的平面区域分割出来。
通过上述方法,提取出每一帧图像中的平面区域后,除了在情况1中的特征点匹配,将提取出的平面区域也用于匹配跟踪定位,具体利用以下几何信息:平面法向量、提取出来的平面中每两个平面之间的距离,以及平面投影中的重叠部分。无论是特征点还是平面路标的匹配,在跟踪的过程中同时进行。
步骤三:局部建图。
随着相机的运动,在相机获得的每一帧图像中可以获取得到足够的特征点、平面路标,指定步长,每隔10帧作为一个关键帧(该步长可以随着实际应用情况改变)。因此,通过估计得到相机位姿,将匹配的特征点进行三角化,将特征点在世界坐标系下的坐标作为地图点,从而可以生成一系列的地图点进行局部的建图。
步骤四:局部地图优化
由于误差的存在,需要对局部地图进行捆集调整优化与回环检测;具体为:
对步骤三中的关键帧,利用局部捆集调整对局部地图进行优化,剔除一些多余的关键帧。由于步骤二中进行了平面提取,而平面在每帧中观测到的次数远小于特征点,将平面融合到优化过程中不会增加过多的计算量,因此将平面路标放到局部地图中,通过图优化方法实现局部地图优化,具体为:
如图3所示,令x0,…,xt为六自由度的相机位姿,π0,…,πn为平面路标,c0,…,ct为相机对平面的观测,u1,…,ut为根据前端视觉里程计估计得到的相机运动。
针对平面方程ax+by+cz+d=0,采用矩阵[a b c d]T表示平面路标,其中,平面法向量np=[a b c]T,这里的a,b,c与上文中np=(nx,ny,nz)有对应关系a=nx,b=ny,c=nz。d表示平面到相机坐标系原点的距离。对于平面πi上的点pi
πi Tpi=0
由相机坐标系与世界坐标系的关系,有
Figure BDA0001689259360000051
Figure BDA0001689259360000052
其中,
Figure BDA0001689259360000053
表示由相机坐标系到世界坐标系的变换矩阵;pω是点pi在世界坐标系下的坐标,πω是平面在世界坐标系下的坐标;pc是点pi在相机坐标系下的坐标,πc是平面在相机坐标系下的坐标。
用一个单位四元数q实现平面的最少参数表示,解决自由度冗余的问题,从而可以利用李代数解决优化中的最小二乘问题。
q=(q1,q2,q3,q4)T∈R4,||q||=1
步骤五:将特征点与平面都作为路标,用词袋(bag of words)BoW的方法进行回环检测,并进行全局的捆集调整来优化相机位姿与轨迹。
本发明基于稀疏SLAM框架的低纹理平面场景重建方法,不仅得到了相机的轨迹,并且无论是针对纹理密集的区域还是一些纹理特征稀疏的平面区域,本方法都能获得一个较为良好的重建效果。

Claims (4)

1.基于稀疏SLAM框架的低纹理平面场景重建方法,其特征在于:包括以下步骤:
步骤一:通过相机读取图像数据每一帧的RGB图像与深度图像;
步骤二:对于获取的每一帧图像,进行下述处理:
A、在稀疏SLAM的框架下,通过像素之间的灰度差异获取图像中的特征点;
B、提取图像中获取不到足够特征点的平面区域,作为平面路标;
获取平面区域的方法为:
a、估计图像中每个点的法向量;
假设图像中的一点p,计算其左右相邻点的向量vp,h以及上下相邻点的向量vp,v;由此可以通过向量计算得到两个向量交点p的法向量np
np=vp,h×vp,v
b、根据步骤a中得到的每个点的法向量
Figure FDA0003619829300000011
在相机坐标系下对于图像中的每个点p增加向量信息,表示为:
p={x,y,z,nx,ny,nz}
其中,(x,y,z)是点p在相机坐标系下的坐标,(nx,ny,nz)是点p的法向量;
同时通过点乘给点p增加距离信息nd
nd={x,y,z}·{nx,ny,nz}
由此,得到完整的具有几何信息的点p,可表示为:
p={x,y,z,nx,ny,nz,nd}
针对图像上的任意两个点p1,p2,计算两个距离,分别是法线之间的角度差异distnormal(p1,p2)与两点之间的距离差异distrange(p1,p2):
distnormal(p1,p2)=np1·np2
distrange(p1,p2)=|nd1-nd2|
若上述两个距离同时小于各自对应的设定距离阈值threshnormal与threshrange,则两个点在同一平面,由此将图像中的平面区域分割出来;
步骤三:将特征点在世界坐标系下的坐标作为地图点,进行局部的建图;
步骤四:对局部地图进行捆集调整优化与回环检测局部地图;
步骤五:将特征点与平面都作为路标,进行回环检测,并进行全局的捆集调整来优化相机位姿与轨迹。
2.如权利要求1所述基于稀疏SLAM框架的低纹理平面场景重建方法,其特征在于:步骤二中特征点获取方法为:首先,对每一帧图像,提取图像中的ORB特征点,之后利用FLANN算法对每两帧图像提取得到的特征点进行匹配,得到ORB特征点对。
3.如权利要求1所述基于稀疏SLAM框架的低纹理平面场景重建方法,其特征在于:步骤四中对局部地图进行捆集调整优化,具体方式为:
在相机获得的每一帧图像中获取指定步长的关键帧,对关键帧,利用局部捆集调整对局部地图进行优化,剔除多余的关键帧。
4.如权利要求3所述基于稀疏SLAM框架的低纹理平面场景重建方法,其特征在于:步骤三中将平面路标放到局部地图中,通过图优化方法实现局部地图优化,具体为:
令x0,...,xt为六自由度的相机位姿,π0,…,πn为平面路标,c0,…,ct为相机对平面的观测,u1,…,ut为根据前端视觉里程计估计得到的相机运动;
采用矩阵[a b c d]T表示平面路标,其中,平面法向量np=[a b c]T;a,b,c与np=(nx,ny,nz)有对应关系a=nx,b=ny,c=nz,d表示平面到相机坐标系原点的距离;对于平面πi上的点pi,满足
πi Tpi=0
由相机坐标系与世界坐标系的关系,有
Figure FDA0003619829300000021
Figure FDA0003619829300000022
其中,
Figure FDA0003619829300000023
表示由相机坐标系到世界坐标系的变换矩阵;pω是点pi在世界坐标系下的坐标,πω是平面在世界坐标系下的坐标;pc是点pi在相机坐标系下的坐标,πc是平面在相机坐标系下的坐标;
用一个单位四元数q实现平面的最少参数表示,利用李代数解决优化中的最小二乘问题;
q=(q1,q2,q3,q4)T∈R4,‖q‖=1
q1、q2、q3、q4为单位四元数;q1为单位四元数的实部,q2、q3、q4为单位四元数的虚部。
CN201810584937.6A 2018-06-08 2018-06-08 基于稀疏slam框架的低纹理平面场景重建方法 Active CN108776989B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810584937.6A CN108776989B (zh) 2018-06-08 2018-06-08 基于稀疏slam框架的低纹理平面场景重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810584937.6A CN108776989B (zh) 2018-06-08 2018-06-08 基于稀疏slam框架的低纹理平面场景重建方法

Publications (2)

Publication Number Publication Date
CN108776989A CN108776989A (zh) 2018-11-09
CN108776989B true CN108776989B (zh) 2022-06-24

Family

ID=64024914

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810584937.6A Active CN108776989B (zh) 2018-06-08 2018-06-08 基于稀疏slam框架的低纹理平面场景重建方法

Country Status (1)

Country Link
CN (1) CN108776989B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584302B (zh) * 2018-11-27 2023-12-01 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN111340922A (zh) * 2018-12-18 2020-06-26 北京三星通信技术研究有限公司 定位与地图构建的方法和电子设备
CN110458863B (zh) * 2019-06-25 2023-12-01 广东工业大学 一种基于rgbd与编码器融合的动态slam系统
CN110487274B (zh) * 2019-07-30 2021-01-29 中国科学院空间应用工程与技术中心 用于弱纹理场景的slam方法、系统、导航车及存储介质
CN112348876A (zh) * 2019-08-08 2021-02-09 北京地平线机器人技术研发有限公司 一种标志牌的空间坐标获取方法及装置
CN111260709B (zh) * 2020-01-15 2022-04-19 浙江大学 一种面向动态环境的地面辅助的视觉里程计方法
CN111709997B (zh) * 2020-06-30 2023-03-24 华东理工大学 一种基于点与平面特征的slam实现方法及系统
CN112419497A (zh) * 2020-11-13 2021-02-26 天津大学 基于单目视觉的特征法与直接法相融合的slam方法
CN116148883B (zh) * 2023-04-11 2023-08-08 锐驰智慧科技(安吉)有限公司 基于稀疏深度图像的slam方法、装置、终端设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN106157367A (zh) * 2015-03-23 2016-11-23 联想(北京)有限公司 三维场景重建方法和设备
CN106251399A (zh) * 2016-08-30 2016-12-21 广州市绯影信息科技有限公司 一种基于lsd‑slam的实景三维重建方法
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157367A (zh) * 2015-03-23 2016-11-23 联想(北京)有限公司 三维场景重建方法和设备
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN106251399A (zh) * 2016-08-30 2016-12-21 广州市绯影信息科技有限公司 一种基于lsd‑slam的实景三维重建方法
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Direct Methods for 3D Reconstrunction and Visual SLAM;Daniel Cremers等;《2017 Fiftnnenth IAPR international conference on machine vision applications》;20170512;第34-38页 *
PLP-SLAM:基于点、线、面特征融合的视觉SLAM方法;李海丰等;《机器人》;20170330;第39卷(第2期);第214-220页 *
Visionary collaborative outdoor reconstruction using SLAM and SfM;Philipp Fleck等;《IEEE 9th workshop on software engineering and architectures for realtime interactive systems》;20160330;第47-48页 *
基于RGB-D深度相机的室内场景重建;梅峰等;《中国图象图形学报》;20151030;第20卷(第10期);第1366-1373页 *

Also Published As

Publication number Publication date
CN108776989A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
CN108776989B (zh) 基于稀疏slam框架的低纹理平面场景重建方法
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
Brown et al. Advances in computational stereo
US20140002597A1 (en) Tracking Poses of 3D Camera Using Points and Planes
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
CN111105460B (zh) 一种室内场景三维重建的rgb-d相机位姿估计方法
CN111340922A (zh) 定位与地图构建的方法和电子设备
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
CN112652020B (zh) 一种基于AdaLAM算法的视觉SLAM方法
Raposo et al. Piecewise-planar stereoscan: structure and motion from plane primitives
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
Alcantarilla et al. Large-scale dense 3D reconstruction from stereo imagery
CN113658337A (zh) 一种基于车辙线的多模态里程计方法
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
CN116977596A (zh) 一种基于多视角图像的三维建模系统及方法
Rothermel et al. Fast and robust generation of semantic urban terrain models from UAV video streams
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN116128966A (zh) 一种基于环境物体的语义定位方法
CN115830116A (zh) 一种鲁棒视觉里程计方法
Nicosevici et al. Online robust 3D mapping using structure from motion cues
Kitt et al. Trinocular optical flow estimation for intelligent vehicle applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant