CN109389633B - 基于lsd-slam和激光雷达的深度信息估计方法 - Google Patents

基于lsd-slam和激光雷达的深度信息估计方法 Download PDF

Info

Publication number
CN109389633B
CN109389633B CN201811009501.0A CN201811009501A CN109389633B CN 109389633 B CN109389633 B CN 109389633B CN 201811009501 A CN201811009501 A CN 201811009501A CN 109389633 B CN109389633 B CN 109389633B
Authority
CN
China
Prior art keywords
data
point cloud
slam
lsd
laser radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811009501.0A
Other languages
English (en)
Other versions
CN109389633A (zh
Inventor
李晓飞
华崴鉴
刘浏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201811009501.0A priority Critical patent/CN109389633B/zh
Publication of CN109389633A publication Critical patent/CN109389633A/zh
Application granted granted Critical
Publication of CN109389633B publication Critical patent/CN109389633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种基于LSD‑SLAM和激光雷达的深度信息估计方法,首先利用LSD‑SLAM算法通过单目摄像头得到当前场景的点云数据,并将其导出为“.ply”文件;随后利用激光雷达得到周围场景的深度数据并进行截取,得到摄像头所能获取的相应范围内的深度数据;最后,将点云数据和激光雷达数据做相应位置的匹配,并记录所匹配的每个对应点的深度数据的差值,再根据此差值对整个点云数据进行更新,从而得到当前场景较为准确的深度信息。采用本发明可以在单目摄像头所获得的当前场景的深度信息的基础上,利用激光雷达的硬件优势,将两种深度信息进行匹配融合,最大程度地保证了当前场景的深度信息的准确性。

Description

基于LSD-SLAM和激光雷达的深度信息估计方法
技术领域
本发明具体涉及一种基于LSD-SLAM和激光雷达的深度信息估计方法。
背景技术
LSD-SLAM(Large Scale Direct monocular SLAM)是J.Engle等人于2014 年提出的SLAM工作,它标志着单目直接法在SLAM中的成功应用。LSD-SLAM的核心贡献是将直接法应用到了半稠密的单目SLAM中,它不仅不需要计算特征点,还能构建半稠密的地图。
LSD-SLAM的直接法是针对像素进行的,在CPU上实现了半稠密场景的重建,基于特征点的方法只能是稀疏的,而进行稠密重建的方案大多要使用RGB-D传感器,或者使用GPU构建稠密地图。TUM计算机视觉组在多年对直接法研究的基础上,使用了一些精妙的手段来保证追踪的实时性与稳定性,实现了这种CPU上的实时半稠密SLAM。
但是通过LSD-SLAM获取当前场景深度信息必然存在着较大的误差,本发明通过将点云的深度信息与相应范围的激光雷达的深度信息相融合,能起到有效地减少深度数据误差的作用。
发明内容
发明目的:本发明提供一种基于LSD-SLAM和激光雷达的深度信息估计方法,能充分发挥激光雷达测距的优势,通过匹配融合,弥补LSD-SLAM算法从视觉上估计深度信息的不足的问题。
技术方案:本发明所述的一种基于LSD-SLAM和激光雷达的深度信息估计方法,包括以下步骤:
(1)通过LSD-SLAM算法得到当前场景的点云数据,并将其导出;
(2)利用激光雷达得到周围场景相应范围内的深度数据;
(3)将点云数据和激光雷达数据做相应位置的匹配,并记录所匹配的每个对应位置的深度数据的差值;
(4)根据步骤(3)所得差值对整个点云数据进行更新,从而得到当前场景较为准确的深度信息。
所述步骤(1)包括以下步骤:
(11)将LSD-SLAM所依赖的ROS系统去除掉,并使用相应的库进行代替;
(12)保存当前场景的点云数据,并将点云缓存为“.ply”文件。
步骤(2)所述的激光雷达位于单目摄像头正下方,初始角度一致。
步骤(2)所述的深度数据为激光雷达和单目摄像头视角所对应角度范围内的深度数据。
步骤(3)所述深度数据的差值为一度。
有益效果:与现有技术相比,本发明的有益效果:充分发挥激光雷达测距的优势,通过匹配融合,弥补LSD-SLAM算法从视觉上估计深度信息的不足,可获得当前场景较为准确的深度信息。
附图说明
图1本发明流程示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
图1为本发明的流程图,包括以下步骤:
1、通过将LSD-SLAM算法得到当前场景的点云数据,并将其导出。
首先,将LSD-SLAM所依赖的ROS系统去除掉。ROS操作系统在LSD-SLAM中只是起到了数据的输入和输出的作用,完全可以通过G2O,Eigen,Qt等库来进行代替,这样就能不依赖于冗杂的ROS操作系统而实现LSD SLAM,显著地提高了运行的效率。具体方案是把源码中的ROS的发布订阅机制去除掉,采用线程间的通信方式来代替,并通过OpenGL图像库来代替源码中三维显示方案。
其次,保存当前场景的点云数据。该算法在运行的时候会对当前场景进行深度信息的估计,从而生成点云数据,每当点云数据产生的时候,通过文件流的写操作将每个点云的数据写到“.ply”文件里,当点云数据不再更新的时候,关闭文件流。
2、利用激光雷达得到周围场景相应范围内的深度数据。
原始的激光雷达的数据的范围是360度的,但是这里只需要和单目摄像头视角所对应的角度的范围内的深度数据即可。将激光雷达和摄像头的初始角度设为一致,然后记录下摄像头的视角范围,在激光雷达扫描数据的时候,如果所扫描到的点的角度不在这个范围的话,则丢弃,只保留在这个角度范围的深度数据。
3、将点云数据和激光雷达数据做相应位置的匹配,并记录所匹配的每个对应位置的深度数据的差值。
由于激光雷达是放在摄像头正下方的,因此认为点云数据中y坐标为0的点云的深度数据是和激光雷达所扫描到的数据是在同一个高度的。通过激光雷达所扫描到的点的深度数据和角度数据,算出每个点的x坐标,并将该点与点云数据中y坐标为0的点进行匹配,凡是x坐标的差值在1度范围之内的,均认为是对应的点。
4、根据步骤3所得差值对整个点云数据进行更新,从而得到当前场景较为准确的深度信息。
计算出步骤3中的点云数据和激光雷达数据中对应位置的点的深度信息的差值,并将此差值结合该点的x坐标用一个map数据结构进行保存,用一个 vector保存所有的map数据;
遍历点云文件,依次点云数据中与vector中的map的x坐标的差值在1度以内的点的深度数据均做相应的差值处理,进而更新整个点云数据。

Claims (5)

1.一种基于LSD-SLAM和激光雷达的深度信息估计方法,其特征在于,包括以下步骤:
(1)通过LSD-SLAM算法得到当前场景的点云数据,并将其导出;
(2)利用激光雷达得到周围场景相应范围内的深度数据;
(3)将点云数据和深度数据做相应位置的匹配,并记录所匹配的每个对应位置的深度数据的差值;
(4)根据步骤(3)所得差值对整个点云数据进行更新,从而得到当前场景较为准确的深度信息;
所述步骤(3)实现过程如下:
激光雷达放在摄像头正下方,点云数据中y坐标为0的点云的深度数据是和激光雷达所扫描到的数据是在同一个高度的;通过激光雷达所扫描到的点的深度数据和角度数据,算出每个点的x坐标,并将该点与点云数据中y坐标为0的点进行匹配,凡是x坐标的差值在1度范围之内的,均认为是对应的点。
2.根据权利要求1所述的一种基于LSD-SLAM和激光雷达的深度信息估计方法,其特征在于,所述步骤(1)包括以下步骤:
(11)将LSD-SLAM所依赖的ROS系统去除掉,并使用相应的库进行代替;
(12)保存当前场景的点云数据,并将点云缓存为“.ply”文件。
3.根据权利要求1所述的一种基于LSD-SLAM和激光雷达的深度信息估计方法,其特征在于,步骤(2)所述的激光雷达位于单目摄像头正下方,初始角度一致。
4.根据权利要求1所述的一种基于LSD-SLAM和激光雷达的深度信息估计方法,其特征在于,步骤(2)所述的深度数据为激光雷达和单目摄像头视角所对应角度范围内的深度数据。
5.根据权利要求1所述的一种基于LSD-SLAM和激光雷达的深度信息估计方法,其特征在于,步骤(3)所述深度数据的差值为一度。
CN201811009501.0A 2018-08-31 2018-08-31 基于lsd-slam和激光雷达的深度信息估计方法 Active CN109389633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811009501.0A CN109389633B (zh) 2018-08-31 2018-08-31 基于lsd-slam和激光雷达的深度信息估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811009501.0A CN109389633B (zh) 2018-08-31 2018-08-31 基于lsd-slam和激光雷达的深度信息估计方法

Publications (2)

Publication Number Publication Date
CN109389633A CN109389633A (zh) 2019-02-26
CN109389633B true CN109389633B (zh) 2022-02-11

Family

ID=65417685

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811009501.0A Active CN109389633B (zh) 2018-08-31 2018-08-31 基于lsd-slam和激光雷达的深度信息估计方法

Country Status (1)

Country Link
CN (1) CN109389633B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627056B (zh) * 2020-05-14 2023-09-01 清华大学 基于深度估计的行车能见度确定方法及装置
CN114529603B (zh) * 2020-11-23 2023-05-19 新疆大学 一种基于激光slam与单目视觉slam融合的里程计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803267A (zh) * 2017-01-10 2017-06-06 西安电子科技大学 基于Kinect的室内场景三维重建方法
CN108229366A (zh) * 2017-12-28 2018-06-29 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108447116A (zh) * 2018-02-13 2018-08-24 中国传媒大学 基于视觉slam的三维场景重建方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803267A (zh) * 2017-01-10 2017-06-06 西安电子科技大学 基于Kinect的室内场景三维重建方法
CN108229366A (zh) * 2017-12-28 2018-06-29 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108447116A (zh) * 2018-02-13 2018-08-24 中国传媒大学 基于视觉slam的三维场景重建方法和装置

Also Published As

Publication number Publication date
CN109389633A (zh) 2019-02-26

Similar Documents

Publication Publication Date Title
CN110945565B (zh) 利用概率面元地图的密集视觉slam
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
CN104537709B (zh) 一种基于位姿变化的实时三维重建关键帧确定方法
TWI467494B (zh) 使用深度圖進行移動式攝影機定位
US8929645B2 (en) Method and system for fast dense stereoscopic ranging
US9269003B2 (en) Diminished and mediated reality effects from reconstruction
KR20210042942A (ko) 비디오 데이터를 이용한 객체 인스턴스 매핑
US8467628B2 (en) Method and system for fast dense stereoscopic ranging
CN109584302B (zh) 相机位姿优化方法、装置、电子设备和计算机可读介质
CN109084746A (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
CN109974743B (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
JP6469905B2 (ja) 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定
US11704883B2 (en) Methods and systems for reprojection in augmented-reality displays
Ceriani et al. Pose interpolation slam for large maps using moving 3d sensors
Grinvald et al. TSDF++: A multi-object formulation for dynamic object tracking and reconstruction
CN109389633B (zh) 基于lsd-slam和激光雷达的深度信息估计方法
CN110490222A (zh) 一种基于低性能处理器设备的半直接视觉定位方法
JP2013077165A (ja) 3次元形状データ処理方法、3次元形状データ処理装置
WO2020098566A1 (zh) 三维建模的方法、设备及计算机可读存储介质
JP2006285952A (ja) 画像処理方法、画像処理装置、プログラムおよび記録媒体
KR101766823B1 (ko) 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법
Splietker et al. Directional TSDF: Modeling surface orientation for coherent meshes
Liu et al. Linear-covariance loss for end-to-end learning of 6d pose estimation
Sizintsev et al. Long-range augmented reality with dynamic occlusion rendering
CN115143958A (zh) 一种基于gpu加速的多传感器融合的slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant