CN110849351A - 一种利用深度相机和双目相机构建栅格地图的方法 - Google Patents
一种利用深度相机和双目相机构建栅格地图的方法 Download PDFInfo
- Publication number
- CN110849351A CN110849351A CN201911145785.0A CN201911145785A CN110849351A CN 110849351 A CN110849351 A CN 110849351A CN 201911145785 A CN201911145785 A CN 201911145785A CN 110849351 A CN110849351 A CN 110849351A
- Authority
- CN
- China
- Prior art keywords
- grid
- sensor
- camera
- depth
- registration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明公开了一种利用深度相机和双目相机构建栅格地图的方法,属于图像处理和计算机视觉领域。利用严谨的配准策略完成传感器配准,从硬件的层次提升系统效率。利用GPU构建高性能运算平台,并构建高性能求解算法构建栅格地图。系统容易构建,程序简单,易于实现;利用多模态传感器,算法鲁棒性强精度高。
Description
技术领域
本发明属于图像处理和计算机视觉领域。涉及一种利用深度相机和双目相机构建栅格地图的方法。
背景技术
近年伴随着人工智能的发展移动机器人和汽车自动驾驶越来越受到人们的关注,而其中一个需要解决主要的问题就是地图构建。栅格地图是在无人导航中最为常见的一种地图,因而如何构建快速精确的栅格地图成为移动机器人和和无人车中一个十分重要的问题。现阶段主流的方法大致利用三种传感器,双目相机,深度相机和雷达。三种传感器由于自身的特性存在着不可避免的缺点,双目相机受光照和纹理影响大,深度相机测距范围有限。抗干扰能力差,激光雷达或毫米波雷达价格昂贵且数据稀疏。由此可见单一传感器构建栅格地图不能完整准确的反映出场景的结构。因此传感器融合成为一种趋势,现阶段存在的融合方案有双目相机和雷达,使用双目相机的稠密数据填充雷达的稀疏数据,使用雷达的精确数据修正双目相机的粗略数据,最终构建可较好反映场景深度图,然后可利用生成的深度图构建栅格地图。但是这样的方案设备成本高,算法中数据融合消耗资源多、实时性较差,而且不适合在规模较小的环境使用。
发明内容
为解决上述问题本发明提出使用深度相机和双目相机构建栅格地图的方法,深度相机测距范围有限但是精度高可以弥补双目相机在近处的测量误差,双目相机测距范围大可以获取远处的信息。两者结合克服无纹理区域、光照影响等问题。但是数据融合依然影响算法的执行效率,本发明提出的权值状态更新方法融合数据可以提升算法效率。本发明提出一种高效的利用深度相机和双目相机构建栅格地图的方法。具体技术方案的步骤如下:
1)传感器配准
在两传感器测距范围内选取8个以上的位置,使用标定物在公共视野内拍摄8个以上图像。令深度相机深度图转换的点云为对应的双目相机的点云为迭代求解位姿T,T是满足和中最多对点的位姿关系,即在不同深度位置传感器位姿会有所不同所以在标定后得到的是传感器位姿序列,并且会记录计算位姿时点云的包围框,用于指导点云分区域配准。
2)更新测量值权重
本发明的融合策略是根据不同场景,不同范围和不同传感器精度赋予测量值权值w。由于传感器视角和场景原因会导致某一传感器在某些区域不会产生测量数据,此时将完全信赖产生测量数据的传感器。另外深度传感器普遍不适用于室外测距,在算法中存在场景判别机制,当在室外时会降低权值;
3)分区域配准
在对点云和配准时,会判断三维点存在于位姿序列的哪一个包围框中,并采用对应的位姿进行配准Tj。如果重叠则使用重叠位姿的均值如果不在任何包围框中,则判断三维点到各包围框中心的距离如果大于阈值则剔除否则使用位姿序列平均位姿进行配准,配准后的点云为Pc。
4)筛选视线
构建栅格地图时要对点云Pc进行筛选,连接三维点q与视线起点o为当前视线l,o是相机光心在世界坐标系的位置,如果q的高度比o大h则剔去视线,保留的视线会投影到栅格地图之中为l′。从O沿着投影线遍历更新栅格的状态直到到达端点Q,O和Q为o点和q点在栅格地图中的投影。
5)更新栅格状态
在遍历投影线的过程中会以权值更新投影线经过的栅格的状态。在更新栅格状态时,以贝叶斯推断方式融合更新。具体指的是在已知栅格已有的状态和本次测量的栅格状态,用贝叶斯推断的方式可得出本次测量后的栅格状态。
算法中ε和h为设定的阈值。
进一步地,上述步骤2)更新测量值权重,具体步骤如下:
设深度传感器精度曲线为fd,双目相机的精度曲线为fs,在两者的公共测距范围内对精度做归一化处理作为权值wd,ws;在深度相机和双目相机各自独有测距范围内以精度作为其权值;将双目相机采集的场景图像作为场景判别的输入,场景判断是否发生变化,如果权值表示为室内而场景为室外则认为发生变化,反之则不发生变化;用室外系数因子α或室内系数因子β调节深度传感器测量值权值,并与双目相机权值重新归一化;实际情况中如果在公共测距范围内一方没有测量值,则以另一方的精度作为权值;所述α和β为设定的值。
本发明的有益效果是:
本发明设计了一种利用多传感器构建栅格地图的方法。利用各传感器的特性,利用图像融合技术结合各传感优势相互弥补缺陷。具有以下特点:
1、程序简单,易于实现;
2、算法效率高,实时性强;
3、栅格地图的精度更高。
附图说明
图1是系统架构。
图2是传感器配准的算法流程。
图3是多传感器构建栅格地图的算法流程。
图4为双目相机左、右场景图。
图5为双目相机深度图。
图6为仿真深度相机深度图。
图7为栅格地图。
具体实施方式
本发明提出了一种利用深度相机和双目相机构建栅格地图的方法,结合附图及实施例详细说明如下:
总体流程如图1,首先从传感器中获得场景深度图如图5和6,然后在GPU上执行算法融合深度测量结果并构建栅格地图,最后进入栅格地图可视化程序。本发明所述的方法包括下列步骤:
1)传感器配准
传感器配准流程如图2。在两传感器的公共测距范围选取8个以上位置使用标定物在公共视野内拍摄8个以上图像。如图2传感器获得是深度图需要使用相机内参矩阵得到三维点云。令深度相机深度图转换的点云为对应的双目相机的点云为迭代求解位姿T,T是满足和中最多对点的位姿关系,即在全部标定后得到的是传感器位姿序列T1,T2,…,Tn,并且会记录计算位姿时点云的包围框B1,B2,…,Bn,用于指导点云分区域配准。
2)更新测量值权重
设深度传感器精度曲线为fd,双目相机的精度曲线为fs,在两者的公共测距范围内对精度做归一化处理作为权值wd,ws。在深度相机和双目相机各自独有测距范围内以精度作为其权值。更新测量值权重如图3上部,将双目相机采集的场景图像,如图4作为场景判别的输入。当场景判断是否发生变化,如果权值表为室内而场景为室外则认为发生变化,反之亦然。此时会用室外系数因子α或室内系数因子β调节深度传感器测量值权值,并与双目相机权值重新归一化。实际情况中如果在公共测距范围内一方没有测量值,则以另一方的精度作为权值。
图3下部是传感器融合构建栅格地图的算法流程包含的步骤有3)4)5)。
3)分区域配准
如图3获得传感器深度图并转换为点云后进入配准环节。在对点云和配准时,如果三维点q存在于包围框Bj中会使用Tj进行配准;如果不在任何包围框中,则判断三维点q到每个框中心的距离dj,如果距离大于τ则剔除,否则使用序列位姿平均位姿进行配准;如果重叠则使用重叠位姿的均值进行配准配准后的点云为Pc。
4)筛选视线
如图3首先对配准后的点云Pc进行视线筛选,连接三维点q与视线起点o为当前视线l,o是相机光心在世界坐标系的位置,如果q的高度比o大h则剔去视线,保留的视线会投影到栅格地图之中为l′。从O沿着投影线遍历更新栅格的状态直到到达端点Q,O和Q为o点和q点在栅格地图中的投影。
5)更新栅格状态
在已知栅格已有的状态和本次测量的栅格状态,用贝叶斯推断的方式可得出本次测量后的栅格状态。栅格已有的状态xt,如果栅格在O与Q之间说明此时栅格中没有障碍物,则更新栅格的状态为xt+1=-wq+xt。如果栅格在Q的位置说明此时栅格中应该存在障碍物,则更新栅格的状态为xt+1=wq+xt,示意图7表示栅格地图的预期可视化结果,其中将不同的栅格用黑线分隔。
算法中ε、α、β、τ和h为设定的值。
Claims (2)
1.一种利用深度相机和双目相机构建栅格地图的方法,其特征在于,包括以下步骤:
1)传感器配准
在两传感器测距范围内选取8个以上位置,使用标定物在公共视野内拍摄8个以上图像;令深度相机深度图转换的点云为对应的双目立体相机的点云为迭代求解位姿T,T是满足和中最多对点的位姿关系,即在不同深度位置传感器位姿会有所不同所以在标定后得到的是传感器位姿序列,并且会记录计算位姿时点云的包围框;
2)更新测量值权重
根据不同场景,不同范围和不同传感器精度赋予测量值权值w;由于传感器视角和场景原因会导致某一传感器在某些区域不会产生测量数据,此时将完全信赖产生测量数据的传感器;
3)分区域配准
在对点云和配准时,如果三维点q存在于包围框Bj中,使用Tj进行配准;如果不在任何包围框中,则判断三维点q到每个框中心的距离dj,如果距离大于τ则剔除,否则使用序列位姿平均位姿进行配准;如果重叠则使用重叠位姿的均值进行配准配准后的点云为Pc;
4)筛选视线
构建栅格地图时对点云Pc进行筛选,连接三维点q与视线起点o为当前视线l,o是相机光心在世界坐标系的位置,如果q的高度比o大h则剔去视线,保留的视线会投影到栅格地图之中为l′;从O沿着投影线遍历更新栅格的状态直到到达端点Q,O和Q为o点和q点在栅格地图中的投影;
5)更新栅格状态
栅格已有的状态xt,如果栅格在O与Q之间说明此时栅格中没有障碍物,则更新栅格的状态为xt+1=-wq+xt;如果栅格在Q的位置说明此时栅格中存在障碍物,则更新栅格的状态为xt+1=wq+xt;
步骤1)-步骤5)中ε、τ和h为设定的阈值。
2.根据权利要求1所述的利用深度相机和双目相机构建栅格地图的方法,其特征在于,步骤2)更新测量值权重,具体步骤如下:
设深度传感器精度曲线为fd,双目相机的精度曲线为fs,在两者的公共测距范围内对精度做归一化处理作为权值wd,ws;在深度相机和双目相机各自独有测距范围内以精度作为其权值;将双目相机采集的场景图像作为场景判别的输入,场景判断是否发生变化,如果权值表示为室内而场景为室外则认为发生变化,反之则不发生变化;用室外系数因子α或室内系数因子β调节深度传感器测量值权值,并与双目相机权值重新归一化;实际情况中如果在公共测距范围内一方没有测量值,则以另一方的精度作为权值;所述α和β为设定的值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911145785.0A CN110849351B (zh) | 2019-11-21 | 2019-11-21 | 一种利用深度相机和双目相机构建栅格地图的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911145785.0A CN110849351B (zh) | 2019-11-21 | 2019-11-21 | 一种利用深度相机和双目相机构建栅格地图的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110849351A true CN110849351A (zh) | 2020-02-28 |
CN110849351B CN110849351B (zh) | 2021-07-06 |
Family
ID=69603038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911145785.0A Active CN110849351B (zh) | 2019-11-21 | 2019-11-21 | 一种利用深度相机和双目相机构建栅格地图的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110849351B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114004874A (zh) * | 2021-12-30 | 2022-02-01 | 贝壳技术有限公司 | 占用栅格地图的获取方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616284A (zh) * | 2014-12-09 | 2015-05-13 | 中国科学院上海技术物理研究所 | 彩色深度相机的彩色图像到深度图像的像素级对准算法 |
CN104933708A (zh) * | 2015-06-07 | 2015-09-23 | 浙江大学 | 一种基于多谱三维特征融合的植被环境中障碍物检测方法 |
CN105354875A (zh) * | 2015-09-25 | 2016-02-24 | 厦门大学 | 一种室内环境二维与三维联合模型的构建方法和系统 |
CN108319655A (zh) * | 2017-12-29 | 2018-07-24 | 百度在线网络技术(北京)有限公司 | 用于生成栅格地图的方法和装置 |
WO2019111702A1 (ja) * | 2017-12-05 | 2019-06-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN109917786A (zh) * | 2019-02-04 | 2019-06-21 | 浙江大学 | 一种面向复杂环境作业的机器人感知系统及系统运行方法 |
CN110163968A (zh) * | 2019-05-28 | 2019-08-23 | 山东大学 | Rgbd相机大型三维场景构建方法及系统 |
-
2019
- 2019-11-21 CN CN201911145785.0A patent/CN110849351B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616284A (zh) * | 2014-12-09 | 2015-05-13 | 中国科学院上海技术物理研究所 | 彩色深度相机的彩色图像到深度图像的像素级对准算法 |
CN104933708A (zh) * | 2015-06-07 | 2015-09-23 | 浙江大学 | 一种基于多谱三维特征融合的植被环境中障碍物检测方法 |
CN105354875A (zh) * | 2015-09-25 | 2016-02-24 | 厦门大学 | 一种室内环境二维与三维联合模型的构建方法和系统 |
WO2019111702A1 (ja) * | 2017-12-05 | 2019-06-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN108319655A (zh) * | 2017-12-29 | 2018-07-24 | 百度在线网络技术(北京)有限公司 | 用于生成栅格地图的方法和装置 |
CN109917786A (zh) * | 2019-02-04 | 2019-06-21 | 浙江大学 | 一种面向复杂环境作业的机器人感知系统及系统运行方法 |
CN110163968A (zh) * | 2019-05-28 | 2019-08-23 | 山东大学 | Rgbd相机大型三维场景构建方法及系统 |
Non-Patent Citations (2)
Title |
---|
郑道岭,: ""基于多传感器的移动机器人地图构建方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
魏少鹏 等,: ""一种深度相机与双目视觉结合的视差估计技术"", 《光电工程》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114004874A (zh) * | 2021-12-30 | 2022-02-01 | 贝壳技术有限公司 | 占用栅格地图的获取方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110849351B (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275750B (zh) | 基于多传感器融合的室内空间全景图像生成方法 | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN112132972A (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN110910498B (zh) | 一种利用激光雷达和双目相机构建栅格地图的方法 | |
CN110223351B (zh) | 一种基于卷积神经网络的深度相机定位方法 | |
CN110942477B (zh) | 一种利用双目相机和激光雷达深度图融合的方法 | |
CN112505065A (zh) | 一种实现室内无人机对大部件表面缺陷进行检测的方法 | |
CN111141264A (zh) | 一种基于无人机的城市三维测绘方法和系统 | |
CN112731371B (zh) | 一种激光雷达与视觉融合的集成化目标跟踪系统及方法 | |
CN110322572A (zh) | 一种基于双目视觉的水下涵隧内壁三维信息恢复方法 | |
CN113327296B (zh) | 基于深度加权的激光雷达与相机在线联合标定方法 | |
CN111047698A (zh) | 一种真正射影像采集方法 | |
CN110849351B (zh) | 一种利用深度相机和双目相机构建栅格地图的方法 | |
Lim et al. | AdaLIO: Robust adaptive LiDAR-inertial odometry in degenerate indoor environments | |
CN110889364A (zh) | 一种利用红外传感器和可见光传感器构建栅格地图的方法 | |
CN110782506B (zh) | 一种利用红外相机和深度相机融合构建栅格地图的方法 | |
Sun et al. | Automatic targetless calibration for LiDAR and camera based on instance segmentation | |
Mharolkar et al. | RGBDTCalibNet: End-to-end Online Extrinsic Calibration between a 3D LiDAR, an RGB Camera and a Thermal Camera | |
Braun et al. | Visual terrain traversability estimation using a combined slope/elevation model | |
CN114608522B (zh) | 一种基于视觉的障碍物识别与测距方法 | |
CN114758011B (zh) | 融合离线标定结果的变焦相机在线标定方法 | |
CN110849352B (zh) | 一种利用红外、深度和双目相机融合构建栅格地图的方法 | |
CN110610503A (zh) | 一种基于立体匹配的电力刀闸三维信息恢复方法 | |
CN115937810A (zh) | 一种基于双目相机引导的传感器融合方法 | |
CN115482282A (zh) | 自动驾驶场景下具有多目标追踪能力的动态slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |