CN113359154A - 一种室内外通用的高精度实时测量方法 - Google Patents

一种室内外通用的高精度实时测量方法 Download PDF

Info

Publication number
CN113359154A
CN113359154A CN202110562265.0A CN202110562265A CN113359154A CN 113359154 A CN113359154 A CN 113359154A CN 202110562265 A CN202110562265 A CN 202110562265A CN 113359154 A CN113359154 A CN 113359154A
Authority
CN
China
Prior art keywords
camera
algorithm
laser radar
indoor
measurement method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110562265.0A
Other languages
English (en)
Inventor
何煜
邓良波
卢宝莉
金祎涵
邓小强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202110562265.0A priority Critical patent/CN113359154A/zh
Publication of CN113359154A publication Critical patent/CN113359154A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种室内外通用的高精度实时测量方法,该方法基于激光雷达的视觉SLAM系统,即:捕获来自同步相机和激光雷达的数据,并将其处理成统一的RGB‑D帧;然后,以处理后的RGB‑D帧作为输入,通过视觉SLAM系统实现全局地图的构建;最后,根据不同的测量任务,对构建出的场景运用匹配的视觉算法计算所求的工程参数。与现有技术相比,本发明所提出的测量方法可以以更高的精度和效率执行大规模建图,并且可以在室外强日光环境中鲁棒地操作,测量精度高,通用性好,能满足室内外不同的测量需求。

Description

一种室内外通用的高精度实时测量方法
技术领域
本发明涉及工程测量领域,具体涉及一种室内外通用的高精度实时测量方法。
背景技术
工程施工过程需要测量很多参数,例如在建筑领域需要测量建筑占地面积和楼层高度等参数,传统的测量方式主要依靠人工完成,不仅劳动强度大、测量效率低、还无法保证测量精度和数据监测的实时性。随着无人机技术发展的日益成熟,将无人机引入工程测量领域实现高精度实时测量成为可能。通常在无人机上安装多种传感器进行参数采集,将采集的数据进行处理后可实现场景的构建,对构建出的场景运用相匹配的算法可计算出所求工程参数。
无人机测量主要由智能决策、环境感知和运动控制三个模块构成,其中环境感知是一切的基础。无人机感知环境需要一套性能强大的传感器来采集数据,同时需要相应的算法来处理分析数据,在环境感知模块中,视觉传感器是不可或缺的。
SLAM(Simultaneous Localization and Mapping)是指同步定位与地图构建,即:载有特定传感器的主体在没有先验信息的情况下,通过计算特定传感器获取图像帧来估计自身运动的轨迹,并建立周围环境的地图,被广泛应用于机器人、无人机、自动驾驶、增强现实、虚拟现实等领域。SLAM可分为激光SLAM和视觉SLAM,前者理论较为成熟很早就被应用于工程中,其采用激光雷达作为传感器可视范围广,但缺点是激光雷达智能感知的结构信息是二维信息,信息量较少且易丢失大量的环境信息,使其应用场景受到限制;虽然激光雷达点云的精度和范围优于其他深度相机,但纯激光雷达SLAM系统由于激光雷达不能提供像相机一样高的角度分辨率,因此它容易在隧道或走廊等不太突出的结构环境中出现故障,它还缺乏闭环检测,使得算法只关注局部精度,而没有全局姿态和地图优化;后者的感知信息源为相机图像,根据相机类型可分为单目SLAM、双目SLAM和RGB-D SLAM,因视觉SLAM图像具有丰富信息,在21世纪得以快速发展。视觉SLAM有一个典型假设是场景固定,若有动态物体出现不仅影响相机位姿的估计而且在地图中留下残影,进而影响地图构建质量。并且,相机在高速运动情况下所捕捉的照片容易模糊,极大的影响了特征点的提取与匹配。若能将激光SLAM和视觉SLAM技术进行结合使用,利用相机的最佳角度分辨率和激光雷达的最佳深度及距离,则可以兼具两者的优点并互补各自的不足。
ORB-SLAM是基于特征点的实时单目SLAM系统,该算法可以实时运行在狭小的室内环境和宽阔的室外环境中,对剧烈运动具有鲁棒性。ORB-SLAM2是在ORB-SLAM算法基础上发展起来的,还支持标定后的双目相机和RGB-D相机,其精度更高,并能在标准CPU上实时工作。ORB-SLAM2虽然支持双目相机和RGB-D相机对深度估计的支持,但这两种相机都有缺点,特别是在估计具有长深度的室外物体时,双目相机需要长基线来进行精确的长深度估计,这在现实测量中通常不容易实现,此外双目相机之间的校准也容易受到机械变化的影响,致使深度估计精度降低;而RGB-D相机在室外通常容易受到太阳光的影响,有效工作范围一般小于10米。
ORB-SLAM2能够实现地图重用、回环检测和重新定位,其采用了光束优化法(BA,Bundle Adjustment),从视觉重建中提取出优化的3D模型和相机参数(内参数和外参数),从每一个特征点反射出来的几束光线,在我们把相机姿态和特征点空间位置做出最优的调整之后,最后收束到相机光心的过程。
ORB-SLAM2系统优化在跟踪过程中相机的位姿,优化本地窗口的关键帧和局部地图的特征点,并且在回环检测之后优化所有的关键帧和特征点(全局BA)。ORB-SLAM2系统主要包括四个线程:特征跟踪、局部建图、回环检测、BA优化,“特征跟踪”是通过寻找对局部地图的特征进行匹配,以及只运用BA算法来最小化重投影误差,进行跟踪和定位每帧的相机;“局部建图”是运用局部的BA算法设置局部地图并且优化;“回环检测”是通过执行位姿图的优化来更正累计漂移误差,在位姿优化之后执行全局BA算法,来计算整个系统最优结构和运动的结果;“BA优化”是优化所有的关键帧和特征点,输出优化后的定位结果。
本发明将ORB-SLAM2系统引入建筑工程测量中实现室内外高精度的实时测量,但鉴于现有的ORB-SLAM2系统仍存在一切不足,即:在光照突变、室外光照太强或太弱环境下,特征点提取鲁棒性较差;以及在动态环境下,如相机大角度转动时特征点丢失问题,或者在视野中有动态物体运动等复杂环境下对特征点提取存在影响。上述缺陷导致将现有ORB-SLAM2系统用于建筑工程测量会影响测量精度和鲁棒性的问题,因此需要对现有ORB-SLAM2系统进行改进,即解决室内外通用不受光照影响提高鲁棒性。
发明内容
本发明公开一种室内外通用的高精度实时测量方法,是将激光SLAM和视觉SLAM进行融合,提高测量精度和大规模建图的效率,并且可在室外强光下鲁棒地操作,通用性好。
为了实现上述目的,本发明所采用的技术方案为:
一种室内外通用的高精度实时测量方法,包括如下内容:
捕获安装于同一移动平台的RGB-D相机及激光雷达各自采集的数据,所述移动平台为无人机或机器人,所述相机采集获得RGB图像数据,激光雷达采集获得不同时间戳下的原始数据点云,将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正,求得从激光雷达坐标系到相机坐标系的变换矩阵,获得失真校正后激光雷达数据点云与相机RBG图像数据的对应关系,根据相机的外部校准参数投影到深度图像中,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出;
将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,特征跟踪输出的关键帧一方面进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,一方面通过点云融合线程获得稠密点云,进而实现全局场景地图的构建;所述视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行;
根据测量任务选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。
进一步,所述RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应。
进一步,所述移动平台处于静止且未触发人机交互状态时,相机和激光雷达的自动校准程序启动。
进一步,所述相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出。
进一步,所述一段时间优选5-10秒。
进一步,所述视觉SLAM系统优选采用ORB-SLAM2系统,或者采用ORB-SLAM3系统,或者采用InfiniTAM v3系统。
进一步,所述RGB-D相机优选采用MV-CE060-10UC滚动快门相机。
进一步,所述激光雷达优选采用Livox地平线激光雷达。
进一步,所述视觉算法包括如下其一或者多个:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法。
进一步,所述视觉算法包括目标检测算法时可以在如下算法中选择:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法;所述视觉算法包括边缘轮廓提取算法时可以在如下算法中选择:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器。
本发明将视觉SLAM系统引入工程测量中实现实时自动测量,在传统视觉
SLAM系统基础上,融合了激光雷达作为深度传感器进行大范围数据点云的采集,不仅提高了工程测量的精度,还拓宽了视觉SLAM适用场景,使之同时适用于室内外测量使用,具有很好的鲁棒性。
本发明通过相机和激光雷达的融合使用,在获取激光雷达精确深度信息的点云的同时,可以利用相机提供的高角度和高颜色信息,使得SLAM系统可以以更高的精度和效率执行大规模建图,并且可以在大规模室外场景、强日光环境以及动态环境中更加鲁棒地操作,不仅提高了SLAM系统的远距离探测能力和整体测量精度,也有助于更稳健有效的定位和建图。
附图说明
图1为本发明测量方法流程图;
图2为本发明方法中对RGB-D帧预处理示意图;
图3为本发明方法中采用视觉SLAM系统的线程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本实施例公开一种室内外通用的高精度实时测量方法,主要以用于建筑工程测量为例加以介绍,结合图1至图3对具体内容介绍如下:本方法是基于视觉SLAM系统上实现的,借助安装在移动平台(无人机或机器人)上的相机和激光雷达作为采集测量数据的传感器。考虑到单纯采用传统视觉SLAM系统中的相机采集数据时,若有动态物体出现不仅影响相机位姿的估计而且在地图中会留下残影,进而影响地图构建质量;并且,相机在高速运动情况下所捕捉的照片容易模糊。因此,本发明同时引入了激光雷达作为深度传感器,因为激光雷达采集数据点云的精度和范围远优于其他深度相机,且不易受到室外强光干扰,具有较好的鲁棒性。
考虑到用于建筑测量上需要较高的测量精度,并且能够实时测量,本发明选用的视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行,满足上述要求的视觉SLAM系统包括但不限于以下列举出的系统:ORB-SLAM2系统,ORB-SLAM3系统,InfiniTAM v3系统。本实施例选用的是ORB-SLAM2系统架构作为基础,在传统特征跟踪、局部建图、回环检测、全局BA四个线程基础上增加了点云融合线程,目的提高测量精度和鲁棒性。本实施例中使用的RGB-D相机为MV-CE060-10UC滚动快门相机,使用的激光雷达为Livox地平线激光雷达。
整个测量方法大致分为四步:
第一步:数据采集前相机和激光雷达的自动校准;为了不影响测试系统在建筑工程测量时的实时性能,相机和激光雷达的自动校准程序仅在非受控场景下启动,所谓的非受控是指移动平台处于静止状态且没有人机交互情况下。其中,相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间(约5-10秒)内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出,以消除运动模糊。
第二步:采集的数据预处理;相机采集可获得RGB图像数据,激光雷达持续非重复扫描环境,因此获得不同时间戳下的原始数据点云,需要对该数据点云进行校正来实现严格的时间同步,即:将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正。失真校正后的数据点云需建立与相机RGB图像数据的对应关系,令两者数据进行融合,即求得从激光雷达坐标系到相机坐标系的变换矩阵(包括旋转矩阵和平移向量等)。根据相机的外部校准参数投影到深度图像中,RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出。
第三步:全局地图的构建;在传统ORB-SLAM2系统基础上,本实施例将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,对特征跟踪输出的关键帧进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,此外,改进后的系统增加了“点云融合”线程,传统ORB-SLAM2系统的关键帧建图得到的点云是稀疏点云,本发明增加的点云融合线程可以获得稠密点云,进而实现全局场景地图的构建。新增的点云融合线程是指从稀疏点云到稠密点云的融合过程,该线程包含了点云生成和关键帧插入。
第四步:根据具体测量任务来选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。常用于建筑工程测量的视觉算法有以下几种:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法,具体可根据测量需要灵活选择其一或者组合使用。在建筑测量中目标检测算法和边缘轮廓算法较为普遍使用,其中,目标检测算法包括:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法等;边缘轮廓提取算法包括:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器等。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种室内外通用的高精度实时测量方法,其特征在于包括如下内容:
捕获安装于同一移动平台的RGB-D相机及激光雷达各自采集的数据,所述移动平台为无人机或机器人,所述相机采集获得RGB图像数据,激光雷达采集获得不同时间戳下的原始数据点云,将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正,求得从激光雷达坐标系到相机坐标系的变换矩阵,获得失真校正后激光雷达数据点云与相机RBG图像数据的对应关系,根据相机的外部校准参数投影到深度图像中,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出;
将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,特征跟踪输出的关键帧一方面进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,一方面通过点云融合线程获得稠密点云,进而实现全局场景地图的构建;所述视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行;
根据测量任务选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。
2.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应。
3.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述移动平台处于静止且未触发人机交互状态时,相机和激光雷达的自动校准程序启动。
4.根据权利要求3所述的一种室内外通用的高精度实时测量方法,其特征在于:所述相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出。
5.根据权利要求4所述的一种室内外通用的高精度实时测量方法,其特征在于:所述一段时间优选5-10秒。
6.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉SLAM系统优选采用ORB-SLAM2系统,或者采用ORB-SLAM3系统,或者采用InfiniTAM v3系统。
7.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述RGB-D相机优选采用MV-CE060-10UC滚动快门相机。
8.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述激光雷达优选采用Livox地平线激光雷达。
9.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉算法包括如下其一或者多个:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法。
10.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉算法包括目标检测算法时可以在如下算法中选择:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法;所述视觉算法包括边缘轮廓提取算法时可以在如下算法中选择:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器。
CN202110562265.0A 2021-05-24 2021-05-24 一种室内外通用的高精度实时测量方法 Pending CN113359154A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110562265.0A CN113359154A (zh) 2021-05-24 2021-05-24 一种室内外通用的高精度实时测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110562265.0A CN113359154A (zh) 2021-05-24 2021-05-24 一种室内外通用的高精度实时测量方法

Publications (1)

Publication Number Publication Date
CN113359154A true CN113359154A (zh) 2021-09-07

Family

ID=77527313

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110562265.0A Pending CN113359154A (zh) 2021-05-24 2021-05-24 一种室内外通用的高精度实时测量方法

Country Status (1)

Country Link
CN (1) CN113359154A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819912A (zh) * 2021-09-30 2021-12-21 中科测试(深圳)有限责任公司 一种基于多传感器数据的高精度点云地图生成方法
CN114518102A (zh) * 2022-02-14 2022-05-20 中建八局第三建设有限公司 一种实现测量仪与移动机器人交互的建筑测量方法及系统
CN116539635A (zh) * 2023-05-17 2023-08-04 广州大学 基于计算视觉和slam的无人机盾构隧道巡检方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875437A (zh) * 2016-12-27 2017-06-20 北京航空航天大学 一种面向rgbd三维重建的关键帧提取方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统
CN108051837A (zh) * 2017-11-30 2018-05-18 武汉大学 多传感器集成室内外移动测绘装置及自动三维建模方法
WO2019046962A1 (en) * 2017-09-07 2019-03-14 Appropolis Inc. METHOD AND SYSTEM FOR TARGET POSITIONING AND CARD UPDATE
WO2019091115A1 (en) * 2017-11-10 2019-05-16 Guangdong Kang Yun Technologies Limited Method and system for scanning space using point cloud structure data
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及系统
CN111045017A (zh) * 2019-12-20 2020-04-21 成都理工大学 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN112132897A (zh) * 2020-09-17 2020-12-25 中国人民解放军陆军工程大学 一种基于深度学习之语义分割的视觉slam方法
CN112750305A (zh) * 2020-12-29 2021-05-04 江苏航天大为科技股份有限公司 一种基于雷达检测的车辆连续跟踪方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875437A (zh) * 2016-12-27 2017-06-20 北京航空航天大学 一种面向rgbd三维重建的关键帧提取方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统
WO2019046962A1 (en) * 2017-09-07 2019-03-14 Appropolis Inc. METHOD AND SYSTEM FOR TARGET POSITIONING AND CARD UPDATE
WO2019091115A1 (en) * 2017-11-10 2019-05-16 Guangdong Kang Yun Technologies Limited Method and system for scanning space using point cloud structure data
CN108051837A (zh) * 2017-11-30 2018-05-18 武汉大学 多传感器集成室内外移动测绘装置及自动三维建模方法
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及系统
CN111045017A (zh) * 2019-12-20 2020-04-21 成都理工大学 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN112132897A (zh) * 2020-09-17 2020-12-25 中国人民解放军陆军工程大学 一种基于深度学习之语义分割的视觉slam方法
CN112750305A (zh) * 2020-12-29 2021-05-04 江苏航天大为科技股份有限公司 一种基于雷达检测的车辆连续跟踪方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819912A (zh) * 2021-09-30 2021-12-21 中科测试(深圳)有限责任公司 一种基于多传感器数据的高精度点云地图生成方法
CN114518102A (zh) * 2022-02-14 2022-05-20 中建八局第三建设有限公司 一种实现测量仪与移动机器人交互的建筑测量方法及系统
CN114518102B (zh) * 2022-02-14 2023-01-03 中建八局第三建设有限公司 一种实现测量仪与移动机器人交互的建筑测量方法及系统
CN116539635A (zh) * 2023-05-17 2023-08-04 广州大学 基于计算视觉和slam的无人机盾构隧道巡检方法

Similar Documents

Publication Publication Date Title
CN109544679B (zh) 管道内壁的三维重建方法
CN110136208B (zh) 一种机器人视觉伺服系统的联合自动标定方法及装置
Shariq et al. Revolutionising building inspection techniques to meet large-scale energy demands: A review of the state-of-the-art
Zhu et al. Camvox: A low-cost and accurate lidar-assisted visual slam system
CN113359154A (zh) 一种室内外通用的高精度实时测量方法
Singh et al. Bigbird: A large-scale 3d database of object instances
CN110458897B (zh) 多摄像头自动标定方法及系统、监控方法及系统
CN111897332A (zh) 一种语义智能变电站机器人仿人巡视作业方法及系统
CN108171733A (zh) 扫描仪vis
CN112505065B (zh) 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN111487642A (zh) 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法
CN105741379A (zh) 一种变电站全景巡检方法
CN114638909A (zh) 基于激光slam和视觉融合的变电站语义地图构建方法
WO2022088881A1 (en) Method, apparatus and system for generating a three-dimensional model of a scene
CN113177918B (zh) 一种无人机对电力杆塔的智能精准巡检方法及系统
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
Mi et al. A vision-based displacement measurement system for foundation pit
CN112595236A (zh) 一种水下激光三维扫描和实时测距的测量装置
CN105023270A (zh) 用于地下基础设施结构监测的主动式3d立体全景视觉传感器
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
Kirsten et al. 3D data acquisition using stereo camera
CN115540849A (zh) 高空作业平台激光视觉与惯导融合定位与建图装置及方法
Dupont et al. An improved calibration technique for coupled single-row telemeter and ccd camera
Lin et al. A LiDAR-Camera Calibration and Sensor Fusion Method with Edge Effect Elimination
CN112435220B (zh) 一种用于零件检测的自定位多孔特征移动窗口拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination