CN113359154A - 一种室内外通用的高精度实时测量方法 - Google Patents
一种室内外通用的高精度实时测量方法 Download PDFInfo
- Publication number
- CN113359154A CN113359154A CN202110562265.0A CN202110562265A CN113359154A CN 113359154 A CN113359154 A CN 113359154A CN 202110562265 A CN202110562265 A CN 202110562265A CN 113359154 A CN113359154 A CN 113359154A
- Authority
- CN
- China
- Prior art keywords
- camera
- algorithm
- laser radar
- indoor
- measurement method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 18
- 238000005259 measurement Methods 0.000 claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000010276 construction Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 6
- 238000003709 image segmentation Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 abstract description 2
- 230000033001 locomotion Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种室内外通用的高精度实时测量方法,该方法基于激光雷达的视觉SLAM系统,即:捕获来自同步相机和激光雷达的数据,并将其处理成统一的RGB‑D帧;然后,以处理后的RGB‑D帧作为输入,通过视觉SLAM系统实现全局地图的构建;最后,根据不同的测量任务,对构建出的场景运用匹配的视觉算法计算所求的工程参数。与现有技术相比,本发明所提出的测量方法可以以更高的精度和效率执行大规模建图,并且可以在室外强日光环境中鲁棒地操作,测量精度高,通用性好,能满足室内外不同的测量需求。
Description
技术领域
本发明涉及工程测量领域,具体涉及一种室内外通用的高精度实时测量方法。
背景技术
工程施工过程需要测量很多参数,例如在建筑领域需要测量建筑占地面积和楼层高度等参数,传统的测量方式主要依靠人工完成,不仅劳动强度大、测量效率低、还无法保证测量精度和数据监测的实时性。随着无人机技术发展的日益成熟,将无人机引入工程测量领域实现高精度实时测量成为可能。通常在无人机上安装多种传感器进行参数采集,将采集的数据进行处理后可实现场景的构建,对构建出的场景运用相匹配的算法可计算出所求工程参数。
无人机测量主要由智能决策、环境感知和运动控制三个模块构成,其中环境感知是一切的基础。无人机感知环境需要一套性能强大的传感器来采集数据,同时需要相应的算法来处理分析数据,在环境感知模块中,视觉传感器是不可或缺的。
SLAM(Simultaneous Localization and Mapping)是指同步定位与地图构建,即:载有特定传感器的主体在没有先验信息的情况下,通过计算特定传感器获取图像帧来估计自身运动的轨迹,并建立周围环境的地图,被广泛应用于机器人、无人机、自动驾驶、增强现实、虚拟现实等领域。SLAM可分为激光SLAM和视觉SLAM,前者理论较为成熟很早就被应用于工程中,其采用激光雷达作为传感器可视范围广,但缺点是激光雷达智能感知的结构信息是二维信息,信息量较少且易丢失大量的环境信息,使其应用场景受到限制;虽然激光雷达点云的精度和范围优于其他深度相机,但纯激光雷达SLAM系统由于激光雷达不能提供像相机一样高的角度分辨率,因此它容易在隧道或走廊等不太突出的结构环境中出现故障,它还缺乏闭环检测,使得算法只关注局部精度,而没有全局姿态和地图优化;后者的感知信息源为相机图像,根据相机类型可分为单目SLAM、双目SLAM和RGB-D SLAM,因视觉SLAM图像具有丰富信息,在21世纪得以快速发展。视觉SLAM有一个典型假设是场景固定,若有动态物体出现不仅影响相机位姿的估计而且在地图中留下残影,进而影响地图构建质量。并且,相机在高速运动情况下所捕捉的照片容易模糊,极大的影响了特征点的提取与匹配。若能将激光SLAM和视觉SLAM技术进行结合使用,利用相机的最佳角度分辨率和激光雷达的最佳深度及距离,则可以兼具两者的优点并互补各自的不足。
ORB-SLAM是基于特征点的实时单目SLAM系统,该算法可以实时运行在狭小的室内环境和宽阔的室外环境中,对剧烈运动具有鲁棒性。ORB-SLAM2是在ORB-SLAM算法基础上发展起来的,还支持标定后的双目相机和RGB-D相机,其精度更高,并能在标准CPU上实时工作。ORB-SLAM2虽然支持双目相机和RGB-D相机对深度估计的支持,但这两种相机都有缺点,特别是在估计具有长深度的室外物体时,双目相机需要长基线来进行精确的长深度估计,这在现实测量中通常不容易实现,此外双目相机之间的校准也容易受到机械变化的影响,致使深度估计精度降低;而RGB-D相机在室外通常容易受到太阳光的影响,有效工作范围一般小于10米。
ORB-SLAM2能够实现地图重用、回环检测和重新定位,其采用了光束优化法(BA,Bundle Adjustment),从视觉重建中提取出优化的3D模型和相机参数(内参数和外参数),从每一个特征点反射出来的几束光线,在我们把相机姿态和特征点空间位置做出最优的调整之后,最后收束到相机光心的过程。
ORB-SLAM2系统优化在跟踪过程中相机的位姿,优化本地窗口的关键帧和局部地图的特征点,并且在回环检测之后优化所有的关键帧和特征点(全局BA)。ORB-SLAM2系统主要包括四个线程:特征跟踪、局部建图、回环检测、BA优化,“特征跟踪”是通过寻找对局部地图的特征进行匹配,以及只运用BA算法来最小化重投影误差,进行跟踪和定位每帧的相机;“局部建图”是运用局部的BA算法设置局部地图并且优化;“回环检测”是通过执行位姿图的优化来更正累计漂移误差,在位姿优化之后执行全局BA算法,来计算整个系统最优结构和运动的结果;“BA优化”是优化所有的关键帧和特征点,输出优化后的定位结果。
本发明将ORB-SLAM2系统引入建筑工程测量中实现室内外高精度的实时测量,但鉴于现有的ORB-SLAM2系统仍存在一切不足,即:在光照突变、室外光照太强或太弱环境下,特征点提取鲁棒性较差;以及在动态环境下,如相机大角度转动时特征点丢失问题,或者在视野中有动态物体运动等复杂环境下对特征点提取存在影响。上述缺陷导致将现有ORB-SLAM2系统用于建筑工程测量会影响测量精度和鲁棒性的问题,因此需要对现有ORB-SLAM2系统进行改进,即解决室内外通用不受光照影响提高鲁棒性。
发明内容
本发明公开一种室内外通用的高精度实时测量方法,是将激光SLAM和视觉SLAM进行融合,提高测量精度和大规模建图的效率,并且可在室外强光下鲁棒地操作,通用性好。
为了实现上述目的,本发明所采用的技术方案为:
一种室内外通用的高精度实时测量方法,包括如下内容:
捕获安装于同一移动平台的RGB-D相机及激光雷达各自采集的数据,所述移动平台为无人机或机器人,所述相机采集获得RGB图像数据,激光雷达采集获得不同时间戳下的原始数据点云,将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正,求得从激光雷达坐标系到相机坐标系的变换矩阵,获得失真校正后激光雷达数据点云与相机RBG图像数据的对应关系,根据相机的外部校准参数投影到深度图像中,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出;
将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,特征跟踪输出的关键帧一方面进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,一方面通过点云融合线程获得稠密点云,进而实现全局场景地图的构建;所述视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行;
根据测量任务选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。
进一步,所述RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应。
进一步,所述移动平台处于静止且未触发人机交互状态时,相机和激光雷达的自动校准程序启动。
进一步,所述相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出。
进一步,所述一段时间优选5-10秒。
进一步,所述视觉SLAM系统优选采用ORB-SLAM2系统,或者采用ORB-SLAM3系统,或者采用InfiniTAM v3系统。
进一步,所述RGB-D相机优选采用MV-CE060-10UC滚动快门相机。
进一步,所述激光雷达优选采用Livox地平线激光雷达。
进一步,所述视觉算法包括如下其一或者多个:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法。
进一步,所述视觉算法包括目标检测算法时可以在如下算法中选择:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法;所述视觉算法包括边缘轮廓提取算法时可以在如下算法中选择:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器。
本发明将视觉SLAM系统引入工程测量中实现实时自动测量,在传统视觉
SLAM系统基础上,融合了激光雷达作为深度传感器进行大范围数据点云的采集,不仅提高了工程测量的精度,还拓宽了视觉SLAM适用场景,使之同时适用于室内外测量使用,具有很好的鲁棒性。
本发明通过相机和激光雷达的融合使用,在获取激光雷达精确深度信息的点云的同时,可以利用相机提供的高角度和高颜色信息,使得SLAM系统可以以更高的精度和效率执行大规模建图,并且可以在大规模室外场景、强日光环境以及动态环境中更加鲁棒地操作,不仅提高了SLAM系统的远距离探测能力和整体测量精度,也有助于更稳健有效的定位和建图。
附图说明
图1为本发明测量方法流程图;
图2为本发明方法中对RGB-D帧预处理示意图;
图3为本发明方法中采用视觉SLAM系统的线程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本实施例公开一种室内外通用的高精度实时测量方法,主要以用于建筑工程测量为例加以介绍,结合图1至图3对具体内容介绍如下:本方法是基于视觉SLAM系统上实现的,借助安装在移动平台(无人机或机器人)上的相机和激光雷达作为采集测量数据的传感器。考虑到单纯采用传统视觉SLAM系统中的相机采集数据时,若有动态物体出现不仅影响相机位姿的估计而且在地图中会留下残影,进而影响地图构建质量;并且,相机在高速运动情况下所捕捉的照片容易模糊。因此,本发明同时引入了激光雷达作为深度传感器,因为激光雷达采集数据点云的精度和范围远优于其他深度相机,且不易受到室外强光干扰,具有较好的鲁棒性。
考虑到用于建筑测量上需要较高的测量精度,并且能够实时测量,本发明选用的视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行,满足上述要求的视觉SLAM系统包括但不限于以下列举出的系统:ORB-SLAM2系统,ORB-SLAM3系统,InfiniTAM v3系统。本实施例选用的是ORB-SLAM2系统架构作为基础,在传统特征跟踪、局部建图、回环检测、全局BA四个线程基础上增加了点云融合线程,目的提高测量精度和鲁棒性。本实施例中使用的RGB-D相机为MV-CE060-10UC滚动快门相机,使用的激光雷达为Livox地平线激光雷达。
整个测量方法大致分为四步:
第一步:数据采集前相机和激光雷达的自动校准;为了不影响测试系统在建筑工程测量时的实时性能,相机和激光雷达的自动校准程序仅在非受控场景下启动,所谓的非受控是指移动平台处于静止状态且没有人机交互情况下。其中,相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间(约5-10秒)内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出,以消除运动模糊。
第二步:采集的数据预处理;相机采集可获得RGB图像数据,激光雷达持续非重复扫描环境,因此获得不同时间戳下的原始数据点云,需要对该数据点云进行校正来实现严格的时间同步,即:将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正。失真校正后的数据点云需建立与相机RGB图像数据的对应关系,令两者数据进行融合,即求得从激光雷达坐标系到相机坐标系的变换矩阵(包括旋转矩阵和平移向量等)。根据相机的外部校准参数投影到深度图像中,RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出。
第三步:全局地图的构建;在传统ORB-SLAM2系统基础上,本实施例将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,对特征跟踪输出的关键帧进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,此外,改进后的系统增加了“点云融合”线程,传统ORB-SLAM2系统的关键帧建图得到的点云是稀疏点云,本发明增加的点云融合线程可以获得稠密点云,进而实现全局场景地图的构建。新增的点云融合线程是指从稀疏点云到稠密点云的融合过程,该线程包含了点云生成和关键帧插入。
第四步:根据具体测量任务来选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。常用于建筑工程测量的视觉算法有以下几种:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法,具体可根据测量需要灵活选择其一或者组合使用。在建筑测量中目标检测算法和边缘轮廓算法较为普遍使用,其中,目标检测算法包括:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法等;边缘轮廓提取算法包括:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器等。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种室内外通用的高精度实时测量方法,其特征在于包括如下内容:
捕获安装于同一移动平台的RGB-D相机及激光雷达各自采集的数据,所述移动平台为无人机或机器人,所述相机采集获得RGB图像数据,激光雷达采集获得不同时间戳下的原始数据点云,将不同时间戳下的每个原始数据点云通过惯性测量单元进行失真校正,求得从激光雷达坐标系到相机坐标系的变换矩阵,获得失真校正后激光雷达数据点云与相机RBG图像数据的对应关系,根据相机的外部校准参数投影到深度图像中,然后将RGB图像数据与深度图像组合处理成RGB-D帧输出;
将处理后的RGB-D帧作为视觉SLAM系统的输入进行特征跟踪,特征跟踪输出的关键帧一方面进行局部建图,然后通过回环检测进行姿态图优化,回环检测后进行全局BA,一方面通过点云融合线程获得稠密点云,进而实现全局场景地图的构建;所述视觉SLAM系统需支持RGB-D相机作为输入且能在CPU上实时运行;
根据测量任务选择相应匹配的视觉算法,借助构建出的场景地图计算出所求的工程测量参数。
2.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述RGB图像数据与深度图像需被格式化为相等尺寸,且在像素方面对应。
3.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述移动平台处于静止且未触发人机交互状态时,相机和激光雷达的自动校准程序启动。
4.根据权利要求3所述的一种室内外通用的高精度实时测量方法,其特征在于:所述相机和激光雷达的自动校准方式如下:移动平台在静止状态下积累激光雷达一段时间内的扫描点,同时捕获相机采集图像,通过激光雷达点云与相机采集图像的对应关系,在现实场景中基于场景信息进行相机和激光雷达的自动校准,然后对校准结果进行评估并输出。
5.根据权利要求4所述的一种室内外通用的高精度实时测量方法,其特征在于:所述一段时间优选5-10秒。
6.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉SLAM系统优选采用ORB-SLAM2系统,或者采用ORB-SLAM3系统,或者采用InfiniTAM v3系统。
7.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述RGB-D相机优选采用MV-CE060-10UC滚动快门相机。
8.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述激光雷达优选采用Livox地平线激光雷达。
9.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉算法包括如下其一或者多个:目标检测算法、边缘轮廓提取算法、图像分割算法、图像拼接算法、三维重建算法。
10.根据权利要求1所述的一种室内外通用的高精度实时测量方法,其特征在于:所述视觉算法包括目标检测算法时可以在如下算法中选择:Faster R-CNN算法、YOLO v3算法、SSD算法、DSSD算法;所述视觉算法包括边缘轮廓提取算法时可以在如下算法中选择:Roberts算子、Prewitt算子、Sobel算子、Marr-Hilderth边缘检测器、Canny边缘检测器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110562265.0A CN113359154A (zh) | 2021-05-24 | 2021-05-24 | 一种室内外通用的高精度实时测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110562265.0A CN113359154A (zh) | 2021-05-24 | 2021-05-24 | 一种室内外通用的高精度实时测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113359154A true CN113359154A (zh) | 2021-09-07 |
Family
ID=77527313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110562265.0A Pending CN113359154A (zh) | 2021-05-24 | 2021-05-24 | 一种室内外通用的高精度实时测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113359154A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113819912A (zh) * | 2021-09-30 | 2021-12-21 | 中科测试(深圳)有限责任公司 | 一种基于多传感器数据的高精度点云地图生成方法 |
CN114518102A (zh) * | 2022-02-14 | 2022-05-20 | 中建八局第三建设有限公司 | 一种实现测量仪与移动机器人交互的建筑测量方法及系统 |
CN116539635A (zh) * | 2023-05-17 | 2023-08-04 | 广州大学 | 基于计算视觉和slam的无人机盾构隧道巡检方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875437A (zh) * | 2016-12-27 | 2017-06-20 | 北京航空航天大学 | 一种面向rgbd三维重建的关键帧提取方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
CN108051837A (zh) * | 2017-11-30 | 2018-05-18 | 武汉大学 | 多传感器集成室内外移动测绘装置及自动三维建模方法 |
WO2019046962A1 (en) * | 2017-09-07 | 2019-03-14 | Appropolis Inc. | METHOD AND SYSTEM FOR TARGET POSITIONING AND CARD UPDATE |
WO2019091115A1 (en) * | 2017-11-10 | 2019-05-16 | Guangdong Kang Yun Technologies Limited | Method and system for scanning space using point cloud structure data |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN110842940A (zh) * | 2019-11-19 | 2020-02-28 | 广东博智林机器人有限公司 | 一种建筑测量机器人多传感器融合三维建模方法及系统 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN112132897A (zh) * | 2020-09-17 | 2020-12-25 | 中国人民解放军陆军工程大学 | 一种基于深度学习之语义分割的视觉slam方法 |
CN112750305A (zh) * | 2020-12-29 | 2021-05-04 | 江苏航天大为科技股份有限公司 | 一种基于雷达检测的车辆连续跟踪方法 |
-
2021
- 2021-05-24 CN CN202110562265.0A patent/CN113359154A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875437A (zh) * | 2016-12-27 | 2017-06-20 | 北京航空航天大学 | 一种面向rgbd三维重建的关键帧提取方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
WO2019046962A1 (en) * | 2017-09-07 | 2019-03-14 | Appropolis Inc. | METHOD AND SYSTEM FOR TARGET POSITIONING AND CARD UPDATE |
WO2019091115A1 (en) * | 2017-11-10 | 2019-05-16 | Guangdong Kang Yun Technologies Limited | Method and system for scanning space using point cloud structure data |
CN108051837A (zh) * | 2017-11-30 | 2018-05-18 | 武汉大学 | 多传感器集成室内外移动测绘装置及自动三维建模方法 |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
CN110842940A (zh) * | 2019-11-19 | 2020-02-28 | 广东博智林机器人有限公司 | 一种建筑测量机器人多传感器融合三维建模方法及系统 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN112132897A (zh) * | 2020-09-17 | 2020-12-25 | 中国人民解放军陆军工程大学 | 一种基于深度学习之语义分割的视觉slam方法 |
CN112750305A (zh) * | 2020-12-29 | 2021-05-04 | 江苏航天大为科技股份有限公司 | 一种基于雷达检测的车辆连续跟踪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113819912A (zh) * | 2021-09-30 | 2021-12-21 | 中科测试(深圳)有限责任公司 | 一种基于多传感器数据的高精度点云地图生成方法 |
CN114518102A (zh) * | 2022-02-14 | 2022-05-20 | 中建八局第三建设有限公司 | 一种实现测量仪与移动机器人交互的建筑测量方法及系统 |
CN114518102B (zh) * | 2022-02-14 | 2023-01-03 | 中建八局第三建设有限公司 | 一种实现测量仪与移动机器人交互的建筑测量方法及系统 |
CN116539635A (zh) * | 2023-05-17 | 2023-08-04 | 广州大学 | 基于计算视觉和slam的无人机盾构隧道巡检方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544679B (zh) | 管道内壁的三维重建方法 | |
CN110136208B (zh) | 一种机器人视觉伺服系统的联合自动标定方法及装置 | |
Shariq et al. | Revolutionising building inspection techniques to meet large-scale energy demands: A review of the state-of-the-art | |
Zhu et al. | Camvox: A low-cost and accurate lidar-assisted visual slam system | |
CN113359154A (zh) | 一种室内外通用的高精度实时测量方法 | |
Singh et al. | Bigbird: A large-scale 3d database of object instances | |
CN110458897B (zh) | 多摄像头自动标定方法及系统、监控方法及系统 | |
CN111897332A (zh) | 一种语义智能变电站机器人仿人巡视作业方法及系统 | |
CN108171733A (zh) | 扫描仪vis | |
CN112505065B (zh) | 一种实现室内无人机对大部件表面缺陷进行检测的方法 | |
CN111487642A (zh) | 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法 | |
CN105741379A (zh) | 一种变电站全景巡检方法 | |
CN114638909A (zh) | 基于激光slam和视觉融合的变电站语义地图构建方法 | |
WO2022088881A1 (en) | Method, apparatus and system for generating a three-dimensional model of a scene | |
CN113177918B (zh) | 一种无人机对电力杆塔的智能精准巡检方法及系统 | |
CN116222543B (zh) | 用于机器人环境感知的多传感器融合地图构建方法及系统 | |
Mi et al. | A vision-based displacement measurement system for foundation pit | |
CN112595236A (zh) | 一种水下激光三维扫描和实时测距的测量装置 | |
CN105023270A (zh) | 用于地下基础设施结构监测的主动式3d立体全景视觉传感器 | |
Özdemir et al. | A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment | |
Kirsten et al. | 3D data acquisition using stereo camera | |
CN115540849A (zh) | 高空作业平台激光视觉与惯导融合定位与建图装置及方法 | |
Dupont et al. | An improved calibration technique for coupled single-row telemeter and ccd camera | |
Lin et al. | A LiDAR-Camera Calibration and Sensor Fusion Method with Edge Effect Elimination | |
CN112435220B (zh) | 一种用于零件检测的自定位多孔特征移动窗口拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |