CN112461210B - 一种空地协同建筑测绘机器人系统及其测绘方法 - Google Patents
一种空地协同建筑测绘机器人系统及其测绘方法 Download PDFInfo
- Publication number
- CN112461210B CN112461210B CN202011498963.0A CN202011498963A CN112461210B CN 112461210 B CN112461210 B CN 112461210B CN 202011498963 A CN202011498963 A CN 202011498963A CN 112461210 B CN112461210 B CN 112461210B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- building
- mapping
- mobile robot
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
- G01C11/08—Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
- G01C11/34—Aerial triangulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种空地协同建筑测绘机器人系统及其测绘方法,包括空中无人机、地面移动机器人和服务器终端,空中无人机携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型;地面移动机器人携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,通过地面移动机器人建立建筑物基于其底部的第二局部点云模型;服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,在服务器终端完成第一局部点云模型和第二局部点云模型的融合,生成完整的建筑物点云模型。本发明在提高建模完整性的同时,还具有精度准、效率高的优点。
Description
技术领域
本发明属于机器人感知技术领域,具体涉及一种空地协同建筑测绘机器人系统及其测绘方法。
背景技术
近年来,随着数字城市、古建筑数字化保护、建筑施工数字化管理、建筑虚拟漫游等新需求的出现,传统二维平面图纸已经没有办法满足这些需求,三维模型具有直观性与完整性,能够反映出复杂的建筑结构与建筑空间、位置、纹理信息。如何能够高效自动化地建立建筑物真实的三维模型成为亟待解决的科学与工程问题。
目前,建筑测绘主流的方案可以分为激光扫描方案与倾斜摄影方案。其中激光扫描多采用地面式激光扫描仪完成,操作人员需要事先确定好不同站点位置用以架设激光扫描仪,在数据采集完成后使用相关设备厂商提供的专业软件进行点云配准生成完整的建筑模型。这种方法建模精度较高,误差主要来源于后期的配准误差,但是整个流程需要大量人工操作,建模周期较长,且整套软硬件设备十分昂贵(以法如Focus3D 120为例,高达上百万人民币),大大限制了其应用场景。同时,由于传感器本身比较笨重,只适用于建筑物内部与底部的测绘建模,无法得到建筑物顶面信息和高处立面信息,因此建筑模型的完整性较差。
倾斜摄影方法通过空中无人机搭载相机拍摄多角度建筑影像,采用运动恢复结构与立体匹配技术生成建筑物稠密点云模型,最后经过网格化和纹理映射得到较为逼真的建筑三维模型。这是一种直接从二维图像恢复出三维模型的方法,操作简单,设备成本低,适用于大规模的城市建模,但是,受视角以及立体匹配算法精度的影响,整体重建精度较差,建筑细节信息几乎无法恢复,并且数据处理包括上千张高清图像,耗时较长,对于稍大规模的建筑物,一次建模过程仅是数据处理就需要数十小时完成。
综上,如何提供一种建模完整性好、精度准、效率高的空地协同建筑测绘机器人系统及其测绘方法,成了本领域技术人员亟需解决的技术问题。
发明内容
针对现有建筑三维重建方法自动化程度低、场景不完整的问题,本发明提出一种空地协同建筑测绘机器人系统及其测绘方法,结合了多传感器融合技术与双机协作定位建图技术,利用地面移动机器人和空中无人机的运动特点,解决了目前主流方案在建筑测绘中存在的建模完整性差、精度差、效率低等问题。
本发明的目的之一通过以下技术方案实现:提供一种空地协同建筑测绘机器人系统,包括空中无人机、地面移动机器人和服务器终端,其中:
所述空中无人机用于建筑物空中测绘,携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,所述空中无人机通过双目鱼眼相机、第一彩色相机与第一激光雷达获取建筑物顶面及高处立面的空间信息与纹理信息;
所述地面移动机器人用于建筑物地面测绘,携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,所述地面移动机器人通过第二彩色相机与第二激光雷达获取建筑物底部的空间信息与纹理信息;
所述服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,用于接收空中无人机以及地面移动机器人建模的空间信息与纹理信息,在服务器终端构建完整的建筑物点云模型。
本发明的目的之二通过以下技术方案实现:提供一种应用其上所述的空地协同建筑测绘机器人系统的测绘方法,包括以下步骤:
S1、通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型,完成建筑物空中测绘;
S2、通过地面移动机器人建立建筑物基于其底部的第二局部点云模型,完成建筑物地面测绘;
S3、在服务器终端接收来自空中无人机与地面移动机器人的信息,对第一局部点云模型和第二局部点云模型进行融合,生成完整的建筑物点云模型。
作为进一步的改进,所述步骤S1具体表现为:空中无人机通过融合图像数据与第一IMU数据构成前端视觉惯性里程计,输出高频低精度的空中无人机位姿估计,且该输出的空中无人机位姿估计作为初值用于后续对第一激光数据姿态的初始估计,再通过点云配准生成较高精度的第一局部点云地图,最终使用空中无人机携带的第一彩色相机对生成的第一局部点云地图进行色彩映射生成第一局部彩色点云地图,作为第一局部点云模型,其中,图像数据、第一IMU数据和激第一激光数据分别通过双目鱼眼相机、第一IMU和第一激光雷达获取。
作为进一步的改进,所述空中无人机完成建筑物空中测绘的具体步骤包括:
S11、第一处理器读取双目鱼眼相机采集的左目鱼眼图像和右目鱼眼图像,在左目鱼眼图像中提取FAST角点,通过基于图像金字塔的LK光流算法在右目鱼眼图像中对左目中提取到的FAST角点进行跟踪,对于成功跟踪的FAST角点进行三角化求取该FAST角点的深度信息,同时使用EPnP算法对后续输入的左目鱼眼图像进行跟踪,求取相机姿态;
S12、建立一个滑动窗口,当跟踪到的FAST角点数量低于一定阈值时,即重新进行三角化,并判断为关键帧,将其插入到滑动窗口中;
S13、对输入的第一IMU数据使用中值积分进行积分,在相邻关键帧之间得到IMU预积分值,并对滑动窗口内的关键帧,通过关键帧位姿变换与IMU预积分值构成的残差以及光束平差,构建代价函数,使用LM算法进行非线性优化,到优化后的相机姿态;
S14、双目鱼眼相机以20HZ输出空中无人机的姿态信息,对读取到的第一激光数据,通过线性插值得到激光点采集时刻空中无人机姿态,对获取的激光点进行畸变校正;
S15、通过前端视觉惯性里程计输出的姿态将新进的激光数据加入到已有第一局部点云地图中,并提取6个线特征与4个面特征,与第一局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第一彩色相机采集的图像进行色彩映射,生成第一局部彩色点云地图。
作为进一步的改进,所述步骤S2具体表现为:地面移动机器人通过第二激光雷达和第二IMU分别获取第二激光数据与第二IMU数据,并根据第二激光数据与第二IMU数据对自身进行定位,同时建立第二局部点云地图,通过将第二局部点云地图投影至第二彩色相机采集的图像进行色彩映射,生成第二局部彩色点云地图,作为第二局部点云模型。
作为进一步的改进,所述地面移动机器人完成建筑物地面测绘的具体步骤包括:
S21、第二处理器读取第二激光数据与第二IMU数据,通过对输入的第二IMU数据使用中值积分进行积分,获取帧间的速度与角速度信息,通过线性插值对第二激光数据进行畸变校正,同时估计第二激光数据的初始姿态;
S22、将一帧的第二激光数据均匀划分为6个区域,在每个区域内提取20个线特征点与8个面特征点;
S23、将该帧第二激光数据与第二局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第二彩色相机采集的图像进行色彩映射,生成第二局部彩色点云地图。
作为进一步的改进,所述步骤S3具体表现为:服务器终端接收来自空中无人机与地面移动机器人的图像数据、轨迹数据、局部点云地图数据,通过回环检测计算空中无人机与地面移动机器人的相对位姿,作为局部模型配准的初值,再通过精配准方法生成最终融合的完整的建筑物点云模型。
作为进一步的改进,服务器终端生成完整的建筑物点云模型的具体步骤包括:
S31、接收空中无人机与地面移动机器人发送回来的彩色图像信息以及对应时刻的姿态信息,在彩色图像上提取ORB特征;
S32、将地面移动机器人发送的彩色图像对应的ORB特征存入词袋模型中,作为词袋数据集以供查找;对空中无人机发送的彩色图像使用大小为6的滑动窗口进行保存,其中新加入的彩色图像相距窗口中上一帧彩色图像对应姿态距离应大于0.1m,窗口装满后,最旧时刻的帧从窗口中剔除;
S33、对窗口内的最新帧特征,在词袋数据集中进行查找,一旦有相似帧,在一定处理后,即可认为发生回环,并计算此时空中无人机与地面移动机器人之间的位姿变换,即可得到,第一局部点云地图与第二局部点云地图之间的相对变换;
S34、通过步骤S33产生的初始位姿估计,对第一局部点云地图与第二局部点云地图之间的局部点云进行姿态变换,然后进一步使用trimmed-ICP算法对点云进行精配准,得到完整的建筑物点云模型。
作为进一步的改进,所述步骤S33的具体步骤为:
步骤a:当词袋相似度大于一定阈值时,初步认为产生回环,通过对滑动窗口内最新帧图像与匹配的地面移动机器人端图像,进行特征匹配,基于RANSAC算法使用基础矩阵进行外点剔除,当内点数小于一定阈值时,认为回环失败,跳出本步骤;否则,生成一系列匹配点。
步骤b:基于已生成的匹配点,在滑动窗口内的其他图像中寻找对应的匹配点,并使用滑动窗口内的彩色图像对特征进行三角化,当三角化成功的点数小于一定阈值时,认为回环失败,跳出本步骤;否则,进入步骤c;
步骤c:基于成功三角化的空间点,对地面移动机器人端彩色图像使用EPNP算法进行匹配,得到机器人端彩色图像相对于空中无人机图像的姿态,进而求得第一局部点云地图与第二局部点云地图之间的变换矩阵;
步骤d:将步骤c得到变换矩阵存入一个缓存中,基于回环的一致性,对缓存中所有的结果使用RANSAC算法进行估计,剔除错误回环;
步骤e:对于步骤d得到的一致的回环,通过SVD算法对多次回环结果进行加权平均,最终输出第一局部点云地图与第二局部点云地图之间的变换矩阵。
本发明提供的一种空地协同建筑测绘机器人系统及其测绘方法,包括空中无人机、地面移动机器人和服务器终端,空中无人机携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型,完成建筑物空中测绘;地面移动机器人携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,通过地面移动机器人建立建筑物基于其底部的第二局部点云模型,完成建筑物地面测绘;服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,在服务器终端接收来自空中无人机与地面移动机器人的信息,对第一局部点云模型和第二局部点云模型进行融合,生成完整的建筑物点云模型。相比现有技术,本发明结合了多传感器融合技术与地面移动机器人和空中无人机双机协作定位建图技术,在提高建模完整性的同时、还具有精度准、效率高的优点。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明一种空地协同建筑测绘机器人系统的结构示意图。
图2是本发明一种空地协同建筑测绘机器人系统的测绘方法一实施例的流程图。
图3是本发明一种空地协同建筑测绘机器人系统的测绘方法另一实施例的流程图。
图4是本发明空中无人机建图的算法框架图。
图5是本发明空中无人机建图的流程图。
图6是本发明地面移动机器人建图的流程图。
图7是本发明服务器终端融合算法的流程图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
如图1所示,本发明提供了一种空地协同建筑测绘机器人系统,包括空中无人机1、地面移动机器人2和服务器终端3,其中:空中无人机1用于建筑物空中测绘,携带有第一激光雷达、第一IMU(Inertial Measurement Unit,惯性测量单元)、双目鱼眼相机、第一彩色相机、第一处理器;地面移动机器人2用于建筑物地面测绘,携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器;服务器终端3通过无线通讯模块分别与空中无人机1和地面移动机器人2连接。优选地,第一激光雷达为固态激光雷达,第二激光雷达为16线激光雷达,第一处理器和第二处理器均为高性能嵌入式处理器。本发明中空中无人机1通过双目鱼眼相机、第一彩色相机与第一激光雷达获取建筑物顶面及高处立面的空间信息与纹理信息,地面移动机器人2通过第二彩色相机与第二激光雷达获取建筑物底部的空间信息与纹理信息,服务器终端3接收空中无人机1以及地面移动机器人2建模的空间信息与纹理信息,在服务器终端3构建完整的建筑物点云模。需要说明的是,空间信息与纹理信息为图像数据、轨迹数据和局部点云地图数据。
如图2所示,本发明提供了一种空地协同建筑测绘机器人系统的测绘方法,包括以下步骤:S1、通过空中无人机1建立建筑物基于其顶面及高处立面的第一局部点云模型,完成建筑物空中测绘;S2、通过地面移动机器人2建立建筑物基于其底部的第二局部点云模型,完成建筑物地面测绘;S3、在服务器终端3接收来自空中无人机1与地面移动机器人2的信息,对第一局部点云模型和第二局部点云模型进行融合,生成完整的建筑物点云模型。
在进一步的技术方案中,结合图3、图4所示,上述空地协同建筑测绘机器人系统的测绘方法具体表现为:空中无人机1端通过融合图像数据与第一IMU数据构成前端视觉惯性里程计,输出高频低精度的空中无人机1位姿估计,且该输出的空中无人机1位姿作为初值用于后续对第一激光数据姿态的初始估计,再通过点云配准生成较高精度的第一局部点云地图,最终使用空中无人机1携带的第一彩色相机对生成的第一局部点云地图进行色彩映射生成第一局部彩色点云地图,作为第一局部点云模型,其中,图像数据、第一IMU数据和第一激光数据分别通过双目鱼眼相机、第一IMU和第一激光雷达获取。地面机器人端通过多线激光数据与IMU数据对自身进行定位,同时建立局部地图模型,最终使用携带的第二彩色相机对生成的点云地图进行色彩映射生成第二局部彩色点云地图,作为第二局部点云模型。服务器端分别接收来自空中无人机1与地面移动机器人2的图像数据、轨迹数据、局部点云地图数据,通过回环检测计算空中无人机1与地面移动机器人2的相对位姿,作为局部模型配准的初值,再通过精配准方法生成最终融合的完整的建筑物点云模型。需要说明的是,第二激光数据为16线激光雷达发射的多线激光数据。
如图5所示,空中无人机1完成建筑物空中测绘的具体步骤包括:
S11、第一处理器读取双目鱼眼相机采集的左目鱼眼图像和右目鱼眼图像,在左目鱼眼图像中提取FAST角点,通过基于图像金字塔的LK光流算法(Lucas–Kanade光流算法)在右目鱼眼图像中对左目中提取到的FAST角点进行跟踪,对于成功跟踪的FAST角点进行三角化求取该FAST角点的深度信息,同时使用EPnP(efficientperspective-n-point)算法对后续输入的左目鱼眼图像进行跟踪,求取相机姿态;
S12、建立一个滑动窗口,当跟踪到的FAST角点数量低于一定阈值时,即重新进行三角化,并判断为关键帧,将其插入到滑动窗口中;
S13、对输入的第一IMU数据使用中值积分进行积分,在相邻关键帧之间得到IMU的预积分值,并对滑动窗口内的关键帧,通过关键帧位姿变换与IMU预积分值构成的残差以及光束平差,构建代价函数,使用LM算法(Levenberg-Marquarelt算法,列文伯格-马夸尔特算法)进行非线性优化,到优化后的相机姿态;
S14、双目鱼眼相机以20HZ输出空中无人机1的姿态信息,对读取到的第一激光数据,通过线性插值得到激光点采集时刻空中无人机1姿态,对获取的激光点进行畸变校正。
S15、通过前端视觉惯性里程计输出的姿态将新进的激光数据加入到已有第一局部点云地图中,并提取6个线特征与4个面特征,与第一局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第一彩色相机采集的图像进行色彩映射,生成第一局部彩色点云地图。
如图6所示,地面移动机器人2完成建筑物地面测绘的具体步骤包括:
S21、第二处理器读取第二激光数据与第二IMU数据,通过对输入的第二IMU数据使用中值积分进行积分,获取帧间的速度与角速度信息,通过线性插值对第二激光数据进行畸变校正,同时估计第二激光数据的初始姿态;
S22、将一帧的第二激光数据均匀划分为6个区域,在每个区域内提取20个线特征点与8个面特征点;
S23、将该帧第二激光数据与第二局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第二彩色相机采集的图像进行色彩映射,生成第二局部彩色点云地图。
作本发明的优选实施例,如图7所示,服务器终端3生成完整的建筑物点云模型的具体步骤包括:
S31、接收空中无人机1与地面移动机器人2发送回来的彩色图像信息以及对应时刻的姿态信息,在彩色图像上提取ORB(Oriented Fast and Rotated Brief)特征;
S32、将地面移动机器人2发送的彩色图像对应的ORB特征存入词袋模型中,作为词袋数据集以供查找;对空中无人机1发送的彩色图像使用大小为6的滑动窗口进行保存,其中新加入的彩色图像相距窗口中上一帧彩色图像对应姿态距离应大于0.1m,窗口装满后,最旧时刻的帧从窗口中剔除;
S33、对窗口内的最新帧特征,在词袋数据集中进行查找,一旦有相似帧,在一定处理后,即可认为发生回环,并计算此时空中无人机1与地面移动机器人2之间的位姿变换,即可得到,第一局部点云地图与第二局部点云地图之间的相对变换;
优选地,步骤S33的具体步骤为:
步骤a:当词袋相似度大于一定阈值时,初步认为产生回环,通过对滑动窗口内最新帧图像与匹配的地面移动机器人端图像,进行特征匹配,基于RANSAC算法使用基础矩阵进行外点剔除,当内点数小于一定阈值时,认为回环失败,跳出本步骤;否则,生成一系列匹配点。
步骤b:基于已生成的匹配点,在滑动窗口内的其他图像中寻找对应的匹配点,并使用滑动窗口内的彩色图像对特征进行三角化,当三角化成功的点数小于一定阈值时,认为回环失败,跳出本步骤;否则,进入步骤c;
步骤c:基于成功三角化的空间点,对地面移动机器人端彩色图像使用EPNP算法进行匹配,得到机器人端彩色图像相对于空中无人机1图像的姿态,进而求得第一局部点云地图与第二局部点云地图之间的变换矩阵;
步骤d:将步骤c得到变换矩阵存入一个缓存中,基于回环的一致性,对缓存中所有的结果使用RANSAC(RANdom SAmple Consensus,随机抽样一致)算法进行估计,剔除错误回环;
步骤e:对于步骤d得到的一致的回环,通过SVD(奇异值分解)算法对多次回环结果进行加权平均,最终输出第一局部点云地图与第二局部点云地图之间的变换矩阵。
S34、通过步骤S33产生的初始位姿估计,对第一局部点云地图与第二局部点云地图之间的局部点云进行姿态变换,然后进一步使用trimmed-ICP算法对点云进行精配准,得到完整的建筑物点云模型。
与现有技术相比,本发明的优点在于:
(1)场景适应性强
以SLAM(Simultaneous LocalizationAnd Mapping,同步定位与地图构建)技术为核心,克服传统测绘中对GNSS(Global Navigation Satellite System,全球导航卫星系统)信号的依赖,对于室内及卫星信号弱的区域有更强的适应性,具有更广泛的应用场景,同时以空中无人机1和地面移动机器人2作为作业平台提高了建筑测绘过程中的自动化程度。
(2)建立模型完整
本发明充分利用空中无人机1与地面移动机器人2的运动特点,解决常用测绘方法场景不完整的问题,在实现空地协作建图的过程中,采用集中式结构,通过回环检测与PnP方法在服务器终端3实时实现空、地点云的融合。
(3)建模效率高
根据不同传感器本身数据及工作环境特点,在地面端使用第二激光雷达融合第二IMU进行定位,同时通过融合图像数据解决第二激光雷达信息无纹理的缺点,在空中无人机1使用图像融合第一IMU进行定位,提高测绘精度,融合第二激光雷达的数据实现实时建模。
上面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,不能理解为对本发明保护范围的限制。
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。
Claims (8)
1.一种空地协同建筑测绘机器人系统,其特征在于,包括空中无人机、地面移动机器人和服务器终端,其中:
所述空中无人机用于建筑物空中测绘,携带有第一激光雷达、第一IMU、双目鱼眼相机、第一彩色相机、第一处理器,所述空中无人机通过双目鱼眼相机、第一彩色相机与第一激光雷达获取建筑物顶面及高处立面的空间信息与纹理信息;所述空中无人机完成建筑物空中测绘的具体步骤包括:
第一处理器读取双目鱼眼相机采集的左目鱼眼图像和右目鱼眼图像,在左目鱼眼图像中提取FAST角点,通过基于图像金字塔的LK光流算法在右目鱼眼图像中对左目中提取到的FAST角点进行跟踪,对于成功跟踪的FAST角点进行三角化求取该FAST角点的深度信息,同时使用EPnP算法对后续输入的左目鱼眼图像进行跟踪,求取相机姿态;
建立一个滑动窗口,当跟踪到的FAST角点数量低于一定阈值时,即重新进行三角化,并判断为关键帧,将其插入到滑动窗口中;
对输入的第一IMU数据使用中值积分进行积分,在相邻关键帧之间得到IMU预积分值,并对滑动窗口内的关键帧,通过关键帧位姿变换与IMU预积分值构成的残差以及光束平差,构建代价函数,使用LM算法进行非线性优化,得到优化后的相机姿态;
双目鱼眼相机以20HZ输出空中无人机的姿态信息,对读取到的第一激光数据,通过线性插值得到激光点采集时刻空中无人机姿态,对获取的激光点进行畸变校正;
通过前端视觉惯性里程计输出的姿态将新进的激光数据加入到已有第一局部点云地图中,并提取6个线特征与4个面特征,与第一局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第一彩色相机采集的图像进行色彩映射,生成第一局部彩色点云地图;
其中,所述前端视觉惯性里程计通过融合图像数据与第一IMU数据构成;图像数据、第一IMU数据和第一激光数据分别通过双目鱼眼相机、第一IMU和第一激光雷达获取;
所述地面移动机器人用于建筑物地面测绘,携带有第二激光雷达、第二IMU、第二彩色相机、第二处理器,所述地面移动机器人通过第二彩色相机与第二激光雷达获取建筑物底部的空间信息与纹理信息;
所述服务器终端通过无线通讯模块分别与空中无人机和地面移动机器人连接,用于接收空中无人机以及地面移动机器人建模的空间信息与纹理信息,在服务器终端构建完整的建筑物点云模型。
2.一种应用权利要求1所述的空地协同建筑测绘机器人系统的测绘方法,其特征在于,包括以下步骤:
S1、通过空中无人机建立建筑物基于其顶面及高处立面的第一局部点云模型,完成建筑物空中测绘;
S2、通过地面移动机器人建立建筑物基于其底部的第二局部点云模型,完成建筑物地面测绘;
S3、在服务器终端接收来自空中无人机与地面移动机器人的信息,对第一局部点云模型和第二局部点云模型进行融合,生成完整的建筑物点云模型。
3.根据权利要求2所述的测绘方法,其特征在于,所述步骤S1具体表现为:空中无人机通过融合图像数据与第一IMU数据构成前端视觉惯性里程计,输出高频低精度的空中无人机位姿估计,且该输出的空中无人机位姿估计作为初值用于后续对第一激光数据姿态的初始估计,再通过点云配准生成较高精度的第一局部点云地图,最终使用空中无人机携带的第一彩色相机对生成的第一局部点云地图进行色彩映射生成第一局部彩色点云地图,作为第一局部点云模型。
4.根据权利要求3所述的测绘方法,其特征在于,所述步骤S2具体表现为:地面移动机器人通过第二激光雷达和第二IMU分别获取第二激光数据与第二IMU数据,并根据第二激光数据与第二IMU数据对自身进行定位,同时建立第二局部点云地图,通过将第二局部点云地图投影至第二彩色相机采集的图像进行色彩映射,生成第二局部彩色点云地图,作为第二局部点云模型。
5.根据权利要求4所述的测绘方法,其特征在于,所述地面移动机器人完成建筑物地面测绘的具体步骤包括:
S21、第二处理器读取第二激光数据与第二IMU数据,通过对输入的第二IMU数据使用中值积分进行积分,获取帧间的速度与角速度信息,通过线性插值对第二激光数据进行畸变校正,同时估计第二激光数据的初始姿态;
S22、将一帧的第二激光数据均匀划分为6个区域,在每个区域内提取20个线特征点与8个面特征点;
S23、将该帧第二激光数据与第二局部点云地图中的线、面特征进行匹配,使用点到线、点到面构成残差对点云姿态进行优化,通过将点云投影至第二彩色相机采集的图像进行色彩映射,生成第二局部彩色点云地图。
6.根据权利要求5所述的测绘方法,其特征在于,所述步骤S3具体表现为:服务器终端分别接收来自空中无人机与地面移动机器人的图像数据、轨迹数据、局部点云地图数据,通过回环检测计算空中无人机与地面移动机器人的相对位姿,作为局部模型配准的初值,再通过精配准方法生成最终融合的完整的建筑物点云模型。
7.根据权利要求6所述的测绘方法,其特征在于,服务器终端生成完整的建筑物点云模型的具体步骤包括:
S31、接收空中无人机与地面移动机器人发送回来的彩色图像信息以及对应时刻的姿态信息,在彩色图像上提取ORB特征;
S32、将地面移动机器人发送的彩色图像对应的ORB特征存入词袋模型中,作为词袋数据集以供查找;对空中无人机发送的彩色图像使用大小为6的滑动窗口进行保存,其中新加入的彩色图像相距窗口中上一帧彩色图像对应姿态距离应大于0.1m,窗口装满后,最旧时刻的帧从窗口中剔除;
S33、对窗口内的最新帧特征,在词袋数据集中进行查找,一旦有相似帧,在一定处理后,即可认为发生回环,并计算此时空中无人机与地面移动机器人之间的位姿变换,即可得到,第一局部点云地图与第二局部点云地图之间的相对变换;
S34、通过步骤S33产生的初始位姿估计,对第一局部点云地图与第二局部点云地图之间的局部点云进行姿态变换,然后进一步使用trimmed-ICP算法对点云进行精配准,得到完整的建筑物点云模型。
8.根据权利要求7所述的测绘方法,其特征在于,所述步骤S33的具体步骤为:
步骤a:当词袋相似度大于一定阈值时,初步认为产生回环,通过对滑动窗口内最新帧图像与匹配的地面移动机器人端图像,进行特征匹配,基于RANSAC算法使用基础矩阵进行外点剔除,当内点数小于一定阈值时,认为回环失败,跳出本步骤;否则,生成一系列匹配点;
步骤b:基于已生成的匹配点,在滑动窗口内的其他图像中寻找对应的匹配点,并使用滑动窗口内的彩色图像对特征进行三角化,当三角化成功的点数小于一定阈值时,认为回环失败,跳出本步骤;否则,进入步骤c;
步骤c:基于成功三角化的空间点,对地面移动机器人端彩色图像使用EPNP算法进行匹配,得到机器人端彩色图像相对于空中无人机图像的姿态,进而求得第一局部点云地图与第二局部点云地图之间的变换矩阵;
步骤d:将步骤c得到变换矩阵存入一个缓存中,基于回环的一致性,对缓存中所有的结果使用RANSAC算法进行估计,剔除错误回环;
步骤e:对于步骤d得到的一致的回环,通过SVD算法对多次回环结果进行加权平均,最终输出第一局部点云地图与第二局部点云地图之间的变换矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011498963.0A CN112461210B (zh) | 2020-12-18 | 2020-12-18 | 一种空地协同建筑测绘机器人系统及其测绘方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011498963.0A CN112461210B (zh) | 2020-12-18 | 2020-12-18 | 一种空地协同建筑测绘机器人系统及其测绘方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112461210A CN112461210A (zh) | 2021-03-09 |
CN112461210B true CN112461210B (zh) | 2021-12-24 |
Family
ID=74804786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011498963.0A Active CN112461210B (zh) | 2020-12-18 | 2020-12-18 | 一种空地协同建筑测绘机器人系统及其测绘方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112461210B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113112218A (zh) * | 2021-03-22 | 2021-07-13 | 福建升晖工程管理有限公司 | 一种园林景观工程测量系统 |
CN113428253A (zh) * | 2021-06-09 | 2021-09-24 | 大连海事大学 | 一种地空协同检测机器人及船舱检测方法 |
CN113418515B (zh) * | 2021-06-21 | 2022-02-01 | 广东信德资产评估与房地产土地估价有限公司 | 基于大数据的资产勘查方法和勘查系统 |
CN115222808B (zh) * | 2021-06-30 | 2023-10-20 | 达闼机器人股份有限公司 | 基于无人机的定位方法、装置、存储介质和电子设备 |
CN115265490B (zh) * | 2022-09-28 | 2022-12-20 | 常州奥视科技有限公司 | 基于三维数字孪生摄像技术的数据采集方法及系统 |
CN116012377B (zh) * | 2023-03-24 | 2023-06-30 | 四川腾盾科技有限公司 | 一种基于卫星地图的无人机虚拟观测图像生成及定位方法 |
CN117392328B (zh) * | 2023-12-07 | 2024-02-23 | 四川云实信息技术有限公司 | 一种基于无人机集群的三维实景建模方法及系统 |
CN118570411A (zh) * | 2024-07-31 | 2024-08-30 | 湖南省建筑设计院集团股份有限公司 | 建筑三维重建及裂缝检测方法、系统、终端及介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103941750B (zh) * | 2014-04-30 | 2016-08-31 | 东北大学 | 基于小型四旋翼无人机的构图装置及方法 |
CN105856230B (zh) * | 2016-05-06 | 2017-11-24 | 简燕梅 | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 |
CN106443687B (zh) * | 2016-08-31 | 2019-04-16 | 欧思徕(北京)智能科技有限公司 | 一种基于激光雷达和全景相机的背负式移动测绘系统 |
CN106200667A (zh) * | 2016-09-05 | 2016-12-07 | 南京理工大学 | 石化生产现场智能巡检系统 |
CN107356230B (zh) * | 2017-07-12 | 2020-10-27 | 深圳市武测空间信息有限公司 | 一种基于实景三维模型的数字测图方法和系统 |
CN107703512A (zh) * | 2017-11-08 | 2018-02-16 | 北京数字绿土科技有限公司 | 机载测绘设备、无人机及机载测绘系统 |
CN109579843B (zh) * | 2018-11-29 | 2020-10-27 | 浙江工业大学 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
CN109781070A (zh) * | 2019-01-25 | 2019-05-21 | 杨永超 | 一种地形图的测绘新方法 |
CN110389348B (zh) * | 2019-07-30 | 2020-06-23 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
CN111045017B (zh) * | 2019-12-20 | 2023-03-31 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
-
2020
- 2020-12-18 CN CN202011498963.0A patent/CN112461210B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112461210A (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112461210B (zh) | 一种空地协同建筑测绘机器人系统及其测绘方法 | |
CN112894832B (zh) | 三维建模方法、装置、电子设备和存储介质 | |
CN111045017B (zh) | 一种激光和视觉融合的巡检机器人变电站地图构建方法 | |
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN111275750B (zh) | 基于多传感器融合的室内空间全景图像生成方法 | |
CN107255476B (zh) | 一种基于惯性数据和视觉特征的室内定位方法和装置 | |
CN107179086B (zh) | 一种基于激光雷达的制图方法、装置及系统 | |
CN110068335B (zh) | 一种gps拒止环境下无人机集群实时定位方法及系统 | |
CN110033489B (zh) | 一种车辆定位准确性的评估方法、装置及设备 | |
CN110675450B (zh) | 基于slam技术的正射影像实时生成方法及系统 | |
Yang et al. | A novel approach of efficient 3D reconstruction for real scene using unmanned aerial vehicle oblique photogrammetry with five cameras | |
KR101220527B1 (ko) | 센서 시스템, 이를 이용하는 환경 지도 작성 시스템 및 방법 | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN109547769B (zh) | 一种公路交通动态三维数字场景采集构建系统及其工作方法 | |
KR20140049361A (ko) | 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법 | |
CN113763548B (zh) | 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统 | |
CN110992487B (zh) | 手持式飞机油箱快速三维地图重建装置及重建方法 | |
CN109709977B (zh) | 移动轨迹规划的方法、装置及移动物体 | |
CN111091587A (zh) | 一种基于视觉标志物的低成本动作捕捉方法 | |
CN110749308B (zh) | 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法 | |
CN112529962A (zh) | 一种基于视觉算法的室内空间关键定位技术方法 | |
CN114923477A (zh) | 基于视觉与激光slam技术的多维度空地协同建图系统和方法 | |
CN115355904A (zh) | 一种针对地面移动机器人的Lidar-IMU融合的slam方法 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN112365591A (zh) | 一种基于合成视觉的空地协同综合态势生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |