CN117367441A - 自主移动构建三维真彩色点云地图的机器人系统及方法 - Google Patents

自主移动构建三维真彩色点云地图的机器人系统及方法 Download PDF

Info

Publication number
CN117367441A
CN117367441A CN202311171030.4A CN202311171030A CN117367441A CN 117367441 A CN117367441 A CN 117367441A CN 202311171030 A CN202311171030 A CN 202311171030A CN 117367441 A CN117367441 A CN 117367441A
Authority
CN
China
Prior art keywords
point cloud
true color
map
dimensional
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311171030.4A
Other languages
English (en)
Inventor
吴艳霞
郭晟
张文俊
舒振
张琼玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leador Spatial Information Technology Co ltd
Original Assignee
Leador Spatial Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leador Spatial Information Technology Co ltd filed Critical Leador Spatial Information Technology Co ltd
Priority to CN202311171030.4A priority Critical patent/CN117367441A/zh
Publication of CN117367441A publication Critical patent/CN117367441A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自主移动构建三维真彩色点云地图的机器人系统及方法,使得机器人能够在陌生场景自主移动构建真彩色三维点云地图,所述方法包括:从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集;根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片,生成点云子地图;根据点云子地图和图片集,结合相机的参数,进行点云投影;对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。

Description

自主移动构建三维真彩色点云地图的机器人系统及方法
技术领域
本发明属于机器人建图及定位技术领域,具体涉及一种自主移动构建三维真彩色点云地图的机器人系统及方法。
背景技术
机器人可以依赖GNSS信号进行定位,也可以通过自身多种传感器融合计算实时位姿,不依赖外界信号进行自主定位。机器人自主定位导航需要提前对整个环境构建先验地图,当前室内环境主要使用二维激光,该方案通过检测环境的二维信息构建二维地图,会有较大的局限性,无法适应室外场景和室内复杂场景。另外也有使用三维激光的机器人,可以手动操作或者半自动操作构建三维地图,无法实现自主移动实时定位构建地图。或者原有的机器人可以实现自主移动定位进行地图构建,但构建的地图色彩单一、无渲染效果,细节不够清晰,无法呈现生动的实景点云模型,真实准确地还原现场信息。现有的机器人系统构建的地图成果应用范围狭窄,无法满足一些复杂场景的应用需求。
发明内容
本发明提供一种自主移动构建三维真彩色点云地图的机器人系统,机器人至少能够在陌生场景自主移动建图,构建的地图经过着色最终得到真彩色三维点云地图。
本发明提供一种自主移动构建三维真彩色点云地图的机器人系统及方法,可以搭载在移动平台上,不需要先验地图,前往陌生场景进行自主移动探索,结合自主定位导航和构建真彩色点云地图为一体,融合激光点云和影像,渲染呈现真彩色实景点云地图,构建的地图成果信息更丰富,更真实,精度更高,应用性更强,不受室内外、复杂环境的限制。
移动机器人包括多线激光雷达、相机、IMU等多种传感器,利用即时定位定姿与建图3DSLAM技术,在室内外环境下实时建立真彩色三维点云地图。算法主要分为IMU姿态解算、姿态更新、激光帧组合、SLAM融合、闭环检测五个部分。
(1)IMU姿态解算:提取出陀螺仪输出角速度,通过角速度积分获得系统姿态。
(2)姿态更新:姿态更新部分采用kalman对系统姿态进行估计。
(3)激光帧组合:一圈的激光数据时间约为0.05-0.1s。这一时间段内,通过kalman能有效估计出每一时刻系统姿态,进而可以准确地组合出一圈激光数据,以完成后续激光匹配。
(4)SLAM融合:针对IMU与激光SLAM的融合,其匹配加入了激光匹配误差、姿态估计误差、前后帧距离误差3种约束关系。
激光匹配误差:激光匹配采用了概率分数来描述匹配的程度。目标地图与当前帧激光数据重叠分数越高,匹配误差越小,匹配结果越好。姿态估计误差:SLAM融合姿态角度要与Kalman估计姿态角度要小。前后帧距离误差:上一帧匹配位置要与当前匹配位置要邻近。
(5)闭环检测:由于slam算法是通过点云的逐帧匹配来获得运动轨迹的,误差会随着帧数的增加而增大。而消除或减小误差的最有效的办法是闭环检测,并根据闭环对所有结果进行优化,进而提高整个slam结果的精度。为了使得检测到的闭环更加准确,闭环检测中增加了闭环检测结果校验检查,去掉错误的闭环匹配对。
(6)点云着色:通过多个三维激光获取具有空间位置信息的激光点云,通过相机获得具有纹理信息的影像。两者在对目标的定性描述上有诸多的互补性,将激光点云与影像进行融合,经过遮挡判断,点云赋色,色彩均匀等步骤,最终得到信息更加丰富的三维真彩点云。
第一方面,提供一种三维真彩色点云地图构建方法,包括:从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集;根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片,生成点云子地图;根据点云子地图和图片集,结合相机的参数,进行点云投影;对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。
第二方面,提供一种三维真彩色点云地图构建系统,包括:图片集获取模块,其被配置为从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集;子地图生成模块,其被配置为根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片,生成点云子地图;点云投影模块,其被配置为根据点云子地图和图片集,结合相机的参数,进行点云投影;三维真彩色点云地图生成模块,其被配置为对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。
进行点云投影的方法包括:通过多源融合的SLAM获取了空间一致的位姿TL和三维点云PL,这里的位姿定义为主激光雷达的位置和姿态,通过标定步骤获得的激光雷达和全景外参计算出每个全景的位姿/>再通过全景位姿TC与三维点云PL的投影关系,将影像的纹理投影到点云上。
第三方面,提供一种自主移动构建三维真彩色点云地图的机器人系统,包括:处理器;存储器,包括一个或多个计算机程序模块;其中,所述一个或多个计算机程序模块被存储在所述存储器中并被配置为由所述处理器执行,所述一个或多个计算机程序模块包括用于实现所述的三维真彩色点云地图构建方法的指令。
第四方面,提供一种存储介质,用于存储非暂时性指令,当所述非暂时性指令由处理器执行时能够实现所述的三维真彩色点云地图构建方法。
附图说明
图1为本发明一实施例提供的自主移动构建三维真彩色点云地图的流程图。
图2为本发明一实施例提供的三维真彩色点云地图成果图。
图3为本发明一实施例提供的自主移动构建三维真彩色点云地图的机器人系统框图。
具体实施方式
图1示出了一种三维真彩色点云地图构建方法流程。该方法基于一种包括多线激光雷达、相机、IMU等多种传感器的机器人系统。该方法利用即时定位定姿与建图3D SLAM技术,在室内外环境下实时建立真彩色三维点云地图。该方法主要包括IMU姿态解算、姿态更新、激光帧组合、SLAM融合和闭环检测。下面对该方法进行详细说明。
步骤1:采集经过同步后的传感器数据。传感器数据包含IMU数据、里程计数据、激光雷达数据和影像数据。使用同步器对传感器数据进行授时。首先传感器与计算机进行时间同步,然后通过模拟GNSS数据对激光雷达数据进行授时,另外在读入惯导以及里程计数据后要打上时标,为后续传感器数据的融合计算做准备。
步骤2:里程计与惯导融合预测实时位姿。预测IMU、里程计的融合位姿。利用IMU的加速度计和陀螺仪的原始数据,能够得到当前时刻的惯导姿态矩阵。惯导与里程计分别建立模型推测出位姿,再通过卡尔曼滤波得出融合位姿。
步骤3:特征提取与配准。主要方式是根据不失真点云,依据其激光点的平滑度,提取出边缘和平面特征,根据多帧扫描的密集点,计算精确的对应关系。将利用步骤2里程计与惯导融合预测的每个时刻位姿转换到世界坐标系下。将平面特征点附近的点拟合成一个平面,之后再通过点到平面公式建立优化方程,最终优化求得准确的位姿数据。
步骤4:将局部地图中每个关键帧与局部地图进行配准,得到每个激光帧的全局位姿。两个激光帧之间有轮式里程计预测的位姿,IMU预测的位姿,将这个局部窗口内的位姿优化可求得IMU、轮式里程计的误差,再将这个误差代入步骤2计算的融合位姿预测部分可得到更精准的位姿估计,同时优化出IMU与里程计的累计误差。
步骤5:闭环检测。由于SLAM算法是通过点云的逐帧匹配来获得运动轨迹的,误差会随着帧数的增加而增大,而消除或减小误差的最有效的办法是闭环检测,并根据闭环对所有结果进行优化,进而提高整个slam结果的精度。为了使得检测到的闭环更加准确,闭环检测中增加了闭环检测结果校验检查,去掉错误的闭环匹配对。
步骤6:影像与点云数据融合着色。可直接在重建的三维点云上测量,通过点云和实景影像的套合并通过实景影像给点云着顶点色使三维点云更加真实,易于测量交互。
步骤61:图片集的获取。从步骤1采集的相机影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集。
步骤62:子地图的生成。根据步骤1采集的激光原始数据以及步骤4得到的激光轨迹组合点云;组合的点云结合步骤S61中提取出的图片,生成点云子地图。
步骤63:点云投影。根据步骤62得到的点云子地图和步骤S61得到的图片集,结合相机的参数,进行点云投影。
通过多源融合的SLAM获取了空间一致的位姿TL和三维点云PL,这里的位姿定义为主激光雷达的位置和姿态(机器人系统可能有多个激光雷达),通过标定步骤获得的激光雷达和全景外参可以方便计算出每个全景的位姿/>再通过全景位姿TC与三维点云PL的投影关系,将影像的纹理投影到点云上。
步骤64:生成真彩色点云地图。对完成步骤S63过程生成的数据经过遮挡判断、点像关联,点云匀色处理,最终得到真彩色点云地图。图2为利用本发明方法构建的一种三维真彩色点云地图。本发明一个目的就是提供一种自主移动构建三维真彩色点云地图的方法,所以图2只能用彩色图。
本发明还提供一种三维真彩色点云地图构建系统的实施例,该系统包括多个程序模块,程序模块配置为实现所述的三维真彩色点云地图构建方法中的一个或多个步骤。即该系统是与三维真彩色点云地图构建方法对应的产品,具体实现方法与步骤1~步骤6。例如该系统至少包括图片集获取模块、子地图生成模块和三维真彩色点云地图生成模块。图片集获取模块从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集。子地图生成模块根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片,生成点云子地图。点云投影模块根据点云子地图和图片集,结合相机的参数,进行点云投影。三维真彩色点云地图生成模块对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。
图3示出了一种自主构建三维真彩色点云地图的机器人系统。如图3所示,机器人系统包含底盘60以及设置在其上的底盘控制器52、相机10、三维激光雷达20、21、第一惯性导航设备IMU 30、第二惯性导航设备IMU 31、第一智能计算机50、第二智能计算机51、里程计32、同步器41和通信接收器42。第一智能计算机50用于测图,可简称为“测图计算机”。第二智能计算机51用于导航,可简称为“导航计算机”。
相机10用于机器人移动过程中采集360°视觉的环境影像数据,并将采集的影像传输给测图计算机50。三维激光雷达20、21采集机器人周围环境不同角度范围的三维点云数据,并将其传输给测图计算机50。第一惯性导航设备IMU 30同步获取机器人位姿数据,并将其提供给测图计算机50。里程计32获取机器人移动的里程数据,并将其提供给测图计算机50。同步器41给机器人系统传感器授时,保证多种传感器统一时间基准。
测图计算机50包括处理器和存储器。存储器和处理器可以通过总线系统和/或其它形式的连接机构互连。存储器用于存储非暂时性指令(例如一个或多个程序模块)。处理器用于运行非暂时性指令,非暂时性指令被处理器运行时可以执行上文所述的三维真彩色点云地图构建方法中的一个或多个步骤。即,测图计算机被配置为:获取相机、激光雷达、第一惯性导航设备IMU和里程计的数据,通过多传感器融合算法计算出机器人准确的实时位姿,通过地图构建算法生成三维点云地图,通过融合相机的影像和生成的三维点云地图,并进行匹配着色,最终生成带实景信息的三维真彩色点云地图。
导航计算机51也具有处理器和存储器。导航计算机通过与测图计算机交互获取传感器采集的数据,通过多传感器融合算法计算机器人准确的实时位姿、速度,通过3D SLAM算法实现不依赖GNSS信号的机器人自主定位导航,导航计算机给底盘控制器发出控制指令,底盘控制器通过CAN通信实现对机器人底盘的运动控制,从而实现机器人的自主移动控制。测图机器算计和导航计算机一直处于数据实时交互状态,从而保证机器人导航控制和建图的同步性和一致性,实现机器人自主移动过程的三维真彩色点云地图的构建。
例如,处理器可以是中央处理单元(CPU)、图形处理单元(GPU)或者具有数据处理能力和/或程序执行能力的其它形式的处理单元。例如,中央处理单元(CPU)可以为X86或ARM架构等。处理器可以为通用处理器或专用处理器,可以控制电子设备中的其它组件以执行期望的功能。
例如,存储器可以是易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、可擦除可编程只读存储器(EPROM)、紧凑型光盘只读储存器(CD-ROM)、USB存储器、闪存等。在存存储器上可以存储一个或多个程序模块,处理器可以运行一个或多个程序模块,以实现电子设备的各种功能。
本发明还提供一种计算机可读存储介质的实施例,该计算机可读存储介质用于存储非暂时性计算机可读指令,当非暂时性计算机可读指令由计算机执行时可以实现上述的三维真彩色点云地图构建方法中的一个或多个步骤。也就是本申请实施例提供的三维真彩色点云地图构建方法、系统以软件的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。关于存储介质的相关说明可以参考上文计算机中的存储器的相应描述,此处不再赘述。

Claims (10)

1.一种三维真彩色点云地图构建方法,其特征在于,包括:
从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集;
根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片生成点云子地图;
根据点云子地图和带位姿信息的图片集,结合相机的参数,进行点云投影;
对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。
2.根据权利要求1所述的三维真彩色点云地图构建方法,其特征在于,进行点云投影的方法包括:通过多源融合的SLAM获取了空间一致的位姿TL和三维点云PL,位姿定义为主激光雷达的位置和姿态,通过标定步骤获得的激光雷达和全景外参计算出每个全景的位姿/>再通过全景位姿TC与三维点云PL的投影关系,将影像的纹理投影到点云上。
3.根据权利要求1所述的三维真彩色点云地图构建方法,其特征在于,IMU与激光雷达SLAM的融合加入了激光匹配误差、姿态估计误差、前后帧距离误差3种约束关系。
4.根据权利要求1所述的三维真彩色点云地图构建方法,其特征在于,通过闭环检测减小点云逐帧匹配获得运动轨迹过程中因帧数增加而增大的误差。
5.一种三维真彩色点云地图构建系统,其特征在于,包括:
图片集获取模块,其被配置为从相机采集的影像数据中提取出图片,结合相机的轨迹数据,提取出带位姿信息的图片集;
子地图生成模块,其被配置为根据激光雷达数据以及激光轨迹组合点云,组合的点云结合从相机采集的影像数据中提取出的图片,生成点云子地图;
点云投影模块,其被配置为根据点云子地图和图片集,结合相机的参数,进行点云投影;
三维真彩色点云地图生成模块,其被配置为对完成点云投影过程生成的数据经过遮挡判断、点像关联和点云匀色处理,得到真彩色点云地图。
6.根据权利要求5所述的三维真彩色点云地图构建系统,其特征在于,点云投影模块进行点云投影的方法包括:通过多源融合的SLAM获取了空间一致的位姿TL和三维点云PL,位姿定义为主激光雷达的位置和姿态,通过标定步骤获得的激光雷达和全景外参计算出每个全景的位姿/>再通过全景位姿TC与三维点云PL的投影关系,将影像的纹理投影到点云上。
7.根据权利要求5所述的三维真彩色点云地图构建系统,其特征在于,IMU与激光雷达SLAM的融合加入了激光匹配误差、姿态估计误差、前后帧距离误差3种约束关系。
8.根据权利要求5所述的三维真彩色点云地图构建系统,其特征在于,通过闭环检测减小点云逐帧匹配获得运动轨迹过程中因帧数增加而增大的误差。
9.一种自主移动构建三维真彩色点云地图的机器人系统,其特征在于,包括:
处理器;
存储器,包括一个或多个计算机程序模块;
其中,所述一个或多个计算机程序模块被存储在所述存储器中并被配置为由所述处理器执行,所述一个或多个计算机程序模块包括用于实现权利要求1-4任一项所述的三维真彩色点云地图构建方法的指令。
10.一种存储介质,用于存储非暂时性指令,其特征在于,当所述非暂时性指令由处理器执行时能够实现权利要求1-4任一项所述的三维真彩色点云地图构建方法。
CN202311171030.4A 2023-09-11 2023-09-11 自主移动构建三维真彩色点云地图的机器人系统及方法 Pending CN117367441A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311171030.4A CN117367441A (zh) 2023-09-11 2023-09-11 自主移动构建三维真彩色点云地图的机器人系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311171030.4A CN117367441A (zh) 2023-09-11 2023-09-11 自主移动构建三维真彩色点云地图的机器人系统及方法

Publications (1)

Publication Number Publication Date
CN117367441A true CN117367441A (zh) 2024-01-09

Family

ID=89397274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311171030.4A Pending CN117367441A (zh) 2023-09-11 2023-09-11 自主移动构建三维真彩色点云地图的机器人系统及方法

Country Status (1)

Country Link
CN (1) CN117367441A (zh)

Similar Documents

Publication Publication Date Title
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN112567201B (zh) 距离测量方法以及设备
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及系统
US20160260250A1 (en) Method and system for 3d capture based on structure from motion with pose detection tool
CN102622762B (zh) 使用深度图的实时相机跟踪
CN109084732A (zh) 定位与导航方法、装置及处理设备
CN112254729B (zh) 一种基于多传感器融合的移动机器人定位方法
WO2015134795A2 (en) Method and system for 3d capture based on structure from motion with pose detection tool
WO2022077296A1 (zh) 三维重建方法、云台负载、可移动平台以及计算机可读存储介质
WO2022193508A1 (zh) 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN208323361U (zh) 一种基于深度视觉的定位装置及机器人
Pirker et al. GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping.
CN118135526B (zh) 基于双目相机的四旋翼无人机视觉目标识别与定位方法
CN113447014A (zh) 室内移动机器人、建图方法、定位方法以及建图定位装置
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
CN113030960B (zh) 一种基于单目视觉slam的车辆定位方法
Zhang et al. An overlap-free calibration method for LiDAR-camera platforms based on environmental perception
EP4332631A1 (en) Global optimization methods for mobile coordinate scanners
CN116027351A (zh) 一种手持/背包式slam装置及定位方法
CN115019167B (zh) 基于移动终端的融合定位方法、系统、设备及存储介质
CN117367441A (zh) 自主移动构建三维真彩色点云地图的机器人系统及方法
CN113379911A (zh) Slam方法、slam系统及智能机器人
CN115248446A (zh) 一种基于激光雷达的三维超声成像方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination