CN113052903B - 一种用于移动机器人的视觉与雷达融合定位方法 - Google Patents

一种用于移动机器人的视觉与雷达融合定位方法 Download PDF

Info

Publication number
CN113052903B
CN113052903B CN202110286876.7A CN202110286876A CN113052903B CN 113052903 B CN113052903 B CN 113052903B CN 202110286876 A CN202110286876 A CN 202110286876A CN 113052903 B CN113052903 B CN 113052903B
Authority
CN
China
Prior art keywords
marker
camera
markers
laser radar
point clouds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110286876.7A
Other languages
English (en)
Other versions
CN113052903A (zh
Inventor
杨国青
冯凯
吕攀
李红
吴朝晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110286876.7A priority Critical patent/CN113052903B/zh
Publication of CN113052903A publication Critical patent/CN113052903A/zh
Application granted granted Critical
Publication of CN113052903B publication Critical patent/CN113052903B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开了一种用于移动机器人的视觉与雷达融合定位方法,移动机器人使用摄像头识别出场景中事先布置的标志物,并通过激光雷达测距进行建图及定位。本发明综合考虑激光雷达以及摄像头的优点,能够有效地解决移动机器人在定位与导航中所存在的问题,通过单目摄像头进行远距离的观测和识别标志物并使用激光雷达辅助测距来实现建图和定位;此外本发明通过引入激光雷达信息剔除了动态点云的干扰,提高定位精度。

Description

一种用于移动机器人的视觉与雷达融合定位方法
技术领域
本发明属于移动机器人定位导航技术领域,具体涉及一种用于移动机器人的视觉与雷达融合定位方法。
背景技术
随着AI技术的发展,移动机器人已经广泛应用于无人物流、智能工厂以及智能家居等领域,而定位与导航模块是移动机器人中最重要也是最复杂的模块。
常用的定位与导航技术根据传感器的不同大体可以分为视觉法和激光雷达法,视觉方法主要是使用计算机视觉算法在场景中采集一系列有代表性的点作为特征点,根据匹配特征点的变换而推导出自身的位置,比较有名的方法有ORB-SLAM、PTAM等等,由于此方法是在环境中随机采集特征点,不具备很好的鲁棒性,例如特征点的提取通常通过寻找图像中的灰度变化,因此在光照变化明显时特征点的匹配会出现很大问题;特征点的提取需要纹理信息,而缺失纹理信息的地方(如白墙),特征点的提取与匹配都会失效。还有一种方法是识别场景中固定的标志,根据标志的位置来建图,标志是提前布置在场景中的,因此我们有标志的先验信息,更方便移动机器人对标志的识别,提高了识别的精度;每一个标志都包含ID信息,进行匹配时只需比对ID信息,因此标志法的匹配精度也非常高。但无论是特征点法和标志法,单目摄像头由于存在着尺度不定性,得到的地图是无尺度信息的,地图与真实场景存在着等比放大或者缩小的情况,且视觉测距不准确。
激光雷达法通过激光雷达生成的点云进行匹配定位,测距精度高,效果更好,生成的地图点更精确;使用激光雷达进行定位也存在着一些缺陷,例如在室内环境中物体的移动非常频繁,点云匹配会出现问题,人来人往中可能会对激光雷达造成遮挡,发生误匹配的情况经常发生。如果将激光雷达和视觉相融合,对激光雷达提取的点云进行过滤,只提取人工标志物上的点云进行匹配,这样不仅降低了误匹配,还大大减小了算力。
申请号为201810051704.X的中国专利中提出了一种融合视觉与激光雷达数据特征的地铁轨道障碍物检测方法,该技术方案虽然将视觉和激光雷达得到的数据进行融合并检测障碍物,但没有做到通过障碍物的位置来反推出自身的定位信息。而申请号为201910717569.2的中国专利中提出的方法将特征点与点云相结合,并没有剔除动态点造成的干扰且数据量较大,算力需求强。在申请号为201910279067.6的中国专利中提出的方法将视觉与激光雷达计算的位姿进行松耦合,精度较差。
发明内容
鉴于上述,本发明提供了一种用于移动机器人的视觉与雷达融合定位方法,通过紧耦合的方式将视觉检测得到的标志物与激光雷达测距结果融合,综合考虑了视觉传感器和激光雷达的优点,能够有效地解决移动机器人在定位与导航中所存在的问题。
一种用于移动机器人的视觉与雷达融合定位方法,包括如下步骤:
(1)在场景中布置包含丰富颜色特征的标志物作为定位点;
(2)在移动机器人上安装摄像头以及激光雷达并对两者的外参进行标定;
(3)将激光雷达产生的点云投影到相机坐标系下;
(4)根据标志物的先验信息以及摄像头内参在相机坐标系下对标志物进行识别并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点;进而根据标志物范围内的点云可获得标志物的三维位置信息,并构建场景地图;
(5)通过构建得到的场景地图推算出移动机器人自身位姿,从而完成定位。
进一步地,所述步骤(1)中布置的标志物由多个色块并排组成,所述色块有两种颜色,一种颜色的色块代表1,另一种颜色的色块代表0,使得标志物包含有多位二进制编码信息。
进一步地,所述标志物由7个白色和黑色的色块排列组成,每个色块长10cm,宽10cm,白色色块代表1,黑色色块代表0,则标志物长70cm,宽10cm且包含有7位二进制编码信息。
本发明选用白色和黑色组成标志物是因为白色和黑色在计算机视觉中便于识别,而且在环境中很少包含白色或黑色的物体,这样也减少了噪声的干扰;移动机器人需要识别独一无二的地标来实现建图与定位,因此也需要独一无二的色块编码来表示不同的地标信息,7位二进制一共可组成128种不同的色块信息。
进一步地,所述步骤(2)中在移动机器人上安装四个摄像头,分布在前后左右四个方向,对摄像头及激光雷达的外参进行标定需要用到视觉标定板,手动在所有点云中大致标记投影到标定板上的点云,在经过迭代之后,利用标定工具将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功。
进一步地,所述步骤(3)的具体实现方式为:移动标定板在不同位置标记多帧点云和图像之后,通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达所产生点云在相机坐标系中的位置,其中使用PnP(pespective-n-point)算法得到相机坐标系到激光雷达坐标系的变换矩阵。
进一步地,所述步骤(4)中标志物识别的具体实现过程为:首先对摄像头采集到的图像进行预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据标志物的颜色先验信息在Hue域对图像进行二值化,从而提取出候选的人工标志物轮廓;标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大或过小不可能是人工标志物的轮廓过滤掉,最终得到标志物在图像中的像素坐标。
进一步地,所述步骤(4)当识别提取到标志物后,需解析其中包含的语义信息,进而通过投影变换以及摄像头与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后根据图像中标志物的坐标信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维位置信息,通过这些点对人工标志物实现了精准定位。
进一步地,解析标志物包含的语义信息,具体地:首先对标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则将此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物;遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息。
进一步地,所述步骤(4)中构建场景地图的具体实现为:根据相机坐标系到激光雷达坐标系的变换矩阵,使用传感器紧耦合的方式将摄像头的丰富视觉信息与激光雷达的深度信息进行数据级的融合即将点云投影到相机坐标系中得到点云在图像中的位置,然后通过摄像头外参得到标志物在世界坐标系下的位置,从而完成场景地图构建。
进一步地,所述步骤(5)当构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,推算出移动机器人自身位姿,从而完成定位工作。
基于上述技术方案,本发明具有以下有益技术效果:
1.在大规模场景内,本发明可以通过摄像头和激光雷达的组合方式进行远距离观测和识别标志物来实现精确建图和定位。
2.本发明通过只对静态标志物进行建图,有效地过滤了移动物体产生的点云,提高了定位精度。
附图说明
图1(a)为对应编码1000111的色块示意图。
图1(b)为对应编码0110011的色块示意图。
图1(c)为对应编码0011011的色块示意图。
图2为雷达测量标志物距离的原理示意图。
图3为标定中三维空间下标志物对应点云位置示意图。
图4为标定中二维图像下点云所在标志物位置示意图。
图5为投射到标志物上的点云位置示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明用于移动机器人的视觉与激光雷达融合定位方法,包括如下步骤:
步骤1:在场景中布置包含颜色特征丰富的标志物作为定位点。
标志物由两种颜色组成,每种颜色均代表一位编码信息,按两种颜色的排列组合方式不同,形成多种不同编码的人工标志物。
本实施例中标志物由白色、黑色两种颜色组成,白色代表1,黑色代表0,每个方块长10cm,宽10cm,每条色块由七个颜色方块组成,因此色块长70cm,宽10cm。
举例分析标志物编码,图1(a)所示标志物代表编码1000111,图1(b)代表编码110011,图1(c)代表0011011。每个标志物由七个颜色块组成,因此每个色块的编码由七位二进制组成,一共包含128个数字,除去全白、全黑等不易识别的组合外,可以使用的颜色组合方式大约100个。
步骤2:在移动机器人上安装摄像头与激光雷达并对外参进行标定。
本实施例中移动机器人包含四个朝向前后左右四个方向的摄像头、激光雷达传感器,激光雷达-摄像头外参标定过程具体步骤如下:
激光雷达与相机的外参标定需要视觉标定板,手动在点云中大致标记投影到标定板上的点云,如图3所示。在经过迭代之后,标定工具会将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功,如图4所示。
步骤3:将激光雷达产生的点云投影到相机归一化坐标系下。
移动标定板在不同位置标记多帧点云和图像之后,可以通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达生成的点云在相机坐标系中的位置,本实施例使用PnP的方法得到相机坐标系到激光雷达坐标系的变换矩阵。
步骤4:在图像中通过步骤1布置的标志物先验信息以及相机内参在相机归一化坐标系下识别,并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点。
移动机器人安装有四个摄像头分布在前后左右四个方向,通过对图像进行预处理、颜色空间转换、颜色二值化、形状阈值筛选等方式将图像中的标志物进行识别,具体识别过程如下:首先进行图像预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据颜色的先验信息在Hue域对图像进行二值化,从而提取出候选人工标志物的轮廓。标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大、过小的不可能是人工标志物的轮廓过滤,最终得到标志物在图像中的像素坐标。
提取到标志物后,需要解析其中包含的语义信息,主要过程如下:首先对人工标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物。遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息了。
通过投影变换以及相机与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后通过图像中标志物的信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维信息,通过这些点对人工标志物实现了精准定位,如图2所示。
步骤5:通过步骤4得到的标志物范围内的点云获得标志物的三维位置信息,并构建场景地图。
根据以下转换关系,使用传感器紧耦合的方式将摄像头的丰富视觉信息和激光雷达的深度信息进行数据级的融合,也就是将点云投影到相机坐标系中得到点云在图像中的位置,如图5所示,然后通过相机外参得到标志物在世界坐标系下的位置,从而完成场景地图构建。
Figure BDA0002980832790000061
其中:P代表点云在三维空间中的坐标,T代表相机在时间坐标系下的位置即相机外参,K代表相机内参,R和t代表相机的旋转与平移矩阵,p代表点云在图像中的像素坐标。
步骤6:通过步骤5得到的地图推算出移动机器人自身位姿,从而完成定位。
构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,从而完成定位工作。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明,熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (2)

1.一种用于移动机器人的视觉与雷达融合定位方法,包括如下步骤:
(1)在场景中布置包含丰富颜色特征的标志物作为定位点,所述标志物由多个色块并排组成,所述色块有两种颜色,一种颜色的色块代表1,另一种颜色的色块代表0,使得标志物包含有多位二进制编码信息;
(2)在移动机器人上安装摄像头以及激光雷达并对两者的外参进行标定,具体地:在移动机器人上安装四个摄像头,分布在前后左右四个方向,对摄像头及激光雷达的外参进行标定需要用到视觉标定板,手动在所有点云中大致标记投影到标定板上的点云,在经过迭代之后,利用标定工具将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功;
(3)将激光雷达产生的点云投影到相机坐标系下,具体地:移动标定板在不同位置标记多帧点云和图像之后,通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达所产生点云在相机坐标系中的位置,其中使用PnP算法得到相机坐标系到激光雷达坐标系的变换矩阵;
(4)根据标志物的先验信息以及摄像头内参在相机坐标系下对标志物进行识别并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点;进而根据标志物范围内的点云可获得标志物的三维位置信息,并构建场景地图;
其中标志物识别的具体实现过程为:首先对摄像头采集到的图像进行预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据标志物的颜色先验信息在Hue域对图像进行二值化,从而提取出候选的人工标志物轮廓;标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大或过小不可能是人工标志物的轮廓过滤掉,最终得到标志物在图像中的像素坐标;
当识别提取到标志物后,需解析其中包含的语义信息,具体地:首先对标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则将此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物;遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息;
进而通过投影变换以及摄像头与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后根据图像中标志物的坐标信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维位置信息,通过这些点对人工标志物实现了精准定位;
构建场景地图的具体实现为:根据相机坐标系到激光雷达坐标系的变换矩阵,使用传感器紧耦合的方式将摄像头的丰富视觉信息与激光雷达的深度信息进行数据级的融合即将点云投影到相机坐标系中得到点云在图像中的位置,然后通过摄像头外参得到标志物在世界坐标系下的位置,从而完成场景地图构建;
(5)当构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,推算出移动机器人自身位姿,从而完成定位工作。
2.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述标志物由7个白色和黑色的色块排列组成,每个色块长10cm,宽10cm,白色色块代表1,黑色色块代表0,则标志物长70cm,宽10cm且包含有7位二进制编码信息。
CN202110286876.7A 2021-03-17 2021-03-17 一种用于移动机器人的视觉与雷达融合定位方法 Active CN113052903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110286876.7A CN113052903B (zh) 2021-03-17 2021-03-17 一种用于移动机器人的视觉与雷达融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110286876.7A CN113052903B (zh) 2021-03-17 2021-03-17 一种用于移动机器人的视觉与雷达融合定位方法

Publications (2)

Publication Number Publication Date
CN113052903A CN113052903A (zh) 2021-06-29
CN113052903B true CN113052903B (zh) 2023-03-10

Family

ID=76513024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110286876.7A Active CN113052903B (zh) 2021-03-17 2021-03-17 一种用于移动机器人的视觉与雷达融合定位方法

Country Status (1)

Country Link
CN (1) CN113052903B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658257B (zh) * 2021-08-17 2022-05-27 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113932814B (zh) * 2021-09-30 2024-04-02 杭州电子科技大学 一种基于多模态地图的协同定位方法
CN114018236B (zh) * 2021-09-30 2023-11-03 哈尔滨工程大学 一种基于自适应因子图的激光视觉强耦合slam方法
CN113706621B (zh) * 2021-10-29 2022-02-22 上海景吾智能科技有限公司 基于带标记图像的标志点定位及姿态获取方法和系统
CN117036489B (zh) * 2023-10-10 2024-02-09 泉州装备制造研究所 基于人工标识和四目全景相机的机器人定位方法及设备
CN117406185B (zh) * 2023-12-14 2024-02-23 深圳市其域创新科技有限公司 雷达与相机间的外参标定方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108795A (zh) * 2017-12-18 2018-06-01 无锡费舍太格科技有限公司 一种二进制颜色码
CN110568447A (zh) * 2019-07-29 2019-12-13 广东星舆科技有限公司 视觉定位的方法、装置及计算机可读介质
CN111105495A (zh) * 2019-11-26 2020-05-05 四川阿泰因机器人智能装备有限公司 一种融合视觉语义信息的激光雷达建图方法及系统
CN111461245A (zh) * 2020-04-09 2020-07-28 武汉大学 一种融合点云和图像的轮式机器人语义建图方法及系统
CN112270716A (zh) * 2020-10-30 2021-01-26 浙江理工大学 一种人工视觉地标的解码定位方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3249419A4 (en) * 2015-01-22 2018-02-28 Guangzhou Airob Robot Technology Co., Ltd. Color block tag-based localization and mapping method and device thereof
US10929713B2 (en) * 2017-10-17 2021-02-23 Sri International Semantic visual landmarks for navigation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108795A (zh) * 2017-12-18 2018-06-01 无锡费舍太格科技有限公司 一种二进制颜色码
CN110568447A (zh) * 2019-07-29 2019-12-13 广东星舆科技有限公司 视觉定位的方法、装置及计算机可读介质
CN111105495A (zh) * 2019-11-26 2020-05-05 四川阿泰因机器人智能装备有限公司 一种融合视觉语义信息的激光雷达建图方法及系统
CN111461245A (zh) * 2020-04-09 2020-07-28 武汉大学 一种融合点云和图像的轮式机器人语义建图方法及系统
CN112270716A (zh) * 2020-10-30 2021-01-26 浙江理工大学 一种人工视觉地标的解码定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
动态场景下融合视觉语义的激光SLAM感知方法研究;曹军;《中国优秀硕士学位论文全文数据库》;20181215(第12期);第26-36页 *

Also Published As

Publication number Publication date
CN113052903A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
CN113052903B (zh) 一种用于移动机器人的视觉与雷达融合定位方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Xia et al. Geometric primitives in LiDAR point clouds: A review
CN111340797A (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN101853528B (zh) 一种手持式三维型面信息提取方法及其提取仪
CN110084243B (zh) 一种基于二维码和单目相机的档案识别与定位方法
CN109211207B (zh) 一种基于机器视觉的螺钉识别与定位装置
CN104121902A (zh) 基于Xtion摄像机的室内机器人视觉里程计实现方法
CN114241298A (zh) 一种激光雷达和图像融合的塔吊环境目标检测方法及系统
CN105574812B (zh) 多角度三维数据配准方法及装置
CN107492107B (zh) 基于平面与空间信息融合的物体识别与重建方法
Sun et al. Large 3D free surface measurement using a mobile coded light-based stereo vision system
CN115936029B (zh) 一种基于二维码的slam定位方法及装置
CN110827361A (zh) 基于全局标定架的相机组标定方法及装置
Li et al. A mobile robot visual SLAM system with enhanced semantics segmentation
CN115128628A (zh) 基于激光slam和单目视觉的道路栅格地图构建方法
CN112184793A (zh) 深度数据的处理方法、装置及可读存储介质
CN114639115A (zh) 一种人体关键点与激光雷达融合的3d行人检测方法
CN112697044B (zh) 一种基于无人机平台的静态刚性物体视觉测量方法
CN112784942B (zh) 一种用于大规模场景下定位导航的特殊色块编码方法
Teoh et al. Ground plane detection for autonomous vehicle in rainforest terrain
CN112258391B (zh) 一种基于道路交通标线的碎片化地图拼接方法
CN111964681B (zh) 一种巡检机器人的实时定位系统
CN111784798B (zh) 地图生成方法、装置、电子设备和存储介质
Zhi et al. Key technology of mine underground mobile positioning based on LiDAR and coded sequence pattern

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant