CN113052903A - 一种用于移动机器人的视觉与雷达融合定位方法 - Google Patents
一种用于移动机器人的视觉与雷达融合定位方法 Download PDFInfo
- Publication number
- CN113052903A CN113052903A CN202110286876.7A CN202110286876A CN113052903A CN 113052903 A CN113052903 A CN 113052903A CN 202110286876 A CN202110286876 A CN 202110286876A CN 113052903 A CN113052903 A CN 113052903A
- Authority
- CN
- China
- Prior art keywords
- marker
- camera
- laser radar
- vision
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种用于移动机器人的视觉与雷达融合定位方法,移动机器人使用摄像头识别出场景中事先布置的标志物,并通过激光雷达测距进行建图及定位。本发明综合考虑激光雷达以及摄像头的优点,能够有效地解决移动机器人在定位与导航中所存在的问题,通过单目摄像头进行远距离的观测和识别标志物并使用激光雷达辅助测距来实现建图和定位;此外本发明通过引入激光雷达信息剔除了动态点云的干扰,提高定位精度。
Description
技术领域
本发明属于移动机器人定位导航技术领域,具体涉及一种用于移动机器人的视觉与雷达融合定位方法。
背景技术
随着AI技术的发展,移动机器人已经广泛应用于无人物流、智能工厂以及智能家居等领域,而定位与导航模块是移动机器人中最重要也是最复杂的模块。
常用的定位与导航技术根据传感器的不同大体可以分为视觉法和激光雷达法,视觉方法主要是使用计算机视觉算法在场景中采集一系列有代表性的点作为特征点,根据匹配特征点的变换而推导出自身的位置,比较有名的方法有ORB-SLAM、PTAM等等,由于此方法是在环境中随机采集特征点,不具备很好的鲁棒性,例如特征点的提取通常通过寻找图像中的灰度变化,因此在光照变化明显时特征点的匹配会出现很大问题;特征点的提取需要纹理信息,而缺失纹理信息的地方(如白墙),特征点的提取与匹配都会失效。还有一种方法是识别场景中固定的标志,根据标志的位置来建图,标志是提前布置在场景中的,因此我们有标志的先验信息,更方便移动机器人对标志的识别,提高了识别的精度;每一个标志都包含ID信息,进行匹配时只需比对ID信息,因此标志法的匹配精度也非常高。但无论是特征点法和标志法,单目摄像头由于存在着尺度不定性,得到的地图是无尺度信息的,地图与真实场景存在着等比放大或者缩小的情况,且视觉测距不准确。
激光雷达法通过激光雷达生成的点云进行匹配定位,测距精度高,效果更好,生成的地图点更精确;使用激光雷达进行定位也存在着一些缺陷,例如在室内环境中物体的移动非常频繁,点云匹配会出现问题,人来人往中可能会对激光雷达造成遮挡,发生误匹配的情况经常发生。如果将激光雷达和视觉相融合,对激光雷达提取的点云进行过滤,只提取人工标志物上的点云进行匹配,这样不仅降低了误匹配,还大大减小了算力。
申请号为201810051704.X的中国专利中提出了一种融合视觉与激光雷达数据特征的地铁轨道障碍物检测方法,该技术方案虽然将视觉和激光雷达得到的数据进行融合并检测障碍物,但没有做到通过障碍物的位置来反推出自身的定位信息。而申请号为201910717569.2的中国专利中提出的方法将特征点与点云相结合,并没有剔除动态点造成的干扰且数据量较大,算力需求强。在申请号为201910279067.6的中国专利中提出的方法将视觉与激光雷达计算的位姿进行松耦合,精度较差。
发明内容
鉴于上述,本发明提供了一种用于移动机器人的视觉与雷达融合定位方法,通过紧耦合的方式将视觉检测得到的标志物与激光雷达测距结果融合,综合考虑了视觉传感器和激光雷达的优点,能够有效地解决移动机器人在定位与导航中所存在的问题。
一种用于移动机器人的视觉与雷达融合定位方法,包括如下步骤:
(1)在场景中布置包含丰富颜色特征的标志物作为定位点;
(2)在移动机器人上安装摄像头以及激光雷达并对两者的外参进行标定;
(3)将激光雷达产生的点云投影到相机坐标系下;
(4)根据标志物的先验信息以及摄像头内参在相机坐标系下对标志物进行识别并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点;进而根据标志物范围内的点云可获得标志物的三维位置信息,并构建场景地图;
(5)通过构建得到的场景地图推算出移动机器人自身位姿,从而完成定位。
进一步地,所述步骤(1)中布置的标志物由多个色块并排组成,所述色块有两种颜色,一种颜色的色块代表1,另一种颜色的色块代表0,使得标志物包含有多位二进制编码信息。
进一步地,所述标志物由7个白色和黑色的色块排列组成,每个色块长10cm,宽10cm,白色色块代表1,黑色色块代表0,则标志物长70cm,宽10cm且包含有7位二进制编码信息。
本发明选用白色和黑色组成标志物是因为白色和黑色在计算机视觉中便于识别,而且在环境中很少包含白色或黑色的物体,这样也减少了噪声的干扰;移动机器人需要识别独一无二的地标来实现建图与定位,因此也需要独一无二的色块编码来表示不同的地标信息,7位二进制一共可组成128种不同的色块信息。
进一步地,所述步骤(2)中在移动机器人上安装四个摄像头,分布在前后左右四个方向,对摄像头及激光雷达的外参进行标定需要用到视觉标定板,手动在所有点云中大致标记投影到标定板上的点云,在经过迭代之后,利用标定工具将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功。
进一步地,所述步骤(3)的具体实现方式为:移动标定板在不同位置标记多帧点云和图像之后,通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达所产生点云在相机坐标系中的位置,其中使用PnP(pespective-n-point)算法得到相机坐标系到激光雷达坐标系的变换矩阵。
进一步地,所述步骤(4)中标志物识别的具体实现过程为:首先对摄像头采集到的图像进行预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据标志物的颜色先验信息在Hue域对图像进行二值化,从而提取出候选的人工标志物轮廓;标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大或过小不可能是人工标志物的轮廓过滤掉,最终得到标志物在图像中的像素坐标。
进一步地,所述步骤(4)当识别提取到标志物后,需解析其中包含的语义信息,进而通过投影变换以及摄像头与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后根据图像中标志物的坐标信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维位置信息,通过这些点对人工标志物实现了精准定位。
进一步地,解析标志物包含的语义信息,具体地:首先对标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则将此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物;遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息。
进一步地,所述步骤(4)中构建场景地图的具体实现为:根据相机坐标系到激光雷达坐标系的变换矩阵,使用传感器紧耦合的方式将摄像头的丰富视觉信息与激光雷达的深度信息进行数据级的融合即将点云投影到相机坐标系中得到点云在图像中的位置,然后通过摄像头外参得到标志物在世界坐标系下的位置,从而完成场景地图构建。
进一步地,所述步骤(5)当构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,推算出移动机器人自身位姿,从而完成定位工作。
基于上述技术方案,本发明具有以下有益技术效果:
1.在大规模场景内,本发明可以通过摄像头和激光雷达的组合方式进行远距离观测和识别标志物来实现精确建图和定位。
2.本发明通过只对静态标志物进行建图,有效地过滤了移动物体产生的点云,提高了定位精度。
附图说明
图1(a)为对应编码1000111的色块示意图。
图1(b)为对应编码0110011的色块示意图。
图1(c)为对应编码0011011的色块示意图。
图2为雷达测量标志物距离的原理示意图。
图3为标定中三维空间下标志物对应点云位置示意图。
图4为标定中二维图像下点云所在标志物位置示意图。
图5为投射到标志物上的点云位置示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明用于移动机器人的视觉与激光雷达融合定位方法,包括如下步骤:
步骤1:在场景中布置包含颜色特征丰富的标志物作为定位点。
标志物由两种颜色组成,每种颜色均代表一位编码信息,按两种颜色的排列组合方式不同,形成多种不同编码的人工标志物。
本实施例中标志物由白色、黑色两种颜色组成,白色代表1,黑色代表0,每个方块长10cm,宽10cm,每条色块由七个颜色方块组成,因此色块长70cm,宽10cm。
举例分析标志物编码,图1(a)所示标志物代表编码1000111,图1(b)代表编码110011,图1(c)代表0011011。每个标志物由七个颜色块组成,因此每个色块的编码由七位二进制组成,一共包含128个数字,除去全白、全黑等不易识别的组合外,可以使用的颜色组合方式大约100个。
步骤2:在移动机器人上安装摄像头与激光雷达并对外参进行标定。
本实施例中移动机器人包含四个朝向前后左右四个方向的摄像头、激光雷达传感器,激光雷达-摄像头外参标定过程具体步骤如下:
激光雷达与相机的外参标定需要视觉标定板,手动在点云中大致标记投影到标定板上的点云,如图3所示。在经过迭代之后,标定工具会将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功,如图4所示。
步骤3:将激光雷达产生的点云投影到相机归一化坐标系下。
移动标定板在不同位置标记多帧点云和图像之后,可以通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达生成的点云在相机坐标系中的位置,本实施例使用PnP的方法得到相机坐标系到激光雷达坐标系的变换矩阵。
步骤4:在图像中通过步骤1布置的标志物先验信息以及相机内参在相机归一化坐标系下识别,并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点。
移动机器人安装有四个摄像头分布在前后左右四个方向,通过对图像进行预处理、颜色空间转换、颜色二值化、形状阈值筛选等方式将图像中的标志物进行识别,具体识别过程如下:首先进行图像预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据颜色的先验信息在Hue域对图像进行二值化,从而提取出候选人工标志物的轮廓。标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大、过小的不可能是人工标志物的轮廓过滤,最终得到标志物在图像中的像素坐标。
提取到标志物后,需要解析其中包含的语义信息,主要过程如下:首先对人工标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物。遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息了。
通过投影变换以及相机与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后通过图像中标志物的信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维信息,通过这些点对人工标志物实现了精准定位,如图2所示。
步骤5:通过步骤4得到的标志物范围内的点云获得标志物的三维位置信息,并构建场景地图。
根据以下转换关系,使用传感器紧耦合的方式将摄像头的丰富视觉信息和激光雷达的深度信息进行数据级的融合,也就是将点云投影到相机坐标系中得到点云在图像中的位置,如图5所示,然后通过相机外参得到标志物在世界坐标系下的位置,从而完成场景地图构建。
其中:P代表点云在三维空间中的坐标,T代表相机在时间坐标系下的位置即相机外参,K代表相机内参,R和t代表相机的旋转与平移矩阵,p代表点云在图像中的像素坐标。
步骤6:通过步骤5得到的地图推算出移动机器人自身位姿,从而完成定位。
构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,从而完成定位工作。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明,熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (10)
1.一种用于移动机器人的视觉与雷达融合定位方法,包括如下步骤:
(1)在场景中布置包含丰富颜色特征的标志物作为定位点;
(2)在移动机器人上安装摄像头以及激光雷达并对两者的外参进行标定;
(3)将激光雷达产生的点云投影到相机坐标系下;
(4)根据标志物的先验信息以及摄像头内参在相机坐标系下对标志物进行识别并分割出在标志物范围内的点云,这些点云即激光雷达在实际场景中投射到标志物上的点;进而根据标志物范围内的点云可获得标志物的三维位置信息,并构建场景地图;
(5)通过构建得到的场景地图推算出移动机器人自身位姿,从而完成定位。
2.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(1)中布置的标志物由多个色块并排组成,所述色块有两种颜色,一种颜色的色块代表1,另一种颜色的色块代表0,使得标志物包含有多位二进制编码信息。
3.根据权利要求2所述的视觉与雷达融合定位方法,其特征在于:所述标志物由7个白色和黑色的色块排列组成,每个色块长10cm,宽10cm,白色色块代表1,黑色色块代表0,则标志物长70cm,宽10cm且包含有7位二进制编码信息。
4.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(2)中在移动机器人上安装四个摄像头,分布在前后左右四个方向,对摄像头及激光雷达的外参进行标定需要用到视觉标定板,手动在所有点云中大致标记投影到标定板上的点云,在经过迭代之后,利用标定工具将该部分黑色点云投影到图像中,也就是标定板上的黑色点,如果黑色点都落在标定板上可以认为此次标注成功。
5.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(3)的具体实现方式为:移动标定板在不同位置标记多帧点云和图像之后,通过优化一组3D点云与2D图像之间的对应关系来得到激光雷达所产生点云在相机坐标系中的位置,其中使用PnP算法得到相机坐标系到激光雷达坐标系的变换矩阵。
6.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(4)中标志物识别的具体实现过程为:首先对摄像头采集到的图像进行预处理,将所有像素点从RGB空间转化到HSV空间上,然后根据标志物的颜色先验信息在Hue域对图像进行二值化,从而提取出候选的人工标志物轮廓;标志物还包含形状的先验信息,可通过轮廓几何过滤的方式将其他形状的候选图案排除,还可以将过大或过小不可能是人工标志物的轮廓过滤掉,最终得到标志物在图像中的像素坐标。
7.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(4)当识别提取到标志物后,需解析其中包含的语义信息,进而通过投影变换以及摄像头与激光雷达之间的外参矩阵,将三维地图中的点云投影到像素平面上,然后根据图像中标志物的坐标信息对点云进行分割,分割出的点云就是激光雷达射在人工标志物上的点,分别选取标志物左上、右上、左下、右下四个点作为测距点,得到标志物准确的三维位置信息,通过这些点对人工标志物实现了精准定位。
8.根据权利要求7所述的视觉与雷达融合定位方法,其特征在于:解析标志物包含的语义信息,具体地:首先对标志物进行逐行遍历,统计各行像素点中各颜色的个数,如果一种像素点的个数远多于另一种像素点且大于阈值,则将此位置1,反之置0;如果两种像素点个数相差不大且均小于阈值,则无法保证识别精确度,停止遍历且丢弃此标志物;遍历正常结束并得到所有位的码元后,也就得到了标志物包含的编码信息。
9.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(4)中构建场景地图的具体实现为:根据相机坐标系到激光雷达坐标系的变换矩阵,使用传感器紧耦合的方式将摄像头的丰富视觉信息与激光雷达的深度信息进行数据级的融合即将点云投影到相机坐标系中得到点云在图像中的位置,然后通过摄像头外参得到标志物在世界坐标系下的位置,从而完成场景地图构建。
10.根据权利要求1所述的视觉与雷达融合定位方法,其特征在于:所述步骤(5)当构建好场景地图后,移动机器人在场景中行驶时通过摄像头对场景中的标志物进行观测,并通过标志物在二维图像中的位置与之前建好的地图信息进行比对,推算出移动机器人自身位姿,从而完成定位工作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110286876.7A CN113052903B (zh) | 2021-03-17 | 2021-03-17 | 一种用于移动机器人的视觉与雷达融合定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110286876.7A CN113052903B (zh) | 2021-03-17 | 2021-03-17 | 一种用于移动机器人的视觉与雷达融合定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052903A true CN113052903A (zh) | 2021-06-29 |
CN113052903B CN113052903B (zh) | 2023-03-10 |
Family
ID=76513024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110286876.7A Active CN113052903B (zh) | 2021-03-17 | 2021-03-17 | 一种用于移动机器人的视觉与雷达融合定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052903B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658257A (zh) * | 2021-08-17 | 2021-11-16 | 广州文远知行科技有限公司 | 一种无人设备定位方法、装置、设备及存储介质 |
CN113706621A (zh) * | 2021-10-29 | 2021-11-26 | 上海景吾智能科技有限公司 | 基于带标记图像的标志点定位及姿态获取方法和系统 |
CN113932814A (zh) * | 2021-09-30 | 2022-01-14 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN114018236A (zh) * | 2021-09-30 | 2022-02-08 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114092551A (zh) * | 2021-10-10 | 2022-02-25 | 复旦大学 | 一种基于全景视觉与激光雷达融合slam系统的智能车 |
CN114721001A (zh) * | 2021-11-17 | 2022-07-08 | 长春理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN117036489A (zh) * | 2023-10-10 | 2023-11-10 | 泉州装备制造研究所 | 基于人工标识和四目全景相机的机器人定位方法及设备 |
CN117406185A (zh) * | 2023-12-14 | 2024-01-16 | 深圳市其域创新科技有限公司 | 雷达与相机间的外参标定方法、装置、设备及存储介质 |
CN117949968A (zh) * | 2024-03-26 | 2024-04-30 | 深圳市其域创新科技有限公司 | 激光雷达slam定位方法、装置、计算机设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170329343A1 (en) * | 2015-01-22 | 2017-11-16 | Guangzhou Airob Robot Technology Co., Ltd. | Method and apparatus for localization and mapping based on color block tags |
CN108108795A (zh) * | 2017-12-18 | 2018-06-01 | 无锡费舍太格科技有限公司 | 一种二进制颜色码 |
US20190114507A1 (en) * | 2017-10-17 | 2019-04-18 | Sri International | Semantic visual landmarks for navigation |
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN111105495A (zh) * | 2019-11-26 | 2020-05-05 | 四川阿泰因机器人智能装备有限公司 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
CN111461245A (zh) * | 2020-04-09 | 2020-07-28 | 武汉大学 | 一种融合点云和图像的轮式机器人语义建图方法及系统 |
CN112270716A (zh) * | 2020-10-30 | 2021-01-26 | 浙江理工大学 | 一种人工视觉地标的解码定位方法 |
-
2021
- 2021-03-17 CN CN202110286876.7A patent/CN113052903B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170329343A1 (en) * | 2015-01-22 | 2017-11-16 | Guangzhou Airob Robot Technology Co., Ltd. | Method and apparatus for localization and mapping based on color block tags |
US20190114507A1 (en) * | 2017-10-17 | 2019-04-18 | Sri International | Semantic visual landmarks for navigation |
CN108108795A (zh) * | 2017-12-18 | 2018-06-01 | 无锡费舍太格科技有限公司 | 一种二进制颜色码 |
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN111105495A (zh) * | 2019-11-26 | 2020-05-05 | 四川阿泰因机器人智能装备有限公司 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
CN111461245A (zh) * | 2020-04-09 | 2020-07-28 | 武汉大学 | 一种融合点云和图像的轮式机器人语义建图方法及系统 |
CN112270716A (zh) * | 2020-10-30 | 2021-01-26 | 浙江理工大学 | 一种人工视觉地标的解码定位方法 |
Non-Patent Citations (1)
Title |
---|
曹军: "动态场景下融合视觉语义的激光SLAM感知方法研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658257B (zh) * | 2021-08-17 | 2022-05-27 | 广州文远知行科技有限公司 | 一种无人设备定位方法、装置、设备及存储介质 |
CN113658257A (zh) * | 2021-08-17 | 2021-11-16 | 广州文远知行科技有限公司 | 一种无人设备定位方法、装置、设备及存储介质 |
CN113932814B (zh) * | 2021-09-30 | 2024-04-02 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN113932814A (zh) * | 2021-09-30 | 2022-01-14 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN114018236A (zh) * | 2021-09-30 | 2022-02-08 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114018236B (zh) * | 2021-09-30 | 2023-11-03 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114092551A (zh) * | 2021-10-10 | 2022-02-25 | 复旦大学 | 一种基于全景视觉与激光雷达融合slam系统的智能车 |
CN113706621A (zh) * | 2021-10-29 | 2021-11-26 | 上海景吾智能科技有限公司 | 基于带标记图像的标志点定位及姿态获取方法和系统 |
CN114721001A (zh) * | 2021-11-17 | 2022-07-08 | 长春理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN117036489B (zh) * | 2023-10-10 | 2024-02-09 | 泉州装备制造研究所 | 基于人工标识和四目全景相机的机器人定位方法及设备 |
CN117036489A (zh) * | 2023-10-10 | 2023-11-10 | 泉州装备制造研究所 | 基于人工标识和四目全景相机的机器人定位方法及设备 |
CN117406185A (zh) * | 2023-12-14 | 2024-01-16 | 深圳市其域创新科技有限公司 | 雷达与相机间的外参标定方法、装置、设备及存储介质 |
CN117406185B (zh) * | 2023-12-14 | 2024-02-23 | 深圳市其域创新科技有限公司 | 雷达与相机间的外参标定方法、装置、设备及存储介质 |
CN117949968A (zh) * | 2024-03-26 | 2024-04-30 | 深圳市其域创新科技有限公司 | 激光雷达slam定位方法、装置、计算机设备和存储介质 |
CN117949968B (zh) * | 2024-03-26 | 2024-06-21 | 深圳市其域创新科技有限公司 | 激光雷达slam定位方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113052903B (zh) | 2023-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113052903B (zh) | 一种用于移动机器人的视觉与雷达融合定位方法 | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN110084243B (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN101853528B (zh) | 一种手持式三维型面信息提取方法及其提取仪 | |
CN106839977B (zh) | 基于光栅投影双目成像技术的盾构渣土体积实时测量方法 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
Zhou et al. | Seamless fusion of LiDAR and aerial imagery for building extraction | |
CN110569704A (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN109211207B (zh) | 一种基于机器视觉的螺钉识别与定位装置 | |
CN114241298A (zh) | 一种激光雷达和图像融合的塔吊环境目标检测方法及系统 | |
CN105574812B (zh) | 多角度三维数据配准方法及装置 | |
CN115936029B (zh) | 一种基于二维码的slam定位方法及装置 | |
CN104121902A (zh) | 基于Xtion摄像机的室内机器人视觉里程计实现方法 | |
CN107492107B (zh) | 基于平面与空间信息融合的物体识别与重建方法 | |
CN111242080A (zh) | 一种基于双目相机与深度相机的输电线识别与定位方法 | |
CN111553948B (zh) | 一种基于双示踪物的掘进机截割头定位方法 | |
Sun et al. | Large 3D free surface measurement using a mobile coded light-based stereo vision system | |
CN112734844B (zh) | 一种基于正八面体的单目6d位姿估计方法 | |
Li et al. | A mobile robot visual SLAM system with enhanced semantics segmentation | |
CN110827361A (zh) | 基于全局标定架的相机组标定方法及装置 | |
CN114639115A (zh) | 一种人体关键点与激光雷达融合的3d行人检测方法 | |
CN118429524A (zh) | 基于双目立体视觉的车辆行驶环境建模方法及系统 | |
CN118411507A (zh) | 一种具有动态目标的场景的语义地图构建方法及系统 | |
CN111964681B (zh) | 一种巡检机器人的实时定位系统 | |
CN117409386A (zh) | 一种基于激光视觉融合的垃圾定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |