CN112484746B - 一种基于地平面的单目视觉辅助激光雷达里程计方法 - Google Patents
一种基于地平面的单目视觉辅助激光雷达里程计方法 Download PDFInfo
- Publication number
- CN112484746B CN112484746B CN202011345746.8A CN202011345746A CN112484746B CN 112484746 B CN112484746 B CN 112484746B CN 202011345746 A CN202011345746 A CN 202011345746A CN 112484746 B CN112484746 B CN 112484746B
- Authority
- CN
- China
- Prior art keywords
- laser
- ground
- point cloud
- feature
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000033001 locomotion Effects 0.000 claims abstract description 35
- 230000009466 transformation Effects 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 29
- 238000012795 verification Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 10
- 230000008878 coupling Effects 0.000 abstract description 3
- 238000010168 coupling process Methods 0.000 abstract description 3
- 238000005859 coupling reaction Methods 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000003164 Diplopia Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 208000029444 double vision Diseases 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于地平面的单目视觉辅助激光雷达里程计方法,包括提供一种基于地平面的单目视觉辅助激光雷达里程计方法,利用激光里程计中的地面点云高效提取图像中的地面特征点,基于单应性变换实现高效的绝对尺度相机运动估计,进而将运动估计用于矫正激光里程计中的自运动点云畸变和位姿优化。与现有技术相比,本发明提出的紧耦合方案高效利用单目视觉图像和激光雷达点云中的地平面信息,避免了现有的视觉和激光雷达融合算法中存在的计算复杂度高、系统精度及稳定性受错误的深度匹配影响的问题。
Description
技术领域
本发明涉及机器人识别技术领域,尤其是涉及一种基于地平面的单目视觉辅助激光雷达里程计方法。
背景技术
同时定位与建图(SLAM,simultaneous localization and mapping)是机器人领域的一项关键技术,是机器人能够自主运行的一项基本要求。激光雷达和视觉传感器是SLAM中的两种主流传感器,近年来基于这两种传感器的SLAM算法得到广泛的研究和应用。视觉SLAM方面,产生了ORB-SLAM2、DSO、VINS等为代表的优秀方案。激光SLAM中则形成了LOAM、IMLS-SLAM、SegMatch等框架。然而,单一的传感器总是存在某种不足,例如视觉传感器对环境纹理及光照条件敏感,而激光雷达存在由本体运动引起的点云畸变问题以及回环检测能力不足等。因此,将视觉传感器与激光雷达融合逐渐成为当前的主流技术,例如:
DEMO是一种通过将激光雷达的深度测量用于恢复图像中特征点深度从而增强视觉里程计(在SLAM中,通过连续地定位估计机器人的运动轨迹的过程又称为里程计)的方法;V-LOAM进一步利用DEMO的视觉里程计实现高频运动估计来矫正激光雷达点云畸变并为激光里程计提供运动估计初值,从而实现更加精确的激光里程计;LIMO中提出了一种新的将激光雷达测量用于图像特征深度恢复方法从而实现无尺度漂移的视觉里程计,并使用深度学习算法剔除错误特征点。但是,上述这些传统的通过激光雷达距离测量恢复图像特征点深度的方法容易由于错误的深度匹配而引入额外的几何残差,从而降低系统精度和稳定性。而且DEMO和LIMO这类方法丢弃了大量有用的激光雷达测量信息。
为了最大化利用相机和激光雷达的测量信息,同时避免不佳的深度匹配的影响,TVLO提出分别对两种传感器独立地运行里程计和建图流程,最后对它们的残差进行联合优化,以此实现视觉和激光的紧耦合。然而,基于两种传感器同时进行里程计和建图需要很大的系统开销,不适用于嵌入式平台等低算力场合。
因此,研究如何分配少量系统资源将视觉传感器用于辅助激光雷达进行同时定位与建图,弥补激光雷达在自运动畸变和回环检测等方面的不足,避免现有方法计算复杂度高、系统稳定性差等问题,具有十分重要的意义。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于地平面的单目视觉辅助激光雷达里程计方法,利用激光里程计中的地面点云高效提取图像中的地面特征点,基于单应性变换实现高效的绝对尺度相机运动估计,进而将运动估计用于矫正激光里程计中的自运动点云畸变和位姿优化,实现高效精准的里程计。
本发明的目的可以通过以下技术方案来实现:
一种基于地平面的单目视觉辅助激光雷达里程计方法,包括以下步骤:
S1、从激光点云中分割出地面点云用于筛选图像中的地面ORB特征点;
S2、对相邻两帧图像中的地面ORB特征点进行匹配,进行共线特征点搜索并通过交比不变性验证特征匹配的正确性,通过验证后的特征匹配集合用于计算图像之间的单应性变换矩阵;
S3、对单应性变换矩阵进行分解,并利用已知的相机高度,得到绝对尺度的估计相机运动;
S4、利用估计的相机运动对激光雷达自运动造成的点云畸变进行矫正;
S5、对矫正后的激光点云进行分割并提取直线和平面特征;
S6、将相邻两帧激光点云中的直线和平面特征进行匹配,通过Levenberg-Marquardt算法迭代求解位姿,并利用相机运动先验加速迭代过程。
进一步地,所述步骤S1中,利用激光点云地面点提取图像中的地面ORB特征需要将激光点云投影到图像中,其计算表示式为:
每一个激光投影点可以确定一个以其为中心,半径为r的窗口,所有投影点窗口外的特征点首先被剔除;其次,若窗口中存在多个特征点,则比较它们的描述子差异,选择描述子差异最大的特征点作为该窗口的地面特征点。
进一步地,所述步骤S2中,特征校验采用的交比不变性计算表示式为:
Cross(x1,x2,x3,x4)=Cross(x′1,x′2,x′3,x′4)
其中,x1,x2,x3,x4为图像中共线的4个特征点,x′1,x′2,x′3,x′4为另一图像中匹配的4个特征点;交比定义为:
进一步地,所述步骤S2中,单应性矩阵的计算表示式为:
ei(H)=ρ(d(x′i,Hxi))+ρ(d(xi,H-1x′i))
其中,xi和x′i为两帧图像上经过校验的匹配特征点,d(·)表示两像素点的欧式距离,ρ(·)是为避免较大误差主导优化方向而引入的鲁棒核函数。
进一步地,所述步骤S4中,点云畸变矫正后齐次坐标的计算表示式为:
与现有技术相比,本发明具有以下有益效果:
1、本发明提出的单目视觉辅助激光雷达里程计方法,能够有效利用单目相机估计相对运动,对自运动畸变的激光点云进行矫正,从而提高激光里程计精度。
2、本发明利用视觉前端的相对运动可以加速激光里程计的优化求解过程,保证系统的实时性。相较目前的视觉和激光雷达融合的里程计方法,本发明高效利用了两种传感器中的地平面信息,最大化发挥激光雷达性能的同时避免了系统精度和稳定性受错误匹配影响的问题。
3、本发明提出的方法可以在低算力平台上实时地运行。
4、步骤S6中利用所述步骤S3中得到的绝对尺度相机运动,可以加速激光特征点云匹配的迭代优化过程,实现高效精确的激光里程计。
附图说明
图1为本发明的流程示意图。
图2为实施例提供的特征点筛选效果图。
图3为实施例提供的特征点匹配校验效果图。
图4为实施例提供的交比不变性示意图。
图5为实施例提供的室内场景实验验证结果图。
图6为实施例提供的室外场景实验验证结果图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本实施例提供了一种基于地平面的单目视觉辅助激光雷达里程计方法,是一种单目视觉和激光雷达紧耦合的里程计方案,利用激光里程计中的地面点云高效提取图像中的地面特征点,基于单应性变换实现高效的绝对尺度相机运动估计,进而将运动估计用于矫正激光里程计中的自运动点云畸变和位姿优化。针对地面的弱纹理特性导致的错误匹配问题,提出通过共线特征点搜索和交比不变性校验来挑选正确的匹配特征,保证单应性矩阵计算的正确性。
如图1所示,本实施例的具体步骤如下:
步骤S1、从激光点云中分割出地面点云用于提取图像中的地面ORB特征点。
步骤S2、对相邻两帧图像中的地面ORB特征点进行匹配,并通过交比不变性验证特征匹配的正确性,保留下来的特征匹配集合用于计算图像之间的单应性变换矩阵。
步骤S3、对单应性变换矩阵进行分解,并利用已知的相机高度,得到绝对尺度的相机运动估计。
步骤S4、利用估计的相机运动矫正激光雷达自运动造成的点云畸变。
步骤S5、对矫正后的激光点云进行分割并提取直线和平面特征。
步骤S6、将相邻两帧激光点云中的直线和平面特征进行匹配,最后通过现有成熟的Levenberg-Marquardt算法迭代求解更加精确的位姿,并利用相机运动先验加速迭代过程。
步骤的进一步展开如下:
一、图像地平面特征点提取
地平面特征点提取的关键在于如何确定图像中的地平面。本实施例将激光雷达后端流程中提取的地平面激光点云投影到图像上,实现高效且鲁棒地提取图像中的地面特征点。地平面在图像中主要位于下半部分,因此首先在图像的下半部分提取ORB特征点。然后,利用相机与激光雷达之间的变换矩阵和相机的投影模型,将激光点云中的地平面点投影到图像上。假设标定好的相机与激光雷达间的变换矩阵为相机的投影矩阵为P0,则地面激光点云中给定一点Qi的投影点齐次像素坐标为:
每一个激光投影点可以确定一个以其为中心,半径为r的窗口,所有投影点窗口外的特征点首先被剔除。进一步地,窗口中如果存在多个特征点,则比较它们的描述子差异,选择描述子差异最大的特征点作为该窗口的地面特征点。地平面特征提取效果如图2中所示,从图中可以看出上述步骤能排除大量非地面特征点同时保留大量正确地面特征点,筛选地面特征点的效果较好。
二、基于交比不变性的特征匹配验证
ORB特征具有方向和尺度不变性,是一种快速鲁棒的图像特征。然而,由于地平面通常缺乏丰富的纹理,各特征点之间的描述子差异并不十分明显,导致误匹配的发生,即所谓的匹配外点。基于RANSAC的特征匹配外点剔除算法是目前普遍采用的方法。然而,当错误匹配的数量较多时,基于RANSAC的方法无法保证正确地剔除外点(从大量错误匹配中找出少量正确匹配)。单应性矩阵的计算至少只需要4对匹配特征,因此本实施例中利用交比不变性进行特征匹配的校验,并且只采用满足交比不变性的特征点对进行单应性矩阵的计算。
交比是图像投影几何中的一种不变量。给定图像上共线四点x1,x2,x3,x4,它们的交比定义为:
Cross(x1,x2,x3,x4)=Cross(x′1,x′2,x′3,x′4)
交比不变性的几何表达如图3所示,该性质本质上反应的是投影变换下距离比率之比的不变性。
本实施例通过交比不变性来验证特征匹配的正确性。首先搜索所有共线点数量在4点以上的特征点。然后对每四个共线特征点及它们的匹配特征点计算交比,一旦两个交比相等就接受所有的4个匹配点。需要注意的是对于不满足交比不变性的特征点并不会立即剔除,因为它们之中可能存在正确的匹配点。本实施例在所有大于4点的共线特征验证结束之后剔除未通过交比不变性校验的特征点对。经过共线特征点搜索和交比不变性验证后的特征匹配如图4所示,经校验后的特征匹配绝大多数为正确匹配。
三、绝对尺度相机运动估计
单目相机图像之间的帧间运动估计存在尺度歧义,该尺度由两帧图像对应的相机平移决定。因此,不同图像之间估计的运动将在不同的尺度之下。若直接将不同尺度下估计出的相机运动用于激光点云的矫正,将导致两组点云被矫正到不同尺度而发生误匹配,使整个系统失效。为了解决此问题,本实施例中利用图像中的地平面信息和已知的相机安装高度来估计尺度因子,从而将不同时刻的相机运动估计统一在公制尺度下。
通常,相机是固定安装在平台上,其相对于地面的高度是已知的,因此可以利用相机高度这一先验信息来估计尺度。假设已知的相机高度为h*,通过图像估计出的相机高度信息为h,则尺度因子s=h/h*。
单应性矩阵描述了相机运动时平面上点的变换关系,其定义为:
其中,K相机内参,R和t分别为相机的旋转和平移。单应性矩阵至少可通过四个共面的匹配点计算得到。从弱纹理地面提取的图像特征含有较多噪声,因此容易产生错误匹配。为了保证鲁棒地通过地面特征点计算H矩阵,本实施例采用优化的方法。通过最小化由对称转移误差定义的代价函数得到最优的单应性变换:
ei(H)=ρ(d(x′i,Hxi))+ρ(d(xi,H-1x′i))
其中,xi和x′i为两帧图像上经过校验的匹配特征点,d(·)表示两像素点的欧式距离,ρ(·)是为避免较大误差主导优化方向而引入的鲁棒核函数。本实施例采用Huber核:
其中,k是预先给定的阈值。首先采用归一化的直接线性变换算法对满足交比不变性的四对特征匹配计算得到H矩阵的初始估计,然后基于该初值通过Levenberg-Marquardt算法优化代价函数得到最优的单应性矩阵。
对计算出的H矩阵进行分解,就能得到相机运动的旋转矩阵R和平移向量t、地平面法向量n和相机高度h。由于旋转矩阵满足正交矩阵约束,因此只需要矫正平移t的尺度:
最后得到绝对尺度的估计相机运动即为:
四、矫正激光雷达自运动造成的点云畸变
点云畸变矫正后齐次坐标的计算表示式为:
五、激光点云特征提取
矫正后的激光点云首先根据距离投影得到一幅深度图,然后利用基于图像的方法进行分割,得到分割后的点云。点云分割后得到的点云簇利用基于曲率的方法提取直线特征和平面特征。
六、相机运动先验加速特征匹配
激光里程计估计两帧连续激光点云之间的运动,通过执行直线特征点到直线和平面特征点到平面的扫描匹配,并最小化所有匹配之间的几何距离求取两帧点云之间的变换。特征点之间的匹配采用最近点搜索,即认为两帧点云中空间上距离最近的点之间是对应的。这种匹配搜索方式需要一个良好的位姿初值,否则计算求解的激光里程计位姿可能是次优的。由于相机与激光雷达之间的相对位姿是已知的,利用这一位姿变换将相机的运动估计变换到激光雷达坐标系下,可以提供一个良好的初值。利用这一位姿初值对点云进行变换后,两帧点云之间的初始重合度更高,最近点搜索匹配算法可以更加快速地收敛。
本实施例的实际效果通过在自行搭建的机器人平台上实施进行验证。移动机器人上搭载了研华ARK-3500工控机、velodyne激光雷达VLP-16、Fotric红外可见光双视云台相机、WI-FI模块、电池等。VLP-16为本实施例所述方法提供周围环境的激光点云数据,云台中的可见光相机提供环境的图像数据。定位和建图过程中,云台是固定不动的。由于实验平台没有IMU设备,实际场景实验只与无IMU传感器数据支持的LeGO-LOAM(以下称LeGO-LOAM-noIMU)算法进行对比。
实验分别测试了室内场景和室外场景。室内场景环境为实验室环境,包含弱纹理的地板、桌椅、白墙、玻璃墙等物体。实验时控制机器人绕办公桌行驶一圈,通过尺规工具测量,实际运行轨迹近似为长11.4米、宽4.2米的长方形轨迹,本实施例所述方法和LeGO-LOAM-noIMU算法估计的轨迹如图5所示。从图5中可以看出两种算法估计的轨迹与尺规工具测量的轨迹基本符合,LeGO-LOAM-noIMU估计的轨迹有更明显的误差漂移,本实施例提出的方法估计的轨迹明显更接近真实轨迹(长方形轨迹)。
室外场景为某大学校园内的道路环境。
本实施例的方法和LeGO-LOAM-noIMU估计轨迹实验结果如图6所示。从图6中可以看出LeGO-LOAM-noIMU估计的轨迹(LeGO-noIMU)逐渐偏离,估计轨迹的终点未与起点(坐标(0,0)处)重合,整条轨迹与实际运行轨迹相差较大。而实施例所述方法估计的轨迹(Ours)始终与实际运行轨迹基本吻合,轨迹终点与起点重合,表明本实施例所述方法优于LeGO-LOAM-noIMU算法,具有足够的精度和场景鲁棒性。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (2)
1.一种基于地平面的单目视觉辅助激光雷达里程计方法,其特征在于,包括以下步骤:
S1、从激光点云中分割出地面点云用于筛选图像中的地面ORB特征点;
S2、对相邻两帧图像中的地面ORB特征点进行匹配,进行共线特征点搜索并通过交比不变性验证特征匹配的正确性,通过验证后的特征匹配集合用于计算图像之间的单应性变换矩阵;
S3、对单应性变换矩阵进行分解,并利用已知的相机高度,得到绝对尺度的估计相机运动;
S4、利用估计的相机运动对激光雷达自运动造成的点云畸变进行矫正;
S5、对矫正后的激光点云进行分割并提取直线和平面特征;
S6、将相邻两帧激光点云中的特征进行匹配,通过Levenberg-Marquardt算法迭代求解位姿,并利用相机运动先验加速迭代过程;
所述步骤S1中,利用激光点云地面点提取图像中的地面ORB特征需要将激光点云投影到图像中,其计算表示式为:
每一个激光投影点可以确定一个以其为中心,半径为r的窗口,所有投影点窗口外的特征点首先被剔除;其次,若窗口中存在多个特征点,则比较它们的描述子差异,选择描述子差异最大的特征点作为该窗口的地面特征点;
所述步骤S2中,单应性矩阵的计算表示式为:
ei(H)=ρ(d(x′i,Hxi))+ρ(d(xi,H-1x′i))
其中,xi和x′i为两帧图像上经过校验的匹配特征点,d(·)表示两像素点的欧式距离,ρ(·)是为避免较大误差主导优化方向而引入的鲁棒核函数;
所述步骤S2中,特征校验采用的交比不变性计算表示式为:
Cross(x1,x2,x3,x4)=Cross(x′1,x′2,x′3,x′4)
其中,x1,x2,x3,x4为图像中共线的4个特征点,x′1,x′2,x′3,x′4为另一图像中匹配的4个特征点;交比定义为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011345746.8A CN112484746B (zh) | 2020-11-26 | 2020-11-26 | 一种基于地平面的单目视觉辅助激光雷达里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011345746.8A CN112484746B (zh) | 2020-11-26 | 2020-11-26 | 一种基于地平面的单目视觉辅助激光雷达里程计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112484746A CN112484746A (zh) | 2021-03-12 |
CN112484746B true CN112484746B (zh) | 2023-04-28 |
Family
ID=74934830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011345746.8A Active CN112484746B (zh) | 2020-11-26 | 2020-11-26 | 一种基于地平面的单目视觉辅助激光雷达里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112484746B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113466890B (zh) * | 2021-05-28 | 2024-04-09 | 中国科学院计算技术研究所 | 基于关键特征提取的轻量化激光雷达惯性组合定位方法和系统 |
CN113219475B (zh) * | 2021-07-06 | 2021-10-22 | 北京理工大学 | 利用单线激光雷达校正单目测距的方法及系统 |
CN113947665B (zh) * | 2021-09-14 | 2022-10-28 | 广西大学 | 一种基于多线激光雷达和单目视觉的球形绿篱修剪机的建图方法 |
CN113848541B (zh) * | 2021-09-22 | 2022-08-26 | 深圳市镭神智能系统有限公司 | 一种标定的方法、装置、无人机及计算机可读存储介质 |
CN114370871A (zh) * | 2022-01-13 | 2022-04-19 | 华南理工大学 | 一种可见光定位与激光雷达惯性里程计的紧耦合优化方法 |
CN115372946B (zh) * | 2022-08-15 | 2024-09-17 | 北京城市网邻信息技术有限公司 | 激光雷达采集设备与旋转轴标定方法、装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN110132302A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院自动化研究所 | 融合imu信息的双目视觉里程计定位方法、系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2309451T3 (pl) * | 2009-09-25 | 2013-07-31 | Deutsche Telekom Ag | Sposób i system do samo-kalibracji niezsynchronizowanej sieci kamer |
US9946264B2 (en) * | 2016-03-22 | 2018-04-17 | Sharp Laboratories Of America, Inc. | Autonomous navigation using visual odometry |
CN108399643A (zh) * | 2018-03-15 | 2018-08-14 | 南京大学 | 一种激光雷达和相机间的外参标定系统和方法 |
CN109827502B (zh) * | 2018-12-28 | 2020-03-17 | 北京航空航天大学 | 一种标定点图像补偿的线结构光视觉传感器高精度标定方法 |
US11143514B2 (en) * | 2019-01-17 | 2021-10-12 | GM Global Technology Operations LLC | System and method for correcting high-definition map images |
CN111199578B (zh) * | 2019-12-31 | 2022-03-15 | 南京航空航天大学 | 基于视觉辅助激光雷达的无人机三维环境建模方法 |
CN111524194B (zh) * | 2020-04-24 | 2023-07-21 | 江苏盛海智能科技有限公司 | 一种激光雷达和双目视觉相互融合的定位方法及终端 |
CN111709981A (zh) * | 2020-06-22 | 2020-09-25 | 高小翎 | 特征线融合的激光点云与模拟图像的配准方法 |
-
2020
- 2020-11-26 CN CN202011345746.8A patent/CN112484746B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN110132302A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院自动化研究所 | 融合imu信息的双目视觉里程计定位方法、系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112484746A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112484746B (zh) | 一种基于地平面的单目视觉辅助激光雷达里程计方法 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN107025668B (zh) | 一种基于深度相机的视觉里程计的设计方法 | |
CN104732518B (zh) | 一种基于智能机器人地面特征的ptam改进方法 | |
CN110322511B (zh) | 一种基于物体和平面特征的语义slam方法和系统 | |
CN106548173B (zh) | 一种基于分级匹配策略的改进无人机三维信息获取方法 | |
CN110009732B (zh) | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 | |
CN110807809B (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
CN112258600A (zh) | 一种基于视觉与激光雷达的同时定位与地图构建方法 | |
CN111968177B (zh) | 一种基于固定摄像头视觉的移动机器人定位方法 | |
CN110223348A (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN109100731B (zh) | 一种基于激光雷达扫描匹配算法的移动机器人定位方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN110766024A (zh) | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 | |
CN112947526B (zh) | 一种无人机自主降落方法和系统 | |
WO2022228391A1 (zh) | 一种终端设备定位方法及其相关设备 | |
CN114088081A (zh) | 一种基于多段联合优化的用于精确定位的地图构建方法 | |
CN111105460A (zh) | 一种室内场景三维重建的rgb-d相机位姿估计方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111161318A (zh) | 一种基于yolo算法及gms特征匹配的动态场景slam方法 | |
CN116128966A (zh) | 一种基于环境物体的语义定位方法 | |
CN112767481B (zh) | 一种基于视觉边缘特征的高精度定位及建图方法 | |
CN114241050A (zh) | 一种基于曼哈顿世界假设及因子图的相机位姿优化方法 | |
CN104156933A (zh) | 一种基于光流场的图像配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |