CN115797490A - 基于激光视觉融合的建图方法及系统 - Google Patents

基于激光视觉融合的建图方法及系统 Download PDF

Info

Publication number
CN115797490A
CN115797490A CN202211633054.2A CN202211633054A CN115797490A CN 115797490 A CN115797490 A CN 115797490A CN 202211633054 A CN202211633054 A CN 202211633054A CN 115797490 A CN115797490 A CN 115797490A
Authority
CN
China
Prior art keywords
laser
observation data
point cloud
updating
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211633054.2A
Other languages
English (en)
Inventor
刘烨
颜沁睿
胡闻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Chenjing Technology Co.,Ltd.
Original Assignee
Guangzhou Chenjing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Chenjing Technology Co ltd filed Critical Guangzhou Chenjing Technology Co ltd
Priority to CN202211633054.2A priority Critical patent/CN115797490A/zh
Publication of CN115797490A publication Critical patent/CN115797490A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于激光视觉融合的建图方法及系统,包括:接收激光传感器采集到的激光观测数据和视觉传感器采集到的视觉观测数据;根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。采用本发明实施例能够实现对整体环境特点的精确描述,鲁棒性高。

Description

基于激光视觉融合的建图方法及系统
技术领域
本发明涉及地图创建技术领域,尤其涉及一种基于激光视觉融合的建图方法及系统。
背景技术
目前,建立周边环境地图主要采用同步定位与建图技术进行建图,针对使用不同传感器的SLAM方案,可以分为激光SLAM和视觉SLAM。
激光SLAM建图具有精度高,受环境光照影响小等优点,但是该方法只能获取空间的几何信息,但是当处于缺失几何信息的空间,例如隧道,激光SLAM建图将会非常不稳定;视觉SLAM建图过程是实时的对每一帧图片提取特征点,跟关键帧做特征匹配,以及局部的地图优化等,但是该方法无法处理纹理质量低的区域,例如空白的墙面。可见,由于环境复杂,单纯只靠一种传感器利用SLAM建立的地图存在各自的缺陷,且获取的地图维度具有视野的局限性,无法对整体的环境特点进行精确的描述。
发明内容
本发明实施例的目的是提供一种基于激光视觉融合的建图方法及系统,能够实现对整体环境特点的精确描述,鲁棒性强。
为实现上述目的,本发明实施例提供了一种基于激光视觉融合的建图方法,应用于建图系统,所述建图系统包括激光传感器和视觉传感器,所述基于激光视觉融合的建图方法包括:
接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
作为上述方案的改进,所述建图系统还包括GPS传感器,则所述基于激光视觉融合的建图方法还包括:
接收所述GPS传感器采集到的GPS观测数据;
基于卡尔曼滤波算法,利用所述GPS观测数据对所述当前状态进行更新。
作为上述方案的改进,所述建图系统还包括陀螺仪,则,通过以下步骤对所述当前状态进行预测:
接收所述陀螺仪采集到的陀螺仪观测数据;
基于卡尔曼滤波算法和高阶Runge Kutta插值法,利用所述陀螺仪观测数据对所述建图系统的当前状态进行预测。
作为上述方案的改进,所述基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新,包括:
当当前时刻接收到所述激光观测数据时,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻接收到所述视觉观测数据时,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻同时接收到所述激光观测数据和所述视觉观测数据时,基于卡尔曼滤波算法,按照预设的顺序,先后分别根据所述激光观测数据和所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新。
作为上述方案的改进,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的当前状态进行更新,包括:
对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点;
将每一帧所述激光点云图像的坐标数据投影到陀螺仪坐标系下,将所述第一面特征点与所述局部点云地图中的第二面特征点进行匹配,并将所述第一线特征点与所述局部点云地图中的第二线特征点进行匹配;
利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新。
作为上述方案的改进,所述利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新,包括:
根据匹配到的面特征点,计算局部面片的面中心和法向量;
根据所述面中心和所述法向量计算第一激光误差;
对所述第一激光误差求一阶偏导,并线性化处理得到第一激光H矩阵;
根据匹配到的线特征点,计算局部线的线中心和线方向;
根据所述线中心和所述线方向计算第二激光误差;
对所述第二激光误差求一阶偏导,并线性化处理得到第二激光H矩阵;
将所述第一激光H矩阵和所述第二激光H矩阵进行叠加处理,得到激光H矩阵;
根据所述激光H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
作为上述方案的改进,所述对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点,包括:
根据每一帧所述激光点云图像的每一激光扫描线的曲率,提取每一帧所述激光点云图像的初始面特征点和初始线特征点;
统计每一帧所述激光点云图像的点云和所述局部点云地图中的点云在2D栅格下的分布,比较每一个所述2D栅格内的点云分布,得到动态物体所处的2D栅格,删除所述2D栅格中的所述动态物体的点云,以从所述初始面特征点和初始线特征点中过滤动态物体的特征点,得到每一帧所述激光点云图像的第一面特征点和第一线特征点。
作为上述方案的改进,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的当前状态进行更新,包括:
获取所述视觉观测数据中的每一关键帧图像;
计算上一关键帧图像的每一像素的光度梯度,并将所述局部点云地图的点云投影到所述上一关键帧图像,得到每一像素的深度;
将光度梯度的模值大于预设的模值阈值的像素点作为追踪点,通过所述深度,将所述追踪点投影到当前关键帧图像,得到若干光度误差;
将每一所述光度误差作为每一残差,对其求一阶偏微分,并线性化处理,得到每一第一视觉H矩阵;
将所有所述第一视觉H矩阵进行叠加处理,得到视觉H矩阵;
根据所述视觉H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
作为上述方案的改进,所述当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图,包括:
当满足预设的停止更新条件时,对所述局部点云地图进行回环检测,得到每一关键帧激光点云图像;
计算得到每一所述关键帧激光点云图像之间的相对位姿和所述相对位姿的协方差矩阵;
根据所述相对位姿、所述相对位姿的协方差矩阵对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
为实现上述目的,本发明实施例提供了一种基于激光视觉融合的建图系统,所述建图系统包括:激光传感器、视觉传感器和控制器,所述控制器被配置为:
接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
与现有技术相比,本发明实施例提供的一种基于激光视觉融合的建图方法及系统,通过采用激光传感器采集到的激光观测数据和视觉传感器采集到的视觉观测数据对建图系统的每一时刻的当前状态进行更新,利用更新后的所有当前状态,生成全局地图,能够解决激光SLAM建图无法处理几何缺失和视觉SLAM建图无法处理弱纹理的问题,而且本发明实施例适用于各种复杂的环境,建图精度高,对动态物体和光照变化都有不俗的抗性,鲁棒性强。
附图说明
图1是本发明实施例提供的一种基于激光视觉融合的建图方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的一种基于激光视觉融合的建图方法的流程图,所述建图系统包括激光传感器和视觉传感器,所述基于激光视觉融合的建图方法包括:
S1、接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
S2、根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
S3、基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
S4、当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
在一可选实施例中,所述建图系统还包括陀螺仪,则,通过以下步骤对所述当前状态进行预测:
接收所述陀螺仪采集到的陀螺仪观测数据;
基于卡尔曼滤波算法和高阶Runge Kutta插值法,利用所述陀螺仪观测数据对所述建图系统的当前状态进行预测。
示例性地,所述当前状态包括:所述建图系统的位置、旋转、速度、加速度计偏差,角度速度计偏差和重力的方向,可表示为
Figure BDA0004006559160000061
其中,传感器的旋转方向为
Figure BDA0004006559160000062
位置为p,速度为v,加速度计的速度为ba,陀螺仪的偏差为bg,重力为g,k代表离散化的时间;
对当前状态预测进行说明:
预测当前状态:
Figure BDA0004006559160000063
预测当前状态的协方差:
Figure BDA0004006559160000064
可以理解的是,在本发明实施例中,基于陀螺仪的运动模型预测当前状态,具体地,使用高阶Runge Kutta插值法对当前状态进行预测::
Figure BDA0004006559160000065
Figure BDA0004006559160000066
Figure BDA0004006559160000067
ba,k|k-1=ba,k-1|k-1
bg,k|k-1=bg,k-1|k-1
gk|k-1=gk-1|k-1
其中,更新位置p时有y=p,更新速度v时,y=v:
Figure BDA0004006559160000068
k1=f(t,y)
Figure BDA0004006559160000069
Figure BDA0004006559160000071
k4=f(t+dt,y+k3*dt)
Figure BDA0004006559160000072
f(t,p)=vk-1|k-1
Figure BDA0004006559160000073
根据下式预测当前状态的协方差:
Figure BDA0004006559160000074
Figure BDA0004006559160000075
Figure BDA0004006559160000076
可以理解的是,在步骤S3完成后,得到240Hz的当前状态的更新,其中,200Hz的更新来自陀螺仪的预测,30Hz来自视觉观测数据的更新,10Hz来自激光观测数据的更新。
在一可选实施例中,所述建图系统还包括GPS传感器,则所述基于激光视觉融合的建图方法还包括:
接收所述GPS传感器采集到的GPS观测数据;
基于卡尔曼滤波算法,利用所述GPS观测数据对所述当前状态进行更新。
在本发明实施例中,通过卡尔曼滤波算法分别利用GPS观测数据、激光观测数据和视觉观测数据对建图系统的当前状态进行更新:
计算观测(z)的残差:
Figure BDA0004006559160000081
计算观测的协方差:
Figure BDA0004006559160000082
计算卡尔曼增益:
Figure BDA0004006559160000083
更新当前状态:
Figure BDA0004006559160000084
更新当前状态的协方差Pk|k=Pk|k-1(I-KkHk)
可以理解的是,在本发明实施例中,GPS观测数据为位置观测,其观测的协方差R直接使用GPS观测数据,利用下式进行卡尔曼滤波算法的更新:
rk=zk-pk
Figure BDA0004006559160000085
在一可选实施例中,所述基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新,包括:
当当前时刻接收到所述激光观测数据时,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻接收到所述视觉观测数据时,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻同时接收到所述激光观测数据和所述视觉观测数据时,基于卡尔曼滤波算法,按照预设的顺序,先后分别根据所述激光观测数据和所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新。
可以理解的是,建图系统会持续接收激光传感器采集到的激光观测数据和视觉传感器采集到的视觉观测数据;当当前时刻接收到所述激光观测数据时,根据所述激光观测数据对所述建图系统的所述当前时刻的当前状态进行更新;当当前时刻接收到所述视觉观测数据时,根据所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;当当前时刻同时接收到所述激光观测数据和所述视觉观测数据时,按照预设的顺序,先后分别根据所述激光观测数据和所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;进一步地,当当前时刻接收到GPS观测数据时,根据所述GPS观测数据对所述建图系统的所述当前时刻的当前状态进行更新;当当前时刻同时接收到所述激光观测数据、所述视觉观测数据和所述GPS观测数据时,按照预设的顺序,先后分别根据所述激光观测数据、所述视觉观测数据和所述GPS观测数据对所述建图系统的所述当前时刻的当前状态进行更新。
在一可选实施例中,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的当前状态进行更新,包括:
对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点;
将每一帧所述激光点云图像的坐标数据投影到陀螺仪坐标系下,将所述第一面特征点与所述局部点云地图中的第二面特征点进行匹配,并将所述第一线特征点与所述局部点云地图中的第二线特征点进行匹配;
利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新。
在一可选实施例中,所述利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新,包括:
根据匹配到的面特征点,计算局部面片的面中心和法向量;
根据所述面中心和所述法向量计算第一激光误差;
对所述第一激光误差求一阶偏导,并线性化处理得到第一激光H矩阵;
根据匹配到的线特征点,计算局部线的线中心和线方向;
根据所述线中心和所述线方向计算第二激光误差;
对所述第二激光误差求一阶偏导,并线性化处理得到第二激光H矩阵;
将所述第一激光H矩阵和所述第二激光H矩阵进行叠加处理,得到激光H矩阵;
根据所述激光H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
可以理解的是,在本发明实施例中,使用两个残差函数r来计算激光传感器观测到的误差(第一激光误差和第二激光误差):
示例性的,将所有的点都从激光传感器参考系,通过离线标定的外参,投影到陀螺仪坐标系下;
第一激光误差r1(i,k):根据所述第一面特征点q1(i)和所述局部点云地图中的第二面特征点进行KNN匹配到的面特征点,计算局部面片的面中心q1(ref)和法向量n,每一个匹配都会构成一个点到面的误差,最终有l个点,则会构成l×11维的第一激光H矩阵H1(k),具体的表达式为:
r1(i,k)=n(Rk*q1(i)+pk-q1(ref))
Figure BDA0004006559160000101
H1(i,k)=[(qi×(Rkn))T nT 01×11]
Figure BDA0004006559160000102
第二激光误差r2(i,k):根据所述第一线特征点q2(i)和所述局部点云地图中的第二线特征点进行KNN匹配到的线特征点,计算局部线的线中心qref和线的方向d,每一个匹配都会构成一个点到线的误差,最终有l个点,则会构成3l×11维的第二激光H矩阵H2(k),具体的表达式为:
r2(i,k)=d×(Rk*q2(i)+pk-q2(ref))
Figure BDA0004006559160000103
H2(i,k)=[(d)^ -(d)^Rk*(qi)^ 03×11]
Figure BDA0004006559160000104
最后,将第一激光H矩阵H1(k)和第二激光H矩阵H2(k)叠加计算,得到激光H矩阵Hk
Figure BDA0004006559160000111
Figure BDA0004006559160000112
利用激光H矩阵Hk进行当前状态的更新。
在一可选实施例中,所述对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点,包括:
根据每一帧所述激光点云图像的每一激光扫描线的曲率,提取每一帧所述激光点云图像的初始面特征点和初始线特征点;
统计每一帧所述激光点云图像的点云和所述局部点云地图中的点云在2D栅格下的分布,比较每一个所述2D栅格内的点云分布,得到动态物体所处的2D栅格,删除所述2D栅格中的所述动态物体的点云,以从所述初始面特征点和初始线特征点中过滤动态物体的特征点,得到每一帧所述激光点云图像的第一面特征点和第一线特征点。
示例性的,通过对激光点云图像的每一条激光扫描线做卷积处理得到曲率,根据曲率提取初始面特征点和初始线特征点;
通过删除所述2D栅格中的所述动态物体的点云,过滤初始面特征点和初始线特征点中的动态物体的特征点,得到第一面特征点和第一线特征点。
在一可选实施例中,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的当前状态进行更新,包括:
获取所述视觉观测数据中的每一关键帧图像;
计算上一关键帧图像的每一像素的光度梯度,并将所述局部点云地图的点云投影到所述上一关键帧图像,得到每一像素的深度;
将光度梯度的模值大于预设的模值阈值的像素点作为追踪点,通过所述深度,将所述追踪点投影到当前关键帧图像,得到若干光度误差;
将每一所述光度误差作为每一残差,对其求一阶偏微分,并线性化处理,得到每一第一视觉H矩阵;
将所有所述第一视觉H矩阵进行叠加处理,得到视觉H矩阵;
根据所述视觉H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
示例性的,根据下式计算真实的光度梯度:
Figure BDA0004006559160000121
其中,t为关键帧图像的曝光时间,a为预设的非线性参数,b为光度的偏差值;
将上一关键帧图像((u0,v0)∈S0)追踪点投影到当前关键帧图像((uk,vk)∈Sk),计算每一第一视觉H矩阵
Figure BDA00040065591600001210
Figure BDA0004006559160000122
Figure BDA0004006559160000123
Figure BDA0004006559160000124
Figure BDA0004006559160000125
Figure BDA0004006559160000126
式中,
Figure BDA0004006559160000127
表示关键帧图像的光度梯度。
将所有第一视觉H矩阵
Figure BDA00040065591600001211
进行叠加,得到视觉H矩阵Hk
Figure BDA0004006559160000128
Figure BDA0004006559160000129
利用视觉H矩阵Hk对当前状态进行更新。
在一可选实施例中,所述当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图,包括:
当满足预设的停止更新条件时,对所述局部点云地图进行回环检测,得到每一关键帧激光点云图像;
计算得到每一所述关键帧激光点云图像之间的相对位姿和所述相对位姿的协方差矩阵;
根据所述相对位姿、所述相对位姿的协方差矩阵对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
可以理解的是,当不再接收到新的观测数据时,停止更新,对所述局部点云地图进行回环检测,使用激光点云数据的矩阵描述子,对每一帧激光点云图像进行描述F({pi})=D,D∈R2,通过遍历地图关键帧计算minj||Di-Dj||得到与第i帧匹配的关键帧j。矩阵描述子D的计算如下:将每一帧激光点云图像的点云按照极坐标系分为2D的栅格,统计每一栅格内的激光点的强度的最大值,赋值描述子矩阵:D(θ,ρ)=Imax
在检测到回环候选之后,进行点到面的ICP匹配,并利用Hessian矩阵,计算得到每一所述关键帧激光点云图像之间的相对位姿和所述相对位姿的协方差矩阵;
根据所述相对位姿、所述相对位姿的协方差矩阵对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图;可选地,所述全局地图包括kdtree地图和TSDF地图。
为实现上述目的,本发明实施例提供了一种基于激光视觉融合的建图系统,所述建图系统包括:激光传感器、视觉传感器和控制器,所述控制器被配置为:
接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
优选地,所述建图系统还包括GPS传感器,则所述控制器还被配置为:
接收所述GPS传感器采集到的GPS观测数据;
基于卡尔曼滤波算法,利用所述GPS观测数据对所述当前状态进行更新。
优选地,所述建图系统还包括陀螺仪,则所述控制器还被配置为:
接收所述陀螺仪采集到的陀螺仪观测数据;
基于卡尔曼滤波算法和高阶Runge Kutta插值法,利用所述陀螺仪观测数据对所述建图系统的当前状态进行预测。
优选地,所述基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新,包括:
当当前时刻接收到所述激光观测数据时,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻接收到所述视觉观测数据时,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻同时接收到所述激光观测数据和所述视觉观测数据时,基于卡尔曼滤波算法,按照预设的顺序,先后分别根据所述激光观测数据和所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新。
优选地,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的当前状态进行更新,包括:
对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点;
将每一帧所述激光点云图像的坐标数据投影到陀螺仪坐标系下,将所述第一面特征点与所述局部点云地图中的第二面特征点进行匹配,并将所述第一线特征点与所述局部点云地图中的第二线特征点进行匹配;
利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新。
优选地,所述利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新,包括:
根据匹配到的面特征点,计算局部面片的面中心和法向量;
根据所述面中心和所述法向量计算第一激光误差;
对所述第一激光误差求一阶偏导,并线性化处理得到第一激光H矩阵;
根据匹配到的线特征点,计算局部线的线中心和线方向;
根据所述线中心和所述线方向计算第二激光误差;
对所述第二激光误差求一阶偏导,并线性化处理得到第二激光H矩阵;
将所述第一激光H矩阵和所述第二激光H矩阵进行叠加处理,得到激光H矩阵;
根据所述激光H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
优选地,所述对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点,包括:
根据每一帧所述激光点云图像的每一激光扫描线的曲率,提取每一帧所述激光点云图像的初始面特征点和初始线特征点;
统计每一帧所述激光点云图像的点云和所述局部点云地图中的点云在2D栅格下的分布,比较每一个所述2D栅格内的点云分布,得到动态物体所处的2D栅格,删除所述2D栅格中的所述动态物体的点云,以从所述初始面特征点和初始线特征点中过滤动态物体的特征点,得到每一帧所述激光点云图像的第一面特征点和第一线特征点。
优选地,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的当前状态进行更新,包括:
获取所述视觉观测数据中的每一关键帧图像;
计算上一关键帧图像的每一像素的光度梯度,并将所述局部点云地图的点云投影到所述上一关键帧图像,得到每一像素的深度;
将光度梯度的模值大于预设的模值阈值的像素点作为追踪点,通过所述深度,将所述追踪点投影到当前关键帧图像,得到若干光度误差;
将每一所述光度误差作为每一残差,对其求一阶偏微分,并线性化处理,得到每一第一视觉H矩阵;
将所有所述第一视觉H矩阵进行叠加处理,得到视觉H矩阵;
根据所述视觉H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
优选地,所述当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图,包括:
当满足预设的停止更新条件时,对所述局部点云地图进行回环检测,得到每一关键帧激光点云图像;
计算得到每一所述关键帧激光点云图像之间的相对位姿和所述相对位姿的协方差矩阵;
根据所述相对位姿、所述相对位姿的协方差矩阵对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
值得说明的是,本发明实施例所述的基于激光视觉融合的建图装置10中控制器的工作过程可参考上述实施例所述的基于激光视觉融合的建图方法的工作过程,在此不再赘述。
与现有技术相比,本发明实施例提供的一种基于激光和视觉融合的建图方法及系统,通过采用激光传感器采集到的激光观测数据和视觉传感器采集到的视觉观测数据对建图系统的每一时刻的当前状态进行更新,利用更新后的所有当前状态,生成全局地图,能够解决激光SLAM建图无法处理几何缺失和视觉SLAM建图无法处理弱纹理的问题,而且本发明实施例适用于各种复杂的环境,建图精度高,对动态物体和光照变化都有不俗的抗性,鲁棒性强。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (10)

1.一种基于激光视觉融合的建图方法,其特征在于,应用于建图系统,所述建图系统包括激光传感器和视觉传感器,所述基于激光视觉融合的建图方法包括:
接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
2.如权利要求1所述的基于激光视觉融合的建图方法,其特征在于,所述建图系统还包括GPS传感器,则所述基于激光视觉融合的建图方法还包括:
接收所述GPS传感器采集到的GPS观测数据;
基于卡尔曼滤波算法,利用所述GPS观测数据对所述当前状态进行更新。
3.如权利要求1所述的基于激光视觉融合的建图方法,其特征在于,所述建图系统还包括陀螺仪,则,通过以下步骤对所述当前状态进行预测:
接收所述陀螺仪采集到的陀螺仪观测数据;
基于卡尔曼滤波算法和高阶Runge Kutta插值法,利用所述陀螺仪观测数据对所述建图系统的当前状态进行预测。
4.如权利要求1所述的基于激光视觉融合的建图方法,其特征在于,所述基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新,包括:
当当前时刻接收到所述激光观测数据时,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻接收到所述视觉观测数据时,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新;
当当前时刻同时接收到所述激光观测数据和所述视觉观测数据时,基于卡尔曼滤波算法,按照预设的顺序,先后分别根据所述激光观测数据和所述视觉观测数据对所述建图系统的所述当前时刻的当前状态进行更新。
5.如权利要求4所述的基于激光视觉融合的建图方法,其特征在于,基于卡尔曼滤波算法,根据所述激光观测数据对所述建图系统的当前状态进行更新,包括:
对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点;
将每一帧所述激光点云图像的坐标数据投影到陀螺仪坐标系下,将所述第一面特征点与所述局部点云地图中的第二面特征点进行匹配,并将所述第一线特征点与所述局部点云地图中的第二线特征点进行匹配;
利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新。
6.如权利要求5所述的基于激光视觉融合的建图方法,其特征在于,所述利用匹配到的面特征点和线特征点对所述建图系统的当前状态进行更新,包括:
根据匹配到的面特征点,计算局部面片的面中心和法向量;
根据所述面中心和所述法向量计算第一激光误差;
对所述第一激光误差求一阶偏导,并线性化处理得到第一激光H矩阵;
根据匹配到的线特征点,计算局部线的线中心和线方向;
根据所述线中心和所述线方向计算第二激光误差;
对所述第二激光误差求一阶偏导,并线性化处理得到第二激光H矩阵;
将所述第一激光H矩阵和所述第二激光H矩阵进行叠加处理,得到激光H矩阵;
根据所述激光H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
7.如权利要求5所述的基于激光视觉融合的建图方法,其特征在于,所述对每一帧所述激光点云图像进行预处理,提取每一帧所述激光点云图像的第一面特征点和第一线特征点,包括:
根据每一帧所述激光点云图像的每一激光扫描线的曲率,提取每一帧所述激光点云图像的初始面特征点和初始线特征点;
统计每一帧所述激光点云图像的点云和所述局部点云地图中的点云在2D栅格下的分布,比较每一个所述2D栅格内的点云分布,得到动态物体所处的2D栅格,删除所述2D栅格中的所述动态物体的点云,以从所述初始面特征点和初始线特征点中过滤动态物体的特征点,得到每一帧所述激光点云图像的第一面特征点和第一线特征点。
8.如权利要求4所述的基于激光视觉融合的建图方法,其特征在于,基于卡尔曼滤波算法,根据所述视觉观测数据对所述建图系统的当前状态进行更新,包括:
获取所述视觉观测数据中的每一关键帧图像;
计算上一关键帧图像的每一像素的光度梯度,并将所述局部点云地图的点云投影到所述上一关键帧图像,得到每一像素的深度;
将光度梯度的模值大于预设的模值阈值的像素点作为追踪点,通过所述深度,将所述追踪点投影到当前关键帧图像,得到若干光度误差;
将每一所述光度误差作为每一残差,对其求一阶偏微分,并线性化处理,得到每一第一视觉H矩阵;
将所有所述第一视觉H矩阵进行叠加处理,得到视觉H矩阵;
根据所述视觉H矩阵更新所述当前状态的协方差;
根据更新后的所述协方差对所述当前状态进行更新。
9.如权利要求1所述的基于激光视觉融合的建图方法,其特征在于,所述当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图,包括:
当满足预设的停止更新条件时,对所述局部点云地图进行回环检测,得到每一关键帧激光点云图像;
计算得到每一所述关键帧激光点云图像之间的相对位姿和所述相对位姿的协方差矩阵;
根据所述相对位姿、所述相对位姿的协方差矩阵对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
10.一种基于激光视觉融合的建图系统,其特征在于,所述建图系统包括:激光传感器、视觉传感器和控制器,所述控制器被配置为:
接收所述激光传感器采集到的激光观测数据和所述视觉传感器采集到的视觉观测数据;
根据所述激光观测数据中的每一帧激光点云图像生成局部点云地图;
基于卡尔曼滤波算法,根据所述激光观测数据和所述视觉观测数据对所述建图系统的每一时刻的当前状态进行更新;
当满足预设的停止更新条件时,基于所述局部点云地图对更新后的所有时刻的所述当前状态进行全局优化,生成全局地图。
CN202211633054.2A 2022-12-19 2022-12-19 基于激光视觉融合的建图方法及系统 Pending CN115797490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211633054.2A CN115797490A (zh) 2022-12-19 2022-12-19 基于激光视觉融合的建图方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211633054.2A CN115797490A (zh) 2022-12-19 2022-12-19 基于激光视觉融合的建图方法及系统

Publications (1)

Publication Number Publication Date
CN115797490A true CN115797490A (zh) 2023-03-14

Family

ID=85425768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211633054.2A Pending CN115797490A (zh) 2022-12-19 2022-12-19 基于激光视觉融合的建图方法及系统

Country Status (1)

Country Link
CN (1) CN115797490A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116678423A (zh) * 2023-05-26 2023-09-01 小米汽车科技有限公司 多源融合定位方法、装置及车辆

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040168148A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for landmark generation for visual simultaneous localization and mapping
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112985416A (zh) * 2021-04-19 2021-06-18 湖南大学 激光与视觉信息融合的鲁棒定位和建图方法及系统
CN114723920A (zh) * 2022-04-24 2022-07-08 南京大学 一种基于点云地图的视觉定位方法
CN115240047A (zh) * 2022-08-04 2022-10-25 中国矿业大学(北京) 一种融合视觉回环检测的激光slam方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040168148A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for landmark generation for visual simultaneous localization and mapping
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112985416A (zh) * 2021-04-19 2021-06-18 湖南大学 激光与视觉信息融合的鲁棒定位和建图方法及系统
CN114723920A (zh) * 2022-04-24 2022-07-08 南京大学 一种基于点云地图的视觉定位方法
CN115240047A (zh) * 2022-08-04 2022-10-25 中国矿业大学(北京) 一种融合视觉回环检测的激光slam方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
翁潇文;李迪;柳俊城;: "基于图优化的二维激光SLAM研究", 自动化与仪表, no. 04, 15 April 2019 (2019-04-15), pages 31 - 35 *
郭林峰: "视觉与激光雷达融合的移动机器人定位算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 9, 15 September 2022 (2022-09-15), pages 140 - 53 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116678423A (zh) * 2023-05-26 2023-09-01 小米汽车科技有限公司 多源融合定位方法、装置及车辆
CN116678423B (zh) * 2023-05-26 2024-04-16 小米汽车科技有限公司 多源融合定位方法、装置及车辆

Similar Documents

Publication Publication Date Title
CN109506642B (zh) 一种机器人多相机视觉惯性实时定位方法及装置
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN111210463B (zh) 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN111207774A (zh) 一种用于激光-imu外参标定的方法及系统
CN112902953A (zh) 一种基于slam技术的自主位姿测量方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN112734841B (zh) 一种用轮式里程计-imu和单目相机实现定位的方法
CN112815939B (zh) 移动机器人的位姿估计方法及计算机可读存储介质
JP2013186816A (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114529576A (zh) 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN112116651A (zh) 一种基于无人机单目视觉的地面目标定位方法和系统
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN112179373A (zh) 一种视觉里程计的测量方法及视觉里程计
CN116772844A (zh) 一种基于动态环境下的视觉惯性室内机器人的导航方法
CN115797490A (zh) 基于激光视觉融合的建图方法及系统
CN115147344A (zh) 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法
CN111260725B (zh) 一种面向动态环境的轮速计辅助的视觉里程计方法
WO2024109002A1 (zh) 仿生视觉多源信息智能感知无人平台
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN112580683A (zh) 一种基于互相关的多传感器数据时间对齐系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240506

Address after: Room 442, Building 1, Caizhi Shunfeng Innovation Center, No. 99 Housheng Street, Gongshu District, Hangzhou City, Zhejiang Province, 310000

Applicant after: Zhejiang Chenjing Technology Co.,Ltd.

Country or region after: China

Address before: 511458 rooms 503, 504, 505 and 506, No. 1, jinmaozhong Second Street, Huangge Town, Nansha District, Guangzhou City, Guangdong Province

Applicant before: Guangzhou chenjing Technology Co.,Ltd.

Country or region before: China