CN103308925A - 一种一体化三维彩色激光雷达数据点云产生方法及其装置 - Google Patents
一种一体化三维彩色激光雷达数据点云产生方法及其装置 Download PDFInfo
- Publication number
- CN103308925A CN103308925A CN2013102141368A CN201310214136A CN103308925A CN 103308925 A CN103308925 A CN 103308925A CN 2013102141368 A CN2013102141368 A CN 2013102141368A CN 201310214136 A CN201310214136 A CN 201310214136A CN 103308925 A CN103308925 A CN 103308925A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- data
- point
- dimensional
- sin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明通过解决特征提取、异步同步、特征关联、数据差值等问题,将视觉数据和激光雷达数据进行融合,产生三维彩色深度图像数据,即三维彩色激光雷达数据点云,从而提供精确的距离信息、丰富的环境信息,有效克服传统激光雷达和视觉传感器在鲁棒性、信息量、精度和成本方面的缺陷。本发明将二维激光雷达、单目视觉传感器、惯性导航数据测量单元、驱动电机等集成为基于信息融合的、具有普遍适用性的、高精度的三维彩色激光雷达一体化单元,利用惯性导航数据和视觉数据对激光雷达数据进行二次对准,结构简单,无需对设备进行精确标定,性能可靠稳定、实用性强,可以广泛应用在运动条件下的室内外等各种环境中,具有一定普遍适用性。
Description
技术领域
本发明涉及一种数据点云产生方法及其装置,尤其涉及一种一体化三维彩色激光雷达数据点云产生方法及其装置。
背景技术
激光雷达和视觉传感器是移动机器人环境感知领域最常用传感器。传统的移动机器人导航系统利用视觉传感器获取丰富的环境信息,同时利用激光雷达获取精确的距离信息。视觉传感器信息量丰富,但这类传感器受环境光照条件等影响大。比如,在室外环境中应用良好的数据分析方法在应用在室内环境获取的数据时,会由于光照条件的剧烈变化而失效。同时,基于视觉数据的深度信息获取方法计算复杂度高,获得深度数据精度差。激光雷达数据具有良好的环境鲁棒性,获取的深度数据精度高。但是,激光雷达往往对环境过分的离散化,获取的数据粒度大,获取信息量有限,难以用于环境理解等应用。二维激光雷达获取信息量过小,难以应用于三维复杂环境的感知;普通三维激光雷达的价格过高、可观测距离相对较短,对空间的离散化程度过高,难以普遍应用于移动机器人导航任务中;传统的将摆动的二维激光雷达数据对准获取三维激光雷达数据点云的方法难以克服激光雷达单元运动所带来的数据变形,应用受到极大的限制。因此,环境感知的应用需求迫切需要一种能获取丰富环境信息的、具有精确距离信息的、具有一定普遍适用性的环境感知设备及方法。
发明内容
为解决现有技术中存在的信息量、传感器成本以及信息准确度等方面问题,本发明的目的在于提供一种一体化三维彩色激光雷达数据点云产生方法及其装置。
本发明通过解决特征提取、异步同步、特征关联、数据差值等问题,将视觉数据和激光雷达数据进行融合,产生三维彩色深度图像数据,即三维彩色激光雷达数据点云,从而提供精确的距离信息、丰富的环境信息,具有一定普遍适用性;将二维激光雷达、单目视觉传感器、惯性导航数据测量单元、驱动电机等集成为三维彩色激光雷达一体化单元,利用惯性导航数据和视觉数据对激光雷达数据进行二次对准,结构简单,无需对设备进行精确标定,性能可靠稳定、实用性强,可以广泛应用在运动条件下的室内外等各种环境中,具有一定普遍适用性。
本发明所采用的技术方案:
一种一体化三维彩色激光雷达数据点云产生方法,包括以下步骤:
(1)通过二维激光雷达对三维空间进行环境序列扫描,获取雷达数据;
(2)通过单目视觉传感器获得原始彩色图像;
(3)通过惯性导航单元获取一体化三维彩色激光雷达的运动信息,包括X、Y、Z三个方向的线速度信息以及三个轴向角速度信息;
(4)根据惯性导航单元与二维激光雷达的几何位置关系,计算出采样周期内一体化三维彩色激光雷达移动的距离和方向,利用逆投影方法对激光雷达数据进行初步修正, 其中(xyz)为原激光雷达点坐标,(x′y′z′)为投影后激光雷达点坐标,R为投影矩阵,如下式所示::
式中φ、θ和ψ为沿三个轴向的旋转角度,△x、△y和△z为沿三个轴向的平移距离,其值为步骤(3)中获取的X、Y、Z三个方向的线速度信息以及三个轴向角速度信息对采样周期的积分;
(5)利用雷达数据的高度序列化的特点对数据进行聚类,具体方法为序列检测获取的二维观测中相邻数据点之间的距离,将距离小于门限值的点划分为同一个集合,激光雷达的二维数据可被划分为一个或多个集合;
(6)对步骤(5)中所获得的集合,对同一个集合内的数据点进行平滑滤波,如下式所示:
式中δi为观测数据点i沿观测方向平移距离,Σi为激光雷达测距模型中的噪声方差,为产生的滤波成本,α为平滑性倾向权值,θi为第i个观测点与第i-1个观测点及第i+1个观测点之间构成的夹角,χ2为由于平滑观测点所产生的卡方分布(χ2)值;
(7)利用结构张力模型提取出步骤(6)中平滑后的数据点集合中的形状发生了剧烈改变的数据点,即拐点,计算该中心点的结构张力,如下式所示:
其中vi,x与vi,y分别表示中心数据点i对应的模向量在x方向和y方向的分量,λ1与λ2为数据点的二维结构张力矩阵的特征值,二者中较小的特征值为模张力的显著性指标C=min(λ1,λ2),将具有最大的显著性指标的数据点提取为特征点,将结构张力模型的逆矩阵A-1作为特征点的不确定度;
(8)将原始图像与标准高斯函数进行卷积平滑图像,如下式所示:
L=G*Lo
其中Lo为原始观测图像,G为高斯滤波器,Lo为原始图像,L为平滑后图像;
(9)将平滑后的图像L与不同的模量进行卷积,获取图像中的边缘信息,如下式所示:
Lxx=[1 -2 1]*L
式中Lxx,Lxy和Lyy为在X轴平行方向,X-Y中分线方向和Y方向的边缘图像;
(10)将原始图像中单像素所对应的物理距离视为三倍标准差所对应的误差距离,即3δ距离,获取图像信息的不确定度;
(11)将步骤(7)中提取的拐点数据与步骤(8)中所提取的图像边缘数据进行精确对准,如下式所示:
g(x,o)=0 (iii)
式中g(·)表示投影关系函数,x表示步骤(8)所提取的视觉图像中的边缘,o表示步骤(7)中提取的拐点,构建数据关联成本函数,如下式所示:
式中是视觉特征估计位置与关联位置之间的距离(新息),是激光雷达特征估计位置与关联位置之间的距离(新息),Pt是视觉特征的协方差矩阵;是投影矩阵估计值的不确定度矩阵,V是激光雷达特征的协方差矩阵;J1及J2是投影关系函数f'(·)分别对视觉系统位置和投影距离的偏导数;
(12)定义S为投影关系函数f(·)所构建的协方差矩阵,H为投影关系函数f(·)的Hessian矩阵,K=PHTS-1则为卡尔曼滤波增益矩阵,G为将激光雷达特征投影到视觉传感器坐标系下的投影矩阵对激光雷达坐标系的Hessian矩阵,I为单位矩阵,如下式所示:
S-1=[I+KTHT-(HK)T]S-1
=[KTHT+(I-HK)T(GVGT)-1(GVGT)]S-1
=[KTHT+(I-HK)T(GVGT)-1(S-HPHT)]S-1
=[KT(P-1PHTS-1S)+(I-HK)T(GVGT)-1(I-HK)S]S-1
=[KTP-1KS+(I-HK)T(GVGT)-1(I-HK)S]S-1
=KTP-1K+(I-HK)T(GVGT)-1(I-HK)
由此可知,卡尔曼滤波极小化了均方误差,式(iv)所定义的成本函数可以极小化关联误差;
(13)计算激光雷达与单目视觉传感器之间的投影关系,如下式所示:
uθ=arctan(M/N)
式中为图像数据中特征坐标,为激光雷达特征坐标,为所有图像数据特征的位置平均值,为所有激光雷达特征的位置平均值,M和N为根据特征对应关系计算得到的方向矢量,uθ为根据关联关系计算得到的激光雷达与图像传感器之间沿Z轴的旋转角度,ux和uy分别为根据关联关系计算得到的激光雷达与图像传感器在X轴、Y轴方向上的距离,在Z方向的距离在一体化单元单元设计时已确定,为已知量,X轴向旋转角始终保持为0,Y轴向旋转角度为单目视觉传感器的朝向角由控制系统决定,为已知量;
(14)由步骤(11)中获得激光雷达与单目视觉传感器之间的实时投影关系,利用一维线性插值降低激光雷达数据的数据粒度,从而降低对环境的离散化程度,如下式所示:
式中(x0,y0)与(x1,y1)为已有激光雷达数据观测点位置,(x,y)为插入(x0,y0)与(x1,y1)之间的激光雷达点位置,迭代进行该过程,从而完成任意精细化程度的插值,获得对环境描述程度精细的三维激光雷达数据点云;
(15)由步骤(14)对激光雷达数据精细化产生数据点云,利用二维插值方法,从图像数据中获得数据点云中点的彩色信息,进而产生彩色三维激光雷达数据点云,如下式所示:
R1=(x,y1)
R2=(x,y2)
式中f(·)为数据点色彩信息函数,Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)、Q22=(x2,y2)分别为插值点上下左右四个方向的相邻数据点,(x1,y1)、(x1,y2)、(x2,y1)和(x2,y2)分别为插值点上下左右四个方向的相邻数据点的坐标,f(R1)和f(R2)分别为在X方向的y1和y2处线性插值结果,f(P)为Y方向线性插值结果,R1为插值点上方数据点,R2为插值点下方数据点。
步骤(1)中,所得二维激光雷达单次扫描数据为X-Y平面上的一组离散的点,在三维空间中的扫描为具有不同Z坐标值的多组离散的点,其空间分布表现为离散点构成的三维网格。
步骤(6)中,α的取值范围为0.5~2,对于观测误差较大的激光雷达,α取值应适当偏大,对观测误差较小的激光雷达,α取值适当偏小。
一种一体化三维彩色激光雷达数据点云产生装置,包括固定平台、惯性导航数据测量传感器、单目视觉传感单元、二维激光雷达单元。惯性导航数据测量单元设置在固定平台前端,二维激光雷达单元设置在惯性导航数据测量单元上方,单目视觉传感单元设置在固定平台后端。
二维激光雷达单元包括二维激光雷达、转轴和驱动舵机。
二维激光雷达可由驱动舵机驱动在平衡位置上下±25°范围内非匀速摆动。
单目视觉传感单元包括单目视觉传感器、转轴和驱动舵机。
单目视觉传感器由驱动舵机驱动在平衡位置左右±60°范围内根据应用要求转动。
单目视觉传感器和二维激光雷达均在平衡位置时,单目视觉传感器、二维激光雷达和惯性导航数据测量单元三者所在的X-Z平面重合。
本发明的有益效果:
本发明涉及一种一体化三维彩色激光雷达数据点云产生方法,通过解决特征提取、异步同步、特征关联、数据差值等问题,将视觉数据和激光雷达数据进行融合,产生三维彩色深度图像数据,即三维彩色激光雷达数据点云,从而提供精确的距离信息、丰富的环境信息,有效克服传统激光雷达和视觉传感器在鲁棒性、信息量、精度和成本方面的缺陷。本发明还涉及一种一体化三维彩色激光雷达数据点云产生装置,将二维激光雷达、单目视觉传感器、惯性导航数据测量单元、驱动电机等集成为基于信息融合的、具有普遍适用性的、高精度的三维彩色激光雷达一体化单元,利用惯性导航数据和视觉数据对激光雷达数据进行二次对准,结构简单,无需对设备进行精确标定,性能可靠稳定、实用性强,可以广泛应用在运动条件下的室内外等各种环境中,具有一定普遍适用性。
附图说明
图1为本发明的一体化三维彩色激光雷达数据点云产生装置的结构示意图。
图中:1、单目视觉传感器,2、转轴,3、驱动舵机,4、二维激光雷达,5、转轴,6、驱动舵机,7、惯性导航数据测量单元。
具体实施方式
以下结合附图和具体实施方式对本发明作进一步详细说明。
如图1所示,一种一体化三维彩色激光雷达数据点云产生装置,包括固定平台、惯性导航数据测量传感器、单目视觉传感单元、二维激光雷达单元。惯性导航数据测量单元设置在固定平台前端。二维激光雷达单元设置在惯性导航数据测量单元上方,包括二维激光雷达、转轴和驱动舵机,二维激光雷达可由驱动舵机驱动在平衡位置上下±25°范围内非匀速摆动。单目视觉传感单元设置在固定平台后端,包括单目视觉传感器、转轴和驱动舵机,单目视觉传感器由驱动舵机驱动在平衡位置左右±60°范围内根据应用要求转动。单目视觉传感器和二维激光雷达均在平衡位置时,单目视觉传感器、二维激光雷达和惯性导航数据测量单元三者所在的X-Z平面重合。
一种一体化三维彩色激光雷达数据点云产生方法,具体步骤为:
(1)通过二维激光雷达对三维空间进行环境序列扫描,获取雷达数据,所得二维激光雷达单次扫描数据为X-Y平面上的一组离散的点,在三维空间中的扫描为具有不同Z坐标值的多组离散的点,其空间分布表现为离散点构成的三维网格;
(2)通过单目视觉传感器获得原始彩色图像;
(3)惯性导航单元获取一体化三维彩色激光雷达的运动信息,包括X、Y、Z三个方向的线速度信息以及三个轴向角速度信息;
(4)根据惯性导航单元与二维激光雷达的几何位置关系,计算出采样周期内一体化三维彩色激光雷达移动的距离和方向,利用逆投影方法对激光雷达数据进行初步修正, 其中(xyz)为原激光雷达点坐标,(x′y′z′)为投影后激光雷达点坐标,R为投影矩阵,如下式所示::
式中φ、θ和ψ为沿三个轴向的旋转角度,△x、△y和△z为沿三个轴向的平移距离,其值为步骤(3)中获取的X、Y、Z三个方向的线速度信息以及三个轴向角速度信息对采样周期的积分;
(5)利用雷达数据的高度序列化的特点对数据进行聚类,具体方法为序列检测获取的二维观测中相邻数据点之间的距离,将距离小于门限值的点划分为同一个集合,激光雷达的二维数据可能被划分为一个或多个集合;
(6)对步骤(5)中所获得的集合,对同一个集合内的数据点进行平滑滤波,具体方法为:利用基于激光雷达测距噪声模型的概率优化方法进行滤波,提取轮廓信息,在不改变点正确分布的情况下极小化测距噪声对观测的影响,如下式所示:
式中δi为观测数据点i沿观测方向平移距离,Σi为激光雷达测距模型中的噪声方差,为产生的滤波成本,α为平滑性倾向权值,θi为第i个观测点与第i-1个观测点及第i+1个观测点之间构成的夹角,χ2为由于平滑观测点所产生的卡方分布(χ2)值;
(7)利用结构张力模型提取出步骤(6)中平滑后的数据点集合中的形状发生了剧烈改变的数据点,即拐点。具体方法为:将同一集合内激光雷达数据点近似看做均匀分布,定义一个圆形数据窗口来减小朝向对特征提取的影响,计算在数据窗口中心点的激光雷达点的模向量,该模向量为该激光雷达点与数据窗口边缘激光雷达点之间构成的夹角的中分线,计算该中心点的结构张力,如下式所示:
其中vi,x与vi,y分别表示中心数据点i对应的模向量在x方向和y方向的分量,λ1与λ2为数据点的二维结构张力矩阵的特征值,二者中较小的特征值为模张力的显著性指标C=min(λ1,λ2),将具有最大的显著性指标的数据点提取为特征点,将结构张力模型的逆矩阵A-1作为特征点的不确定度;
(8)将原始图像与标准高斯函数进行卷积平滑图像,如下式所示:
L=G*Lo
其中Lo为原始观测图像,G为高斯滤波器,Lo为原始图像,L为平滑后图像;
(9)将平滑后的图像L与不同的模量进行卷积,则可以获取图像中的边缘信息,如下式所示:
Lxx=[1 -2 1]*L
式中Lxx,Lxy和Lyy为在X轴平行方向,X-Y中分线方向和Y方向的边缘图像;
(10)将原始图像中单像素所对应的物理距离视为三倍标准差所对应的误差距离,即3δ距离,获取图像信息的不确定度;
(11)将步骤(7)中提取的拐点数据与步骤(8)中所提取的图像边缘数据进行精确对准,具体方法为:激光雷达与视觉数据之间的几何关系构成了一个投影矩阵,正确的激光雷达特征在经过投影后应与视觉数据中的边际完美的重合,即:
g(x,o)=0 (iii)
式中g(·)表示投影关系函数,x表示步骤(8)所提取的视觉图像中的边缘,o表示步骤(7)中提取的拐点,
构建数据关联成本函数如下式所示:
式中是视觉特征估计位置与关联位置之间的距离(新息),是激光雷达特征估计位置与关联位置之间的距离(新息),Pt是视觉特征的协方差矩阵;是投影矩阵估计值的不确定度矩阵,V是激光雷达特征的协方差矩阵;J1及J2是投影关系函数f'(·)分别对视觉系统位置和投影距离的偏导数;
(12)定义S为投影关系函数f(·)所构建的协方差矩阵,H为投影关系函数f(·)的Hessian矩阵,K=PHTS-1则为卡尔曼滤波增益矩阵,G为将激光雷达特征投影到视觉传感器坐标系下的投影矩阵对激光雷达坐标系的Hessian矩阵,I为单位矩阵,如下式所示:
S-1=[I+KTHT-(HK)T]S-1
=[KTHT+(I-HK)T(GVGT)-1(GVGT)]S-1
=[KTHT+(I-HK)T(GVGT)-1(S-HPHT)]S-1
=[KT(P-1PHTS-1S)+(I-HK)T(GVGT)-1(I-HK)S]S-1
=[KTP-1KS+(I-HK)T(GVGT)-1(I-HK)S]S-1
=KTP-1K+(I-HK)T(GVGT)-1(I-HK)
由此可知,卡尔曼滤波极小化了均方误差,式(iv)所定义的成本函数可以极小化关联误差;
(13)计算激光雷达与单目视觉传感器之间的投影关系,如下式所示:
uθ=arctan(M/N)
式中为图像数据中特征坐标,为激光雷达特征坐标,为所有图像数据特征的位置平均值,为所有激光雷达特征的位置平均值,M和N为根据特征对应关系计算得到的方向矢量,uθ为根据关联关系计算得到的激光雷达与图像传感器之间沿Z轴的旋转角度,ux和uy分别为根据关联关系计算得到的激光雷达与图像传感器在X轴、Y轴方向上的距离,在Z方向的距离在一体化单元设计时已确定,为已知量,X轴向旋转角始终保持为0,Y轴向旋转角度为单目视觉传感器的朝向角由控制系统决定,为已知量;
(14)由步骤(11)中获得激光雷达与单目视觉传感器之间的实时投影关系,利用一维线性插值降低激光雷达数据的数据粒度,从而降低对环境的离散化程度,如下式所示:
式中(x0,y0)与(x1,y1)为已有激光雷达数据观测点位置,(x,y)为插入(x0,y0)与(x1,y1)之间的激光雷达点位置,迭代进行该过程,从而完成任意精细化程度的插值,获得对环境描述程度精细的三维激光雷达数据点云;
(15)由步骤(14)对激光雷达数据精细化产生数据点云,利用二维插值方法,从图像数据中获得数据点云中点的彩色信息,进而产生彩色三维激光雷达数据点云,如下式所示:
R1=(x,y1)
R2=(x,y2)
式中f(·)为数据点色彩信息函数,Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)、Q22=(x2,y2)分别为插值点上下左右四个方向的相邻数据点,(x1,y1)、(x1,y2)、(x2,y1)和(x2,y2)分别为插值点上下左右四个方向的相邻数据点的坐标,f(R1)和f(R2)分别为在X方向的y1和y2处线性插值结果,f(P)为Y方向线性插值结果,R1为插值点上方数据点,R2为插值点下方数据点。
Claims (9)
1.一种一体化三维彩色激光雷达数据点云产生方法,其特征在于:包括以下步骤:
(1)通过二维激光雷达对三维空间进行环境序列扫描,获取雷达数据;
(2)通过单目视觉传感器获得原始彩色图像;
(3)通过惯性导航单元获取一体化三维彩色激光雷达的运动信息,包括X、Y、Z三个方向的线速度信息以及三个轴向角速度信息;
(4)根据惯性导航单元与二维激光雷达的几何位置关系,计算出采样周期内一体化三维彩色激光雷达移动的距离和方向,利用逆投影方法对激光雷达数据进行初步修正, 其中(xyz)为原激光雷达点坐标,(x′y′z′)为投影后激光雷达点坐标,R为投影矩阵,如下式所示::
式中φ、θ和ψ为沿三个轴向的旋转角度,△x、△y和△z为沿三个轴向的平移距离,其值为步骤(3)中获取的X、Y、Z三个方向的线速度信息以及三个轴向角速度信息对采样周期的积分;
(5)利用雷达数据的高度序列化的特点对数据进行聚类,具体方法为序列检测获取的二维观测中相邻数据点之间的距离,将距离小于门限值的点划分为同一个集合,激光雷达的二维数据可被划分为一个或多个集合;
(6)对步骤(5)中所获得的集合,对同一个集合内的数据点进行平滑滤波,如下式所示:
式中δi为观测数据点i沿观测方向平移距离,Σi为激光雷达测距模型中的噪声方差,为产生的滤波成本,α为平滑性倾向权值,θi为第i个观测点与第i-1个观测点及第i+1个观测点之间构成的夹角,χ2为由于平滑观测点所产生的卡方分布(χ2)值;
(7)利用结构张力模型提取出步骤(6)中平滑后的数据点集合中的形状发生了剧烈改变的数据点,即拐点,计算该中心点的结构张力,如下式所示:
其中vi,x与vi,y分别表示中心数据点i对应的模向量在x方向和y方向的分量,λ1与λ2为数据点的二维结构张力矩阵的特征值,二者中较小的特征值为模张力的显著性指标C=min(λ1,λ2)将具有最大的显著性指标的数据点提取为特征点,将结构张力模型的逆矩阵A-1作为特征点的不确定度;
(8)将原始图像与标准高斯函数进行卷积平滑图像,如下式所示:
L=G*Lo
其中Lo为原始观测图像,G为高斯滤波器,Lo为原始图像,L为平滑后图像;
(9)将平滑后的图像L与不同的模量进行卷积,获取图像中的边缘信息,如下式所示:
Lxx=[1 -2 1]*L
式中Lxx,Lxy和Lyy为在X轴平行方向,X-Y中分线方向和Y方向的边缘图像;
(10)将原始图像中单像素所对应的物理距离视为三倍标准差所对应的误差距离,即3δ距离,获取图像信息的不确定度;
(11)将步骤(7)中提取的拐点数据与步骤(8)中所提取的图像边缘数据进行精确对准,如下式所示:
g(x,o)=0 (iii)
式中g(·)表示投影关系函数,x表示步骤(8)所提取的视觉图像中的边缘,o表示
步骤(7)中提取的拐点,构建数据关联成本函数,如下式所示:
式中是视觉特征估计位置与关联位置之间的距离(新息),是激光雷达特征估计位置与关联位置之间的距离(新息),Pt是视觉特征的协方差矩阵;是投影矩阵估计值的不确定度矩阵,V是激光雷达特征的协方差矩阵;J1及J2是投影关系函数f'(·)分别对视觉系统位置和投影距离的偏导数;
(12)定义S为投影关系函数f(·)所构建的协方差矩阵,H为投影关系函数f(·)的Hessian矩阵,K=PHTS-1则为卡尔曼滤波增益矩阵,G为将激光雷达特征投影到视觉传感器坐标系下的投影矩阵对激光雷达坐标系的Hessian矩阵,I为单位矩阵,如下式所示:
S-1=[I+KTHT-(HK)T]S-1
=[KTHT+(I-HK)T(GVGT)-1(GVGT)]S-1
=[KTHT+(I-HK)T(GVGT)-1(S-HPHT)]S-1
=[KT(P-1PHTS-1S)+(I-HK)T(GVGT)-1(I-HK)S]S-1
=[KTP-1KS+(I-HK)T(GVGT)-1(I-HK)S]S-1
=KTP-1K+(I-HK)T(GVGT)-1(I-HK)
由此可知,卡尔曼滤波极小化了均方误差,式(iv)所定义的成本函数可以极小化关联误差;
(13)计算激光雷达与单目视觉传感器之间的投影关系,如下式所示:
uθ=arctan(M/N)
式中为图像数据中特征坐标,为激光雷达特征坐标,为所有图像数据特征的位置平均值,为所有激光雷达特征的位置平均值,M和N为根据特征对应关系计算得到的方向矢量,uθ为根据关联关系计算得到的激光雷达与图像传感器之间沿Z轴的旋转角度,ux和uy分别为根据关联关系计算得到的激光雷达与图像传感器在X轴、Y轴方向上的距离,在Z方向的距离在一体化单元设计时已确定,为已知量,X轴向旋转角始终保持为0,Y轴向旋转角度为单目视觉传感器的朝向角由控制系统决定,为已知量;
(14)由步骤(11)中获得激光雷达与单目视觉传感器之间的实时投影关系,利用一维线性插值降低激光雷达数据的数据粒度,从而降低对环境的离散化程度,如下式所示:
式中(x0,y0)与(x1,y1)为已有激光雷达数据观测点位置,(x,y)为插入(x0,y0)与(x1,y1)之间的激光雷达点位置,迭代进行该过程,从而完成任意精细化程度的插值,获得对环境描述程度精细的三维激光雷达数据点云;
(15)由步骤(14)对激光雷达数据精细化产生数据点云,利用二维插值方法,从图像数据中获得数据点云中点的彩色信息,进而产生彩色三维激光雷达数据点云,如下式所示:
R1=(x,y1)
R2=(x,y2)
式中f(·)为数据点色彩信息函数,Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)、Q22=(x2,y2)分别为插值点上下左右四个方向的相邻数据点,(x1,y1)、(x1,y2)、(x2,y1)和(x2,y2)分别为插值点上下左右四个方向的相邻数据点的坐标,f(R1)和f(R2)分别为在X方向的y1和y2处线性插值结果,f(P)为Y方向线性插值结果,R1为插值点上方数据点,R2为插值点下方数据点。
2.根据权利要求1所述的一体化三维彩色激光雷达数据点云产生方法,其特征在于:步骤(2)中,所得二维激光雷达单次扫描数据为X-Y平面上的一组离散的点,在三维空间中的扫描为具有不同Z坐标值的多组离散的点,其空间分布表现为离散点构成的三维网格。
3.根据权利要求1所述的一体化三维彩色激光雷达数据点云产生方法,其特征在于:步骤(7)中,α的取值范围为0.5~2,对于观测误差较大的激光雷达,α取值应适当偏大,对观测误差较小的激光雷达,α取值适当偏小。
4.一体化三维彩色激光雷达数据点云产生装置,包括固定平台、惯性导航数据测量传感器、单目视觉传感单元、二维激光雷达单元,其特征在于:所述的惯性导航数据测量单元设置在固定平台前端,所述的二维激光雷达单元设置在惯性导航数据测量单元上方,所述的单目视觉传感单元设置在固定平台后端。
5.根据权利要求4所述的一体化三维彩色激光雷达数据点云产生装置,其特征在于:所述的二维激光雷达单元包括二维激光雷达、转轴和驱动舵机。
6.根据权利要求5所述的二维激光雷达单元,其特征在于:所述的二维激光雷达可由驱动舵机驱动在平衡位置上下±25°范围内非匀速摆动。
7.根据权利要求4所述的一体化三维彩色激光雷达数据点云产生装置,其特征在于:所述的单目视觉传感单元包括单目视觉传感器、转轴和驱动舵机。
8.根据权利要求7所述的单目视觉传感单元,其特征在于:所述的单目视觉传感器由驱动舵机驱动在平衡位置左右±60°范围内根据应用要求转动。
9.根据权利要求4所述的一体化三维彩色激光雷达数据点云产生装置,其特征在于:所述的单目视觉传感器和二维激光雷达均在平衡位置时,单目视觉传感器、二维激光雷达和惯性导航数据测量单元三者所在的X-Z平面重合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310214136.8A CN103308925B (zh) | 2013-05-31 | 2013-05-31 | 一种一体化三维彩色激光雷达数据点云产生方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310214136.8A CN103308925B (zh) | 2013-05-31 | 2013-05-31 | 一种一体化三维彩色激光雷达数据点云产生方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103308925A true CN103308925A (zh) | 2013-09-18 |
CN103308925B CN103308925B (zh) | 2015-05-06 |
Family
ID=49134347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310214136.8A Expired - Fee Related CN103308925B (zh) | 2013-05-31 | 2013-05-31 | 一种一体化三维彩色激光雷达数据点云产生方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103308925B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104656097A (zh) * | 2015-01-28 | 2015-05-27 | 武汉理工大学 | 基于旋转式二维激光三维重构系统的标定装置及方法 |
CN104808192A (zh) * | 2015-04-15 | 2015-07-29 | 中国矿业大学 | 进行三维激光扫描的摆动装置及其坐标转换方法 |
CN105717500A (zh) * | 2016-02-24 | 2016-06-29 | 深圳乐行天下科技有限公司 | 一种激光雷达及其数据修正方法 |
CN105737802A (zh) * | 2016-01-26 | 2016-07-06 | 中国科学院水利部成都山地灾害与环境研究所 | 基于体感摄影技术的堆积剖面空间结构信息分析方法 |
CN105891839A (zh) * | 2016-04-02 | 2016-08-24 | 上海大学 | 一种具有彩色点云获取能力的全向激光雷达装置 |
CN105928457A (zh) * | 2016-06-21 | 2016-09-07 | 大连理工大学 | 一种全向三维激光彩色扫描系统及其方法 |
CN106001927A (zh) * | 2016-07-05 | 2016-10-12 | 温州大学 | 一种测量加工一体化的激光平整化抛光方法 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
CN107909029A (zh) * | 2017-11-14 | 2018-04-13 | 福州瑞芯微电子股份有限公司 | 一种真实场景虚拟化采集方法和电路 |
CN108153979A (zh) * | 2017-12-26 | 2018-06-12 | 深圳市城市公共安全技术研究院有限公司 | 基于InSAR的形变信息提取方法、终端及存储介质 |
CN108732587A (zh) * | 2018-06-07 | 2018-11-02 | 安徽理工大学 | 一种基于扫描点云测距、测角的定权方法 |
CN108802759A (zh) * | 2018-06-07 | 2018-11-13 | 北京大学 | 面向植物表型的移动式近感系统及数据获取方法 |
CN109035759A (zh) * | 2018-06-13 | 2018-12-18 | 重庆邮电大学 | 一种护栏检测评估方法 |
CN109725339A (zh) * | 2018-12-20 | 2019-05-07 | 东莞市普灵思智能电子有限公司 | 一种紧耦合的自动驾驶感知方法及系统 |
CN110414418A (zh) * | 2019-07-25 | 2019-11-05 | 电子科技大学 | 一种图像-激光雷达图像数据多尺度融合的道路检测方法 |
CN110428372A (zh) * | 2019-07-08 | 2019-11-08 | 希格斯动力科技(珠海)有限公司 | 深度数据与2d激光数据融合方法及装置、存储介质 |
CN110763232A (zh) * | 2018-07-25 | 2020-02-07 | 深圳市优必选科技有限公司 | 一种机器人及其导航定位方法和装置 |
CN111201451A (zh) * | 2018-02-09 | 2020-05-26 | 宝马股份公司 | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
CN114881955A (zh) * | 2022-04-28 | 2022-08-09 | 厦门微亚智能科技有限公司 | 基于切片的环状点云缺陷提取方法、装置、设备存储介质 |
WO2023142181A1 (zh) * | 2022-01-30 | 2023-08-03 | 探维科技(北京)有限公司 | 一种图像融合激光的雷达调光方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102564431A (zh) * | 2011-11-14 | 2012-07-11 | 南京理工大学 | 基于多传感器融合的非结构化环境理解方法 |
-
2013
- 2013-05-31 CN CN201310214136.8A patent/CN103308925B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102564431A (zh) * | 2011-11-14 | 2012-07-11 | 南京理工大学 | 基于多传感器融合的非结构化环境理解方法 |
Non-Patent Citations (2)
Title |
---|
李琳 等: "二维和三维视觉传感器集成系统联合标定方法", 《仪器仪表学报》 * |
邓志红 等: "一种改进的视觉传感器与激光测距雷达特征匹配点提取算法", 《光学技术》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104656097A (zh) * | 2015-01-28 | 2015-05-27 | 武汉理工大学 | 基于旋转式二维激光三维重构系统的标定装置及方法 |
CN104808192A (zh) * | 2015-04-15 | 2015-07-29 | 中国矿业大学 | 进行三维激光扫描的摆动装置及其坐标转换方法 |
CN105737802A (zh) * | 2016-01-26 | 2016-07-06 | 中国科学院水利部成都山地灾害与环境研究所 | 基于体感摄影技术的堆积剖面空间结构信息分析方法 |
CN105717500A (zh) * | 2016-02-24 | 2016-06-29 | 深圳乐行天下科技有限公司 | 一种激光雷达及其数据修正方法 |
CN105891839B (zh) * | 2016-04-02 | 2018-04-27 | 上海大学 | 一种具有彩色点云获取能力的全向激光雷达装置 |
CN105891839A (zh) * | 2016-04-02 | 2016-08-24 | 上海大学 | 一种具有彩色点云获取能力的全向激光雷达装置 |
CN105928457A (zh) * | 2016-06-21 | 2016-09-07 | 大连理工大学 | 一种全向三维激光彩色扫描系统及其方法 |
CN106001927B (zh) * | 2016-07-05 | 2018-03-23 | 温州大学激光与光电智能制造研究院 | 一种测量加工一体化的激光平整化抛光方法 |
CN106001927A (zh) * | 2016-07-05 | 2016-10-12 | 温州大学 | 一种测量加工一体化的激光平整化抛光方法 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
CN107909029A (zh) * | 2017-11-14 | 2018-04-13 | 福州瑞芯微电子股份有限公司 | 一种真实场景虚拟化采集方法和电路 |
CN108153979A (zh) * | 2017-12-26 | 2018-06-12 | 深圳市城市公共安全技术研究院有限公司 | 基于InSAR的形变信息提取方法、终端及存储介质 |
CN111201451A (zh) * | 2018-02-09 | 2020-05-26 | 宝马股份公司 | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 |
CN111201451B (zh) * | 2018-02-09 | 2023-09-12 | 宝马股份公司 | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 |
CN108732587A (zh) * | 2018-06-07 | 2018-11-02 | 安徽理工大学 | 一种基于扫描点云测距、测角的定权方法 |
CN108802759A (zh) * | 2018-06-07 | 2018-11-13 | 北京大学 | 面向植物表型的移动式近感系统及数据获取方法 |
CN109035759A (zh) * | 2018-06-13 | 2018-12-18 | 重庆邮电大学 | 一种护栏检测评估方法 |
CN110763232A (zh) * | 2018-07-25 | 2020-02-07 | 深圳市优必选科技有限公司 | 一种机器人及其导航定位方法和装置 |
CN110763232B (zh) * | 2018-07-25 | 2021-06-29 | 深圳市优必选科技有限公司 | 一种机器人及其导航定位方法和装置 |
CN109725339A (zh) * | 2018-12-20 | 2019-05-07 | 东莞市普灵思智能电子有限公司 | 一种紧耦合的自动驾驶感知方法及系统 |
CN110428372A (zh) * | 2019-07-08 | 2019-11-08 | 希格斯动力科技(珠海)有限公司 | 深度数据与2d激光数据融合方法及装置、存储介质 |
CN110428372B (zh) * | 2019-07-08 | 2021-12-10 | 佳木斯市奥义智能科技有限公司 | 深度数据与2d激光数据融合方法及装置、存储介质 |
CN110414418A (zh) * | 2019-07-25 | 2019-11-05 | 电子科技大学 | 一种图像-激光雷达图像数据多尺度融合的道路检测方法 |
CN110414418B (zh) * | 2019-07-25 | 2022-06-03 | 电子科技大学 | 一种图像-激光雷达图像数据多尺度融合的道路检测方法 |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
WO2023142181A1 (zh) * | 2022-01-30 | 2023-08-03 | 探维科技(北京)有限公司 | 一种图像融合激光的雷达调光方法及系统 |
US11860317B1 (en) | 2022-01-30 | 2024-01-02 | Tanway Technology (beijing) Co., Ltd. | Optical adjustment for image fusion LiDAR systems |
CN114881955A (zh) * | 2022-04-28 | 2022-08-09 | 厦门微亚智能科技有限公司 | 基于切片的环状点云缺陷提取方法、装置、设备存储介质 |
CN114881955B (zh) * | 2022-04-28 | 2023-05-12 | 厦门微亚智能科技有限公司 | 基于切片的环状点云缺陷提取方法、装置、设备存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103308925B (zh) | 2015-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103308925B (zh) | 一种一体化三维彩色激光雷达数据点云产生方法 | |
CN103745458B (zh) | 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法 | |
CN103578117B (zh) | 确定摄像头相对于环境的姿态的方法 | |
CN102353945B (zh) | 基于isar像序列的散射点三维位置重构方法 | |
CN100453966C (zh) | 一种摄像机空间三维位置姿态测量方法 | |
CN103412565B (zh) | 一种具有全局位置快速估计能力的机器人定位方法 | |
CN101435732B (zh) | 一种基于双目光流的空间目标旋转轴及质心估计方法 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN105091744A (zh) | 一种基于视觉传感器和激光测距仪的位姿检测装置与方法 | |
CN103175485A (zh) | 一种飞机涡轮发动机叶片修复机器人的视觉标定方法 | |
CN107560553B (zh) | 多轴激光位移测量系统中干涉仪的安装偏差标定方法 | |
CN105157592A (zh) | 基于双目视觉的柔性后缘可变形机翼的变形形状和速率的测量方法 | |
CN103559711A (zh) | 基于三维视觉系统图像特征和三维信息的运动估计方法 | |
CN103983263A (zh) | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 | |
CN103471520B (zh) | 面结构光与锥光偏振全息组合的反光复杂曲面测量方法 | |
CN108917753B (zh) | 基于从运动恢复结构的飞行器位置确定方法 | |
CN103759669A (zh) | 一种大型零件的单目视觉测量方法 | |
CN108303043B (zh) | 多传感器信息融合的植物叶面积指数检测方法及系统 | |
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN106489062B (zh) | 用于测量移动平台的位移的系统和方法 | |
CN103954953A (zh) | 一种基于数据驱动的机载激光雷达盲源误差补偿方法 | |
CN104422425A (zh) | 一种不规则外形物体空间姿态动态测量方法 | |
CN106871859A (zh) | 一种刚体空间定轴转动角度检测方法 | |
CN102506711A (zh) | 线激光视觉三维旋转扫描方法 | |
CN101178811A (zh) | 一种三步法结构光直线光条的图像特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150506 Termination date: 20170531 |
|
CF01 | Termination of patent right due to non-payment of annual fee |