CN111273312B - 一种智能车辆定位与回环检测方法 - Google Patents

一种智能车辆定位与回环检测方法 Download PDF

Info

Publication number
CN111273312B
CN111273312B CN202010040419.5A CN202010040419A CN111273312B CN 111273312 B CN111273312 B CN 111273312B CN 202010040419 A CN202010040419 A CN 202010040419A CN 111273312 B CN111273312 B CN 111273312B
Authority
CN
China
Prior art keywords
current
point cloud
point
intelligent vehicle
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010040419.5A
Other languages
English (en)
Other versions
CN111273312A (zh
Inventor
郭洪艳
孟庆瑜
赵小明
赵旭
戴启坤
高炳钊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202010040419.5A priority Critical patent/CN111273312B/zh
Publication of CN111273312A publication Critical patent/CN111273312A/zh
Application granted granted Critical
Publication of CN111273312B publication Critical patent/CN111273312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供了一种智能车辆定位与回环检测方法,以激光雷达测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,通过基于雷达点云的闭环检测方法,在智能车辆通过重复场景时使用上一次通过时的对周围环境的观测校正当前智能车辆的位姿,避免行驶过程中定位误差的积累,本方法使用激光雷达传感器数据作为定位方法的输入,该种传感器广泛存在于智能车辆上,具有良好的可实现性;分步完成智能车辆的定位任务,对两种典型算法取长补短,同时保证智能车辆的定位精度和效率,消除行进过程中累积的误差。

Description

一种智能车辆定位与回环检测方法
技术领域
本发明属于智能车辆状态估计领域,涉及一种智能车辆定位与回环检测方法,更加具体来讲,涉及一种智能车辆分步位姿估计和基于激光雷达点云的回环检测方法。
背景技术
近年来智能车辆技术飞速发展,现有框架一般将智能车辆分为感知、规划、决策和控制四个模块,解决上述问题的一个关键前提是获取智能车辆的精确定位,只有确定了车身的位置和姿态信息,才能将感知到的周车及障碍物相信息统一在同一坐标系下,进而为后续模块提供输入信息。目前智能车辆定位手段主要依赖于惯导和GPS卫星定位,然而惯导在单独使用时会由于传感器自身特性产生累计误差,且高精度惯导设备成本较高,GPS卫星定位技术易受到外部信号干扰,即使是短时间内的信号丢失也会对智能车辆行车安全构成巨大威胁。
利用智能车辆上装载的激光雷达进行实时定位是一种切实可行的方案,其面临的问题是如何在定位精度和计算效率上进行取舍,同时消除导航定位误差的累积是激光雷达定位必须解决的问题。
发明内容
本发明为了解决智能车辆定位及误差积累问题,提供了一种智能车辆定位与回环检测方法。
为解决上述技术问题,本发明是采用如下技术方案实现的:
一种智能车辆定位与回环检测方法,在全球定位系统信号不能持续稳定输入车辆定位系统时,以激光雷达数据为输入,激光雷达安装于智能车顶端,通过收发激光束测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,保证车身的定位精度和效率,其特征在于,本方法具体步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云。
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
式中为立方体中所有扫描点的均值,m为立方体中扫描点的数量,表示一个立方体内的单个扫描点;基于此,每个立方体中扫描点的协方差矩阵为:
式中cov为描述立方体内扫描点分散程度的协方差矩阵;均值和协方差矩阵cov描述了扫描点的概率密度函数,服从正太分布:
式中,f(x)为概率密度函数,此时存在坐标变换函数表示使用位姿变换旋转和位移扫描点变换参数的最优解通过最大似然函数表示为:
对于此类优化问题,取负对数形式:
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
具体的,令φx表示绕x轴旋转的欧拉角,φy表示绕y轴旋转的欧拉角,φz表示绕z轴旋转的欧拉角,tx表示沿x轴方向的位移,ty表示沿y轴方向的位移,tz表示沿z轴方向的位移,坐标变换函数可表示为:
式中,Rx表示绕x轴的旋转矩阵,Ry表示绕y轴的旋转矩阵,Rz表示绕z轴的旋转矩阵,以为变量,对上式求导可得雅可比矩阵:
其中,
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
由骤一可以得到一组距离被拉近的扫描点云,定义两组点云分别为其中n为两组点云中匹配点对的数量,对于迭代最近点方法,可用如下方程表示两组点云之间的位姿变换关系:
式中,R是行列式值为1的正交矩阵,称作旋转矩阵,是位移向量;定义误差项构建最小二乘问题:
定义两组点云的质心分别为:
改写式(10)可得:
定义两组点云中各个点的去质心坐标分别为式(12)中的可改写为:
式中R*为待求解的旋转矩阵,进一步展开有:
式(14)中的与R无关,同样与R无关,可写为:
上式中,定义
对式(16)进行奇异值分解可得:
W=U∑′VT (17)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (18)
计算出旋转后,带入式(12)后并令即可解算出两幅点云之间的位移变换并定义旋转矩阵R为旋转的估计值Restimation、位移变换为位移的估计值即旋转的估计值Restimation=R,位移的估计值旋转的估计值Restimation和位移的估计值构成的智能车辆当前位姿的估计值Poseestimation表示为:
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c为当前时刻胞元中扫描点的协方差矩阵,c′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
cv=vΛ (22)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ123,对每一个胞元做如下判定:
(1)若0.5≤λ123≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形。
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量。
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵。
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
式中S(H1,H2)为衡量两个直方图矩阵相似度的归一化互相关指数,I为直方图矩阵的中各个元素的索引,为两幅点云直方图各自的均值,具体计算方法为:
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
式中,w∈N代表匹配点对的索引,代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,代表当前时刻获得的点云Ccurrent中的扫描点,为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
在触发回环检测后,智能车辆的当前位姿为:
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差。
与现有技术相比本发明的有益效果是:
1.本发明使用激光雷达传感器数据作为定位方法的输入,该种传感器广泛存在于智能车辆上,具有良好的可实现性;
2.本发明分步完成智能车辆的定位任务,对两种典型算法取长补短,同时保证智能车辆的定位精度和效率;
3.本发明提出一种基于激光雷达的回环检测方法,可以在智能车辆经过重复场景时校正当前位置和姿态,消除行进过程中累积的误差。
附图说明
下面结合附图对本发明作进一步的说明:
图1为本发明所述的一种智能车辆定位与回环检测方法的流程简图;
图2为本发明所述的智能车辆迭代最近点方法中扫描点匹配的示意图;
图3为本发明所述的激光雷达点云回环检测方法示意图。
图中:
具体实施方式
下面结合附图对本发明作详细的描述:
本发明提出一种智能车辆定位与回环检测方法,如图1所示,具体实施步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云。
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
式中为立方体中所有扫描点的均值,m为立方体中扫描点的数量,表示一个立方体内的单个扫描点;基于此,每个立方体中扫描点的协方差矩阵为:
式中cov为描述立方体内扫描点分散程度的协方差矩阵;均值和协方差矩阵cov描述了扫描点的概率密度函数,服从正太分布:
式中,f(x)为概率密度函数,此时存在坐标变换函数表示使用位姿变换旋转和位移扫描点变换参数的最优解通过最大似然函数表示为:
对于此类优化问题,取负对数形式:
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
具体的,令φx表示绕x轴旋转的欧拉角,φy表示绕y轴旋转的欧拉角,φz表示绕z轴旋转的欧拉角,tx表示沿x轴方向的位移,ty表示沿y轴方向的位移,tz表示沿z轴方向的位移,坐标变换函数可表示为:
式中,Rx表示绕x轴的旋转矩阵,Ry表示绕y轴的旋转矩阵,Rz表示绕z轴的旋转矩阵,以为变量,对上式求导可得雅可比矩阵:
其中,
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
由骤一可以得到一组距离被拉近的扫描点云,如图2所示,图2中两条曲线分别代表两组点云的形状,每条曲线上的空心圆代表该组点云中的扫描点,连接两个曲线上的空心圆点的直线代表两幅点云中扫描点的匹配关系。
定义两组点云分别为其中n为两组点云中匹配点对的数量,对于迭代最近点方法,可用如下方程表示两组点云之间的位姿变换关系:
式中,R是行列式值为1的正交矩阵,称作旋转矩阵,是平移向量;定义误差项构建最小二乘问题:
定义两组点云的质心分别为:
改写式(9)可得:
定义两组点云中各个点的去质心坐标分别为式(11)中的可改写为:
式中R*为待求解的旋转矩阵,进一步展开有:
式(13)中的与R无关,同样与R无关,可写为:
上式中,定义
对式(15)进行奇异值分解可得:
W=U∑′VT (47)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (48)
计算出旋转后,带入式(11)后并令即可解算出两幅点云之间的位移变换;
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c为当前时刻胞元中扫描点的协方差矩阵,c′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
cv=vΛ (51)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ123,对每一个胞元做如下判定:
(1)若0.5≤λ123≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形。
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量。
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵。
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
式中S(H1,H2)为衡量两个直方图矩阵相似度的归一化互相关指数,I为直方图矩阵的中各个元素的索引,为两幅点云直方图各自的均值,具体计算方法为:
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
式中,w∈N代表匹配点对的索引,代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,代表当前时刻获得的点云Ccurrent中的扫描点,为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
在触发回环检测后,智能车辆的当前位姿为:
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差,如图3所示。
图3中,圆圈为智能车辆在上一次经过当前场景时构建的地图,称为先验地图,三角形为先验地图中的扫描点,称为先验点云特征,正方形为智能车辆当前得到的扫描点,称为当前点云特征,实线表示智能车辆的行驶轨迹,虚线表示回环检测算法通过比对当前直方图矩阵和先验直方图矩阵识别到智能车辆正在通过重复场景,进而触发回环检测。回环检测执行完毕后,当前智能车辆的位姿得到校正,避免了行驶过程中定位误差的积累。

Claims (1)

1.一种智能车辆定位与回环检测方法,在全球定位系统信号不能持续稳定输入车辆定位系统时,以激光雷达数据为输入,激光雷达安装于智能车顶端,通过收发激光束测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,保证车身的定位精度和效率,其特征在于,本方法具体步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云;
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
Figure FDA0002367560100000011
式中
Figure FDA0002367560100000012
为立方体中所有扫描点的均值,m为立方体中扫描点的数量,
Figure FDA0002367560100000013
表示一个立方体内的单个扫描点;基于此,每个立方体中扫描点的协方差矩阵为:
Figure FDA0002367560100000014
式中cov为描述立方体内扫描点分散程度的协方差矩阵;均值
Figure FDA0002367560100000015
和协方差矩阵cov描述了扫描点的概率密度函数,服从正太分布:
Figure FDA0002367560100000016
式中,f(x)为概率密度函数,此时存在坐标变换函数
Figure FDA0002367560100000017
表示使用位姿变换
Figure FDA0002367560100000018
旋转和位移扫描点
Figure FDA0002367560100000019
变换参数的最优解通过最大似然函数表示为:
Figure FDA00023675601000000110
对于此类优化问题,取负对数形式:
Figure FDA00023675601000000111
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数
Figure FDA0002367560100000021
车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
具体的,令
Figure FDA0002367560100000022
φx表示绕x轴旋转的欧拉角,φy表示绕y轴旋转的欧拉角,φz表示绕z轴旋转的欧拉角,tx表示沿x轴方向的位移,ty表示沿y轴方向的位移,tz表示沿z轴方向的位移,坐标变换函数可表示为:
Figure FDA0002367560100000023
式中,Rx表示绕x轴的旋转矩阵,Ry表示绕y轴的旋转矩阵,Rz表示绕z轴的旋转矩阵,以
Figure FDA0002367560100000024
为变量,对上式求导可得雅可比矩阵:
Figure FDA0002367560100000025
其中,
Figure FDA0002367560100000026
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
由骤一可以得到一组距离被拉近的扫描点云,定义两组点云分别为
Figure FDA0002367560100000031
Figure FDA0002367560100000032
其中n为两组点云中匹配点对的数量,对于迭代最近点方法,可用如下方程表示两组点云之间的位姿变换关系:
Figure FDA0002367560100000033
式中,R是行列式值为1的正交矩阵,称作旋转矩阵,
Figure FDA0002367560100000034
是位移向量;定义误差项构建最小二乘问题:
Figure FDA0002367560100000035
定义两组点云的质心分别为:
Figure FDA0002367560100000036
改写式(10)可得:
Figure FDA0002367560100000037
定义两组点云中各个点的去质心坐标分别为
Figure FDA0002367560100000038
Figure FDA0002367560100000039
式(12)中的
Figure FDA00023675601000000310
可改写为:
Figure FDA00023675601000000311
式中R*为待求解的旋转矩阵,进一步展开有:
Figure FDA0002367560100000041
式(14)中的
Figure FDA0002367560100000042
与R无关,
Figure FDA0002367560100000043
同样与R无关,
Figure FDA0002367560100000044
可写为:
Figure FDA0002367560100000045
上式中,定义
Figure FDA0002367560100000046
对式(16)进行奇异值分解可得:
W=U∑′VT (17)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (18)
计算出旋转后,带入式(12)后并令
Figure FDA0002367560100000047
即可解算出两幅点云之间的位移变换
Figure FDA0002367560100000048
并定义旋转矩阵R为旋转的估计值Restimation、位移变换
Figure FDA0002367560100000049
为位移的估计值
Figure FDA00023675601000000410
即旋转的估计值Restimation=R,位移的估计值
Figure FDA00023675601000000411
旋转的估计值Restimation和位移的估计值
Figure FDA00023675601000000412
构成的智能车辆当前位姿的估计值Poseestimation表示为:
Figure FDA00023675601000000413
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
Figure FDA00023675601000000414
Figure FDA0002367560100000051
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c为当前时刻胞元中扫描点的协方差矩阵,c′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
cv=vΛ (22)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ123,对每一个胞元做如下判定:
(1)若0.5≤λ123≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形;
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
Figure FDA0002367560100000052
Figure FDA0002367560100000053
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量;
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
Figure FDA0002367560100000061
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵;
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
Figure FDA0002367560100000062
式中S(H1,H2)为衡量两个直方图矩阵相似度的归一化互相关指数,I为直方图矩阵的中各个元素的索引,
Figure FDA0002367560100000063
Figure FDA0002367560100000064
为两幅点云直方图各自的均值,具体计算方法为:
Figure FDA0002367560100000065
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
Figure FDA0002367560100000071
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
Figure FDA0002367560100000072
式中,w∈N代表匹配点对的索引,
Figure FDA0002367560100000073
代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,
Figure FDA0002367560100000074
代表当前时刻获得的点云Ccurrent中的扫描点,
Figure FDA0002367560100000075
为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,
Figure FDA0002367560100000076
为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,
Figure FDA0002367560100000077
代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令
Figure FDA0002367560100000078
可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
Figure FDA0002367560100000079
在触发回环检测后,智能车辆的当前位姿为:
Figure FDA00023675601000000710
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,
Figure FDA0002367560100000081
定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差。
CN202010040419.5A 2020-01-15 2020-01-15 一种智能车辆定位与回环检测方法 Active CN111273312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010040419.5A CN111273312B (zh) 2020-01-15 2020-01-15 一种智能车辆定位与回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010040419.5A CN111273312B (zh) 2020-01-15 2020-01-15 一种智能车辆定位与回环检测方法

Publications (2)

Publication Number Publication Date
CN111273312A CN111273312A (zh) 2020-06-12
CN111273312B true CN111273312B (zh) 2023-04-07

Family

ID=70998961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010040419.5A Active CN111273312B (zh) 2020-01-15 2020-01-15 一种智能车辆定位与回环检测方法

Country Status (1)

Country Link
CN (1) CN111273312B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113484875B (zh) * 2021-07-30 2022-05-24 燕山大学 一种基于混合高斯排序的激光雷达点云目标分级识别方法
CN114001654B (zh) * 2021-11-01 2024-03-26 北京卫星制造厂有限公司 工件端面位姿评价方法
CN114386293B (zh) * 2022-03-22 2022-07-08 之江实验室 一种虚实合成的激光雷达点云生成方法和装置
CN117635896B (zh) * 2024-01-24 2024-04-05 吉林大学 基于汽车车身点云运动预测的点云拼接方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103337066A (zh) * 2013-05-27 2013-10-02 清华大学 3d获取系统的校准方法
CN109596078A (zh) * 2019-01-28 2019-04-09 吉林大学 多信息融合路面谱实时测试系统和测试方法
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN110221603A (zh) * 2019-05-13 2019-09-10 浙江大学 一种基于激光雷达多帧点云融合的远距离障碍物检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103337066A (zh) * 2013-05-27 2013-10-02 清华大学 3d获取系统的校准方法
CN109596078A (zh) * 2019-01-28 2019-04-09 吉林大学 多信息融合路面谱实时测试系统和测试方法
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN110221603A (zh) * 2019-05-13 2019-09-10 浙江大学 一种基于激光雷达多帧点云融合的远距离障碍物检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张名芳 ; 付锐 ; 石涌泉 ; 程文冬 ; .基于激光雷达的远距离运动车辆位姿估计.公路交通科技.2017,(第12期),全文. *
王肖 ; 李克强 ; 王建强 ; 徐友春 ; .基于三维激光雷达的智能车辆目标参数辨识.汽车工程.2016,(第09期),全文. *

Also Published As

Publication number Publication date
CN111273312A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN111273312B (zh) 一种智能车辆定位与回环检测方法
Palomer et al. Inspection of an underwater structure using point‐cloud SLAM with an AUV and a laser scanner
Hebel et al. Simultaneous calibration of ALS systems and alignment of multiview LiDAR scans of urban areas
Nieto et al. Recursive scan-matching SLAM
CN112396664B (zh) 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN110703268B (zh) 一种自主定位导航的航线规划方法和装置
CN110930495A (zh) 基于多无人机协作的icp点云地图融合方法、系统、装置及存储介质
Weng et al. Pole-based real-time localization for autonomous driving in congested urban scenarios
CN106599108A (zh) 一种三维环境中多模态环境地图构建方法
Engel et al. Deeplocalization: Landmark-based self-localization with deep neural networks
CN111649723B (zh) 面向复杂地形的贴近摄影三维航迹与姿态规划方法及装置
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN114419147A (zh) 一种救援机器人智能化远程人机交互控制方法及系统
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
CN106556395A (zh) 一种基于四元数的单目视觉系统的导航方法
CN112669354A (zh) 一种基于车辆非完整约束的多相机运动状态估计方法
CN112669458A (zh) 基于激光点云进行地面滤波的方法、设备和程序载体
Kaufmann et al. Shadow-based matching for precise and robust absolute self-localization during lunar landings
WO2022193106A1 (zh) 一种通过惯性测量参数将gps与激光雷达融合定位的方法
Deng et al. Joint calibration of dual lidars and camera using a circular chessboard
CN117029870A (zh) 一种基于路面点云的激光里程计
Contreras et al. Efficient decentralized collaborative mapping for outdoor environments
Kim et al. Target detection and position likelihood using an aerial image sensor
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN115930948A (zh) 一种果园机器人融合定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant