CN114648585A - 一种基于激光点云与集成学习的车辆姿态估计方法 - Google Patents

一种基于激光点云与集成学习的车辆姿态估计方法 Download PDF

Info

Publication number
CN114648585A
CN114648585A CN202210563456.3A CN202210563456A CN114648585A CN 114648585 A CN114648585 A CN 114648585A CN 202210563456 A CN202210563456 A CN 202210563456A CN 114648585 A CN114648585 A CN 114648585A
Authority
CN
China
Prior art keywords
point cloud
obstacle
attitude estimation
frame
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210563456.3A
Other languages
English (en)
Other versions
CN114648585B (zh
Inventor
梁华为
李志远
王瀚琪
周鹏飞
章松
王健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Institutes of Physical Science of CAS
Original Assignee
Hefei Institutes of Physical Science of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Institutes of Physical Science of CAS filed Critical Hefei Institutes of Physical Science of CAS
Priority to CN202210563456.3A priority Critical patent/CN114648585B/zh
Publication of CN114648585A publication Critical patent/CN114648585A/zh
Application granted granted Critical
Publication of CN114648585B publication Critical patent/CN114648585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于激光点云与集成学习的车辆姿态估计方法,包括对激光雷达输出的激光点云进行预处理,获得道路参与者的聚类结果及其凸包;简化障碍物的3D包围框,将其映射到二维平面;基于激光点云实际成像的复杂多样性,建立全局姿态估计模型;建立模型评价指标,用于对全局姿态估计模型结果进行评估;搭建基于集成学习的Bagging模型,得到障碍物最优姿态估计方案。本发明通过使用集成学习网络构建并结合多个弱学习器,使生成的强学习器能够不受3D点云分布的特定几何形状的影响,对全尺寸全形态3D障碍物车辆都可进行姿态估计,具有较好的姿态估计全局适应性,且弱学习器能够做成并行化方法,大大提高模型的计算速度。

Description

一种基于激光点云与集成学习的车辆姿态估计方法
技术领域
本发明涉及无人驾驶汽车技术领域,特别涉及一种基于激光点云与集成学习的车辆姿态估计方法。
背景技术
环境感知系统是无人驾驶汽车中的一个关键模块,直接影响到决策规划的驾驶场景准确性。在无人驾驶技术的环境感知技术中,目标检测作为其最主要的研究方向之一,一直是国内外科研机构的研究热点。目标检测主要有两类方法:基于图像的方法和基于激光点云的方法。尽管基于图像的目标检测随着深度学习的发展有了显著的提升,但由于图像很难提供精准的障碍物目标深度信息,因此在实际的应用中,深度信息的获取依旧依赖于激光点云数据。
姿态估计是激光点云处理过程中的一个必要环节,姿态估计的结果作为目标跟踪算法的输入,对目标跟踪的准确性有着直接的影响。由于车辆在不同角度、距离、遮挡关系下点云会呈现出不同的分布密度与空间形态,因此在全路段都能保证精准的车辆姿态估计是十分具有挑战的。
现有技术的不足之处在于,目前大多的姿态估计算法是针对点云呈现的特定形状进行姿态估计,当特定形状不明显时效果较差,全局适应性差。
发明内容
本发明的目的克服现有技术存在的不足,为实现以上目的,采用一种基于激光点云与集成学习的车辆姿态估计方法,以解决上述背景技术中提出的问题。
一种基于激光点云与集成学习的车辆姿态估计方法,具体步骤包括:
S1、对激光雷达输出的激光点云进行预处理,获得道路参与者的聚类结果及其凸包;
S2、简化障碍物的3D包围框,将其映射到二维平面;
S3、基于激光点云实际成像的复杂多样性,建立全局姿态估计模型;
S4、建立模型评价指标,用于对全局姿态估计模型结果进行评估;
S5、搭建基于集成学习的Bagging模型,得到障碍物最优姿态估计方案。
作为本发明的进一步的方案:所述S1的具体步骤包括:
S11、在保持激光点云原始轮廓信息不变的情况下,使用分辨率为0.1m的体素格对激光点云进行下采样;
将脱离地面的点云进行滤除,并进一步结合高精度地图将道路外的点云进行剔除,减少非道路参与者的干扰;
使用地面滤波算法提取地面以上的点云,并使用聚类算法对道路范围内的点云进行聚类分割,获得聚类结果;
S12、对每一个聚类结果,舍弃三维点云高度属性将其投影到二维平面,其中第i个障碍物用O i 表示;
对二维平面的每一个聚类结果O i 提取其轮廓坐标点集E i ob ,得到障碍物O i 的有序轮廓坐标序列;
然后对轮廓坐标点集E i ob 进行凸包提取,得到能将障碍物O i 包围住的最小凸多边形,将该最小凸多边形作为障碍物O i 的凸包H i ob
作为本发明的进一步的方案:所述S2的具体步骤包括:
S21、对任一障碍物O i 采用3D包围框来表示其姿态;
S22、对于第i个障碍物,其姿态向量μ i 表示为:μ i =[x 0 i ,y 0 i ,l i i ,h i i ];
其中,(x 0 i ,y 0 i )表示第i个障碍物在二维平面的几何中心坐标,l i 为障碍物的长度,ω i 为障碍物的宽度,h i 为障碍物的高度,θ i 为障碍物与前进方向的夹角;
S23、根据姿态向量μ i 得到障碍物的边界框在二维平面的四个角点,从左上角顺时针的四个角点A i ,B i ,C i ,D i 分别表示为:
Figure 14034DEST_PATH_IMAGE001
Figure 528192DEST_PATH_IMAGE002
根据四个角点坐标能够确定唯一3D包围框在二维平面的位置。
作为本发明的进一步的方案:所述S3的具体方法为:基于激光点云实际成像的复杂多样性,分别根据翻滚三角形法、最长对角法,以及主成分分析法建立三种全局姿态估计模型。
作为本发明的进一步的方案:所述S4的具体步骤包括:
根据建立的全局姿态估计模型设置三种模型评价指标,用于对全局姿态估计模型进行评估,其中三种模型评价指标包括平均点云距离指标、框内点云占比指标,以及连续平均偏移角指标;
平均点云距离指标:对于每帧点云数据中的第i个障碍物,其凸包点集中包含n个凸包点H i ob ={g 1 i ,g 2 i ,...,g n i },计算每个凸包点g k i 到包围框中最近一条边的距离d k i ,最后计算第i个障碍物的所有凸包点到最近包围框的平均距离ADD i ob ,计算公式为:
Figure 595505DEST_PATH_IMAGE003
框内点云占比指标:当包围框不能全部包围住障碍物点云时,会导致一部分障碍物点云在包围框外,将该部分点云的数量记为η i out ,包围框内的点云数量记为η i in ,则框内点云占比PPCI i ob 的计算公式为:
Figure 613140DEST_PATH_IMAGE004
连续平均偏移角指标:为了保证姿态估计中的连续性和稳定性,需考虑过去m帧点云数据中的障碍物偏移角的稳定性,连续平均偏移角CDA i ob 的计算公式为:
Figure 435602DEST_PATH_IMAGE005
其中,
Figure 171477DEST_PATH_IMAGE006
Figure 42481DEST_PATH_IMAGE007
分别表示当前帧与前一帧障碍物与前进方向的偏移角。
作为本发明的进一步的方案:所述S5的具体步骤包括:
生成原始训练集:根据每一帧中的任一障碍物,利用多种姿态估计模型得到姿态估计结果,再使用模型评价指标对多个姿态估计结果进行定量评价,则任一障碍物可得到若干个评价指标,将之作为训练样本的特征值,训练样本的目标值为真实的姿态估计模型序号;
进行Bootstrap重采样:从原始训练集中随机进行m次有放回随机采样,得到一个新的采样集;
训练三个弱学习器:Bootstrap重采样后可得到三个不同的采样集,对三个采样集,分别独立的训练出三个不同的弱学习器;每个弱学习器采用集成神经元模型的全连接神经网络,网络的输入为障碍物的若干个评价指标,输出为最佳姿态估计模型序号;
投票法结合策略生成强学习器:当三个弱学习器分别生成各自的输出结果后,使用相对多数投票法确定最终的最佳姿态估计方案。
与现有技术相比,本发明存在以下技术效果:
采用上述的技术方案,通过上述方法能够无需依据3D点云分布的特定几何形状,对全尺寸全形态3D障碍物车辆都可进行姿态估计,具有较好的姿态估计全局适应性,弱学习器能够做成并行化方法,大大提高模型的计算速度。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1为本申请公开的一些实施例的车辆姿态估计方法的步骤示意图;
图2为本申请公开的一些实施例的翻滚三角形法的模型示意图;
图3为本申请公开的一些实施例的最长对角法的模型示意图;
图4为本申请公开的一些实施例的主成分分析法的模型示意图;
图5为本申请公开的一些实施例的基于集成学习的Bagging模型的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,本发明实施例中,一种基于激光点云与集成学习的车辆姿态估计方法,包括:
S1、对激光雷达输出的激光点云进行预处理,获得道路参与者的聚类结果及其凸包,具体步骤包括:
S11、在保持激光点云原始轮廓信息不变的情况下,使用分辨率为0.1m的体素格对激光点云进行下采样;
将脱离地面的点云进行滤除,并进一步结合高精度地图将道路外的点云进行剔除,减少非道路参与者的干扰;
使用地面滤波算法提取地面以上的点云,并使用聚类算法对道路范围内的点云进行聚类分割,获得聚类结果;
S12、对每一个聚类结果,舍弃三维点云高度属性将其投影到二维平面,其中第i个障碍物用O i 表示;
对二维平面的每一个聚类结果O i 提取其轮廓坐标点集E i ob ,得到障碍物O i 的有序轮廓坐标序列;
然后对轮廓坐标点集E i ob 进行凸包提取,得到能将障碍物O i 包围住的最小凸多边形,将该最小凸多边形作为障碍物O i 的凸包H i ob
S2、简化障碍物的3D包围框,将其映射到二维平面,具体步骤包括:
S21、对任一障碍物O i 采用3D包围框来表示其姿态,具体为:
对任一障碍物O i ,其姿态采用长方体形状的3D包围框来表示,3D包围框将障碍物的所有点云包含在其内部。3D包围框不仅可以体现障碍物行驶的方向信息,还包含了长度、宽度、高度等信息。
S22、对于第i个障碍物,其姿态向量μ i 表示为:μ i =[x 0 i ,y 0 i ,l i i ,h i i ];
其中,(x 0 i ,y 0 i )表示第i个障碍物在二维平面的几何中心坐标,l i 为障碍物的长度,ω i 为障碍物的宽度,h i 为障碍物的高度,θ i 为障碍物与前进方向的夹角;
S23、根据姿态向量μ i 得到障碍物的边界框在二维平面的四个角点,从左上角顺时针的四个角点A i ,B i ,C i ,D i 分别表示为:
Figure 180201DEST_PATH_IMAGE001
Figure 907986DEST_PATH_IMAGE008
根据四个角点坐标能够确定唯一3D包围框在二维平面的位置。
S3、基于激光点云实际成像的复杂多样性,建立全局姿态估计模型;
所述S3的具体方法为:基于激光点云实际成像的复杂多样性,分别根据翻滚三角形法、最长对角法,以及主成分分析法建立三种全局姿态估计模型。
翻滚三角形法:如图2所示,在第i个障碍物的凸包点集H i ob 中,针对包含在其中的n个凸包点,旋转三角形姿态估计算法的主要思想是以任意两凸包点g k i ,g k i +1 作为三角形的底边,在其他凸包点g j i ,j∈{1,...,k-1,k+2,...,n}中寻找三角形的顶点g j i ,计算Δg j i g k i g k i +1 的面积S k i ,当三角形的面积S k i 达到最大时,三角形底边g k i g k i +1 的方向为边界框长边的方向,即为障碍物的前进方向,三角形的高h k i 为障碍物的宽。在整个求解过程中按照凸包每一边为底构成的三角形在凸包内不停的旋转,直到找到构成最大面积的三角形。
最长对角法:如图3所示,对于每帧点云数据中的第i个障碍物,其凸包点集中包含n个凸包点H i ob ={g 1 i ,g 2 i ,...,g n i },首先在凸包点集H i ob 中遍历任意两点,在凸包点中找到距离最长的两点g j i g k i ,把这两点当作障碍物的最长对角,并在凸包点集H i ob 中寻找距对角线g j i g k i 垂直距离最远的点g l i ;将g l i 分别与g j i g k i 连接,得到线段g l i g j i g l i g k i ,选择其中最长的一条作为障碍物包围框的长边方向。过g j i 向长边做垂线即可得到短边方向,短边与长边的交点即为包围框的一个角点。在凸包点集H i ob 中寻找距长边垂直距离最远的点g m i ,过g m i 沿着长边的方向做直线,直线与短边的交点即为包围框的另一个角点。这样另外两个角点便可唯一确定,依次连接四个角点即可得到障碍物的包围框;
主成分分析法:如图4所示,该方法是通过线性正交变换,将原始数据的多维特征向量从高维空间映射到低维度空间。在第i个障碍物的凸包点集H i ob 中,将其中的n个凸包点视为样本,首先计算出样本的协方差矩阵,对其进行特征分解得到特征值λ 1 i 和λ 2 i ,选择两者中较大的特征值λ i max 对应的特征向量α i max =[α i max1 α i max2 ]T作为障碍物的行驶方向向量,障碍物与前进方向的夹角θ i 计算方式如下
Figure 334419DEST_PATH_IMAGE009
;
沿着障碍物的行驶方向α i max 的正方向在凸包点集H i ob 找到离障碍物中心最远的凸包点g i Hmax ,同样可以沿着α i max 的反方向找到最远的凸包点g i Hmin ,在α i max 的右侧沿着α i max 的垂直方向找到最远的凸包点g i Vmax ,同样可以沿着α i max 的垂直方向在α i max 的左侧找到最远的凸包点g i Vmin ;经过点g i Hmax 沿着α i max 的垂直方向做一条直线l i Hmax ,经过点g i Hmin 沿着α i max 的垂直方向做一条直线l i Hmin ,经过点g i Vmax 沿着α i max 的平行方向做一条直线l i Vmax ,经过点g i Vmin 沿着α i max 的平行方向做一条直线l i Vmin ;四条直线l i Hmax ,l i Vmax ,l i Hmin ,l i Vmin 的四个交点即为障碍物包围框的四个角点,四个角点包围的矩形即为第i个障碍物的包围框。
S4、建立模型评价指标,用于对全局姿态估计模型结果进行评估,具体步骤包括:
根据建立的全局姿态估计模型设置三种模型评价指标,用于对全局姿态估计模型进行评估,其中三种模型评价指标包括平均点云距离指标、框内点云占比指标,以及连续平均偏移角指标;
平均点云距离指标:对于每帧点云数据中的第i个障碍物,其凸包点集中包含n个凸包点H i ob ={g 1 i ,g 2 i ,...,g n i },计算每个凸包点g k i 到包围框中最近一条边的距离d k i ,最后计算第i个障碍物的所有凸包点到最近包围框的平均距离ADD i ob ,计算公式为:
Figure 540272DEST_PATH_IMAGE010
框内点云占比指标:当包围框不能全部包围住障碍物点云时,会导致一部分障碍物点云在包围框外,将该部分点云的数量记为η i out ,包围框内的点云数量记为η i in ,则框内点云占比PPCI i ob 的计算公式为:
Figure 532499DEST_PATH_IMAGE011
连续平均偏移角指标:为了保证姿态估计中的连续性和稳定性,需考虑过去m帧点云数据中的障碍物偏移角的稳定性,连续平均偏移角CDA i ob 的计算公式为:
Figure 696764DEST_PATH_IMAGE012
其中,
Figure 344914DEST_PATH_IMAGE013
Figure 354459DEST_PATH_IMAGE014
分别表示当前帧与前一帧障碍物与前进方向的偏移角。
S5、搭建基于集成学习的Bagging模型,得到障碍物最优姿态估计方案,具体步骤包括:
如图5所示,基于集成学习的Bagging模型大致可以分为四个关键环节:生成原始训练集、进行Bootstrap重采样、训练三个弱学习器和使用投票法结合策略生成强学习器,具体为:
生成原始训练集:根据每一帧中的任一障碍物,利用步骤S3中的三种全局姿态估计模型得到三种姿态估计结果,再使用步骤S4中三种模型评价指标对三种姿态估计结果进行定量评价,则任一障碍物可得到9个评价指标,将之作为训练样本的特征值,训练样本的目标值为真实的姿态估计模型序号;
进行Bootstrap重采样:从原始训练集中随机进行m次有放回随机采样,得到一个新的采样集;需要说明的是,由于是有放回采样,采样集的样本有重复的可能性,由于采样的随机性,所以生成的采样集是不同的。
训练三个弱学习器:Bootstrap重采样后可得到三个不同的采样集,对三个采样集,分别独立的训练出三个不同的弱学习器;每个弱学习器采用集成神经元模型的全连接神经网络,网络的输入为障碍物的9个评价指标,输出为最佳姿态估计模型序号;
投票法结合策略生成强学习器:当三个弱学习器分别生成各自的输出结果后,使用相对多数投票法确定最终的最佳姿态估计方案。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,具体步骤包括:
S1、对激光雷达输出的激光点云进行预处理,获得道路参与者的聚类结果及其凸包;
S2、简化障碍物的3D包围框,将其映射到二维平面;
S3、基于激光点云实际成像的复杂多样性,建立全局姿态估计模型;
S4、建立模型评价指标,用于对全局姿态估计模型结果进行评估;
S5、搭建基于集成学习的Bagging模型,得到障碍物最优姿态估计方案。
2.根据权利要求1所述一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,所述S1的具体步骤包括:
S11、在保持激光点云原始轮廓信息不变的情况下,使用分辨率为0.1m的体素格对激光点云进行下采样;
将脱离地面的点云进行滤除,并进一步结合高精度地图将道路外的点云进行剔除,减少非道路参与者的干扰;
使用地面滤波算法提取地面以上的点云,并使用聚类算法对道路范围内的点云进行聚类分割,获得聚类结果;
S12、对每一个聚类结果,舍弃三维点云高度属性将其投影到二维平面,其中第i个障碍物用O i 表示;
对二维平面的每一个聚类结果O i 提取其轮廓坐标点集E i ob ,得到障碍物O i 的有序轮廓坐标序列;
然后对轮廓坐标点集E i ob 进行凸包提取,得到能将障碍物O i 包围住的最小凸多边形,将该最小凸多边形作为障碍物O i 的凸包H i ob
3.根据权利要求1所述一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,所述S2的具体步骤包括:
S21、对任一障碍物O i 采用3D包围框来表示其姿态;
S22、对于第i个障碍物,其姿态向量μ i 表示为:μ i =[x 0 i ,y 0 i ,l i i ,h i i ];
其中,(x 0 i ,y 0 i )表示第i个障碍物在二维平面的几何中心坐标,l i 为障碍物的长度,ω i 为障碍物的宽度,h i 为障碍物的高度,θ i 为障碍物与前进方向的夹角;
S23、根据姿态向量μ i 得到障碍物的边界框在二维平面的四个角点,从左上角顺时针的四个角点A i ,B i ,C i ,D i 分别表示为:
Figure DEST_PATH_IMAGE001
Figure 718105DEST_PATH_IMAGE002
根据四个角点坐标能够确定唯一3D包围框在二维平面的位置。
4.根据权利要求1所述一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,所述S3的具体方法为:基于激光点云实际成像的复杂多样性,分别根据翻滚三角形法、最长对角法,以及主成分分析法建立三种全局姿态估计模型。
5.根据权利要求1所述一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,所述S4的具体步骤包括:
根据建立的全局姿态估计模型设置三种模型评价指标,用于对全局姿态估计模型进行评估,其中三种模型评价指标包括平均点云距离指标、框内点云占比指标,以及连续平均偏移角指标;
平均点云距离指标:对于每帧点云数据中的第i个障碍物,其凸包点集中包含n个凸包点H i ob ={g 1 i ,g 2 i ,...,g n i },计算每个凸包点g k i 到包围框中最近一条边的距离d k i ,最后计算第i个障碍物的所有凸包点到最近包围框的平均距离ADD i ob ,计算公式为:
Figure DEST_PATH_IMAGE003
框内点云占比指标:当包围框不能全部包围住障碍物点云时,会导致一部分障碍物点云在包围框外,将该部分点云的数量记为η i out ,包围框内的点云数量记为η i in ,则框内点云占比PPCI i ob 的计算公式为:
Figure 900825DEST_PATH_IMAGE004
连续平均偏移角指标:为了保证姿态估计中的连续性和稳定性,需考虑过去m帧点云数据中的障碍物偏移角的稳定性,连续平均偏移角CDA i ob 的计算公式为:
Figure DEST_PATH_IMAGE005
其中,θ i cur θ i pre 分别表示当前帧与前一帧障碍物与前进方向的偏移角。
6.根据权利要求1所述一种基于激光点云与集成学习的车辆姿态估计方法,其特征在于,所述S5的具体步骤包括:
生成原始训练集:根据每一帧中的任一障碍物,利用多种姿态估计模型得到姿态估计结果,再使用模型评价指标对多个姿态估计结果进行定量评价,则任一障碍物可得到若干个评价指标,将之作为训练样本的特征值,训练样本的目标值为真实的姿态估计模型序号;
进行Bootstrap重采样:从原始训练集中随机进行m次有放回随机采样,得到一个新的采样集;
训练三个弱学习器:Bootstrap重采样后可得到三个不同的采样集,对三个采样集,分别独立的训练出三个不同的弱学习器;每个弱学习器采用集成神经元模型的全连接神经网络,网络的输入为障碍物的若干个评价指标,输出为最佳姿态估计模型序号;
投票法结合策略生成强学习器:当三个弱学习器分别生成各自的输出结果后,使用相对多数投票法确定最终的最佳姿态估计方案。
CN202210563456.3A 2022-05-23 2022-05-23 一种基于激光点云与集成学习的车辆姿态估计方法 Active CN114648585B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210563456.3A CN114648585B (zh) 2022-05-23 2022-05-23 一种基于激光点云与集成学习的车辆姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210563456.3A CN114648585B (zh) 2022-05-23 2022-05-23 一种基于激光点云与集成学习的车辆姿态估计方法

Publications (2)

Publication Number Publication Date
CN114648585A true CN114648585A (zh) 2022-06-21
CN114648585B CN114648585B (zh) 2022-08-16

Family

ID=81996709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210563456.3A Active CN114648585B (zh) 2022-05-23 2022-05-23 一种基于激光点云与集成学习的车辆姿态估计方法

Country Status (1)

Country Link
CN (1) CN114648585B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111273305A (zh) * 2020-02-18 2020-06-12 中国科学院合肥物质科学研究院 基于全局与局部栅格图多传感器融合道路提取与索引方法
US20210166418A1 (en) * 2019-02-23 2021-06-03 Shenzhen Sensetime Technology Co., Ltd. Object posture estimation method and apparatus
CN113536959A (zh) * 2021-06-23 2021-10-22 复旦大学 一种基于立体视觉的动态障碍物检测方法
US20220012466A1 (en) * 2020-07-10 2022-01-13 Ehsan Taghavi Method and system for generating a bird's eye view bounding box associated with an object
WO2022022694A1 (zh) * 2020-07-31 2022-02-03 北京智行者科技有限公司 自动驾驶环境感知方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210166418A1 (en) * 2019-02-23 2021-06-03 Shenzhen Sensetime Technology Co., Ltd. Object posture estimation method and apparatus
CN111273305A (zh) * 2020-02-18 2020-06-12 中国科学院合肥物质科学研究院 基于全局与局部栅格图多传感器融合道路提取与索引方法
US20220012466A1 (en) * 2020-07-10 2022-01-13 Ehsan Taghavi Method and system for generating a bird's eye view bounding box associated with an object
WO2022022694A1 (zh) * 2020-07-31 2022-02-03 北京智行者科技有限公司 自动驾驶环境感知方法及系统
CN113536959A (zh) * 2021-06-23 2021-10-22 复旦大学 一种基于立体视觉的动态障碍物检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG GAO等: "A Dynamic Clustering Algorithm for Lidar Obstacle Detection of Autonomous Driving System", 《IEEE SENSORS JOURNAL》 *
黄如林等: "基于激光雷达的无人驾驶汽车动态障碍物检测、跟踪与识别方法", 《机器人》 *

Also Published As

Publication number Publication date
CN114648585B (zh) 2022-08-16

Similar Documents

Publication Publication Date Title
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN110335337A (zh) 一种基于端到端半监督生成对抗网络的视觉里程计的方法
CN111429514A (zh) 一种融合多帧时序点云的激光雷达3d实时目标检测方法
CN112613378B (zh) 3d目标检测方法、系统、介质及终端
CN111126269A (zh) 三维目标检测方法、装置以及存储介质
CN102136155A (zh) 基于三维激光扫描数据的物体立面矢量化方法和系统
CN111880191B (zh) 基于多智能体激光雷达和视觉信息融合的地图生成方法
CN110363771B (zh) 一种基于三维点云数据的隔离护栏形点提取方法及装置
CN111476242A (zh) 一种激光点云语义分割方法及装置
Cole et al. Using naturally salient regions for SLAM with 3D laser data
CN110569926A (zh) 一种基于局部边缘特征增强的点云分类方法
Zhang et al. Deep learning based object distance measurement method for binocular stereo vision blind area
Tian et al. Lidar super-resolution based on segmentation and geometric analysis
CN107203759A (zh) 一种基于两视图几何的分行递归式道路重构算法
CN112435336B (zh) 一种弯道类型识别方法、装置、电子设备及存储介质
CN114120012A (zh) 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN114648585B (zh) 一种基于激光点云与集成学习的车辆姿态估计方法
CN116543117B (zh) 一种无人机影像的高精度大场景三维建模方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN116883590A (zh) 一种三维人脸点云优化方法、介质及系统
CN116299313A (zh) 一种基于激光雷达的智能车辆可通行区域检测方法
CN113743265B (zh) 一种基于深度相机的自动驾驶可行驶区域检测方法及系统
Prieto et al. DENDT: 3D-NDT scan matching with Differential Evolution
CN115953586A (zh) 跨模态知识蒸馏的方法、系统、电子装置和存储介质
WO2022251088A1 (en) Method and apparatus for modeling an environment proximate an autonomous system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant