CN113792637B - 一种基于激光点云的目标车辆位置速度估计方法 - Google Patents

一种基于激光点云的目标车辆位置速度估计方法 Download PDF

Info

Publication number
CN113792637B
CN113792637B CN202111043066.5A CN202111043066A CN113792637B CN 113792637 B CN113792637 B CN 113792637B CN 202111043066 A CN202111043066 A CN 202111043066A CN 113792637 B CN113792637 B CN 113792637B
Authority
CN
China
Prior art keywords
target vehicle
point cloud
point
layer
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111043066.5A
Other languages
English (en)
Other versions
CN113792637A (zh
Inventor
陈剑
王麒
邓建强
李浩亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202111043066.5A priority Critical patent/CN113792637B/zh
Publication of CN113792637A publication Critical patent/CN113792637A/zh
Application granted granted Critical
Publication of CN113792637B publication Critical patent/CN113792637B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于激光点云的目标车辆位置速度估计方法。以激光雷达所扫描到的原始点云数据作为输入,构建三维目标检测网络对目标车辆的位置和朝向进行估计,构建降阶观测器对目标车辆的速度进行估计;三维目标检测网络,以原始点云作为输入,提取每个点的高级特征,然后将每个点的高级特征送入目标车辆位置回归子网络,经目标车辆位置回归子网络回归处理获得目标车辆的中心位置以及朝向;降阶观测器,使用三维目标检测网络估计的目标车辆的中心位置作为输入,估计获得目标车辆的速度。

Description

一种基于激光点云的目标车辆位置速度估计方法
技术领域
本发明属于计算机视觉和自动化交叉领域的一种车辆参数估计方法,涉及一种目标车辆的速度位置估计方法。
背景技术
无人驾驶车辆需要对交通环境中其他参与者进行检测,从而进一步规划自身行驶轨迹。在规划自身行驶轨迹的过程中,需要目标车辆的信息,例如车辆的位置和速度信息。本方法针对该问题,提出了一种仅使用无人车搭载的激光雷达所扫描到的点云数据就可以对其他车辆的位置和速度进行位置估计的方法。
对于其他车辆位置速度估计方法,一般包括如下2个步骤:对目标车辆的识别与位置估计,估计跟踪的目标车辆的速度。
对于目标车辆的识别与位置估计问题,Yipeng Li等人)Y.Li,Y.Wang,and Y.Xie,“Using consecutive point clouds for pose and motion estimation of tumblingnon-cooperative target,”Advances in Space Research,vol.63,no.5,pp.1576–1587,2019)提出使用最近邻迭代算法来确定目标车辆的位置。随着深度卷积三维目标检测网络技术的发展,Shaoshuai Shi(S.Shi,X.Wang,and H.Li,“PointRCNN:3D object proposalgeneration and detection from point cloud,”in Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,Jun 2019,pp.770–779)提出了使用PointNet++三维目标检测网络来搭建目标检测器,从而能够在点云中识别不同类型的目标车辆。
对于估计跟踪的目标车辆的速度的问题,目前方法普遍使用对其它目标车辆的位置跟踪结果作为输入,使用卡尔曼滤波器或者扩展卡尔曼滤波器进行滤波,从而得到目标车辆的速度。但卡尔曼滤波器和扩展卡尔曼滤波器在内部计算存在矩阵求逆过程,使得这类滤波器在运算速度上较慢,导致速度的估计滞后严重。并且,由于矩阵求逆的过程对于奇异转状态不鲁棒性,所以这类滤波器有可能在某些状态失效。
综上,虽然对于在对其他车辆的位置和速度进行位置估计问题上,已有方法已经取得了一定成果,但仍然存在一些不足:
1)现有方法使用点云数据作为输入,对于目标车辆的识别的位置检测还不够精准,使得最终的位置估计偏差较大。
2)现有方法使用卡尔曼滤波器或者扩展卡尔曼滤波器估计目标车辆的速度,其速度估计带有滞后性。
发明内容
为了解决无人车对于目标车辆的位置速度估计问题,本方法设计了仅使用点云数据的对目标车辆的位置速度估计方法。
本发明采用的技术方案是:
本发明仅使用点云数据就可以对目标车辆的位置和速度进行同时的估计。具体来说,本方法分为两个部分,首先是使用三维目标检测网络估计目标车辆的位置,其次是使用降阶观测器估计目标车辆的速度。
方法以激光雷达所扫描到的原始点云数据作为输入,构建三维目标检测网络对目标车辆的位置和朝向进行估计,构建降阶观测器对目标车辆的速度进行估计。
所述的三维目标检测网络,使用PointNet++网络作为特征提取主干网络,以原始点云作为输入,提取每个点的高级特征,然后将每个点的高级特征送入目标车辆位置回归子网络,经目标车辆位置回归子网络回归处理获得目标车辆的中心位置以及朝向;
所述的降阶观测器,使用三维目标检测网络估计的目标车辆的中心位置作为输入,估计获得目标车辆的速度。
所述的目标车辆位置回归子网络,包括选取属于目标车辆的点和回归目标车辆的位置及朝向的两个步骤;
选取属于目标车辆的点,根据每个点的高级特征,预测每个点是否属于目标车辆的概率值,选取概率值超过预设阈值以上的点作为目标车辆点;
回归目标车辆的位置及朝向,利用目标车辆点及其高级特征作为输入,利用多层感知机回归目标车辆的中心位置和朝向角。
所述的三维目标检测网络结构具体处理为:
1.1将激光雷达扫描到的原始点云及其初始特征P0作为输入,送入包含SA层的特征提取主干网络中提取高级特征,得到特征提取主干网络的输出点云及其高级特征集合;
1.2、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的高级特征为多层感知机的输入,利用共享参数的多层感知机,各个点的多层感知机共享参数,回归获得每个点对应的目标车辆的中心位置[cx,cy];
所述1.2中的多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。
1.3、以上述目标车辆的中心位置[cx,cy]为原点,再使用单个SA层,对原始点云及其初始特征P0中处理提取局部区域特征,获得第五阶输出点云及其局部区域特征集合P5
对特征提取主干网络的输出点云及其高级特征集合P4和第五阶输出点云及其局部区域特征集合P5做连接操作,即将两种点云中每个同一点的高级特征和局部区域特征进行连接获得融合特征,获得第六阶输出点云及其融合特征集合P6
1.4、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,回归获得每个点对应的目标车辆的朝向[co];
所述1.4中的多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。
1.5、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,回归获得每个点对应的目标车辆的置信度S,取置信度S最高的点所回归获得的目标车辆的中心位置和朝向作为三维目标检测网络的结果输出。
所述的特征提取主干网络是由四个SA层依次连接构成,每个SA层均采用PointNet++网络中提出的标准网络结构。
所述降阶观测器的设计如下:
pk=[cx,cy,co]T
其中,pk为以第k帧原始点云作为输入经三维目标检测网络所检测到的目标车辆的位置和朝向向量,上标T表示向量转置;α为常量参数矩阵,βk是第k帧原始点云的辅助向量,为第k帧原始点云的目标车辆的速度,t为激光雷达扫描时间间隔;
第k帧激光雷达所扫描到的原始点云利用三维目标检测网络处理获得目标车辆的位置和朝向向量pk,再通过降阶观测器计算得到第k帧原始点云的辅助向量βk与第k帧原始点云的目标车辆的速度。
本发明特殊构建了上述降阶观测器,上述降阶观测器能够在相邻帧间传递辅助向量,通过传递该辅助变量完成帧间位置速度信息传递,使得降阶观测器对于速度的估计可以依赖多帧历史信息,能够提升速度估计的准确性,同时实现了抑制位置估计误差引起的速度波动。
本发明的有益效果是:
本发明的创新点在于利用PointNet++中SA网络结构搭建目标物体位置朝向估计网络,并设计了降阶观测器用于估计目标物体的速度。本发明的优势在于,仅使用激光雷达这种单一传感器所获取的点云数据,就可以对目标物体的位置和速度这两组状态同时进行估计。本发明所设计的目标物体的位置朝向估计网络以激光雷达扫描的原始点云作为输入,不需要任何的前处理,可以对复杂环境中的目标物体的位置朝向进行估计。本发明设计的降阶观测器形式简单,计算高效,并可以抑制位置估计误差对速度估计的影响,从而使得目标物体的速度估计精确。
附图说明
图1是本发明的方法流程图;
图2是仿真环境示意图;
图3是仿真结果图;
图4是实验环境示意图;
图5是实验结果图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细说明。
本发明实施例如下:
1、对用于估计目标车辆位置的三维目标检测网络,三维目标检测网络结构具体处理为:
1.1将激光雷达扫描到的原始点云及其初始特征P0作为输入,送入包含SA层的特征提取主干网络中提取高级特征,得到特征提取主干网络的输出点云及其高级特征集合P4,即第四阶输出点云及其中所有点的第四阶高级特征组成集合;
具体实施中,使用PointNet++网络来构建特征提取主干网络,其中包含4个依次连接的SA层(SA层为PointNet++中提出的标准网络结构),4个SA层分别表示为
每一个SA层构建所需要的的参数如下表给出:
每个SA层的操作表示如下:
其中,为第i个SA层的操作,Pi-1是第i个SA层的输入点云及其特征,Pi是第i个SA层的输出点云及其特征。
原始点云中每个点的初始特征为每个点的三维坐标,特征提取主干网络中各SA层获得的点云中每个点的特征均为依赖SA层提取的每个点的高级特征。
1.2、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的高级特征为多层感知机的输入,利用共享参数的多层感知机,各个点的多层感知机共享参数,回归获得每个点对应的目标车辆的中心位置[cx,cy],cx,cy分别为目标车辆的中心位置在xy三个坐标轴的分量;
多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,即两个全连接归一模块依次连接构成,每个全连接归一模块均由全连接层、批归一化层、激活层依次连接构成。其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。其中,第一个FC层的通道数为512,第二个FC层的通道数为2。
1.3、以上述目标车辆的中心位置[cx,cy]为原点,再使用单个SA层,对原始点云及其初始特征P0中处理提取局部区域特征,获得第五阶输出点云及其局部区域特征集合P5
具体实施中单个SA层的具体参数如下:
降采样点的数量 64
邻域半径 2.0米
邻域内点的数量 32
多层状态感知机通道数量 1024
单个SA层中的采样点数和特征提取主干网络中的第四个SA层的采样点数相同,单个SA层的输出第五阶输出点云及其局部区域特征集合P5包含点的数量和特征提取主干网络的输出点云及其高级特征集合P4相同。
对特征提取主干网络的输出点云及其高级特征集合P4和第五阶输出点云及其局部区域特征集合P5做连接操作concatenate,即将两种点云中每个同一点的第四阶高级特征和局部区域特征进行连接获得融合特征,获得第六阶输出点云及其融合特征集合P6
根据做连接操作concatenate的操作性质,第六阶输出点云及其融合特征集合P6中包含的点的总数量与特征提取主干网络的输出点云及其高级特征集合P4、第五阶输出点云及其局部区域特征集合P5中包含的点的总数量均相同。
具体实施通过事先设定点云中点的序号对各个点云之间的点进行对应,实现连接操作。
1.4、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,即各个点的多层感知机共享参数,回归获得每个点对应的目标车辆的朝向[co];
多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,即两个全连接归一模块依次连接构成,每个全连接归一模块均由全连接层、批归一化层、激活层依次连接构成。其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。其中,第一个FC层的通道数为512,第二个FC层的通道数为1。
1.5、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,即各个点的多层感知机共享参数,回归获得每个点对应的目标车辆的置信度S,取置信度S最高的点所回归获得的目标车辆的中心位置和朝向作为三维目标检测网络的结果输出。
上述1.3-1.5构成了目标车辆位置回归子网络。
2、三维目标检测网络的训练和待测处理过程:
2.1训练过程:
使用KITTI数据集中的训练集对三维目标检测网络进行训练。训练过程的损失函数按照3DSSD中的损失函数进行设计。优化器使用SGD优化器,学习率设置为0.001进行mini-batch训练,mini-batch设置为4。通过迭代训练32000次,保存训练过程中损失最小的网络参数权重。
2.2、待测过程:将每一帧点云作为输入,送入已经训练好的三维目标检测网络估计目标车辆的位置[cx,cy,cz]和朝向信息[co]。
3、建立降阶观测器,以三维目标检测网络对目标车辆的位置和朝向结果作为输入,输出目标车辆的速度估计。
降阶观测器的设计如下:
pk=[cx,cy,co]T
其中,pk为以第k帧原始点云作为输入经三维目标检测网络所检测到的目标车辆的位置和朝向向量,上标T表示向量转置;α为常量参数矩阵,βk是第k帧原始点云的辅助向量,为第k帧原始点云的目标车辆的速度,t为激光雷达扫描时间间隔;
如图1所示,第1帧激光雷达所扫描到的原始点云利用三维目标检测网络处理获得目标车辆的位置和朝向向量p1,通过降阶观测器获得计算得到β1其他时刻的每一帧以此类推,假设当前时刻的帧序数为k,并且已知第k-1帧的目标车辆的速度/>和辅助向量βk-1,此时接收到第k帧激光雷达所扫描到的原始点云利用三维目标检测网络处理获得目标车辆的位置和朝向向量pk,再通过降阶观测器计算得到第k帧原始点云的辅助向量βk与第k帧原始点云的目标车辆的速度/>从而获得第k时刻的目标车辆速度/>
具体实施中,车载激光雷达扫描频率为10Hz,所以t设置为0.1s,α设置为t和α在运算过程中为常量,不会改变。
第0帧原始点云的辅助向量β0和第0帧原始点云的目标车辆的速度的初始值均为[5,5,5]T,初值的选取不影响速度估计的收敛性。
具体实施情况如下:
1、在Matlab中进行仿真验证本发明中提出的方法。使用Simulink中的AutomatedDriving Toolbox搭建仿真环境,其中仿真场景为该Toolbox提供的“USCityBlock”场景,场景样例为图2左图所示。
在场景中设置搭载激光雷达的无人车后车,以及目标物体前车,样例如图2左图所示。无人车所搭载的激光雷达所扫描的到的点云如图2中图所示。无人车与目标物体的路径设置为图2右图所示,两车的行驶状态包括对向行驶、十字路口相遇、双移线工况跟车、十字路口跟车和直线跟车。利用本专利提出方法,以无人车所搭载的激光雷达所扫描到的点云作为输入,可以对目标物体车辆的速度以及位置进行估计。
估计结果如图3所示,目标物体中心位置真值和目标物体速度真值由Matlab的仿真环境提供,目标物体中心位置估计值和目标物体速度估计值为本方法输出。可以看到,本方法可以准确的估计目标物体车辆的位置和速度。
2、在实际环境中进行仿真验证本发明中提出的方法。在校园场景中设置搭载激光雷达的无人观光车,周围动态目标车辆为一辆SUV,如图4所示。图中实线示意无人车的行驶路径,虚线示意目标车辆SUV的行驶路径。
利用两辆车上搭载的高精度的组合惯导系统可以获取SUV的真实位置和速度作为真值,如图5中蓝线。使用无人观光车上搭载的激光雷达扫描的点云数据作为输入,利用本专利中的方法,可以对SUV的速度进行估计,为图5中红线。可以看到,本方法可以准确的估计目标车辆SUV的位置和速度。

Claims (7)

1.一种基于激光点云的目标车辆位置速度估计方法,其特征在于:方法以激光雷达所扫描到的原始点云数据作为输入,构建三维目标检测网络对目标车辆的位置和朝向进行估计,构建降阶观测器对目标车辆的速度进行估计;
所述的三维目标检测网络结构具体处理为:
1.1将激光雷达扫描到的原始点云及其初始特征P0作为输入,送入包含SA层的特征提取主干网络中提取高级特征,得到特征提取主干网络的输出点云及其高级特征集合;
1.2、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的高级特征为多层感知机的输入,利用共享参数的多层感知机,各个点的多层感知机共享参数,回归获得每个点对应的目标车辆的中心位置[cx,cy];
1.3、以上述目标车辆的中心位置[cx,cy]为原点,再使用单个SA层,对原始点云及其初始特征P0中处理提取局部区域特征,获得第五阶输出点云及其局部区域特征集合P5
对特征提取主干网络的输出点云及其高级特征集合P4和第五阶输出点云及其局部区域特征集合P5做连接操作,即将两种点云中每个同一点的高级特征和局部区域特征进行连接获得融合特征,获得第六阶输出点云及其融合特征集合P6
1.4、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,回归获得每个点对应的目标车辆的朝向[co];
1.5、对于特征提取主干网络的输出点云及其高级特征集合P4中的每个点,以每个点的融合特征为多层感知机的输入,利用共享参数的多层感知机,回归获得每个点对应的目标车辆的置信度S,取置信度S最高的点所回归获得的目标车辆的中心位置和朝向作为三维目标检测网络的结果输出。
2.根据权利要求1所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述的三维目标检测网络,使用PointNet++网络作为特征提取主干网络,以原始点云作为输入,提取每个点的高级特征,然后将每个点的高级特征送入目标车辆位置回归子网络,经目标车辆位置回归子网络回归处理获得目标车辆的中心位置以及朝向;
所述的降阶观测器,使用三维目标检测网络估计的目标车辆的中心位置作为输入,估计获得目标车辆的速度。
3.根据权利要求2所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述的目标车辆位置回归子网络,包括选取属于目标车辆的点和回归目标车辆的位置及朝向的两个步骤;
选取属于目标车辆的点,根据每个点的高级特征,预测每个点是否属于目标车辆的概率值,选取概率值超过预设阈值以上的点作为目标车辆点;
回归目标车辆的位置及朝向,利用目标车辆点及其高级特征作为输入,利用多层感知机回归目标车辆的中心位置和朝向角。
4.根据权利要求1所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述的特征提取主干网络是由四个SA层依次连接构成,每个SA层均采用PointNet++网络中提出的标准网络结构。
5.根据权利要求1或2所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述降阶观测器的设计如下:
pk=[cx,cy,co]T
其中,pk为以第k帧原始点云作为输入经三维目标检测网络所检测到的目标车辆的位置和朝向向量,上标T表示向量转置;α为常量参数矩阵,βk是第k帧原始点云的辅助向量,为第k帧原始点云的目标车辆的速度,t为激光雷达扫描时间间隔;
第k帧激光雷达所扫描到的原始点云利用三维目标检测网络处理获得目标车辆的位置和朝向向量pk,再通过降阶观测器计算得到第k帧原始点云的辅助向量βk与第k帧原始点云的目标车辆的速度。
6.根据权利要求1所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述1.2中的多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。
7.根据权利要求1所述的一种基于激光点云的目标车辆位置速度估计方法,其特征在于:所述1.4中的多层感知机的构成表示为:FC+BN+ReLU+FC+BN+ReLU,其中,FC代表全连接层,BN代表批归一化层,ReLU代表以ReLU函数为激活函数的激活层。
CN202111043066.5A 2021-09-07 2021-09-07 一种基于激光点云的目标车辆位置速度估计方法 Active CN113792637B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111043066.5A CN113792637B (zh) 2021-09-07 2021-09-07 一种基于激光点云的目标车辆位置速度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111043066.5A CN113792637B (zh) 2021-09-07 2021-09-07 一种基于激光点云的目标车辆位置速度估计方法

Publications (2)

Publication Number Publication Date
CN113792637A CN113792637A (zh) 2021-12-14
CN113792637B true CN113792637B (zh) 2023-10-03

Family

ID=78879692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111043066.5A Active CN113792637B (zh) 2021-09-07 2021-09-07 一种基于激光点云的目标车辆位置速度估计方法

Country Status (1)

Country Link
CN (1) CN113792637B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110467111A (zh) * 2018-05-11 2019-11-19 Abb瑞士股份有限公司 桥式起重机的控制
CN113050122A (zh) * 2021-03-24 2021-06-29 的卢技术有限公司 一种基于卷积神经网络感知动态障碍物速度的方法及系统
KR20210106703A (ko) * 2020-02-21 2021-08-31 전남대학교산학협력단 3차원 공간의 의미적 분할 시스템 및 이를 이용한 3차원 공간의 의미적 분할 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520037B2 (en) * 2019-09-30 2022-12-06 Zoox, Inc. Perception system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110467111A (zh) * 2018-05-11 2019-11-19 Abb瑞士股份有限公司 桥式起重机的控制
KR20210106703A (ko) * 2020-02-21 2021-08-31 전남대학교산학협력단 3차원 공간의 의미적 분할 시스템 및 이를 이용한 3차원 공간의 의미적 분할 방법
CN113050122A (zh) * 2021-03-24 2021-06-29 的卢技术有限公司 一种基于卷积神经网络感知动态障碍物速度的方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
3D-CenterNet: 3D object detection network for point clouds with center estimation priority;Qi Wang et.al;《Pattern Recognition》;第3-6页 *
Dual-Branch CNNs for Vehicle Detection and Tracking on LiDAR Data;Alberto Sanfeliu et.al;《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》;第6942-6950页 *
Reduced-Order Observer Based Sliding Mode Control for a Quad-Rotor Helicopter;Reesa Akbar et.al;《Journal of Robotics and Mechatronics》;28(3);第304-307页 *
Simultaneous Pose Estimation and Velocity Estimation of an Ego Vehicle and Moving Obstacles Using LiDAR Information Only;Qi Wang et.al;《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》;第12121-12132页 *

Also Published As

Publication number Publication date
CN113792637A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN114384920B (zh) 一种基于局部栅格地图实时构建的动态避障方法
CN113516664B (zh) 一种基于语义分割动态点的视觉slam方法
CN111932616B (zh) 一种利用并行计算加速的双目视觉惯性里程计方法
CN111028285A (zh) 基于双目视觉和激光雷达融合的深度估计方法
CN115032651A (zh) 一种基于激光雷达与机器视觉融合的目标检测方法
CN107025657A (zh) 一种基于视频图像的车辆行为轨迹检测方法
CN108320051B (zh) 一种基于gru网络模型的移动机器人动态避碰规划方法
CN109901108A (zh) 一种基于后验线性化置信传播的编队无人机协同定位方法
WO2020221050A1 (zh) 基于时空域联合处理的集中式协作定位系统和方法
CN114137562B (zh) 一种基于改进全局最邻近的多目标跟踪方法
CN115754954A (zh) 一种应用于雷达与ais航迹关联的特征融合方法
CN114092778A (zh) 基于表征学习的雷达摄像头数据融合系统及方法
CN113792637B (zh) 一种基于激光点云的目标车辆位置速度估计方法
CN113554705A (zh) 一种变化场景下的激光雷达鲁棒定位方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN117130370A (zh) 一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法
CN112268564A (zh) 一种无人机降落空间位置和姿态端到端估计方法
Zhang et al. Depth Monocular Estimation with Attention-based Encoder-Decoder Network from Single Image
Kadam et al. GreenPCO: An unsupervised lightweight point cloud odometry method
CN116339336A (zh) 电动农机集群协同作业方法、装置及系统
CN114638858B (zh) 一种基于车载双相机系统的运动目标位置与速度估计方法
CN112257750B (zh) 一种面向复合式探测节点的分布式融合系统
CA3122868A1 (en) Method and system for generating an environment model for positioning
CN115482282A (zh) 自动驾驶场景下具有多目标追踪能力的动态slam方法
CN112747752B (zh) 基于激光里程计的车辆定位方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant