CN114155720B - 一种路侧激光雷达的车辆检测和轨迹预测方法 - Google Patents

一种路侧激光雷达的车辆检测和轨迹预测方法 Download PDF

Info

Publication number
CN114155720B
CN114155720B CN202111428653.6A CN202111428653A CN114155720B CN 114155720 B CN114155720 B CN 114155720B CN 202111428653 A CN202111428653 A CN 202111428653A CN 114155720 B CN114155720 B CN 114155720B
Authority
CN
China
Prior art keywords
background
point cloud
neural network
target
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111428653.6A
Other languages
English (en)
Other versions
CN114155720A (zh
Inventor
王亚飞
周志松
张智骋
陈炜邦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202111428653.6A priority Critical patent/CN114155720B/zh
Publication of CN114155720A publication Critical patent/CN114155720A/zh
Application granted granted Critical
Publication of CN114155720B publication Critical patent/CN114155720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明涉及一种路侧激光雷达的车辆检测和轨迹预测方法,该方法包括:步骤1:建立车辆检测和轨迹预测的多任务深度神经网络模型;步骤2:基于公开数据集对多任务深度神经网络模型进行预训练;步骤3:采用基于体素化处理的背景滤波法对点云进行背景滤波;步骤4:基于自建路侧端数据集进行多任务深度神经网络模型的迁移训练;步骤5:部署多任务深度神经网络模型,进行车辆的检测、跟踪和轨迹预测,与现有技术相比,本发明具有提升检测模型的准确率和轨迹预测的准确率等优点。

Description

一种路侧激光雷达的车辆检测和轨迹预测方法
技术领域
本发明涉及目标检测技术领域,尤其是涉及一种路侧激光雷达的车辆检测和轨迹预测方法。
背景技术
近年来,随着汽车保有量的增加,交通拥堵问题,交通中的安全问题越来越突显,为了提高通行效率,增加安全性,并将驾驶员从疲劳的驾驶工作中解放出来,自动驾驶进入了大众的视野。车路协同是自动驾驶的重要分支之一,而路侧端感知需要通过在路侧端安装的传感器准确感知周围环境和环境内的交通参与者,以分担车端感知的压力,提供信息冗余,是车路协同的核心。
自动驾驶环境感知中常用的传感器有RGB相机,激光雷达和毫米波雷达等,RGB相机成本低廉,较易布设于路侧,数据分辨率高,特征丰富等优势,但受光照条件影响较大,夜间几乎无法正常使用;毫米波雷达成本较低,不受光照条件和天气条件影响,但分辨率很低;激光雷达具有不易受光照条件影响,日夜都能工作,精度高,分辨率较高的特点,但易受雨雾雪等恶劣环境的影响。
现有的基于激光雷达的路侧端感知技术方案通过在路侧布设激光雷达,对交通参与者进行类别的识别和边界框的检测,如《路侧激光雷达目标检测方法及装置》中首先通过栅格化处理对点云进行背景滤波,然后将经过滤波的点云输入检测模型得到目标的类别信息和边界框结果,其中栅格化的背景滤波方式容易造成漏删和误删的问题,因为点云是三维的数据点而栅格为二维矩形区域,若同一个栅格内同时存在背景点与非背景点,如交通标识牌下方驶过的车辆,这种方法容易造成车辆点云被误删或交通标识牌的漏删,另外,上述方法只能得到类别信息和边界框信息,无法获取目标的运动状态,也没有对目标进行跟踪,也没有对目标进行轨迹预测,而这些都是智能驾驶中非常重要的信息。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种路侧激光雷达的车辆检测和轨迹预测方法。
本发明的目的可以通过以下技术方案来实现:
一种路侧激光雷达的车辆检测和轨迹预测方法,该方法包括以下步骤:
步骤1:建立车辆检测和轨迹预测的多任务深度神经网络模型;
步骤2:基于公开数据集对多任务深度神经网络模型进行预训练;
步骤3:采用基于体素化处理的背景滤波法对点云进行背景滤波;
步骤4:基于自建路侧端数据集进行多任务深度神经网络模型的迁移训练;
步骤5:部署多任务深度神经网络模型,进行车辆的检测、跟踪和轨迹预测。
所述的步骤1中,多任务深度神经网络模型采用深度神经网络对车辆进行检测和轨迹预测,基于深度神经网络的多任务深度神经网络模型的结构具体为:
体素化层:对输入点云序列进行体素化,得到体素化的点云序列;
卷积层:对体素化后的点云序列连续使用两次2D卷积和3D卷积,得到将点云序列融合后的特征图;
网络主干层:采用网络主干对特征图提取更深层的特征,得到多尺度特征图;
输出分支层:包括两个输出分支,分别为目标检测分支和目标轨迹预测分支通过两个分支分别输出目标检测结果和目标预测轨迹。
所述的目标检测分支的输出表达式为:
(x,y,w,l,yaw,conf)
其中,(x,y)为车辆目标在地面坐标系下的坐标值,w为车辆目标的宽度,l为车辆目标的长度,yaw为车辆目标在地面坐标系下的朝向角,conf为车辆目标的置信度。
所述的目标轨迹预测分支的输出表达式为:
(dxi,dyi,dθi),i=1…30
其中,i表示时间段为(i-1)/10秒至i/10秒,dxi和dyi分别为在(i-1)/10秒至i/10秒时间段内目标在地面坐标系的x方向上发生的位移预测量和y方向上发生的位移预测量,dθi为在(i-1)/10秒至i/10秒时间段内目标在地面坐标系下发生的朝向角预测量。
所述的目标检测结果包括检测边界框、检测的位置、检测的朝向角和检测的尺寸,所述的目标预测轨迹包括预测边界框、预测的位置、预测的朝向角和预测的尺寸。
所述的步骤2中,对多任务深度神经网络模型进行预训练的过程具体包括以下哪些步骤:
步骤201:对用以训练的公开数据集中的点云进行预处理,根据公开数据集中的地图信息剔除点云中的地面点和不可行驶区域内的点云;
步骤202:公开数据集中两帧点云的时间间隔为0.1秒,每隔0.2秒抽取0.5秒的片段数据,即连续5帧的点云,将片段数据通过公开数据集中的车姿信息统一到最后一帧的坐标系下;
步骤203:将经过预处理后且坐标系统一后的点云输入多任务深度神经网络模型进行预训练;
步骤204:预训练的训练目标为点云中的车辆的位置、尺寸、朝向角和未来轨迹。
所述的公开数据集具体为:
具有连续帧车辆标注且每一帧都带有车姿信息的激光雷达数据集,所述的公开数据集包括Argoverse数据集。
所述的步骤3中,基于体素采用背景滤波法对点云进行背景滤波的过程具体包括以下步骤:
步骤301:通过路侧激光雷达采集点云,得到一段无动态物体的点云序列;
步骤302:对采集到的点云序列进行体素化,将所有体素中出现过点云的体素标记为背景体素,其余标记为非背景体素,得到体素化后的背景帧;
步骤303:对背景帧进行实时背景滤除,判断点云是否落在背景帧中的背景体素上,若是,则为背景点,直接剔除,得到滤除背景点后的点云序列;
步骤304:对滤除背景点后的点云序列进行半径滤波,进一步剔除点云序列的噪声点。
所述的步骤4中,进行多任务深度神经网络模型的迁移训练的过程具体包括以下步骤:
步骤401:通过路侧激光雷达采集路端真实数据;
步骤402:对路端真实数据采用步骤3的背景滤波法剔除背景点后再输入多任务深度神经网络模型生成检测结果;
步骤403:对生成的检测结果进行人工筛选,得到自建路侧端数据集;
步骤404:采用步骤3的背景滤波法对自建路侧端数据集剔除背景点;
步骤405:将多任务深度神经网络模型在剔除背景点后的自建路侧数据集上进行迁移训练;
步骤406:迁移训练的训练目标为点云中的车辆的位置尺寸和朝向。
所述的步骤5中,进行车辆的检测、跟踪和轨迹预测的过程具体包括以下步骤:
步骤501:对路侧激光雷达采集到的点云用背景滤波法进行实时背景点云的滤除;
步骤502:将当前帧的背景滤波后的点云和过去0.5秒内的另外4帧经过背景滤波的点云一起输入至经过迁移训练后的多任务深度神经网络模型中,得到目标检测结果和轨迹预测结果;
步骤503:将上一帧所有目标的预测边界框与当前帧所有目标的检测边界框进行一一匹配,完成对所有目标的跟踪,得到目标检测跟踪结果;
步骤504:通过路侧通讯设备对目标检测跟踪结果和轨迹预测结果进行广播。
与现有技术相比,本发明具有以下优点:
1、本发明提出的体素化背景滤波法能够更加准确地对路侧端激光雷达点云中的背景点进行滤除。
2、通过安装在路侧端的激光雷达对汽车进行实时检测,跟踪和轨迹预测,能够得到目标车辆的边界框,速度和未来运动轨迹。
3、本发明提出通过模型迁移训练的方法提升检测模型的准确率和轨迹预测的准确率。
附图说明
图1为本发明流程示意图。
图2为本发明基于公开数据集的预训练结果示意图。
图3为路侧激光雷达安装位置示意图。
图4为本发明同时实现对车辆的检测、跟踪和轨迹预测的俯视图。
图5为车辆跟踪轨迹图。
图6为本发明的多任务深度神经网络模型结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
实施例
本发明提供了一种路侧激光雷达的车辆检测和轨迹预测方法,该方法包括以下步骤:
步骤1:建立车辆检测和轨迹预测的多任务深度神经网络模型;
步骤2:基于公开数据集对多任务深度神经网络模型进行预训练;
步骤3:采用基于体素化处理的背景滤波法对点云进行背景滤波;
步骤4:基于自建路侧端数据集进行多任务深度神经网络模型的迁移训练;
步骤5:部署多任务深度神经网络模型,进行车辆的检测、跟踪和轨迹预测。
如图6所示,本发明所使用的多任务深度神经网络模型采用深度神经网络能够对车辆进行检测和轨迹预测,多任务深度神经网络模型的结构具体为:
体素化层:对输入点云序列进行体素化,得到体素化的点云序列;
卷积层:对体素化后的点云序列连续使用两次2D卷积和3D卷积,得到将点云序列融合后的特征图;
网络主干层:采用网络主干对特征图提取更深层的特征,得到多尺度特征图;
输出分支层:包括两个输出分支,分别为目标检测分支和目标轨迹预测分支通过两个分支分别输出目标检测结果和目标的预测轨迹。
目标检测结果包括检测边界框、检测的位置、检测的朝向角和检测的尺寸,目标的预测轨迹包括未来3秒内每个时刻的预测边界框、预测的位置、预测的朝向角和预测的尺寸。
步骤2中,在Argoverse数据集上对多任务深度神经网络模型进行模型预训练:
步骤201:对用以训练的Argoverse数据集中的点云进行预处理,根据Argoverse数据集中的地图信息剔除点云中的地面点,再根据Argoverse数据集中的地图信息剔除不可行驶区域内的点云;
步骤202:Argoverse数据集中两帧点云的时间间隔为0.1秒,需要每隔0.2秒抽取0.5秒的片段数据,即连续5帧的点云,将片段数据通过Argoverse数据集中的车姿信息统一到最后一帧点云的坐标系下;
步骤203:将经过预处理后且坐标系统一后的点云输入多任务深度神经网络模型进行预训练;
步骤204:预训练的训练目标为点云中的车辆的位置、尺寸、朝向角和未来轨迹。
如图2所示的多任务深度神经网络模型基于公开数据集的预训练结果,该图为预训练结果的俯视图,细点为叠加了5帧的激光雷达点云,框为车辆的检测边界框,粗点为车辆轨迹预测结果。
在步骤3中,基于体素的点云背景滤波的过程具体为:
步骤301:通过路侧激光雷达采集点云,得到一段无动态物体的点云序列;
步骤302:对采集到的点云序列进行体素化,体素边长为0.2米,也可以按实际情况和需求进行调整,将所有体素中出现过点云的体素标记为背景体素,其余标记为非背景体素,得到体素化后的背景帧;
步骤303:对背景帧进行实时背景滤除,判断点云是否落在背景帧中的背景体素上,若是,则为背景点,直接剔除,得到滤除背景点后的点云序列;
步骤304:对滤除背景点后的点云序列进行半径滤波,进一步剔除点云序列的噪声点。
在步骤4中,进行多任务深度神经网络模型的模型迁移训练的过程具体包括以下步骤:
步骤401:通过路侧激光雷达采集路端真实数据;
步骤402:对路端真实数据采用步骤3的背景滤波法剔除背景点后再输入多任务深度神经网络模型生成检测结果;
步骤403:对生成的检测结果进行人工筛选,得到自建路侧端数据集;
步骤404:采用步骤3的背景滤波法对自建路侧端数据集剔除背景点;
步骤405:将多任务深度神经网络模型在剔除背景点后的自建路侧数据集上进行迁移训练;
步骤406:迁移训练的训练目标为点云中的车辆的位置尺寸和朝向。
在步骤5中,将步骤4中迁移训练后得到的多任务深度神经网络模型部署在路侧端,对交通流中的车辆进行实时感知:
步骤501:对路侧激光雷达采集到的点云用背景滤波法进行实时背景点云的滤除;
步骤502:将当前帧的背景滤波后的点云和过去0.5秒内的另外4帧经过背景滤波的点云一起输入至经过迁移训练后的多任务深度神经网络模型中,得到目标检测结果和轨迹预测结果;
步骤503:将上一帧所有目标的预测边界框与这一帧所有目标的检测边界框进行一一匹配,完成对所有目标的跟踪,得到目标检测跟踪结果;
步骤504:通过路侧通讯设备对目标检测跟踪结果和轨迹预测结果进行广播。
通过体素化处理的方式对激光雷达采集到的点云进行实时背景滤波。
采用深度学习的方法对检测到的车辆进行边界框的检测以及轨迹预测,边界框中心点、长宽和朝向角分别为目标车辆在地面坐标系x-y平面中的中心点的位置、车辆的长宽和车辆的朝向角,轨迹预测即预测检测到的汽车在未来3秒内运动的轨迹。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (1)

1.一种路侧激光雷达的车辆检测和轨迹预测方法,其特征在于,该方法包括以下步骤:
步骤1:建立车辆检测和轨迹预测的多任务深度神经网络模型;
步骤2:基于公开数据集对多任务深度神经网络模型进行预训练;
步骤3:采用基于体素化处理的背景滤波法对点云进行背景滤波;
步骤4:基于自建路侧端数据集进行多任务深度神经网络模型的迁移训练;
步骤5:部署多任务深度神经网络模型,进行车辆的检测、跟踪和轨迹预测;
所述的步骤1中,多任务深度神经网络模型采用深度神经网络对车辆进行检测和轨迹预测,基于深度神经网络的多任务深度神经网络模型的结构具体为:
体素化层:对输入点云序列进行体素化,得到体素化的点云序列;
卷积层:对体素化后的点云序列连续使用两次2D卷积和3D卷积,得到将点云序列融合后的特征图;
网络主干层:采用网络主干对特征图提取更深层的特征,得到多尺度特征图;
输出分支层:包括两个输出分支,分别为目标检测分支和目标轨迹预测分支通过两个分支分别输出目标检测结果和目标预测轨迹;
所述的目标检测分支的输出表达式为:
(x,y,w,l,yaw,conf)
其中,(x,y)为车辆目标在地面坐标系下的坐标值,w为车辆目标的宽度,l为车辆目标的长度,yaw为车辆目标在地面坐标系下的朝向角,conf为车辆目标的置信度;
所述的目标轨迹预测分支的输出表达式为:
(dxi,dyi,dθi),i=1L 30
其中,i表示时间段为(i-1)/10秒至i/10秒,dxi和dyi分别为在(i-1)/10秒至i/10秒时间段内目标在地面坐标系的x方向上发生的位移预测量和y方向上发生的位移预测量,dθi为在(i-1)/10秒至i/10秒时间段内目标在地面坐标系下发生的朝向角预测量;
所述的目标检测结果包括检测边界框、检测的位置、检测的朝向角和检测的尺寸,所述的目标预测轨迹包括预测边界框、预测的位置、预测的朝向角和预测的尺寸;
所述的步骤2中,对多任务深度神经网络模型进行预训练的过程具体包括以下哪些步骤:
步骤201:对用以训练的公开数据集中的点云进行预处理,根据公开数据集中的地图信息剔除点云中的地面点和不可行驶区域内的点云;
步骤202:公开数据集中两帧点云的时间间隔为0.1秒,每隔0.2秒抽取0.5秒的片段数据,即连续5帧的点云,将片段数据通过公开数据集中的车姿信息统一到最后一帧的坐标系下;
步骤203:将经过预处理后且坐标系统一后的点云输入多任务深度神经网络模型进行预训练;
步骤204:预训练的训练目标为点云中的车辆的位置、尺寸、朝向角和未来轨迹;
所述的公开数据集具体为:
具有连续帧车辆标注且每一帧都带有车姿信息的激光雷达数据集,所述的公开数据集包括Argoverse数据集;
所述的步骤3中,基于体素采用背景滤波法对点云进行背景滤波的过程具体包括以下步骤:
步骤301:通过路侧激光雷达采集点云,得到一段无动态物体的点云序列;
步骤302:对采集到的点云序列进行体素化,将所有体素中出现过点云的体素标记为背景体素,其余标记为非背景体素,得到体素化后的背景帧;
步骤303:对背景帧进行实时背景滤除,判断点云是否落在背景帧中的背景体素上,若是,则为背景点,直接剔除,得到滤除背景点后的点云序列;
步骤304:对滤除背景点后的点云序列进行半径滤波,进一步剔除点云序列的噪声点;
所述的步骤4中,进行多任务深度神经网络模型的迁移训练的过程具体包括以下步骤:
步骤401:通过路侧激光雷达采集路端真实数据;
步骤402:对路端真实数据采用步骤3的背景滤波法剔除背景点后再输入多任务深度神经网络模型生成检测结果;
步骤403:对生成的检测结果进行人工筛选,得到自建路侧端数据集;
步骤404:采用步骤3的背景滤波法对自建路侧端数据集剔除背景点;
步骤405:将多任务深度神经网络模型在剔除背景点后的自建路侧数据集上进行迁移训练;
步骤406:迁移训练的训练目标为点云中的车辆的位置尺寸和朝向;
所述的步骤5中,进行车辆的检测、跟踪和轨迹预测的过程具体包括以下步骤:
步骤501:对路侧激光雷达采集到的点云用背景滤波法进行实时背景点云的滤除;
步骤502:将当前帧的背景滤波后的点云和过去0.5秒内的另外4帧经过背景滤波的点云一起输入至经过迁移训练后的多任务深度神经网络模型中,得到目标检测结果和轨迹预测结果;
步骤503:将上一帧所有目标的预测边界框与当前帧所有目标的检测边界框进行一一匹配,完成对所有目标的跟踪,得到目标检测跟踪结果;
步骤504:通过路侧通讯设备对目标检测跟踪结果和轨迹预测结果进行广播。
CN202111428653.6A 2021-11-29 2021-11-29 一种路侧激光雷达的车辆检测和轨迹预测方法 Active CN114155720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111428653.6A CN114155720B (zh) 2021-11-29 2021-11-29 一种路侧激光雷达的车辆检测和轨迹预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111428653.6A CN114155720B (zh) 2021-11-29 2021-11-29 一种路侧激光雷达的车辆检测和轨迹预测方法

Publications (2)

Publication Number Publication Date
CN114155720A CN114155720A (zh) 2022-03-08
CN114155720B true CN114155720B (zh) 2022-12-13

Family

ID=80784208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111428653.6A Active CN114155720B (zh) 2021-11-29 2021-11-29 一种路侧激光雷达的车辆检测和轨迹预测方法

Country Status (1)

Country Link
CN (1) CN114155720B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114812435B (zh) * 2022-04-29 2023-10-20 苏州思卡信息系统有限公司 一种车辆三维点云数据滤波方法
CN116777947B (zh) * 2023-06-21 2024-02-13 上海汉朔信息科技有限公司 一种用户轨迹识别预测方法、装置及电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246159B (zh) * 2019-06-14 2023-03-28 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN110675431B (zh) * 2019-10-08 2020-09-11 中国人民解放军军事科学院国防科技创新研究院 一种融合图像和激光点云的三维多目标跟踪方法
WO2021072696A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 目标检测与跟踪方法、系统、可移动平台、相机及介质
EP4052190A4 (en) * 2019-11-15 2023-12-06 Waymo Llc SPACE-TIME-INTERACTIVE NETWORKS
CN112651557A (zh) * 2020-12-25 2021-04-13 际络科技(上海)有限公司 轨迹预测系统及方法、电子设备及可读存储介质
CN113592905B (zh) * 2021-07-12 2023-07-07 北京航空航天大学 基于单目摄像头的车辆行驶轨迹预测方法

Also Published As

Publication number Publication date
CN114155720A (zh) 2022-03-08

Similar Documents

Publication Publication Date Title
CN113313154A (zh) 一体化融合多传感器自动驾驶智能感知装置
Gargoum et al. Automated highway sign extraction using lidar data
CN105892471A (zh) 汽车自动驾驶方法和装置
CN114155720B (zh) 一种路侧激光雷达的车辆检测和轨迹预测方法
CN110705543A (zh) 基于激光点云进行车道线识别的方法和系统
CN110738121A (zh) 一种前方车辆检测方法及检测系统
CN106199558A (zh) 障碍物快速检测方法
CN108717540B (zh) 基于2d激光雷达区分行人和车辆的方法及装置
CN111179300A (zh) 障碍物检测的方法、装置、系统、设备以及存储介质
CN112487905B (zh) 一种车辆周边行人危险等级预测方法及系统
CN110298311B (zh) 路面积水检测方法及装置
CN112379674B (zh) 一种自动驾驶设备及系统
CN114898296A (zh) 基于毫米波雷达与视觉融合的公交车道占用检测方法
CN112487907B (zh) 一种基于图分类的危险场景识别方法及系统
CN115187964A (zh) 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN114821526A (zh) 基于4d毫米波雷达点云的障碍物三维边框检测方法
CN109977908B (zh) 一种基于深度学习的车辆行车车道检测方法
JP2024019629A (ja) 予測装置、予測方法、プログラムおよび車両制御システム
CN114842660B (zh) 一种无人车道路轨迹预测方法、装置和电子设备
CN115965847A (zh) 交叉视角下多模态特征融合的三维目标检测方法和系统
Beresnev et al. Automated Driving System based on Roadway and Traffic Conditions Monitoring.
CN114677658A (zh) 十亿像素动态大场景图像采集和多目标检测方法及装置
CN114898319A (zh) 基于多传感器决策级信息融合的车型识别方法及系统
CN114299715A (zh) 一种基于视频、激光雷达与dsrc的高速公路信息检测系统
CN115985109B (zh) 一种无人驾驶矿车环境感知方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant