CN114818916A - 一种基于毫米波雷达多帧点云序列的道路目标分类方法 - Google Patents
一种基于毫米波雷达多帧点云序列的道路目标分类方法 Download PDFInfo
- Publication number
- CN114818916A CN114818916A CN202210437952.4A CN202210437952A CN114818916A CN 114818916 A CN114818916 A CN 114818916A CN 202210437952 A CN202210437952 A CN 202210437952A CN 114818916 A CN114818916 A CN 114818916A
- Authority
- CN
- China
- Prior art keywords
- target
- point cloud
- feature
- sequence
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明属于交通道路目标分类领域,具体涉及一种基于毫米波雷达多帧点云序列的道路目标分类方法。本发明使用毫米波雷达对目标进行一定时长的跟踪,获取到目标在时间序列上的多帧点云数据;从每帧点云数据中提取特征,构建特征向量序列;构建多帧点云序列特征融合网络实现点云时序特征提取;使用多层感知机实现对目标所属类别的判断。本发明方法获得的基于毫米波雷达的道路目标分类器有着比传统方法更高的分类准确率,对于提升自动驾驶与辅助驾驶系统的环境感知能力具有重要意义。
Description
技术领域
本发明属于交通道路目标分类领域,具体涉及一种基于毫米波雷达多帧点云序列的道路目标分类方法。
背景技术
在当今复杂的交通道路环境中,自动驾驶与辅助驾驶系统成为保障司乘安全、提升驾驶舒适性的一项重要技术。作为辅助驾驶系统中的核心传感设备之一,毫米波雷达在目标探测方面具备全天候高可靠的特点,在暗光环境与复杂气候环境中依旧可以保持稳定的工作状态。使用毫米波雷达实现对道路目标的分类识别,可有助于辅助驾驶系统的决策单元充分感知行车环境,从而得出有效的辅助驾驶策略。
随着毫米波雷达距离分辨率与角度分辨率的提升,有研究者提出使用雷达点云数据实现目标分类,但目前此类方法大多基于对目标单次探测产生的点云得出分类结果(例如专利 CN201910640745.7),在实际的道路目标分类任务中,该方法的分类效果容易受到异常探测结果的影响;也有研究者提出了在决策层面实现多帧点云联合分类的方法(例如专利 CN202111466169.2),但是对每帧分类结果的简单联合并不能有效利用点云在时间序列上的关联特性,因而得到的分类准确率仍旧有待提升。
发明内容
本发明针对现有技术的不足,提出了一种使用毫米波雷达多帧点云序列进行道路目标识别的方法,以实现在交通道路场景下对目标的精准识别。本发明使用毫米波雷达对目标进行一定时长的跟踪,获取到目标在时间序列上的多帧点云数据;从每帧点云数据中提取特征,构建特征向量序列;构建多帧点云序列特征融合网络实现点云时序特征提取;使用多层感知机实现对目标所属类别的判断。具体技术方案如下:
S1:目标回波数据获取。在交通道路场景下,使用毫米波雷达对目标进行一定时长的跟踪,以获取指定帧数的目标回波数据D={Di∣i=1,2,…,t}。其中,Di表示获取到的第 i帧目标回波数据,t表示设定的总帧数。
S2:目标点云数据获取。对获取到的每帧点云数据,先后执行距离维傅里叶变换、速度维傅里叶变换、恒虚警检测、多普勒相位补偿、角度维傅里叶变换,最终获取到该帧对应的目标点云数据P={Pi∣i=1,2,…,N}。其中Pi表示道路目标内部的第i个散射点形成的雷达目标点,N表示点云中目标点的总数。对于每个目标点,包括距离、方位角、速度、雷达截面积(RCS)四种属性,表示为Pi=(ri,θi,vi,σi);通过如下坐标转换公式将其转换至笛卡尔坐标系,得到
S3:点云特征向量序列获取。对于每帧点云数据,提取14个统计特征,构建特征向量 Fi={fi1,fi2,......,fi14}。基于S2中获取到的t帧目标点云数据,共计可以获取到时间序列上的t 个特征向量,组成特征向量序列F={Fi∣i=1,…,t}。基于每帧点云提取的14个特征具体包括:
(1)特征1:点云所包含的目标点数目N;
其中,ri表示第i个目标点的径向距离值。
(3)特征3:点云在X轴上的极差XRange,计算公式如下;
XRange=Xmax-Xmin (3)
其中,Xmax和Xmin分别表示点云所包含的目标点在X轴坐标上的最大值与最小值。
(4)特征4:点云在Y轴上的极差YRange,计算公式如下;
YRange=Ymax-Ymin (4)
其中,Ymax和Ymin分别表示点云所包含的目标点在Y轴坐标上的最大值与最小值。
(5)特征5:目标点云矩形框的面积S,计算公式如下;
S=XRange×YRange (5)
(6)特征6:点云所包含的目标点在X轴上的方差σX,计算公式如下;
(7)特征7:点云所包含的目标点在Y轴上的方差σY,计算公式如下;
(8)特征8:点云密度ρ,计算公式如下;
其中,σi表示第i个目标点的RCS值。
其中,vi表示第i个目标点的速度值。
(11)特征11:目标点速度的极差vRange,计算公式如下;
vRange=vmax-vmin (11)
其中,vmax和vmin分别表示点云所包含目标点的最大速度值与最小速度值。
(12)特征12:目标点速度的方差σv,计算公式如下;
除了上述12个常见统计特征外,本文还特别选取了“特征13”和“特征14”用于表征目标点云在两个主成分方向上的离散程度,它们与点云的自身分布特点相关,受到目标相对于雷达的姿态角的影响较小。“特征13”和“特征14”具体内容为:
(13)特征13:点云坐标的X序列和Y序列的协方差矩阵的第一个特征值,记作λ1;
(14)特征14:点云坐标的X序列和Y序列的协方差矩阵的第二个特征值,记作λ2。
上述两个特征的计算公式如下:
计算协方差:
Cov(X,Y)=E{[X-E(X)][Y-E(Y)]} (13)
其中,X和Y分别表示点云所包含目标点在X轴上的坐标序列与在Y轴上的坐标序列, E(·)表示计算数学期望。
计算协方差矩阵:
特征13与特征14中的λ1与λ2即为如下关于λ的方程的解,其中E表示单位矩阵。
|C-λE|=0 (15)
S4:道路目标分类模型训练。该模型主要包括两个部分:基于LSTM实现的时间关联特性提取网络;基于多层感知机实现的目标类别判断网络。对于时间关联特性提取网络,它的输入是由时间上连续的多帧点云特征向量组成的特征向量序列,输出是融合了时间关联信息的特征向量;对于目标类别判断网络,它的输入是通过时间关联特性提取网络获得的特征向量,输出是待识别样本所属类别的概率向量,选取概率最大的类别作为分类结果。需要预先采集大量的常见道路目标样本数据,使用S1-S3中所述的方法提取特征向量以及构建特征向量序列,并且使用标签标注每帧点云特征向量对应的目标类别,从而构建数据集。使用数据集训练道路目标分类模型,保存能够使模型达到最优效果的结构参数。
S5:目标类别判断。首先获取待识别目标的多帧点云数据,使用S1-S3所述方法获取特征向量序列,将其作为S4中训练所得的分类模型的输入,通过该模型即可获取待识别目标类别的分类结果。
本发明的有益效果在于:首先,使用毫米波雷达对目标进行一定时长的跟踪,获取到目标在时间序列上的多帧点云数据;接着,从每帧点云数据中提取特征,构建特征向量序列;然后,构建了包含LSTM层结构的网络模型,实现从连续的多帧点云数据中挖掘目标特征的时间关联特性;最后,使用多层感知机实现对目标所属类别的判断。一方面,所提出的基于目标点云的特征提取方法可以获取到准确体现各类道路目标差异的特征向量序列;另一方面,通过融合时间序列上的多帧点云数据,可以进一步提取到点云的时序信息,提高分类的准确率。由此获得的基于毫米波雷达的道路目标分类器有着比传统方法更高的分类准确率,对于提升自动驾驶与辅助驾驶系统的环境感知能力具有重要意义。
附图说明
图1为本发明的流程图;
图2为实施例中的数据采集设备图;
图3为实施例中的数据采集场景环境图;
图4为实施例中获取到的毫米波雷达点云数据示例图;
图5为实施例中构建的道路目标分类模型结构图;
图6为实施例中对典型道路目标进行分类得到的混淆矩阵结果图。
具体实施方式
使用上述方法进行道路目标识别的一个实施例如下:
S1:目标回波数据获取
使用毫米波雷达设备采集道路目标的回波数据,本实施例使用的毫米波雷达设备为四片AWR2243级联雷达,使用的发射波形为线性调频连续波,雷达带宽设置为2.5GHz,由此可以提供约6cm的距离分辨率。每个AWR2243雷达芯片具有3个发射通道与4个接收通道,使用四片级联方式可以获取12发16收的效果,由此可以提供约1.4°的方位角分辨率。探测的道路目标包括四类:行人、非机动车(电动车、电动自行车车)、中小型机动车(家用轿车)、大型机动车(大货车、大巴车)。本实施例中获取目标回波数据的场景包括:“空旷广场”、“直行道路”以及“十字路口”三个场景,如说明书附图3所示。通过该步骤,每帧均可获取到尺寸为“采样点数*脉冲数*接收通道数”的目标回波差频信号。
S2:目标点云数据获取
对于接收到的目标回波数据,首先沿着距离维执行傅里叶变换,再沿着多普勒维执行傅里叶变换,执行该步骤可以得到“距离-多普勒”矩阵;接着在该矩阵上执行恒虚警检测,具体方法是:首先沿着多普勒维使用单元平均恒虚警检测算法执行检测,对于检测所得结果,再执行距离维上的单元平均恒虚警检测,执行该步骤可以检测出不同距离和不同速度的目标点,实现对目标测距与测速的功能;接着执行方位角测量,具体实施方法是:对于恒虚警检测得到的每个“距离-多普勒”单元格,取出其在各接收通道上的信号值,执行空间维度的傅里叶变换,即可得到各目标点方位角的值;最后,结合各目标点距离与方位角的值,计算其在笛卡尔坐标系上的坐标,则每个点可以表示为(x,y,v,σ)。其中,x和y表示坐标值、v表示速度值、σ表示RCS值。对于某个待识别目标,第i帧获取的目标点云数据Di如式(16)所示。
S3:点云特征向量序列获取
使用上述方法共计获取到12000帧点云样本数据,目标类别包括行人、非机动车、中小型机动车以及大型机动车四类,每类目标对应着3000帧点云数据。每一组数据是一个N行4 列的数据矩阵,其中,N表示点云中包含的目标点数目,4列分别对应着目标点的X坐标、Y坐标、速度值、RCS值。对于每个目标的点云数据,将其在时间上连续的9帧数据划分为一组,构成点云序列。对于每一帧点云数据,提取上文所述的14个特征构成特征向量。同时,依照特征向量所属目标类别为其加上标签,标签值为1、2、3、4,分别对应着行人、非机动车、中小型机动车、大型机动车目标。由此可以获取到道路目标点云特征数据集。
S4:道路目标分类模型训练
使用获取的数据集训练道路目标分类模型,以获取到最佳的模型参数。道路目标分类模型主要包括两个部分:基于LSTM实现的时间关联特性提取网络;基于多层感知机实现的目标类别判断网络。在本实施例中,网络模型的搭建是使用Keras深度学习框架实现的,所搭建的道路目标分类模型结构如说明书附图5所示。对于时间关联特性提取网络,它由单个 LSTM层构成,神经元节点数目是20个,激活函数使用默认的tanh函数,它的输入是由时间上连续的9帧点云特征向量组成的特征向量序列F={F1,F2,F3,...,F9},输出是融合了时间关联信息的长度为20的特征向量;对于目标类别判断网络,它由两个全连接层构成,神经元节点数目分别为32和4,激活函数分别为ReLU和SoftMax函数,损失函数使用交叉熵函数(Cross Entropy),它的输入是通过时间关联特性提取网络获得的特征向量,输出是待识别样本所属类别的概率向量,选取概率最大的类别作为分类结果。
S5:目标类别判断
该步骤中,使用S4中训练得到的分类模型实现对行人、非机动车、中小型机动车、大型机动车四类典型道路目标的分类。在工作过程中,首先需要按照S1-S2中所述方法获取到待识别目标在时间上连续的9帧点云数据D={D1,D2,D3,...,D9},再使用S3中所述方法获取到如式(17)所示的点云特征向量序列F,其中,fij表示从第i帧点云中获取的特征向量中的第j 个特征,F即为道路目标分类模型的输入数据。
通过多次实验测试该分类模型对于上述四类道路目标的分类效果,分类整体准确率可以达到约92.5%,结果如说明书附图6所示。由此可以看出,本发明所提出的基于毫米波雷达点云序列的道路目标分类方法能够有效满足在交通道路场景下对常见目标进行精细化识别的需求,对于提升自动驾驶与辅助驾驶系统的环境感知能力具有重要意义。
Claims (1)
1.一种基于毫米波雷达点云序列的道路目标分类方法,其特征在于,包括以下步骤:
S1、目标回波数据获取:在交通道路场景下,使用毫米波雷达对目标进行跟踪,以获取指定帧数的目标回波数据D={Di∣i=1,2,…,t},其中,Di表示获取到的第i帧目标回波数据,t表示设定的总帧数;
S2、目标点云数据获取:对获取到的每帧点云数据,先后执行距离维傅里叶变换、速度维傅里叶变换、恒虚警检测、多普勒相位补偿、角度维傅里叶变换,最终获取到该帧对应的目标点云数据P={Pi∣i=1,2,…,N};其中Pi表示道路目标内部的第i个散射点形成的雷达目标点,N表示点云中目标点的总数;对于每个目标点,包括距离、方位角、速度、雷达截面积四种属性,表示为Pi=(ri,θi,vi,σi);通过如下坐标转换公式将其转换至笛卡尔坐标系,得到
x=rcosθ
y=rsinθ
S3、点云特征向量序列获取:对于每帧点云数据,提取14个统计特征,构建特征向量Fi={fi1,fi2,......,fi14},基于S2中获取到的t帧目标点云数据,共计可以获取到时间序列上的t个特征向量,组成特征向量序列F={Fi∣i=1,…,t};基于每帧点云提取的14个特征具体包括:
(1)特征1:点云所包含的目标点数目N;
其中,ri表示第i个目标点的径向距离值;
(3)特征3:点云在X轴上的极差XRange,计算公式如下:
XRange=Xmax-Xmin
其中,Xmax和Xmin分别表示点云所包含的目标点在X轴坐标上的最大值与最小值;
(4)特征4:点云在Y轴上的极差YRange,计算公式如下:
YRange=Ymax-Ymin
其中,Ymax和Ymin分别表示点云所包含的目标点在Y轴坐标上的最大值与最小值;
(5)特征5:目标点云矩形框的面积S,计算公式如下:
S=XRange×YRange
(6)特征6:点云所包含的目标点在X轴上的方差σX,计算公式如下:
(7)特征7:点云所包含的目标点在Y轴上的方差σY,计算公式如下:
(8)特征8:点云密度ρ,计算公式如下:
其中,σi表示第i个目标点的RCS值;
其中,vi表示第i个目标点的速度值;
(11)特征11:目标点速度的极差vRange,计算公式如下:
vRange=vmax-vmin
其中,vmax和vmin分别表示点云所包含目标点的最大速度值与最小速度值;
(12)特征12:目标点速度的方差σv,计算公式如下:
(13)特征13:点云坐标的X序列和Y序列的协方差矩阵的第一个特征值,记作λ1;
(14)特征14:点云坐标的X序列和Y序列的协方差矩阵的第二个特征值,记作λ2;
特征13与特征14的获取方法为:
计算协方差:
Cov(X,Y)=E{[X-E(X)][Y-E(Y)]}
其中,X和Y分别表示点云所包含目标点在X轴上的坐标序列与在Y轴上的坐标序列,E(·)表示计算数学期望;
计算协方差矩阵:
特征13与特征14中的λ1与λ2即为如下关于λ的方程的解,其中E表示单位矩阵:
|C-λE|=0
S4、道路目标分类模型训练:
模型包括两个部分:基于LSTM实现的时间关联特性提取网络和基于多层感知机实现的目标类别判断网络;
对于时间关联特性提取网络,输入是由时间上连续的多帧点云特征向量组成的特征向量序列,输出是融合了时间关联信息的特征向量;
对于目标类别判断网络,输入是通过时间关联特性提取网络获得的特征向量,输出是待识别样本所属类别的概率向量,选取概率最大的类别作为分类结果;
通过预先采集道路目标样本数据,使用S1-S3中所述的方法提取特征向量以及构建特征向量序列,并且使用标签标注每帧点云特征向量对应的目标类别,从而构建数据集;使用数据集训练道路目标分类模型,保存能够使模型达到最优效果的结构参数;
S5、目标类别判断:首先获取待识别目标的多帧点云数据,使用S1-S3所述方法获取特征向量序列,将其作为S4中训练所得的分类模型的输入,输出即为待识别目标类别的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210437952.4A CN114818916B (zh) | 2022-04-25 | 2022-04-25 | 一种基于毫米波雷达多帧点云序列的道路目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210437952.4A CN114818916B (zh) | 2022-04-25 | 2022-04-25 | 一种基于毫米波雷达多帧点云序列的道路目标分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114818916A true CN114818916A (zh) | 2022-07-29 |
CN114818916B CN114818916B (zh) | 2023-04-07 |
Family
ID=82507688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210437952.4A Active CN114818916B (zh) | 2022-04-25 | 2022-04-25 | 一种基于毫米波雷达多帧点云序列的道路目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114818916B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586506A (zh) * | 2022-12-13 | 2023-01-10 | 南京慧尔视智能科技有限公司 | 一种抗干扰目标分类方法及装置 |
CN117292140A (zh) * | 2023-10-17 | 2023-12-26 | 小米汽车科技有限公司 | 点云数据的处理方法、装置、车辆及存储介质 |
CN117456429A (zh) * | 2023-12-22 | 2024-01-26 | 厦门瑞为信息技术有限公司 | 基于图像和测速传感器结合的闸机通行计数方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100215254A1 (en) * | 2009-02-25 | 2010-08-26 | Toyota Motor Engineering & Manufacturing North America | Self-Learning Object Detection and Classification Systems and Methods |
CN110365444A (zh) * | 2018-03-26 | 2019-10-22 | 周建华 | 道路信息数据的无线实时传送及接收系统 |
CN111260683A (zh) * | 2020-01-09 | 2020-06-09 | 合肥工业大学 | 一种三维点云数据的目标检测与跟踪方法及其装置 |
CN113723365A (zh) * | 2021-09-29 | 2021-11-30 | 西安电子科技大学 | 基于毫米波雷达点云数据的目标特征提取及分类方法 |
-
2022
- 2022-04-25 CN CN202210437952.4A patent/CN114818916B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100215254A1 (en) * | 2009-02-25 | 2010-08-26 | Toyota Motor Engineering & Manufacturing North America | Self-Learning Object Detection and Classification Systems and Methods |
CN110365444A (zh) * | 2018-03-26 | 2019-10-22 | 周建华 | 道路信息数据的无线实时传送及接收系统 |
CN111260683A (zh) * | 2020-01-09 | 2020-06-09 | 合肥工业大学 | 一种三维点云数据的目标检测与跟踪方法及其装置 |
CN113723365A (zh) * | 2021-09-29 | 2021-11-30 | 西安电子科技大学 | 基于毫米波雷达点云数据的目标特征提取及分类方法 |
Non-Patent Citations (3)
Title |
---|
BO FENG等: "radar hrrp target recognition with deep networks" * |
刘宁宁: "道路目标的雷达自动分类识别技术研究" * |
潘锁艳;管海燕;: "机载多光谱LiDAR数据的地物分类方法" * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586506A (zh) * | 2022-12-13 | 2023-01-10 | 南京慧尔视智能科技有限公司 | 一种抗干扰目标分类方法及装置 |
CN117292140A (zh) * | 2023-10-17 | 2023-12-26 | 小米汽车科技有限公司 | 点云数据的处理方法、装置、车辆及存储介质 |
CN117292140B (zh) * | 2023-10-17 | 2024-04-02 | 小米汽车科技有限公司 | 点云数据的处理方法、装置、车辆及存储介质 |
CN117456429A (zh) * | 2023-12-22 | 2024-01-26 | 厦门瑞为信息技术有限公司 | 基于图像和测速传感器结合的闸机通行计数方法及系统 |
CN117456429B (zh) * | 2023-12-22 | 2024-03-12 | 厦门瑞为信息技术有限公司 | 基于图像和测速传感器结合的闸机通行计数方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114818916B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114818916B (zh) | 一种基于毫米波雷达多帧点云序列的道路目标分类方法 | |
Patel et al. | Deep learning-based object classification on automotive radar spectra | |
Lombacher et al. | Semantic radar grids | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和系统 | |
CN112816954A (zh) | 一种基于真值的路侧感知系统评测方法和系统 | |
CN107144839A (zh) | 通过传感器融合检测长对象 | |
Li et al. | An adaptive 3D grid-based clustering algorithm for automotive high resolution radar sensor | |
CN113516052B (zh) | 一种基于机器学习的成像毫米波雷达点云目标分类方法 | |
CN110018453A (zh) | 基于飞机航迹特征的智能机型识别方法 | |
Cui et al. | 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars | |
CN113822221A (zh) | 一种基于对抗神经网络和多传感器融合的目标检测方法 | |
CN115061113B (zh) | 用于雷达的目标检测模型训练方法、装置及存储介质 | |
CN114677419A (zh) | 基于三维卷积网络的雷达多普勒信号低慢小目标检测方法 | |
Li et al. | Pedestrian liveness detection based on mmwave radar and camera fusion | |
CN114693909A (zh) | 一种基于多传感器机器视觉融合的微观车辆轨迹感知设备 | |
CN113792598B (zh) | 基于车载摄像头的汽车碰撞预测系统和方法 | |
Franceschi et al. | Deep learning-based radar detector for complex automotive scenarios | |
CN113960587A (zh) | 基于类别信息反馈的毫米波雷达多目标跟踪方法 | |
CN117475142A (zh) | 面向自动驾驶基于ViT的毫米波雷达点云分割方法 | |
Cherif et al. | Aerial LiDAR-based 3D Object Detection and Tracking for Traffic Monitoring | |
CN115471526A (zh) | 基于多源异构信息融合的自动驾驶目标检测与跟踪方法 | |
CN115629385A (zh) | 基于毫米波雷达和相机关联的车辆排队长度实时检测方法 | |
Toth et al. | Vehicle recognition from LiDAR data | |
CN114839628A (zh) | 利用多个距离和分辨率的物体检测 | |
CN116964472A (zh) | 用于借助于雷达传感器系统的反射信号来探测环境的至少一个对象的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |