CN115327529A - 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法 - Google Patents

一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法 Download PDF

Info

Publication number
CN115327529A
CN115327529A CN202211078285.1A CN202211078285A CN115327529A CN 115327529 A CN115327529 A CN 115327529A CN 202211078285 A CN202211078285 A CN 202211078285A CN 115327529 A CN115327529 A CN 115327529A
Authority
CN
China
Prior art keywords
millimeter wave
wave radar
radar
frame
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211078285.1A
Other languages
English (en)
Other versions
CN115327529B (zh
Inventor
李垚
张燕咏
吉建民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202211078285.1A priority Critical patent/CN115327529B/zh
Publication of CN115327529A publication Critical patent/CN115327529A/zh
Application granted granted Critical
Publication of CN115327529B publication Critical patent/CN115327529B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及一种融合毫米波雷达和激光雷达的3D目标检测与追踪方法,对采集的激光雷达和毫米波雷达数据预处理;将鸟瞰图形式的激光雷达特征和毫米波雷达特征直接进行拼接,获取融合的特征后进行检测识别任务,得到目标的3D位置识别框和类别信息;基于检测的识别框对原始的毫米波雷达点进行过滤,获取属于该框内的毫米波雷达点,再对检测框内雷达点和追踪框求取P2B距离,采用注意力机制加权后得到由毫米波雷达点计算位置相似性亲和矩阵;根据检测任务预测的速度求取检测框和追踪框间的位置偏移量,得到另一种位置偏移量亲和矩阵;将两种亲和矩阵加权后得到最终的亲和矩阵,以此进行目标追踪,最终实现兼顾精度和鲁棒性的3D目标检测与追踪。

Description

一种融合毫米波雷达和激光雷达的3D目标检测与追踪方法
技术领域
本发明涉及一种融合毫米波雷达和激光雷达的3D目标检测与追踪方法,属于目标检测与追踪和自动驾驶领域。
背景技术
当前,基于激光雷达的3D检测与追踪方法大多遵循“tracking by detection”的范式,即先进行检测任务,后进行逐帧的追踪,追踪过程的核心是数据关联,即将跨帧的同一物体分配唯一的标号。数据关联问题常被视为二分图匹配问题,使用匈牙利算法或贪婪匹配算法进行求解。但是这样的范式对检测的依赖非常严重,检测结果的好坏直接决定了追踪的性能。激光雷达凭借高精度的3D位置和高分辨率的角度测量优势而成为自动驾驶中重要的传感器之一,许多基于激光雷达的3D检测工作应运而生。但激光雷达也有缺点存在,比如它的探测范围有限,远处的地方点云通常很稀疏;易受雨雾等不利天气的干扰;并且激光雷达只提供了静态的位置测量信息,没有提供动态信息(如速度等) 的测量,所以只依赖激光雷达进行检测和追踪任务会有一定的性能上限。相较于激光雷达,毫米波雷达具有更远的探测范围,并且基于多普勒效应对物体的径向速度进行了测量,同时其受雨雾等不利天气的干扰较小,成本较低,对基于激光雷达的感知追踪系统具有重要意义。但由于毫米波雷达的精度和分辨率较低,聚类后的目标点十分稀疏,并且受多径效应的影响,其测量的数据常存在噪声干扰,如何有效地融合毫米波雷达数据具有很大的挑战。当前基于融合激光雷达和毫米波雷达的工作仍然较少,Radarnet[6Yang B,Guo R,Liang M,et al.Radarnet:Exploiting radar for robust perception of dynamic objects[C]//EuropeanConference on Computer Vision.Springer,Cham,2020:496-512.]是其中较为典型的工作,该模型对毫米波雷达和激光雷达数据均进行了体素特征提取后拼接融合,之后只对动态物体进行检测,同时利用毫米波雷达点的速度对动态物体的速度进行更新。
但现阶段同时融合激光雷达和毫米波雷达做追踪的工作仍很少,大部分模型的精度比较受限于单一模态的缺陷。
发明内容
本发明技术解决问题:克服现有技术的不足,提供一种融合激光雷达和毫米波雷达的目标检测与追踪方法,提升检测与追踪的准确性和鲁棒性。同时使用了柱状网络处理,更充分地利用了毫米波雷达的特征,并且拓宽了其应用范围至兼有动态与静态目标的检测和追踪领域。
本发明技术解决方案:一种融合激光雷达和毫米波雷达的目标检测与追踪方法,包括以下步骤:
步骤1:对采集的激光雷达和毫米波雷达的数据进行预处理,激光雷达的数据采用基于体素的网络进行编码处理,毫米波雷达数据采用柱状网络进行编码处理,得到基于鸟瞰图形式的激光雷达特征和毫米波雷达特征;
步骤2:将鸟瞰图形式的激光雷达特征和毫米波雷达特征直接进行拼接,实现基于鸟瞰图视角的检测层次融合,获取融合的特征后进行检测识别任务,得到目标的3D位置识别框和类别信息;
步骤3:基于检测的识别框对原始的毫米波雷达点进行过滤,获取属于该框内的毫米波雷达点,再对检测框内雷达点和追踪框求取P2B距离,即毫米波雷达点到追踪框各边之间的平均最短距离,采用新颖的注意力机制加权后得到由毫米波雷达点计算所得的基于位置相似性的亲和矩阵;同时根据检测任务预测的速度求取检测框和追踪框间的位置偏移量,得到另一种位置偏移量亲和矩阵;
步骤4:将所述两种亲和矩阵加权后得到最终的亲和矩阵,以此进行目标追踪,最终实现兼顾精度和鲁棒性的3D目标检测与追踪。
进一步,所述步骤1中,对于激光雷达,采集包含高度信息的三维位置表示的激光雷达点云数据,在3D空间中采用基于体素的处理流程,即依次进行体素化、体素特征提取和变换至鸟瞰图形式,得到基于鸟瞰图形式的激光雷达特征;对于毫米波雷达可以直接提供鸟瞰图下的位置、雷达横截面积RCS和径向速度的测量,所以采用柱状网络进行编码和特征提取,得到鸟瞰图形式的毫米波雷达特征。
进一步,所述步骤2具体实现如下:
(1)将基于鸟瞰图形式的激光雷达特征和毫米波雷达特征直接进行拼接,其中拼接过程中使用残差网络结构,将激光雷达特征和毫米波雷达特征拼接前的BEV特征和拼接后经由几层卷积网络处理后的融合BEV特征进行再次拼接得到了最终的融合特征,由此实现基于鸟瞰图视角下检测层次的特征融合过程;
(2)基于融合后的特征采用多任务学习的方式即分别为每个任务搭建不同的网络分支进行检测任务,分别进行目标的3D位置、大小、偏航角以及速度的回归和目标分类任务,将步骤(1)中得到的融合特征分别输入到后端多分支网络中进行处理,不同任务之间并行进行,最终输出物体的3D位置,物体大小,分类分数,以及速度和偏航角的回归值,即3D位置识别框和类别信息。
进一步,所述步骤3具体实现如下;
(1)基于检测的识别框对原始的毫米波雷达点云进行过滤,得到位置在该框范围内的毫米波雷达点;
(2)对检测框内雷达点和追踪框求取所定义的P2B距离即点到四边形各边的平均最短距离,计算时将点和各边构建成三角形,选择三角形任意的两条边作为两条向量求取向量积运算除以2后,得到三角形的面积,然后计算底边的高求得对应点到边的最短距离;由于毫米波雷达受多径效应等的影响,毫米波雷达点的位置测量往往存在一定噪声,引入新颖的注意力机制加权:即根据每个雷达点自身的特征结合其检测框的特征经多层感知机MLP预测相应的注意力分数,作为对该毫米波雷达测量偏差的估计,测量偏差越大的点所估计的注意力分数越低,对最终的亲和矩阵的计算贡献越小,最后使用该注意力分数对不同的毫米波雷达点求得的P2B距离进行加权求和后,得到最终的基于位置相似性的亲和矩阵;
(3)同时基于检测任务中的多头网络预测的速度求取检测框和追踪框间的鸟瞰图下的位置偏移量,得到另一种位置偏移量亲和矩阵,即由位置偏移量组成的亲和矩阵,该亲和矩阵根据网络所预测的速度进行计算。
进一步,所述步骤4具体实现如下;
(1)根据步骤3中由毫米波雷达点所预测的注意力分数,对计算所得的两种亲和矩阵进行加权求和,得到最终的亲和矩阵;
(2)基于步骤(1)的亲和矩阵进行目标追踪,目标追踪过程包括数据关联和轨迹管理;数据关联采用贪婪匹配算法根据亲和矩阵匹配同一物体的检测框和追踪框,实现跨帧的物体关联;轨迹管理对于某一物体其检测框连续出现3次才会分配跟踪轨迹,对于已分配追踪轨迹的物体,如果所述轨迹一直在设定的视场范围内,则对物体作持续追踪;
(3)最终实现兼顾精度和鲁棒性的3D目标检测与追踪。在融合毫米波雷达数据后,由于毫米波雷达有更远的探测距离并且提供了对速度的测量信息,实现了检测和追踪精度的提升;此外由于在数据关联时加入了由雷达点求得的P2B距离亲和矩阵,那么当另一种基于检测任务预测的速度所求得的位置偏移量亲和矩阵不准确时,仍可基于该P2B 距离亲和矩阵进行数据关联,所以具有一定的鲁棒性。
本发明与现有技术相比的优点在于:
(1)基于鸟瞰图拼接的融合方式实现了激光雷达和毫米波雷达的优势互补。该融合方式适应不同模态的结构特性:通过对激光雷达和毫米波雷达数据分别输入到相应的网络里进行处理,使用体素网络处理激光雷达数据,使用柱状网络处理毫米波雷达数据,两种网络结构均和不同模态的数据形式相对应;鸟瞰图拼接的融合方式保证了两种模态特征融合的范围一致与位置对应:毫米波雷达由于探测距离相较于激光雷达更远,在远处激光雷达点云稀疏的地方仍可实现较准确的目标分类,实验结果也表明融合毫米波雷达后在远处可以降低误报和漏检。鸟瞰图拼接因两种模态特征图大小一样,输入数据的距离范围也相同,可使融合的两种模态特征范围一致且位置对应,所以实现了优势互补,比如激光雷达未检测到的物体而毫米波雷达可以检测到,此时经拼接即可防止漏检;融合毫米波雷达数据提升了速度预测的准确性:毫米波雷达可以直接提供物体速度的测量,而鸟瞰图的拼接方式可以保留两种模态更多的原始特征,后端网络可以从激光雷达或毫米波雷达特征中直接提取信息,实验也表明速度预测更加精准,同时准确的预测速度增强了数据关联性能,降低了物体追踪ID改变的次数,对追踪系统也有重要意义;
(2)注意力机制的引入和增加了由毫米波雷达计算所得的亲和矩阵提升了追踪的鲁棒性。在追踪层次的融合模块中,由于对每个毫米波雷达点使用注意力分数进行了加权,这样一些测量噪声较大的雷达点作用会被削弱;同时当检测分支预测的速度不准而导致后面追踪所用的偏移量亲和矩阵不准确时,根据毫米波雷达所求得的位置相似性亲和矩阵仍可正常工作。所以整体框架在检测网络预测的速度不准或毫米波雷达数据存在一定数目噪声点的情况下仍可保持良好的追踪性能;
(3)该融合毫米波雷达和激光雷达数据的检测与追踪框架具有重要意义。毫米波雷达因其低成本、可测量速度早已成为自动驾驶车辆上必不可少的传感器之一,但基于毫米波雷达的相关研究工作仍不充分,其诸多优点仍有待挖掘,本发明在检测和追踪系统中如何融合毫米波雷达做了一次有效的探索,具有重要的参考意义。此外该发明不仅可以提供目标检测的结果,也可以提供追踪的轨迹,对辅助路径规划等自动驾驶后端的任务具有重要意义;
(4)该发明提出的融合框架十分方便扩展。该发明基于pytorch的深度学习开源框架实现,pytorch的使用人数众多,易于移植和部署。同时该框架也十分方便加入新的模块进行功能扩展。
附图说明
图1为本发明方法的整体实现流程图;
图2为本发明注意力分数估计及P2B距离计算过程。
具体实施方式
下面结合附图及实施例对本发明进行详细说明。
如图1所示,本发明方法分为4个步骤:激光雷达(LiDAR)和毫米波雷达(Radar) 数据处理;基于鸟瞰图视角的检测层次融合;基于毫米波雷达点(Radar目标点)的注意力分数和P2B距离计算;3D目标追踪。
每个步骤实现过程如下:
第一步,激光雷达(LiDAR)和毫米波雷达(Radar)数据处理。激光雷达和毫米波雷达的数据形式不同,所以采用了不同的网络结构处理两种模态。对于激光雷达,它的点云数据形式是三维的位置表示,包含高度信息,所以在3D空间中采用基于体素的处理流程:体素化,体素特征提取,变换至鸟瞰图形式,见图1的3D骨干网络。而对于毫米波雷达,它直接输出鸟瞰图下的2D位置,雷达横截面积(RCS),径向速度的测量。但由于它对高度信息的测量通常不准确,所以直接采用柱状网络的编码和特征提取过程,可以直接输出鸟瞰图形式下的特征图。
第二步,基于鸟瞰图视角的检测层次融合。在分别得到了基于鸟瞰图形式的激光雷达特征和毫米波雷达特征后,采取了直接将两种特征进行拼接的融合方式。这样做的原因是可保持当前两种模态的特征视角一致,并且直接拼接的方式不会引起信息的损失。在拼接过程中,使用了残差结构对拼接和经2D卷积网络处理后的特征与拼接前的激光雷达和毫米波雷达特征分别再次进行了拼接,以方便模型的训练以及保留原始特征的性质。基于融合后的特征,采用了多任务学习的方式解耦检测的任务,采用多头的方式分别进行目标的位置,旋转角以及速度的回归和目标分类任务。
追踪任务概述。在得到了基于融合方法的检测结果后,进行目标追踪的任务,追踪遵循“先检测后追踪”的范式:目标检测,数据关联和追踪轨迹管理。其中数据关联要用到亲和矩阵来匹配已追踪的轨迹和当前的检测框,亲和矩阵即追踪轨迹的特征和当前帧检测物体特征之间的相似性,目的为同一物体分配唯一的追踪标号。这里,定义两种亲和矩阵。一种是利用检测结果中的速度来求取检测框和追踪框中心之间的位置偏移量亲和矩阵,记为λC2C。另一种是求取物体检测框内的毫米波雷达点与物体追踪框之间的距离作为位置相似性亲和矩阵,记为λP2B。而最终的关联矩阵是这两种亲和矩阵的加权和。由于λC2C的求取过程较为直接,下面重点介绍λP2B的求取过程。
第三步,基于毫米波雷达点的注意力分数估计及P2B距离的加权计算。如图2,在计算λP2B的过程中,使用当前帧检测得到的目标包围框选取属于该框内的毫米波雷达点,然后将框内的每个毫米波雷达点测量的径向速度反投影至网络预测得到的物体速度方向上。将毫米波雷达测量的径向速度转化为物体的实际切向速度后,根据该速度和毫米波雷达点的位置求取点与追踪框之间的距离,采用的是点到四边形四条边的平均最短距离,记为P2B。因为一个检测框内有多个毫米波雷达点,所以现在求取的是多对一的距离,经过求和平均后可得到该检测框到追踪框整体一对一之间距离。而因为毫米波雷达本身的测量原理,它的测量是存在较大的不确定性,包含了一些存在误报的毫米波雷达目标点,所以如果直接对P2B距离进行求和平均的话,会有很多不准确的计算距离带来干扰,所以基于每个毫米波雷达点自身的测量属性对其进行了不确定性估计,得到相应的注意力分数。求取基于毫米波雷达点的注意力分数过程如下:
首先对于该检测框内的每个毫米波雷达点,将其特征(鸟瞰图的2D位置,径向速度,时间戳,雷达横截面积)与该检测框的特征(鸟瞰图的2D位置,长,宽,偏航角,预测速度,分类分数,时间戳)进行组合得到成对融合的特征f(det-rad)=(检测框2D位置与毫米波雷达点的2D位置偏差,时间偏差,长,宽,预测速度,预测速度与毫米波雷达径向速度夹角,径向速度经反投影的速度)。然后成对的融合特征会被输入到多层感知机(MLP)进行处理,其中MLP的输出通道数为1。这样每对特征f(det-rad)对应每个毫米波雷达点经预测可以得到一个注意力分数,在所求得的注意力分数数组前附加一个额外的分数=1后经softmax运算得到最终的注意力分数数组,其中附加的第一项1作为对λC2C亲和矩阵的加权权重,其他项将分别与每个毫米波雷达点与追踪框计算所得的 P2B距离进行加权求和得到最终该检测框内所有毫米波雷达点到追踪框的加权平均距离,所有的检测框到追踪框之间经计算得到了最终的P2B距离亲和矩阵λP2B。最终将所有的注意力分数数组首项拿出来组成矩阵sl,进行加权运算得到最终的亲和矩阵λ=sl⊙λC2CP2B,其中⊙是对应元素相乘的矩阵乘法。
第四步,目标追踪过程。得到亲和矩阵λ后基于该矩阵使用贪婪匹配算法进行数据关联,同时对于未匹配的检测框作为追踪轨迹的初始框,对于未匹配上的追踪框在视场范围内进行持续的追踪,以应对遮挡的场景。
性能测试结果,表1是设计的检测与追踪系统的测试性能,融合毫米波雷达后可以看到检测性能明显提高(mAP),速度预测误差变小(mAVE),追踪性能也大幅提升 (AMOTA),追踪ID标号变化的次数降低(IDS)。不过在融合了毫米波雷达加入了λP2B亲和矩阵后提升较小,这部分主要是为了提升系统的鲁棒性。
表1性能测试结果
Figure RE-GDA0003869114500000071
表2是关于加入λP2B亲和矩阵后的鲁棒性测试结果。可以看到关联矩阵加入λP2B后,速度噪声所带来的干扰是最低的,追踪性能降低的百分比最小,其中对网络预测的速度增加高斯噪声后会直接影响λC2C亲和矩阵计算所得的结果。
表2两类亲和矩阵鲁棒性测试结果
Figure RE-GDA0003869114500000072
表3是关于加入基于毫米波雷达点的注意力机制的鲁棒性测试结果。可以看到如果在原始毫米波雷达点云中人为的过滤掉一些可能的雷达噪声点,此时加入注意力机制所带来的收益甚小;而如果不过滤噪声点,此时加入注意力机制带来的收益会更高,表明注意力机制的引入对抵抗雷达噪声具有一定的鲁棒性。
表3注意力机制鲁棒性测试结果
Figure RE-GDA0003869114500000073
Figure RE-GDA0003869114500000081
综上,从以上表及图可以得出,本发明的追踪精度较高,相较于基准模型在检测和追踪精度上均有较大提升。同时具有较强的鲁棒性,在速度预测不准或雷达点云中有噪声点干扰时仍能保持较高的精度而正常工作。
以上虽然描述了本发明的具体实施方法,但是本领域的技术人员应当理解,这些仅是举例说明,在不背离本发明原理和实现的前提下,可以对这些实施方案做出多种变更或修改,因此,本发明的保护范围由所附权利要求书限定。

Claims (5)

1.一种融合毫米波雷达和激光雷达的3D目标检测与追踪方法,其特征在于,包括以下步骤:
步骤1:对采集的激光雷达和毫米波雷达的数据进行预处理,激光雷达的数据采用基于体素的网络进行编码处理,毫米波雷达数据采用柱状网络进行编码处理,得到基于鸟瞰图形式的激光雷达特征和毫米波雷达特征;
步骤2:将鸟瞰图形式的激光雷达特征和毫米波雷达特征直接进行拼接,实现基于鸟瞰图视角的检测层次融合,获取融合的特征后进行检测识别任务,得到目标的3D位置识别框和类别信息;
步骤3:基于检测的识别框对原始的毫米波雷达点进行过滤,获取属于该框内的毫米波雷达点,再对检测框内雷达点和追踪框求取P2B距离,即毫米波雷达点到追踪框各边之间的平均最短距离,采用新颖的注意力机制加权后得到由毫米波雷达点计算所得的位置相似性亲和矩阵;同时根据检测任务预测的速度求取检测框和追踪框间的位置偏移量,得到另一种位置偏移量亲和矩阵;
步骤4:将所述两种亲和矩阵加权后得到最终的亲和矩阵,以此进行目标追踪,最终实现兼顾精度和鲁棒性的3D目标检测与追踪。
2.根据权利要求1所述的融合毫米波雷达和激光雷达的3D目标检测与追踪方法,其特征在于:所述步骤1中,对于激光雷达,其采集包含高度信息的三维位置表示的激光雷达点云数据,在3D空间中采用基于体素的处理流程,即依次进行体素化、体素特征提取和变换至鸟瞰图形式,得到基于鸟瞰图形式的激光雷达特征;对于毫米波雷达其可以直接提供鸟瞰图下的位置、雷达横截面积RCS和径向速度的测量,所以采用柱状网络进行编码和特征提取,得到鸟瞰图形式的毫米波雷达特征。
3.根据权利要求1所述的融合毫米波雷达和激光雷达的3D目标检测与追踪方法,其特征在于:所述步骤2具体实现如下:
(1)将基于鸟瞰图形式的激光雷达特征和毫米波雷达特征直接进行拼接,其中拼接过程中使用残差网络结构,将激光雷达特征和毫米波雷达特征拼接前的鸟瞰图(BEV)特征和拼接后经由几层卷积网络处理后的融合BEV特征进行再次拼接得到最终的融合特征,实现基于鸟瞰图视角下检测层次的特征融合过程;
(2)基于融合特征采用多任务学习的方式即分别为每个任务搭建不同的网络分支进行检测任务,分别进行目标的3D位置、大小、偏航角以及速度的回归和目标分类任务,将步骤(1)中得到的融合特征分别输入到后端多分支网络中进行处理,不同任务之间并行进行,最终输出物体的3D位置,物体大小,分类分数,以及速度和偏航角的回归值,即3D位置识别框和类别信息。
4.根据权利要求1所述的融合毫米波雷达和激光雷达的3D目标检测与追踪方法,其特征在于:所述步骤3具体实现如下;
(1)基于检测的识别框对原始的毫米波雷达点云进行过滤,得到位置在该框范围内的毫米波雷达点;
(2)对检测框内雷达点和追踪框求取所定义的P2B距离即点到四边形各边的平均最短距离,计算时将点和各边构建成三角形,选择三角形任意的两条边作为两条向量求取向量积运算除以2后,得到三角形的面积,然后计算底边的高求得对应点到边的最短距离;毫米波雷达受多径效应的影响,其位置测量存在噪声,引入新颖的注意力机制加权:即根据每个雷达点自身的特征结合其检测框的特征经多层感知机MLP预测相应的注意力分数,作为对该毫米波雷达测量偏差的估计,测量偏差越大的点所估计的注意力分数越低,对最终的亲和矩阵的计算贡献越小,最后使用该注意力分数对不同的毫米波雷达点求得的P2B距离进行加权求和后,得到最终的基于位置相似性的亲和矩阵;
(3)同时基于检测任务中的多头网络预测的速度求取检测框和追踪框间的鸟瞰图下的位置偏移量,得到另一种位置偏移量亲和矩阵,即由位置偏移量组成的亲和矩阵,该亲和矩阵根据网络所预测的速度进行计算。
5.根据权利要求1所述的融合毫米波雷达和激光雷达的3D目标检测与追踪方法,其特征在于:所述步骤4具体实现如下;
(1)根据步骤3中由毫米波雷达点所预测的注意力分数,对计算所得的两种亲和矩阵进行加权求和,得到最终的亲和矩阵;
(2)基于步骤(1)的亲和矩阵进行目标追踪,目标追踪过程包括数据关联和轨迹管理;数据关联采用贪婪匹配算法根据亲和矩阵匹配同一物体的检测框和追踪框,实现跨帧的物体关联;轨迹管理对于某一物体其检测框连续出现3次才会分配跟踪轨迹,对于已分配追踪轨迹的物体,如果所述轨迹一直在设定的视场范围内,则对物体作持续追踪;最终实现兼顾精度和鲁棒性的3D目标检测与追踪。
CN202211078285.1A 2022-09-05 2022-09-05 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法 Active CN115327529B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211078285.1A CN115327529B (zh) 2022-09-05 2022-09-05 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211078285.1A CN115327529B (zh) 2022-09-05 2022-09-05 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法

Publications (2)

Publication Number Publication Date
CN115327529A true CN115327529A (zh) 2022-11-11
CN115327529B CN115327529B (zh) 2024-07-16

Family

ID=83930277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211078285.1A Active CN115327529B (zh) 2022-09-05 2022-09-05 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法

Country Status (1)

Country Link
CN (1) CN115327529B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403180A (zh) * 2023-06-02 2023-07-07 上海几何伙伴智能驾驶有限公司 基于深度学习的4d毫米波雷达目标检测、追踪和测速方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094242A1 (ja) * 2011-12-19 2013-06-27 日産自動車株式会社 立体物検出装置
US9373036B1 (en) * 2015-01-16 2016-06-21 Toyota Motor Engineering & Manufacturing North America, Inc. Collaborative distance metric learning for method and apparatus visual tracking
CN113158763A (zh) * 2021-02-23 2021-07-23 清华大学 4d毫米波和激光点云多视角特征融合的三维目标检测方法
WO2021223368A1 (zh) * 2020-05-08 2021-11-11 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN114708585A (zh) * 2022-04-15 2022-07-05 电子科技大学 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094242A1 (ja) * 2011-12-19 2013-06-27 日産自動車株式会社 立体物検出装置
US9373036B1 (en) * 2015-01-16 2016-06-21 Toyota Motor Engineering & Manufacturing North America, Inc. Collaborative distance metric learning for method and apparatus visual tracking
WO2021223368A1 (zh) * 2020-05-08 2021-11-11 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN113158763A (zh) * 2021-02-23 2021-07-23 清华大学 4d毫米波和激光点云多视角特征融合的三维目标检测方法
CN114708585A (zh) * 2022-04-15 2022-07-05 电子科技大学 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙祥峻;刘志刚;: "矿井环境基于稀疏激光雷达数据的动态物体检测与追踪", 工业控制计算机, no. 07, 25 July 2020 (2020-07-25) *
邹斌;刘康;王科未;: "基于三维激光雷达的动态障碍物检测和追踪方法", 汽车技术, no. 08, 24 August 2017 (2017-08-24) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403180A (zh) * 2023-06-02 2023-07-07 上海几何伙伴智能驾驶有限公司 基于深度学习的4d毫米波雷达目标检测、追踪和测速方法
CN116403180B (zh) * 2023-06-02 2023-08-15 上海几何伙伴智能驾驶有限公司 基于深度学习的4d毫米波雷达目标检测、追踪和测速方法

Also Published As

Publication number Publication date
CN115327529B (zh) 2024-07-16

Similar Documents

Publication Publication Date Title
Kraus et al. Uncertainty estimation in one-stage object detection
Nabati et al. Rrpn: Radar region proposal network for object detection in autonomous vehicles
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
WO2021072696A1 (zh) 目标检测与跟踪方法、系统、可移动平台、相机及介质
CN111201451A (zh) 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置
CN113936198B (zh) 低线束激光雷达与相机融合方法、存储介质及装置
CN114565900A (zh) 基于改进YOLOv5和双目立体视觉的目标检测方法
Li et al. An adaptive 3D grid-based clustering algorithm for automotive high resolution radar sensor
Mahmood et al. Detection of vehicle with Infrared images in Road Traffic using YOLO computational mechanism
CN111753623B (zh) 一种运动物体的检测方法、装置、设备及存储介质
Li et al. A feature pyramid fusion detection algorithm based on radar and camera sensor
CN114280611A (zh) 一种融合毫米波雷达与摄像头的路侧感知方法
CN115797408A (zh) 融合多视角图像和三维点云的目标跟踪方法及装置
Wang et al. Radar ghost target detection via multimodal transformers
CN116681730A (zh) 一种目标物追踪方法、装置、计算机设备和存储介质
Salscheider Object tracking by detection with visual and motion cues
Fleck et al. Robust tracking of reference trajectories for autonomous driving in intelligent roadside infrastructure
CN115327529A (zh) 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法
CN111612818A (zh) 新型双目视觉多目标跟踪方法及系统
CN113281718B (zh) 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法
CN114092778A (zh) 基于表征学习的雷达摄像头数据融合系统及方法
CN114882458A (zh) 一种目标跟踪方法、系统、介质及设备
CN115471526A (zh) 基于多源异构信息融合的自动驾驶目标检测与跟踪方法
CN115100565A (zh) 一种基于空间相关性与光流配准的多目标跟踪方法
CN114359891A (zh) 一种三维车辆检测方法、系统、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant