CN114708585B - 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法 - Google Patents

一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法 Download PDF

Info

Publication number
CN114708585B
CN114708585B CN202210399603.8A CN202210399603A CN114708585B CN 114708585 B CN114708585 B CN 114708585B CN 202210399603 A CN202210399603 A CN 202210399603A CN 114708585 B CN114708585 B CN 114708585B
Authority
CN
China
Prior art keywords
point cloud
radar
data
millimeter wave
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210399603.8A
Other languages
English (en)
Other versions
CN114708585A (zh
Inventor
王章静
黄振
赵铖鑫
曹敏
仇隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210399603.8A priority Critical patent/CN114708585B/zh
Publication of CN114708585A publication Critical patent/CN114708585A/zh
Application granted granted Critical
Publication of CN114708585B publication Critical patent/CN114708585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法,包括数据采集与处理步骤:采集时间近似同步的毫米波雷达点云与视觉图像数据;融合步骤:将毫米波雷达点云数据从雷达坐标系转换到相机坐标系实现空间同步后进行预处理操作,提取点云框内目标点云的速度和深度信息构建雷达矩阵数据完成雷达信息提取;再在融合框架中通过神经网络提取图像特征图和雷达特征图并结合注意力机制进行特征融合得到融合特征图;检测步骤:将融合特征图进行上采样输入至分支卷积网络,对分支卷积的输出信息进行解码后得到目标的类别和三维信息。本发明高效地融合了视觉图像数据与毫米波雷达数据,有效提高了复杂场景下三维目标检测的准确率和可靠性。

Description

一种基于注意力机制的毫米波雷达与视觉融合的三维目标检 测方法
技术领域
本发明涉及多模态信息融合进行目标检测的技术领域,更具体地,本发明涉及一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法。
背景技术
目标检测是计算机视觉和图像处理领域的重要研究方向之一,可以用于检测数字图像中特定类别的对象实例。目标检测作为场景理解的重要组成部分,广泛应用于现代社会的许多领域,如监控安全、自动驾驶、交通监控、医疗影像分析和无人机场景分析等诸多领域。
目前主流的目标检测算法都是基于视觉图像的,一直以来是计算机视觉、机器人等相关领域的研究热点,如R-CNN和YOLO系列的目标检测网络。目前基于视觉图像的二维目标检测方法的性能已经得到极大的提升,但是也存在一些缺点和难以立刻解决的问题:一、采集到的光学相机数据质量很大程度会受到外界环境的影响,在天气恶劣、光照不足或者拍摄距离和角度不理想等情况下,采集的图像会出现模糊不清的状况,导致数字图像中关键对象实例的语义信息丢失;二、视觉图像只有平面的信息,仅能够回归目标的像素坐标,像素与像素之间的距离并不是现实物理空间的距离,因此缺乏深度、尺寸和速度等物理世界的参数信息,在实际应用中存在很大的局限性。
为了克服二维检测固有的缺点,研究者提出了三维目标检测的概念,三维目标检测是在二维目标检测的基础上,增加了目标的尺寸、位置和运动速度等信息,能够提供目标更详细的信息。三维目标检测的这些特性相比基于图像的二维检测有着先天的优势,但是三维目标检测仍存在诸多的研究难点。三维目标检测在检测准确率方面还落后于基于图像的二维目标检测算法,目前在相对其他数据集更加完善的KITTI数据集目标检测基准上,二维目标检测的平均精度已经达到了90%以上,而基于激光点云信息的三维目标检测的平均精度不超过85%,基于视觉图像的三维目标检测的平均精度不超过60%。另外由于三维目标检测增加了更多维度的信息,检测网络因此需要更多维度的回归,这大大增加了网络的复杂性,所以三维目标检测在实时性方面也仍有较大的提升空间。
同时为了提高感知系统的鲁棒性,提出了多模态数据融合的方法,将视觉相机、激光雷达、雷达等多种传感器的数据结合起来,不同的传感器可以对当前环境提供不同模态且具有一定互补性的感知信息。以毫米波雷达为例,雷达系统可以提供目标的距离,速度和角度等信息,相比其他传感器更加可靠,在各种光照和天气条件下都可以正常工作,但由于雷达的分辨率比较低,使用雷达对目标进行分类是非常困难的,因此可以加入视觉相机,以像素强度的形式提供详细信息,在更大的程度上提供系统周围环境详细的纹理信息。
发明内容
本发明所要解决的技术问题是,提供一种有效将毫米波雷达与视觉信息融合进行目标检测的方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法,包括以下步骤:
数据采集与处理步骤:采集毫米波雷达点云与视觉图像数据;对毫米波雷达点云与视觉图像数据进行时间近似同步处理;
融合步骤:将毫米波雷达点云数据从雷达坐标系转换到相机坐标系实现空间同步后进行预处理操作,提取点云框内目标点云的速度和深度信息构建雷达矩阵数据完成雷达信息提取;再在融合框架中通过神经网络提取图像特征图和雷达特征图并结合注意力机制进行特征融合得到融合特征图;
检测步骤:将融合特征图进行上采样输入至分支卷积网络,对分支卷积的输出信息进行解码后得到目标的类别和三维信息。
本发明三维目标检测方法,以仅使用视觉图像信息的CenterNet网络为基线,通过一种多模态融合方法对其进行增强,通过修改CenterNet网络结构,在视觉图像信息的基础上增加毫米波雷达点云信息,实现特征级融合,克服单一图像模态信息不足的问题。
对转换到相机坐标系的毫米波雷达点云进行聚类分割并构建三维包围框,并将其投影到图像平面上,实现了目标的图像信息与雷达点云信息的较好关联,提高了特征融合时的匹配精度;
采用注意力机制更加有效地融合了图像和雷达的特征信息,利用传感器间的互补特性,实现两种信息的优势互补,增强了模型的鲁棒性和目标检测算法的检测准确率,尤其提升对远距离小目标的检测率;
加入了基于毫米波雷达采集的目标速度信息,能够不依靠时间信息预测得到更加精确的目标运动速度;
通过设计的多模态融合网络,实现视觉图像和雷达点云数据的特征级融合,能够预测目标的三维尺寸、位置和速度等信息,同时在结构、抗干扰两方面对网络进行优化,选择模型的最佳参数,在算法精度与检测速度之间取得较好的平衡。
本发明的有益效果是,高效地融合了视觉图像数据与毫米波雷达数据,有效提高了复杂场景下三维目标检测的准确率和可靠性。
通过建立联合数据采集平台制作包含汽车和行人的视觉图像与毫米波雷达点云数据集,基于上述自制数据集的测试结果表明,本发明与基于视觉图像信息的CenterNet网络相比,平均精度均值mAP(mean Average Precision)值提高了9.2%,平均偏移误差mATE降低了15.0%,平均速度误差mAVE降低了72.4%。
附图说明
图1为本发明流程示意图;
图2为实施例的毫米波雷达点云投影到平面中的效果图;
图3为多模态融合网络模型结构示意图。
具体实施方式
为了使本发明的目的、技术方案及效果更加清楚易懂,下面结合附图和实施例,对本发明的技术方案作进一步详细描述,以下的具体实施例用于解释本发明,不用于限制本发明范围。
如图1所示,实施本发明流程的系统包括数据采集与处理模块、融合模块和检测模块三部分。
系统实施基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法,包括如下步骤:
数据采集与处理步骤:采集毫米波雷达点云与视觉图像数据;对毫米波雷达点云与视觉图像数据进行时间近似同步处理;
融合步骤:将毫米波雷达点云数据从雷达坐标系转换到相机坐标系实现空间同步后进行预处理操作,提取点云框内目标点云X与Y两个方向的速度和深度信息构建雷达矩阵数据完成雷达信息提取;再在融合框架中通过神经网络提取图像特征图和雷达特征图并结合注意力机制进行特征融合得到融合特征图;
检测步骤:将融合特征图进行上采样输入至分支卷积网络,对分支卷积的输出信息进行解码后得到目标的类别和三维信息。
详细流程如下所示:
步骤1:将毫米波雷达和摄像头同时连接到安装有机器人操作系统ROS的设备上,利用毫米波雷达采集毫米波雷达点云,利用摄像头采集视觉图像数据,使用ROS同时采集毫米波雷达点云数据和视觉图像数据并保存为bag格式。
步骤2:对毫米波雷达点云数据与视觉图像进行时间近似同步处理。
步骤2-1:首先在ROS中使用rosbag包提供的play命令回放保存为bag文件格式的毫米波雷达点云数据和视觉图像数据。
步骤2-2:创建ROS节点,该节点用于订阅毫米波雷达点云数据和视觉图像数据,订阅数据后使用ROS提供的message_filters库中的ApproximateTime策略,该策略使用自适应算法来实现不同数据时间戳信息的近似匹配,随后使用发布器将同步后的多模态数据作为信息对外发布。
步骤2-3:订阅同步后的点云信息和图像信息并保存为bag格式的文件,提取毫米波雷达点云数据保存为pcd格式文件,提取视觉图像数据保存为jpg格式文件。
步骤3:将毫米波雷达点云数据从雷达坐标系转换到相机坐标系实现空间同步,采用张正友标定法获得摄像头的内参系数,以右手螺旋定则建立空间坐标系,通过手动求解旋转矩阵和偏移矩阵获得毫米波雷达和摄像头的外参矩阵,利用外参矩阵,通过刚体变换将雷达点云坐标从毫米波雷达坐标系转换到相机坐标系,刚体变换包括旋转变换和平移变换。
步骤3-1:毫米波雷达坐标系到世界坐标系转换,假设雷达相对于世界坐标系的偏移向量为Tr=[Tr,x,Tr,y,Tr,z],雷达坐标系的极坐标系到三维世界坐标系的转换为:
其中,xw、yw和zw为世界坐标系下雷达点云的三维坐标,R为毫米波雷达与目标间的径向距离,θ为雷达和目标间的方位角。
步骤3-2:世界坐标系到相机坐标系转换如下:
其中,xc、yc和zc为相机坐标系下雷达点云的三维坐标,Tc为平移矩阵,Rc为旋转矩阵,点云数据依次绕x轴、y轴和z轴旋转α、β和γ度,即可得到旋转矩阵,Rc旋转矩阵的计算公式如下:
步骤4:对毫米波雷达点云数据进行预处理操作。
步骤4-1:将转换到相机坐标系的毫米波雷达点云数据解析为(5,N)的矩阵,其中N为多帧积累后的点云数量,每一个点云包括5个维度的特征(x,y,z,vx,vy),其中(x,y,z)表示点云的空间位置,(vx,vy)表示目标相对雷达的径向运动速度在X与Y方向的速度分量。
步骤4-2:
采用直通滤波,首先指定一个维度以及该维度下的值域范围,然后遍历点云中的每一个维度上的元素值,判断该元素值在指定维度上的取值是否在值域内,若取值不在值域内则删除该点云,遍历结束后留下的点云即完成滤波操作,有效雷达点云筛选公式为:
其中v为目标的径向运动速度在相机坐标系下x与y方向的速度分量,z为目标在相机坐标系下z轴的距离。
步骤4-3:采用欧式聚类分割,依据点云与点云之间的距离将小于距离阈值的作为一个集群,使用Kd-Tree近邻搜索算法进行聚类算法加速,其中聚类容忍度设为0.3m,最小聚类点云数量为8,算法步骤如下:
1)为输入的点云数据集P创建Kd-tree的表示;
2)设置一个空聚类列表C以及一个点云队列Q;
3)在P中选取一个未被聚类处理的点云p_i进行如下聚类处理步骤:
a)将p_i添加到当前队列Q;
b)对每个Q中的p_i进行如下步骤:
b1通过Kd-Tree近邻搜索算法在点云数据集P中找到k个离p_i最近的点组成点云集p_i_k;
b2设置距离阈值r,遍历p_i_k,将p_i_k中与p_i的欧式距离不超过r且未被聚类处理的点云加入到Q中;
b3p_i_k遍历完毕后,则把Q添加到聚类列表C的一个新的聚类上,并将Q清空;
4)当数据集P中的所有点是否均完成聚类,如否则返回步骤3),如是则完成欧式聚类分割,得到最终的聚类列表C,聚类列表C中的每一个聚类对应一个点云集群。
步骤4-4:利用点云库PCL(Point Cloud Library)中的MomentOfInertiaEstimation类提取欧式分割聚类后每个点云集群的三维的坐标轴平行包围盒。
步骤4-5:将滤波后的点云和坐标轴平行包围盒投影到图像平面进行目标关联,坐标轴平行包围盒投影得到二维点云包围框,包围盒可以看作由很多个点组成,因此包围盒投影与点投影原理相同,如图2所示为雷达点云投影效果,具体投影计算公式如下:
其中Zc为尺度因子,(u,v)为点云在图像平面的像素坐标系下的像素坐标,f为像距,dx和dy分别表示在像素坐标系的X,Y方向上的一个像素在相机感光板上的物理长度,u0和v0分别表示相机感光板中心在像素坐标系下的坐标。将点云在相机坐标中Z轴的值记为距离d,投影后按照距离d从小到大对点云进行排序,然后将点云扩展为三维点云柱,点云柱的大小设置为(2,0.5,0.5),将点云柱投影到图像平面的像素坐标系得到矩形的点云区域,获取点云区域在图像平面的位置以及宽和高。点云框是由坐标轴平行包围盒投影得到的,点云柱是点云框内点云扩展得到的。,这里的距离和相机坐标系中Z轴的值是一致的,相机坐标系里Z轴是向正前方的,Z轴的值就相当于目标到相机的距离。
步骤5:提取二维点云包围框内目标点云(聚类后得到的点云)的速度(点云信息中目标径向速度的x和y分量vx,vy)和距离信息构建雷达矩阵数据构建与图像尺寸相同的3通道雷达矩阵数据,在与二维点云包围框尺寸成比例的矩形内填充雷达点云信息,其余位置填充0,填充区域的数值计算公式如下:
其中3个通道的取值nc包括相机坐标系下的目标距离d以及目标径向速度的x和y分量,Sc为标准化因子,是缩放系数,一般设置为1,/>和/>是第i个点云柱投影所得的矩形点云区域在像素坐标系下的中心坐标,wi和hi为矩形点云区域的宽和高(此处的宽和高为点云柱投影所得的矩形点云区域的宽和高,投影后可以通过简单的计算得到),W和H为图像的宽和高,如果两个矩形点云区域存在重叠,则重叠区域保留距离更近点云的信息。每个点云都有距离信息。当两个矩形点云区域重叠的时候,则重叠区域内填充距离近的点云的信息。
步骤6:在融合框架中通过神经网络提取图像特征图和雷达特征图并结合注意力机制进行特征融合得到融合特征图,该融合网络以CenterNet网络作为基线进行修改,如图3所示,其中融合框架包含图像特征提取模块、雷达特征提取模块和注意力融合模块。
首先将尺寸均为1x3x512x512大小的图像和雷达矩阵信息分别输入到网络当中进行特征提取,图像特征提取模块采用DLA-34网络作为主干网提取图像特征,得到尺寸为1×2048×16×16的图像特征图,雷达特征提取模块采用ResNet-50作为主干网提取雷达特征,得到尺寸为1×2048×16×16的雷达特征图。
注意力融合模块包含两个独立的卷积层,分别对雷达特征图进行权重特征提取,该模块基于注意力的思想,借助雷达信息使神经网络关注图像特征中更加关键的信息。其中第一个卷积层的卷积核大小为1×1,步长为(1,1),填充为(0,0),第二个卷积层的卷积核大小为3×3,步长为(1,1),填充为(1,1),分别得到权重矩阵大小为1×2048×16×16,将权重矩阵相加,然后将相加得到的权重矩阵与图像特征图叉乘得到融合后的特征图1。
步骤7:将融合特征图进行DLAUp和IDAUp的上采样并利用分支卷积网络得到目标的类别和三维信息。
步骤7-1:使用反卷积模块Deconv对特征图1进行上采样,反卷积模块包含三个反卷积组,其中每一个组包含一个可形变卷积和一个反卷积,每次反卷积将特征图尺寸增大一倍,特征图1进行可变形卷积和上采样后,得到尺寸为1×64×128×128的特征图2;
步骤7-2:将特征图2分别送进4个卷积分支中进行预测,每个分支卷积包括一个3×3×256的卷积,然后做1×1卷积得到期望输出,预测得到的heatmap尺寸为1×2×128×128,位置尺寸为1×3×128×128,三维边框尺寸1×3×128×128,速度尺寸为1×1×128×128;
步骤7-3:对卷积分支的输出信息进行解码,最终得到目标的类别、位置、三维包围框和速度等信息。
测试实验
1.实验条件:
本发明运行的硬件平台为Intel Xeon Silver 4214R+NVIDIA RTX3090+16G DDR4RAM,软件环境为CentOS 7.4+CUDA 11.1+PyTorch 1.7+Python 3.7,使用PyCharm开发工具进行算法开发工作。
2.实验内容:
实验中使用的数据集为自制数据集,使用1080P高清摄像头采集视觉图像数据,使用TI IWR6843毫米波雷达采集毫米波雷达点云数据,数据集评估指标为基于nuScenes数据集制定的mAP、mATE和mAVE三种评估指标。
为了证明本发明的有效性,选择与单纯基于视觉图像的CenterNet基线模型进行对比,CenterNet网络在文献“Objects as Points”中有详细介绍。
表1:本发明与CenterNet模型结果对比
模型 mAP mATE mAVE
CenterNet 0.566 0.754 1.245
本发明 0.618 0.641 0.344
由表1可知,本发明与基线网络CenterNet相比有更高的目标检测率,平均均度均值mAP值高于CenterNet网络0.052,提高9.2%;平均偏移误差优于CenterNet网络,降低了15.0%;由于加入了雷达点云速度信息,本发明的平均速度误差远远低于CenterNet网络,降低了72.4%,相比视觉图像能够更加精准地预测目标运动速度。
综上所述,本发明针对复杂环境下三维目标检测算法存在的问题,从提高现有三维目标检测算法精度,增强模型鲁棒性出发,设计一种基于视觉相机和毫米波雷达的多模态融合三维目标检测算法,利用传感器间的互补特性,结合注意力机制对图像和雷达数据进行特征级的融合,提高了原有检测模型的检测效率,降低检测误差,提高了模型的鲁棒性,是一种有效且实用的三维目标检测算法。

Claims (6)

1.一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法,其特征在于,包括以下步骤:
数据采集与处理步骤:采集毫米波雷达点云与视觉图像数据;对毫米波雷达点云与视觉图像数据进行时间近似同步处理;
融合步骤:将毫米波雷达点云数据从雷达坐标系转换到相机坐标系实现空间同步后进行预处理操作,提取点云框内目标点云的速度和深度信息构建雷达矩阵数据完成雷达信息提取;再在融合框架中通过神经网络提取图像特征图和雷达特征图并结合注意力机制进行特征融合得到融合特征图;
检测步骤:将融合特征图进行上采样输入至分支卷积网络,对分支卷积的输出信息进行解码后得到目标的类别和三维信息;
融合步骤中对毫米波雷达点云数据进行预处理操作具体为:
将转换到相机坐标系的毫米波雷达点云数据解析为(5,N)的矩阵,其中N为多帧积累后的点云数量,每一个点云包括5个维度的特征(x,y,z,vx,vy),其中(x,y,z)表示点云的空间位置,(vx,vy)表示目标相对雷达的径向运动速度在相机坐标系X与Y方向的速度分量;
采用直通滤波筛选出径向运动速度以及相机坐标系下Z轴的距离满足条件的点云;
采用直通滤波后的点云采用欧式聚类分割得到点云集群;
利用点云库中的类提取欧式分割聚类后每个点云集群的三维的坐标轴平行包围盒;
将坐标轴平行包围盒投影到图像平面进行目标关联,坐标轴平行包围盒投影得到二维点云包围框,具体投影计算公式如下:
其中Zc为尺度因子,(u,v)为点云在图像平面的像素坐标系下的像素坐标,f为像距,dx和dy分别表示在像素坐标系的X,Y方向上的一个像素在相机感光板上的物理长度,u0和v0分别表示相机感光板中心在像素坐标系下的坐标;
将点云在相机坐标中Z轴的值记为距离d,投影后按照距离d从小到大对点云进行排序,然后将点云扩展为三维点云柱,将点云柱投影到图像平面的像素坐标系得到矩形的点云区域,获取点云区域在图像平面的位置以及宽和高。
2.如权利要求1所述方法,其特征在于,数据采集与处理步骤的具体方法为:使用与毫米波雷达和摄像头相连的安装有机器人操作系统ROS的设备采集毫米波雷达点云数据和视觉图像数据并保存为bag格式;
通过以下步骤对毫米波雷达点云数据与视觉图像进行时间近似同步处理:
首先在ROS中回放保存为bag文件格式的毫米波雷达点云数据和视觉图像数据;创建ROS节点,该ROS节点用于订阅毫米波雷达点云数据和视觉图像数据,订阅数据后使用ROS提供的自适应算法来实现不同数据时间戳信息的近似匹配,随后使用发布器将同步后的多模态数据作为信息对外发布;订阅同步后的点云信息和图像信息并保存为bag格式的文件,提取毫米波雷达点云数据保存为pcd格式文件,提取视觉图像数据保存为jpg格式文件。
3.如权利要求1所述方法,其特征在于,融合步骤中提取点云框内目标点云的x和y分量速度、深度构建雷达矩阵数据完成雷达特征图提取的具体方法为:
提取二维点云包围框内的点云构建与图像尺寸相同的3通道雷达矩阵数据,在与二维点云包围框尺寸成比例的矩形内填充雷达点云信息作为雷达特征图,其余位置填充0,填充区域的数值计算公式如下:
其中,i表示第i个点云,nc为3个通道的取值,分别为相机坐标系下的目标距离d以及目标径向速度X与Y分量;相机坐标系下的目标距离d采用点云的z值,目标径向速度的X与Y分量为点云的vx值和vy值;Sc为标准化因子;
是缩放系数,/>和/>是第i个点云柱投影所得的矩形点云区域在像素坐标系下的中心坐标,wi和hi为矩形点云区域的宽和高,W和H为图像的宽和高。
4.如权利要求1所述方法,其特征在于,融合步骤中直通滤波的具体方法是:
首先指定一个维度以及该维度下的值域范围,然后遍历点云中的每一个维度上的元素值,判断该元素值在指定维度上的取值是否在值域内,若取值不在值域内则删除该点云,遍历结束后留下的点云即完成滤波操作,有效雷达点云筛选公式为:
其中v为目标的径向运动速度在相机坐标系下X与Y方向的速度分量,z为目标在相机坐标系下Z轴的距离。
5.如权利要求1所述方法,其特征在于,欧式聚类分割的具体方法为:
依据点云与点云之间的距离将小于距离阈值的作为一个集群,使用Kd-Tree近邻搜索算法进行聚类:
1)为输入的点云数据集P创建Kd-tree的表示;
2)设置一个空聚类列表C以及一个点云队列Q;
3)在P中选取一个未被聚类处理的点云p_i进行如下聚类处理步骤:
a)将p_i添加到当前队列Q;
b)对每个Q中的p_i进行如下步骤:
b1通过Kd-Tree近邻搜索算法在点云数据集P中找到k个离p_i最近的点组成点云集p_i_k;
b2设置距离阈值r,遍历p_i_k,将p_i_k中与p_i的欧式距离不超过r且未被聚类处理的点云加入到Q中;
b3 p_i_k遍历完毕后,则把Q添加到聚类列表C的一个新的聚类上,并将Q清空;
4)当数据集P中的所有点是否均完成聚类,如否则返回步骤3),如是则完成欧式聚类分割,得到最终的聚类列表C,聚类列表C中的每一个聚类对应一个点云集群。
6.如权利要求1所述方法,其特征在于,融合步骤中使用的融合框架包含图像特征提取模块、雷达特征提取模块和注意力融合模块;
图像特征提取模块采用DLA-34网络作为主干网提取图像特征,雷达特征提取模块采用ResNet-50作为主干网提取雷达特征,雷达特征提取模块输出至注意力融合模块,注意力融合模块包含两个独立的卷积层,第一个卷积层的卷积核大小为1×1,步长为(1,1),填充为(0,0),第二个卷积层的卷积核大小为3×3,步长为(1,1),填充为(1,1),再将卷积层输出的权重矩阵相加,然后将相加得到的权重矩阵与图像特征提取模块输出的图像特征图叉乘得到融合后的特征图。
CN202210399603.8A 2022-04-15 2022-04-15 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法 Active CN114708585B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210399603.8A CN114708585B (zh) 2022-04-15 2022-04-15 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210399603.8A CN114708585B (zh) 2022-04-15 2022-04-15 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法

Publications (2)

Publication Number Publication Date
CN114708585A CN114708585A (zh) 2022-07-05
CN114708585B true CN114708585B (zh) 2023-10-10

Family

ID=82174997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210399603.8A Active CN114708585B (zh) 2022-04-15 2022-04-15 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法

Country Status (1)

Country Link
CN (1) CN114708585B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273064B (zh) * 2022-07-14 2023-05-09 中国人民解放军国防科技大学 复杂运动背景下稀疏事件点小目标分割方法
CN115393680B (zh) * 2022-08-08 2023-06-06 武汉理工大学 雾天场景下多模态信息时空融合的3d目标检测方法及系统
CN115327529A (zh) * 2022-09-05 2022-11-11 中国科学技术大学 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法
CN115236656B (zh) * 2022-09-22 2022-12-06 中国电子科技集团公司第十研究所 用于飞机避障的多源传感器目标关联方法、设备及介质
CN115937325B (zh) * 2022-09-27 2023-06-23 上海几何伙伴智能驾驶有限公司 一种结合毫米波雷达信息的车端摄像头标定方法
CN115578608B (zh) * 2022-12-12 2023-02-28 南京慧尔视智能科技有限公司 一种基于毫米波雷达点云的抗干扰分类方法及装置
CN115685185B (zh) * 2022-12-30 2023-03-21 苏州尚同墨方智能科技有限公司 一种4d毫米波雷达与视觉融合感知方法
CN116052121B (zh) * 2023-01-28 2023-06-27 上海芯算极科技有限公司 一种基于距离预估的多传感目标检测融合方法及装置
CN116363623B (zh) * 2023-01-28 2023-10-20 苏州飞搜科技有限公司 基于毫米波雷达与视觉融合的车辆检测方法
CN116245961B (zh) * 2023-03-02 2023-09-01 之江实验室 一种基于多类传感器信息的融合感知方法及系统
CN115984805B (zh) * 2023-03-15 2023-07-18 安徽蔚来智驾科技有限公司 一种数据增强方法、目标检测方法及车辆
CN116718598B (zh) * 2023-06-01 2023-12-29 鹰普罗斯叶轮(宜兴)有限公司 一种基于视觉检测的铝合金叶轮缺陷监测系统
CN116862922B (zh) * 2023-06-20 2024-03-19 运来智能装备(无锡)有限公司 基于图像分割与雷达信息融合的目标定位方法、系统及介质
CN116540252B (zh) * 2023-07-06 2023-09-26 上海云骥跃动智能科技发展有限公司 基于激光雷达的速度确定方法、装置、设备及存储介质
CN117434531B (zh) * 2023-12-21 2024-03-12 中交第一公路勘察设计研究院有限公司 一种毫米波雷达与摄像机的检测目标特征融合方法及设备
CN117994625A (zh) * 2024-04-07 2024-05-07 苏州大学 基于毫米波雷达的特征融合能见度评估方法及系统

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108872991A (zh) * 2018-05-04 2018-11-23 上海西井信息科技有限公司 目标物检测与识别方法、装置、电子设备、存储介质
CN110879401A (zh) * 2019-12-06 2020-03-13 南京理工大学 基于相机和激光雷达的无人驾驶平台实时目标3d检测方法
CN111352112A (zh) * 2020-05-08 2020-06-30 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN112801928A (zh) * 2021-03-16 2021-05-14 昆明理工大学 一种基于注意力机制的毫米波雷达与视觉传感器融合方法
CN112835037A (zh) * 2020-12-29 2021-05-25 清华大学 一种基于视觉和毫米波融合的全天候目标检测方法
CN113011380A (zh) * 2021-04-09 2021-06-22 同济大学 一种毫米波雷达视觉前置融合装置及目标识别方法
CN113095154A (zh) * 2021-03-19 2021-07-09 西安交通大学 基于毫米波雷达与单目相机的三维目标检测系统及方法
CN113158763A (zh) * 2021-02-23 2021-07-23 清华大学 4d毫米波和激光点云多视角特征融合的三维目标检测方法
CN113189583A (zh) * 2021-04-26 2021-07-30 天津大学 一种时-空同步的毫米波雷达和视觉信息融合方法
CN113222968A (zh) * 2021-05-28 2021-08-06 上海西井信息科技有限公司 融合毫米波和图像的检测方法、系统、设备及存储介质
CN113267779A (zh) * 2021-05-17 2021-08-17 南京师范大学 一种基于雷达与图像数据融合的目标检测方法及系统
CN113281738A (zh) * 2021-06-18 2021-08-20 桂林市国创朝阳信息科技有限公司 一种多传感器融合的目标检测系统及检测方法
CN113820682A (zh) * 2021-09-26 2021-12-21 华南农业大学 一种基于毫米波雷达的目标检测方法及装置
CN114114312A (zh) * 2021-11-24 2022-03-01 重庆邮电大学 一种基于多焦距相机与激光雷达融合的三维目标检测方法
CN114236528A (zh) * 2022-02-23 2022-03-25 浙江高信技术股份有限公司 一种基于毫米波雷达和视频融合的目标检测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102168753B1 (ko) * 2020-03-17 2020-10-22 한국과학기술원 카메라와 레이더 센서 융합 기반 3차원 객체 검출을 위한 전자 장치 및 그의 동작 방법

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108872991A (zh) * 2018-05-04 2018-11-23 上海西井信息科技有限公司 目标物检测与识别方法、装置、电子设备、存储介质
CN110879401A (zh) * 2019-12-06 2020-03-13 南京理工大学 基于相机和激光雷达的无人驾驶平台实时目标3d检测方法
CN111352112A (zh) * 2020-05-08 2020-06-30 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN112835037A (zh) * 2020-12-29 2021-05-25 清华大学 一种基于视觉和毫米波融合的全天候目标检测方法
CN113158763A (zh) * 2021-02-23 2021-07-23 清华大学 4d毫米波和激光点云多视角特征融合的三维目标检测方法
CN112801928A (zh) * 2021-03-16 2021-05-14 昆明理工大学 一种基于注意力机制的毫米波雷达与视觉传感器融合方法
CN113095154A (zh) * 2021-03-19 2021-07-09 西安交通大学 基于毫米波雷达与单目相机的三维目标检测系统及方法
CN113011380A (zh) * 2021-04-09 2021-06-22 同济大学 一种毫米波雷达视觉前置融合装置及目标识别方法
CN113189583A (zh) * 2021-04-26 2021-07-30 天津大学 一种时-空同步的毫米波雷达和视觉信息融合方法
CN113267779A (zh) * 2021-05-17 2021-08-17 南京师范大学 一种基于雷达与图像数据融合的目标检测方法及系统
CN113222968A (zh) * 2021-05-28 2021-08-06 上海西井信息科技有限公司 融合毫米波和图像的检测方法、系统、设备及存储介质
CN113281738A (zh) * 2021-06-18 2021-08-20 桂林市国创朝阳信息科技有限公司 一种多传感器融合的目标检测系统及检测方法
CN113820682A (zh) * 2021-09-26 2021-12-21 华南农业大学 一种基于毫米波雷达的目标检测方法及装置
CN114114312A (zh) * 2021-11-24 2022-03-01 重庆邮电大学 一种基于多焦距相机与激光雷达融合的三维目标检测方法
CN114236528A (zh) * 2022-02-23 2022-03-25 浙江高信技术股份有限公司 一种基于毫米波雷达和视频融合的目标检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Yuwei Cheng等.Robust Small Object Detection on the Water Surface through Fusion of Camera and Millimeter Wave Radar.《Computer Vision Foundation》.2021,15263-15272页. *
张新钰等.面向自动驾驶目标检测的深度多模态融合技术.《智能系统学报》.2020,第15卷(第4期),758-771. *
黄振.基于多模态融合的三维目标检测研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2023,(第01期),I138-2173. *

Also Published As

Publication number Publication date
CN114708585A (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN114708585B (zh) 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
CN112581612B (zh) 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统
CN110942449A (zh) 一种基于激光与视觉融合的车辆检测方法
CN115082924B (zh) 一种基于单目视觉和雷达伪图像融合的三维目标检测方法
CN111027401A (zh) 一种摄像头和激光雷达融合的端到端目标检测方法
Deng et al. MLOD: A multi-view 3D object detection based on robust feature fusion method
CN111222395A (zh) 目标检测方法、装置与电子设备
CN111814602B (zh) 一种基于视觉的智能车环境动态目标检测的方法
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN114821507A (zh) 一种用于自动驾驶的多传感器融合车路协同感知方法
CN113191204B (zh) 一种多尺度遮挡行人检测方法及系统
CN114648758A (zh) 物体检测方法及装置、计算机可读存储介质及无人车
John et al. Free space, visible and missing lane marker estimation using the PsiNet and extra trees regression
CN116612468A (zh) 基于多模态融合与深度注意力机制的三维目标检测方法
CN115019043A (zh) 基于交叉注意力机制的图像点云融合三维目标检测方法
CN114495045A (zh) 感知方法、感知装置、感知系统及相关设备
CN116994135A (zh) 一种基于视觉与雷达融合的船舶目标检测方法
Dimitrievski et al. Semantically aware multilateral filter for depth upsampling in automotive lidar point clouds
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
CN117173399A (zh) 一种跨模态交叉注意力机制的交通目标检测方法及系统
CN112270694A (zh) 基于激光雷达扫描图进行城市环境动态目标检测的方法
CN116665179A (zh) 数据处理方法、装置、域控制器以及存储介质
CN115862000A (zh) 目标检测方法、装置、车辆及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant