CN115639536B - 基于多传感器融合的无人船感知目标检测方法及装置 - Google Patents

基于多传感器融合的无人船感知目标检测方法及装置 Download PDF

Info

Publication number
CN115639536B
CN115639536B CN202211443230.6A CN202211443230A CN115639536B CN 115639536 B CN115639536 B CN 115639536B CN 202211443230 A CN202211443230 A CN 202211443230A CN 115639536 B CN115639536 B CN 115639536B
Authority
CN
China
Prior art keywords
data
millimeter wave
model
sensor
wave radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211443230.6A
Other languages
English (en)
Other versions
CN115639536A (zh
Inventor
程宇威
朱健楠
许浒
池雨豪
虞梦苓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Orca Electronic Intelligent Technology Co ltd
Original Assignee
Shaanxi Orca Electronic Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Orca Electronic Intelligent Technology Co ltd filed Critical Shaanxi Orca Electronic Intelligent Technology Co ltd
Priority to CN202211443230.6A priority Critical patent/CN115639536B/zh
Publication of CN115639536A publication Critical patent/CN115639536A/zh
Application granted granted Critical
Publication of CN115639536B publication Critical patent/CN115639536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于多传感器融合的无人船感知目标检测方法及装置,包括步骤:实时获取无人船的多传感器数据,多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据;将多传感器数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果。本发明利用相机、毫米波雷达和激光雷达数据,进行特征提取后再进行融合特征检测,可以有效利用各传感器的数据特点提高无人船水面目标检测感知精度;而且当单个传感器出现故障性能下降时,能够利用其他传感器的数据实现目标检测,保证无人船航行的安全性和感知鲁棒性。此外,由于雷达的环境适应性强,本发明在夜晚、雨天场景和雾天场景等视觉容易干扰的场景也有更强的环境适应性和感知鲁棒性。

Description

基于多传感器融合的无人船感知目标检测方法及装置
技术领域
本发明涉及无人船环境感知方法技术领域,尤其涉及一种基于多传感器融合的无人船感知目标检测方法及装置。
背景技术
近些年来无人船受到广泛地关注并且逐渐运用于各项应用中,例如海洋研究、水面交通运输和水面垃圾清理等。无人船在执行水面自动驾驶任务时往往需要面对复杂水域场景进行目标检测。
随着深度学习技术的发展,基于相机图像的目标检测技术取得了优异的成果,但传统基于视觉的目标检测方法容易受到水面倒影、水面反光的干扰,并且由于远处的目标在图像中像素占比较小,使得基于视觉的目标检测方法对于远处的目标检测能力较弱。而毫米波雷达对于远处的目标有较好的检测能力,并且能够提供目标的多普勒速度信息和能量强度信息。但相较于相机而言,毫米波雷达包含的语义信息较弱,无法很好的区分目标类型。另外,激光雷达包含丰富的外观特征信息,可以精确地提供目标的深度信息,目前基于激光雷达与视觉融合的目标检测方法使用图像和激光雷达数据进行融合,虽然能提升目标检测精度,但是在远距离由于激光雷达点云密度的变化而经常出现漏检,并且在水面经常出现的雨雾天气下激光雷达产生大量噪点干扰目标检测系统结果,这对于无人船的环境感知模块是致命的。
因此,需要提出一种基于多传感器融合的无人船感知目标检测方法,充分发挥各自传感器的特点,最大限度地提升水面场景下目标检测系统的检测精度;且在诸如黑夜、雨雾天气等某个传感器性能下降的情况下,可以通过其他的传感器实现目标检测,从而提升检测系统的鲁棒性。
发明内容
本发明所要解决的技术问题在于提供一种可以提高无人船水面目标检测感知精度的基于多传感器融合的无人船感知目标检测方法及装置。
为解决上述技术问题,本发明采用如下所述的技术方案:
一种基于多传感器融合的无人船感知目标检测方法,其包括有步骤:实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据;将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果;训练所述多传感器融合检测模型包括有如下步骤:S10,获取无人船的多传感器原始数据D和标签真值G;S20,对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;S30,将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q;S40,基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重;重复执行步骤S20至步骤S40,并进行迭代更新,直至模型损失值小于迭代阈值时停止迭代得到训练好的多传感器融合检测模型。
一种基于多传感器融合的无人船感知目标检测装置包括有:
数据获取模块,用于实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据;
感知检测模块,用于将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果;
以及用于训练所述多传感器融合检测模型的模型训练模块,该模型训练模块包括有:
数据获取单元,用于获取无人船的多传感器原始数据D和标签真值G;
数据预处理单元,用于对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;
特征融合检测单元,用于将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q;
模型权重更新单元,用于基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重;
迭代更新单元,用于控制数据预处理单元、特征融合检测单元及模型权重更新单元重复执行,并进行迭代更新,直至模型损失值达到迭代阈值时停止迭代得到训练好的多传感器融合检测模型。
本发明的有益技术效果在于:本发明利用相机、毫米波雷达和激光雷达数据,进行特征提取后再进行融合特征检测,可以有效利用各传感器的数据特点,最大限度地提高无人船水面目标检测感知精度;而且当单个传感器出现故障性能下降时,能够利用其他传感器的数据实现目标检测,保证无人船航行的安全性和感知鲁棒性。此外,由于雷达的环境适应性强,本发明在夜晚、雨天场景和雾天场景等视觉容易干扰的场景也有更强的环境适应性和感知鲁棒性。
附图说明
图1为本发明的基于多传感器融合的无人船感知目标检测方法的流程示意图;
图2为本发明的多传感器融合检测模型的训练过程示意图;
图3为本发明的多传感器数据同步与数据预处理的流程示意图;
图4为本发明的特征融合检测模块的结构示意图;
图5为本发明的多传感器融合检测模型实时推理过程图;
图6为本发明的基于多传感器融合的无人船感知目标检测装置的结构示意图。
具体实施方式
为使本领域的普通技术人员更加清楚地理解本发明的目的、技术方案和优点,以下结合附图和实施例对本发明做进一步的阐述。
如图1所示,在本发明一个实施例中,基于多传感器融合的无人船感知目标检测方法包括有步骤:
S100,实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据。
S200,将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果。
其中,多传感器融合检测模型是基于无人船的多传感器原始数据及相应的训练标签训练得到的。
如图2所示,训练所述多传感器融合检测模型包括有如下步骤:
S10,获取无人船的多传感器原始数据D和标签真值G。
S20,对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;
S30,将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q。
S40,基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重。
重复执行步骤S20至步骤S40,并进行迭代更新,直至模型损失值小于迭代阈值时停止迭代得到训练好的多传感器融合检测模型。在完成一次训练迭代后,利用新的多传感器融合检测模型权重,再次执行步骤S20至步骤S40,获取下一时刻的数据进行下一次模型的训练迭代,如此循环,当模型损失值小于预定阈值时,终止训练,得到训练好的多传感器融合检测模型权重,完成多传感器融合检测模型的训练。
步骤S10进一步包括:
S11、对无人船搭载的相机、毫米波雷达、激光雷达及惯性测量单元进行外参标定并获取外参矩阵T。
无人船搭载有多种传感器,包括有一个或多个相机、多线激光雷达、若干个毫米波雷达以及惯性测量单元(IMU)等,通过外参标定算法对无人船搭载的相机、毫米波雷达、激光雷达及惯性测量单元进行外参标定,得到传感器安装外参矩阵T。
S12、以无人船的上电时刻位置X 1为原点,以无人船前朝向为y轴正方向,无人船右朝向为x轴正方向建立无人船坐标系。
S13、获取无人船在不同水域场景下采集的传感器原始数据,传感器原始数据包括相机图像数据、毫米波雷达数据、激光雷达数据以及IMU数据。
在不同水域场景下,无人船以10Hz的采集频率采集传感器原始数据,对相机的摄像头进行图像ISP处理后得到相机图像数据,根据雷达数据协议解析得到激光雷达点云位置数据和毫米波雷达点云位置数据,通过卡尔曼滤波算法对IMU噪声进行过滤得到高精度IMU数据。
S14、获取无人船在相同水域场景下,不同天气、不同光线条件、不同季节下采集的传感器原始数据。
在相同水域场景下,无人船分别采集不同天气、不同光线条件、不同季节下的传感器原始数据,对相机的摄像头进行图像ISP处理后得到相机图像数据,根据雷达数据协议解析得到激光雷达点云位置数据和毫米波雷达点云位置数据,通过卡尔曼滤波算法对IMU噪声进行过滤得到高精度IMU数据。
S15、对获取的相机图像数据进行目标检测标注得到标签真值G。
对步骤S13和步骤S14获取的传感器原始数据汇聚后得到所述无人船的多传感器原始数据D,对多传感器原始数据D中的相机图像数据进行目标检测标注,并获取标签真值G。
如图3所示,步骤S20进一步包括数据同步和数据预处理步骤。
数据同步:
S21、基于多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L,通过最近邻时间戳计算获取最近邻时刻的相机图像数据I 1、毫米波雷达数据R 1和激光雷达数据L 1。其中,相机图像数据I 1为宽高为w、h的RGB格式图像,毫米波雷达数据R 1为(n 1,6)的点云数据,激光雷达数据L 1为(n 2,4)的点云数据,其中n 1n 2为点云数量。
数据预处理:
S22、对相机图像数据I 1进行图像亮度增强操作和去噪处理操作得到可用于模型输入的相机图像数据I´。其中,图像亮度增强用于平衡无人船在阴暗场景或者阳光直射场景下的图像亮度;去噪处理操作通过高斯去噪和雨雾去噪来降低图像干扰噪声。
S23、对毫米波雷达数据R 1和激光雷达数据L 1进行点云滤波,通过直通滤波算法DIRECT和密度滤波算法DBSCAN去除噪点,得到过滤后的毫米波雷达点云R 2和激光雷达点云L 2:
R 2 =DBSCAN(DIRECT(R 1 )) (2 - 1)
L 2 =DBSCAN(DIRECT(L 1 )) (2 - 2)
S24、对激光雷达点云L 2进行体素滤波VOXEL降采样得到可用于模型输入的激光雷达数据L´:
L´=VOXEL(L 2 ) (2 - 3)
S25、基于毫米波雷达点云R 2及IMU数据中的俯仰数据计算新的毫米波雷达点云R´2
由于毫米波雷达在目标垂直高度观测误差较大,因此需要先将毫米波雷达点云的高度数据进行重新校准。输入毫米波雷达点云R 2,根据IMU数据中的俯仰数据pitch计算新的毫米波雷达点云数据R´2
R´2 =h 0+tan(pitch)*R 2 (2 - 4)
其中h 0为毫米波雷达安装位置到水面的高度。
S26、利用步骤S11标定得到的外参矩阵T将校准后的毫米波雷达点云R´2投影到图像平面与图像空间对齐,得到点云投影结果R 3
R 3 =T*R´2 (2 - 5)
S27、基于点云投影结果R 3,根据雷达的点云距离,点云速度,点云能量进行高斯分布计算得到三通道点云灰度图像,将三通道点云灰度图像拼接得到毫米波雷达数据R´。
第一个通道为点云距离密度图R´(x i ,y i 1),用于记录点云障碍信息:
Figure 263897DEST_PATH_IMAGE001
其中,(x i ,y i )为第i个点云投影位置,u为高斯核均值置为1,σ为高斯核方差置为30,n 1为毫米波雷达点云的点云总数,r i 为第i个点云(x i ,y i ,z i )的三维欧式距离:
Figure 148414DEST_PATH_IMAGE002
第二个通道为点云速度密度图R´(x i ,y i 2),用于记录点云速度信息:
Figure 662572DEST_PATH_IMAGE003
其中,v i 为第i个点云的多普勒速度。
第三个通道为点云能量密度图R´(x i ,y i 3),用于记录点云能量信息:
Figure 792202DEST_PATH_IMAGE004
其中,p i 为第i个点云的能量强度。
将三通道点云灰度图像拼接得到毫米波雷达数据R´:
R´=R´(x i ,y i 1)+R´(x i ,y i 2)+R´(x i ,y i 3) (2 - 10)
步骤S30进一步包括:
S31、将经过数据同步和数据预处理的相机图像数据I´输入至图像特征提取网络Image_Backbone进行特征提取得到图像数据特征F I 。该图像特征提取网络Image_Backbone可以为基于残差网络结构的卷积神经网络,也可以为基于注意力机制的多头注意力神经网络:
F I =Image_Backbone(I´) (3 - 1)
S32、将经过数据同步和数据预处理的毫米波雷达数据R´输入至毫米波雷达特征提取网络Radar_Backbone进行特征提取得到毫米波雷达数据特征F R 。该毫米波雷达特征提取网络Radar_Backbone为用于捕获浅层雷达密度特征的浅层卷积神经网络:
F R =Radar_Backbone(R´) (3 - 2)
S33、将经过数据同步和数据预处理的激光雷达数据L´输入至激光雷达特征提取网络Lidar_Backbone进行特征提取得到激光雷达数据特征F L 。该激光雷达特征提取网络Lidar_Backbone可以为基于共享权重的点云提取网络,也可以为基于三维卷积的点云卷积网络:
F L =Lidar_Backbone(L´) (3 - 3)
S34、将图像数据特征F I 、毫米波雷达数据特征F R 、激光雷达数据特征F L 输入到特征融合检测模块Fusion_Head进行特征融合检测得到模型预测结果Q:
Q=Fusion_Head(F I, F R, F L ) (3 - 4)
其中特征融合检测模块是基于注意力模块进行构建的,模型结构如图4所示。先将图像数据特征F I 、毫米波雷达数据特征F R 、激光雷达数据特征F L 分别输入对应的自注意力模块进行处理,再通过共享全局注意力模块对经过自注意力模块处理后的图像数据特征F I 、毫米波雷达数据特征F R 、激光雷达数据特征F L 进行特征融合,得到多传感器融合特征F IRL
F IRL =G 0 (S 1 (F I ))+G 0 (S 2 (F R ))+G 0 (S 3 (F L )) (3 - 5)
其中,S 1 S 2 S 3 为自注意力模块,G 0 为共享全局注意力模块。
根据置信度阈值,对多传感器融合特征F IRL 进行置信度预测Prediction,并对预测结果进行NMS非极大值抑制后得到模型预测结果Q。
Q=NMS(Prediction(F IRL )) (3 - 6)
步骤S40进一步包括:
S41、基于模型预测结果Q的预测目标位置和标签真值G的实际目标位置,利用位置误差损失函数计算位置误差损失值L loc 。该位置误差损失函数可以为IoU损失函数,也可以为DIoU损失函数。
Figure 340995DEST_PATH_IMAGE005
其中,IoU为模型预测结果Q和标签真值G的交并比,p 2 (Q,G)为模型预测结果Q和标签真值G中心点的欧氏距离,c 2 为模型预测结果Q和标签真值G的边框大小之和。
S42、基于模型预测结果Q的预测目标置信度和标签真值G的实际目标置信度,利用交叉熵函数CrossEntropy计算置信度损失值L conf
L conf =CrossEntropy(Q,G) (4 - 2)
S43、基于模型预测结果Q的预测目标分类和标签真值G的实际目标分类,利用交叉熵函数CrossEntropy计算分类损失值L cls
L cls =CrossEntropy(Q,G) (4 - 3)
S44、将位置误差损失值L loc 、置信度损失值L conf 及分类损失值L cls 相加得到模型总损失L,将模型总损失L进行模型反向传播,更新多传感器融合检测模型权重。模型总损失L的计算公式为:
L=a 1 *L loc +a 2 *L conf +a 3 *L cls (4 - 4)
其中,a 1a 2a 3为超参数。
如图5所示,在本发明实施例中,多传感器融合检测模型是由设置在远端的深度学习云服务器训练得到的,无人船在对水域场景进行目标检测前,需要从深度学习云服务器上获取训练好的多传感器融合检测模型权重,加载到无人船内存单元,无人船再执行步骤S100、步骤S200而实现目标检测。当然,在本发明的其他实施例中,多传感器融合检测模型也可以通过无人船进行训练。
S100,实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据。
无人船的传感器单元包括有一个或多个相机、多线激光雷达、若干个毫米波雷达以及惯性测量单元(IMU)等,通过对相机的摄像头进行图像ISP处理后得到相机图像数据,根据雷达数据协议解析得到激光雷达点云位置数据和毫米波雷达点云位置数据,通过卡尔曼滤波算法对IMU噪声进行过滤得到高精度IMU数据。
S200,将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果。
首先,将步骤S100获取的相机图像数据、毫米波雷达数据、激光雷达数据输入预处理单元中进行数据预处理,数据预处理过程可参考步骤S20中的数据预处理过程,这里不再赘述。
然后,将预处理后的相机图像数据、毫米波雷达数据、激光雷达数据输入至无人船计算单元中,无人船计算单元调用无人船内存单元中的多传感器融合检测模型进行推理,得到实时融合感知检测结果。
需要说明的是,无人船计算单元可以是中央处理单元(CentralProcessingUnit,CPU),还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
如图6所示,在本发明一个实施例中,基于多传感器融合的无人船感知目标检测装置包括有数据获取模块10、感知检测模块20以及用于训练所述多传感器融合检测模型的模型训练模块30。
数据获取模块10,用于实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据。
感知检测模块20,用于将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果。
模型训练模块30包括有数据获取单元31、数据预处理单元32、特征融合检测单元33、模型权重更新单元34以及迭代更新单元35。
数据获取单元31,用于获取无人船的多传感器原始数据D和标签真值G;
数据预处理单元32,用于对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;
特征融合检测单元,用于将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q;
模型权重更新单元34,用于基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重;
迭代更新单元35,用于控制数据预处理单元32、特征融合检测单元33及模型权重更新单元34重复执行,并进行迭代更新,直至模型损失值达到迭代阈值时停止迭代得到训练好的多传感器融合检测模型。
以上所述仅为本发明的优选实施例,而非对本发明做任何形式上的限制。本领域的技术人员可在上述实施例的基础上施以各种等同的更改和改进,凡在权利要求范围内所做的等同变化或修饰,均应落入本发明的保护范围之内。

Claims (10)

1.一种基于多传感器融合的无人船感知目标检测方法,其特征在于,所述基于多传感器融合的无人船感知目标检测方法包括有步骤:
S100,实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据;
S200,将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果;
训练所述多传感器融合检测模型包括有如下步骤:
S10,获取无人船的多传感器原始数据D和标签真值G;
S20,对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;
S30,将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q;
S40,基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重;
重复执行步骤S20至步骤S40,并进行迭代更新,直至模型损失值小于迭代阈值时停止迭代得到训练好的多传感器融合检测模型。
2.如权利要求1所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述步骤S10进一步包括:
对无人船搭载的相机、毫米波雷达、激光雷达及惯性测量单元进行外参标定并获取外参矩阵T;
以无人船的上电时刻位置为原点,以无人船前朝向为y轴正方向,无人船右朝向为x轴正方向建立无人船坐标系;
获取无人船在不同水域场景下采集的传感器原始数据,传感器原始数据包括相机图像数据、毫米波雷达数据、激光雷达数据以及IMU数据;
获取无人船在相同水域场景下,不同天气、不同光线条件、不同季节下采集的传感器原始数据;
对获取的相机图像数据进行目标检测标注得到标签真值G。
3.如权利要求2所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述步骤S20进一步包括:
基于多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L,通过最近邻时间戳计算获取最近邻时刻的相机图像数据I 1、毫米波雷达数据R 1和激光雷达数据L 1
对相机图像数据I 1进行图像亮度增强操作和去噪处理操作得到相机图像数据I´;
对毫米波雷达数据R 1和激光雷达数据L 1进行点云滤波,通过直通滤波算法和密度滤波算法去除噪点,得到过滤后的毫米波雷达点云R 2 和激光雷达点云L 2
对激光雷达点云L 2 进行体素滤波降采样得到激光雷达数据L´;
基于毫米波雷达点云R 2 及IMU数据中的俯仰数据计算新的毫米波雷达点云R´2
利用外参矩阵T将毫米波雷达点云R´2投影到图像平面与图像空间对齐,得到点云投影结果R 3
基于点云投影结果R 3,根据雷达的点云距离,点云速度,点云能量进行高斯分布计算得到三通道点云灰度图像,将三通道点云灰度图像拼接得到毫米波雷达数据R´。
4.如权利要求3所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述步骤S30进一步包括:
将相机图像数据I´输入至图像特征提取网络进行特征提取得到图像数据特征F I
将毫米波雷达数据R´输入至毫米波雷达特征提取网络进行特征提取得到毫米波雷达数据特征F R
将激光雷达数据L´输入至激光雷达特征提取网络进行特征提取得到激光雷达数据特征F L
将图像数据特征F I 、毫米波雷达数据特征F R 及激光雷达数据特征F L 输入特征融合检测模块进行特征融合检测得到模型预测结果Q。
5.如权利要求4所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述特征融合检测模块基于注意力模块进行构建,所述将图像数据特征F I 、毫米波雷达数据特征F R 及激光雷达数据特征F L 输入特征融合检测模块进行特征融合检测得到模型预测结果Q进一步包括:
将图像数据特征F I 、毫米波雷达数据特征F R 及激光雷达数据特征F L 分别输入对应的自注意力模块进行处理;
通过共享全局注意力模块对经过自注意力模块处理后的图像数据特征F I 、毫米波雷达数据特征F R 及激光雷达数据特征F L 进行特征融合,得到多传感器融合特征F IRL
基于置信度阈值,对多传感器融合特征F IRL 进行置信度预测,并对预测结果进行非极大值抑制后得到模型预测结果Q。
6.如权利要求4或5所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述图像特征提取网络为基于残差网络结构的卷积神经网络或者基于注意力机制的多头注意力神经网络;所述毫米波雷达特征提取网络为用于捕获浅层雷达密度特征的浅层卷积神经网络;所述激光雷达特征提取网络为基于共享权重的点云提取网络或者基于三维卷积的点云卷积网络。
7.如权利要求1所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述步骤S40进一步包括:
基于模型预测结果Q的预测目标位置和标签真值G的实际目标位置,利用位置误差损失函数计算位置误差损失值;
基于模型预测结果Q的预测目标置信度和标签真值G的实际目标置信度,利用交叉熵函数计算置信度损失值;
基于模型预测结果Q的预测目标分类和标签真值G的实际目标分类,利用交叉熵函数计算分类损失值;
将位置误差损失值、置信度损失值及分类损失值相加得到模型总损失,将模型总损失进行模型反向传播,更新多传感器融合检测模型权重。
8.如权利要求7所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述位置误差损失函数为IoU损失函数或者DIoU损失函数。
9.如权利要求1所述的基于多传感器融合的无人船感知目标检测方法,其特征在于,所述步骤S200进一步包括:
对实时获取的相机图像数据、毫米波雷达数据、激光雷达数据进行数据预处理;
将经过数据预处理的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果。
10.一种基于多传感器融合的无人船感知目标检测装置,其特征在于,所述基于多传感器融合的无人船感知目标检测装置包括有:
数据获取模块,用于实时获取无人船的多传感器数据,所述多传感器数据包括相机图像数据、毫米波雷达数据、激光雷达数据;
感知检测模块,用于将实时获取的相机图像数据、毫米波雷达数据、激光雷达数据输入训练好的多传感器融合检测模型中,得到融合感知检测结果;
以及用于训练所述多传感器融合检测模型的模型训练模块,该模型训练模块包括有:
数据获取单元,用于获取无人船的多传感器原始数据D和标签真值G;
数据预处理单元,用于对多传感器原始数据D中的相机图像数据I、毫米波雷达数据R、激光雷达数据L进行数据同步和数据预处理,得到用于模型输入的相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´;
特征融合检测单元,用于将相机图像数据I´、毫米波雷达数据R´和激光雷达数据L´输入至特征提取模型进行特征提取,将提取的特征进行特征融合检测得到模型预测结果Q;
模型权重更新单元,用于基于模型预测结果Q和标签真值G计算模型损失值,根据模型损失值进行神经网络模型的反向传递,更新多传感器融合检测模型权重;
迭代更新单元,用于控制数据预处理单元、特征融合检测单元及模型权重更新单元重复执行,并进行迭代更新,直至模型损失值达到迭代阈值时停止迭代得到训练好的多传感器融合检测模型。
CN202211443230.6A 2022-11-18 2022-11-18 基于多传感器融合的无人船感知目标检测方法及装置 Active CN115639536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211443230.6A CN115639536B (zh) 2022-11-18 2022-11-18 基于多传感器融合的无人船感知目标检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211443230.6A CN115639536B (zh) 2022-11-18 2022-11-18 基于多传感器融合的无人船感知目标检测方法及装置

Publications (2)

Publication Number Publication Date
CN115639536A CN115639536A (zh) 2023-01-24
CN115639536B true CN115639536B (zh) 2023-03-21

Family

ID=84948902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211443230.6A Active CN115639536B (zh) 2022-11-18 2022-11-18 基于多传感器融合的无人船感知目标检测方法及装置

Country Status (1)

Country Link
CN (1) CN115639536B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117970318B (zh) * 2024-04-02 2024-07-16 所托(杭州)汽车智能设备有限公司 目标融合方法、电子设备及存储介质
CN118424300A (zh) * 2024-07-05 2024-08-02 诺力智能装备股份有限公司 一种基于slam的定位方法及装置
CN118642096A (zh) * 2024-08-16 2024-09-13 江苏濠汉信息技术有限公司 基于多传感器融合优化单图测距精度的方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257522A (zh) * 2020-09-30 2021-01-22 南京航空航天大学 基于环境特征的多传感器融合环境感知方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7074571B2 (ja) * 2018-06-07 2022-05-24 Jrcモビリティ株式会社 対象位置計測装置及び対象位置計測プログラム
CN110414396B (zh) * 2019-07-19 2021-07-16 中国人民解放军海军工程大学 一种基于深度学习的无人艇感知融合算法
CN112394726B (zh) * 2020-10-20 2023-08-04 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112270718B (zh) * 2020-11-13 2022-11-15 苏州智加科技有限公司 摄像头标定方法、装置、系统及存储介质
CN113743385A (zh) * 2021-11-05 2021-12-03 陕西欧卡电子智能科技有限公司 一种无人船水面目标检测方法、装置及无人船
CN114926726B (zh) * 2022-07-20 2022-10-28 陕西欧卡电子智能科技有限公司 基于多任务网络的无人船感知方法及相关设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257522A (zh) * 2020-09-30 2021-01-22 南京航空航天大学 基于环境特征的多传感器融合环境感知方法

Also Published As

Publication number Publication date
CN115639536A (zh) 2023-01-24

Similar Documents

Publication Publication Date Title
CN115639536B (zh) 基于多传感器融合的无人船感知目标检测方法及装置
CN109283538B (zh) 一种基于视觉和激光传感器数据融合的海上目标大小检测方法
CN112149550B (zh) 一种基于多传感器融合的自动驾驶车辆3d目标检测方法
WO2022067647A1 (zh) 一种路面要素确定方法及装置
CN114926726B (zh) 基于多任务网络的无人船感知方法及相关设备
CN105225251A (zh) 基于机器视觉的超视距海上运动目标快速识别与定位装置及方法
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
KR20200095888A (ko) 무인 선박 시스템의 상황인지 방법 및 장치
Liu et al. Ship recognition and tracking system for intelligent ship based on deep learning framework
CN117173215B (zh) 一种跨摄像头的内河航船全程轨迹识别方法及系统
Lyu et al. Sea-surface object detection based on electro-optical sensors: A review
CN112683228A (zh) 单目相机测距方法及装置
CN115034324A (zh) 一种多传感器融合感知效能增强方法
CN117075112A (zh) 一种方位角航迹匹配的无人艇雷达光电融合方法
CN113933828A (zh) 一种无人艇环境自适应多尺度目标检测方法及系统
Cafaro et al. Towards Enhanced Support for Ship Sailing
CN114037968A (zh) 基于深度雷达点云和图像数据融合的车道线检测方法
CN110211148A (zh) 一种基于目标状态预估的水下图像预分割方法
CN113091733A (zh) 一种基于毫米波雷达与imu融合的实时定位装置及方法
WO2024060209A1 (zh) 一种处理点云的方法和雷达
Shao et al. A robust method for multi object tracking in autonomous ship navigation systems
CN115830140A (zh) 一种海上近程光电监控方法、系统、介质、设备及终端
CN113484864B (zh) 面向无人艇的航海雷达与光电吊舱协同环境感知方法
CN115792912A (zh) 一种弱观测条件下基于视觉与毫米波雷达融合的水面无人艇环境感知方法及系统
Yoneyama et al. Vision-based maritime object detection covering far and tiny obstacles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant