CN114694011A - 一种基于多传感器融合的透雾目标检测方法及装置 - Google Patents

一种基于多传感器融合的透雾目标检测方法及装置 Download PDF

Info

Publication number
CN114694011A
CN114694011A CN202210306924.9A CN202210306924A CN114694011A CN 114694011 A CN114694011 A CN 114694011A CN 202210306924 A CN202210306924 A CN 202210306924A CN 114694011 A CN114694011 A CN 114694011A
Authority
CN
China
Prior art keywords
data
sensor
camera
fusion
fog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210306924.9A
Other languages
English (en)
Inventor
马金艳
刘庆杰
于鹏飞
徐庶
管达志
陈博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanhu Research Institute Of Electronic Technology Of China
Original Assignee
Nanhu Research Institute Of Electronic Technology Of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanhu Research Institute Of Electronic Technology Of China filed Critical Nanhu Research Institute Of Electronic Technology Of China
Priority to CN202210306924.9A priority Critical patent/CN114694011A/zh
Publication of CN114694011A publication Critical patent/CN114694011A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于多传感器融合的透雾目标检测方法及装置,方法包括:配置传感器组;将传感器组中各传感器采集的数据进行时间和空间上的数据对齐;对数据对齐后的各传感器数据进行多模态数据表征得到表征数据;基于表征数据利用预训练的自适应深度融合模型定位移动目标,完成目标检测。本发明通过融合各传感器多模态多尺度的有效信息,增强了系统感知能力,实现了各种雾天情况下对未知移动目标的端到端检测,引入事件相机实现了在高速移动和光照突变等挑战性场景下对未知移动目标的准确捕获,利用事件相机数据生成注意力图来实现自适应融合,进一步提高了模型检测性能。

Description

一种基于多传感器融合的透雾目标检测方法及装置
技术领域
本发明属于目标检测技术领域,具体涉及一种基于多传感器融合的透雾目标检测方法及装置。
背景技术
目前,海域视频监控系统的发展仍处于起步阶段,主要受限于海面复杂环境、恶劣天气(如多雾、雷暴、狂风等)和未知移动目标的诸多不确定性等因素影响。在天气晴好时,基于普通的摄像头和智能算法能够完成要害区域的防护监测任务,但遇到恶劣天气时,尤其是海上多雾、多水气的情况下,普通摄像头的检测效果就会大打折扣。此外,现有的图像训练数据集均是偏向晴朗天气,并且现有的性能卓越的目标检测网络设计均是在假设数据流一致且冗余的前提下进行,这就导致现有技术在多雾的情况下会因为数据不对称(例如浓雾天气下毫米波雷达可感知数据,但激光雷达感知受限)而失效。因此,如何在复杂多变的海域环境下高效、准确、实时地对未知移动目标开展全天候的定位、跟踪是实现智能海域监测任务的重要基础。
为了推进目标检测的发展,现有技术也提出了针对水雾情况下的目标检测方法,如申请公布号为CN 111161160 A的中国专利文献,其公开了一种雾天障碍物检测方法,主要内容为获取待检测路段的原始有雾图像;将原始有雾图像输入去雾模型,对原始有雾图像进行去雾处理,得到初始去雾图像;其中,去雾模型是基于原始无雾样本图像对第一卷积神经网络进行训练得到的;对初始去雾图像进行后处理,得到第一去雾图像;将第一去雾图像输入障碍物检测模型,确定第一去雾图像中的障碍物的位置和轮廓;其中,障碍物检测模型是基于去雾样本图像对第二卷积神经网络进行训练得到的。但是该方法无法解决浓雾情况下的目标检测问题,仅利用相机数据只能处理轻雾情况下的目标检测问题,此外在快速移动和运动模糊、光照突变等具有挑战性环境下的感知能力较弱,使用场景受限;同时也无法解决大雾天气下数据不对称导致的检测失效问题。
发明内容
本发明的目的之一在于提供一种基于多传感器融合的透雾目标检测方法,提高在复杂环境下的移动目标捕获性能。
为实现上述目的,本发明所采取的技术方案为:
一种基于多传感器融合的透雾目标检测方法,所述基于多传感器融合的透雾目标检测方法,包括:
配置传感器组,所述传感器组包括双目相机、远红外相机、事件相机和毫米波雷达,传感器组为上下两层布置结构,上层布置结构居中搭载毫米波雷达,下层布置结构从左至右分别搭载事件相机、双目相机和远红外相机;
将传感器组中各传感器采集的数据进行时间和空间上的数据对齐;
对数据对齐后的各传感器数据进行多模态数据表征得到表征数据;
基于表征数据利用预训练的自适应深度融合模型定位移动目标,完成目标检测,所述自适应深度融合模型对双目相机、远红外相机和毫米波雷达对应的表征数据进行特征提取并堆叠得到融合特征图,同时利用注意力机制构建基于事件相机对应的表征数据的注意力图,将所述注意力图与所述融合特征图相乘得到自适应融合特征用于定位移动目标。
以下还提供了若干可选方式,但并不作为对上述总体方案的额外限定,仅仅是进一步的增补或优选,在没有技术或逻辑矛盾的前提下,各可选方式可单独针对上述总体方案进行组合,还可以是多个可选方式之间进行组合。
作为优选,所述将传感器组中各传感器采集的数据进行空间上的数据对齐,包括:利用几何空间变换和标定的方式将远红外相机、事件相机和毫米波雷达统一到双目相机坐标系中并建立与双目相机之间的映射关系,后将远红外相机、事件相机和毫米波雷达的测量结果映射到双目相机各像素上。
作为优选,所述将传感器组中各传感器采集的数据进行时间上的数据对齐,包括:以双目相机、远红外相机、事件相机和毫米波雷达中采集频率最低的传感器采集时间为准,获取其他传感器同一时刻的数据。
作为优选,所述对数据对齐后的各传感器数据进行多模态数据表征得到表征数据,包括:
对于双目相机,取双目相机输出的彩色原始图像表征数据结构为[Ws,Hs,Cs],分别表示双目相机图像宽、高和通道数;
对于远红外相机,取远红外相机输出的热感图像,以像素为单位采用图像插值方法将热感图像的分辨率放大至与双目相机的彩色原始图像对齐,表征数据结构为[Wf,Hf,Cf],分别表示远红外相机图像的宽、高和通道数;
对于毫米波雷达,取毫米波雷达输出的点云数据,对点云数据进行双线性插值直至与双目相机的彩色原始图像数据匹配,即形成张量结构的类图像数据,表征数据结构为[L,S,R],分别表示为距离、速度和雷达散射截面值;
对于事件相机,取事件相机输出的异步时间序列,采用端到端的数据表征方法产生一个带有时间特征的体素网格。
作为优选,所述双目相机输出的彩色原始图像表征数据结构中的通道数Cs=3,所述远红外相机输出的热感图像表征数据结构中的Cf=1。
作为优选,所述自适应深度融合模型采用ResNet34神经网络对毫米波雷达、双目相机和远红外相机的表征数据进行特征提取得到特征图,并利用concatenation堆叠多个特征图得到融合特征图。
作为优选,所述将所述注意力图与所述融合特征图相乘,包括:
利用注意力图上的每一个像素值对融合特征图的对应像素值进行加权。
作为优选,所述自适应深度融合模型使用1个1x1卷积将自适应融合特征的通道降维到256,而后并行使用2个3x3卷积,并在回归分支添加IOU分支以分别实现分类和回归得到移动目标。
作为优选,所述自适应深度融合模型的损失函数设计包括:
将损失函数定义为分类损失函数和回归损失函数之和,即:
L=Lcls+αLreg
式中,Lcls和Lreg分别为分类损失函数和回归损失函数,α为权重参数;
分类损失函数Lcls为类置信度与标签之间的二元交叉熵,定义如下:
Figure BDA0003565857450000031
式中,损失被拆分为正锚框和负锚框,匹配阈值为0.5,pc为预测分类概率,lc为真值二元标签,N为样本数,针对每个正锚框,采用Huber损失对边界框进行回归:
Figure BDA0003565857450000032
Figure BDA0003565857450000033
式中,Npos是正样本数,H(pc,lc)是Huber损失函数。
本发明提供的基于多传感器融合的透雾目标检测方法,通过融合各传感器多模态多尺度的有效信息,增强了系统感知能力,实现了各种雾天情况下对未知移动目标的端到端检测,解决大雾天气可见度低情况下仅靠传统相机感知能力弱的问题;引入事件相机实现了在高速移动和光照突变等挑战性场景下对未知移动目标的准确捕获,解决大雾天高速移动和光照变化等复杂情况下对未知移动目标的快速检测问题;利用事件相机数据生成注意力图来实现自适应融合,解决了数据不对称情况下的多传感器的深度特征融合问题,进一步提高了模型检测性能。
本发明的目的之二在于提供一种基于多传感器融合的透雾目标检测装置,提高在复杂环境下的移动目标捕获性能。
为实现上述目的,本发明所采取的技术方案为:
一种基于多传感器融合的透雾目标检测装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述基于多传感器融合的透雾目标检测方法的步骤。
附图说明
图1为本发明的基于多传感器融合的透雾目标检测方法的流程图;
图2为本发明各传感器的数据进行数据表征后的示意图;
图3为本发明自适应深度融合检测网络的结构示意图;
图4为本发明实验中针对浓雾环境下本发明的基于多传感器融合的透雾目标检测方法输出的目标检测图;
图5为本发明实验中针对另一浓雾环境下本发明的基于多传感器融合的透雾目标检测方法输出的目标检测图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本发明。
为了解决现有技术中移动目标检测准确性低,特别针对大雾天气无法捕获移动目标的问题,本实施例提出一种采用传统相机、远红外相机、事件相机和毫米波雷达的多传感器融合手段,其中,红外成像具有透烟雾能力强、夜间监视性能佳、不易受电磁干扰、隐蔽性和抗干扰性强等显著优势;毫米波雷达对移动目标的方位和速度有较好的探测效果;事件相机能够对高速运动的物体,保持跟踪和成像。本实施例融合各类传感器在不同天气下的优势,研究面向大雾天气可见度低、运动物体模糊情况下的未知移动目标检测技术,以实现对要害区域或浮岛周界的未知移动目标的探测与行为分析。
如图1所示,本实施例的基于多传感器融合的透雾目标检测方法,包括:
步骤1、配置传感器组。
多模态感知对大雾天气下的未知移动目标检测至关重要,针对每款传感器的固有特性,本实施例采用传统双目相机、远红外相机、事件相机和毫米波雷达组成多传感器融合的传感器组。整体结构分成上下两层,上层居中搭载毫米波雷达,下层从左至右分别搭载事件相机、双目相机和远红外相机,以提高在大雾等恶劣天气的感知能力,而后通过高效密封以实现抗盐雾、抗腐蚀的效果。
在一个实施例中,为了保证目标检测效果,采用的各传感器的选型如下:
双目相机采用RCCB相机,2个摄像头分辨率均为1920x1024,基线为20.3cm,焦距为8mm,视场为39.6x21.7度,频率为30Hz。
远红外相机采用Axis Q1922,分辨率为640x480,像素间距17um,等效噪声温差小于100mK,以30Hz的分辨率捕获热感图像。
事件相机采用Prophesee的Gen4,分辨率为1280x720,时间延迟为1us(等效时间精度>10000fps),动态范围为120db,功耗约为30mW。
毫米波雷达采用调频连续波(FMCW)毫米波雷达,频率为77GHz,角分辨率为1°,最大距离为200m,以15Hz的频率开展位置速度检测。
需要说明的是,以上仅为本实施例提供的一种较佳的选型方式,在其他实施例中可以根据实际需求进行选型。
步骤2、将传感器组中各传感器采集的数据进行时间和空间上的数据对齐。实现各传感器在时间和空间上的数据对齐和信息关联,以在后期的特征级层面充分利用各传感器信息。
由于不同传感器安装的位置和采样频率不同,各传感器数据之间存在一定时空差,若不修正则会导致数据的不一致性,因此通过时空同步技术将不同传感器进行数据对齐和信息关联,以保证后期各传感器特征级融合的充分性。
1)空间上的数据对齐:利用几何空间变换和标定的方式将远红外相机、事件相机和毫米波雷达统一到双目相机坐标系中并建立与双目相机之间的映射关系,后将远红外相机、事件相机和毫米波雷达的测量结果映射到双目相机各像素上。
本实施例在进行空间上的数据对齐时,统一将传感器数据映射至双目相机的像素上,其中双目相机具有的坐标系如下:世界坐标系(w),参考坐标系/基准坐标系,用于描述双目相机和物体的位置;双目相机坐标系(c),固定在双目相机上,原点在光心,Zc轴沿光轴方向,Xc和Yc轴分别平行于成像平面;以物理单位表示的图像坐标系(x,y)(简称图像坐标系),原点在双目相机光轴与图像平面的交点,x、y轴与双目相机Xc、Yc轴平行,沿图像平面方向;以像素为单位表示的图像坐标系(u,v)(简称像素坐标系),原点在数字图像的左上角,u、v轴沿图像平面向右向下为正方向。
各传感器的坐标映射为现有技术,本实施例以毫米波雷达和双目相机为例进行说明,即将毫米波雷达坐标系转换到以双目相机为中心的世界坐标系,而后分别通过双目相机坐标系和图像坐标系变换到像素坐标系,其变换关系如下:
Figure BDA0003565857450000061
Figure BDA0003565857450000062
其中,XrYrZr是毫米波雷达坐标系,XwYwZw为世界坐标系,θ为uv轴的夹角,Xw0,Yw0为毫米波雷达坐标系原点在世界坐标系中的坐标,R和T分别表示旋转矩阵和平移矩阵,f表示双目相机焦距,uv为像素坐标系,原点在图像左上角,u0,v0为像素坐标系原点,dx,dy像素的长和宽。
2)时间上的数据对齐:以双目相机、远红外相机、事件相机和毫米波雷达中采集频率最低的传感器采集时间为准,获取其他传感器同一时刻的数据。
传感器采样频率不同而导致的数据不一致性在目标高速移动情况下尤为明显,本实施例采集各传感器获取数据的频率,并以频率最低的传感器为时间基准,即将该传感器数据采集时刻作为要插入的时间点,获取其他传感器同一时刻数据,例如根据步骤1中的传感器参数,毫米波雷达的采样时间最低为15Hz,因此时间同步以毫米波雷达为基准。
步骤3、对数据对齐后的各传感器数据进行多模态数据表征得到表征数据。
深度多模态融合的前提是数据表征,即对各传感器数据进行有效的数据编码(其中各传感器数据表征后的数据结构如图2所示),具体如下:
对于双目相机,取双目相机输出的彩色原始图像(RGB图)表征数据结构为[Ws,Hs,Cs],分别表示双目相机图像宽、高和通道数,本实施例中取Cs=3。
对于远红外相机,取远红外相机输出的热感图像,由于远红外图像的分辨率远低于双目图像,因此本实施例以像素为单位采用图像插值方法将热感图像的分辨率放大至与双目相机的彩色原始图像对齐,表征数据结构为[Wf,Hf,Cf],分别表示远红外相机图像的宽、高和通道数,本实施例中取Cf=1。
对于毫米波雷达,毫米波雷达的数据通常以点云的形式呈现,分别包括探测目标的距离、速度、方位角、RCS(雷达散射截面)等。由于雷达数据稀疏,其空间分辨率和角分辨率较低。因此本实施例取毫米波雷达输出的点云数据,对点云数据进行双线性插值直至与双目相机的彩色原始图像数据匹配,即形成张量结构的类图像数据,表征数据结构为[L,S,R],分别表示为距离、速度和雷达散射截面值。
对于事件相机,事件相机能有效编码由场景中移动的对象引起的像素级亮度变化,从而产生异步事件序列,这使得传感器具有非常高的动态范围(>120dB)和高时间分辨率(以微秒为单位),这些特征能有效应对例如快速移动和光照突变等挑战性场景,当目标(或相机)移动时,像素异步生成事件序列,形成时空点云来表征目标的空间分布和动态行为,第i个事件点ei可被定义为[xi,yi,ti,pi],其中xi、yi和ti分别表示事件点的坐标和时间戳,极性pi={-1,+1},其中-1和+1分别表示OFF和ON事件;由于事件序列异步且稀疏,因此这里采用端到端的数据表征方法,即利用一个多层感知器将原始事件序列对每个事件的事件时间信息进行编码,将发生在同一空间位置的事件值进行累加形成最终的特征,以此产生一个带有时间特征的体素网格。
步骤4、基于表征数据利用预训练的自适应深度融合模型定位移动目标,完成目标检测。
针对自适应深度融合模型本实施例设计了一个端到端的自适应深度融合检测网络,可以利用连续卷积在多模态和多尺度下融合不同传感器的特征信息,其中,主干网络的特征提取部分采用ResNet34网络,通过卷积层和池化层的逐层叠加,不断增加每层通道数以减小特征图尺寸。特征图的尺寸逐层减小,实现了一个用于不同尺度检测的特征金字塔FPN。
即本实施例的自适应深度融合模型对双目相机、远红外相机和毫米波雷达对应的表征数据进行特征提取并堆叠得到融合特征图,同时利用注意力机制构建基于事件相机对应的表征数据的注意力图,将所述注意力图与所述融合特征图相乘得到自适应融合特征用于定位移动目标。
自适应深度融合检测网络结构如图3所示,整个网络包括事件相机、毫米波雷达、双目相机和远红外相机这4个数据流,利用ResNet34对毫米波雷达、双目相机和远红外相机的传感数据进行特征提取得到特征图,并利用concatenation堆叠多个输入的特征图,从而实现对多尺寸多模态数据的深度融合得到融合特征图。
由于事件相机对高速移动和光照突变等挑战性环境下的移动目标检测具有先天优势,因此将其作为额外的辅助数据,并利用注意力机制方式构建基于事件相机的注意力图,由于注意力图上像素值的大小体现了局部信息量,能直接反映该区域的重要程度,因此采用注意力融合方法将其与另外三种传感器融合生成的融合特征图相乘,即利用注意力图上的每一个像素值对融合特征图的对应像素进行加权,从而实现自适应特征融合得到自适应融合特征。
此外,本实施例使用较为简单的检测头来提高模型的收敛速度,经权衡使用1个1x1卷积将自适应融合特征的通道降维到256,而后并行使用2个3x3卷积,并在回归分支添加IOU分支以分别实现分类和回归。
针对自适应深度融合模型本实施例设计损失函数如下:
将损失函数定义为分类损失函数和回归损失函数之和,即:
L=Lcls+αLreg
式中,Lcls和Lreg分别为分类损失函数和回归损失函数,α为权重参数;
分类损失函数Lcls为类置信度与标签之间的二元交叉熵,定义如下:
Figure BDA0003565857450000081
式中,损失被拆分为正锚框和负锚框,匹配阈值为0.5,pc为预测分类概率,lc为真值二元标签,N为样本数,针对每个正锚框,采用Huber损失对边界框进行回归:
Figure BDA0003565857450000091
Figure BDA0003565857450000092
式中,Npos是正样本数,即正锚框数,H(pc,lc)是Huber损失函数。值得注意的是,本实施例通过与真值目标中心的距离来确定正负样本。
本实施例基于提出自适应深度融合检测网络进行预训练,并在预训练中采用所设计的损失函数进行收敛,预训练结束后即得到自适应深度融合模型。其中网络训练为常规操作手段,本实施例中不赘述训练过程。
本实施例针对无法解决浓雾情况下的目标检测问题,利用事件相机、远红外相机、毫米波雷达和双目相机增强系统感知能力,通过构建自适应深度融合检测网络实现多模态多尺度的深度特征融合,以提高检测准确性;针对无法检测大雾天气下的快速移动和运动模糊、光照突变等具有挑战性环境下的运动目标问题,引入了事件相机,并有效利用事件相机的低延迟和高动态性以解决上述问题;针对无法解决大雾天气下数据不对称导致的检测失效问题,引入事件相机利用体素网络和注意力机制实现端到端的局部特征提取,实现自适应的深度特征融合。
容易理解的是,基于本实施例提供的目标检测方法,可以利用自定义数据网格来表征事件相机的数据结构,或者在整体系统中加入激光雷达、门控相机等其他传感器实现变形,但上述变形均在本申请的保护范围内。
以下通过一个实验进一步说明本申请透雾目标检测方法的有效性。
实验采用DENSE作为训练数据集,该数据集涵盖了各种恶劣天气条件下在北欧超过1万公里真实驾驶场景中12000个样本和室内雾浓度可控的1500个样本数据。在如图4和5所示的两组实验数据中,常规的目标检测方法yolov5已无法有效检测到目标物(即无法输出目标框为原图,原图未示出),而本申请基于多传感器融合的透雾目标检测方法由于多传感器的优势互补,可以实现在各种雾天情况下的目标检测功能。输出如图4和5所示的带有目标框的检测图。
在另一个实施例中,本申请还提供了一种基于多传感器融合的透雾目标检测装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述基于多传感器融合的透雾目标检测方法的步骤。
关于基于多传感器融合的透雾目标检测装置的具体限定可以参见上文中对于基于多传感器融合的透雾目标检测方法的限定,在此不再赘述。
存储器和处理器之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器中存储有可在处理器上运行的计算机程序,所述处理器通过运行存储在存储器内的计算机程序,从而实现本发明实施例中的基于多传感器融合的透雾目标检测方法。
其中,所述存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器用于存储程序,所述处理器在接收到执行指令后,执行所述程序。
所述处理器可能是一种集成电路芯片,具有数据的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
需要说明的是,图4、5主要为展示本实施例在浓雾环境下的目标检测的效果图,图4、5中的图形仅为软件运行时运行界面中的元素,不涉及本申请改进的重点,且运行界面的清晰度与像素和缩放比例有关,故呈现效果较为有限。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于多传感器融合的透雾目标检测方法,其特征在于,所述基于多传感器融合的透雾目标检测方法,包括:
配置传感器组,所述传感器组包括双目相机、远红外相机、事件相机和毫米波雷达,传感器组为上下两层布置结构,上层布置结构居中搭载毫米波雷达,下层布置结构从左至右分别搭载事件相机、双目相机和远红外相机;
将传感器组中各传感器采集的数据进行时间和空间上的数据对齐;
对数据对齐后的各传感器数据进行多模态数据表征得到表征数据;
基于表征数据利用预训练的自适应深度融合模型定位移动目标,完成目标检测,所述自适应深度融合模型对双目相机、远红外相机和毫米波雷达对应的表征数据进行特征提取并堆叠得到融合特征图,同时利用注意力机制构建基于事件相机对应的表征数据的注意力图,将所述注意力图与所述融合特征图相乘得到自适应融合特征用于定位移动目标。
2.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述将传感器组中各传感器采集的数据进行空间上的数据对齐,包括:利用几何空间变换和标定的方式将远红外相机、事件相机和毫米波雷达统一到双目相机坐标系中并建立与双目相机之间的映射关系,后将远红外相机、事件相机和毫米波雷达的测量结果映射到双目相机各像素上。
3.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述将传感器组中各传感器采集的数据进行时间上的数据对齐,包括:以双目相机、远红外相机、事件相机和毫米波雷达中采集频率最低的传感器采集时间为准,获取其他传感器同一时刻的数据。
4.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述对数据对齐后的各传感器数据进行多模态数据表征得到表征数据,包括:
对于双目相机,取双目相机输出的彩色原始图像表征数据结构为[Ws,Hs,Cs],分别表示双目相机图像宽、高和通道数;
对于远红外相机,取远红外相机输出的热感图像,以像素为单位采用图像插值方法将热感图像的分辨率放大至与双目相机的彩色原始图像对齐,表征数据结构为[Wf,Hf,Cf],分别表示远红外相机图像的宽、高和通道数;
对于毫米波雷达,取毫米波雷达输出的点云数据,对点云数据进行双线性插值直至与双目相机的彩色原始图像数据匹配,即形成张量结构的类图像数据,表征数据结构为[L,S,R],分别表示为距离、速度和雷达散射截面值;
对于事件相机,取事件相机输出的异步时间序列,采用端到端的数据表征方法产生一个带有时间特征的体素网格。
5.如权利要求4所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述双目相机输出的彩色原始图像表征数据结构中的通道数Cs=3,所述远红外相机输出的热感图像表征数据结构中的Cf=1。
6.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述自适应深度融合模型采用ResNet34神经网络对毫米波雷达、双目相机和远红外相机的表征数据进行特征提取得到特征图,并利用concatenation堆叠多个特征图得到融合特征图。
7.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述将所述注意力图与所述融合特征图相乘,包括:
利用注意力图上的每一个像素值对融合特征图的对应像素值进行加权。
8.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述自适应深度融合模型使用1个1x1卷积将自适应融合特征的通道降维到256,而后并行使用2个3x3卷积,并在回归分支添加IOU分支以分别实现分类和回归得到移动目标。
9.如权利要求1所述的基于多传感器融合的透雾目标检测方法,其特征在于,所述自适应深度融合模型的损失函数设计包括:
将损失函数定义为分类损失函数和回归损失函数之和,即:
L=Lcls+αLreg
式中,Lcls和Lreg分别为分类损失函数和回归损失函数,α为权重参数;
分类损失函数Lcls为类置信度与标签之间的二元交叉熵,定义如下:
Figure FDA0003565857440000021
式中,损失被拆分为正锚框和负锚框,匹配阈值为0.5,pc为预测分类概率,lc为真值二元标签,N为样本数,针对每个正锚框,采用Huber损失对边界框进行回归:
Figure FDA0003565857440000022
Figure FDA0003565857440000031
式中,Npos是正样本数,H(pc,lc)是Huber损失函数。
10.一种基于多传感器融合的透雾目标检测装置,包括处理器以及存储有若干计算机指令的存储器,其特征在于,所述计算机指令被处理器执行时实现权利要求1至权利要求9中任意一项所述基于多传感器融合的透雾目标检测方法的步骤。
CN202210306924.9A 2022-03-25 2022-03-25 一种基于多传感器融合的透雾目标检测方法及装置 Pending CN114694011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210306924.9A CN114694011A (zh) 2022-03-25 2022-03-25 一种基于多传感器融合的透雾目标检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210306924.9A CN114694011A (zh) 2022-03-25 2022-03-25 一种基于多传感器融合的透雾目标检测方法及装置

Publications (1)

Publication Number Publication Date
CN114694011A true CN114694011A (zh) 2022-07-01

Family

ID=82138248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210306924.9A Pending CN114694011A (zh) 2022-03-25 2022-03-25 一种基于多传感器融合的透雾目标检测方法及装置

Country Status (1)

Country Link
CN (1) CN114694011A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115170663A (zh) * 2022-07-08 2022-10-11 中国科学院长春光学精密机械与物理研究所 跨时空真伪目标多模态关联超远程无源测距方法
CN115631407A (zh) * 2022-11-10 2023-01-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN115880323A (zh) * 2023-02-17 2023-03-31 长沙中联重科环境产业有限公司 一种热成像定位的区域密度人口的绿化环保方法及设备
CN116310408A (zh) * 2022-11-29 2023-06-23 北京大学 一种建立事件相机与帧相机数据关联的方法及装置
CN116884215A (zh) * 2023-07-14 2023-10-13 北京百度网讯科技有限公司 交通状态的预测、模型的生成方法、装置、设备及介质
CN117152420A (zh) * 2023-10-26 2023-12-01 享刻智能技术(北京)有限公司 基于多模态事件的感知方法、系统以及机器人

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115170663A (zh) * 2022-07-08 2022-10-11 中国科学院长春光学精密机械与物理研究所 跨时空真伪目标多模态关联超远程无源测距方法
CN115631407A (zh) * 2022-11-10 2023-01-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN115631407B (zh) * 2022-11-10 2023-10-20 中国石油大学(华东) 基于事件相机与彩色帧图像融合的水下透明生物检测
CN116310408A (zh) * 2022-11-29 2023-06-23 北京大学 一种建立事件相机与帧相机数据关联的方法及装置
CN116310408B (zh) * 2022-11-29 2023-10-13 北京大学 一种建立事件相机与帧相机数据关联的方法及装置
CN115880323A (zh) * 2023-02-17 2023-03-31 长沙中联重科环境产业有限公司 一种热成像定位的区域密度人口的绿化环保方法及设备
CN116884215A (zh) * 2023-07-14 2023-10-13 北京百度网讯科技有限公司 交通状态的预测、模型的生成方法、装置、设备及介质
CN116884215B (zh) * 2023-07-14 2024-05-31 北京百度网讯科技有限公司 交通状态的预测、模型的生成方法、装置、设备及介质
CN117152420A (zh) * 2023-10-26 2023-12-01 享刻智能技术(北京)有限公司 基于多模态事件的感知方法、系统以及机器人

Similar Documents

Publication Publication Date Title
CN114694011A (zh) 一种基于多传感器融合的透雾目标检测方法及装置
CN111694010B (zh) 一种基于视觉与激光雷达融合的路侧车辆识别方法
Chen et al. Ship detection from coastal surveillance videos via an ensemble Canny-Gaussian-morphology framework
Chen et al. MSARN: A deep neural network based on an adaptive recalibration mechanism for multiscale and arbitrary-oriented SAR ship detection
Tian et al. Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint
CN102507592B (zh) 表面缺陷仿蝇视觉在线检测装置及检测方法
CN111667030B (zh) 基于深度神经网络实现遥感图像目标检测的方法、系统及其存储介质
Han et al. KCPNet: Knowledge-driven context perception networks for ship detection in infrared imagery
CN113378756B (zh) 一种三维人体语义分割方法、终端设备及存储介质
CN117274749B (zh) 一种基于4d毫米波雷达和图像的融合3d目标检测方法
CN113643345A (zh) 一种基于双光融合的多目道路智能识别方法
Ouyang et al. A cgans-based scene reconstruction model using lidar point cloud
Sun et al. IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes
CN117808689A (zh) 基于毫米波雷达与摄像头融合的深度补全方法
Kong et al. Lightweight algorithm for multi-scale ship detection based on high-resolution SAR images
CN118411508A (zh) 基于路侧相机和毫米波雷达的多尺度目标检测方法及系统
Liu et al. Vehicle video surveillance system based on image fusion and parallel computing
Gu et al. Thermal image colorization using Markov decision processes
Wang et al. Pedestrian detection based on YOLOv3 multimodal data fusion
Fu et al. Real-time infrared horizon detection in maritime and land environments based on hyper-laplace filter and convolutional neural network
CN116363615B (zh) 数据融合方法、装置、车辆和存储介质
Liangjun et al. MSFA-YOLO: A Multi-Scale SAR Ship Detection Algorithm Based on Fused Attention
CN117372697A (zh) 一种针对单模态稀疏轨道场景的点云分割方法和系统
CN116797894A (zh) 一种增强特征信息的雷达与视频融合目标检测方法
CN113408353B (zh) 一种基于rgb-d的实时避障系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination