CN113989343A - 基于注意力机制的传感器融合深度重建数据驱动方法 - Google Patents

基于注意力机制的传感器融合深度重建数据驱动方法 Download PDF

Info

Publication number
CN113989343A
CN113989343A CN202111279035.XA CN202111279035A CN113989343A CN 113989343 A CN113989343 A CN 113989343A CN 202111279035 A CN202111279035 A CN 202111279035A CN 113989343 A CN113989343 A CN 113989343A
Authority
CN
China
Prior art keywords
depth
data
features
feature
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111279035.XA
Other languages
English (en)
Inventor
何伟基
蒋筱朵
张闻文
陈钱
邹燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202111279035.XA priority Critical patent/CN113989343A/zh
Publication of CN113989343A publication Critical patent/CN113989343A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种基于注意力机制的传感器融合深度重建数据驱动方法。该方法针对分辨率为32×32的SPAD阵列探测器,设计了一种卷积神经网络结构,在强度图的引导下,将低分辨率TCSPC直方图映射至高分辨率深度图。该网络采用多尺度方法提取输入特征,并基于注意力模型融合深度数据和强度数据。另外,设计了一个损失函数组合,适用于处理TCSPC直方图数据的网络。本发明能成功将深度原始数据的空间分辨率提升4倍,在仿真数据和采集数据上验证了本发明的深度重构效果,在质量和数据指标上都优于其他算法。

Description

基于注意力机制的传感器融合深度重建数据驱动方法
技术领域
本发明属于数据驱动技术,具体为一种基于注意力机制的传感器融合深度重建数据驱动方法。
技术背景
从感知场景中推断出正确的深度信息对许多应用来说是至关重要的,例如自动驾驶、虚拟现实、增强现实和机器人技术。激光雷达是深度成像中的领先技术,目前,大多数激光雷达系统采取单点/扫描的方式,使用共轴对齐的激光二极管和单光子探测器,由激光器发射激光,探测器时间标注经场景反射回来的到达光子。扫描式激光雷达系统虽然能够获取较为准确的深度信息,但采集速度慢,通常需要花费数小时才能完成一次场景信息获取。然而,越来越多的应用要求能够对场景进行快速获取,在此需求之下,单光子雪崩二极管(SPAD)阵列应运而生。采用主动成像方式,SPAD阵列可以提供准确快速的场景深度信息。
目前,激光雷达的分辨率较低,尤其是SPAD阵列,因此,深度重建也是一个热门的研究方向。仅从激光雷达系统中获取的信息进行深度重建效果是有限的,多维信息融合,即利用高分辨率强度图与低分辨率深度图互补,是解决这一问题的方法之一。依赖于传感器融合神经网络进行深度估计的方法,已知有三种技术途径:(1)Lindell等人结合常规高分辨率相机和线列SPAD(LinoSPAD),使用多尺度深度卷积网络,提出了一种用于效率3D成像的数据驱动方法(1.D.B.Lindell,M.O’Toole,and G.Wetzstein,Single-photon 3dimaging with deep sensor fusion.ACM Trans.Graph,2018,vol.37(4),pp:1-12.);(2)Sun等人引入了单目深度估计算法,能从强度信息中得到更可靠的相对距离信息(2.Z.-H.Sun,D.B.Lindell,O.Solgaard,and G.Wetzstein,SPADnet:deep RGB-SPAD sensorfusion assisted by monocular depth estimation.Optical Express.2020,vol.28(10),pp:14948-14962.);(3)Ruget等人使用了相同的SPAD阵列传感器,基于神经网络,利用强度图和多个从直方图中提取出的特征引导深度上采样(3.A.Ruget,S.McLaughlin,R.K.Henderson,I.Gyongy,A.Halimi,and J.Leach,Robust super-resolution depthimaging via a multi-feature fusion deep network.Optical Express,2021,vol.29(8),pp:11917-11937.)。第一种方法和第二种方法分别采用线列SPAD探测器和单点SPAD探测器,需要对场景扫描成像,获取一次场景的深度信息往往需要数几个小时,无法满足越来越多应用的实时性要求;第三种方法主要针对深度超分辨问题,需要预先从探测器的原始数据中选择重要特征,即先对原始数据去噪,再输入网络,具有较多的预处理步骤,且网络只具有上采样功能。
发明内容
本发明的目的在于提出了一种基于注意力机制的传感器融合深度重建数据驱动方法,以实现稳健提取目标清晰无噪的三维距离图像。
实现本发明的技术解决方案为:一种基于注意力机制的传感器融合深度重建数据驱动方法,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;其中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,所述融合重构模块用于对对应尺度的强度特征和深度特征在时间维度上级联,并进行特征融合操作,得到重构后的深度图;
第二步,从SPAD阵列探测器和相机中分别获取深度数据和强度数据,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的强度数据和深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍;
第三步,利用第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并进行融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
优选地,所述特征提取模块提取SPAD测量数据和强度数据中的多尺度特征的具体过程为:
下采样因子为2-L,使用L个三维特征提取器,从SPAD测量数据中提取L个多尺度特征;
网络原始输入和提取得到的多尺度特征经过若干三维卷积层,获得更深层的特征;
使用L个二维特征提取器,从强度数据中获得与深度特征尺度相对应的强度特征,将强度数据及强度特征在时间维度上平移,获得二维至三维的映射。
优选地,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数,每个三维特征提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
优选地,所述融合重构模块进行特征融合得到重构后的深度图的具体步骤为:
A、对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子;
B、经上采样算子输出的融合特征图通过注意力模块,以关注图像中带有更多特征的区域;
C、从注意力模块中得到的上采样后的前一级特征图与更高尺度的深度特征与强度特征级联,输入至上采样算子,返回步骤B,直至得到与网络输入特征的分辨率一致的特征图,作为重构深度图。
本发明与现有技术相比,其显著优点:(1)不仅能够去除探测过程中的背景噪声光子,而且可以重建出深度细节,保留物体边缘,具有更好的图像视觉质量;(2)无需复杂的预处理步骤,使用截取时间轴的方式,提升信噪比,并且采用最近邻算子,将深度数据的空间分辨率提升四倍,保留原有的深度信息,减少人工干预,使用网络完成去噪和重建;(3)对网络的重建TCSPC直方图施加KL散度和序数回归损失,同时关注光子在时间维度上的总体分布和各个时间仓间的序数关系,更加关注物体边缘重建;(4)加入注意力机制,对特征更丰富的区域给予更多关注,提升数据融合质量。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是用于验证本发明的实验设备图。
图2是基于注意力机制的传感器融合网络框架图。
图3是融合重建模块的框架示意图。
图4是在仿真测试数据上使用最大似然估计器、He等人提出的图像引导滤波(4.K.-M.He,J.Sun,and X.Tang,Guided image filtering.IEEE Trans.PatternAnal.Mach.Intell,2013,vol.35(6),pp:1397–1409.)、Lindell等人提出的数据驱动融合方法(1.D.B.Lindell,M.O’Toole,and G.Wetzstein,Single-photon 3d imaging withdeep sensor fusion.ACM Trans.Graph,2018,vol.37(4),pp:1-12.)和本发明方法得到的重建目标深度图。
图5是在仿真测试数据上使用不同损失函数组合训练网络得到的重建目标深度图。
图6是在仿真测试数据上使用不同网络结构得到的重建目标深度图。
图7是在仿真测试数据上使用不同信噪比得到的重建目标深度图。
图8是在真实获取数据上使用不同方法、不同损失函数和不同网络结构得到的重建目标深度图。
图9是在真实获取数据上对不同信噪比环境得到的重建目标深度图。
图10是在真实获取数据上使用不同上采样方法得到的三维重建点云图。
具体实施方式:
一种基于注意力机制的传感器融合深度重建数据驱动方法,适用于光子计数三维成像激光雷达系统,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;
进一步的实施例中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,主要作用是在高分辨率强度信息的引导下,对输入的低分辨率有噪深度数据进行去噪和上采样。所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,使网络可以学习不同尺度的丰富层次特征,更好地适应精细和大规模尺度的上采样;特征提取模块得到多尺度的强度特征和深度特征,分别将对应尺度的强度特征和深度特征在时间维度上级联,输入至融合重构模块,进行特征融合操作,在强度特征的引导之下,得到重构后的深度图。融合重构模块引入了注意力模型,使网络关注融合数据中特征更多的区域,逐渐上采样至输入分辨率。
特征提取模块,用于提取强度和深度的多尺度特征,具体过程如下:
下采样因子为2-L,使用L个三维特征提取器,从网络输入的SPAD测量数据D0中提取L个多尺度特征D1,…,DL
具体地,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数。每个三维提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
网络原始输入和提取得到的多尺度特征D1,…,DL经过若干三维卷积层,以获得更深层的特征。
对于强度数据I0,应用L个二维特征提取器,获得与深度特征尺度相对应的强度特征I1,…,IL,其中,每个二维特征提取器由5个二维卷积层组成。强度数据及强度特征I0,…,IL简单地在时间维度上平移,获得二维至三维的映射。该过程的表达式如下:
Figure BDA0003330604900000051
Figure BDA0003330604900000052
IL=ΦFC(IL-1)
Figure BDA0003330604900000053
上式由上至下分别代表了深度特征提取、深度特征提取后处理、强度特征提取、二维-三维映射算子,其中符号σ表示修正线性单元激活函数,
Figure BDA0003330604900000054
表示用于提取特征DL的三维卷积层权重,符号*代表卷积操作,
Figure BDA0003330604900000055
表示提取特征DL的三维卷积层偏差值,
Figure BDA0003330604900000056
表示提取的深度特征,ΦFC表示二维特征提取器,
Figure BDA0003330604900000057
表示提取的强度特征,repeat(A,B)表示将A以尺寸B进行复制操作,size()表示取尺寸操作,L=2。
所述融合重构模块融合深度特征和强度特征,使用上采样算子进行特征融合,并输入至注意力模块,关注融合后特征中具有更丰富信息的区域,得到重构后的高分辨率干净深度图,进行融合重构的步骤如下:
对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子,经上采样算子输出的融合特征图再通过注意力模块,以关注图像中带有更多特征的区域。从注意力模块中得到的上采样后的前一级特征图再与更高尺度的深度特征与强度特征级联,再次进行上采样操作,直至得到与网络输入特征的分辨率一致的特征图,得到经强度引导的高分辨率干净重构深度图。
上采样算子为一个带有BatchNorm层和ReLU激活函数的三维反卷积层构成。注意力模块包含了通道注意力模块和空间注意力模块。首先利用特征的内在通道关系产生通道注意力图,再利用特征的内在空间关系生成空间注意力图。这两个注意力图分别关注“特征是什么”和“特征在哪里”。该过程可以表达为:
Figure BDA0003330604900000061
Figure BDA0003330604900000062
其中
Figure BDA0003330604900000063
表示融合后的尺度L的深度特征,CBAM()表示注意力机制操作,符号
Figure BDA0003330604900000066
表示反卷积操作,cat(A,B)表示将A和B进行级联。
训练网络,基于泊松分布仿真训练数据集,在训练过程中同时对输出三维TCSPC直方图约束KL散度和序数回归损失,不仅能够关注光子的总体分布也可以考虑各个时间仓之间的序数关系,增加了全变差正则项,保存物体边缘。
所述基于注意力机制的传感器融合网络的总损失函数为三个主要贡献的权重相加:在网络输出直方图
Figure BDA0003330604900000064
和干净直方图D之间约束了KL散度DKL和序数回归损失LossOR,并施加了全变差正则化约束项。总的训练损失函数为:
Losstotal=DKL1LossOR2TV
Kullback-Leibler散度:KL散度,又称相对熵,用来度量网络输出直方图
Figure BDA0003330604900000067
和干净直方图D之间概率分布的相似性:
Figure BDA0003330604900000065
其中,n代表时间仓索引。概率分布越相近,KL散度值越小。
序数回归损失:由于KL散度独立计算各个时间仓的分布,因此引入了序数回归损失,考虑每个时间仓之间的序数关系:
Figure BDA0003330604900000071
Figure BDA0003330604900000072
其中,W和H为图像宽度与高度,l为地面真实检测速率峰值的时间仓索引,“cumsum”代表累计求和。
全变差项:引入TV空间正则项的目的在于去除伪影,保留边缘等重要细节,同时防止模型过拟合:
Figure BDA0003330604900000073
Figure BDA0003330604900000074
第二步,从SPAD阵列探测器和常规相机中分别获取低分辨率深度数据和高分辨率强度数据,对获取数据进行预处理,提升原始数据质量,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的高分辨率强度数据和低分辨率深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;最后采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍,得到网络输入深度数据,即高分辨率、高信噪比、有噪深度数据。
第三步,利用上述第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,首先提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并输入融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
如图1所示,是用于验证本发明一种基于注意力机制的传感器融合深度重建网络方法的实验搭建示意图,可分为照明模块和感知模块。照明模块包括一个皮秒脉冲激光器和一个散射片。激光器发射激光脉冲,激光经散射片被发散,以覆盖SPAD阵列的探测范围。感知模块包括一个SPAD探测器和常规相机。
如图2所示,是基于注意力机制的传感器融合网络框架图。整个网络由特征提取和融合重构两个模块组成,其中特征提取模块用于提取SPAD测量和强度数据中的多尺度特征,使网络可以学习不同尺度的丰富层次特征,更好地适应精细和大规模尺度的上采样;融合重构模块引入了注意力模型,使网络关注融合数据中特征更多的区域,逐渐上采样至输入分辨率。损失函数由KL散度、序数回归损失和全变差正则项组成,在网络输出3D TCSPC直方图上施加KL散度和序数回归损失以分别关注光子数在时间维度上的总体分布和每个时间仓之间的序数关系。为了保持重构结果的边缘,在经3D-2D映射后得到的2D深度图上施加全变差正则项。
如图3所示,是融合重建模块的框架示意图。首先,对应尺度的深度特征与经过映射得到的3D强度特征在时间维度上级联,输入至上采样算子,经上采样输出的融合特征图再通过注意力模块,以关注图像中带有更多特征的区域。从注意力模块中得到的上采样后的前一级特征图再与更高尺度的深度特征与强度特征级联,再次进行上采样操作。
如图4所示,是在仿真测试数据上使用最大似然估计器、He等人提出的图像引导滤波、Lindell等人提出的数据驱动融合方法和本发明方法得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为使用最大似然估计器得到的重建目标深度图,(c)为使用He等人提出的图像引导滤波方法得到的重建目标深度图,(d)为使用Lindell等人提出的数据驱动融合方法得到的重建目标深度图,(e)为使用本发明方法得到的重建目标深度图。
结合图5,是在仿真测试数据上使用不同损失函数组合训练网络得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为损失函数仅使用KL散度训练网络得到的重建目标深度图,(c)为损失函数仅使用序数回归损失训练网络得到的重建目标深度图,(d)为使用本发明方法得到的重建目标深度图。
结合图6,是在仿真测试数据上使用不同网络结构得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为不含注意力机制的网络得到的重建目标深度图,(c)为不使用强度引导的网络得到的重建目标深度图,(d)为使用本发明方法得到的重建目标深度图。
结合图7,是在仿真测试数据上使用不同信噪比得到的重建目标深度图对比。其中,(a)为信号光子数/背景光子数为2/2的情况,(b)为信号光子数/背景光子数为2/10的情况,(c)为信号光子数/背景光子数为2/50的情况。左侧为Lindell等人提出的数据驱动方法得到的重建深度图,右侧为本发明方法得到的重建深度图。
结合图8,是在真实获取数据上使用不同方法、不同损失函数和不同网络结构得到的重建目标深度图对比。其中,(a)为使用不同方法得到的重建目标深度图对比,(b)为使用不同损失函数得到的重建目标深度图对比,(c)为使用不同网络结构得到的重建目标深度图对比,(d)为本发明方法得到的重建目标深度图。
结合图9,是在真实获取数据上对不同信噪比环境得到的重建目标深度图对比。(a)为信噪比0.05的情况,(b)为信噪比0.01的情况,(c)为信噪比0.001的情况。从左至右分别为预处理图,Lindell等人提出的数据驱动方法以及本发明方法得到的重建深度图。
结合图10,是在真实获取数据上使用不同上采样方法得到的三维重建点云图对比。其中,(a)为不进行上采样得到的三维重建点云图,(b)为使用后上采样法得到的三维重建点云图,(c)为使用预上采样法得到的三维重建点云图。

Claims (9)

1.一种基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;其中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,所述融合重构模块用于对对应尺度的强度特征和深度特征在时间维度上级联,并进行特征融合操作,得到重构后的深度图;
第二步,从SPAD阵列探测器和相机中分别获取深度数据和强度数据,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的强度数据和深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍;
第三步,利用第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并进行融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
2.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述特征提取模块提取SPAD测量数据和强度数据中的多尺度特征的具体过程为:
下采样因子为2-L,使用L个三维特征提取器,从SPAD测量数据中提取L个多尺度特征;
网络原始输入和提取得到的多尺度特征经过若干三维卷积层,获得更深层的特征;
使用L个二维特征提取器,从强度数据中获得与深度特征尺度相对应的强度特征,将强度数据及强度特征在时间维度上平移,获得二维至三维的映射。
3.根据权利要求2所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数,每个三维特征提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
4.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述融合重构模块进行特征融合得到重构后的深度图的具体步骤为:
A、对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子;
B、经上采样算子输出的融合特征图通过注意力模块,以关注图像中带有更多特征的区域;
C、从注意力模块中得到的上采样后的前一级特征图与更高尺度的深度特征与强度特征级联,输入至上采样算子,返回步骤B,直至得到与网络输入特征的分辨率一致的特征图,作为重构深度图。
5.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述融合重构模块进行特征融合得到重构后的深度图具体过程为:
Figure FDA0003330604890000021
Figure FDA0003330604890000022
其中
Figure FDA0003330604890000023
表示融合后的尺度L的深度特征,CBAM()表示注意力机制操作,符号
Figure FDA0003330604890000027
表示反卷积操作,cat(A,B)表示将A和B进行级联,σ表示修正线性单元激活函数,
Figure FDA0003330604890000024
表示提取特征
Figure FDA0003330604890000025
的三维卷积层偏差值。
6.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述基于注意力机制的传感器融合网络的总损失函数为三个主要贡献的权重相加:在网络输出直方图
Figure FDA0003330604890000026
和干净直方图D之间约束了KL散度DKL和序数回归损失LossOR,并施加了全变差正则化约束项TV,总损失函数为:
Losstotal=DKL1LossOR2TV
式中,λ1、λ2为权重系数。
7.根据权利要求6所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,Kullback-Leibler散度用于衡量直方图
Figure FDA0003330604890000031
和干净直方图D之间概率分布的相似性,具体为:
Figure FDA0003330604890000032
其中,n代表时间仓索引。
8.根据权利要求6所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,序数回归损具体为:
Figure FDA0003330604890000033
Figure FDA0003330604890000034
其中,W和H为图像宽度与高度,l为地面真实检测速率峰值的时间仓索引,“cumsum”代表累计求和,K为时间仓个数。
9.根据权利要求6所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,全变差项具体为:
Figure FDA0003330604890000035
Figure FDA0003330604890000036
式中,W和H为图像宽度与高度。
CN202111279035.XA 2021-10-31 2021-10-31 基于注意力机制的传感器融合深度重建数据驱动方法 Pending CN113989343A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111279035.XA CN113989343A (zh) 2021-10-31 2021-10-31 基于注意力机制的传感器融合深度重建数据驱动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111279035.XA CN113989343A (zh) 2021-10-31 2021-10-31 基于注意力机制的传感器融合深度重建数据驱动方法

Publications (1)

Publication Number Publication Date
CN113989343A true CN113989343A (zh) 2022-01-28

Family

ID=79745058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111279035.XA Pending CN113989343A (zh) 2021-10-31 2021-10-31 基于注意力机制的传感器融合深度重建数据驱动方法

Country Status (1)

Country Link
CN (1) CN113989343A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114692509A (zh) * 2022-04-21 2022-07-01 南京邮电大学 基于多阶段退化神经网络的强噪声单光子三维重建方法
CN114724012A (zh) * 2022-06-10 2022-07-08 天津大学 基于时空跨尺度注意力融合热带不稳定波预警方法及装置
CN117890888A (zh) * 2024-03-18 2024-04-16 苏州识光芯科技术有限公司 基于tcspc的探测装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114692509A (zh) * 2022-04-21 2022-07-01 南京邮电大学 基于多阶段退化神经网络的强噪声单光子三维重建方法
CN114724012A (zh) * 2022-06-10 2022-07-08 天津大学 基于时空跨尺度注意力融合热带不稳定波预警方法及装置
CN114724012B (zh) * 2022-06-10 2022-08-23 天津大学 基于时空跨尺度注意力融合热带不稳定波预警方法及装置
CN117890888A (zh) * 2024-03-18 2024-04-16 苏州识光芯科技术有限公司 基于tcspc的探测装置

Similar Documents

Publication Publication Date Title
CN108230329B (zh) 基于多尺度卷积神经网络的语义分割方法
Shi et al. Study on modeling method of forest tree image recognition based on CCD and theodolite
CN110363215B (zh) 基于生成式对抗网络的sar图像转化为光学图像的方法
CN107239751B (zh) 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法
CN113989343A (zh) 基于注意力机制的传感器融合深度重建数据驱动方法
CN108009559B (zh) 一种基于空谱联合信息的高光谱数据分类方法
CN109685768B (zh) 基于肺部ct序列的肺结节自动检测方法及系统
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN111898688B (zh) 一种基于三维深度学习的机载LiDAR数据树种分类方法
CN109671094B (zh) 一种基于频域分级的眼底图像血管分割方法
CN110111345B (zh) 一种基于注意力网络的3d点云分割方法
CN112529015A (zh) 一种基于几何解缠的三维点云处理方法、装置及设备
Bonnet et al. Comparison of UAS photogrammetric products for tree detection and characterization of coniferous stands
CN109859256A (zh) 一种基于自动对应点匹配的三维点云配准方法
Pashaei et al. Deep learning-based single image super-resolution: an investigation for dense scene reconstruction with UAS photogrammetry
CN109977834B (zh) 从深度图像中分割人手与交互物体的方法和装置
CN109712150A (zh) 基于稀疏表示的光学微波图像融合重建方法和装置
CN108447113B (zh) 一种基于深度学习模型的脉冲式强度关联三维成像方法
CN113239736A (zh) 一种基于多源遥感数据的土地覆盖分类标注图获取方法、存储介质及系统
Zhao et al. Photon-efficient 3D reconstruction employing a edge enhancement method
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
CN112581626B (zh) 一种基于非参数化和多注意力机制的复杂曲面测量系统
CN116543165B (zh) 一种基于双通道复合深度网络的遥感图像果树分割方法
CN112967295B (zh) 一种基于残差网络和注意力机制的图像处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination