CN113989343A - 基于注意力机制的传感器融合深度重建数据驱动方法 - Google Patents
基于注意力机制的传感器融合深度重建数据驱动方法 Download PDFInfo
- Publication number
- CN113989343A CN113989343A CN202111279035.XA CN202111279035A CN113989343A CN 113989343 A CN113989343 A CN 113989343A CN 202111279035 A CN202111279035 A CN 202111279035A CN 113989343 A CN113989343 A CN 113989343A
- Authority
- CN
- China
- Prior art keywords
- depth
- data
- features
- feature
- intensity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000007246 mechanism Effects 0.000 title claims abstract description 31
- 238000000605 extraction Methods 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 241000282326 Felis catus Species 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000001161 time-correlated single photon counting Methods 0.000 abstract description 5
- 238000004088 simulation Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000020411 cell activation Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种基于注意力机制的传感器融合深度重建数据驱动方法。该方法针对分辨率为32×32的SPAD阵列探测器,设计了一种卷积神经网络结构,在强度图的引导下,将低分辨率TCSPC直方图映射至高分辨率深度图。该网络采用多尺度方法提取输入特征,并基于注意力模型融合深度数据和强度数据。另外,设计了一个损失函数组合,适用于处理TCSPC直方图数据的网络。本发明能成功将深度原始数据的空间分辨率提升4倍,在仿真数据和采集数据上验证了本发明的深度重构效果,在质量和数据指标上都优于其他算法。
Description
技术领域
本发明属于数据驱动技术,具体为一种基于注意力机制的传感器融合深度重建数据驱动方法。
技术背景
从感知场景中推断出正确的深度信息对许多应用来说是至关重要的,例如自动驾驶、虚拟现实、增强现实和机器人技术。激光雷达是深度成像中的领先技术,目前,大多数激光雷达系统采取单点/扫描的方式,使用共轴对齐的激光二极管和单光子探测器,由激光器发射激光,探测器时间标注经场景反射回来的到达光子。扫描式激光雷达系统虽然能够获取较为准确的深度信息,但采集速度慢,通常需要花费数小时才能完成一次场景信息获取。然而,越来越多的应用要求能够对场景进行快速获取,在此需求之下,单光子雪崩二极管(SPAD)阵列应运而生。采用主动成像方式,SPAD阵列可以提供准确快速的场景深度信息。
目前,激光雷达的分辨率较低,尤其是SPAD阵列,因此,深度重建也是一个热门的研究方向。仅从激光雷达系统中获取的信息进行深度重建效果是有限的,多维信息融合,即利用高分辨率强度图与低分辨率深度图互补,是解决这一问题的方法之一。依赖于传感器融合神经网络进行深度估计的方法,已知有三种技术途径:(1)Lindell等人结合常规高分辨率相机和线列SPAD(LinoSPAD),使用多尺度深度卷积网络,提出了一种用于效率3D成像的数据驱动方法(1.D.B.Lindell,M.O’Toole,and G.Wetzstein,Single-photon 3dimaging with deep sensor fusion.ACM Trans.Graph,2018,vol.37(4),pp:1-12.);(2)Sun等人引入了单目深度估计算法,能从强度信息中得到更可靠的相对距离信息(2.Z.-H.Sun,D.B.Lindell,O.Solgaard,and G.Wetzstein,SPADnet:deep RGB-SPAD sensorfusion assisted by monocular depth estimation.Optical Express.2020,vol.28(10),pp:14948-14962.);(3)Ruget等人使用了相同的SPAD阵列传感器,基于神经网络,利用强度图和多个从直方图中提取出的特征引导深度上采样(3.A.Ruget,S.McLaughlin,R.K.Henderson,I.Gyongy,A.Halimi,and J.Leach,Robust super-resolution depthimaging via a multi-feature fusion deep network.Optical Express,2021,vol.29(8),pp:11917-11937.)。第一种方法和第二种方法分别采用线列SPAD探测器和单点SPAD探测器,需要对场景扫描成像,获取一次场景的深度信息往往需要数几个小时,无法满足越来越多应用的实时性要求;第三种方法主要针对深度超分辨问题,需要预先从探测器的原始数据中选择重要特征,即先对原始数据去噪,再输入网络,具有较多的预处理步骤,且网络只具有上采样功能。
发明内容
本发明的目的在于提出了一种基于注意力机制的传感器融合深度重建数据驱动方法,以实现稳健提取目标清晰无噪的三维距离图像。
实现本发明的技术解决方案为:一种基于注意力机制的传感器融合深度重建数据驱动方法,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;其中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,所述融合重构模块用于对对应尺度的强度特征和深度特征在时间维度上级联,并进行特征融合操作,得到重构后的深度图;
第二步,从SPAD阵列探测器和相机中分别获取深度数据和强度数据,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的强度数据和深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍;
第三步,利用第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并进行融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
优选地,所述特征提取模块提取SPAD测量数据和强度数据中的多尺度特征的具体过程为:
下采样因子为2-L,使用L个三维特征提取器,从SPAD测量数据中提取L个多尺度特征;
网络原始输入和提取得到的多尺度特征经过若干三维卷积层,获得更深层的特征;
使用L个二维特征提取器,从强度数据中获得与深度特征尺度相对应的强度特征,将强度数据及强度特征在时间维度上平移,获得二维至三维的映射。
优选地,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数,每个三维特征提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
优选地,所述融合重构模块进行特征融合得到重构后的深度图的具体步骤为:
A、对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子;
B、经上采样算子输出的融合特征图通过注意力模块,以关注图像中带有更多特征的区域;
C、从注意力模块中得到的上采样后的前一级特征图与更高尺度的深度特征与强度特征级联,输入至上采样算子,返回步骤B,直至得到与网络输入特征的分辨率一致的特征图,作为重构深度图。
本发明与现有技术相比,其显著优点:(1)不仅能够去除探测过程中的背景噪声光子,而且可以重建出深度细节,保留物体边缘,具有更好的图像视觉质量;(2)无需复杂的预处理步骤,使用截取时间轴的方式,提升信噪比,并且采用最近邻算子,将深度数据的空间分辨率提升四倍,保留原有的深度信息,减少人工干预,使用网络完成去噪和重建;(3)对网络的重建TCSPC直方图施加KL散度和序数回归损失,同时关注光子在时间维度上的总体分布和各个时间仓间的序数关系,更加关注物体边缘重建;(4)加入注意力机制,对特征更丰富的区域给予更多关注,提升数据融合质量。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是用于验证本发明的实验设备图。
图2是基于注意力机制的传感器融合网络框架图。
图3是融合重建模块的框架示意图。
图4是在仿真测试数据上使用最大似然估计器、He等人提出的图像引导滤波(4.K.-M.He,J.Sun,and X.Tang,Guided image filtering.IEEE Trans.PatternAnal.Mach.Intell,2013,vol.35(6),pp:1397–1409.)、Lindell等人提出的数据驱动融合方法(1.D.B.Lindell,M.O’Toole,and G.Wetzstein,Single-photon 3d imaging withdeep sensor fusion.ACM Trans.Graph,2018,vol.37(4),pp:1-12.)和本发明方法得到的重建目标深度图。
图5是在仿真测试数据上使用不同损失函数组合训练网络得到的重建目标深度图。
图6是在仿真测试数据上使用不同网络结构得到的重建目标深度图。
图7是在仿真测试数据上使用不同信噪比得到的重建目标深度图。
图8是在真实获取数据上使用不同方法、不同损失函数和不同网络结构得到的重建目标深度图。
图9是在真实获取数据上对不同信噪比环境得到的重建目标深度图。
图10是在真实获取数据上使用不同上采样方法得到的三维重建点云图。
具体实施方式:
一种基于注意力机制的传感器融合深度重建数据驱动方法,适用于光子计数三维成像激光雷达系统,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;
进一步的实施例中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,主要作用是在高分辨率强度信息的引导下,对输入的低分辨率有噪深度数据进行去噪和上采样。所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,使网络可以学习不同尺度的丰富层次特征,更好地适应精细和大规模尺度的上采样;特征提取模块得到多尺度的强度特征和深度特征,分别将对应尺度的强度特征和深度特征在时间维度上级联,输入至融合重构模块,进行特征融合操作,在强度特征的引导之下,得到重构后的深度图。融合重构模块引入了注意力模型,使网络关注融合数据中特征更多的区域,逐渐上采样至输入分辨率。
特征提取模块,用于提取强度和深度的多尺度特征,具体过程如下:
下采样因子为2-L,使用L个三维特征提取器,从网络输入的SPAD测量数据D0中提取L个多尺度特征D1,…,DL。
具体地,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数。每个三维提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
网络原始输入和提取得到的多尺度特征D1,…,DL经过若干三维卷积层,以获得更深层的特征。
对于强度数据I0,应用L个二维特征提取器,获得与深度特征尺度相对应的强度特征I1,…,IL,其中,每个二维特征提取器由5个二维卷积层组成。强度数据及强度特征I0,…,IL简单地在时间维度上平移,获得二维至三维的映射。该过程的表达式如下:
IL=ΦFC(IL-1)
上式由上至下分别代表了深度特征提取、深度特征提取后处理、强度特征提取、二维-三维映射算子,其中符号σ表示修正线性单元激活函数,表示用于提取特征DL的三维卷积层权重,符号*代表卷积操作,表示提取特征DL的三维卷积层偏差值,表示提取的深度特征,ΦFC表示二维特征提取器,表示提取的强度特征,repeat(A,B)表示将A以尺寸B进行复制操作,size()表示取尺寸操作,L=2。
所述融合重构模块融合深度特征和强度特征,使用上采样算子进行特征融合,并输入至注意力模块,关注融合后特征中具有更丰富信息的区域,得到重构后的高分辨率干净深度图,进行融合重构的步骤如下:
对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子,经上采样算子输出的融合特征图再通过注意力模块,以关注图像中带有更多特征的区域。从注意力模块中得到的上采样后的前一级特征图再与更高尺度的深度特征与强度特征级联,再次进行上采样操作,直至得到与网络输入特征的分辨率一致的特征图,得到经强度引导的高分辨率干净重构深度图。
上采样算子为一个带有BatchNorm层和ReLU激活函数的三维反卷积层构成。注意力模块包含了通道注意力模块和空间注意力模块。首先利用特征的内在通道关系产生通道注意力图,再利用特征的内在空间关系生成空间注意力图。这两个注意力图分别关注“特征是什么”和“特征在哪里”。该过程可以表达为:
训练网络,基于泊松分布仿真训练数据集,在训练过程中同时对输出三维TCSPC直方图约束KL散度和序数回归损失,不仅能够关注光子的总体分布也可以考虑各个时间仓之间的序数关系,增加了全变差正则项,保存物体边缘。
所述基于注意力机制的传感器融合网络的总损失函数为三个主要贡献的权重相加:在网络输出直方图和干净直方图D之间约束了KL散度DKL和序数回归损失LossOR,并施加了全变差正则化约束项。总的训练损失函数为:
Losstotal=DKL+λ1LossOR+λ2TV
其中,n代表时间仓索引。概率分布越相近,KL散度值越小。
序数回归损失:由于KL散度独立计算各个时间仓的分布,因此引入了序数回归损失,考虑每个时间仓之间的序数关系:
其中,W和H为图像宽度与高度,l为地面真实检测速率峰值的时间仓索引,“cumsum”代表累计求和。
全变差项:引入TV空间正则项的目的在于去除伪影,保留边缘等重要细节,同时防止模型过拟合:
第二步,从SPAD阵列探测器和常规相机中分别获取低分辨率深度数据和高分辨率强度数据,对获取数据进行预处理,提升原始数据质量,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的高分辨率强度数据和低分辨率深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;最后采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍,得到网络输入深度数据,即高分辨率、高信噪比、有噪深度数据。
第三步,利用上述第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,首先提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并输入融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
如图1所示,是用于验证本发明一种基于注意力机制的传感器融合深度重建网络方法的实验搭建示意图,可分为照明模块和感知模块。照明模块包括一个皮秒脉冲激光器和一个散射片。激光器发射激光脉冲,激光经散射片被发散,以覆盖SPAD阵列的探测范围。感知模块包括一个SPAD探测器和常规相机。
如图2所示,是基于注意力机制的传感器融合网络框架图。整个网络由特征提取和融合重构两个模块组成,其中特征提取模块用于提取SPAD测量和强度数据中的多尺度特征,使网络可以学习不同尺度的丰富层次特征,更好地适应精细和大规模尺度的上采样;融合重构模块引入了注意力模型,使网络关注融合数据中特征更多的区域,逐渐上采样至输入分辨率。损失函数由KL散度、序数回归损失和全变差正则项组成,在网络输出3D TCSPC直方图上施加KL散度和序数回归损失以分别关注光子数在时间维度上的总体分布和每个时间仓之间的序数关系。为了保持重构结果的边缘,在经3D-2D映射后得到的2D深度图上施加全变差正则项。
如图3所示,是融合重建模块的框架示意图。首先,对应尺度的深度特征与经过映射得到的3D强度特征在时间维度上级联,输入至上采样算子,经上采样输出的融合特征图再通过注意力模块,以关注图像中带有更多特征的区域。从注意力模块中得到的上采样后的前一级特征图再与更高尺度的深度特征与强度特征级联,再次进行上采样操作。
如图4所示,是在仿真测试数据上使用最大似然估计器、He等人提出的图像引导滤波、Lindell等人提出的数据驱动融合方法和本发明方法得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为使用最大似然估计器得到的重建目标深度图,(c)为使用He等人提出的图像引导滤波方法得到的重建目标深度图,(d)为使用Lindell等人提出的数据驱动融合方法得到的重建目标深度图,(e)为使用本发明方法得到的重建目标深度图。
结合图5,是在仿真测试数据上使用不同损失函数组合训练网络得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为损失函数仅使用KL散度训练网络得到的重建目标深度图,(c)为损失函数仅使用序数回归损失训练网络得到的重建目标深度图,(d)为使用本发明方法得到的重建目标深度图。
结合图6,是在仿真测试数据上使用不同网络结构得到的重建目标深度图对比。其中,(a)为地面真实深度图和强度图,(b)为不含注意力机制的网络得到的重建目标深度图,(c)为不使用强度引导的网络得到的重建目标深度图,(d)为使用本发明方法得到的重建目标深度图。
结合图7,是在仿真测试数据上使用不同信噪比得到的重建目标深度图对比。其中,(a)为信号光子数/背景光子数为2/2的情况,(b)为信号光子数/背景光子数为2/10的情况,(c)为信号光子数/背景光子数为2/50的情况。左侧为Lindell等人提出的数据驱动方法得到的重建深度图,右侧为本发明方法得到的重建深度图。
结合图8,是在真实获取数据上使用不同方法、不同损失函数和不同网络结构得到的重建目标深度图对比。其中,(a)为使用不同方法得到的重建目标深度图对比,(b)为使用不同损失函数得到的重建目标深度图对比,(c)为使用不同网络结构得到的重建目标深度图对比,(d)为本发明方法得到的重建目标深度图。
结合图9,是在真实获取数据上对不同信噪比环境得到的重建目标深度图对比。(a)为信噪比0.05的情况,(b)为信噪比0.01的情况,(c)为信噪比0.001的情况。从左至右分别为预处理图,Lindell等人提出的数据驱动方法以及本发明方法得到的重建深度图。
结合图10,是在真实获取数据上使用不同上采样方法得到的三维重建点云图对比。其中,(a)为不进行上采样得到的三维重建点云图,(b)为使用后上采样法得到的三维重建点云图,(c)为使用预上采样法得到的三维重建点云图。
Claims (9)
1.一种基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,具体步骤为:
第一步,构建基于注意力机制的传感器融合网络并对其进行训练;其中,所述基于注意力机制的传感器融合网络包括特征提取模块和融合重构模块,所述特征提取模块用于提取SPAD测量数据和强度数据中的多尺度特征,所述融合重构模块用于对对应尺度的强度特征和深度特征在时间维度上级联,并进行特征融合操作,得到重构后的深度图;
第二步,从SPAD阵列探测器和相机中分别获取深度数据和强度数据,采用棋盘格法进行深度图和强度图的配准,得到对应同一视角下的强度数据和深度数据;针对信噪比小于设定阈值的配准后深度数据,在时间维度上截取包含信号光子的时间段,得到较高信噪比的深度数据;采用最近邻法,将较高信噪比深度数据的空间分辨率提升至四倍;
第三步,利用第二步得到的强度数据和深度数据,作为基于注意力机制的传感器融合网络的输入,提取不同尺度的深度特征和强度特征,将二维强度特征在时间维度上重复得到与深度数据维度一致的三维强度数据,对于各个尺度的强度特征和深度特征,在时间维度上进行级联,并进行融合重构模块提升融合质量,上采样至输入数据尺寸后,得到输出的重建深度图。
2.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述特征提取模块提取SPAD测量数据和强度数据中的多尺度特征的具体过程为:
下采样因子为2-L,使用L个三维特征提取器,从SPAD测量数据中提取L个多尺度特征;
网络原始输入和提取得到的多尺度特征经过若干三维卷积层,获得更深层的特征;
使用L个二维特征提取器,从强度数据中获得与深度特征尺度相对应的强度特征,将强度数据及强度特征在时间维度上平移,获得二维至三维的映射。
3.根据权利要求2所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,每个三维特征提取器包括一个三维卷积层、一个三维批归一化层和修正线性单元激活函数,每个三维特征提取器中,特征首先进入三维卷积层,三维卷积层的输出作为三维批归一化层的输入,三维批归一化层的输出作为修正线性单元激活函数的输入,修正线性单元激活函数的输出作为下一尺度三维特征提取器的输入。
4.根据权利要求1所述的基于注意力机制的传感器融合深度重建数据驱动方法,其特征在于,所述融合重构模块进行特征融合得到重构后的深度图的具体步骤为:
A、对应尺度的深度特征与经过映射得到的三维强度特征在时间维度上级联,输入至上采样算子;
B、经上采样算子输出的融合特征图通过注意力模块,以关注图像中带有更多特征的区域;
C、从注意力模块中得到的上采样后的前一级特征图与更高尺度的深度特征与强度特征级联,输入至上采样算子,返回步骤B,直至得到与网络输入特征的分辨率一致的特征图,作为重构深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111279035.XA CN113989343A (zh) | 2021-10-31 | 2021-10-31 | 基于注意力机制的传感器融合深度重建数据驱动方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111279035.XA CN113989343A (zh) | 2021-10-31 | 2021-10-31 | 基于注意力机制的传感器融合深度重建数据驱动方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113989343A true CN113989343A (zh) | 2022-01-28 |
Family
ID=79745058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111279035.XA Pending CN113989343A (zh) | 2021-10-31 | 2021-10-31 | 基于注意力机制的传感器融合深度重建数据驱动方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113989343A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114692509A (zh) * | 2022-04-21 | 2022-07-01 | 南京邮电大学 | 基于多阶段退化神经网络的强噪声单光子三维重建方法 |
CN114724012A (zh) * | 2022-06-10 | 2022-07-08 | 天津大学 | 基于时空跨尺度注意力融合热带不稳定波预警方法及装置 |
CN117890888A (zh) * | 2024-03-18 | 2024-04-16 | 苏州识光芯科技术有限公司 | 基于tcspc的探测装置 |
-
2021
- 2021-10-31 CN CN202111279035.XA patent/CN113989343A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114692509A (zh) * | 2022-04-21 | 2022-07-01 | 南京邮电大学 | 基于多阶段退化神经网络的强噪声单光子三维重建方法 |
CN114724012A (zh) * | 2022-06-10 | 2022-07-08 | 天津大学 | 基于时空跨尺度注意力融合热带不稳定波预警方法及装置 |
CN114724012B (zh) * | 2022-06-10 | 2022-08-23 | 天津大学 | 基于时空跨尺度注意力融合热带不稳定波预警方法及装置 |
CN117890888A (zh) * | 2024-03-18 | 2024-04-16 | 苏州识光芯科技术有限公司 | 基于tcspc的探测装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108230329B (zh) | 基于多尺度卷积神经网络的语义分割方法 | |
Shi et al. | Study on modeling method of forest tree image recognition based on CCD and theodolite | |
CN110363215B (zh) | 基于生成式对抗网络的sar图像转化为光学图像的方法 | |
CN107239751B (zh) | 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法 | |
CN113989343A (zh) | 基于注意力机制的传感器融合深度重建数据驱动方法 | |
CN108009559B (zh) | 一种基于空谱联合信息的高光谱数据分类方法 | |
CN109685768B (zh) | 基于肺部ct序列的肺结节自动检测方法及系统 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
CN110728658A (zh) | 一种基于深度学习的高分辨率遥感影像弱目标检测方法 | |
CN111898688B (zh) | 一种基于三维深度学习的机载LiDAR数据树种分类方法 | |
CN109671094B (zh) | 一种基于频域分级的眼底图像血管分割方法 | |
CN110111345B (zh) | 一种基于注意力网络的3d点云分割方法 | |
CN112529015A (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
Bonnet et al. | Comparison of UAS photogrammetric products for tree detection and characterization of coniferous stands | |
CN109859256A (zh) | 一种基于自动对应点匹配的三维点云配准方法 | |
Pashaei et al. | Deep learning-based single image super-resolution: an investigation for dense scene reconstruction with UAS photogrammetry | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
CN109712150A (zh) | 基于稀疏表示的光学微波图像融合重建方法和装置 | |
CN108447113B (zh) | 一种基于深度学习模型的脉冲式强度关联三维成像方法 | |
CN113239736A (zh) | 一种基于多源遥感数据的土地覆盖分类标注图获取方法、存储介质及系统 | |
Zhao et al. | Photon-efficient 3D reconstruction employing a edge enhancement method | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
CN112581626B (zh) | 一种基于非参数化和多注意力机制的复杂曲面测量系统 | |
CN116543165B (zh) | 一种基于双通道复合深度网络的遥感图像果树分割方法 | |
CN112967295B (zh) | 一种基于残差网络和注意力机制的图像处理方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |