CN115115511A - 一种彩色引导的深度图超分辨率重建方法 - Google Patents

一种彩色引导的深度图超分辨率重建方法 Download PDF

Info

Publication number
CN115115511A
CN115115511A CN202210640004.0A CN202210640004A CN115115511A CN 115115511 A CN115115511 A CN 115115511A CN 202210640004 A CN202210640004 A CN 202210640004A CN 115115511 A CN115115511 A CN 115115511A
Authority
CN
China
Prior art keywords
color
features
depth
reconstruction
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210640004.0A
Other languages
English (en)
Inventor
丛润民
盛荣晖
何凌志
白慧慧
赵耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN202210640004.0A priority Critical patent/CN115115511A/zh
Publication of CN115115511A publication Critical patent/CN115115511A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种彩色引导的深度图超分辨率重建方法,方法包括以下步骤:1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;最终得到精度准确、细节丰富的超分辨率重建深度图。本发明从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导,抑制无价值冗余,提高重建性能。实例表明,本发明的方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。

Description

一种彩色引导的深度图超分辨率重建方法
技术领域
本发明涉及一种彩色引导的深度图超分辨率重建方法。
背景技术
深度图描述了场景的距离关系,包括物体的遮挡和重叠,对于三维理解任务至关重要,如自主驾驶、三维物体检测、三维重建、显著物体检测等众多领域。然而,由于现有深度采集设备的限制,采集到的深度图分辨率相对较低,尤其是智能手机上配备的低功耗深度传感器。低分辨率(LR)深度图在分辨率上无法与高分辨率(HR)彩色图像匹配,从而阻碍了面向深度应用的进一步拓展。因此,深度图超分辨率重建(DSR)技术应运而生,具有实际研究价值和工业应用价值。深度图超分辨率是一个病态逆问题,因为LR深度图和HR深度图之间没有一对一的对应关系,而且在较大的上采样因子时,也很难恢复清晰的边界等细节。因此,考虑到HR彩色图像相对容易获取,且彩色图像的亮度边界与深度图像的深度边界有着明显的结构相似性,现有的许多DSR模型都使用HR彩色图像作为辅助输入,提供更全面的附加指导信息。Wen等人使用一个粗到细的DCNN网络学习具有不同卷积核大小的不同滤波器,从而使数据驱动的训练取代手工设计的滤波器。Huang等人提出了一种金字塔结构的深度密集残差网络,通过密集连接和残差学习,利用多尺度特征预测高频残差。Guo等为深度重构任务设计了一个残差UNet结构,引入了层次特征驱动的残差学习。Zuo等人提出了一种基于全局和局部残差学习的数据驱动超分辨率网络。Sun等人提出了一种递进式的多分支聚合网络,利用多尺度信息和高频特征,逐级重建深度图。他们还表明,低层级彩色信息只适合早期的特征融合,且在×2和×4的情况下,对DSR没有太大帮助。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
彩色图像亮度边界与深度图像深度边界之间的结构相似性并不总是存在。彩色图像不仅包含物体边界,还包含物体内部的纹理边界,而深度图只有物体边界,因此彩色图像包含的边界信息远多于深度图,这可能会在为DSR提供指导的同时引入额外的噪声。现有方法以引导的形式设计了一些模式和策略,如使用低层级彩色特征作为细节引导,或同等对待不同层级的彩色特征作为指导等。然而,这些方法并没有考虑到不同彩色信息在引导过程中的作用和多样性,因此,充分利用颜色引导信息还需要进一步探索。
发明内容
针对现有技术中存在的缺陷,本发明旨在充分挖掘彩色对深度的跨模态信息引导,并降低彩色信息中的冗余与额外噪声影响,设计一种用于深度图超分辨率重建的层次化彩色引导投影网络,该网络根据不同层级建模不同的彩色引导角色,获得更优的重建性能。
本发明探索了一种彩色引导的深度图超分辨率重建方法,即一种层次化彩色引导投影网络,该网络从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导。具体实现步骤如下:
一种深度图超分辨率重建网络,包括:特征提取模块、基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块;
特征提取模块包括5个渐进卷积块,每个渐进卷积块包括两个3×3卷积层和一个1×1卷积层。基于注意力的特征投影模块包括多尺度内容增强块和四个级联的自适应注意力投影块;
特征提取模块用于从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
多尺度内容增强块用于增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征,从而提升退化较为严重区域(如深度边界和精细物体处)的重建效果;自适应注意力投影块用于将有效信息投影到注意力域,保证投影特征的有效性和紧凑性,四个级联的自适应注意力投影块以由粗到细的方式逐步恢复深度特征。
低层细节嵌入模块用于引入HR彩色图较低层次(即前两层)的彩色特征,通过学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,以残差注意力的方式用高频彩色引导来补充深度特征,从而更好恢复细节。
高层语义引导模块用于利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步对初始的深度重建特征进行语义校正。
多尺度内容增强块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的细节。
一种彩色引导的深度图超分辨率重建方法,利用上述DSR投影网络,包括以下步骤:
步骤1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
步骤2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;
步骤3、根据不同层次的特征划分为多个重建层级,聚合不同重建层级的恢复特征的同时,渐进式实现深度图的重建,最终得到精度准确、细节丰富的超分辨率重建深度图(SR深度图)。
在上述方案的基础上,彩色特征和深度特征分别表示为
Figure BDA0003683494610000037
Figure BDA0003683494610000036
i={1,2,3,4,5};在不同重建层级,基于注意力的特征投影模块的输入特征不同,具体表示为:
Figure BDA0003683494610000031
其中,Concat表示沿通道维度的拼接操作,
Figure BDA0003683494610000032
表示第i层的深度特征,
Figure BDA0003683494610000033
为第i层低层细节嵌入模块生成的低层细节特征,
Figure BDA0003683494610000034
表示第k层重建完成后的传输特征,由以下步骤计算得到:
Figure BDA0003683494610000035
其中,
Figure BDA0003683494610000041
为第k个高层语义引导模块的输出特征,↓为下采样操作,k={i+1,i+2,…,5}。
然后,将顶层彩色特征
Figure BDA0003683494610000042
和深度特征
Figure BDA0003683494610000043
送入高层语义引导模块,修正初始的深度重建特征
Figure BDA0003683494610000044
生成最终重建特征
Figure BDA0003683494610000045
最后,对
Figure BDA0003683494610000046
Figure BDA0003683494610000047
进行亚像素卷积运算,得到最终上采样的超分辨率重建深度图。
同时,DSR投影网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=||DSR-DHR||1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,||·||1为L1范数函数。
在上述方案的基础上,
Figure BDA0003683494610000048
式中,MD表示膨胀率为1、2、3、4的多尺度膨胀卷积运算,
Figure BDA0003683494610000049
是第i层基于注意力的特征投影模块的输入,
Figure BDA00036834946100000410
是每个多尺度膨胀卷积的输出。最后,将所有的多尺度膨胀特征
Figure BDA00036834946100000411
通过1×1的卷积层进行级联融合:
Figure BDA00036834946100000412
其中Conv1×1表示卷积核大小为1×1的卷积层,
Figure BDA00036834946100000413
是多尺度内容增强块的输出。
在上述方案的基础上,自适应注意力投影块的输入统一表示为:
Figure BDA00036834946100000414
其中,DeConv表示由反卷积层执行的上采样操作,
Figure BDA00036834946100000415
为第i层自适应注意力投影块的第j个HR输出。由式(6)看出,第一个自适应注意力投影块的输入是多尺度内容增强块的上采样输出特征,而其他自适应注意力投影块的输入是前一个自适应注意力投影块的输出。
投影的注意力图计算公式为:
Figure BDA0003683494610000051
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层。
有了投影的注意力图,当前自适应注意力投影块的输出描述为:
Figure BDA0003683494610000052
其中,
Figure BDA0003683494610000053
表示元素级的乘法。
利用4个连续的自适应注意力投影块,由粗到细生成4个HR重构特征。结合得到基于注意力的特征投影模块的最终输出特征:
Figure BDA0003683494610000054
其中,
Figure BDA0003683494610000055
表示初始的深度重建特征。
在上述方案的基础上,将彩色特征和深度特征映射到同一个域,然后将它们相减,得到彩色信息相对于深度信息的冗余部分,随后残差掩码由归一化后取反生成:
Figure BDA0003683494610000056
其中,RMi表示残差掩码,Wc和Wd表示彩色特征和深度特征的映射矩阵,Sigmoid是归一化操作,i取1或2。
低层细节嵌入模块的最终输出特征表示为:
Figure BDA0003683494610000057
其中,
Figure BDA0003683494610000058
表示元素级的乘法,
Figure BDA0003683494610000059
为低层细节嵌入模块生成的低层细节特征。
在上述方案的基础上,将空间注意力应用于顶层彩色特征
Figure BDA00036834946100000510
从而生成突出重要位置的增强彩色特征
Figure BDA00036834946100000511
将增强彩色特征与初始的深度重建特征进行拼接,生成语义掩码:
Figure BDA00036834946100000512
式中PReLU为参数线性整流单元,Conv3×3为卷积核大小为3×3的卷积层。
利用语义掩码,可以通过以下方法对初始的深度重建特征
Figure BDA00036834946100000513
进行细化:
Figure BDA00036834946100000514
其中,
Figure BDA0003683494610000061
为每个重建层级的最终重建特征。
本发明的有益效果:本发明探索了一种彩色引导的深度图超分辨率重建方法,并提出了一种层次化彩色引导投影网络,该网络从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导。为此,设计了低层细节嵌入(LDE)模块和高层语义引导(HSG)模块来实现层次化彩色引导。此外,本发明还提出了一个自适应注意力投影(AAP)块,用于强化注意力域中的关键恢复区域,抑制冗余信息。实例表明,本发明的方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。
附图说明
本发明有如下附图:
图1本发明的DSR投影网络整体架构示意图。
图2本发明在8倍超分辨率下的可视化实例示意图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本发明重新思考彩色引导的作用,并提出一种层次化彩色引导的DSR投影网络。我们认为不同层次的颜色信息对DSR任务都是有指导意义的,但它们扮演的角色和使用方式应该加以区分。为此,本发明的彩色分支在网络中的低层和高层特征两方面实现了对深度超分辨率分支的分而治之引导:1)低层细节嵌入(LDE)模块,以残差注意力的方式用高频彩色引导来补充深度特征,从而恢复边界等细节;2)高层语义引导(HSG)模块,通过使用一个对全局语义引导信息进行编码的语义掩码来修正初始重构特征。此外还设计了基于注意力的特征投影(AFP)模块,包括一个多尺度内容增强块,通过多尺度感受野获得更全面的特征,以及一种自适应注意力投影块,以注意力的方式将有价值的信息从LR域投影到HR域。
图1为DSR投影网络整体架构示意图。首先将LR深度图和HR彩色图像嵌入到特征提取模块中,提取多层次特征;然后,通过AFP模块、LDE模块和HSG模块协同工作,逐步恢复低分辨率深度特征中的细节,生成HR深度图。彩色信息的运用表现在两个方面:一方面,在低层重建阶段利用低层彩色特征,通过LDE模块恢复细节;另一方面,在AFP模块末尾使用高层语义特征,通过HSG模块提供语义指导。
1、技术路线
本发明设计的DSR投影网络概述如图1所示,这是一种双流渐进重建架构。给定LR深度图和对应的HR彩色图像作为输入,网络的目标是重建生成与彩色图像分辨率相同的SR(超分辨率重建)深度图。
网络首先通过5个渐进卷积块提取多层次的彩色特征和深度特征,每个卷积块包括两个3×3卷积层和一个1×1卷积层。得到的彩色特征和深度特征分别表示为
Figure BDA0003683494610000071
Figure BDA0003683494610000072
(i={1,2,3,4,5})。然后,在基于注意力的特征投影(AFP)模块、低层细节嵌入(LDE)模块和高层语义引导(HSG)模块的协同下,实现颜色引导的深度特征学习和细节恢复。值得注意的是,有三个输入(如果存在)被发送到AFP模块:(1)对应层级的深度特征
Figure BDA0003683494610000073
(2)LDE模块生成的低层细节特征
Figure BDA0003683494610000074
用于低层重建阶段的细节恢复;(3)所有已完成重建层的传输特征
Figure BDA0003683494610000075
在不同重建层级,AFP模块的输入特征不同,具体表示为:
Figure BDA0003683494610000076
其中,Concat表示沿通道维度的拼接操作,
Figure BDA0003683494610000077
表示第i层的深度特征,
Figure BDA0003683494610000078
为第i层LDE模块生成的低层细节特征,
Figure BDA0003683494610000079
表示第k层重建完成后的传输特征,可由以下步骤计算得到:
Figure BDA00036834946100000710
其中,
Figure BDA00036834946100000711
为第k个HSG模块的输出特征,↓为下采样操作,k={i+1,i+2,…,5}。需要注意的是,LDE模块的输入包括对应层的深度特征
Figure BDA0003683494610000081
和彩色特征
Figure BDA0003683494610000082
然后,将顶层彩色特征
Figure BDA0003683494610000083
和深度特征
Figure BDA0003683494610000084
送入HSG模块,修正AFP模块的输出特征
Figure BDA0003683494610000085
生成重建特征
Figure BDA0003683494610000086
最后,对
Figure BDA0003683494610000087
Figure BDA0003683494610000088
进行亚像素卷积运算,得到最终的上采样的SR深度图。
同时,本发明的DSR投影网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=||DSR-DHR||1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,||·||1为L1范数函数。
2、基于注意力的特征投影模块
为了实现深度图的超分辨率,需要将低分辨率的特征映射到需要的高分辨率重建特征上。具体来说,有两个问题需要注意:(1)为了恢复退化较严重的局部细节(如深度边界和精细物体),单纯增加网络深度是不够的,也是不明智的。因此,本发明引入了一个多尺度内容增强块来增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征。(2)LR和HR域之间的信息在投影过程中并不是绝对一对一的对应,过多的冗余信息的干扰容易引入额外的误差,从而影响重构精度。为此,本发明提出了一种自适应注意力投影(AAP)块,将有效信息投影到注意力域,保证投影特征的有效性和紧凑性。需要注意的是,AFP模块中使用了四个级联的AAP块,以获得更好的性能。
1)多尺度内容增强(MCE)块。多尺度信息能够有效地感知和建模不同的细节,这对于DSR中的细节恢复具有重要意义。MCE模块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的更多细节。此外,还利用密集连接从所有层获得完整的信息,整个流程可以表示为:
Figure BDA0003683494610000089
式中,MD表示膨胀率为1、2、3、4的多尺度膨胀卷积运算,
Figure BDA00036834946100000810
是第i层AFP模块的输入,
Figure BDA00036834946100000811
是每个多尺度膨胀卷积的输出。最后,将所有的多尺度膨胀特征
Figure BDA0003683494610000091
通过1×1的卷积层进行级联融合:
Figure BDA0003683494610000092
其中Conv1×1表示卷积核大小为1×1的卷积层,
Figure BDA0003683494610000093
是MCE块的输出,它感知不同尺度的内容信息。
2)自适应注意力投影(AAP)块。深度图的超分辨率处理需要弥补LR域和HR域之间的巨大鸿沟。事实上,DSR任务的重点不是从零开始生成内容,而是对诸如边界等细节进行补充、改进和增强。从这个角度来看,盲目地、不加区分地对所有区域进行超分辨率重建是一种次优的方式,也难以达到优化退化较严重的重要区域的目的。也就是说,在将信息从LR域恢复到HR域的过程中(也称为投影过程),可能会引入冗余干扰而不进行滤波,从而引入额外的误差,影响重建精度。因此,本发明设计了AAP块,注意加强关键恢复区域,从而抑制干扰,提高重建性能。
具体来说,采用下投影和上投影两种方法模拟DSR过程,从而得到较差条件下的重构HR特征图。然后,从原始HR特征中减去重构后的HR特征,生成残差特征,残差特征对重建过程中需要恢复的内容信息进行编码。最后,将残差图激活为投影的注意力图,并用于自适应地细化原始HR特征。投影的注意力图可以纠正重建过程中的错误,避免LR和HR域之间的特征投影造成的退化。
为了进一步提高恢复性能,本发明将四个AAP块堆叠在一起,并通过1×1卷积集成每个AAP块的输出。
因此,AAP块的输入可以统一表示为:
Figure BDA0003683494610000094
其中,DeConv表示由反卷积层执行的上采样操作,
Figure BDA0003683494610000095
为第i层AAP块的第j个HR输出(下文中将进一步推导)。由式(6)可以看出,第一个AAP块的输入是MCE块的上采样输出特征,而其他AAP块的输入是前一个AAP块的输出。投影的注意力图计算公式为:
Figure BDA0003683494610000096
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层。
有了投影的注意力图,当前AAP块的输出可以描述为:
Figure BDA0003683494610000101
其中,
Figure BDA0003683494610000102
表示元素级的乘法。
利用4个连续的AAP块,由粗到细生成4个HR重构特征。结合它们,可以得到AFP模块的最终输出特征:
Figure BDA0003683494610000103
其中,
Figure BDA0003683494610000104
表示初始的深度重建特征。
3、低层细节嵌入模块
众所周知,高分辨率彩色图像是很容易获得的,并包含许多有用的信息,如边界、纹理、语义等。因此,在DSR模型中引入彩色引导已成为该领域的主流思想。然而,对于使用哪种彩色信息以及如何使用,目前还没有完全的共识。考虑到彩色特征在不同层次上的不同作用,本发明提出了一种差异化的彩色引导策略解决方案。具体而言,在低层重建阶段设计了低层细节嵌入(LDE)模块,利用低层次彩色特征来补充深度特征的高频引导,从而恢复边界等细节。此外,本发明还设计了一个高层语义引导(HSG)模块,利用高层彩色特征对原始重建特征进行语义校正,防止深度重建过程中的语义偏移。本节将介绍LDE模块,下节将详细介绍HSG模块。
对于深度图的超分辨率,精确、清晰的边界重建一直是研究者们不懈努力的重点。恰巧彩色分支的底层学习的是纹理、边界等细节信息。因此,本发明通过LDE模块引入HR彩色分支较低层次(即前两层)的彩色特征,并将其输出作为AFP模块的输入之一。然而,深度边界与彩色边界并不完全一致。实际上,深度图中的边界主要是物体边界,而彩色图像除了物体边界外,还包括物体内部丰富的纹理边界。显然,纹理边界对DSR来说是冗余甚至干扰的。那么选择合适的彩色信息作为指导就迫在眉睫了。因此,网络学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,并利用残差掩码来引导彩色特征向深度特征的信息传递。
首先将彩色特征和深度特征映射到同一个域,然后将它们相减,得到彩色信息相对于深度信息的冗余部分,这是网络需要抑制的部分。随后残差掩码可由归一化后取反生成:
Figure BDA0003683494610000111
其中,RMi表示残差掩码,Wc和Wd表示彩色特征和深度特征的映射矩阵,Sigmoid是归一化操作,i取1或2。
这样,残差掩码突出了彩色和深度信息中最相关的部分,因此将其与初始彩色特征相乘,得到可以用于深度重建指导的有效彩色特征。因此,LDE模块的最终输出可表示为:
Figure BDA0003683494610000112
其中,
Figure BDA0003683494610000113
表示元素级的乘法,
Figure BDA0003683494610000114
为LDE模块生成的低层细节特征。
4、高层语义引导模块
正如前面分析的,现有的方法主要是通过提取彩色特征来补充深度重建的细节,就像LDE模块所实现的功能一样。然而,这种细节指导策略是否足够?事实上,高层彩色特征对于许多任务都是非常重要的,它可以提供丰富的语义信息。在DSR任务中,现有方法忽略了一个问题,即重构特征的全局语义保持能力。随着重建过程的进行,语义信息有可能发生偏移或模糊,这对后续面向深度的应用任务非常不利。这主要是由于在重构过程中缺乏语义引导。受此启发,本发明设计了一个HSG模块来保持深度重建过程中的语义属性,该模块在每个AFP模块之后都配置。具体来说,利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步用于修正初始的深度重建特征
Figure BDA0003683494610000115
(即AFP模块的输出特征)。
首先将空间注意力应用于顶层彩色特征
Figure BDA0003683494610000116
从而生成突出重要位置的增强彩色特征
Figure BDA0003683494610000117
考虑到语义特征的辅助作用,网络在指导过程中仍然以深度重建特征为主导。因此,将增强彩色特征与初始的深度重建特征进行拼接,生成语义掩码:
Figure BDA0003683494610000118
式中PReLU为参数线性整流单元,Conv3×3为卷积核大小为3×3的卷积层。
利用语义掩码,可以通过以下方法对初始的深度重建特征
Figure BDA0003683494610000121
进行细化:
Figure BDA0003683494610000122
其中,
Figure BDA0003683494610000123
为对应HSG模块的输出特征。应该注意的是,
Figure BDA0003683494610000124
是每个重建层级的最终重建特征,最后一层
Figure BDA0003683494610000125
的重建特征将直接用于生成上采样的SR深度图,而其他层的重建特征将通过密集连接的传输模块实现整个网络的渐进学习。
附图2给出了本发明在8倍超分辨率下的可视化实例。第一列为HR真实深度图和彩色图像,第二列为真实深度图像块,第三列为为本发明重建的SR深度图像块。从结果可以看出,本发明方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。
深度图描述了场景的距离关系,与彩色图像构成两种模态的信息。彩色引导的深度图超分辨率重建是将低分辨率深度图在彩色信息补充下重建出高分辨率深度图。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的实质和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的保护范围。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。

Claims (9)

1.一种彩色引导的深度图超分辨率重建方法,其特征在于,利用深度图超分辨率重建网络,包括如下步骤:
步骤1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
步骤2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;
步骤3、根据不同层次的特征划分为多个重建层级,聚合不同重建层级的恢复特征的同时,渐进式实现深度图的重建,最终得到精度准确、细节丰富的超分辨率重建深度图。
2.如权利要求1所述的彩色引导的深度图超分辨率重建方法,其特征在于:彩色特征和深度特征分别表示为
Figure FDA0003683494600000011
Figure FDA0003683494600000012
i={1,2,3,4,5};在不同重建层级,基于注意力的特征投影模块的输入特征不同,具体表示为:
Figure FDA0003683494600000013
其中,Concat表示沿通道维度的拼接操作,
Figure FDA0003683494600000014
表示第i层的深度特征,
Figure FDA0003683494600000015
为第i层低层细节嵌入模块生成的低层细节特征,
Figure FDA0003683494600000016
表示第k层重建完成后的传输特征,由以下步骤计算得到:
Figure FDA0003683494600000017
其中,
Figure FDA0003683494600000018
为第k个高层语义引导模块的输出特征,↓为下采样操作,k={i+1,i+2,…,5};
然后,将顶层彩色特征
Figure FDA0003683494600000019
和深度特征
Figure FDA00036834946000000110
送入高层语义引导模块,修正初始的深度重建特征
Figure FDA00036834946000000111
生成最终重建特征
Figure FDA00036834946000000112
最后,对
Figure FDA00036834946000000113
Figure FDA00036834946000000114
进行亚像素卷积运算,得到最终上采样的超分辨率重建深度图。
3.如权利要求2所述的彩色引导的深度图超分辨率重建方法,其特征在于:深度图超分辨率重建网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=‖DSR-DHR1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,‖·‖1为L1范数函数。
4.如权利要求2所述的彩色引导的深度图超分辨率重建方法,其特征在于:
Figure FDA0003683494600000021
式中,MD表示膨胀率为1、2、3、4的多尺度膨胀卷积运算,
Figure FDA0003683494600000022
是第i层基于注意力的特征投影模块的输入特征,
Figure FDA0003683494600000023
是每个多尺度膨胀卷积的输出;最后,将所有的多尺度膨胀特征
Figure FDA0003683494600000024
通过1×1的卷积层进行级联融合:
Figure FDA0003683494600000025
其中Conv1×1表示卷积核大小为1×1的卷积层,
Figure FDA0003683494600000026
是多尺度内容增强块的输出。
5.如权利要求4所述的彩色引导的深度图超分辨率重建方法,其特征在于:自适应注意力投影块的输入统一表示为:
Figure FDA0003683494600000027
其中,DeConv表示由反卷积层执行的上采样操作,
Figure FDA0003683494600000028
为第i层自适应注意力投影块的第j个HR输出;由式(6)看出,第一个自适应注意力投影块的输入是多尺度内容增强块的上采样输出特征,而其他自适应注意力投影块的输入是前一个自适应注意力投影块的输出;
投影的注意力图计算公式为:
Figure FDA0003683494600000029
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层;
有了投影的注意力图,当前自适应注意力投影块的输出描述为:
Figure FDA0003683494600000031
其中,
Figure FDA0003683494600000032
表示元素级的乘法;
利用4个连续的自适应注意力投影块,由粗到细生成4个HR重构特征;结合得到基于注意力的特征投影模块的最终输出特征:
Figure FDA0003683494600000033
其中,
Figure FDA0003683494600000034
表示初始的深度重建特征。
6.如权利要求2所述的彩色引导的深度图超分辨率重建方法,其特征在于:将彩色特征和深度特征映射到同一个域,然后将它们相减,得到彩色信息相对于深度信息的冗余部分,随后残差掩码由归一化后取反生成:
Figure FDA0003683494600000035
其中,RMi表示残差掩码,Wc和Wd表示彩色特征和深度特征的映射矩阵,Sigmoid是归一化操作,i取1或2;
低层细节嵌入模块的最终输出特征表示为:
Figure FDA0003683494600000036
其中,
Figure FDA0003683494600000037
表示元素级的乘法,
Figure FDA0003683494600000038
为低层细节嵌入模块生成的低层细节特征。
7.如权利要求5所述的彩色引导的深度图超分辨率重建方法,其特征在于:将空间注意力应用于顶层彩色特征
Figure FDA0003683494600000039
从而生成突出重要位置的增强彩色特征
Figure FDA00036834946000000310
将增强彩色特征与初始的深度重建特征进行拼接,生成语义掩码:
Figure FDA00036834946000000311
式中PReLU为参数线性整流单元,Conv3×3为卷积核大小为3×3的卷积层;
利用语义掩码,通过以下方法对初始的深度重建特征
Figure FDA00036834946000000312
进行细化:
Figure FDA00036834946000000313
其中,
Figure FDA00036834946000000314
为每个重建层级的最终重建特征。
8.如权利要求1所述的彩色引导的深度图超分辨率重建方法,其特征在于:深度图超分辨率重建网络包括:特征提取模块、基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块;
特征提取模块包括5个渐进卷积块,每个渐进卷积块包括两个3×3卷积层和一个1×1卷积层;基于注意力的特征投影模块包括多尺度内容增强块和4个级联的自适应注意力投影块;
特征提取模块用于从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
多尺度内容增强块用于增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征,从而提升退化较为严重区域的重建效果;自适应注意力投影块用于将有效信息投影到注意力域,保证投影特征的有效性和紧凑性,四个级联的自适应注意力投影块以由粗到细的方式逐步恢复深度特征;
低层细节嵌入模块用于引入HR彩色图前两层的彩色特征,通过学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,以残差注意力的方式用高频彩色引导来补充深度特征,从而更好恢复细节;
高层语义引导模块用于利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步对初始的深度重建特征进行语义校正。
9.如权利要求8所述的彩色引导的深度图超分辨率重建方法,其特征在于:多尺度内容增强块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的细节。
CN202210640004.0A 2022-06-08 2022-06-08 一种彩色引导的深度图超分辨率重建方法 Pending CN115115511A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210640004.0A CN115115511A (zh) 2022-06-08 2022-06-08 一种彩色引导的深度图超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210640004.0A CN115115511A (zh) 2022-06-08 2022-06-08 一种彩色引导的深度图超分辨率重建方法

Publications (1)

Publication Number Publication Date
CN115115511A true CN115115511A (zh) 2022-09-27

Family

ID=83326270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210640004.0A Pending CN115115511A (zh) 2022-06-08 2022-06-08 一种彩色引导的深度图超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN115115511A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116309431A (zh) * 2023-03-14 2023-06-23 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116309431A (zh) * 2023-03-14 2023-06-23 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法
CN116309431B (zh) * 2023-03-14 2023-10-27 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法

Similar Documents

Publication Publication Date Title
Zuo et al. Multi-scale frequency reconstruction for guided depth map super-resolution via deep residual network
CN101477684B (zh) 一种利用位置图像块重建的人脸图像超分辨率方法
Du et al. Anchor-based plain net for mobile image super-resolution
CN111242238B (zh) 一种rgb-d图像显著性目标获取的方法
CN107358576A (zh) 基于卷积神经网络的深度图超分辨率重建方法
CN114936605A (zh) 基于知识蒸馏的神经网络训练方法、设备及存储介质
CN115731138A (zh) 一种基于Transformer与卷积神经网络的图像修复方法
WO2023212997A1 (zh) 基于知识蒸馏的神经网络训练方法、设备及存储介质
CN116258652B (zh) 基于结构注意和文本感知的文本图像修复模型及方法
CN104899835A (zh) 基于盲模糊估计与锚定空间映射的图像超分辨处理方法
CN114463209A (zh) 一种基于深度多特征协同学习的图像修复方法
Zuo et al. Depth map enhancement by revisiting multi-scale intensity guidance within coarse-to-fine stages
CN115115511A (zh) 一种彩色引导的深度图超分辨率重建方法
Quan et al. Deep learning-based image and video inpainting: A survey
Yuan et al. Recurrent structure attention guidance for depth super-resolution
CN117952883A (zh) 一种基于双边网格和显著性引导的逆光图像增强方法
CN111931793B (zh) 一种显著性目标提取方法及系统
CN116523985B (zh) 一种结构和纹理特征引导的双编码器图像修复方法
Liu et al. Image super-resolution using a simple transformer without pretraining
CN116362995A (zh) 一种基于标准先验的牙齿图像修复方法和系统
CN116188273A (zh) 一种基于不确定性导向的双模态可分离图像超分辨率方法
CN116128722A (zh) 基于频域-纹理特征融合的图像超分辨率重建方法及系统
CN115861108A (zh) 一种基于小波自注意力生成对抗网络的图像修复方法
CN116091319A (zh) 基于长距离上下文依赖的图像超分辨率重建方法及系统
CN115170921A (zh) 一种基于双边网格学习和边缘损失的双目立体匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination