CN115115511A - 一种彩色引导的深度图超分辨率重建方法 - Google Patents
一种彩色引导的深度图超分辨率重建方法 Download PDFInfo
- Publication number
- CN115115511A CN115115511A CN202210640004.0A CN202210640004A CN115115511A CN 115115511 A CN115115511 A CN 115115511A CN 202210640004 A CN202210640004 A CN 202210640004A CN 115115511 A CN115115511 A CN 115115511A
- Authority
- CN
- China
- Prior art keywords
- color
- features
- depth
- reconstruction
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000011084 recovery Methods 0.000 claims abstract description 10
- 230000003044 adaptive effect Effects 0.000 claims description 24
- 230000000750 progressive effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 230000015556 catabolic process Effects 0.000 claims description 4
- 238000006731 degradation reaction Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 230000010339 dilation Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000013461 design Methods 0.000 description 5
- 239000013589 supplement Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种彩色引导的深度图超分辨率重建方法,方法包括以下步骤:1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;最终得到精度准确、细节丰富的超分辨率重建深度图。本发明从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导,抑制无价值冗余,提高重建性能。实例表明,本发明的方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。
Description
技术领域
本发明涉及一种彩色引导的深度图超分辨率重建方法。
背景技术
深度图描述了场景的距离关系,包括物体的遮挡和重叠,对于三维理解任务至关重要,如自主驾驶、三维物体检测、三维重建、显著物体检测等众多领域。然而,由于现有深度采集设备的限制,采集到的深度图分辨率相对较低,尤其是智能手机上配备的低功耗深度传感器。低分辨率(LR)深度图在分辨率上无法与高分辨率(HR)彩色图像匹配,从而阻碍了面向深度应用的进一步拓展。因此,深度图超分辨率重建(DSR)技术应运而生,具有实际研究价值和工业应用价值。深度图超分辨率是一个病态逆问题,因为LR深度图和HR深度图之间没有一对一的对应关系,而且在较大的上采样因子时,也很难恢复清晰的边界等细节。因此,考虑到HR彩色图像相对容易获取,且彩色图像的亮度边界与深度图像的深度边界有着明显的结构相似性,现有的许多DSR模型都使用HR彩色图像作为辅助输入,提供更全面的附加指导信息。Wen等人使用一个粗到细的DCNN网络学习具有不同卷积核大小的不同滤波器,从而使数据驱动的训练取代手工设计的滤波器。Huang等人提出了一种金字塔结构的深度密集残差网络,通过密集连接和残差学习,利用多尺度特征预测高频残差。Guo等为深度重构任务设计了一个残差UNet结构,引入了层次特征驱动的残差学习。Zuo等人提出了一种基于全局和局部残差学习的数据驱动超分辨率网络。Sun等人提出了一种递进式的多分支聚合网络,利用多尺度信息和高频特征,逐级重建深度图。他们还表明,低层级彩色信息只适合早期的特征融合,且在×2和×4的情况下,对DSR没有太大帮助。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
彩色图像亮度边界与深度图像深度边界之间的结构相似性并不总是存在。彩色图像不仅包含物体边界,还包含物体内部的纹理边界,而深度图只有物体边界,因此彩色图像包含的边界信息远多于深度图,这可能会在为DSR提供指导的同时引入额外的噪声。现有方法以引导的形式设计了一些模式和策略,如使用低层级彩色特征作为细节引导,或同等对待不同层级的彩色特征作为指导等。然而,这些方法并没有考虑到不同彩色信息在引导过程中的作用和多样性,因此,充分利用颜色引导信息还需要进一步探索。
发明内容
针对现有技术中存在的缺陷,本发明旨在充分挖掘彩色对深度的跨模态信息引导,并降低彩色信息中的冗余与额外噪声影响,设计一种用于深度图超分辨率重建的层次化彩色引导投影网络,该网络根据不同层级建模不同的彩色引导角色,获得更优的重建性能。
本发明探索了一种彩色引导的深度图超分辨率重建方法,即一种层次化彩色引导投影网络,该网络从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导。具体实现步骤如下:
一种深度图超分辨率重建网络,包括:特征提取模块、基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块;
特征提取模块包括5个渐进卷积块,每个渐进卷积块包括两个3×3卷积层和一个1×1卷积层。基于注意力的特征投影模块包括多尺度内容增强块和四个级联的自适应注意力投影块;
特征提取模块用于从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
多尺度内容增强块用于增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征,从而提升退化较为严重区域(如深度边界和精细物体处)的重建效果;自适应注意力投影块用于将有效信息投影到注意力域,保证投影特征的有效性和紧凑性,四个级联的自适应注意力投影块以由粗到细的方式逐步恢复深度特征。
低层细节嵌入模块用于引入HR彩色图较低层次(即前两层)的彩色特征,通过学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,以残差注意力的方式用高频彩色引导来补充深度特征,从而更好恢复细节。
高层语义引导模块用于利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步对初始的深度重建特征进行语义校正。
多尺度内容增强块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的细节。
一种彩色引导的深度图超分辨率重建方法,利用上述DSR投影网络,包括以下步骤:
步骤1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
步骤2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;
步骤3、根据不同层次的特征划分为多个重建层级,聚合不同重建层级的恢复特征的同时,渐进式实现深度图的重建,最终得到精度准确、细节丰富的超分辨率重建深度图(SR深度图)。
同时,DSR投影网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=||DSR-DHR||1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,||·||1为L1范数函数。
在上述方案的基础上,
在上述方案的基础上,自适应注意力投影块的输入统一表示为:
其中,DeConv表示由反卷积层执行的上采样操作,为第i层自适应注意力投影块的第j个HR输出。由式(6)看出,第一个自适应注意力投影块的输入是多尺度内容增强块的上采样输出特征,而其他自适应注意力投影块的输入是前一个自适应注意力投影块的输出。
投影的注意力图计算公式为:
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层。
有了投影的注意力图,当前自适应注意力投影块的输出描述为:
利用4个连续的自适应注意力投影块,由粗到细生成4个HR重构特征。结合得到基于注意力的特征投影模块的最终输出特征:
在上述方案的基础上,将彩色特征和深度特征映射到同一个域,然后将它们相减,得到彩色信息相对于深度信息的冗余部分,随后残差掩码由归一化后取反生成:
其中,RMi表示残差掩码,Wc和Wd表示彩色特征和深度特征的映射矩阵,Sigmoid是归一化操作,i取1或2。
低层细节嵌入模块的最终输出特征表示为:
式中PReLU为参数线性整流单元,Conv3×3为卷积核大小为3×3的卷积层。
本发明的有益效果:本发明探索了一种彩色引导的深度图超分辨率重建方法,并提出了一种层次化彩色引导投影网络,该网络从低层和高层特征两方面实现了彩色信息对深度超分辨率的分治引导。为此,设计了低层细节嵌入(LDE)模块和高层语义引导(HSG)模块来实现层次化彩色引导。此外,本发明还提出了一个自适应注意力投影(AAP)块,用于强化注意力域中的关键恢复区域,抑制冗余信息。实例表明,本发明的方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。
附图说明
本发明有如下附图:
图1本发明的DSR投影网络整体架构示意图。
图2本发明在8倍超分辨率下的可视化实例示意图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本发明重新思考彩色引导的作用,并提出一种层次化彩色引导的DSR投影网络。我们认为不同层次的颜色信息对DSR任务都是有指导意义的,但它们扮演的角色和使用方式应该加以区分。为此,本发明的彩色分支在网络中的低层和高层特征两方面实现了对深度超分辨率分支的分而治之引导:1)低层细节嵌入(LDE)模块,以残差注意力的方式用高频彩色引导来补充深度特征,从而恢复边界等细节;2)高层语义引导(HSG)模块,通过使用一个对全局语义引导信息进行编码的语义掩码来修正初始重构特征。此外还设计了基于注意力的特征投影(AFP)模块,包括一个多尺度内容增强块,通过多尺度感受野获得更全面的特征,以及一种自适应注意力投影块,以注意力的方式将有价值的信息从LR域投影到HR域。
图1为DSR投影网络整体架构示意图。首先将LR深度图和HR彩色图像嵌入到特征提取模块中,提取多层次特征;然后,通过AFP模块、LDE模块和HSG模块协同工作,逐步恢复低分辨率深度特征中的细节,生成HR深度图。彩色信息的运用表现在两个方面:一方面,在低层重建阶段利用低层彩色特征,通过LDE模块恢复细节;另一方面,在AFP模块末尾使用高层语义特征,通过HSG模块提供语义指导。
1、技术路线
本发明设计的DSR投影网络概述如图1所示,这是一种双流渐进重建架构。给定LR深度图和对应的HR彩色图像作为输入,网络的目标是重建生成与彩色图像分辨率相同的SR(超分辨率重建)深度图。
网络首先通过5个渐进卷积块提取多层次的彩色特征和深度特征,每个卷积块包括两个3×3卷积层和一个1×1卷积层。得到的彩色特征和深度特征分别表示为和(i={1,2,3,4,5})。然后,在基于注意力的特征投影(AFP)模块、低层细节嵌入(LDE)模块和高层语义引导(HSG)模块的协同下,实现颜色引导的深度特征学习和细节恢复。值得注意的是,有三个输入(如果存在)被发送到AFP模块:(1)对应层级的深度特征(2)LDE模块生成的低层细节特征用于低层重建阶段的细节恢复;(3)所有已完成重建层的传输特征在不同重建层级,AFP模块的输入特征不同,具体表示为:
同时,本发明的DSR投影网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=||DSR-DHR||1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,||·||1为L1范数函数。
2、基于注意力的特征投影模块
为了实现深度图的超分辨率,需要将低分辨率的特征映射到需要的高分辨率重建特征上。具体来说,有两个问题需要注意:(1)为了恢复退化较严重的局部细节(如深度边界和精细物体),单纯增加网络深度是不够的,也是不明智的。因此,本发明引入了一个多尺度内容增强块来增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征。(2)LR和HR域之间的信息在投影过程中并不是绝对一对一的对应,过多的冗余信息的干扰容易引入额外的误差,从而影响重构精度。为此,本发明提出了一种自适应注意力投影(AAP)块,将有效信息投影到注意力域,保证投影特征的有效性和紧凑性。需要注意的是,AFP模块中使用了四个级联的AAP块,以获得更好的性能。
1)多尺度内容增强(MCE)块。多尺度信息能够有效地感知和建模不同的细节,这对于DSR中的细节恢复具有重要意义。MCE模块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的更多细节。此外,还利用密集连接从所有层获得完整的信息,整个流程可以表示为:
2)自适应注意力投影(AAP)块。深度图的超分辨率处理需要弥补LR域和HR域之间的巨大鸿沟。事实上,DSR任务的重点不是从零开始生成内容,而是对诸如边界等细节进行补充、改进和增强。从这个角度来看,盲目地、不加区分地对所有区域进行超分辨率重建是一种次优的方式,也难以达到优化退化较严重的重要区域的目的。也就是说,在将信息从LR域恢复到HR域的过程中(也称为投影过程),可能会引入冗余干扰而不进行滤波,从而引入额外的误差,影响重建精度。因此,本发明设计了AAP块,注意加强关键恢复区域,从而抑制干扰,提高重建性能。
具体来说,采用下投影和上投影两种方法模拟DSR过程,从而得到较差条件下的重构HR特征图。然后,从原始HR特征中减去重构后的HR特征,生成残差特征,残差特征对重建过程中需要恢复的内容信息进行编码。最后,将残差图激活为投影的注意力图,并用于自适应地细化原始HR特征。投影的注意力图可以纠正重建过程中的错误,避免LR和HR域之间的特征投影造成的退化。
为了进一步提高恢复性能,本发明将四个AAP块堆叠在一起,并通过1×1卷积集成每个AAP块的输出。
因此,AAP块的输入可以统一表示为:
其中,DeConv表示由反卷积层执行的上采样操作,为第i层AAP块的第j个HR输出(下文中将进一步推导)。由式(6)可以看出,第一个AAP块的输入是MCE块的上采样输出特征,而其他AAP块的输入是前一个AAP块的输出。投影的注意力图计算公式为:
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层。
有了投影的注意力图,当前AAP块的输出可以描述为:
利用4个连续的AAP块,由粗到细生成4个HR重构特征。结合它们,可以得到AFP模块的最终输出特征:
3、低层细节嵌入模块
众所周知,高分辨率彩色图像是很容易获得的,并包含许多有用的信息,如边界、纹理、语义等。因此,在DSR模型中引入彩色引导已成为该领域的主流思想。然而,对于使用哪种彩色信息以及如何使用,目前还没有完全的共识。考虑到彩色特征在不同层次上的不同作用,本发明提出了一种差异化的彩色引导策略解决方案。具体而言,在低层重建阶段设计了低层细节嵌入(LDE)模块,利用低层次彩色特征来补充深度特征的高频引导,从而恢复边界等细节。此外,本发明还设计了一个高层语义引导(HSG)模块,利用高层彩色特征对原始重建特征进行语义校正,防止深度重建过程中的语义偏移。本节将介绍LDE模块,下节将详细介绍HSG模块。
对于深度图的超分辨率,精确、清晰的边界重建一直是研究者们不懈努力的重点。恰巧彩色分支的底层学习的是纹理、边界等细节信息。因此,本发明通过LDE模块引入HR彩色分支较低层次(即前两层)的彩色特征,并将其输出作为AFP模块的输入之一。然而,深度边界与彩色边界并不完全一致。实际上,深度图中的边界主要是物体边界,而彩色图像除了物体边界外,还包括物体内部丰富的纹理边界。显然,纹理边界对DSR来说是冗余甚至干扰的。那么选择合适的彩色信息作为指导就迫在眉睫了。因此,网络学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,并利用残差掩码来引导彩色特征向深度特征的信息传递。
首先将彩色特征和深度特征映射到同一个域,然后将它们相减,得到彩色信息相对于深度信息的冗余部分,这是网络需要抑制的部分。随后残差掩码可由归一化后取反生成:
其中,RMi表示残差掩码,Wc和Wd表示彩色特征和深度特征的映射矩阵,Sigmoid是归一化操作,i取1或2。
这样,残差掩码突出了彩色和深度信息中最相关的部分,因此将其与初始彩色特征相乘,得到可以用于深度重建指导的有效彩色特征。因此,LDE模块的最终输出可表示为:
4、高层语义引导模块
正如前面分析的,现有的方法主要是通过提取彩色特征来补充深度重建的细节,就像LDE模块所实现的功能一样。然而,这种细节指导策略是否足够?事实上,高层彩色特征对于许多任务都是非常重要的,它可以提供丰富的语义信息。在DSR任务中,现有方法忽略了一个问题,即重构特征的全局语义保持能力。随着重建过程的进行,语义信息有可能发生偏移或模糊,这对后续面向深度的应用任务非常不利。这主要是由于在重构过程中缺乏语义引导。受此启发,本发明设计了一个HSG模块来保持深度重建过程中的语义属性,该模块在每个AFP模块之后都配置。具体来说,利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步用于修正初始的深度重建特征(即AFP模块的输出特征)。
首先将空间注意力应用于顶层彩色特征从而生成突出重要位置的增强彩色特征考虑到语义特征的辅助作用,网络在指导过程中仍然以深度重建特征为主导。因此,将增强彩色特征与初始的深度重建特征进行拼接,生成语义掩码:
式中PReLU为参数线性整流单元,Conv3×3为卷积核大小为3×3的卷积层。
附图2给出了本发明在8倍超分辨率下的可视化实例。第一列为HR真实深度图和彩色图像,第二列为真实深度图像块,第三列为为本发明重建的SR深度图像块。从结果可以看出,本发明方法在许多具有挑战性的场景中实现了出色的视觉效果,在物体边界以及微小物体的细节处都有较高的准确性。
深度图描述了场景的距离关系,与彩色图像构成两种模态的信息。彩色引导的深度图超分辨率重建是将低分辨率深度图在彩色信息补充下重建出高分辨率深度图。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的实质和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的保护范围。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
Claims (9)
1.一种彩色引导的深度图超分辨率重建方法,其特征在于,利用深度图超分辨率重建网络,包括如下步骤:
步骤1、通过特征提取模块从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
步骤2、在基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块的协同下,实现彩色引导的深度特征学习和细节恢复;
步骤3、根据不同层次的特征划分为多个重建层级,聚合不同重建层级的恢复特征的同时,渐进式实现深度图的重建,最终得到精度准确、细节丰富的超分辨率重建深度图。
3.如权利要求2所述的彩色引导的深度图超分辨率重建方法,其特征在于:深度图超分辨率重建网络是通过计算超分辨率重建深度图和真实深度图之间的L1范数来构造训练的损失函数:
Loss=‖DSR-DHR‖1 (3)
其中,DSR、DHR分别为超分辨率重建深度图和真实深度图,‖·‖1为L1范数函数。
5.如权利要求4所述的彩色引导的深度图超分辨率重建方法,其特征在于:自适应注意力投影块的输入统一表示为:
其中,DeConv表示由反卷积层执行的上采样操作,为第i层自适应注意力投影块的第j个HR输出;由式(6)看出,第一个自适应注意力投影块的输入是多尺度内容增强块的上采样输出特征,而其他自适应注意力投影块的输入是前一个自适应注意力投影块的输出;
投影的注意力图计算公式为:
其中,ReLU为线性整流单元,Conv为下投影的卷积层,DeConv为反卷积层;
有了投影的注意力图,当前自适应注意力投影块的输出描述为:
利用4个连续的自适应注意力投影块,由粗到细生成4个HR重构特征;结合得到基于注意力的特征投影模块的最终输出特征:
8.如权利要求1所述的彩色引导的深度图超分辨率重建方法,其特征在于:深度图超分辨率重建网络包括:特征提取模块、基于注意力的特征投影模块、低层细节嵌入模块和高层语义引导模块;
特征提取模块包括5个渐进卷积块,每个渐进卷积块包括两个3×3卷积层和一个1×1卷积层;基于注意力的特征投影模块包括多尺度内容增强块和4个级联的自适应注意力投影块;
特征提取模块用于从LR深度图和HR彩色图提取多层次的彩色特征和深度特征;
多尺度内容增强块用于增强投影前的深度特征,利用不同的感受野尽可能多地恢复不同尺度下的细节特征,从而提升退化较为严重区域的重建效果;自适应注意力投影块用于将有效信息投影到注意力域,保证投影特征的有效性和紧凑性,四个级联的自适应注意力投影块以由粗到细的方式逐步恢复深度特征;
低层细节嵌入模块用于引入HR彩色图前两层的彩色特征,通过学习一个残差掩码来突出彩色特征与深度特征最一致的空间位置,以残差注意力的方式用高频彩色引导来补充深度特征,从而更好恢复细节;
高层语义引导模块用于利用HR彩色图顶层的语义信息生成一个编码了全局语义引导信息的语义掩码,并进一步对初始的深度重建特征进行语义校正。
9.如权利要求8所述的彩色引导的深度图超分辨率重建方法,其特征在于:多尺度内容增强块包含了4个膨胀率不同的卷积层的叠加,用于捕捉不同感受野尺度的细节。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210640004.0A CN115115511A (zh) | 2022-06-08 | 2022-06-08 | 一种彩色引导的深度图超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210640004.0A CN115115511A (zh) | 2022-06-08 | 2022-06-08 | 一种彩色引导的深度图超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115115511A true CN115115511A (zh) | 2022-09-27 |
Family
ID=83326270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210640004.0A Pending CN115115511A (zh) | 2022-06-08 | 2022-06-08 | 一种彩色引导的深度图超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115115511A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309431A (zh) * | 2023-03-14 | 2023-06-23 | 中国人民解放军空军军医大学 | 一种基于医学影像的视觉解释方法 |
-
2022
- 2022-06-08 CN CN202210640004.0A patent/CN115115511A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309431A (zh) * | 2023-03-14 | 2023-06-23 | 中国人民解放军空军军医大学 | 一种基于医学影像的视觉解释方法 |
CN116309431B (zh) * | 2023-03-14 | 2023-10-27 | 中国人民解放军空军军医大学 | 一种基于医学影像的视觉解释方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zuo et al. | Multi-scale frequency reconstruction for guided depth map super-resolution via deep residual network | |
CN101477684B (zh) | 一种利用位置图像块重建的人脸图像超分辨率方法 | |
Du et al. | Anchor-based plain net for mobile image super-resolution | |
CN111242238B (zh) | 一种rgb-d图像显著性目标获取的方法 | |
CN107358576A (zh) | 基于卷积神经网络的深度图超分辨率重建方法 | |
CN114936605A (zh) | 基于知识蒸馏的神经网络训练方法、设备及存储介质 | |
CN115731138A (zh) | 一种基于Transformer与卷积神经网络的图像修复方法 | |
WO2023212997A1 (zh) | 基于知识蒸馏的神经网络训练方法、设备及存储介质 | |
CN116258652B (zh) | 基于结构注意和文本感知的文本图像修复模型及方法 | |
CN104899835A (zh) | 基于盲模糊估计与锚定空间映射的图像超分辨处理方法 | |
CN114463209A (zh) | 一种基于深度多特征协同学习的图像修复方法 | |
Zuo et al. | Depth map enhancement by revisiting multi-scale intensity guidance within coarse-to-fine stages | |
CN115115511A (zh) | 一种彩色引导的深度图超分辨率重建方法 | |
Quan et al. | Deep learning-based image and video inpainting: A survey | |
Yuan et al. | Recurrent structure attention guidance for depth super-resolution | |
CN117952883A (zh) | 一种基于双边网格和显著性引导的逆光图像增强方法 | |
CN111931793B (zh) | 一种显著性目标提取方法及系统 | |
CN116523985B (zh) | 一种结构和纹理特征引导的双编码器图像修复方法 | |
Liu et al. | Image super-resolution using a simple transformer without pretraining | |
CN116362995A (zh) | 一种基于标准先验的牙齿图像修复方法和系统 | |
CN116188273A (zh) | 一种基于不确定性导向的双模态可分离图像超分辨率方法 | |
CN116128722A (zh) | 基于频域-纹理特征融合的图像超分辨率重建方法及系统 | |
CN115861108A (zh) | 一种基于小波自注意力生成对抗网络的图像修复方法 | |
CN116091319A (zh) | 基于长距离上下文依赖的图像超分辨率重建方法及系统 | |
CN115170921A (zh) | 一种基于双边网格学习和边缘损失的双目立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |