CN114820323A - 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 - Google Patents
一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 Download PDFInfo
- Publication number
- CN114820323A CN114820323A CN202210541241.1A CN202210541241A CN114820323A CN 114820323 A CN114820323 A CN 114820323A CN 202210541241 A CN202210541241 A CN 202210541241A CN 114820323 A CN114820323 A CN 114820323A
- Authority
- CN
- China
- Prior art keywords
- resolution
- feature
- network
- binocular image
- right view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000007246 mechanism Effects 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 20
- 238000010586 diagram Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 5
- 230000002452 interceptive effect Effects 0.000 abstract description 3
- 238000013519 translation Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本文公开了一种基于立体注意力机制的多尺度残差双目图像超分辨率方法,属于图像处理技术领域。该方法包含以下步骤:S1.建立双目图像训练集;S2.设计网络结构;S3.设置训练参数训练该网络;S4.测试该网络性能。本发明具有以下优点:(1)与基于副本平移的双目图像超分辨方法相比,本方法不局限于固定视差图像的超分辨率处理,通过立体注意力机制并行提取左右视图间交互信息,提高了方法的性能。(2)与基于立体匹配的双目图像超分辨率相比,本方法不需要根据三维或四维的匹配代价估计视图间视差,提高了方法的效率。
Description
技术领域
本发明涉及一种基于立体注意力机制的多尺度残差双目图像超分辨率方法,属于图像处 理技术领域。
背景技术
图像作为人类感觉系统的视觉根本,饰演捕捉信息、分析信息、表达信息以及传递信息 的重要角色,图像处理技术对人类有不可或缺的意义。近现代以来,随着自动化技术、电子 信息技术和计算机网络技术的快速发展,图像携带的自然景观中形状、颜色、纹理等数字化 信息,提供了视觉信息的量化表示。
相较于模拟图像处理,数字图像处理有再现性好、精度高、灵活度高的特点,而数字图 像处理技术作为一种“软技术”,其发展为后续的大量研究奠定了基础,例如图像重建、图 像分析、目标检测、语义理解等。基于对图像质量的需求,高分辨率图像在很多应用场合都 极其重要。然而,由于传感器排列密度的限制及技术工艺的制约,通过提升成像装置的分辨 率直接提升图像分辨率显然不太切合实际,图像超分辨率重建则提供了另一种更为高效便捷 的方式,即利用一张或多张低分辨率图像通过计算机软件生成高分辨率图像,并尽可能恢复 原图像中的细节纹理和遮挡区域,在降低成本的同时获取更好的视觉效果。
仿照人类双眼的成像过程,立体视觉通过左右相机同步成像的视觉差异,在图像中还原 其在三维空间中的相对位置,作为主流的视觉方案之一,与其他视觉方案相比有突出的优势。 双目视觉的使用场景广泛,可以同时提供二维(图像)和三维(距离)信息,通过调整相机 间的基线能够调控测量范围,同时搭载图像处理芯片后,对于场景的纹理、结构、颜色等也 能有较好的实时性识别。立体视觉以灵活、方便、成本低的特点在视觉检测、3D虚拟现实技 术、计算机辅助技术及高级驾驶辅助系统中具有重要的研究价值。
立体视觉现阶段的研究重点在于通过利用双目视图间的视差信息进行场景的三维重建, 作为底层图像处理过程,双目图像超分辨率本质上是多输入多输出的过程,即输入低分辨率 左右视图,通过利用图像间的交互信息重建出相应的高分辨率双目图像。为满足深度估计、 立体匹配等高级视觉任务对于输入图像质量的要求,双目图像超分辨率的研究一方面需要借 鉴上层任务的建模思想,另一方面需要克服双目成像中的固有缺陷(如环境光照影响、纹理 单一或过于复杂等造成的匹配不当问题)。
双目图像能够仿知人眼视觉系统的重要前提是不同深度的物体在成像过程中会出现在不 同的位置。同时由于外极线约束,成像物体的相对位置只存在水平变化,极少有纵向变化, 也就说明,视差补偿沿水平极线展开的效益是最高的。
发明内容
技术问题:本发明的目的是提供一种基于立体注意力机制的多尺度残差双目图像超分辨 率方法,针对现有技术的不足,通过立体视差注意力机制,在解决极线视差问题的前提下利 用左右视图的互补信息提高双目图像的分辨率。
技术方案:本发明公开了基于立体视差注意力机制的双目图像超分辨率方法,包括以下 步骤:
步骤S1.建立双目图像训练集:通过训练样本随机进行上下翻转、左右翻转操作增强训 练样本;
步骤S2.设计网络结构:整体网络由特征提取、立体视差提取及特征重建三个模块组成, 其中,特征提取模块通过引入共享权值的多尺度残差结构分别对输入网络的低分辨率左右视 图进行特征提取;立体视差提取模块根据立体视差注意力机制计算得到的视差注意力图进行 左右视图特征张量的融合;特征重建模块通过密集残差块和上采样模块对融合得到的特征张 量进行超分辨率重建,恢复出高分辨率的左右视图图像;
步骤S3.设置训练参数训练网络,将步骤S1得到的训练样本送到步骤S2设计的网络中, 选择合适的优化器,设置损失函数、学习参数及最大迭代次数对网络进行训练,直至训练结 束得到最终的网络模型;
步骤S4.测试该网络性能,将低分辨率的双目图像测试对输入步骤S3得到的网络中,输 出高分辨率的双目图像对。
其中,
所述步骤S1建立的双目图像训练集具体为,挑选四个常见双目图像数据集中的图片对作 为双目图像训练集,每对图像包括同一场景下的左视图和右视图两张高分辨率图像,通过双 三次下采样得到对应的低分辨率图像对,训练样本由高分辨率图像对和低分辨率图像对裁剪 的图像块构成。双三次插值是专业术语,又称立方卷积插值(bicubicinterpolation)利用待采 样点周围16个点的灰度值作三次插值,用来实现图片的缩放,此处的“双三次下采样”是指通 过双三次插值的逆运算实现图像的缩小。后续的“双三次上采样”是指通过双三次插值算法实 现图像的放大。
所述步骤S2设计网络结构:包含以下三个步骤:
步骤S2.1.特征提取:利用共享权值的多尺度残差网络对输入网络中低分辨率的左视图 和右视图进行特征提取,分别得到其特征张量;
步骤S2.2.立体视差提取:利用残差单元分别对步骤S1.1中左视图和右视图的特征张量 进行二次处理得到调和后的左右特征张量;以左视图的处理为例,经过左视图特征张量与右 视图转置的特征张量的批次化矩阵相乘和Softmax归一化操作生成立体视差注意力图,对右 视图特征张量进行卷积操作,并与立体视差注意力图进行批次化矩阵相乘,将得到的结果与 左特征张量进行拼接,通过卷积操作得到融合后的左视图立体视差特征张量;对调步骤S1.1 中的左右视图特征张量通过类似操作得到融合后的右视图立体视差特征张量;
步骤S2.3.特征重建:利用残差稠密块组分别对步骤S2.2中融合的左右视图特征张量进 行处理,利用反卷积网络对高维特征张量进行操作,融合输入低分辨率图像的双三次上采样 结果,恢复出高分辨率的左右视图图像。
在步骤S3中,所述训练网络使用Nvidia GTX1080Ti GPU训练网络结构,基于Pytorch1.8 部署训练;所述的优化器为Adam优化器,初始学习率设置为2×10-4,最大迭代次数为80, 且学习率每隔20个迭代下降为之前的一半。
在步骤S4中,将经过双三次上采样的双目图像对与利用本方法超分辨率后的双目图像对 进行视觉效果的比较。
有益效果:本发明由于采取以上的技术方案,与现有技术相比,具有以下优点:
(1)与基于副本平移的双目图像超分辨方法相比,本方法不局限于固定视差图像的超分 辨率处理,利用卷积神经网络直接构建低分辨率图像和高分辨率图像之间的映射关系,提高 了方法的性能。
(2)与基于立体匹配的双目图像超分辨率相比,本方法不需要根据三维或四维的匹配代 价估计视图间视差,通过立体注意力机制并行提取左右视图间交互信息,对双目图像中的视 差变化具有更好的鲁棒性,提高了方法的效率。
附图说明
图1为本发明的整体步骤流程图;
图2为本发明网络设计的总体结构示意图;
图2(a)为特征提取中残差空洞空间卷积池化金字塔块的结构示意图;
图2(b)为立体视差提取中立体视差注意力模块的结构示意图;
图2(c)为特征重建中残差稠密模块的结构示意图;
图3为本发明与现有技术在实施例下的结果对比图。
具体实施方式
下面结合附图及实施例对本发明进行详细的阐述,本发明提出的基于立体注意力机制的 图像超分辨率方法,具体包含如下步骤:
图1为本发明的整体步骤流程图,具体包含以下步骤:
步骤S1.建立双目图像训练集:挑选四个常见双目图像数据集中的860对双目图像(每 对图像包含一张左视图及一张右视图)作为双目图像训练集中的高分辨率图像,通过双三次 下采样得到对应的低分辨率图像对。训练样本由高分辨率图像对和低分辨率图像对裁剪后的 图像块构成。
步骤S2.设计网络结构:图2为本发明中卷积神经网络的总体结构示意图,由图可知, 本发明的整体网络由特征提取、立体视差提取及特征重建三个模块组成。其中,特征提取模 块通过引入共享权值的多尺度残差结构分别对输入网络的低分辨率左右视图进行特征提取; 立体视差提取模块通过立体视差注意力机制计算得到的视差注意力图进行左右视图的特征张 量的融合;特征重建模块通过密集残差块和上采样模块对融合得到的特征张量进行超分辨率 重建,恢复出高分辨率的左右视图图像。具体过程如下:
步骤S2.1.1.通过3×3卷积层和基础残差块提取输入图像的浅层特征,以LeakyReLU 为激活函数,馈送至多尺度残差模块中进行多尺度特征的捕获;
步骤S2.1.2.多尺度残差模块由两组残差空洞空间卷积池化金字塔块(ResidualAtrous Spatial Pyramid Pooling Module,resASPP)和基础残差块级联组成,前者负责生成多尺度信息, 后者则进行信息融合。其中,单个resASPP结构如图2(a)所示,由膨胀率为1、2、5的空洞 卷积组合而成,通过1×1卷积控制输出通道数为64。
步骤S2.2.立体视差提取:通过引入立体视差注意力模块(如图2(b)所示),建立沿极线 位置之间的相似度。具体如下:
步骤S2.2.2.以左视图的立体视差注意力图的生成过程为例,步骤S2.2.1中左视图 特征张量首先需要和转置后的右视图特征张量进行批次化矩阵相乘, 并进行softmax操作。分别最终得到的双视图下的立体视差注意力图组,其生成过程表示为: 其中,立体视差注意力图中坐标代表的是对于的贡献度, 即两个特征点之间的相关度。
步骤S2.2.3.图3展示了以Middlebury数据集中Toy图片对为实施例得到的视差注意力 图,由图分析,立体视察注意力模块对于特征相似度的计算集中在准确差异化特征上,并不
强制收集所有像素特征点间的相似性,只关注沿极线的最大相似特征,所以视差注意力图是 稀疏的。采用掩膜机制对于步骤S2.2.2中的立体视差注意力图进行补偿,以左视图特征张量 的掩膜计算为例,过程如下:
步骤S2.2.4.在实际训练中,将掩膜的阈值τ设置为0.1,通过批次化矩阵相乘得到视差 注意力图与输入图像之间的交互特征张量:
步骤S2.2.5.将步骤S2.2.1中的特征张量、步骤S2.3中的掩膜与步骤S2.4中的交互特征 张量连接,利用1×1卷积对级联后的特征张量进行特征融合,得到最终的立体视差特征张量, 表示如下:
步骤S2.3.特征重建:利用四个残差稠密块对步骤S2.2.5中融合后的立体视差特征张量 进行卷积操作,单个残差稠密块的结构如图2(c)所示。在实施例中,每个残差稠密块设置4 个3×3卷积层和ReLU函数组,通过反卷积层对特征张量进行反卷积操作,反卷积层由3× 3卷积组成,利用卷积层将特征张量映射到RGB空间,融合输入低分辨率图像的双三次上采 样结果,得到最终输出的左右视图高分辨率图像。
步骤S3.设置训练参数训练该网络:将步骤S1中生成的训练样本送入设计好的网络中进 行训练,设置代价函数为超分辨率图像与真实高分辨率图像的均方误差,在NvidiaGTX1080Ti GPU上基于Pytorch1.8部署训练,使用Adam优化器进行优化,初始学习率设置为2×10-4, 最大迭代次数为80,且学习率每隔20个迭代下降为之前的一半。
步骤S4.测试该网络性能:将低分辨率双目测试图像输入训练好的网络中,输出对应的高分辨 率双目图像对。图3为经过双三次上采样的双目图像对与利用本方法超分辨率后的双目图像对的视 觉效果对比。通过该图中的细节放大部分可以看出,本方法在文字细节和结构方面有较强的重建能 力,通过左右视图间的视差补偿,能够取得较为优异的视觉效果。
Claims (5)
1.一种基于立体注意力机制的多尺度残差双目图像超分辨率方法,其特征在于:所述方法包含以下步骤:
步骤S1.建立双目图像训练集:通过对训练样本随机进行上下翻转、左右翻转操作增强训练样本;
步骤S2.设计网络结构:整体网络由特征提取、立体视差提取及特征重建三个模块组成,其中,特征提取模块通过引入共享权值的多尺度残差结构分别对输入网络的低分辨率左右视图进行特征提取;立体视差提取模块根据立体视差注意力机制计算得到的视差注意力图进行左右视图特征张量的融合;特征重建模块通过密集残差块和上采样模块对融合得到的特征张量进行超分辨率重建,恢复出高分辨率的左右视图图像;
步骤S3.设置训练参数训练网络,将步骤S1得到的训练样本送到步骤S2设计的网络中,选择合适的优化器,设置损失函数、学习参数及最大迭代次数对网络进行训练,直至训练结束得到最终的网络模型;
步骤S4.测试该网络性能,将低分辨率的双目图像测试对输入步骤S3得到的网络中,输出高分辨率的双目图像对。
2.根据权利要求1所述基于立体视差注意力机制的多尺度残差双目图像超分辨率方法,其特征在于:所述步骤S1建立的双目图像训练集具体为,挑选四个常见双目图像数据集中的图片对作为双目图像训练集,每对图像包括同一场景下的左视图和右视图两张高分辨率图像,通过双三次下采样得到对应的低分辨率图像对,训练样本由高分辨率图像对和低分辨率图像对裁剪的图像块构成。
3.根据权利要求1所述基于立体视差注意力机制的多尺度残差双目图像超分辨率方法,其特征在于:所述步骤S2设计网络结构:包含以下三个步骤:
步骤S2.1.特征提取:利用共享权值的多尺度残差网络对输入网络中低分辨率的左视图和右视图进行特征提取,分别得到其特征张量;
步骤S2.2.立体视差提取:利用残差单元分别对步骤S1.1中左视图和右视图的特征张量进行二次处理得到调和后的左右特征张量;以左视图的处理为例,经过左视图特征张量与右视图转置的特征张量的批次化矩阵相乘和Softmax归一化操作生成立体视差注意力图,对右视图特征张量进行卷积操作,并与立体视差注意力图进行批次化矩阵相乘,将得到的结果与左特征张量进行拼接,通过卷积操作得到融合后的左视图立体视差特征张量;对调步骤S1.1中的左右视图特征张量通过类似操作得到融合后的右视图立体视差特征张量;
步骤S2.3.特征重建:利用残差稠密块组分别对步骤S2.2中融合的左右视图特征张量进行处理,利用反卷积网络对高维特征张量进行操作,融合输入低分辨率图像的双三次上采样结果,恢复出高分辨率的左右视图图像。
4.根据权利要求1所述基于立体视差注意力机制的多尺度残差双目图像超分辨率方法,其特征在于:在步骤S3中,所述训练网络使用Nvidia GTX1080Ti GPU训练网络结构,基于Pytorch1.8部署训练;所述的优化器为Adam优化器,初始学习率设置为2×10-4,最大迭代次数为80,且学习率每隔20个迭代下降为之前的一半。
5.根据权利要求1所述基于立体视差注意力机制的多尺度残差双目图像超分辨率方法,其特征在于:在步骤S4中,将经过双三次上采样的双目图像对与利用本方法超分辨率后的双目图像对进行视觉效果的比较。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210541241.1A CN114820323A (zh) | 2022-05-17 | 2022-05-17 | 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210541241.1A CN114820323A (zh) | 2022-05-17 | 2022-05-17 | 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114820323A true CN114820323A (zh) | 2022-07-29 |
Family
ID=82515500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210541241.1A Pending CN114820323A (zh) | 2022-05-17 | 2022-05-17 | 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114820323A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546515A (zh) * | 2022-08-31 | 2022-12-30 | 北京鉴智科技有限公司 | 一种深度信息获取方法和装置 |
CN116721018A (zh) * | 2023-08-09 | 2023-09-08 | 中国电子科技集团公司第十五研究所 | 基于密集残差连接的生成对抗网络的图像超分辨重建方法 |
CN118297808A (zh) * | 2024-06-06 | 2024-07-05 | 山东大学 | 基于视差引导的双目图像超分辨重建方法及系统 |
-
2022
- 2022-05-17 CN CN202210541241.1A patent/CN114820323A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546515A (zh) * | 2022-08-31 | 2022-12-30 | 北京鉴智科技有限公司 | 一种深度信息获取方法和装置 |
CN116721018A (zh) * | 2023-08-09 | 2023-09-08 | 中国电子科技集团公司第十五研究所 | 基于密集残差连接的生成对抗网络的图像超分辨重建方法 |
CN116721018B (zh) * | 2023-08-09 | 2023-11-28 | 中国电子科技集团公司第十五研究所 | 基于密集残差连接的生成对抗网络的图像超分辨重建方法 |
CN118297808A (zh) * | 2024-06-06 | 2024-07-05 | 山东大学 | 基于视差引导的双目图像超分辨重建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325794B (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
Lee et al. | From big to small: Multi-scale local planar guidance for monocular depth estimation | |
CN107578436B (zh) | 一种基于全卷积神经网络fcn的单目图像深度估计方法 | |
CN111968217B (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN110570522B (zh) | 一种多视图三维重建方法 | |
CN109242954B (zh) | 基于模板变形的多视角三维人体重建方法 | |
CN114820323A (zh) | 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 | |
CN110443892B (zh) | 一种基于单张图像的三维网格模型生成方法及装置 | |
CN108921926A (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN114666564B (zh) | 一种基于隐式神经场景表示进行虚拟视点图像合成的方法 | |
CN112950475B (zh) | 基于残差学习及空间变换网络的光场超分辨率重建方法 | |
CN113283525B (zh) | 一种基于深度学习的图像匹配方法 | |
CN112767467B (zh) | 一种基于自监督深度学习的双图深度估计方法 | |
CN113962858A (zh) | 一种多视角深度获取方法 | |
CN110880162A (zh) | 基于深度学习的快照光谱深度联合成像方法及系统 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN113538243B (zh) | 基于多视差注意力模块组合的超分辨图像重建方法 | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
CN112489198A (zh) | 一种基于对抗学习的三维重建系统及其方法 | |
CN117745932A (zh) | 一种基于深度融合约束的神经隐式曲面重建方法 | |
CN115830241A (zh) | 一种基于神经网络的真实感三维人脸纹理重建方法 | |
CN117994480A (zh) | 一种轻量化手部重建与驱动的方法 | |
CN104796624A (zh) | 一种光场编辑传播方法 | |
Li et al. | Effective data-driven technology for efficient vision-based outdoor industrial systems | |
CN117218192A (zh) | 一种基于深度学习与合成数据的弱纹理物体位姿估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |