CN114463172A - 一种面向视图一致性的光场图像超分辨率重建方法 - Google Patents

一种面向视图一致性的光场图像超分辨率重建方法 Download PDF

Info

Publication number
CN114463172A
CN114463172A CN202210004978.XA CN202210004978A CN114463172A CN 114463172 A CN114463172 A CN 114463172A CN 202210004978 A CN202210004978 A CN 202210004978A CN 114463172 A CN114463172 A CN 114463172A
Authority
CN
China
Prior art keywords
light field
resolution
view
super
field image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210004978.XA
Other languages
English (en)
Inventor
张倩
侯佳琦
王赋
朱苏磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Normal University
Original Assignee
Shanghai Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Normal University filed Critical Shanghai Normal University
Priority to CN202210004978.XA priority Critical patent/CN114463172A/zh
Publication of CN114463172A publication Critical patent/CN114463172A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本发明涉及一种面向视图一致性的光场图像超分辨率重建方法,该方法包括:步骤S1、获取光场图像,预处理后得到子孔径视图Iu;步骤S2、构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、全视图融合和上采样,得到中间高分辨率光场图像
Figure DDA0003456253900000011
采用损失函数lintermediate训练全对一光场图像超分辨率网络;步骤S3、构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,重建中间高分辨率光场图像
Figure DDA0003456253900000012
采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr。与现有技术相比,本发明图像超分辨率重建精度高的优点。

Description

一种面向视图一致性的光场图像超分辨率重建方法
技术领域
本发明涉及图像处理领域,尤其是涉及一种面向视图一致性的光场图像超分辨率重建方法。
背景技术
由于光场相机的传感器分辨率有限,光场相机面临着空间分辨率和角度分辨率之间的权衡。光场相机会出现降低视图的空间分辨率,而提高角度分辨率来采取更多的视图,因此记录的光场图像往往是低空间分辨率的。提高空间分辨率成为了光场中的主要问题。光场超分辨率重建是计算机视觉中一个长期存在的问题。
目前,光场图像超分辨率重建主要分为基于传统学习的方法和基于深度学习的方法。经典的基于传统的学习方法正在被基于深度学习的方法超越。
基于传统的学习方法通过利用跨视图冗余和视图之间的互补信息来学习从低分辨率视图到高分辨率视图的映射对于传统的方法,也被研究出很多模型来处理问题。Mattia Rossi和Pascal Frossard提出了一个新的光场超分辨率算法。利用编码在不同视图中的互补信息来提高其空间分辨率,并依赖于一个图来正则化目标光场。利用编码在不同视图中的互补信息来提高其空间分辨率,并依赖于一个图来正则化目标光场。Alain等人通过将BM3D滤波扩展到光场,提出了用于光场图像去噪和光场图像的LFBM5D。Rossi和Frossard开发了一种基于图的方法,通过图优化实现光场图像超分辨率。然而,上述方法虽然对光场结构进行了很好的编码,但是光场中的空间信息没有被充分利用。
光场图像是光场相机从不同角度拍摄同一场景所获得的图像的集合。因此,可采用基于深度学习的方法利用跨视图冗余和视图之间的互补信息来学习从低分辨率视图到高分辨率视图的映射。Yunlong Wang提出了一种嵌入隐式多尺度融合层的双向递归卷积神经网络,从同一图像块的多个尺度积累上下文信息。Nan Meng设计了一种充分利用光场的结构信息的光场空间和角度超分辨率的分层高阶框架。Yunlong Wang提出了一种端到端的学习框架,用于从稀疏输入视图直接合成密集4D光场的新视图。Y eung提出了有效和高效的端到端深度卷积神经网络模型,用于提高光场LF图像的空间分辨率。
近年来,深度学习在光场超分辨率领域取得了巨大的成就。但是仍存在针对光场图像中的信息利用不足和视差结构不能很好保存的问题。
发明内容
本发明的目的就是为了克服上述现有技术存在的对光场图像中的信息利用不足和视差结构不能很好的保存而提供了一种面向视图一致性的光场超分辨率重建方法。
本发明的目的可以通过以下技术方案来实现:
本发明提供了一种面向视图一致性的光场图像超分辨率重建方法,该方法包括以下步骤:
步骤S1、获取光场图像,预处理后得到子孔径视图Iu
步骤S2、构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、全视图融合和上采样,得到中间高分辨率光场图像
Figure BDA0003456253880000021
采用损失函数lintermediate训练全对一光场图像超分辨率网络;
步骤S3、构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,重建中间高分辨率光场图像
Figure BDA0003456253880000022
采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr
优选地,所述步骤S1具体为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为m×m,角度分辨率为n×n的光场图像。
优选地,所述步骤S2中包括以下子步骤:
步骤S21、提取所有光场子孔径视图中的深度特征Fu
Fu=fe(Iu)
其中,Iu为光场子孔径视图;fe为特征提取网络;
步骤S22、利用包含CBAM注意力残差块的相关性学习网络fl获取参考视图与其他视图特征间的相关性,得到融合后视图
Figure BDA0003456253880000023
Figure BDA0003456253880000031
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
步骤S23、将所有的融合后视图
Figure BDA0003456253880000032
进行全视图融合,得到全视图融合图像
Figure BDA0003456253880000033
Figure BDA0003456253880000034
其中,
Figure BDA0003456253880000035
为融合后的图像,m为其它视图的数量;fs为视图融合网络,包括卷积块、用于信道视角融合的残差块以及用于信道融合的残差块;
步骤S24、对融合后的图像
Figure BDA0003456253880000036
进行上采样,输出中间超分辨率结果
Figure BDA0003456253880000037
Figure BDA0003456253880000038
其中,
Figure BDA0003456253880000039
为全视图融合图像,Sp是子孔径卷积网络,fb代表双三次插值的过程;fp为上采样网络,包括一个首尾连接卷积块的子孔径像素卷积块;
步骤S25、采用损失函数lintermediate对全对一光场图像超分辨率网络进行训练。
优选地,利用相关性学习网络fl学习参考视图特征
Figure BDA00034562538800000310
其他视图对应特征
Figure BDA00034562538800000311
之间的相关性,并将从其他视图对应特征
Figure BDA00034562538800000312
中提取的特征融合参考视图特征
Figure BDA00034562538800000313
中,得到融合后的图像
Figure BDA00034562538800000314
优选地,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
优选地,所述步骤S25中全对一光场图像超分辨率网络的损失函数表达式为:
Figure BDA00034562538800000315
其中,
Figure BDA00034562538800000316
为中间超分辨率结果,Iu为光场中的子孔径视图。
优选地,所述步骤S3具体为:构建空间角度正则化网络,分别在二维空间卷积层和二维角度卷积层上对输出的中间高分辨率光场图像
Figure BDA00034562538800000317
进行整形,采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr
优选地,所述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块。
优选地,所述感知对抗损失函数lfinal表达式为:
Figure BDA00034562538800000318
其中,hr为经过空间角度正则化网络后得到的超分辨率光场图像,D为对抗损失的判别器,G为对抗损失函数的生成器。
优选地,所述重建方法还包括步骤S4:使用峰值信噪比PSNR和结构相似性SSIM对光场超分辨率重建图像进行评估。
与现有技术相比,本发明具有以下优点:
1)针对现有技术中光场图像中的信息利用不足的问题,本发明通过引入注意力机制,构建全对一光场图像超分辨率网络,充分的利用视图之间的信息,提高了光场超分辨率的质量;
2)针对视差结构不能很好保存的问题,本发明设计一种空间角度相互作用机制框架整合空间角度信息应用于光场超分辨,充分利用视差信息,提高了视图的一致性;
3)本发明方法的超分辨结果质量比传统的学习方法高。
附图说明
图1为本发明的方法流程图;
图2为本发明的光场图像超分辨率方法结构示意图;
图3为全对一光场图像超分辨率网络示意图;
图4为全对一特征提取模块结构图;
图5为注意力模块结构示意图;
图6为视图融合示意图;
图7为上采样模块示意图;
图8为空间角度正则化网络示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
如图1和图2所示,本实施例采用的光场图像超分辨率重建方法包括以下步骤:
步骤S1、获取光场图像,预处理后得到子孔径视图Iu,具体过程为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为64×64,角度分辨率为7×7的光场图像;
4D光场表示为L(x,u),其中x=(x,y)是空间坐标,u=(u,v)是角度坐标。光场中的每个子孔径视图表示为Iu
步骤S2、如图3和4所示,构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、视图融合和上采样,融合后得到中间高分辨率光场图像
Figure BDA00034562538800000510
具体过程为:
步骤S21、提取所有光场子孔径视图中的深度特征Fu
Fu=fe(Iu) (1)
其中,Iu为光场子孔径视图;fe为特征提取网络,包括64个具有3×3内核的卷积层、校正线性单元(Relu)和5个残差块;fe的参数在所有网络中共享。
步骤S22、利用包含CBAM注意力残差块的相关性学习网络fl获取参考视图与其他视图特征间的相关性,将其它视图的输出特征分别与参考视图的输出特征对应,利用相关性学习网络fl学习参考视图特征
Figure BDA0003456253880000051
其他视图对应特征
Figure BDA0003456253880000052
之间的相关性,并将从其他视图对应特征
Figure BDA0003456253880000053
中提取的特征融合参考视图特征
Figure BDA0003456253880000054
中,得到融合后的图像
Figure BDA0003456253880000055
其表达式为:
Figure BDA0003456253880000056
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
如图5所示,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
步骤S23、将全部融合后视图进行全视图融合,如图6所示,采用直接融合的方式,得到全视图融合图像
Figure BDA0003456253880000057
Figure BDA0003456253880000058
其中,
Figure BDA0003456253880000059
为融合后的图像,m为其它视图的数量;fs为视图融合网络,包括一个卷积块包含64个3×3内核的卷积层和两个用于信道视角融合的残差块以及三个用于信道融合的残差块。
步骤S24、对融合后的图像
Figure BDA0003456253880000061
进行上采样,输出中间超分辨率结果
Figure BDA0003456253880000062
Figure BDA0003456253880000063
其中,
Figure BDA0003456253880000064
为全视图融合图像,Sp是子孔径卷积网络,fb代表双三次插值的过程;fp为上采样网络,包括一个首尾连接卷积块的子孔径像素卷积块,每个卷积块都有64个3×3内核的卷积层,如图7所示。
步骤S25、基于损失函数lintermediate对全对一光场图像超分辨率网络进行训练,所述损失函数lintermediate的表达式为:
Figure BDA0003456253880000065
其中,
Figure BDA0003456253880000066
为中间超分辨率结果,Iu为光场中的子孔径视图。
步骤S3、如图8所示,构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,解决光场超分辨率重建中的视差问题,重建中间高分辨率光场图像
Figure BDA0003456253880000067
采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr。具体过程为:
所述空间角度正则化网络采用了9个二维的空间-角度卷积块,通过分别在二维空间卷积层和二维角度卷积层上对中间高分辨率光场图像
Figure BDA0003456253880000068
输出的子孔径图像进行整形,采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到最终的超分辨率光场图像Ihr
感知对抗损失函数lfinal表达式为:
Figure BDA0003456253880000069
其中,Ihr为空间角度正则化网络得到的超分辨率图像结果,D为对抗损失的判别器,G为对抗损失函数的生成器;空间卷积层和角度卷积层的卷积核大小均为3×3,每层特征图数目为64,每个卷积层的输出都连接一个激活函数。
上述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块;在每个空间角度卷积层的输出中增加了从输入到输出的局部残差学习,以便于更好的传播特征,快速训练;全局残差学习则是用来缓解同网络学习输入和输出之间的残留,更容易训练。
步骤S4、本实施例采用峰值信噪比PSNR和结构相似性SSIM两种评价指标,将所得光场超分辨率结果与标注数据Ground True或其它先进网络结果进行比较,具体过程为:
峰值信噪比PSNR是信号的最大功率和信号噪声功率之比,来测量已经被压缩的重构图像的质量,通常以分贝(dB)来表示;PSNR指标越高,说明图像质量越好。PSNR表达式为:
Figure BDA0003456253880000071
其中,MAX是图像中像素的最大值,MSE表示两个图像之间对应像素之间插值的平方的均值;
结构相似性SSIM是衡量两幅图像相似性的指标,取值范围为0到1。将GT与超分辨率图进行比较,可以反映光场超分辨率图像的的质量;SSIM的值越大,说明图像质量越好;SSIM表达式为:
Figure BDA0003456253880000072
其中,x和y分别表示超分辨率图和Ground truth,μx和μy是图像x和图像y的像素的平均值,
Figure BDA0003456253880000073
Figure BDA0003456253880000074
是图像x和图像y的方差,σx,y是图像x和图像y的协方差。
峰值信噪比PSNR的值越大,代表图像失真越小,说明重建的光场超分辨率图像质量越好。结构相似性SSIM的值越接近1表示重建的光场超分辨率图像的结构一致性越好。
综上所述,本发明基于注意力机制和正则化模块,构建基于注意力机制的全对一光场图像超分辨率网络和空间角度正则化网络来超分辨光场视图;结合了传统的基于学习的超分辨率方法和非传统的基于学习的方法,建立一种光场图像超分辨率重建方法。针对以往方法对光场图像中的信息利用不足和视差结构不能很好的保存的问题,充分学习利用视图之间的相关性;该模型利用组合几何嵌入将所有视图的信息结合起来,对每个视图进行超级分解;融合得到中间分辨率结果,后续使用正则化模块探索高分辨率空间中的空间-角度几何相干性,来解决光场LF视差结构保存的问题;并结合注意力机制和对抗损失函数,最终获得超分辨率的光场图像,对计算机视觉领域有重要意义。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,该方法包括以下步骤:
步骤S1、获取光场图像,预处理后得到子孔径视图Iu
步骤S2、构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、全视图融合和上采样,得到中间高分辨率光场图像
Figure FDA0003456253870000011
采用损失函数lintermediate训练全对一光场图像超分辨率网络;
步骤S3、构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,重建中间高分辨率光场图像
Figure FDA0003456253870000012
采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr
2.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S1具体为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为m×m,角度分辨率为n×n的光场图像。
3.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S2中包括以下子步骤:
步骤S21、提取所有光场子孔径视图中的深度特征Fu
Fu=fe(Iu)
其中,Iu为光场子孔径视图;fe为特征提取网络;
步骤S22、利用包含CBAM注意力残差块的相关性学习网络fl获取参考视图与其他视图特征间的相关性,得到融合后视图
Figure FDA0003456253870000013
Figure FDA0003456253870000014
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
步骤S23、将所有的融合后视图
Figure FDA0003456253870000015
进行全视图融合,得到全视图融合图像
Figure FDA0003456253870000016
Figure FDA0003456253870000017
其中,
Figure FDA0003456253870000018
为融合后的图像,m为其它视图的数量;fs为视图融合网络,包括卷积块、用于信道视角融合的残差块以及用于信道融合的残差块;
步骤S24、对全视图融合图像
Figure FDA0003456253870000021
进行上采样,输出中间超分辨率结果
Figure FDA0003456253870000022
Figure FDA0003456253870000023
其中,
Figure FDA0003456253870000024
为全视图融合图像,Sp是子孔径卷积网络,fb代表双三次插值的过程;fp为上采样网络,包括一个首尾连接卷积块的子孔径像素卷积块;
步骤S25、采用损失函数lintermediate对全对一光场图像超分辨率网络进行训练。
4.根据权利要求3所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,利用相关性学习网络fl学习参考视图特征
Figure FDA0003456253870000025
其他视图对应特征
Figure FDA0003456253870000026
之间的相关性,并将从其他视图对应特征
Figure FDA0003456253870000027
中提取的特征融合参考视图特征
Figure FDA0003456253870000028
中,得到融合后的图像
Figure FDA0003456253870000029
5.根据权利要求4所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
6.根据权利要求3所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S25中全对一光场图像超分辨率网络的损失函数表达式为:
Figure FDA00034562538700000210
其中,
Figure FDA00034562538700000211
为中间超分辨率结果,Iu为光场中的子孔径视图。
7.根据权利要求3所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S3具体为:构建空间角度正则化网络,分别在二维空间卷积层和二维角度卷积层上对输出的中间高分辨率光场图像
Figure FDA00034562538700000212
进行整形,采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr
8.根据权利要求7所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块。
9.根据权利要求7所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述感知对抗损失函数lfinal表达式为:
Figure FDA00034562538700000213
其中,Ihr为经过空间角度正则化网络后得到的超分辨率光场图像,D为对抗损失的判别器,G为对抗损失函数的生成器。
10.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述重建方法还包括步骤S4:使用峰值信噪比PSNR和结构相似性SSIM对光场超分辨率重建图像进行评估。
CN202210004978.XA 2022-01-05 2022-01-05 一种面向视图一致性的光场图像超分辨率重建方法 Pending CN114463172A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210004978.XA CN114463172A (zh) 2022-01-05 2022-01-05 一种面向视图一致性的光场图像超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210004978.XA CN114463172A (zh) 2022-01-05 2022-01-05 一种面向视图一致性的光场图像超分辨率重建方法

Publications (1)

Publication Number Publication Date
CN114463172A true CN114463172A (zh) 2022-05-10

Family

ID=81407658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210004978.XA Pending CN114463172A (zh) 2022-01-05 2022-01-05 一种面向视图一致性的光场图像超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN114463172A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071484A (zh) * 2023-03-07 2023-05-05 清华大学 一种大场景稀疏光场十亿像素级智能重建方法及装置
CN116823602A (zh) * 2023-05-26 2023-09-29 天津大学 一种视差引导的光场图像的空间超分辨率重建方法
CN117475088A (zh) * 2023-12-25 2024-01-30 浙江优众新材料科技有限公司 基于极平面注意力的光场重建模型训练方法及相关设备
CN117788302A (zh) * 2024-02-26 2024-03-29 山东全维地信科技有限公司 一种测绘图形处理系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071484A (zh) * 2023-03-07 2023-05-05 清华大学 一种大场景稀疏光场十亿像素级智能重建方法及装置
US11908067B1 (en) 2023-03-07 2024-02-20 Tsinghua University Method and device for gigapixel-level light field intelligent reconstruction of large-scale scene
CN116823602A (zh) * 2023-05-26 2023-09-29 天津大学 一种视差引导的光场图像的空间超分辨率重建方法
CN116823602B (zh) * 2023-05-26 2023-12-15 天津大学 一种视差引导的光场图像的空间超分辨率重建方法
CN117475088A (zh) * 2023-12-25 2024-01-30 浙江优众新材料科技有限公司 基于极平面注意力的光场重建模型训练方法及相关设备
CN117475088B (zh) * 2023-12-25 2024-03-19 浙江优众新材料科技有限公司 基于极平面注意力的光场重建模型训练方法及相关设备
CN117788302A (zh) * 2024-02-26 2024-03-29 山东全维地信科技有限公司 一种测绘图形处理系统
CN117788302B (zh) * 2024-02-26 2024-05-14 山东全维地信科技有限公司 一种测绘图形处理系统

Similar Documents

Publication Publication Date Title
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN114463172A (zh) 一种面向视图一致性的光场图像超分辨率重建方法
Wang et al. Ultra-dense GAN for satellite imagery super-resolution
CN111192200A (zh) 基于融合注意力机制残差网络的图像超分辨率重建方法
CN110599401A (zh) 遥感图像超分辨率重建方法、处理装置及可读存储介质
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及系统
CN110232653A (zh) 快速轻型超分辨率重建密集残差网络
CN110880162B (zh) 基于深度学习的快照光谱深度联合成像方法及系统
CN114119444B (zh) 一种基于深度神经网络的多源遥感图像融合方法
CN108921783B (zh) 一种基于混合损失函数约束的卫星影像超分辨率重建方法
CN112699844B (zh) 一种基于多尺度残差层级密连接网络的图像超分辨率方法
CN116152120B (zh) 一种融合高低频特征信息的低光图像增强方法及装置
CN115170915A (zh) 一种基于端到端注意力网络的红外与可见光图像融合方法
CN113139585B (zh) 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法
CN117252761A (zh) 一种跨传感器遥感图像超分辨率增强方法
CN114841856A (zh) 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法
CN112785502A (zh) 一种基于纹理迁移的混合相机的光场图像超分辨率方法
CN115546442A (zh) 基于感知一致损失的多视图立体匹配重建方法及系统
CN117115359B (zh) 一种基于深度图融合的多视图电网三维空间数据重建方法
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
CN117593199A (zh) 一种基于高斯先验分布自注意力的双流遥感图像融合方法
CN116823602B (zh) 一种视差引导的光场图像的空间超分辨率重建方法
CN115170985B (zh) 一种基于阈值注意力的遥感图像语义分割网络及分割方法
CN112989593B (zh) 基于双相机的高光谱低秩张量融合计算成像方法
CN115330631A (zh) 一种基于堆叠沙漏网络的多尺度融合去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination