CN112785502A - 一种基于纹理迁移的混合相机的光场图像超分辨率方法 - Google Patents
一种基于纹理迁移的混合相机的光场图像超分辨率方法 Download PDFInfo
- Publication number
- CN112785502A CN112785502A CN202110094795.7A CN202110094795A CN112785502A CN 112785502 A CN112785502 A CN 112785502A CN 202110094795 A CN202110094795 A CN 202110094795A CN 112785502 A CN112785502 A CN 112785502A
- Authority
- CN
- China
- Prior art keywords
- light field
- resolution
- super
- image
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000005012 migration Effects 0.000 title claims abstract description 25
- 238000013508 migration Methods 0.000 title claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 claims abstract description 11
- 238000012937 correction Methods 0.000 claims abstract description 11
- 238000010276 construction Methods 0.000 claims abstract description 7
- 238000003062 neural network model Methods 0.000 claims abstract description 3
- 238000010586 diagram Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 10
- 230000002087 whitening effect Effects 0.000 claims description 9
- 101100247599 Hordeum vulgare RCAB gene Proteins 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 238000004040 coloring Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 4
- 238000001698 laser desorption ionisation Methods 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 3
- 239000002131 composite material Substances 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000005215 recombination Methods 0.000 description 4
- 230000006798 recombination Effects 0.000 description 4
- 230000005284 excitation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000276489 Merlangius merlangus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于纹理迁移的混合相机的光场图像超分辨率方法,步骤包括光场图像颜色矫正、视差图计算和超分辨率网络构建三个部分。其中,光场图像颜色矫正利用WCT风格转换模型使得光场图像接近单反图像的颜色;视差图计算是利用EPI全卷积神经网络模型计算视差图;超分辨率网络构建包含三个模块:第一个模块将光场的一行和一列子视点,经过RCABA提取相应子视点的特征;第二模块是PS‑PA将RCABA网络得到的低频信息融合后重建为高分辨率图像;第三模块使用纹理迁移网络提取将单反图高分辨率的纹理信息并迁移到光场中心视点上。本发明既利用了光场其他视点的补充信息又利用了单反图的高频信息,可以得到更高质量的超分辨率图。
Description
技术领域
本发明涉及一种基于纹理迁移的混合相机的光场图像超分辨率方法,属于计算机图像处理技术领域。
背景技术
超分辨率一般包含两种:其一是参考当前低分辨率图像,不依赖其他相关图像的超分辨率技术,称之为单幅图像的超分辨率。其二是参考多幅图像或多个视频帧的超分辨率技术,称之为多帧视频/多图的超分辨率(multi-frame super resolution)。单张图像获取的信息太少,视频需要借助光流等不精确的方法来对齐帧造成超分辨率的误差,光场图像一般仅借助光场内部视点有局限性。
因此,本发明提供了一种基于纹理迁移的混合相机的光场图像超分辨率方法,以优化上述问题。
发明内容
本发明的目的在于提供一种基于纹理迁移的混合相机的光场图像超分辨率方法,通过利用光场图像部分子视点的信息和单反图的高频信息,设计了基于纹理迁移的混合相机的光场图像超分辨率网络结构,从而实现了既利用了光场其他视点的补充信息又利用了单反图的高频信息,可以得到更高质量的超分辨率图。
本发明的单反图是指利用单反相机拍摄的图像,像素范围为0~255。
为实现上述发明目的,本发明采用如下技术方案:
一种基于纹理迁移的混合相机的光场图像超分辨率方法,步骤包括光场图像颜色矫正、视差图计算和超分辨率网络构建三个部分;
其中,所述光场图像颜色矫正是利用WCT风格转换模型使得光场图像接近单反图像的颜色;
所述视差图计算是利用EPI全卷积神经网络模型来计算光场中心视点的视差图;
所述超分辨率网络构建包括三个模块:第一个模块将光场的一行和一列子视点,经过3D的残差通道注意力信息融合机制RCABA提取相应子视点的特征;第二个模块是重建模块(PS-PA)将RCABA网络得到的低频信息融合后重建为高分辨率图像(即垂直分辨率大于等于720的图像),主要由像素重组(PixelShuffle)层、卷积层和像素注意力模块组成;第三个模块是使用纹理迁移网络,提取单反图高分辨率的纹理信息并将纹理信息迁移到光场中心视点上。
进一步地,所述光场图像颜色矫正的方法为:首先训练多个解码器,将图像输入预训练好的VGG网络,提取不同的层结果作为编码输出,保持编码器的权重不变,设计解码网络,利用损失函数设计解码器;然后通过WCT层的白化和上色两部操作得到编码-WCT-解码的网络结构,从而实现光场图像颜色的矫正。
更进一步地,所述白化操作为根据原图的协方差矩阵的对角矩阵和正交矩阵计算原图的内容提取结果;所述上色操作为白化操作的逆操作,求逆时由计算风格图经过Encoder后的协方差矩阵的对角矩阵和正交矩阵参与计算进行还原。
更进一步地,所述损失函数包括重建损失、感知损失、判别器损失,计算公式分别如下式(1-1)、(1-2)、(1-3)所示:
Lrec=-SSIM(IHR-ISR) (1-1)
Lper=MSE(φ(IHR)-φ(ISR)) (1-2)
LD=-log(D(IHR))-log(1-(G(ILR))) (1-3)
式(1-1)中,Lrec是重建损失,IHR是真值,ISR是超分辨率后的结果,SSIM 是结构相似度;式(1-2)中,Lper是感知损失,φ表示从VGG中提取特征图, MSE是均方误差;式(1-3)中,LD是判别器损失,ILR为低分辨率的输入,D 是判别器,G是生成器。
进一步地,所述残差通道注意力信息融合机制RCABA通过残差通道注意力模块RCAB实现对不同通道的特征重新进行加权分配。
更进一步地,所述残差通道注意力模块RCAB是将通道注意力模块CA和残差结合在一起。
本发明相较于现有技术的优势和有益效果在于:
本文发明利用了光场图像部分子视点的信息和单反图的高频信息,设计了基于纹理迁移的混合相机的光场图像超分辨率网络结构,相比于同类型工作,本设计既利用了光场其他视点的补充信息又利用了单反图的高频信息,可以得到更高质量的超分辨率图。
附图说明
图1为本发明的一种基于纹理迁移的混合相机的光场图像超分辨率方法的网络结构总图;
图2为本发明的的WCT风格转换模型的网络结构图;
图3为本发明的残差通道注意力模块RCAB的主要结构图;
图4为本发明的通道注意力模块CA的结构图;
图5为本发明的重建模块PS-PA的网络结构图;
图6为本发明的像素注意力模块的结构图;
图7为本发明的纹理迁移网络的算法流程图;
图8为本发明的位于u=2的整行视点以及v=2的整列视点图像集;
图9为本发明的合成场景及其插值的结果图,其中,Result列为合成场景的结果图,Bicubic列为合成场景插值的结果图;
图10为本发明的真实场景及其插值的结果图,其中,Result列为真实数场景的结果图,Bicubic列为真实场景插值的结果图。
具体实施方式
以下结合附图和优选实施例对本发明作进一步说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和过程,但本发明的保护范围不限于下述的实施例。
如图1所示为本发明的一种基于纹理迁移的混合相机的光场图像超分辨率方法的网络结构总图。本发明的光场图像超分辨率方法,包括光场图像颜色矫正、视差图计算和超分辨率网络结构三个部分。具体说明如下:
1、光场图像颜色矫正
由于光场相机获取的光场图像的颜色偏暗,颜色与现实场景的视觉颜色差别较大,单反图的颜色比较接近真实。因此,本发明借助已有的风格转换模型将光场图像的颜色转换为单反图的颜色。
而传统的风格转换模型通过计算原图和风格图的内容损失(content loss)和风格损失(style loss)来保障迁移的效果,这导致每种风格转换都需要专门训练对应的网络,训练是十分耗时的。为了有效优化传统风格转换模型的缺点,本发明采用WCT(Whitening and coloring transforms)风格转换模型进行转换。如图2所示为本发明的WCT风格转换模型的网络结构图。
本发明的光场图像颜色矫正的方法为:首先训练多个解码器,将图像输入预训练好的VGG网络,提取不同的层结果作为编码输出,保持编码器(Encoder) 的权重不变,设计解码网络,利用损失函数设计解码器,这样得到的编解码器实际上是对图片进行一个恒等变换。WCT层分为白化和上色两步操作,白化操作会根据原图的协方差矩阵的对角矩阵和正交矩阵,计算原图的内容提取结果;上色操作是白化操作的逆操作,只不过求逆时是计算风格图经过Encoder后的协方差矩阵的对角矩阵和正交矩阵参与计算进行还原,这样相当于在恢复原图时把风格图的风格融合到其中。经过上面的两点可以得到编码-WCT-解码的网络结构,从而实现光场图像颜色的矫正。
进一步地,所述损失函数包括重建损失Lrec、感知损失Lper、判别器损失LD三部分。其中,重建损失Lrec的计算公式如下式(1-1)所示:
Lrec=-SSIM(IHR-ISR) (1-1)
式(1-1)中,IHR是真值,ISR是超分辨率后的结果,SSIM是结构相似度。感知损失Lper改善SR结果的视觉质量,计算公式如下式(1-2)所示:
Lper=MSE(φ(IHR)-φ(ISR)) (1-2)
式(1-2)中,φ表示从VGG中提取特征图,MSE是均方误差。
判别器损失LD的计算公式如下式(1-3)所示:
LD=-log(D(IHR))-log(1-(G(ILR))) (1-3)
式(1-3)中,ILR为低分辨率的输入,D是判别器,G是生成器。
2、视差图计算
利用一个现有的网络模型EPINet来计算光场中心视点的视差图。主要采用了一个多流(multi-stream)的网络结构,从不同的方向来获取EPI的信息。网络的输入是四个不同的角度:0°、45°、90°、135°,输出是中心视点的视差图。由于两个相机的光轴是平行的,因此通过视差图将单反图投影(warp)到光场中心视点的位置,实现对齐。根据以下公式(2-1)可以获得单反图的视差图,进而将单反图warp到光场的中心视点。
式(2-1)中,D是单反图的视差图,B是两个相机之间的距离,b是光场的基线,d是光场中心视点的视差图。
3、超分辨率网络构建
本发明的超分辨率网络构建主要分为三个模块:第一个模块主要是利用光场中心视点包含的一行和一列视点作为输入给中心视点提供丰富的低频信息和缺失的细节信息。由于低分辨率的输入包含丰富的低频信息,但却在通道间被平等对待,从而阻碍了网络的表达能力,为了优化这种问题,本发明利用残差通道注意力信息融合机制(RCABA)来提高网络的表达能力,然后通过跳跃连接将残差信息聚合起来直接进行传播,避免信息受损,使主网络专注于学习高频信息。残差通道注意力模块(RCAB)的主要网络结构如图3所示。
RCAB就是将通道注意力模块CA和残差结合在一起。如图4所示为通道注意力模块CA的结构图,通道注意力模块CA将一个H×W×C的特征,先进行一个空间的全局平均池化得到一个1×1×C的通道描述。接着,再经过一个下采样层和一个上采样层得到每一个通道的权重系数,将权重系数和原来的特征相乘即可得到缩放后的新特征,整个过程实际上就是对不同通道的特征重新进行了加权分配。其中,激活函数为Sigmoid。
第二个模块是重建模块PS-PA(如图5所示),是将RCABA网络融合的低频信息重建为高分辨率图像。主要由像素重组(PixelShuffle)层、卷积层以及像素注意力模块组成,这样有利于卷积层的表达能力,更好的重建图像。PixelShuffle 的主要功能是将低分辨的特征图,通过卷积和多通道间的重组得到倍高分辨率的特征图。具体来说,就是将原来一个低分辨的像素划分为个更小的格子,利用个特征图对应位置的值按照一定的规则来填充这些小格子。按照同样的规则将每个低分辨像素划分出的小格子填满就完成了重组过程。
像素注意力模块能够生成3D(C×H×W)矩阵作为注意力特征。换句话说,像素注意力模块会为特征图的所有像素生成权重系数,它可以提高卷积的表达能力,其结构如图6所示。
第三个模块是纹理迁移网络,输入是单反图和光场中心视点,输出是从单反图中迁移的纹理特征。因为参考图不能很好的和光场中心视点对齐,所以利用纹理迁移可以减少误差,防止不必要的错误信息误导网络。
如图7所示为纹理迁移网络的算法流程图。具体流程为:首先将光场中心视点插值放大,为了使参考图和光场中心视点保持一个频域,同时将参考图降采样再上采样,然后用VGG提取光场中心视点、处理后的参考图、未经处理的参考图的特征在特征空间上匹配,计算他们之间的相似度,把相似度最高的特征迁移到光场中心视点上(注意:匹配使利用处理后的参考图,迁移特征是利用未经处理的参考图)。利用内积来计算特征之间的相似度,公式如下式(3-1)所示:
式(3-1),Pi(.)表示从神经特征图的第i块采样,si,j是第i个LR块和第j个参考图块的相似度,ILR↑是上采样后的光场中心视点图像,IRef↑↓是下采样后又上采样的单反图,‖·‖是归一化。
参考图块的特征被归一化,然后将相似度最高的特征提取出来,提取公式如下式(3-2):
式(3-2)中,M是交换的特征图,x、y是图像的位置坐标,j*是相似度最高的位置下标,IRef是单反图,Sj(x,y)在以位置(x,y)为中心的光场中心视点块与第j个单反图块之间的相似度。
然后将相似度高的特征图迁移到光场中心视点上,再进入多尺度残差模块中进行融合。最后将两个网络的输出经过几层卷积层融合在一起得到最终的超分辨率结果。
上述的超分辨率网络是作为生成器的结构,判别器共有六层,前五层的每一层都由卷积层,BN层以及MaxPooling层组成,卷积核都是3×3,激励函数设置为relu;最后一层使用一个全连接层将网络的输出与真值对比,评估生成器网络的优劣,从而对网络参数进行相应调整,最后一层的激励函数为sigmoid。
网络训练
为了充分说明本发明的光场图像超分辨率方法,本发明通过下述网络训练进行展示说明:
首先使用blender构建虚拟光场相机和单反相机渲染出虚拟场景数据集,将数据分割成256*256大小得到最终虚拟场景光场数据集和1024*1024的单反数据集,再使用光场相机和单反相机采集真实场景光场数据集。
考虑到计算资源的合理运用,网络在训练过程中仅使用光场处于中间行和列的3DEPI。训练时,首先将光场数据分解为9×9的子视点图像阵列,图像分辨率为H×W提取位于u=4的整行视点以及v=4的整列视点图像集,如图8所示 (以u=2,v=2为例),组成两组大小为9×H×W的3D EPI,作为残差通道注意力融合网络的输入。纹理迁移网络的输入是光场的中心视点以及对应位置的单反图。网络生成器的损失函数为上述公式(1-1)和公式(1-2),判别器损失函数为上述公式(1-3)。
网络使用60组场景进行训练,以训练800轮的结果为准,在i7-8700 CPU, GTX1070 GPU的设备上训练时间为10小时。
图9和图10为本发明使用的数据集上测试的结果,其中图9的Result列为合成场景的结果图,Bicubic列为合成场景插值的结果图;图10的Result列为真实数场景的结果图,Bicubic列为真实场景插值的结果图。通过在合成数据集和真实场景测试的结果与插值后的结果对比,可以看出本发明的算法恢复的纹理细节比较好并且清晰。
以上所述仅为本发明的较佳实施例,但本发明的保护范围并不局限于此。凡依本发明申请专利范围未违背本发明涉及原则所做的均等变化、简化与修饰,皆应属本发明的涵盖范围。
Claims (6)
1.一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,步骤包括光场图像颜色矫正、视差图计算和超分辨率网络构建三个部分;
其中,所述光场图像颜色矫正是利用WCT风格转换模型使得光场图像接近单反图像的颜色;
所述视差图计算是利用EPI全卷积神经网络模型来计算光场中心视点的视差图;
所述超分辨率网络构建包括三个模块:第一个模块是将光场的一行和一列子视点,经过3D的残差通道注意力信息融合机制RCABA提取相应子视点的特征;第二个模块是重建模块PS-PA将RCABA的网络得到的低频信息融合后重建为高分辨率图像,主要由PixelShuffle层、卷积层和像素注意力模块组成;第三个模块是使用纹理迁移网络,提取单反图高分辨率的纹理信息并将纹理信息迁移到光场中心视点上。
2.根据权利要求1所述的一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,所述光场图像颜色矫正的方法为:首先训练多个解码器,将图像输入预训练好的VGG网络,提取不同的层结果作为编码输出,保持编码器的权重不变,设计解码网络,利用损失函数设计解码器;然后通过WCT层的白化操作和上色操作得到编码-WCT-解码的网络结构,从而实现光场图像颜色的矫正。
3.根据权利要求2所述的一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,所述白化操作为根据原图的协方差矩阵的对角矩阵和正交矩阵计算原图的内容提取结果;所述上色操作为白化操作的逆操作,求逆时由计算风格图经过Encoder后的协方差矩阵的对角矩阵和正交矩阵参与计算进行还原。
4.根据权利要求2所述的一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,所述损失函数包括重建损失、感知损失、判别器损失,计算公式分别如下式(1-1)、(1-2)、(1-3)所示:
Lrec=-SSIM(IHR-ISR) (1-1)
Lper=MSE(φ(IHR)-φ(ISR)) (1-2)
LD=-log(D(IHR))-log(1-(G(ILR))) (1-3)
式(1-1)中,Lrec是重建损失,IHR是真值,ISR是超分辨率后的结果,SSIM是结构相似度;式(1-2)中,Lper是感知损失,φ表示从VGG中提取特征图,MSE是均方误差;式(1-3)中,LD是判别器损失,ILR为低分辨率的输入,D是判别器,G是生成器。
5.根据权利要求1所述的一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,所述残差通道注意力信息融合机制RCABA通过残差通道注意力模块RCAB实现对不同通道的特征重新进行加权分配。
6.根据权利要求5所述的一种基于纹理迁移的混合相机的光场图像超分辨率方法,其特征在于,所述残差通道注意力模块RCAB是将通道注意力模块CA和残差结合在一起。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110094795.7A CN112785502B (zh) | 2021-01-25 | 2021-01-25 | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110094795.7A CN112785502B (zh) | 2021-01-25 | 2021-01-25 | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112785502A true CN112785502A (zh) | 2021-05-11 |
CN112785502B CN112785502B (zh) | 2024-04-16 |
Family
ID=75758884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110094795.7A Active CN112785502B (zh) | 2021-01-25 | 2021-01-25 | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112785502B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592716A (zh) * | 2021-08-09 | 2021-11-02 | 上海大学 | 光场图像空间域超分辨率方法、系统、终端及存储介质 |
CN113888550A (zh) * | 2021-09-27 | 2022-01-04 | 太原理工大学 | 一种结合超分辨率和注意力机制的遥感图像道路分割方法 |
CN116782041A (zh) * | 2023-05-29 | 2023-09-19 | 武汉工程大学 | 一种基于液晶微透镜阵列的图像质量提高方法及系统 |
CN113888550B (zh) * | 2021-09-27 | 2024-06-04 | 太原理工大学 | 一种结合超分辨率和注意力机制的遥感图像道路分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023275A (zh) * | 2015-07-14 | 2015-11-04 | 清华大学 | 超分辨率光场采集装置及其的三维重建方法 |
CN109447919A (zh) * | 2018-11-08 | 2019-03-08 | 电子科技大学 | 结合多视角与语义纹理特征的光场超分辨率重建方法 |
CN111062872A (zh) * | 2019-12-17 | 2020-04-24 | 暨南大学 | 一种基于边缘检测的图像超分辨率重建方法及系统 |
-
2021
- 2021-01-25 CN CN202110094795.7A patent/CN112785502B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023275A (zh) * | 2015-07-14 | 2015-11-04 | 清华大学 | 超分辨率光场采集装置及其的三维重建方法 |
CN109447919A (zh) * | 2018-11-08 | 2019-03-08 | 电子科技大学 | 结合多视角与语义纹理特征的光场超分辨率重建方法 |
CN111062872A (zh) * | 2019-12-17 | 2020-04-24 | 暨南大学 | 一种基于边缘检测的图像超分辨率重建方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592716A (zh) * | 2021-08-09 | 2021-11-02 | 上海大学 | 光场图像空间域超分辨率方法、系统、终端及存储介质 |
CN113592716B (zh) * | 2021-08-09 | 2023-08-01 | 上海大学 | 光场图像空间域超分辨率方法、系统、终端及存储介质 |
CN113888550A (zh) * | 2021-09-27 | 2022-01-04 | 太原理工大学 | 一种结合超分辨率和注意力机制的遥感图像道路分割方法 |
CN113888550B (zh) * | 2021-09-27 | 2024-06-04 | 太原理工大学 | 一种结合超分辨率和注意力机制的遥感图像道路分割方法 |
CN116782041A (zh) * | 2023-05-29 | 2023-09-19 | 武汉工程大学 | 一种基于液晶微透镜阵列的图像质量提高方法及系统 |
CN116782041B (zh) * | 2023-05-29 | 2024-01-30 | 武汉工程大学 | 一种基于液晶微透镜阵列的图像质量提高方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112785502B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570353B (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN109671023A (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN109447919B (zh) | 结合多视角与语义纹理特征的光场超分辨率重建方法 | |
CN112580473B (zh) | 一种融合运动特征的视频超分辨率重构方法 | |
CN112767253B (zh) | 一种多尺度特征融合的双目图像超分辨率重建方法 | |
CN113837946B (zh) | 一种基于递进蒸馏网络的轻量化图像超分辨率重建方法 | |
CN112785502B (zh) | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 | |
CN112422870B (zh) | 一种基于知识蒸馏的深度学习视频插帧方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN111899295A (zh) | 一种基于深度学习的单目场景深度预测方法 | |
CN112950475A (zh) | 一种基于残差学习及空间变换网络的光场超分辨率重建方法 | |
CN115829876A (zh) | 一种基于交叉注意力机制的真实退化图像盲修复方法 | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN114897680B (zh) | 融合光场子孔径图像与宏像素图像的角度超分辨率方法 | |
Ke et al. | Mdanet: Multi-modal deep aggregation network for depth completion | |
CN114926337A (zh) | 基于CNN和Transformer混合网络的单幅图像超分辨率重建方法及系统 | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN116823647A (zh) | 基于快速傅里叶变换和选择性注意力机制的图像补全方法 | |
CN116523985A (zh) | 一种结构和纹理特征引导的双编码器图像修复方法 | |
CN116703719A (zh) | 一种基于人脸3d先验信息的人脸超分辨率重建装置及方法 | |
CN115170921A (zh) | 一种基于双边网格学习和边缘损失的双目立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |