CN114066777B - 一种光场图像角度重建方法 - Google Patents

一种光场图像角度重建方法 Download PDF

Info

Publication number
CN114066777B
CN114066777B CN202111439588.7A CN202111439588A CN114066777B CN 114066777 B CN114066777 B CN 114066777B CN 202111439588 A CN202111439588 A CN 202111439588A CN 114066777 B CN114066777 B CN 114066777B
Authority
CN
China
Prior art keywords
light field
image
angular
aperture
channel information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111439588.7A
Other languages
English (en)
Other versions
CN114066777A (zh
Inventor
刘德阳
姚玮
毛逸凡
张友志
郑馨
艾列富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anqing Normal University
Original Assignee
Anqing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anqing Normal University filed Critical Anqing Normal University
Priority to CN202111439588.7A priority Critical patent/CN114066777B/zh
Publication of CN114066777A publication Critical patent/CN114066777A/zh
Application granted granted Critical
Publication of CN114066777B publication Critical patent/CN114066777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种光场图像角度重建方法,包括以下步骤:(1)将低角度分辨率光场图像从RGB空间转到YUV空间,提取Y通道信息;(2)通过特征融合重建网络获得粗的重建光场图像Y通道信息;(3)通过空间角度特征融合网络获得融合后的重建光场图像Y通道信息;(4)通过细节融合修复网络获得细的重建光场图像Y通道信息;(5)步骤(3)、(4)结果相加获得最终重建光场图像Y通道信息;对低角度分辨率光场图像U和V通道进行双线性上采样,获得重建光场图像U和V通道信息;(6)将所得Y、U、V通道信息转换到RGB空间,获得最终重建光场图像的RGB图像。本发明可以获得高质量重建光场图像,满足深度提取、三维重建等多种应用的实时性需求。

Description

一种光场图像角度重建方法
技术领域
本发明属于图像处理技术领域,更确切地说,涉及一种光场图像角度重建 方法。
背景技术
光场成像可以从多个角度记录三维场景信息。高角度分辨率的光场图像在 虚拟现实、三维立体、生物医疗检测等领域得到广泛应用。但是,由于硬件条 件的限制,获取高角度分辨率的密集采样光场代价高昂,已成为制约光场成像 技术发展的主要瓶颈。因此,通过低角度分辨率的光场图像重建高角度分辨率 的光场图像具备重要的理论意义和实际应用价值。
发明内容
本发明所要解决的技术问题在于通过使用一种基于子孔径图像的光场图像 表征形式,并基于该表征方式提供一种光场图像角度重建方法来重建高角度分 辨率的光场图像。
本发明的光场图像角度重建方法,包括以下几个步骤:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间, 并提取所述低角度分辨率光场子孔径图像阵列的Y通道信息;
(2)将获取的所述低角度分辨率光场子孔径图像阵列Y通道信息送入到 特征融合重建网络,获得粗的高角度分辨率光场子孔径图像阵列Y 通道信息;
(3)将获取的所述粗高角度分辨率光场子孔径图像阵列Y通道信息送入 到空间角度特征融合网络,获得融合后的高角度分辨率光场子孔径 图像阵列Y通道信息;
(4)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y 通道信息送入到细节融合修复网络,获得细的高角度分辨率光场子 孔径图像阵列Y通道信息。
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y 通道信息与步骤(4)获得的细的高角度分辨率光场子孔径图像阵 列Y通道信息相加获得最终高角度分辨率光场子孔径图像阵列。并 对低角度分辨率光场子孔径图像阵列的U和V通道信息进行双线 性上采样处理,获得最终高角度分辨率光场子孔径图像阵列的U和 V通道信息;
(6)将所述最终高角度分辨率光场子孔径图像阵列Y通道信息与最终高 角度分辨率光场子孔径图像阵列U和V通道信息进行合并,并将 合并后的数据转化到RGB空间,获得最终高角度分辨率光场子孔 径图像阵列。
所述的步骤(1)具体计算过程如下:
从光场图像中提取低角度分辨率光场子孔径阵列图像I,其维度为3×m×n ×w×h,其中m×n为低角度分辨率光场子孔径阵列图像I中子孔径图像的角 度分辨率,w×h为低角度分辨率光场子孔径阵列图像I中单个子孔径图像的空 间分辨率,3为RGB三个通道。首先将所述的低角度分辨率光场子孔径阵列图 像I从RGB空间转换到YUV空间。然后提取所述YUV空间的Y通道信息IY, 其维度为1×m×n×w×h。
所述的步骤(2)具体计算过程如下:
首先对步骤(1)获取的低角度分辨率光场子孔径阵列图像Y通道信息IY进行降低维度处理,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的 两个角度维度m与n进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ, 其维度为1×(m×n)×w×h。然后将所述的四维低角度分辨率光场子孔径阵列 图像Γ输入到特征融合重建网络,获得粗的高角度分辨率光场子孔径阵列图像Y 通道信息,其维度为1×(M×N)×w×h,其中(M×N)为超分辨后高角度分辨率 光场子孔径阵列图像的角度分辨率。所述特征融合重建网络共有4×log2(m·n) 层,包含2×log2(m·n)个卷积层以及2×log2(m·n)个LeakyReLU激励层,其中 所述三维卷层的卷积核大小分别为2×1×1,2×3×3,3×3×3,3×3×3步长分 别为2×1×1,2×1×1,1×1×1,1×1×1填充值分别为0,0×1×1,1,1。
所述的步骤(3)具体计算过程如下:
首先将步骤(2)获取的粗的高角度分辨率光场子孔径阵列图像Y通道信 息输入到空间角度融合网络,获得融合后的高角度分辨率的子孔径阵列图像Y 通道信息,其维度为1×(M×N)×w×h。所述空间角度融合网络包括两个模块, 分别为特征提取模块以及空间角度融合网络模块。其中,特征提取模块包含层 log2(m·n),所用卷积核大小分别为3×3与8×8,步长为分别1,0,填充值为0。 所述空间角度融合网络模块共有6×log2(m·n)+1层,包含包含3×log2(m·n)个卷 积层,3×log2(m·n)个LeakyReLU激励层以及一个sum层。其中,所述卷积层 的卷积核分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。最后一层为sum层,是将所述统一维度的log2(m·n) 个高维特征向量进行相加,获得相加后的高维特征向量。
所述的步骤(4)具体计算过程如下:
将步骤(3)获取的融合后的高角度分辨率的子孔径阵列图像送入到细节融 合修复网络,获得细的高角度分辨率光场子孔径图像阵列Y通道信息,其维度 为1×(M×N)×w×h。所述细节融合修复网络共有2×log2(m·n)+1层,包含 log2(m·n)+1个卷积层以及log2(m·n)个LeakyReLU激励层,其中所述卷积层的 卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。
本发明能够达到的有益效果如下:
光场图像的空间分辨率与角度分辨率在光场相机传感器的限制下存在一种 制约,即光场相机只能获取高空间分辨率、低角度分辨率的光场图像或者高角 度分辨率、低空间分辨率的光场图像,而无法同时获取高角度分辨率和高空间 分辨率的光场图像。这大大阻碍了光场成像技术在多个领域的应用效果。本发 明提出的方法可以通过高空间分辨率的稀疏光场子孔径图像重建高空间分辨率、 高角度分辨率的光场图像,获取更密集的光场图像子孔径图像,可进一步促进 光场成像技术在其他领域的应用。
附图说明
图1是本发明的光场图像角度重建方法的流程图;
图2是实施例一中利用角度分辨率为的光场子孔径图像阵列重建角度分辨率为2x2 的光场子孔径图像阵列的框架图。
图3为实施例一框架图中的特征融合重建网络。
图4为实施例一框架图中的空间角度特征融合网络中的特征提取模块。
图5为实施例一框架图中的空间角度特征融合网络中的空间角度特征融合模块。
图6为实施例一框架图中的细节融合修复网络。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下对本发明的具体实施方式进行进一步详细说明。
实施例一
如图1、图2、图3、图4、图5、图6可见,本实施例具体过程如下:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间, 并提取所述光场子孔径图像阵列的Y通道信息IY。本实施例中低角度分辨率光 场子孔径图像阵列的维度为3×2×2×96×96,角度重建后的高角度分辨率光场 子孔径图像阵列的维度为3×7×7×96×96。提取的所述低角度分辨率光场子孔 径图像阵列的Y通道信息IY的维度为1×2×2×96×96。
(2)首先,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的两 个角度维度2×2进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ,其 维度为1×4×96×96。并将所述的四维低角度分辨率光场子孔径阵列图像Γ输入 到特征融合重建网络,获得粗的高角度分辨率光场子孔径阵列图像的Y通道信 息。所述的特征融合重建网络如图3所示。所述特征融合重建网络共包含8层, 分别为RF_1,LeakyReLU,RF_2,LeakyReLU,RF_3,LeakyReLU,RF_4, LeakyReLU。其中,先将四维低角度分辨率光场子孔径阵列图像Γ重新排列为1 ×1×4×96×96,然后对其进行特征提取。RF_1,RF_2,RF_3,RF_4卷积大 小分别为2×1×1,2×3×3,3×3×3,3×3×3,步长分别为2×1×1,2×1×1, 1×1×1,1×1×1,填充值分别为0,0×1×1,1,1。经过特征提取的高维度特征 向量的维度为1×49×1×96×96,将该高维度特征向量进行维度重新排列为 1×49×96×96,即为粗的高角度分辨率光场子孔径阵列图像的Y通道信息。
(3)将获取的所述粗的高角度分辨率光场子孔径阵列图像Y通道信息送 入到空间角度融合网络,获得融合后的高角度分辨率光场子孔径图像阵列Y通 道信息,其维度为1×49×96×96。所述空间角度融合网络包括两个模块,分别 为特征提取模块以及空间角度融合网络模块。所述的特征提取模块如图4所示。 所述的特征提取模块包含2层,分别为AF_1,SF_1。其中AF_1所用卷积核大 小为8×8,步长为0,填充值为0。SF_1所用卷积核大小为3×3,步长为1,填 充值为0。经过特征提取模块获得的高维特征向量维度为1×49×96×96。随后, 将所述提取的高维特征向量送入到空间角度融合网络模块。所述的空间角度融 合网络模块如图5所示。所述的空间角度融合网络模块包含13层,依次为 AF_2,LeakyReLU,AF_3,LeakyReLU,AF_4,LeakyReLU,SF_2, LeakyReLU,SF_3,LeakyReLU,SF_4,LeakyReLU和一个sum层。其中 AF_2,AF_3,AF_4所用卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。SF_2,SF_3,SF_4所用卷 积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。经过AF_2,LeakyReLU,AF_3,LeakyReLU, AF_4,LeakyReLU层后得到的高维角度特征向量维度为1×49×12×12。经过 SF_2,LeakyReLU,SF_3,LeakyReLU,SF_4,LeakyReLU得到高维空间特征 向量,其维度为1×49×96×96。随后,将所述高维角度特征向量进行双线性上采样,获得与所述高维空间特征向量相同的维度,最后将所述高维空间特征向 量与高维角度特征向量相加得到相加后的高维特征向量,即融合后的高角度分 辨率光场子孔径阵列图像Y通道信息。
(4)将获取的所述融合后的高角度分辨率光场子孔径阵列图像Y通道信 息送入到细节融合修复网络,获得细的高角度分辨率光场子孔径阵列图像Y通 道信息,其维度为1×49×96×96。所述的细节融合修复网络如图6所示。所述 细节融合修复网络共包含6层,分别为MF_1,LeakyReLU,MF_2, LeakyReLU,MF_3,LeakyReLU。其中,MF_1,MF_2,MF_3所用卷积核大小 分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。经过细节融合修复网络的高维度特征向量维度为1×49×96×96, 即为细的高角度分辨率光场子孔径阵列图像的Y通道信息。
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径阵列图像Y通 道信息与步骤(4)获得的细的高角度分辨率光场子孔径阵列图像的Y通道信 息相加获得最终的高角度分辨率光场子孔径阵列图像。并对低角度分辨率光场 子孔径阵列图像的U和V通道信息进行双线性上采样处理,获得高角度分辨率 光场子孔径阵列图像U和V通道信息;
(6)将所述最终高角度分辨率光场子孔径阵列图像Y通道信息与高角度分 辨率光场子孔径阵列图像U和V通道信息进行合并,并将合并后的数据转化到 RGB空间,获得高角度分辨率光场子孔径阵列图像的RGB图像。

Claims (3)

1.一种光场图像角度重建方法,包括以下步骤:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间,并提取所述低角度分辨率光场子孔径图像阵列的Y通道信息;
(2)将获取的所述低角度分辨率光场子孔径图像阵列Y通道信息送入到特征融合重建网络,所述特征融合重建网络共包含8层,分别为RF_1,LeakyReLU,RF_2,LeakyReLU,RF_3,LeakyReLU,RF_4,LeakyReLU,RF_1,RF_2,RF_3,RF_4卷积大小分别为2×1×1,2×3×3,3×3×3,3×3×3,步长分别为2×1×1,2×1×1,1×1×1,1×1×1,填充值分别为0,0×1×1,1,1;经过特征提取的高维度特征向量的维度为1×49×1×96×96;
(3)将步骤(2)获得的所述高维度特征向量送入到空间角度特征融合网络,所述空间角度特征融合网络包括两个模块,分别为特征提取模块以及空间角度融合网络模块;所述的特征提取模块包含2流,分别为AF_1,SF_1;其中AF_1所用卷积核大小为8×8,步长为0,填充值为0;SF_1所用卷积核大小为3×3,步长为1,填充值为0;所述空间角度融合网络分别提取AF_1输出的1×49×12×12特征向量的高维角度特征向量以及SF_1输出的1×49×96×96特征向量的高维空间特征向量,将所述高维角度特征向量进行双线性上采样,获得与所述高维空间特征向量相同的维度,最后将所述高维空间特征向量与高维角度特征向量相加得到相加后的高维特征向量,获得融合后的高角度分辨率光场子孔径图像阵列Y通道信息;
(4)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y通道信息送入到细节融合修复网络,所述细节融合修复网络共包含6层,分别为MF_1,LeakyReLU,MF_2,LeakyReLU,MF_3,LeakyReLU,其中,MF_1,MF_2,MF_3所用卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1,获得细的高角度分辨率光场子孔径图像阵列Y通道信息;
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y通道信息与步骤(4)获得的细的高角度分辨率光场子孔径图像阵列Y通道信息相加获得最终高角度分辨率光场子孔径图像阵列;并对低角度分辨率光场子孔径图像阵列的U和V通道信息进行双线性上采样处理,获得最终高角度分辨率光场子孔径图像阵列的U和V通道信息;
(6)将所述最终高角度分辨率光场子孔径图像阵列Y通道信息与最终高角度分辨率光场子孔径图像阵列U和V通道信息进行合并,并将合并后的数据转化到RGB空间,获得最终高角度分辨率光场子孔径图像阵列。
2.如权利要求1所述的光场图像角度重建方法,其特征在于:步骤(1)具体计算过程如下:
从光场图像中提取低角度分辨率光场子孔径阵列图像I,其维度为3×m×n×w×h,其中m×n为低角度分辨率光场子孔径阵列图像I中子孔径图像的角度分辨率,w×h为低角度分辨率光场子孔径阵列图像I中单个子孔径图像的空间分辨率,3为RGB三个通道;首先将所述的低角度分辨率光场子孔径阵列图像I从RGB空间转换到YUV空间,然后提取所述YUV空间的Y通道信息IY,其维度为1×m×n×w×h。
3.如权利要求1所述的光场图像角度重建方法,其特征在于:步骤(2)具体计算过程如下:
首先对步骤(1)获取的低角度分辨率光场子孔径阵列图像Y通道信息IY进行降低维度处理,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的两个角度维度m与n进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ,其维度为1×(m×n)×w×h,其中m×n为低角度分辨率光场子孔径阵列图像I中子孔径图像的角度分辨率,w×h为低角度分辨率光场子孔径阵列图像I中单个子孔径图像的空间分辨率,然后将所述的四维低角度分辨率光场子孔径阵列图像Γ输入到特征融合重建网络。
CN202111439588.7A 2021-11-30 2021-11-30 一种光场图像角度重建方法 Active CN114066777B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111439588.7A CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111439588.7A CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Publications (2)

Publication Number Publication Date
CN114066777A CN114066777A (zh) 2022-02-18
CN114066777B true CN114066777B (zh) 2022-07-15

Family

ID=80277370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111439588.7A Active CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Country Status (1)

Country Link
CN (1) CN114066777B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114897680B (zh) * 2022-04-14 2023-04-18 安庆师范大学 融合光场子孔径图像与宏像素图像的角度超分辨率方法
CN116309064B (zh) * 2023-03-21 2023-09-15 安庆师范大学 一种基于子孔径图像的光场图像角度超分辨率方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN112308085A (zh) * 2020-10-23 2021-02-02 宁波大学 一种基于卷积神经网络的光场图像去噪方法
CN113139898A (zh) * 2021-03-24 2021-07-20 宁波大学 基于频域分析和深度学习的光场图像超分辨率重建方法
CN113222819A (zh) * 2021-05-19 2021-08-06 厦门大学 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679360B2 (en) * 2013-05-10 2017-06-13 Trustees Of Princeton University High-resolution light-field imaging
CN107103589B (zh) * 2017-03-21 2019-09-06 深圳市未来媒体技术研究院 一种基于光场图像的高光区域修复方法
CN112738010B (zh) * 2019-10-28 2023-08-22 阿里巴巴集团控股有限公司 数据交互方法及系统、交互终端、可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN112308085A (zh) * 2020-10-23 2021-02-02 宁波大学 一种基于卷积神经网络的光场图像去噪方法
CN113139898A (zh) * 2021-03-24 2021-07-20 宁波大学 基于频域分析和深度学习的光场图像超分辨率重建方法
CN113222819A (zh) * 2021-05-19 2021-08-06 厦门大学 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Dual-level light field reconstruction network based on directional EPI volume;liu deyang et al.;《Proc.SPIE 11550,optoelectronic imaging and multimedia technology VII》;20201010;第1-12页 *
Fast light field reconstruction with deep coarse-to-fine modeling of spatial-angular clues;henry wing fung yeung et al.;《the computer vision foundation》;20180908;第1-16页 *
Spatial-angular attention network for light field reconstruction;gaochang wu et al.;《arxiv》;20211014;第1-15页 *
基于卷积神经网络的光场图像超分辨率重建;郑祥祥;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20180715(第07期);第I138-1541页 *

Also Published As

Publication number Publication date
CN114066777A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
Wang et al. Light field image super-resolution using deformable convolution
CN110033410B (zh) 图像重建模型训练方法、图像超分辨率重建方法及装置
CN112102173B (zh) 光场图像角度超分辨率重建方法
CN114066777B (zh) 一种光场图像角度重建方法
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN111028150B (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN113139898B (zh) 基于频域分析和深度学习的光场图像超分辨率重建方法
CN114897680B (zh) 融合光场子孔径图像与宏像素图像的角度超分辨率方法
CN111429466A (zh) 一种基于多尺度信息融合网络的空基人群计数与密度估计方法
EP4156685A1 (en) Light field image processing method, light field image encoder and decoder, and storage medium
CN116152120B (zh) 一种融合高低频特征信息的低光图像增强方法及装置
Zhang et al. An effective decomposition-enhancement method to restore light field images captured in the dark
Hui et al. Two-stage convolutional network for image super-resolution
Fang et al. High-resolution optical flow and frame-recurrent network for video super-resolution and deblurring
CN110288529B (zh) 一种基于递归局部合成网络的单幅图像超分辨率重建方法
Jiang et al. Lightweight dual-stream residual network for single image super-resolution
Liu et al. Learning from EPI-volume-stack for light field image angular super-resolution
CN113379606A (zh) 一种基于预训练生成模型的人脸超分辨方法
LU500980B1 (en) A method for light field angular reconstruction
CN116309064B (zh) 一种基于子孔径图像的光场图像角度超分辨率方法
Zhang et al. A deep retinex framework for light field restoration under low-light conditions
Lu et al. Tree-structured dilated convolutional networks for image compressed sensing
CN116309067B (zh) 一种光场图像空间超分辨率方法
Zou et al. Microarray Camera Image Super-Resolution with Neural Network and Fusion of V-System
CN117934283A (zh) 一种多视光场图像角度超分辨方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant