CN114066777A - 一种光场图像角度重建方法 - Google Patents

一种光场图像角度重建方法 Download PDF

Info

Publication number
CN114066777A
CN114066777A CN202111439588.7A CN202111439588A CN114066777A CN 114066777 A CN114066777 A CN 114066777A CN 202111439588 A CN202111439588 A CN 202111439588A CN 114066777 A CN114066777 A CN 114066777A
Authority
CN
China
Prior art keywords
light field
image
angular
channel information
aperture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111439588.7A
Other languages
English (en)
Other versions
CN114066777B (zh
Inventor
刘德阳
姚玮
毛逸凡
张友志
郑馨
艾列富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anqing Normal University
Original Assignee
Anqing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anqing Normal University filed Critical Anqing Normal University
Priority to CN202111439588.7A priority Critical patent/CN114066777B/zh
Publication of CN114066777A publication Critical patent/CN114066777A/zh
Application granted granted Critical
Publication of CN114066777B publication Critical patent/CN114066777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种光场图像角度重建方法,包括以下步骤:(1)将低角度分辨率光场图像从RGB空间转到YUV空间,提取Y通道信息;(2)通过特征融合重建网络获得粗的重建光场图像Y通道信息;(3)通过空间角度特征融合网络获得融合后的重建光场图像Y通道信息;(4)通过细节融合修复网络获得细的重建光场图像Y通道信息;(5)步骤(3)、(4)结果相加获得最终重建光场图像Y通道信息;对低角度分辨率光场图像U和V通道进行双线性上采样,获得重建光场图像U和V通道信息;(6)将所得Y、U、V通道信息转换到RGB空间,获得最终重建光场图像的RGB图像。本发明可以获得高质量重建光场图像,满足深度提取、三维重建等多种应用的实时性需求。

Description

一种光场图像角度重建方法
技术领域
本发明属于图像处理技术领域,更确切地说,涉及一种光场图像角度重建 方法。
背景技术
光场成像可以从多个角度记录三维场景信息。高角度分辨率的光场图像在 虚拟现实、三维立体、生物医疗检测等领域得到广泛应用。但是,由于硬件条 件的限制,获取高角度分辨率的密集采样光场代价高昂,已成为制约光场成像 技术发展的主要瓶颈。因此,通过低角度分辨率的光场图像重建高角度分辨率 的光场图像具备重要的理论意义和实际应用价值。
发明内容
本发明所要解决的技术问题在于通过使用一种基于子孔径图像的光场图像 表征形式,并基于该表征方式提供一种光场图像角度重建方法来重建高角度分 辨率的光场图像。
本发明的光场图像角度重建方法,包括以下几个步骤:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间, 并提取所述低角度分辨率光场子孔径图像阵列的Y通道信息;
(2)将获取的所述低角度分辨率光场子孔径图像阵列Y通道信息送入到 特征融合重建网络,获得粗的高角度分辨率光场子孔径图像阵列Y 通道信息;
(3)将获取的所述粗高角度分辨率光场子孔径图像阵列Y通道信息送入 到空间角度特征融合网络,获得融合后的高角度分辨率光场子孔径 图像阵列Y通道信息;
(4)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y 通道信息送入到细节融合修复网络,获得细的高角度分辨率光场子 孔径图像阵列Y通道信息。
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y 通道信息与步骤(4)获得的细的高角度分辨率光场子孔径图像阵 列Y通道信息相加获得最终高角度分辨率光场子孔径图像阵列。并 对低角度分辨率光场子孔径图像阵列的U和V通道信息进行双线 性上采样处理,获得最终高角度分辨率光场子孔径图像阵列的U和 V通道信息;
(6)将所述最终高角度分辨率光场子孔径图像阵列Y通道信息与最终高 角度分辨率光场子孔径图像阵列U和V通道信息进行合并,并将 合并后的数据转化到RGB空间,获得最终高角度分辨率光场子孔 径图像阵列。
所述的步骤(1)具体计算过程如下:
从光场图像中提取低角度分辨率光场子孔径阵列图像I,其维度为3×m×n ×w×h,其中m×n为低角度分辨率光场子孔径阵列图像I中子孔径图像的角 度分辨率,w×h为低角度分辨率光场子孔径阵列图像I中单个子孔径图像的空 间分辨率,3为RGB三个通道。首先将所述的低角度分辨率光场子孔径阵列图 像I从RGB空间转换到YUV空间。然后提取所述YUV空间的Y通道信息IY, 其维度为1×m×n×w×h。
所述的步骤(2)具体计算过程如下:
首先对步骤(1)获取的低角度分辨率光场子孔径阵列图像Y通道信息IY进行降低维度处理,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的 两个角度维度m与n进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ, 其维度为1×(m×n)×w×h。然后将所述的四维低角度分辨率光场子孔径阵列 图像Γ输入到特征融合重建网络,获得粗的高角度分辨率光场子孔径阵列图像Y 通道信息,其维度为1×(M×N)×w×h,其中(M×N)为超分辨后高角度分辨率 光场子孔径阵列图像的角度分辨率。所述特征融合重建网络共有4×log2(m·n) 层,包含2×log2(m·n)个卷积层以及2×log2(m·n)个LeakyReLU激励层,其中 所述三维卷层的卷积核大小分别为2×1×1,2×3×3,3×3×3,3×3×3步长分 别为2×1×1,2×1×1,1×1×1,1×1×1填充值分别为0,0×1×1,1,1。
所述的步骤(3)具体计算过程如下:
首先将步骤(2)获取的粗的高角度分辨率光场子孔径阵列图像Y通道信 息输入到空间角度融合网络,获得融合后的高角度分辨率的子孔径阵列图像Y 通道信息,其维度为1×(M×N)×w×h。所述空间角度融合网络包括两个模块, 分别为特征提取模块以及空间角度融合网络模块。其中,特征提取模块包含层 log2(m·n),所用卷积核大小分别为3×3与8×8,步长为分别1,0,填充值为0。 所述空间角度融合网络模块共有6×log2(m·n)+1层,包含包含3×log2(m·n)个卷 积层,3×log2(m·n)个LeakyReLU激励层以及一个sum层。其中,所述卷积层 的卷积核分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。最后一层为sum层,是将所述统一维度的log2(m·n) 个高维特征向量进行相加,获得相加后的高维特征向量。
所述的步骤(4)具体计算过程如下:
将步骤(3)获取的融合后的高角度分辨率的子孔径阵列图像送入到细节融 合修复网络,获得细的高角度分辨率光场子孔径图像阵列Y通道信息,其维度 为1×(M×N)×w×h。所述细节融合修复网络共有2×log2(m·n)+1层,包含 log2(m·n)+1个卷积层以及log2(m·n)个LeakyReLU激励层,其中所述卷积层的 卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。
本发明能够达到的有益效果如下:
光场图像的空间分辨率与角度分辨率在光场相机传感器的限制下存在一种 制约,即光场相机只能获取高空间分辨率、低角度分辨率的光场图像或者高角 度分辨率、低空间分辨率的光场图像,而无法同时获取高角度分辨率和高空间 分辨率的光场图像。这大大阻碍了光场成像技术在多个领域的应用效果。本发 明提出的方法可以通过高空间分辨率的稀疏光场子孔径图像重建高空间分辨率、 高角度分辨率的光场图像,获取更密集的光场图像子孔径图像,可进一步促进 光场成像技术在其他领域的应用。
附图说明
图1是本发明的光场图像角度重建方法的流程图;
图2是实施例一中利用角度分辨率为的光场子孔径图像阵列重建角度分辨率为2x2 的光场子孔径图像阵列的框架图。
图3为实施例一框架图中的特征融合重建网络。
图4为实施例一框架图中的空间角度特征融合网络中的特征提取模块。
图5为实施例一框架图中的空间角度特征融合网络中的空间角度特征融合模块。
图6为实施例一框架图中的细节融合修复网络。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下对本发明的具体实施方式进行进一步详细说明。
实施例一
如图1、图2、图3、图4、图5、图6可见,本实施例具体过程如下:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间, 并提取所述光场子孔径图像阵列的Y通道信息IY。本实施例中低角度分辨率光 场子孔径图像阵列的维度为3×2×2×96×96,角度重建后的高角度分辨率光场 子孔径图像阵列的维度为3×7×7×96×96。提取的所述低角度分辨率光场子孔 径图像阵列的Y通道信息IY的维度为1×2×2×96×96。
(2)首先,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的两 个角度维度2×2进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ,其 维度为1×4×96×96。并将所述的四维低角度分辨率光场子孔径阵列图像Γ输入 到特征融合重建网络,获得粗的高角度分辨率光场子孔径阵列图像的Y通道信 息。所述的特征融合重建网络如图3所示。所述特征融合重建网络共包含8层, 分别为RF_1,LeakyReLU,RF_2,LeakyReLU,RF_3,LeakyReLU,RF_4, LeakyReLU。其中,先将四维低角度分辨率光场子孔径阵列图像Γ重新排列为1 ×1×4×96×96,然后对其进行特征提取。RF_1,RF_2,RF_3,RF_4卷积大 小分别为2×1×1,2×3×3,3×3×3,3×3×3,步长分别为2×1×1,2×1×1, 1×1×1,1×1×1,填充值分别为0,0×1×1,1,1。经过特征提取的高维度特征 向量的维度为1×49×1×96×96,将该高维度特征向量进行维度重新排列为 1×49×96×96,即为粗的高角度分辨率光场子孔径阵列图像的Y通道信息。
(3)将获取的所述粗的高角度分辨率光场子孔径阵列图像Y通道信息送 入到空间角度融合网络,获得融合后的高角度分辨率光场子孔径图像阵列Y通 道信息,其维度为1×49×96×96。所述空间角度融合网络包括两个模块,分别 为特征提取模块以及空间角度融合网络模块。所述的特征提取模块如图4所示。 所述的特征提取模块包含2层,分别为AF_1,SF_1。其中AF_1所用卷积核大 小为8×8,步长为0,填充值为0。SF_1所用卷积核大小为3×3,步长为1,填 充值为0。经过特征提取模块获得的高维特征向量维度为1×49×96×96。随后, 将所述提取的高维特征向量送入到空间角度融合网络模块。所述的空间角度融 合网络模块如图5所示。所述的空间角度融合网络模块包含13层,依次为 AF_2,LeakyReLU,AF_3,LeakyReLU,AF_4,LeakyReLU,SF_2, LeakyReLU,SF_3,LeakyReLU,SF_4,LeakyReLU和一个sum层。其中 AF_2,AF_3,AF_4所用卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。SF_2,SF_3,SF_4所用卷 积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1, 3×1×1,填充值为0×1×1。经过AF_2,LeakyReLU,AF_3,LeakyReLU, AF_4,LeakyReLU层后得到的高维角度特征向量维度为1×49×12×12。经过 SF_2,LeakyReLU,SF_3,LeakyReLU,SF_4,LeakyReLU得到高维空间特征 向量,其维度为1×49×96×96。随后,将所述高维角度特征向量进行双线性上采样,获得与所述高维空间特征向量相同的维度,最后将所述高维空间特征向 量与高维角度特征向量相加得到相加后的高维特征向量,即融合后的高角度分 辨率光场子孔径阵列图像Y通道信息。
(4)将获取的所述融合后的高角度分辨率光场子孔径阵列图像Y通道信 息送入到细节融合修复网络,获得细的高角度分辨率光场子孔径阵列图像Y通 道信息,其维度为1×49×96×96。所述的细节融合修复网络如图6所示。所述 细节融合修复网络共包含6层,分别为MF_1,LeakyReLU,MF_2, LeakyReLU,MF_3,LeakyReLU。其中,MF_1,MF_2,MF_3所用卷积核大小 分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。经过细节融合修复网络的高维度特征向量维度为1×49×96×96, 即为细的高角度分辨率光场子孔径阵列图像的Y通道信息。
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径阵列图像Y通 道信息与步骤(4)获得的细的高角度分辨率光场子孔径阵列图像的Y通道信 息相加获得最终的高角度分辨率光场子孔径阵列图像。并对低角度分辨率光场 子孔径阵列图像的U和V通道信息进行双线性上采样处理,获得高角度分辨率 光场子孔径阵列图像U和V通道信息;
(6)将所述最终高角度分辨率光场子孔径阵列图像Y通道信息与高角度分 辨率光场子孔径阵列图像U和V通道信息进行合并,并将合并后的数据转化到 RGB空间,获得高角度分辨率光场子孔径阵列图像的RGB图像。

Claims (5)

1.一种光场图像角度重建方法,包括以下步骤:
(1)将低角度分辨率光场子孔径图像阵列从RGB空间转换到YUV空间,并提取所述低角度分辨率光场子孔径图像阵列的Y通道信息;
(2)将获取的所述低角度分辨率光场子孔径图像阵列Y通道信息送入到特征融合重建网络,获得粗的高角度分辨率光场子孔径图像阵列Y通道信息;
(3)将获取的所述粗高角度分辨率光场子孔径图像阵列Y通道信息送入到空间角度特征融合网络,获得融合后的高角度分辨率光场子孔径图像阵列Y通道信息;
(4)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y通道信息送入到细节融合修复网络,获得细的高角度分辨率光场子孔径图像阵列Y通道信息;
(5)将步骤(3)获得的融合后的高角度分辨率光场子孔径图像阵列Y通道信息与步骤(4)获得的细的高角度分辨率光场子孔径图像阵列Y通道信息相加获得最终高角度分辨率光场子孔径图像阵列。并对低角度分辨率光场子孔径图像阵列的U和V通道信息进行双线性上采样处理,获得最终高角度分辨率光场子孔径图像阵列的U和V通道信息;
(6)将所述最终高角度分辨率光场子孔径图像阵列Y通道信息与最终高角度分辨率光场子孔径图像阵列U和V通道信息进行合并,并将合并后的数据转化到RGB空间,获得最终高角度分辨率光场子孔径图像阵列。
2.如权利要求1所述的光场图像角度重建方法,其特征在于:所述步骤(1)具体计算过程如下:
从光场图像中提取低角度分辨率光场子孔径阵列图像I,其维度为3×m×n×w×h,其中m×n为低角度分辨率光场子孔径阵列图像I中子孔径图像的角度分辨率,w×h为低角度分辨率光场子孔径阵列图像I中单个子孔径图像的空间分辨率,3为RGB三个通道。首先将所述的低角度分辨率光场子孔径阵列图像I从RGB空间转换到YUV空间。然后提取所述YUV空间的Y通道信息IY,其维度为1×m×n×w×h。
3.如权利要求1所述的光场图像角度重建方法,其特征在于:所述步骤(2)具体计算过程如下:
首先对步骤(1)获取的低角度分辨率光场子孔径阵列图像Y通道信息IY进行降低维度处理,将所述低角度分辨率光场子孔径阵列图像Y通道信息IY的两个角度维度m与n进行合并,获得四维低角度分辨率光场子孔径阵列图像Γ,其维度为1×(m×n)×w×h。然后将所述的四维低角度分辨率光场子孔径阵列图像Γ输入到特征融合重建网络,获得粗的高角度分辨率光场子孔径阵列图像Y通道信息,其维度为1×(M×N)×w×h,其中(M×N)为超分辨后高角度分辨率光场子孔径阵列图像的角度分辨率。所述特征融合重建网络共有4×log2(m·n)层,包含2×log2(m·n)个卷积层以及2×log2(m·n)个LeakyReLU激励层,其中所述三维卷层的卷积核大小分别为2×1×1,2×3×3,3×3×3,3×3×3步长分别为2×1×1,2×1×1,1×1×1,1×1×1填充值分别为0,0×1×1,1,1。
4.如权利要求1所述的光场图像角度率重建方法,其特征在于:所述步骤(3)具体计算过程如下:
首先将步骤(2)获取的粗的高角度分辨率光场子孔径阵列图像Y通道信息输入到空间角度融合网络,获得融合后的高角度分辨率的子孔径阵列图像Y通道信息,其维度为1×(M×N)×w×h。所述空间角度融合网络包括两个模块,分别为特征提取模块以及空间角度融合网络模块。其中,特征提取模块包含层log2(m·n),所用卷积核大小分别为3×3与8×8,步长为分别1,0,填充值为0。所述空间角度融合网络模块共有6×log2(m·n)+1层,包含包含3×log2(m·n)个卷积层,3×log2(m·n)个LeakyReLU激励层以及一个sum层。其中,所述卷积层的卷积核分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。最后一层为sum层,是将所述统一维度的log2(m·n)个高维特征向量进行相加,获得相加后的高维特征向量。
5.如权利要求1所述的光场图像角度重建方法,其特征在于:所述步骤(4)具体计算过程如下:
将步骤(3)获取的融合后的高角度分辨率的子孔径阵列图像送入到细节融合修复网络,获得细的高角度分辨率光场子孔径图像阵列Y通道信息,其维度为1×(M×N)×w×h。所述细节融合修复网络共有2×log2(m·n)+1层,包含log2(m·n)+1个卷积层以及log2(m·n)个LeakyReLU激励层,其中所述卷积层的卷积核大小分别为5×3×3,4×3×3,3×3×3,步长分别为4×1×1,4×1×1,3×1×1,填充值为0×1×1。
CN202111439588.7A 2021-11-30 2021-11-30 一种光场图像角度重建方法 Active CN114066777B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111439588.7A CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111439588.7A CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Publications (2)

Publication Number Publication Date
CN114066777A true CN114066777A (zh) 2022-02-18
CN114066777B CN114066777B (zh) 2022-07-15

Family

ID=80277370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111439588.7A Active CN114066777B (zh) 2021-11-30 2021-11-30 一种光场图像角度重建方法

Country Status (1)

Country Link
CN (1) CN114066777B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114897680A (zh) * 2022-04-14 2022-08-12 安庆师范大学 融合光场子孔径图像与宏像素图像的角度超分辨率方法
CN116309064A (zh) * 2023-03-21 2023-06-23 安庆师范大学 一种基于子孔径图像的光场图像角度超分辨率方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140334745A1 (en) * 2013-05-10 2014-11-13 Trustees Of Princeton University Resolution light-field imaging
CN107103589A (zh) * 2017-03-21 2017-08-29 深圳市未来媒体技术研究院 一种基于光场图像的高光区域修复方法
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN112308085A (zh) * 2020-10-23 2021-02-02 宁波大学 一种基于卷积神经网络的光场图像去噪方法
WO2021083176A1 (zh) * 2019-10-28 2021-05-06 阿里巴巴集团控股有限公司 数据交互方法及系统、交互终端、可读存储介质
CN113139898A (zh) * 2021-03-24 2021-07-20 宁波大学 基于频域分析和深度学习的光场图像超分辨率重建方法
CN113222819A (zh) * 2021-05-19 2021-08-06 厦门大学 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140334745A1 (en) * 2013-05-10 2014-11-13 Trustees Of Princeton University Resolution light-field imaging
CN107103589A (zh) * 2017-03-21 2017-08-29 深圳市未来媒体技术研究院 一种基于光场图像的高光区域修复方法
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
WO2021083176A1 (zh) * 2019-10-28 2021-05-06 阿里巴巴集团控股有限公司 数据交互方法及系统、交互终端、可读存储介质
CN112308085A (zh) * 2020-10-23 2021-02-02 宁波大学 一种基于卷积神经网络的光场图像去噪方法
CN113139898A (zh) * 2021-03-24 2021-07-20 宁波大学 基于频域分析和深度学习的光场图像超分辨率重建方法
CN113222819A (zh) * 2021-05-19 2021-08-06 厦门大学 一种基于深度卷积神经网络的遥感图像超分辨重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GAOCHANG WU ET AL.: "Spatial-angular attention network for light field reconstruction", 《ARXIV》 *
HENRY WING FUNG YEUNG ET AL.: "Fast light field reconstruction with deep coarse-to-fine modeling of spatial-angular clues", 《THE COMPUTER VISION FOUNDATION》 *
LIU DEYANG ET AL.: "Dual-level light field reconstruction network based on directional EPI volume", 《PROC.SPIE 11550,OPTOELECTRONIC IMAGING AND MULTIMEDIA TECHNOLOGY VII》 *
郑祥祥: "基于卷积神经网络的光场图像超分辨率重建", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114897680A (zh) * 2022-04-14 2022-08-12 安庆师范大学 融合光场子孔径图像与宏像素图像的角度超分辨率方法
CN116309064A (zh) * 2023-03-21 2023-06-23 安庆师范大学 一种基于子孔径图像的光场图像角度超分辨率方法
CN116309064B (zh) * 2023-03-21 2023-09-15 安庆师范大学 一种基于子孔径图像的光场图像角度超分辨率方法

Also Published As

Publication number Publication date
CN114066777B (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN112102173B (zh) 光场图像角度超分辨率重建方法
CN114066777B (zh) 一种光场图像角度重建方法
CN111028150B (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN111598778B (zh) 一种绝缘子图像超分辨率重建方法
CN107067380B (zh) 基于低秩张量和层次化字典学习的高分辨率图像重构方法
Liu et al. Multi-angular epipolar geometry based light field angular reconstruction network
CN113139898B (zh) 基于频域分析和深度学习的光场图像超分辨率重建方法
Tang et al. Deep inception-residual Laplacian pyramid networks for accurate single-image super-resolution
CN112070702B (zh) 多尺度残差特征判别增强的图像超分辨率重构系统及方法
Xu et al. Deep bilateral learning for stereo image super-resolution
CN110288524B (zh) 基于增强型上采样和辨别融合机制的深度学习超分辨率方法
CN114897680B (zh) 融合光场子孔径图像与宏像素图像的角度超分辨率方法
Thawakar et al. Image and video super resolution using recurrent generative adversarial network
CN115147271A (zh) 一种用于光场超分辨率的多视图信息注意力交互网络
CN112949636A (zh) 一种车牌超分辨率识别方法、系统及计算机可读介质
Zhang et al. An effective decomposition-enhancement method to restore light field images captured in the dark
Jiang et al. Lightweight dual-stream residual network for single image super-resolution
Liu et al. Learning from EPI-volume-stack for light field image angular super-resolution
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
Chen et al. Guided dual networks for single image super-resolution
LU500980B1 (en) A method for light field angular reconstruction
CN113674154B (zh) 一种基于生成对抗网络的单幅图像超分辨率重建方法及系统
Wafa et al. Learning-based light field view synthesis for efficient transmission and storage
Liu et al. DCM-CNN: Densely connected multiloss convolutional neural networks for light field view synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant