CN107945110A - 一种针对光场阵列相机的盲深度超分辨率计算成像方法 - Google Patents

一种针对光场阵列相机的盲深度超分辨率计算成像方法 Download PDF

Info

Publication number
CN107945110A
CN107945110A CN201711142221.2A CN201711142221A CN107945110A CN 107945110 A CN107945110 A CN 107945110A CN 201711142221 A CN201711142221 A CN 201711142221A CN 107945110 A CN107945110 A CN 107945110A
Authority
CN
China
Prior art keywords
mrow
msub
resolution
super
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711142221.2A
Other languages
English (en)
Inventor
杨俊刚
王应谦
肖超
李骏
安玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201711142221.2A priority Critical patent/CN107945110A/zh
Publication of CN107945110A publication Critical patent/CN107945110A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种针对光场阵列相机的盲深度超分辨率计算成像方法,将传统的基于正则化的超分辨方法与光场重聚焦相结合,考虑到光场图像特有的深度特性,不需要利用场景的先验深度信息,在计算重聚焦的同时进行超分辨重建。本发明方法通过子图像像素的方差来判断聚焦区域,能够在保持非聚焦区域均匀模糊的前提下对聚焦区域进行超分辨成像,形成一系列多聚焦的高分辨率图像,最终采用多聚焦图像融合算法进行融合,得到当前场景全景深的高分辨率图像。

Description

一种针对光场阵列相机的盲深度超分辨率计算成像方法
技术领域
本发明涉及图像处理、超分辨重建、光场计算成像领域,特别是一种针对光场阵列相机的盲深度超分辨率计算成像方法。
背景技术
近几年来,基于光场和计算成像理论的光场相机成为了研究的热点。它通过采集现实世界的光场,在单次曝光中就可以获得当前场景的三维信息,通过对采集到的数据进行处理,可以实现拍照后重聚焦、场景深度估计以及三维重建等诸多传统相机无法实现的功能。光场相机有多种结构,其中阵列相机每一个成像单元相对独立而且分辨率较高,如果能够进一步采取其他方法继续提高其分辨率,便可以很大程度上提升光场成像的应用价值,促进光场相机的进一步发展。
为提高成像分辨率,主要有两个思路。从硬件角度提高分辨率难度较大,成本较高。光场阵列相机通过从不同视角对当前同一场景进行拍摄,可以获得当前场景的冗余信息,更适合于采用超分辨技术等软件方法来提高合成图像的分辨率。
传统的图像超分辨方法往往基于全图的一致性位移。在光场图像中,不同深度的物体对应阵列相机子图像中的位移是不同的。对于距离相机较近的物体,其视差较大,聚焦到此物体时需要对子图像的位移量也较大;而对于距离相机较远的物体,聚焦时所需要的位移也较小。针对光场图像这一特殊性质,学者们对传统超分辨方法做出了一些改进,形成了光场超分辨这一领域。
在光场超分辨中,绝大部分方法都需要基于场景的先验深度信息,并基于深度信息来获取子图像不同位置的位移值。计算较为复杂而且在一些深度信息复杂的场景中,超分辨的精度无法得到保证。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种针对光场阵列相机的盲深度超分辨率计算成像方法,针对光场阵列相机子图像的深度性质,改进传统超分辨全局一致性位移的约束,在当前场景深度信息未知的前提下,对场景进行超分辨率计算成像。
为解决上述技术问题,本发明所采用的技术方案是:一种针对光场阵列相机的盲深度超分辨率计算成像方法,其特征在于,包括以下步骤:
1)将阵列相机获得的子图像进行计算聚焦,并且在计算聚焦的同时提高目标图像网格的分辨率,获得聚焦到某一深度的高分辨率图像的初始值;通过改变阵列相机子图像之间的位移值,获得聚焦到不同深度的当前场景的图像;
2)对应某个位移值,判断子图像之间相同位置像素的方差值,通过映射θ=exp{-0.1×V0.9},将方差值V转化为迭代过程中修正矩阵中对应位置的权值θ;
3)建立如下目标函数,采用最小化L2范数和TV正则:
Xi=xi+Pi
其中k=1,2,3,...,p代表图像帧数;xi为原始场景中第i层深度聚焦部分对应的向量;Pi为原始场景中第i层深度非聚焦部分对应的向量;Xi为xi与Pi的组合,对应着高分辨率的聚焦区域以及均匀模糊的非聚焦区域;yk代表低分辨率图像序列中第k帧图像向量;D表示下采样矩阵;H表示对应的模糊矩阵;Fi,k为对应于第k帧、第i层深度的位移矩阵;其中J(Xi)为正则化项,λ为正则化系数,有
式中Ω为图像空间,是图像x在点(u,v)沿水平和垂直方向上的一阶偏导数,δ为可调参数,是为了避免J(x)在xu=0、xv=0处不可微;
采用以下公式,使用梯度下降法求解超分辨问题:
式中,为第n次迭代后超分辨重建图像;β为步长因子;为修正后的第n次超分辨重建图像对应的梯度向量,其具体表达式如下:
式中,Θ为步骤2)中各个像素点修正权值θ组成的修正向量,符号代表两个同维向量之间对应元素相乘,结果仍为相同维度的向量。
通过计算当前点的梯度,沿梯度的反方向更新高分辨率图像的估计值,再计算新的估计值处的梯度,如此迭代,得到在聚焦区域具有超分辨效果,在非聚焦区域均匀模糊的一系列聚焦到不同深度的多聚焦高分辨率图像;
4)采用基于静态小波(SWT)分解的多聚焦图像融合方法对步骤3)得到的聚焦到不同深度的高分辨率图像进行融合。
步骤1)中,采用三次样条插值的方法获得聚焦到某一深度的高分辨率图像的初始值。与现有技术相比,本发明所具有的有益效果为:本发明可以使光场阵列相机在实现其特有的诸多功能的基础上,在不改变其硬件结构与增加硬件成本的条件下,显著提高其成像的空间分辨率。随着光场相机的不断推广与普及,本发明方法有着较大的意义与实用价值。
附图说明
图1为光场相机盲深度超分辨率计算成像算法结构框图;
图2中,(a)聚焦到某一深度(两边的人)的插值重聚焦图像;(b)利用像素方差得出的当前场景各个像素重聚焦方差图;(c)像素方差与修正权值之间函数关系图;(d)当前场景各个像素修正权值图;
图3为基于静态小波分解的多聚焦图像融合框架图。设待分解的多聚焦源图像为In(n=1,2,...,N),经过静态小波分解为k层,每层均包含有近似系数A,水平细节系数H,垂直细节系数V和对角细节系数D。假定多帧源图像In的尺寸均为P×Q,由于静态小波变换中没有下采样过程,故每一层的分解系数的尺寸也均为P×Q。不同的分解系数采用不同的规则进行整合,将整合过后的系数进行静态小波逆变换,最终得到输出的融合图像;
图4为本发明实验效果图:(a)为斯坦福大学光场数据集“Lego Knights”图片的实验结果;(b)为斯坦福大学光场数据集“TarotCards”图片的实验结果;(c)为使用Leica相机在实验室拍摄得到的实验结果;(d)为使用手机自带相机在实验室拍摄得到的实验结果;每一个场景分为两行两列,第一行为全图,第二行为第一行中标出的细节放大图,第一列为单帧低分辨率图像,第二列为通过本方法得到的超分辨重建结果。
具体实施方式
本发明利用正则化超分辨方法,误差项采用最小L2范数,正则项采用全变分正则,在重聚焦的同时进行超分辨率计算成像。由于一次重聚焦只能使得某一深度附近的物体处于聚焦状态,本方法能够通过比较聚焦时不同子图像同一位置的像素的方差来判断该像素是否处在聚焦区域,从而在迭代时赋予聚焦区域与非聚焦区域的修正量以不同的权值,在保证聚焦区域达到超分辨成像的效果下,防止非聚焦区域因位移不对应而产生病态结果。最后利用多聚焦图像融合技术将聚焦到不同深度的超分辨图像进行融合,最终得到当前场景的全景深高分辨率的图像。如图1所示,具体包括以下步骤:
1.将阵列相机获得的子图像进行计算聚焦,并且在计算聚焦的同时提高目标图像网格的分辨率,采用三次样条插值的方法获得聚焦到某一深度的高分辨率图像的初始值。通过改变阵列相机子图像之间的位移值,采用相同的方法,可以获得聚焦到不同深度的当前场景的图像。
2.在聚焦的过程中,对应某个位移值,判断子图像之间相同位置像素的方差值,通过映射θ=exp{-0.1×V0.9},将方差值V转化为迭代过程中修正矩阵中对应位置的权值θ,使得方差较小的聚焦区域能够获得比较大的权值,从而尽快收敛到高分辨率的结果,同时使方差较大的非聚焦区域获得比较小的权值,防止其收敛到病态的结果。
3.建立如下目标函数,采用最小化L2范数和TV正则
采用以下公式,使用梯度下降法求解超分辨问题,并将第2步中的修正权值体现在迭代过程中,
经过迭代可以得到在聚焦区域具有超分辨效果,在非聚焦区域均匀模糊的一系列聚焦到不同深度的多聚焦高分辨率图像。
4.采用基于静态小波分解的多聚焦图像融合算法对第3步得到的聚焦到不同深度的高分辨率图像进行融合,如图3所示。
经过以上算法,得到超分辨重建前后效果对比图如图4所示。

Claims (2)

1.一种针对光场阵列相机的盲深度超分辨率计算成像方法,其特征在于,包括以下步骤:
1)将阵列相机获得的子图像进行计算聚焦,并且在计算聚焦的同时提高目标图像网格的分辨率,获得聚焦到某一深度的高分辨率图像的初始值;通过改变阵列相机子图像之间的位移值,获得聚焦到不同深度的当前场景的图像;
2)对应某个位移值,判断子图像之间相同位置像素的方差值,通过映射θ=exp{-0.1×V0.9},将方差值V转化为迭代过程中修正矩阵中对应位置的权值θ;
3)建立如下目标函数,采用最小化L2范数和TV正则:
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mover> <mi>X</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <munder> <mi>argmin</mi> <msub> <mi>X</mi> <mi>i</mi> </msub> </munder> <mo>{</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>k</mi> </msub> <mo>-</mo> <msub> <mi>DHF</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>k</mi> </mrow> </msub> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>P</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> <mo>;</mo> </mrow>
其中k=1,2,3,...,N代表图像帧数;xi为原始场景中第i层深度聚焦部分对应的向量;Pi为原始场景中第i层深度非聚焦部分对应的向量;Xi为xi与Pi的组合,对应着高分辨率的聚焦区域以及均匀模糊的非聚焦区域;yk代表低分辨率图像序列中第k帧图像向量;D表示下采样矩阵;H表示对应的模糊矩阵;Fi,k为对应于第k帧、第i层深度的位移矩阵;其中J(Xi)为正则化项,λ为正则化系数,有
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mo>|</mo> <mo>|</mo> <mo>&amp;dtri;</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mrow> <mi>T</mi> <mi>V</mi> </mrow> </msub> <mo>=</mo> <munder> <mi>&amp;Sigma;</mi> <mi>u</mi> </munder> <munder> <mi>&amp;Sigma;</mi> <mi>v</mi> </munder> <msqrt> <mrow> <mo>|</mo> <mo>&amp;dtri;</mo> <msubsup> <mi>X</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> </mrow> <mn>1</mn> </msubsup> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mo>|</mo> <mo>&amp;dtri;</mo> <msubsup> <mi>X</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> </mrow> <mn>2</mn> </msubsup> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>&amp;delta;</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>&amp;dtri;</mo> <msubsup> <mi>X</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> </mrow> <mn>1</mn> </msubsup> <mo>=</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>&amp;lsqb;</mo> <mi>u</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>v</mi> <mo>&amp;rsqb;</mo> <mo>-</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>&amp;lsqb;</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>&amp;dtri;</mo> <msubsup> <mi>X</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> </mrow> <mn>2</mn> </msubsup> <mo>=</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>&amp;lsqb;</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>+</mo> <mn>1</mn> <mo>&amp;rsqb;</mo> <mo>-</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>&amp;lsqb;</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> </mtable> <mo>;</mo> </mrow>
式中符号▽为梯度算子,是图像Xi在子图像的点(u,v)沿水平和垂直方向上的一阶偏导数,δ为可调参数;
采用以下公式,使用梯度下降法求解超分辨问题:
<mrow> <msup> <msub> <mover> <mi>X</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msup> <msub> <mover> <mi>X</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mi>&amp;beta;</mi> <mo>&amp;times;</mo> <mo>&amp;dtri;</mo> <mi>T</mi> <mrow> <mo>(</mo> <msubsup> <mover> <mi>X</mi> <mo>^</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
式中,为第n次迭代后超分辨重建图像;β为步长因子;为修正后的第n次超分辨重建图像对应的梯度向量,其具体表达式如下:
式中,Θ为步骤2)中各个像素点修正权值θ组成的修正向量,符号代表两个同维向量之间对应元素相乘,结果仍为相同维度的向量;
通过计算当前点的梯度,沿梯度的反方向更新高分辨率图像的估计值,再计算新的估计值处的梯度,如此迭代,得到在聚焦区域具有超分辨效果,在非聚焦区域均匀模糊的一系列聚焦到不同深度的多聚焦高分辨率图像;
4)采用基于静态小波分解的多聚焦图像融合方法对步骤3)得到的聚焦到不同深度的多聚焦高分辨率图像进行融合。
2.针对光场阵列相机的盲深度超分辨率计算成像方法,其特征在于,步骤1)中,采用三次样条插值的方法获得聚焦到某一深度的高分辨率图像的初始值。
CN201711142221.2A 2017-11-17 2017-11-17 一种针对光场阵列相机的盲深度超分辨率计算成像方法 Pending CN107945110A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711142221.2A CN107945110A (zh) 2017-11-17 2017-11-17 一种针对光场阵列相机的盲深度超分辨率计算成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711142221.2A CN107945110A (zh) 2017-11-17 2017-11-17 一种针对光场阵列相机的盲深度超分辨率计算成像方法

Publications (1)

Publication Number Publication Date
CN107945110A true CN107945110A (zh) 2018-04-20

Family

ID=61931640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711142221.2A Pending CN107945110A (zh) 2017-11-17 2017-11-17 一种针对光场阵列相机的盲深度超分辨率计算成像方法

Country Status (1)

Country Link
CN (1) CN107945110A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255809A (zh) * 2018-09-26 2019-01-22 郑州云海信息技术有限公司 一种光场图像深度估计方法及装置
CN110599400A (zh) * 2019-08-19 2019-12-20 西安理工大学 一种基于epi的光场图像超分辨的方法
CN111881925A (zh) * 2020-08-07 2020-11-03 吉林大学 一种基于相机阵列选择性光场重聚焦的显著性检测方法
CN112070675A (zh) * 2020-09-07 2020-12-11 武汉工程大学 一种基于图的正则化光场超分辨率方法和光场显微装置
CN113808019A (zh) * 2021-09-14 2021-12-17 广东三水合肥工业大学研究院 一种非接触测量系统及方法
CN113837947A (zh) * 2021-11-29 2021-12-24 南开大学 一种获得光学相干层析大焦深图像的处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441765A (zh) * 2008-11-19 2009-05-27 西安电子科技大学 保持边缘清晰的自适应正则超分辨图像重建方法
US20130070060A1 (en) * 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN103513335A (zh) * 2013-10-09 2014-01-15 中南大学 一种基于耦合模型的阵列波导器件对准方法与装置
CN104320596A (zh) * 2014-09-30 2015-01-28 北京智谷技术服务有限公司 超分辨率图像的获取方法和获取装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441765A (zh) * 2008-11-19 2009-05-27 西安电子科技大学 保持边缘清晰的自适应正则超分辨图像重建方法
US20130070060A1 (en) * 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN103513335A (zh) * 2013-10-09 2014-01-15 中南大学 一种基于耦合模型的阵列波导器件对准方法与装置
CN104320596A (zh) * 2014-09-30 2015-01-28 北京智谷技术服务有限公司 超分辨率图像的获取方法和获取装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255809A (zh) * 2018-09-26 2019-01-22 郑州云海信息技术有限公司 一种光场图像深度估计方法及装置
CN110599400A (zh) * 2019-08-19 2019-12-20 西安理工大学 一种基于epi的光场图像超分辨的方法
CN110599400B (zh) * 2019-08-19 2022-10-04 西安理工大学 一种基于epi的光场图像超分辨的方法
CN111881925A (zh) * 2020-08-07 2020-11-03 吉林大学 一种基于相机阵列选择性光场重聚焦的显著性检测方法
CN112070675A (zh) * 2020-09-07 2020-12-11 武汉工程大学 一种基于图的正则化光场超分辨率方法和光场显微装置
CN112070675B (zh) * 2020-09-07 2022-10-18 武汉工程大学 一种基于图的正则化光场超分辨率方法和光场显微装置
CN113808019A (zh) * 2021-09-14 2021-12-17 广东三水合肥工业大学研究院 一种非接触测量系统及方法
CN113837947A (zh) * 2021-11-29 2021-12-24 南开大学 一种获得光学相干层析大焦深图像的处理方法

Similar Documents

Publication Publication Date Title
CN107945110A (zh) 一种针对光场阵列相机的盲深度超分辨率计算成像方法
Wu et al. Learning sheared EPI structure for light field reconstruction
Yeung et al. Fast light field reconstruction with deep coarse-to-fine modeling of spatial-angular clues
Liu et al. Learning trajectory-aware transformer for video super-resolution
US9412151B2 (en) Image processing apparatus and image processing method
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN109102462A (zh) 一种基于深度学习的视频超分辨率重建方法
CN102663712A (zh) 基于飞行时间tof相机的深度计算成像方法
Joshi et al. A learning-based method for image super-resolution from zoomed observations
CN113077505B (zh) 一种基于对比学习的单目深度估计网络的优化方法
CN102722863A (zh) 采用自回归模型对深度图进行超分辨率重建的方法
CN108074218A (zh) 基于光场采集装置的图像超分辨率方法及装置
CN106408524A (zh) 基于二维图像辅助的深度图像增强方法
CN109147036A (zh) 一种基于深度学习的集成成像微图像阵列快速生成方法
CN106548494A (zh) 一种基于场景样本库的影视图像深度提取方法
CN113538243B (zh) 基于多视差注意力模块组合的超分辨图像重建方法
CN113436130B (zh) 一种非结构光场智能感知系统与装置
CN111626927A (zh) 采用视差约束的双目图像超分辨率方法、系统及装置
CN108090877A (zh) 一种基于图像序列的rgb-d相机深度图像修复方法
CN109949354A (zh) 一种基于全卷积神经网络的光场深度信息估计方法
CN111369443B (zh) 光场跨尺度的零次学习超分辨率方法
CN114820323A (zh) 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法
CN112767246A (zh) 光场图像多倍率空间超分辨方法及装置
CN117291808B (zh) 一种基于流先验与极偏补偿的光场图像超分辨处理方法
CN114359041A (zh) 一种光场图像空间超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20220125