CN109993764A - 一种基于频域能量分布的光场深度估计方法 - Google Patents

一种基于频域能量分布的光场深度估计方法 Download PDF

Info

Publication number
CN109993764A
CN109993764A CN201910266825.0A CN201910266825A CN109993764A CN 109993764 A CN109993764 A CN 109993764A CN 201910266825 A CN201910266825 A CN 201910266825A CN 109993764 A CN109993764 A CN 109993764A
Authority
CN
China
Prior art keywords
block
light field
frequency domain
space
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910266825.0A
Other languages
English (en)
Other versions
CN109993764B (zh
Inventor
金欣
李俊科
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201910266825.0A priority Critical patent/CN109993764B/zh
Publication of CN109993764A publication Critical patent/CN109993764A/zh
Application granted granted Critical
Publication of CN109993764B publication Critical patent/CN109993764B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于频域能量分布的光场深度估计方法,包括:提取光场图的中心子孔径图像,划分为空间块进行频域变换;针对每一空间块,从频域分布提取一致性描述子和方向性描述子;根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块;对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和方向性描述子选择符合一致性描述的子角度块;针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取子角度块的聚焦张量;建立代价方程;最大化代价方程实现光场深度估计。本发明在保证非遮挡区域深度准确性的同时提高了遮挡区域的深度准确性,使深度突变处的细节更加丰富。

Description

一种基于频域能量分布的光场深度估计方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,具体涉及一种基于频域能量分布的光场深度估计方法。
背景技术
光场成像理论以其能够同时记录光线空间信息和角度信息的特点引发了研究界与工业界的广泛关注,基于该理论发布的光场相机(如Lytro,Illum和Raytrix等)获得了巨大的商业成功,不仅便携性强,而且可一次曝光记录四维光场,实现多视角转换、先拍照后对焦等功能,展现出其在计算机视觉领域的优势,尤其丰富了该领域中深度估计的算法,提高了效率,对于基于深度的三维重建等应用具有重大意义。
现有的基于光场图像的深度估计方法大体可分为五类:极面图像(EpipolarPlane Image)算法,立体匹配算法,散焦分析算法,立体匹配与散焦分析融合算法以及机器学习算法。以上五大类算法各有相应的优势与劣势,平均深度估计结果图大致呈现一致水平。然而对于所有以上算法而言,如果单纯地对所有区域采用统一聚焦线索分析,遮挡区域(即深度发生突变)导致的同一视角前后景混杂会直接引起张量计算错误,导致大多数深度估计算法在深度突变处存在前景蔓延趋势,其结果表现为变化平缓有毛刺,从而降低了算法的准确度,使得所求得的结果图质量较差,环境适应性低。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日前已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明的主要目的在于克服现有技术的不足,提出一种基于频域能量分布的光场深度估计方法,在保持非遮挡区域估计准确度的同时,提高遮挡区域的估计准确度,从而提升深度图质量。
本发明为达上述目的提出以下技术方案:
一种基于频域能量分布的光场深度估计方法,包括:
A1、提取光场图像的中心子孔径图像,并划分为空间块分别进行频域变换;
A2、针对每一个空间块,从频域分布提取一致性描述子和方向性描述子;
A3、根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块;
A4、对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和所述方向性描述子选择符合一致性描述的子角度块;
A5、针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取所述子角度块的聚焦张量;从而建立代价方程;
A6、通过最大化代价方程实现光场深度估计。
本发明基于散焦分析法,首先根据中心子孔径图像的特征对整张光场图像划分为非遮挡与遮挡区域,在对光场图像进行数字重聚焦的过程中,对不同区域分析其在聚焦和散焦状态下表现的不同特点,选择能够准确描述该特点的深度线索,并定义代价方程,通过最值化代价方程的形式来获取深度图,可获取准确性与一致性高、遮挡边缘锐利清晰的结果。
附图说明
图1为本发明提出的基于频域能量分布的光场深度估计方法的流程图。
具体实施方式
下面结合附图和具体的实施方式对本发明作进一步说明。
本发明的具体实施方式提出一种基于频域能量分布的光场深度估计方法,主要思路为:首先利用光场图像的中心子孔径图像的特定像素点所在空间块的一致性,区分非遮挡区域与遮挡区域;针对遮挡区域,在空间块中计算其边缘的斜率并判断前后景信息;提出一种与聚焦程度具有强相关性的新张量,对于非遮挡区域计算整个角度块的聚焦程度,对于遮挡区域,则通过前述前后景信息的分析找到相应的聚焦子角度块,计算子角度块的聚焦程度,从而建立分区域的代价方程,最后通过最大化代价方程实现光场图像的深度估计。
参考图1,本发明的基于频域能量分布的光场深度估计方法具体包括如下步骤A1~A6:
A1、提取光场图像的中心子孔径图像,并划分为空间块分别进行频域变换。
首先,对输入的光场图像固定视角后,提取其中心子孔径图像Ic(x,y):
其中,LF(x,y,u,v)表示输入的光场图像,(x,y)、(u,v)分别表示空间坐标和角度坐标,Nu、Nv分别为水平视角数和垂直视角数,为上取整操作,为中心位置的角度坐标。
然后,将所述中心子孔径图像划分为空间块,对每个空间块采用离散余弦变换(DCT)将空域信息映射到频域,即完成所述频域变换,具体公式如下:
其中,Ixy(x',y')代表以坐标(x,y)为中心选取的尺寸为M·M空间块,(x',y')为空间块中的坐标,空间块尺寸的变化范围为0~M-1,Fxy(m1,m2)即为对空间像素(x,y)进行M·M尺寸的离散余弦变换后的频域块,(m1,m2)为(x,y)在频域的相应坐标。
A2、针对每一个空间块,从频域分布提取一致性描述子和方向性描述子。由于频域信息便于同时表达某个空间块的多种性质,因此一致性描述子和方向性描述子均定义在频域,一致性描述子CFD(x,y)和方向性描述子OFD(x,y)分别为:
其中,Fxy(0,0)表示频域分布中的直流分量,Fxy(0,1)、Fxy(1,0)分别表示竖直方向与水平方向距离低频最近的交流分量。因此,一致性描述子即为低频能量占比,方向性描述子即为通过图像竖直方向与水平方向变化求得的遮挡边缘方向。
A3、根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块。通过分析光场图成像原理可知,在光场相机成像范围内,某个特定像素对应的宏像素(又称“角度块”)与其对应的空间块内容相似,即同时呈现遮挡状态或非遮挡状态。特别地,像素遮挡存在的情况下,该范围内角度块中遮挡像素的方向与空间块中遮挡物边界方向相同。基于此,本发明利用该性质进行区域划分,通过空间块中的内容预测角度块中的内容。
当某像素对应的空间块变化缓慢或无变化时,表示该像素所在区域无遮挡,此特点在频域中的表现即为:DC(直流分量)幅值占据总能量较高比例,AC(交流分量)幅值占据总能量很低比例,空间块一致性较高。故,区分遮挡区域和非遮挡区域的判别条件设置为:
其中,τ表示预设的阈值;当一空间块的一致性描述子CFD(x,y)≥τ时,R(x,y)=0表示该空间块为非遮挡区域;当一空间块的一致性描述子CFD(x,y)<τ时,R(x,y)=1表示该空间块为遮挡区域。
A4、对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和所述方向性描述子选择符合一致性描述的子角度块。对于遮挡区域,由于聚焦时其角像素对应的整个角度块不再满足一致性条件,故本发明提出通过寻找其角度块中符合一致性的子角度块来进行一致性判断,以进行后续的深度估计。
具体而言,对于属于遮挡区域的空间块,其方向性描述子已知时,符合一致性描述的子角度块位于遮挡边缘的法向量方向:
其中,xj、yj表示第j个边缘像素的坐标。选取属于遮挡区域的空间块的中心像素(相当于对应的角度块的中心角像素)与所有边缘像素建立以下等式:
(xj-x)·cosθ+(yj-y)·sinθ=0 (8)
其中,θ表示由所述方向性描述子OFD(x,y)求得的遮挡边缘角度;通过求解式(8),可以得到两个与所述中心像素连接且指向所述法向量方向的边缘像素,记为(x1,y1)、(x2,y2);从而,所述法向量的正方向表示为:
其中,L(xj,yj)、L(x,y)分别表示边缘像素和中心像素的像素值。这样一来,就可以找到符合一致性描述的子角度块。
A5、针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取所述子角度块的聚焦张量,以建立代价方程。根据光场重聚焦能力,生成焦栈,即一系列聚焦平面由近及远变化的光场图像。场景点在图像平面投影所对应角度块中的频域特征也随聚焦平面的变化而变化。因此,本发明提取并分析频域特征,获得能够用数学方式明显表现聚焦平面位置变化的张量,从而对场景深度信息进行计算。当场景点聚焦在准确深度时,对于非遮挡区域而言同一角度块中不同视角的角像素来自于同一场景点,因此具有相等的强度;对于遮挡区域也可根据步骤A4找到其满足一致性的子角度块,其一致性表述由步骤A2中的一致性描述子CFD(x,y)表述。从而,本发明的代价方程如下:
其中,CFDα(x,y)表示属于非遮挡区域的一个完整的角度块的聚焦张量,表示遮挡区域的所述子角度块的聚焦张量;CFDα(x,y)、的求解采用前述的公式(4),其中α表示相应的深度层,表示选取的子角度块所在的方向。
A6、通过最大化代价方程实现光场深度估计。根据光场成像原理,当场景点被准确聚焦时,其对应角度块的一致性最高,相应的一致性描述子CFD(x,y)最大,场景深度估计为:
对于光场图像的每个场景点而言,都可以根据式(11)找到一个最大值,从而取这个最大值对应的深度作为最终的深度估计结果。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (9)

1.一种基于频域能量分布的光场深度估计方法,其特征在于,包括:
A1、提取光场图像的中心子孔径图像,并划分为空间块分别进行频域变换;
A2、针对每一个空间块,从频域分布提取一致性描述子和方向性描述子;
A3、根据每个空间块的一致性描述子来判断空间块为遮挡区域或非遮挡区域,并将判断结果应用于空间块对应的角度块;
A4、对于遮挡区域,结合角度块的中心角像素、空间块的边缘像素和所述方向性描述子选择符合一致性描述的子角度块;
A5、针对非遮挡区域,提取整个角度块的聚焦张量;针对遮挡区域,提取所述子角度块的聚焦张量;从而建立代价方程;
A6、通过最大化代价方程实现光场深度估计。
2.如权利要求1所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A1包括:
A11、对输入的光场图像,固定视角后提取其中心子孔径图像;
A12、将所述中心子孔径图像划分为空间块,对每个空间块采用离散余弦变换将空域信息映射到频域,完成所述频域变换。
3.如权利要求2所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A11中提取中心子孔径图像的方法如下:
其中,Ic(x,y)即为所提取的中心子孔径图像,LF(x,y,u,v)表示输入的光场图像,(x,y)、(u,v)分别表示空间坐标和角度坐标,Nu、Nv分别为水平视角数和垂直视角数,为上取整操作,为中心位置的角度坐标。
4.如权利要求3所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A12中对所述空间块进行离散余弦变换的方法如下:
其中,Ixy(x',y')代表以坐标(x,y)为中心选取的尺寸为M·M空间块,(x',y')为空间块中的坐标,空间块尺寸的变化范围为0~M-1,Fxy(m1,m2)即为对空间像素(x,y)进行M·M尺寸的离散余弦变换后的频域块,(m1,m2)为(x,y)在频域的相应坐标。
5.如权利要求4所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A2中的一致性描述子CFD(x,y)和方向性描述子OFD(x,y)分别为:
其中,Fxy(0,0)表示频域分布中的直流分量,Fxy(0,1)、Fxy(1,0)分别表示竖直方向与水平方向距离低频最近的交流分量。
6.如权利要求5所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A3中判断空间块为遮挡区域或非遮挡区域的条件为:
其中,τ表示预设的阈值;当一空间块的一致性描述子CFD(x,y)≥τ时,R(x,y)=0表示该空间块为非遮挡区域;当一空间块的一致性描述子CFD(x,y)<τ时,R(x,y)=1表示该空间块为遮挡区域。
7.如权利要求6所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A4具体包括:
A41、对于属于遮挡区域的空间块,其方向性描述子已知时,符合一致性描述的子角度块位于遮挡边缘的法向量方向xj、yj表示第j个边缘像素的坐标;
A42、选取属于遮挡区域的空间块的中心像素与所有边缘像素建立等式(xj-x)·cosθ+(yj-y)·sinθ=0并求解,得到两个与所述中心像素连接且指向所述法向量方向的边缘像素,记为(x1,y1)、(x2,y2);θ表示由所述方向性描述子OFD(x,y)求得的遮挡边缘角度;从而,所述法向量的正方向表示为:
其中,L(xj,yj)、L(x,y)分别表示边缘像素和中心像素的像素值;
A43、选择位于所述法向量的正方向上的子角度块。
8.如权利要求7所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A5中的代价方程为:
其中,CFDα(x,y)表示属于非遮挡区域的一个完整的角度块的聚焦张量,表示遮挡区域的所述子角度块的聚焦张量,α表示相应的深度层,表示选取的子角度块所在的方向。
9.如权利要求8所述的基于频域能量分布的光场深度估计方法,其特征在于,步骤A6具体包括:
根据光场成像原理,当场景点被准确聚焦时,其对应角度块的一致性最高,相应的一致性描述子CFD(x,y)最大,场景深度估计为:
CN201910266825.0A 2019-04-03 2019-04-03 一种基于频域能量分布的光场深度估计方法 Active CN109993764B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910266825.0A CN109993764B (zh) 2019-04-03 2019-04-03 一种基于频域能量分布的光场深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910266825.0A CN109993764B (zh) 2019-04-03 2019-04-03 一种基于频域能量分布的光场深度估计方法

Publications (2)

Publication Number Publication Date
CN109993764A true CN109993764A (zh) 2019-07-09
CN109993764B CN109993764B (zh) 2021-02-19

Family

ID=67132233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910266825.0A Active CN109993764B (zh) 2019-04-03 2019-04-03 一种基于频域能量分布的光场深度估计方法

Country Status (1)

Country Link
CN (1) CN109993764B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110568618A (zh) * 2019-08-20 2019-12-13 济南大学 利用周期型二元相位板产生空间螺旋光束阵列的装置及方法
CN110827343A (zh) * 2019-11-06 2020-02-21 太原科技大学 基于能量增强散焦响应的改进光场深度估计算法
CN114897951A (zh) * 2022-05-30 2022-08-12 中国测绘科学研究院 聚合多视角深度信息的单张光场影像深度估计方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130120356A1 (en) * 2010-03-03 2013-05-16 Todor G. Georgiev Methods, Apparatus, and Computer-Readable Storage Media for Depth-Based Rendering of Focused Plenoptic Camera Data
WO2014113583A1 (en) * 2013-01-18 2014-07-24 Intel Corporation Variance estimation light field reconstruction for defocus blur
CN104598744A (zh) * 2015-01-27 2015-05-06 北京工业大学 一种基于光场的深度估计方法
CN104966289A (zh) * 2015-06-12 2015-10-07 北京工业大学 一种基于4d光场的深度估计方法
CN105551050A (zh) * 2015-12-29 2016-05-04 深圳市未来媒体技术研究院 一种基于光场的图像深度估计方法
US9460516B2 (en) * 2014-10-17 2016-10-04 National Taiwan University Method and image processing apparatus for generating a depth map
CN107038719A (zh) * 2017-03-22 2017-08-11 清华大学深圳研究生院 基于光场图像角度域像素的深度估计方法及系统
CN107578437A (zh) * 2017-08-31 2018-01-12 深圳岚锋创视网络科技有限公司 一种基于光场相机的深度估计方法、系统及便携式终端
CN108596965A (zh) * 2018-03-16 2018-09-28 天津大学 一种光场图像深度估计方法
CN109064505A (zh) * 2018-07-26 2018-12-21 清华大学深圳研究生院 一种基于滑动窗口张量提取的深度估计方法
CN109255809A (zh) * 2018-09-26 2019-01-22 郑州云海信息技术有限公司 一种光场图像深度估计方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130120356A1 (en) * 2010-03-03 2013-05-16 Todor G. Georgiev Methods, Apparatus, and Computer-Readable Storage Media for Depth-Based Rendering of Focused Plenoptic Camera Data
WO2014113583A1 (en) * 2013-01-18 2014-07-24 Intel Corporation Variance estimation light field reconstruction for defocus blur
US9460516B2 (en) * 2014-10-17 2016-10-04 National Taiwan University Method and image processing apparatus for generating a depth map
CN104598744A (zh) * 2015-01-27 2015-05-06 北京工业大学 一种基于光场的深度估计方法
CN104966289A (zh) * 2015-06-12 2015-10-07 北京工业大学 一种基于4d光场的深度估计方法
CN105551050A (zh) * 2015-12-29 2016-05-04 深圳市未来媒体技术研究院 一种基于光场的图像深度估计方法
CN107038719A (zh) * 2017-03-22 2017-08-11 清华大学深圳研究生院 基于光场图像角度域像素的深度估计方法及系统
CN107578437A (zh) * 2017-08-31 2018-01-12 深圳岚锋创视网络科技有限公司 一种基于光场相机的深度估计方法、系统及便携式终端
CN108596965A (zh) * 2018-03-16 2018-09-28 天津大学 一种光场图像深度估计方法
CN109064505A (zh) * 2018-07-26 2018-12-21 清华大学深圳研究生院 一种基于滑动窗口张量提取的深度估计方法
CN109255809A (zh) * 2018-09-26 2019-01-22 郑州云海信息技术有限公司 一种光场图像深度估计方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HAE-GON JEON ET.AL: "Accurate depth map estimation from a lenslet light field camera", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
WENHUI ZHOU ET AL.: "Light-field flow: A subpixel-accuracy depth flow estimation with geometric occlusion model from a single light-field image", 《 2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICI》 *
潘佳琪: "基于深度线索的光场相机深度估计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
牛朦朦: "基于光场相机的深度图像生成技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110568618A (zh) * 2019-08-20 2019-12-13 济南大学 利用周期型二元相位板产生空间螺旋光束阵列的装置及方法
CN110568618B (zh) * 2019-08-20 2021-09-21 济南大学 利用周期型二元相位板产生空间螺旋光束阵列的装置及方法
CN110827343A (zh) * 2019-11-06 2020-02-21 太原科技大学 基于能量增强散焦响应的改进光场深度估计算法
CN110827343B (zh) * 2019-11-06 2024-01-26 太原科技大学 基于能量增强散焦响应的改进光场深度估计方法
CN114897951A (zh) * 2022-05-30 2022-08-12 中国测绘科学研究院 聚合多视角深度信息的单张光场影像深度估计方法及系统
CN114897951B (zh) * 2022-05-30 2023-02-28 中国测绘科学研究院 聚合多视角深度信息的单张光场影像深度估计方法及系统

Also Published As

Publication number Publication date
CN109993764B (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN110598610B (zh) 一种基于神经选择注意的目标显著性检测方法
Huang et al. An advanced single-image visibility restoration algorithm for real-world hazy scenes
CN107277491B (zh) 生成图像的深度图的方法及相关存储介质
Li et al. Joint example-based depth map super-resolution
CN109903327A (zh) 一种稀疏点云的目标物尺寸测量方法
CN109993764A (zh) 一种基于频域能量分布的光场深度估计方法
RU2382406C1 (ru) Способ улучшения карты диспарантности и устройство для реализации способа
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN105913070B (zh) 一种基于光场相机的多线索显著性提取方法
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
TW201131512A (en) Distance evaluation methods and apparatuses, and machine readable medium thereof
KR20090080556A (ko) 복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환
CN109064505A (zh) 一种基于滑动窗口张量提取的深度估计方法
Lee et al. Depth estimation from light field by accumulating binary maps based on foreground–background separation
CN103198475B (zh) 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
Lee et al. Complex-valued disparity: Unified depth model of depth from stereo, depth from focus, and depth from defocus based on the light field gradient
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
Alam et al. Hybrid stereo imaging including a light field and a regular camera
Guo et al. 2D to 3D convertion based on edge defocus and segmentation
Patra et al. High Resolution Point Cloud Generation from Kinect and HD Cameras using Graph Cut.
WO2020196520A1 (en) Method, system and computer readable media for object detection coverage estimation
CN104768018B (zh) 一种基于深度图的快速视点预测方法
Liu et al. Accurate light field depth estimation under occlusion
Yang et al. A depth map generation algorithm based on saliency detection for 2D to 3D conversion
CN112102347B (zh) 一种基于双目视觉的台阶检测和单级台阶高度估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant