CN109064505B - 一种基于滑动窗口张量提取的深度估计方法 - Google Patents

一种基于滑动窗口张量提取的深度估计方法 Download PDF

Info

Publication number
CN109064505B
CN109064505B CN201810837461.2A CN201810837461A CN109064505B CN 109064505 B CN109064505 B CN 109064505B CN 201810837461 A CN201810837461 A CN 201810837461A CN 109064505 B CN109064505 B CN 109064505B
Authority
CN
China
Prior art keywords
tensor
light field
focus
field image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810837461.2A
Other languages
English (en)
Other versions
CN109064505A (zh
Inventor
金欣
李俊科
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201810837461.2A priority Critical patent/CN109064505B/zh
Publication of CN109064505A publication Critical patent/CN109064505A/zh
Application granted granted Critical
Publication of CN109064505B publication Critical patent/CN109064505B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种基于滑动窗口张量提取的深度估计方法,包括以下步骤:A1:输入光场图像,进行预处理及重聚焦操作,根据聚焦平面改变时宏像素内部的变化特点提取光场图像的聚焦张量;A2:筛选出光场图像的遮挡区域,通过滑动窗口搜索的方式提取遮挡区域的聚焦张量;A3:根据步骤A1提取的光场图像的聚焦张量和步骤A2中提取的遮挡区域的聚焦张量来进行初始深度估计,得到初始深度图;A4:从光场图像中提取中心子孔径视角图像,根据光场图像的边界进行保边滤波;A5:结合初始深度图和中心子孔径视角图像来建立全局优化模型,进行深度的全局优化。本发明提出的基于滑动窗口张量提取的深度估计方法,能够获得准确性与一致性高、边界清晰的结果。

Description

一种基于滑动窗口张量提取的深度估计方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于滑动窗口张量提取的深度估计方法。
背景技术
近年来,基于光场成像理论发布的光场相机(如Lytro、Illum和Raytrix)以其便携性强、能够记录四维光场分布的特点引发了研究界的广泛关注,并获得了巨大的商业成功。光场相机通过在主透镜后插入二维微透镜相机阵列就可以同时采集多个视角的信息,包括空间信息和角度信息,相对于传统相机阵列具有成本低廉、可移动的特点。利用光场相机可实现先拍照后对焦,也可对其采集的数据进行二次开发,通过电脑软件借助一定算法实现视角的切换、计算场景景深信息,对于计算机视觉领域的科研人员而言具有很大的意义。
现有的基于光场相机的深度估计方法大体可分为三类:极面图像(EpipolarPlane Image)算法、立体匹配算法与散焦分析算法。其中极面图像算法充分分析了光场图像水平方向和竖直方向的斜率与深度的关系,从而建立光场图像斜率与深度的代价方程实现深度估计;当遮挡存在时,前景后景的斜率混杂,斜率计算错误将直接导致深度估计错误。传统的立体匹配算法利用各子孔径图像间的匹配一致性计算深度;然而,这类算法通常计算复杂度较高,而且由于光场相机各子孔径图像之间基线较短,匹配点可能位于分像素精度,导致无法满足算法匹配所需精度要求,因此该种方法所求得的深度结果质量较差。散焦分析算法则利用重聚焦过程中光场图像所包含的线索来估算深度;在对光场图像进行数字重聚焦的过程中,分析其在聚焦和散焦状态下表现的不同特点,选择能够准确描述该特点的深度线索,为不同线索定义不同的代价方程,通过最小化代价方程的形式来获取准确深度;但是该算法是在整个宏像素中进行一致性分析,当遮挡存在的情况下整个宏像素的视角不再来自同一物点,故一致性不再满足,导致结果并不准确。
综上所述,目前已有的深度估计方法对实际场景的深度估计的并不准确,错误经常出现在纹理稀少的平滑区域以及遮挡区域。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种基于滑动窗口张量提取的深度估计方法,能够获得准确性与一致性高、边界清晰的结果。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种基于滑动窗口张量提取的深度估计方法,包括以下步骤:
A1:输入光场图像,进行预处理及重聚焦操作,根据聚焦平面改变时宏像素内部的变化特点提取所述光场图像的聚焦张量;
A2:筛选出所述光场图像的遮挡区域,通过滑动窗口搜索的方式提取遮挡区域的聚焦张量;
A3:根据步骤A1提取的所述光场图像的聚焦张量和步骤A2中提取的遮挡区域的聚焦张量来进行初始深度估计,得到初始深度图;
A4:从所述光场图像中提取中心子孔径视角图像,根据所述光场图像的边界进行保边滤波;
A5:结合步骤A3中的初始深度图和步骤A4中的中心子孔径视角图像来建立全局优化模型,进行深度的全局优化。
优选地,步骤A1中对输入的光场图像进行预处理及重聚焦操作具体包括:对输入的光场图像进行光场矫正和数字重聚焦处理,其中通过下述数字重聚焦公式进行数字重聚焦处理:
Figure BDA0001744858570000021
其中α为预设的深度层次,x、y和u、v分别为图像平面的空间坐标和角度坐标。
优选地,步骤A1中根据聚焦平面改变时宏像素内部的变化特点提取所述光场图像的聚焦张量具体为采用下式提取所述光场图像的聚焦张量:
Figure BDA0001744858570000031
Figure BDA0001744858570000032
其中,p可取1至∞中任意数值,Nu、Nv分别为宏像素中水平和竖直方向的像素个数,x、y和u′、v′分别为空间坐标和角度坐标,Iα(x,y,u′,v′)为相应坐标(x,y,u′,v′)上的光场强度,
Figure BDA0001744858570000033
代表整个宏像素的平均像素值,ND(x,y)为所述光场图像的聚焦张量。
优选地,步骤A2中筛选出所述光场图像的遮挡区域具体采用熵值法:当步骤A1中计算得到的聚焦张量取最小值时,若此时宏像素熵值大于设定阈值,则判定为遮挡区域。
优选地,步骤A2中通过滑动窗口搜索的方式提取遮挡区域的聚焦张量具体包括:从起始点开始按照预定步长向预定方向依次分块搜索,提取每个分块的聚焦张量,直至搜索完遮挡区域的整个宏像素;再将所得的所有分块的聚焦张量进行比较,取最小值作为遮挡区域的聚焦张量。
优选地,其中步骤A2中通过滑动窗口搜索的方式提取遮挡区域的聚焦张量的过程中,整个宏像素分为相互重叠的若干个分块,互不干扰地进行搜索。
优选地,其中提取每个分块的聚焦张量按照下式进行:
Figure BDA0001744858570000034
Figure BDA0001744858570000035
其中,q可取1至∞中任意数值,Nus和Nvs分别为宏像素第s个分块中相应的水平和竖直视角个数,Iα(x,y,us′,vs′)为相应坐标(x,y,us′,vs′)上的光场强度,
Figure BDA0001744858570000036
为分块s的平均像素值,NDSs(x,y)为第s个分块的聚焦张量;
然后将所有分块的聚焦张量进行比较,提取遮挡区域的聚焦张量:
Figure BDA0001744858570000041
优选地,步骤A3中进行初始深度估计具体包括:
Figure BDA0001744858570000042
其中,α是预设的深度层次,COST(x,y)为每个宏像素的代价函数,表达式为:
Figure BDA0001744858570000043
其中,E(x,y)为宏像素熵值,δ为设定阈值,ND(x,y)为步骤A1提取的所述光场图像的聚焦张量,NDS(x,y)为步骤A2提取的遮挡区域的聚焦张量。
优选地,步骤A4中具体包括:从所述光场图像中提取各宏像素的中心值,各宏像素内各点记录了角度信息,提取各宏像素中心点所构成的图像为中心子孔径视角图像;然后对步骤A2中获取的初始深度图进行去噪滤波及保留边界。
优选地,步骤A5中结合初始深度图和中心子孔径视角图像来建立的全局优化模型为:
Figure BDA0001744858570000044
其中,α*(x,y)为α(x,y)的优化值,COST(x,y)为步骤A2中计算的每个宏像素的代价函数,||α(x,y)-α(x′,y′)||为局部平滑度,α(x′,y′)为α(x,y)的八邻域像素值,||α(x,y)-αr(x,y)||为数据保真度,αr(x,y)为步骤A2中计算所得的初始深度估计值,ω1和ω2为权重系数。
与现有技术相比,本发明的有益效果在于:本发明的深度估计方法充分利用光场相机采集的角度信息及空间信息,将图像中的平坦区域和遮挡区域区分处理,针对其不同特点提出自适应张量提取方式,能够获得准确性高的深度估计结果,主要体现在所提出的聚焦张量精度较高,能够保证平坦区域的深度准确性,同时由于利用滑动窗口搜索不同区域,可以减少遮挡物对整个宏像素一致性的影响,使得遮挡区域(深度突变)的深度细节更加丰富。
附图说明
图1是本发明优选实施例的基于滑动窗口张量提取的深度估计方法流程图;
图2是本发明优选实施例的滑动窗口搜索过程示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明优选实施例公开了一种基于滑动窗口张量提取的深度估计方法,包括以下步骤:
A1:输入由光场相机采集的光场数据,进行预处理及重聚焦操作,分析聚焦平面改变时宏像素内部的变化特点,提取聚焦张量;
其中,可以对输入的光场数据进行光场矫正和数字重聚焦处理,得到焦栈,即一系列聚焦平面相对相机由近及远变化的光场图像。在焦栈维度上,分析该系列图像随焦距的变化特征,获得能够用数学方式明显表现焦平面位置变化的张量,从而对场景深度信息进行初步估计。
具体地,光场图像的获取一般借助手持式光场相机如Lytro、Illum或者Raytrix等设备,由Lytro或者Illum得到的原始光场图像格式是lfp或者lfr,可以借助MATLAB光场工具包(不限于此方式)对数据进行解码,从而获得原始场景图像。其中每个宏像素记录实际场景中的一个点,成像对应相机微透镜阵列中的一个单元。故宏像素内部包含的各个角像素记录了相应场景点通过整个微透镜阵列投影的角度信息,并记录在了宏像素内各点,即相应微透镜所对应的多个传感器单元上。但此时的图像一般是灰度图,一般要进行Demosaic操作,从而将原始的宏像素为六边形的图像转化成为原始输入光场图像,宏像素为矩形。同时由于光场相机先拍照后对焦的特点,可以通过数字重聚焦公式(包括但不限于)进行光场图像重聚焦:
Figure BDA0001744858570000051
通过式(1)形成焦栈,即包含一系列相对相机由近及远聚焦的光场图像Lα(α=1,2,3,…)。其中α为预设的深度层次,x、y和u、v分别为图像平面的空间坐标和角度坐标。经过该步骤,得到一个完整焦栈。
在焦栈维度上,光场图像Lα(α=1,2,3,…)的聚焦平面由近及远变化时,分析得到场景点在图像平面投影所对应宏像素中的点一致性也随之变化,其中点一致性是指:当聚集在准确深度时,同一宏像素中,不同视角的像素点来自于同一物体,因此宏像素内的像素具有相等的强度;其聚焦张量提取方式如下:
Figure BDA0001744858570000061
Figure BDA0001744858570000062
其中p可取1至∞中任意数值,即聚焦张量为任意范数。公式(2)(3)中,Nu、Nv分别为宏像素中水平和竖直方向的像素个数,x、y和u′、v′分别为空间坐标和角度坐标,Iα(x,y,u′,v′)为相应坐标(x,y,u′,v′)上的光场强度;所求得
Figure BDA0001744858570000063
代表整个宏像素的平均像素值,ND(x,y)为该宏像素中的平均范数值,即所求的聚焦张量。
A2:利用熵值法筛选遮挡区域,针对其宏像素的特殊特点,通过滑动窗口搜索的方式提取相应聚焦张量;
其中聚焦张量满足光场图像大部分平坦区域的变化规律,但当存在遮挡的情况下,由于宏像素中一部分像素来自遮挡物,整个宏像素中点一致性不再满足,因此本实施例中将平坦区域与遮挡区域区分处理。在本实施例中,采用熵值法线索作为对平坦区域和非平坦区域的划分线索。在焦栈维度上,当步骤A1中所提出的ND(x,y)取得最小值时,由于平坦区域的宏像素中像素点来自同一场景点,故整个宏像素的熵值最小;而遮挡区域的宏像素中像素点来自两个甚至多个场景点,整个宏像素像素值分布较为丰富,熵值较大。因此,当ND(x,y)取得最小值时,计算相应深度层次上相应宏像素的熵值大小,作为对不同区域的划分。
具体地,聚焦张量满足大部分平坦区域的变化规律,但当遮挡存在的情况下,由于宏像素中一部分像素来自遮挡物,整个宏像素中点一致性不再满足。因此当聚焦张量取得最优值时,对应深度并不一定为正确结果。本实施例中提出使用熵值法区分平坦区域和遮挡区域。当聚焦张量取最小值时,若此时宏像素熵值大于设定阈值,则将其判定为遮挡区域,进行下一步对遮挡区域的单独计算。经过对遮挡区域像素进行分析发现,准确聚焦时其中仍有一部分像素点来自被遮挡物体,故该部分像素满足点一致性,由于不能准确得知该部分像素所在位置,故采用滑动窗口搜索的方法,寻找点一致性最小的区域,提取其张量值作为整个宏像素的聚焦张量。具体实施方法如下:
Figure BDA0001744858570000071
Figure BDA0001744858570000072
其中,q可取1至∞中任意数值;该实施过程将整个宏像素分为相互重叠的若干个分块,互不干扰地进行搜索。公式(4)、(5)中,Nus和Nvs分别为宏像素第s个分块中相应的水平和竖直视角个数,Iα(x,y,us′,vs′)为相应坐标(x,y,us′,vs′)上的光场强度,
Figure BDA0001744858570000073
为分块s的平均像素值,NDSs(x,y)为第s个分块的平均范数值,也即第s个分块的聚焦张量。
如图2所示,该搜索方式从左上角开始依次分块搜索,每个分块的大小为窗口尺寸W的数值。对一个分块搜索完成后,窗口向右或向下移动一个步长S,并以此时所在的位置重新作为下一个分块的左上角进行搜索,循环往复,直至搜索完整个宏像素。搜索完成后,将所得的所有分块的聚焦张量(NDSs(x,y))进行比较取最小值作为整个宏像素的聚焦张量进行计算,也即将所有分块的聚焦张量进行比较,提取遮挡区域的聚焦张量:
Figure BDA0001744858570000074
A3:根据步骤A1提取的光场图像的聚焦张量和步骤A2中提取的遮挡区域的聚焦张量来进行初始深度估计,得到初始深度图;
最终,每个宏像素的代价函数定义为:
Figure BDA0001744858570000075
其中,E(x,y)为宏像素熵值,δ为设定的阈值,ND(x,y)为步骤A1提取的所述光场图像的聚焦张量,NDS(x,y)为步骤A2提取的遮挡区域的聚焦张量。
根据光场成像原理分析可知,当场景点恰好被准确聚焦时,其对应宏像素一致性最高,相应的张量——范数最小,场景深度的初始估计如下:
Figure BDA0001744858570000081
A4:从输入光场图像中提取中心子孔径视角图像,根据其边界进行保边滤波;
具体地,从输入光场图像LF中提取各宏像素的中心值,依照步骤A1所述,宏像素内各点记录了角度信息,因此各宏像素中心点所构成的图像即对应中心子孔径纹理图。利用代价函数联合中心子孔径纹理图的梯度信息对获取的初始深度图进行去噪滤波,保留边界,使得处理后的深度图边缘更加平滑,保留更为丰富的信息。
A5:建立多标签的优化模型,进行深度的全局优化。
由于前述步骤仅使用局部特征进行深度估计,因此需要通过全局优化来利用准确性高的深度估计修正不准确的深度值,以提升同质区域深度估计的一致性并保留清晰的边界特征。因此,建立包含代价函数、数据保真度和局部平滑度等多标签的优化模型,进行深度的全局优化。全局优化模型如下所示:
Figure BDA0001744858570000082
其中,α*(x,y)为α(x,y)的优化值,COST(x,y)即为步骤A2中定义的每个宏像素的代价函数,||α(x,y)-α(x′,y′)||为局部平滑度,α(x′,y′)为α(x,y)的八邻域像素值,此项保证了像素周边的平滑性,避免了噪声及空洞现象的出现;||α(x,y)-αr(x,y)||为数据保真度,αr(x,y)为步骤A2中计算所得的初始深度估计值,该项使得最终所求深度在满足前两项的条件下,尽可能接近初始深度估计值;ω1和ω2为权重系数,分别控制局部平滑度和数据保真度的相对权重。
在本实施例中,以步骤A2中获取的初始深度图和步骤A4中提取的中心子孔径图像作为输入,利用上述的优化模型,借助但不局限于图割(Graph Cut)进行全局优化,利用准确性高的深度估计值修正准确性低的深度值,提升同质区域深度估计的一致性并保留清晰的边界特征。
本发明的深度估计方法对宏像素作分块处理,在每一个分块中进行点一致性分析,以此提高遮挡区域聚焦张量提取的准确性;也即根据像素遮挡与否进行分类,并依此分类对宏像素进行相应的聚焦张量提取,以获得准确性与一致性高、边界清晰的结果。
本发明提出了一种新张量估算场景深度,对于平坦区域,该张量与变化的聚焦平面具有强相关性;对于遮挡区域,则通过滑动窗口搜索法找到相应聚焦区域,利用该张量进行进一步分析;在初始深度估计完成后,进行后续优化处理:保留初始估计优势的同时弥补缺陷;优化后的深度图的细节信息更加丰富,边界特征更加清晰。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (9)

1.一种基于滑动窗口张量提取的深度估计方法,其特征在于,包括以下步骤:
A1:输入光场图像,进行预处理及重聚焦操作,根据聚焦平面改变时宏像素内部的变化特点提取所述光场图像的聚焦张量;
A2:筛选出所述光场图像的遮挡区域,通过滑动窗口搜索的方式提取遮挡区域的聚焦张量,其中通过滑动窗口搜索的方式提取遮挡区域的聚焦张量具体包括:从起始点开始按照预定步长向预定方向依次分块搜索,提取每个分块的聚焦张量,直至搜索完遮挡区域的整个宏像素;再将所得的所有分块的聚焦张量进行比较,取最小值作为遮挡区域的聚焦张量;
A3:根据步骤A1提取的所述光场图像的聚焦张量和步骤A2中提取的遮挡区域的聚焦张量来进行初始深度估计,得到初始深度图;
A4:从所述光场图像中提取中心子孔径视角图像,根据所述光场图像的边界进行保边滤波;
A5:结合步骤A3中的初始深度图和步骤A4中的中心子孔径视角图像来建立全局优化模型,进行深度的全局优化。
2.根据权利要求1所述的深度估计方法,其特征在于,步骤A1中对输入的光场图像进行预处理及重聚焦操作具体包括:对输入的光场图像进行光场矫正和数字重聚焦处理,其中通过下述数字重聚焦公式进行数字重聚焦处理:
Figure FDA0002722785230000011
其中α为预设的深度层次,x、y和u、v分别为图像平面的空间坐标和角度坐标。
3.根据权利要求1所述的深度估计方法,其特征在于,步骤A1中根据聚焦平面改变时宏像素内部的变化特点提取所述光场图像的聚焦张量具体为采用下式提取所述光场图像的聚焦张量:
Figure FDA0002722785230000012
Figure FDA0002722785230000013
其中,p可取1至∞中任意数值,Nu、Nv分别为宏像素中水平和竖直方向的像素个数,x、y和u′、v′分别为空间坐标和角度坐标,Iα(x,y,u′,v′)为相应坐标(x,y,u′,v′)上的光场强度,
Figure FDA0002722785230000021
代表整个宏像素的平均像素值,ND(x,y)为所述光场图像的聚焦张量。
4.根据权利要求1所述的深度估计方法,其特征在于,步骤A2中筛选出所述光场图像的遮挡区域具体采用熵值法:当步骤A1中计算得到的聚焦张量取最小值时,若此时宏像素熵值大于设定阈值,则判定为遮挡区域。
5.根据权利要求1所述的深度估计方法,其特征在于,其中步骤A2中通过滑动窗口搜索的方式提取遮挡区域的聚焦张量的过程中,整个宏像素分为相互重叠的若干个分块,互不干扰地进行搜索。
6.根据权利要求1所述的深度估计方法,其特征在于,其中提取每个分块的聚焦张量按照下式进行:
Figure FDA0002722785230000022
Figure FDA0002722785230000023
其中,q可取1至∞中任意数值,Nus和Nvs分别为宏像素第s个分块中相应的水平和竖直视角个数,Iα(x,y,us′,vs′)为相应坐标(x,y,us′,vs′)上的光场强度,
Figure FDA0002722785230000024
为分块s的平均像素值,NDSs(x,y)为第s个分块的聚焦张量;
然后将所有分块的聚焦张量进行比较,提取遮挡区域的聚焦张量:
Figure FDA0002722785230000025
7.根据权利要求1所述的深度估计方法,其特征在于,步骤A3中进行初始深度估计具体包括:
Figure FDA0002722785230000026
其中,α是预设的深度层次,COST(x,y)为每个宏像素的代价函数,表达式为:
Figure FDA0002722785230000031
其中,E(x,y)为宏像素熵值,δ为设定阈值,ND(x,y)为步骤A1提取的所述光场图像的聚焦张量,NDS(x,y)为步骤A2提取的遮挡区域的聚焦张量。
8.根据权利要求1所述的深度估计方法,其特征在于,步骤A4中具体包括:从所述光场图像中提取各宏像素的中心值,各宏像素内各点记录了角度信息,提取各宏像素中心点所构成的图像为中心子孔径视角图像;然后对步骤A3中获取的初始深度图进行去噪滤波及保留边界。
9.根据权利要求7所述的深度估计方法,其特征在于,步骤A5中结合初始深度图和中心子孔径视角图像来建立的全局优化模型为:
Figure FDA0002722785230000032
其中,α*(x,y)为α(x,y)的优化值,COST(x,y)为步骤A3中计算的每个宏像素的代价函数,||α(x,y)-α(x′,y′)||为局部平滑度,α(x′,y′)为α(x,y)的八邻域像素值,||α(x,y)-αr(x,y)||为数据保真度,αr(x,y)为步骤A3中计算所得的初始深度估计值,ω1和ω2为权重系数。
CN201810837461.2A 2018-07-26 2018-07-26 一种基于滑动窗口张量提取的深度估计方法 Active CN109064505B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810837461.2A CN109064505B (zh) 2018-07-26 2018-07-26 一种基于滑动窗口张量提取的深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810837461.2A CN109064505B (zh) 2018-07-26 2018-07-26 一种基于滑动窗口张量提取的深度估计方法

Publications (2)

Publication Number Publication Date
CN109064505A CN109064505A (zh) 2018-12-21
CN109064505B true CN109064505B (zh) 2020-12-25

Family

ID=64836704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810837461.2A Active CN109064505B (zh) 2018-07-26 2018-07-26 一种基于滑动窗口张量提取的深度估计方法

Country Status (1)

Country Link
CN (1) CN109064505B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993764B (zh) * 2019-04-03 2021-02-19 清华大学深圳研究生院 一种基于频域能量分布的光场深度估计方法
CN111260712B (zh) * 2020-02-07 2023-05-23 清华大学深圳国际研究生院 一种基于重聚焦极线图邻域分布的深度估计方法和装置
CN111325763B (zh) * 2020-02-07 2023-04-07 清华大学深圳国际研究生院 一种基于光场重聚焦的遮挡预测方法和装置
CN112288669B (zh) * 2020-11-08 2024-01-19 西北工业大学 一种基于光场成像的点云地图获取方法
CN112884645B (zh) * 2021-01-18 2024-05-03 北京工业大学 基于张量稀疏约束的光场填充方法及装置
CN112967242B (zh) * 2021-02-26 2023-07-04 北京信息科技大学 一种基于视觉特征聚合的光场质量评价方法
CN114897952B (zh) * 2022-05-30 2023-04-04 中国测绘科学研究院 一种自适应遮挡的单张光场影像准确深度估计方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899870A (zh) * 2015-05-15 2015-09-09 清华大学深圳研究生院 基于光场数据分布的深度估计方法
CN106384338A (zh) * 2016-09-13 2017-02-08 清华大学深圳研究生院 一种基于形态学的光场深度图像的增强方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014043641A1 (en) * 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899870A (zh) * 2015-05-15 2015-09-09 清华大学深圳研究生院 基于光场数据分布的深度估计方法
CN106384338A (zh) * 2016-09-13 2017-02-08 清华大学深圳研究生院 一种基于形态学的光场深度图像的增强方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于光场相机的深度图像生成技术研究;牛朦朦;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215;第42-46页 *

Also Published As

Publication number Publication date
CN109064505A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
CN109064505B (zh) 一种基于滑动窗口张量提取的深度估计方法
CN110036410B (zh) 用于从视图中获得距离信息的设备和方法
CN110248096B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
Konrad et al. Learning-based, automatic 2D-to-3D image and video conversion
CN107516319B (zh) 一种高精度简易交互式抠图方法、存储设备及终端
CN105279372B (zh) 一种确定建筑物高度的方法和装置
EP3158532B1 (en) Local adaptive histogram equalization
US10621729B2 (en) Adaptive focus sweep techniques for foreground/background separation
EP2947627B1 (en) Light field image depth estimation
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
CN111164647A (zh) 使用单个相机估算深度
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
EP3371741B1 (en) Focus detection
JP2015502058A (ja) マルチスペクトル撮像システム
EP2757789A1 (en) Image processing system, image processing method, and image processing program
Agrafiotis et al. Underwater photogrammetry in very shallow waters: main challenges and caustics effect removal
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
JP2012208597A (ja) パターン識別装置、パターン識別方法及びプログラム
EP3026631A1 (en) Method and apparatus for estimating depth of focused plenoptic data
CN109949354B (zh) 一种基于全卷积神经网络的光场深度信息估计方法
CN109001902A (zh) 基于图像融合的显微镜聚焦方法
KR20160149160A (ko) 라이트필드 데이터베이스에서의 데이터 취출을 위한 방법 및 장치
JP6285686B2 (ja) 視差画像生成装置
CN106973199A (zh) 利用对焦距离扫描提高深度精确度的多光圈相机系统
Mathai et al. Automatic 2D to 3D video and image conversion based on global depth map

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant