CN109615650B - 一种基于变分法和遮挡互补的光场流估计方法 - Google Patents
一种基于变分法和遮挡互补的光场流估计方法 Download PDFInfo
- Publication number
- CN109615650B CN109615650B CN201811395639.9A CN201811395639A CN109615650B CN 109615650 B CN109615650 B CN 109615650B CN 201811395639 A CN201811395639 A CN 201811395639A CN 109615650 B CN109615650 B CN 109615650B
- Authority
- CN
- China
- Prior art keywords
- field flow
- light field
- flow
- image
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于变分法和遮挡互补的光场流估计方法。该方法基于变分法的光流算法,创造性地把光场深度参数直接代入光流计算公式中,从而建立一种变分光场流模型即光场的深度流模型并对多帧子光圈图像进行光场流估计。并且利用超松弛(SOR)迭代求出光场流,提高了算法的效率。同时,利用多分辨率光场流计算(包括金字塔构建和光场流逐层计算),对所得结果进行进一步的优化,在降低了算法复杂度的同时,提高了光场图像深度估计的精度。本发明利用图像变换和光场子光圈阵列的遮挡互补特点得到一系列的初始光场流,最后对其结果进行平均值优化即获得最终的光场流。
Description
技术领域
本发明属于光场成像技术领域,具体涉及一种基于变分法和遮挡互补的光场流估计方法。
背景技术
现实世界场景的信息包含了三个维度:宽度、长度和深度。如何准确地从已知的二维平面图像信息中提取深度信息一直是研究的难点。国内外许多学者进行了这方面的研究。主要方法可以分为两种:一种是基于散焦图像的深度估计,通过散焦程度不同的多幅图像计算景物的景深;另一种是通过计算显微图像信息的频域特征间接计算深度。
基于散焦图像的深度估计有双目深度估计和多目深度估计,其中双目深度的算法有双目视差估计算法,该算法利用两台相机分别对一个目标进行拍照,通过几何原理计算视差值,最后转换为深度值。该方法的优点是计算简单,缺点是只能利用两幅散焦图像,计算结果不够精准。多目深度估计有基于光场图像的深度估计算法,光场相机可以同时拍摄得到多幅散焦图像,通过散焦图像之间的整体视差计算出深度信息。该方法的优点是计算结果比较精确,缺点是计算量大。通过显微频域特征计算深度的方法通过计算微操作空间中的X-Y平面的散焦图像特征获得在Z方向的深度信息和运动特征。该方法的优点是实时性比较好,缺点是对机械手的制作技术要求比较高。
基于数字重聚焦的深度估计是利用光场数字重聚焦的优势,通过对重聚焦图像进行聚焦性检测来提取深度信息。例如Tao等人首次结合散焦(defocus)和相关性(correspondence)等线索提取重聚焦图像中的局部深度图,再利用马尔科夫随机场(Markov Random Field,MRF)对二者融合获得最终深度图。进一步,他们利用角度相干性(angular coherence)构造新的散焦和相关性线索,同时引入阴影(shading)和光照(lighting)线索约束并校正深度图,最后通过非线性最小二乘法进行优化,提升了深度估计的准确性。但是这两种方法仅仅适合简单近距离场景深度估计,对于遮挡、远距离场景目标深度估计会产生较大误差。
基于多视角立体匹配的深度估计充分利用了光场多视角图像的颜色一致性,与传统立体匹配方法类似,该方法通过构造成本量(Cost Volume)来获取深度信息。例如,Yu等人充分利用光线辐射空间中3D直线几何结构,以3D直线作为约束条件,引入直线辅助图像分割(Line Assisted Graph Cut,LAGC)算法提取深度信息。然而,当场景存在严重遮挡时,该3D直线就会被分割成小而不连续的断线,从而导致深度估计误差增大。Jeon等人首先明确解决了光场深度估计中窄基线问题,利用傅里叶变换中的相移理论获得微透镜阵列之间的亚像素位移,将中心视角作为参考视角与其他视角进行立体匹配,然后利用图割优化算法进行多标签优化,最终通过迭代优化将离散深度图转换成连续的深度图。该方法尽管深度提取精度较高,但需要对每个多视角图像分别构造成本函数,时间复杂度高,且无法处理遮挡问题。
发明内容
本发明的目的是提供一种基于变分法和遮挡互补的光场流估计方法。该方法基于变分法的光流算法,创造性地把光场深度参数直接代入光流计算公式中,从而建立一种变分光场流模型即光场的深度流模型并对多帧子光圈图像进行光场流估计。并且利用超松弛(SOR)迭代求出光场流,提高了算法的效率。同时,利用多分辨率光场流计算(包括金字塔构建和光场流逐层计算),对所得结果进行进一步的优化,在降低了算法复杂度的同时,提高了光场图像深度估计的精度。利用图像变换和光场子光圈阵列的遮挡互补特点得到一系列的初始光场流,最后对其结果进行平均值优化即获得最终的光场流。
为实现上述目的,本发明的技术方案包括以下步骤:
S1、结合变分光流法构造光场流模型,包括能量数据项与平滑项模型;
S2、光场流的能量泛函的极小化;
S3、多分辨率光场流计算;
S4、使用所述的光场流模型估计子光圈图像的光场流;
S5、利用图像变换和遮挡互补特点得到初始光场流;
S6、平均值优化。
作为优选,步骤S1中,所述的结合变分光流法构造光场流模型,具体包括:
S11、光场流模型数据项的构建,其中数据项包含两种假设模型,一种是光场流的灰度一致性假设模型:
LF(x,y,u0,v0)=LF(x+βdu,y+βdv,u0+du,v0+dv) (1)
其中,(du,dv)表示其它任意一个子光圈图像的角度坐标(u,v)与中心子光圈图像的角度坐标(u0,v0)之差,β表示视差,也是所要求得的光场流。LF(x,y,u0,v0)表示光场图像序列的中心子光圈图像数据,其中u0,v0分别代表光场序列图像的横纵坐标的中值,x,y分别代表中心子光圈图像上点(x,y)的横纵坐标;
S12、光场流能量模型数据项所包含的另一种假设模型即光场流的梯度恒常假设:
▽LF(x,y,u0,v0)=▽LF(x+βdu,y+βdv,u0+du,v0+dv) (2)
S13、光场深度流数据项edata为:
因此,光场深度流数据项可表示为:
S14、光场深度流平滑项esmooth为:
S15、光场流能量模型:
E=∫∫(edata+αesmooth)dxdy (6)
这里的α表示数据项与平滑项的权重值。
作为优选步骤S2中,光场流的能量泛函的极小化具体包括:
S21、对S15中的式(6)通过变分极小化可得到对应拉格朗日-欧拉方程:
因此,可得光场流方程:
S22、基于S21中的光场流方程,可以利用SOR(successive over relaxation)超松弛迭代求出光场流。其迭代方程为:
作为优选步骤S3中,多分辨率光场流计算方法分为两部分,即金字塔的构建及深度流的逐层计算。通过构建金字塔得到一系列具有不同分辨率的图像,此过程包括降采样和滤波处理。深度流的逐层计算从分辨率最低的图像开始,并逐层向分辨率较高的图像层进行映射。具体包括:
S31、金字塔采样因子是指当前分辨率层与高分辨率层图像行或列的比值,传统的多分辨率计算方法多采用基于采样因子为0.5的图像金字塔进行,即隔行隔列采样,这种分层方法不够细致,跨度较大,容易在层间映射过程中陷入局部极值,引入较大误差。本文选取的采样因子的范围为η∈(0,1),通过增加金字塔层数来提高深度流的计算精度。
S32、利用图像金字塔进行深度流层间映射的过程中,为了在每一层都能获得高质量的深度流初值,也即避免由低分辨率到高分辨率图像层进行映射的过程中存在的非整数坐标位置的插值问题,本文使用了双三次插值的处理方法。
S33、进行深度流层间映射的过程中需要利用图像变换对双三次插值后的结果作为当前层深度流的计算结果即初值,直到计算出最后一层的值,此过程可使像素位移进一步降低。此过程需要对图像变换后所得到的新的图像重新计算其时空导数。
作为优选步骤S4中,将选取的中心子光圈图像LF(x,y,u0,v0)与其他所有子光圈图像LF(x,y,u,v)作为光场流模型的输入,此算法输出的一系列β值即为光场流结果。
作为优选步骤S5中,利用图像变换和遮挡互补特点得到初始光场流。具体包括:
S51、图像变换指的是将光场流计算过程中选取的两幅图像中的第二幅图像利用光场流初始值对第一幅图像进行变换逼近,那么光场流的成本代价定义为第一幅图像与经过变换的图像之间的差值,其差值越小,则表明选取这两帧子光圈图像进行光场流估计的结果越精确。
S52、遮挡互补很指的是如果像素点在某一个视图中被遮挡,那么其在与该视图成中心对称的另一视图中则几乎不会被遮挡。
S53、首先需要估计出中心子光圈图像和其余视图的子光圈图像之间的光场流,其中参与光场流估计的子光圈图像是在子光圈图像阵列中,以中心子光圈图像为中心位置,且处于一行、一列和对角位置的子光圈图像。然后,利用图像变换和遮挡互补特点选取精确光场流。最后,构建出基于变分法和遮挡互补的光场流框架,进行最终的光场流估计。
作为优选步骤S6中,平均值优化。具体包括:
S61:选取7*7幅光场子光圈图像,首先求出任意一幅子光圈图像与中心子光圈图像之间的光流u,即将得到84个光流值,可表示为u1,u2,u3,...u84。
S62:光场流结果的优化,优化过程表示为如下:
(1)读取84个光流值u1,u2,u3,...u84;
(2)求出光流值的均值mean和方差var;
(3)循环遍历84个光场流值,并判断:如果|ui-mean|<3var,则ui保留,否则删除ui;
(4)返回执行步骤(2),直到ui不再被删除;
(5)最终求出的mean即为最优光场流解。
本发明有益效果如下:
本发明的基于变分法和遮挡互补的光场流模型,相比于现有的光场深度估计算法,具有以下有益效果:
首先,该方法基于变分光流算法,创造性地把深度参数直接代入变分计算公式中,从而建立一种光场流模型即光场的深度流模型,此方法简单可行。
其次,利用超松弛迭代求出深度流,提高了算法的效率。
最后,利用多分辨率光场流计算(包括金字塔构建和光场流逐层计算),对所得结果进行进一步的优化,在降低了算法复杂度的同时,提高了光场图像深度估计的精确度。
附图说明
图1为本发明基于变分法的光场流模型的流程图;
图2(a)为模型中各模块所使用的具体方法。
图2(b)为模型中各模块所使用的具体方法。
图2(c)为模型中各模块所使用的具体方法。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明作进一步详细说明。
参考图1,参考图2,在本发明的较佳实施例中,一种基于变分法和遮挡互补的光场流估计模型,包括以下步骤:
步骤S1:结合变分光流算法构造光场流模型(包括能量数据项与平滑项模型),具体包括:
S11光场流能量模型数据项的构建,其中数据项包含两种假设模型,其一,光场流的灰度一致性假设模型:
LF(x,y,u0,v0)=LF(x+βdu,y+βdv,u0+du,v0+dv)
其中(du,dv)表示其它任意一个子光圈图像的角度坐标(u,v)与中心子光圈图像的角度坐标(u0,v0)之差,β表示视差,也是所要求得的深度流。LF(x,y,u0,v0)表示光场图像序列的中心子光圈图像数据,其中u0,v0代表光场序列图像的横纵坐标的中值,x,y代表中心子光圈图像上点(x,y)的横纵坐标;
S12光场流能量模型数据项所包含的另一种假设模型即光场流的梯度恒常假设:
▽LF(x,y,u0,v0)=▽LF(x+βdu,y+βdv,u0+du,v0+dv)
S13光场深度流数据项edata为:
因此,光场深度流数据项可表示为:
S14光场深度流平滑项esmooth为:
S15光场流能量模型:
E=∫∫(edata+αesmooth)dxdy
这里的α表示数据项与平滑项的权重值。
步骤2:光场流的能量泛函的极小化,具体包括:
S21对S15中的式(6)通过变分极小化可得到对应拉格朗日-欧拉方程:
因此,可得深度流方程:
S22基于S21中的深度流方程,可以利用SOR(successive over relaxation)超松弛迭代求出光场深度流。其迭代方程为:
步骤3:多分辨率光场流计算方法分为两部分,即金字塔的构建及深度流的逐层计算。通过构建金字塔得到一系列具有不同分辨率的图像,此过程包括降采样(downsampling)和滤波处理(filtering)。深度流的逐层计算从分辨率最低的图像开始,并逐层向分辨率较高的图像层进行映射(warping)。具体包括:
S31金字塔采样因子是指当前分辨率层与高分辨率层图像行或列的比值,传统的多分辨率计算方法多采用基于采样因子为0.5的图像金字塔进行,即隔行隔列采样,这种分层方法不够细致,跨度较大,容易在层间映射过程中陷入局部极值,引入较大误差。本文选取的采样因子的范围为η∈(0,1),通过增加金字塔层数来提高深度流的计算精度。
S32利用图像金字塔进行深度流层间映射的过程中,为了在每一层都能获得高质量的深度流初值,也即避免由低分辨率到高分辨率图像层进行映射的过程中存在的非整数坐标位置的插值问题,本文使用了双三次插值的处理方法。
S33进行深度流层间映射的过程中需要利用图像变换对双三次插值后的结果作为当前层深度流的计算结果即初值,直到计算出最后一层的值,此过程可使像素位移进一步降低。此过程需要对图像变换后所得到的新的图像重新计算其时空导数。
步骤4:将选取的中心子光圈图像LF(x,y,u0,v0)与其他子光圈图像LF(x,y,u,v)作为光场流模型的输入(省去高斯平滑,超松弛迭代及建立图像金字塔),此算法输出的β即为光场流。
步骤5:利用图像变换和遮挡互补特点得到初始光场流。具体包括:
S51图像变换指的是将光场流计算过程中选取的两幅图像中的第二幅图像利用光场流初始值对第一幅图像进行变换逼近,那么光场流的成本代价定义为第一幅图像与经过变换的图像之间的差值,其差值越小,则表明选取这两帧子光圈图像进行光场流估计的结果越精确。
S52遮挡互补很指的是如果像素点在某一个视图中被遮挡,那么其在与该视图成中心对称的另一视图中则几乎不会被遮挡。
S53首先需要估计出中心子光圈图像和其余视图的子光圈图像之间的光场流,其中参与光场流估计的子光圈图像是在子光圈图像阵列中,以中心子光圈图像为中心位置,且处于一行、一列和对角位置的子光圈图像。然后,利用图像变换和遮挡互补特点选取精确光场流。最后,构建出基于变分法和遮挡互补的光场流框架,进行最终的光场流估计。
步骤6:平均值优化。具体包括:
S61选取7*7幅光场子光圈图像,首先求出任意一幅子光圈图像与中心子光圈图像之间的光流u,即将得到84个光流值,可表示为u1,u2,u3,...u84。
S62光场流结果的优化,优化过程可用伪代码表示为如下的(1)~(5):
(1)读取84个光流值u1,u2,u3,...u84;
(2)求出其均值mean和方差var;
(3)循环遍历84个光场流值,并判断:如果|ui-mean|<3var,则ui保留,否则删除ui;
(4)返回执行步骤2中的(2),直到ui不再被删除;
(5)最终求出的mean即为最优光场流解。
上述实施例中,本发明的光场流估计方法首先基于变分光流算法,把光场的深度参数直接代入光流计算公式中,从而建立一种光场流模型即光场的深度流模型并对子光圈图像进行深度估计。并且利用超松弛(SOR)迭代求出深度流。同时,利用多分辨率光场流计算(包括金字塔构建和光场流逐层计算),对所得结果进行进一步的优化。
Claims (6)
1.一种基于变分法和遮挡互补的光场流估计方法,该方法基于变分法的光流算法,将光场深度参数直接代入光流计算公式中,从而建立一种变分光场流模型即光场的深度流模型,并对多帧子光圈图像进行光场流估计;同时利用超松弛迭代求出光场流,并利用多分辨率光场流计算,对所得结果进行进一步的优化,其特征在于具体包括如下步骤:
S1、结合变分光流法构造光场流模型,包括能量数据项与平滑项模型;
S2、光场流的能量泛函的极小化;
S3、多分辨率光场流计算;
S4、使用所述的光场流模型估计子光圈图像的光场流;
S5、利用图像变换和遮挡互补特点得到初始光场流;
S6、平均值优化;
步骤S1中所述的结合变分光流法构造光场流模型,具体包括:
S11、光场流模型数据项的构建,其中数据项包含两种假设模型,一种是光场流的灰度一致性假设模型:
LF(x,y,u0,v0)=LF(x+βdu,y+βdv,u0+du,v0+dv) (1)
其中,(du,dv)表示其它任意一个子光圈图像的角度坐标(u,v)与中心子光圈图像的角度坐标(u0,v0)之差,β表示视差,也是所要求得的光场流;LF(x,y,u0,v0)表示光场图像序列的中心子光圈图像数据,其中u0,v0分别代表光场序列图像的横纵坐标的中值,x,y代表中心子光圈图像上点(x,y)的横纵坐标;
S12、光场流模型数据项所包含的另一种假设模型即光场流的梯度恒常假设:
S13、光场深度流数据项edata为:
Iz=LF(x+βdu,y+βdv,u0+du,v0+dv)-LF(x,y,u0,v0)
因此,光场深度流数据项可表示为:
S14、光场深度流平滑项esmooth为:
S15、光场流模型:
E=∫∫(edata+αesmooth)dxdy (6)
这里的α表示数据项与平滑项的权重值。
3.根据权利要求2所述的一种基于变分法和遮挡互补的光场流估计方法,其特征在于步骤S3中多分辨率光场流计算方法包括两部分:金字塔的构建及深度流的逐层计算;通过构建金字塔得到一系列具有不同分辨率的图像,此过程包括降采样和滤波处理;深度流的逐层计算从分辨率最低的图像开始,并逐层向分辨率较高的图像层进行映射;具体包括:
S31、金字塔采样因子是指当前分辨率层与高分辨率层图像行或列的比值,将采样因子的选取范围定为η∈(0,1),通过增加金字塔层数来提高深度流的计算精度;
S32、图像金字塔进行深度流层间映射的过程中,使用双三次插值的处理方法;
S33、进行深度流层间映射的过程中,将图像变换对双三次插值后的结果作为当前层深度流的计算结果即初值,直到计算出最后一层的值,此过程需要对图像变换后所得到的新的图像重新计算其时空导数。
4.根据权利要求3所述的一种基于变分法和遮挡互补的光场流估计方法,其特征在于步骤S4所述的光场流模型估计子光圈图像的光场流,具体将选取的中心子光圈图像LF(x,y,u0,v0)与其他所有子光圈图像LF(x,y,u,v)作为光场流模型的输入,此算法输出的一系列β值即为光场流结果。
5.根据权利要求4所述的一种基于变分法和遮挡互补的光场流估计方法,其特征在于步骤S5所述的利用图像变换和遮挡互补特点得到初始光场流,具体包括:
图像变换指的是将光场流计算过程中选取的两幅图像中的第二幅图像利用光场流初始值对第一幅图像进行变换逼近,那么光场流的成本代价定义为第一幅图像与经过变换的图像之间的差值,其差值越小,则表明选取这两帧子光圈图像进行光场流估计的结果越精确;
遮挡互补指的是如果像素点在某一个视图中被遮挡,那么其在与该视图成中心对称的另一视图中则几乎不会被遮挡;
首先需要估计出中心子光圈图像和其余视图的子光圈图像之间的光场流,其中参与光场流估计的子光圈图像是在子光圈图像阵列中,以中心子光圈图像为中心位置,且处于一行、一列和对角位置的子光圈图像;然后,利用图像变换和遮挡互补特点选取精确光场流;最后,构建出基于变分法和遮挡互补的光场流框架,进行最终的光场流估计。
6.根据权利要求5所述的一种基于变分法和遮挡互补的光场流估计方法,其特征在于步骤S6所述的平均值优化,具体包括:
S61:选取7*7幅光场子光圈图像,首先求出任意一幅子光圈图像与中心子光圈图像之间的光流u,即将得到84个光流值,表示为u1,u2,u3,...u84;
S62:光场流结果的优化,优化过程表示为如下:
(1)读取84个光流值u1,u2,u3,...u84;
(2)求出光流值的均值mean和方差var;
(3)循环遍历84个光场流值,并判断:如果|ui-mean|<3var,则ui保留,否则删除ui;
(4)返回执行步骤(2),直到ui不再被删除;
(5)最终求出的mean即为最优光场流解。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811395639.9A CN109615650B (zh) | 2018-11-22 | 2018-11-22 | 一种基于变分法和遮挡互补的光场流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811395639.9A CN109615650B (zh) | 2018-11-22 | 2018-11-22 | 一种基于变分法和遮挡互补的光场流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109615650A CN109615650A (zh) | 2019-04-12 |
CN109615650B true CN109615650B (zh) | 2022-11-25 |
Family
ID=66003751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811395639.9A Active CN109615650B (zh) | 2018-11-22 | 2018-11-22 | 一种基于变分法和遮挡互补的光场流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109615650B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223328A (zh) * | 2019-05-14 | 2019-09-10 | 焦作大学 | 一种基于物理学的改善粒子图像测速稳健性光流方法 |
CN112001991B (zh) * | 2020-10-27 | 2021-01-26 | 中国空气动力研究与发展中心高速空气动力研究所 | 一种高速风洞动态油流图谱图像处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016184099A1 (zh) * | 2015-05-15 | 2016-11-24 | 清华大学深圳研究生院 | 基于光场数据分布的深度估计方法 |
CN107065866A (zh) * | 2017-03-24 | 2017-08-18 | 北京工业大学 | 一种基于改进光流算法的移动机器人导航方法 |
CN108090920A (zh) * | 2017-12-14 | 2018-05-29 | 浙江工商大学 | 一种新的光场图像深度流估计方法 |
-
2018
- 2018-11-22 CN CN201811395639.9A patent/CN109615650B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016184099A1 (zh) * | 2015-05-15 | 2016-11-24 | 清华大学深圳研究生院 | 基于光场数据分布的深度估计方法 |
CN107065866A (zh) * | 2017-03-24 | 2017-08-18 | 北京工业大学 | 一种基于改进光流算法的移动机器人导航方法 |
CN108090920A (zh) * | 2017-12-14 | 2018-05-29 | 浙江工商大学 | 一种新的光场图像深度流估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109615650A (zh) | 2019-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108074218B (zh) | 基于光场采集装置的图像超分辨率方法及装置 | |
CN107977997B (zh) | 一种结合激光雷达三维点云数据的相机自标定方法 | |
Gallo et al. | 3D reconstruction of small sized objects from a sequence of multi-focused images | |
US8860833B2 (en) | Blended rendering of focused plenoptic camera data | |
CN110120071B (zh) | 一种面向光场图像的深度估计方法 | |
CN111126148A (zh) | 一种基于视频卫星影像的dsm生成方法 | |
US8867826B2 (en) | Disparity estimation for misaligned stereo image pairs | |
CN108564620B (zh) | 一种针对光场阵列相机的场景深度估计方法 | |
CN106056622B (zh) | 一种基于Kinect相机的多视点深度视频复原方法 | |
CN109615650B (zh) | 一种基于变分法和遮挡互补的光场流估计方法 | |
CN104240229B (zh) | 一种红外双目相机自适应极线校正方法 | |
CN109949354A (zh) | 一种基于全卷积神经网络的光场深度信息估计方法 | |
CN116958437A (zh) | 融合注意力机制的多视图重建方法及系统 | |
Gao et al. | A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images | |
CN111369443B (zh) | 光场跨尺度的零次学习超分辨率方法 | |
CN111598775B (zh) | 基于lstm网络的光场视频时域超分辨重建方法 | |
CN113705796A (zh) | 基于epi特征强化的光场深度获取卷积神经网络 | |
CN115375745A (zh) | 基于偏振微透镜光场影像视差角的绝对深度测量方法 | |
CN111429571A (zh) | 一种基于时空图像信息联合相关的快速立体匹配方法 | |
CN111583330A (zh) | 一种多尺度时空马尔可夫遥感影像亚像元定位方法及系统 | |
CN108090920B (zh) | 一种光场图像深度流估计方法 | |
CN114255279A (zh) | 一种基于高精度定位和深度学习的双目视觉三维重建方法 | |
CN114998532B (zh) | 一种基于数字图像重建的三维影像视觉传达优化方法 | |
CN110533733B (zh) | 一种基于计算鬼成像的自动搜索目标深度的方法 | |
CN110827343B (zh) | 基于能量增强散焦响应的改进光场深度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |