CN106651943A - 一种基于遮挡几何互补模型的光场相机深度估计方法 - Google Patents

一种基于遮挡几何互补模型的光场相机深度估计方法 Download PDF

Info

Publication number
CN106651943A
CN106651943A CN201611262452.2A CN201611262452A CN106651943A CN 106651943 A CN106651943 A CN 106651943A CN 201611262452 A CN201611262452 A CN 201611262452A CN 106651943 A CN106651943 A CN 106651943A
Authority
CN
China
Prior art keywords
image
light
sub
label
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611262452.2A
Other languages
English (en)
Other versions
CN106651943B (zh
Inventor
周文晖
李鹏飞
梁麟开
李贤�
王彧
潘佳琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201611262452.2A priority Critical patent/CN106651943B/zh
Publication of CN106651943A publication Critical patent/CN106651943A/zh
Application granted granted Critical
Publication of CN106651943B publication Critical patent/CN106651943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于遮挡几何互补模型的光场相机深度估计方法。本发明利用光场光流理论得到光场图像多个视角的遮挡信息,再利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。本发明能够对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。

Description

一种基于遮挡几何互补模型的光场相机深度估计方法
技术领域
本技术所属技术领域为计算机视觉领域,是一种基于遮挡几何互补模型的光场相机深度估计方法。
背景技术
光场相机可以捕获四维光场的空间-角度信息。与传统相机相比,它可从单帧光场图像中获取多视点或子光圈图像,为视觉分析和理解提供更有用的线索和信息。从光场图像中恢复出精确深度信息已成为当前计算机视觉和计算摄影学领域中的研究热点之一。
目前已提出了许多光场相机的深度恢复方法。早期深度恢复方法可追溯到有关焦点栈和景深提取的研究[1]。Georgiev和Lumsdaine通过计算微透镜图像间归一化互相关来估计视差图[2]。Bishop和Favaro提出一种可变贝叶斯框架重建场景深度[3]。Perwass和Wietzke提出一种基于对应性的深度估计方法[4]。Yu等人分析光场图像中线段的三维几何,并通过子光圈图像间线段匹配来计算视差图[5]。Tao等人讨论了不同深度线索在遮挡、重复纹理和噪声下的优缺点,并在此基础上,提出了基于多线索融合的深度估计方法[6]。Jeon等人提出光场相移理论实现亚像素精度的深度估计[7]。Lin等人提出基于焦点栈和数据一致性测度的深度图恢复方法[8]。然而受制于光场图像的有限空间和角度分辨率,光场相机深度恢复依然面临着精度和鲁棒性的挑战,特别是在深度不连续和遮挡区域。NeusSabater等人给出了一种基于Lytro光场相机原始数据的精确视差估计方法[9]。近期Wang等人提出了一种光场遮挡模型[10,11],虽然表现出了较好的性能,但对颜色和纹理边缘敏感,因此对于具有丰富纹理变化的物体表面难以获得令人满意的结果。
参考文献
[1]F.Nava,J.Marichal-Hernndez,and J.Rodrguez-Ramos.The discrete focalstack transform.In 16th European Signal Processing Conference(EUSIPCO 2008),2008.
[2]T.Georgiev,and A.Lumsdaine.Depth of field in plenoptic cameras.In30th Annual Conference of the European Association for Computer Graphics(EuroGraphics 2009),2009.
[3]T.E.Bishop,and P.Favaro.The light field camera:Extended depth offield,aliasing,and superresolution.In IEEE Transactions on Pattern Analysisand Machine Intelligence(PAMI),vol.34,no.5,pp.972–986,2012.
[4]C.Perwass and P.Wietzke.Single lens 3d-camera with extended depth-of-field.In SPIE Elect.Imaging,2012.
[5]Z.Yu,X.Guo,H.Ling,A.Lumsdaine,and J.Yu.Line assisted light fieldtriangulation and stereo matching.In Proceedings of International Conferenceon Computer Vision(ICCV),2013.
[6]M.Tao,S.Hadap,J.Malik,and R.Ramamoorthi.Depth from combiningdefocus and correspondence using light-field cameras.In Proceedings of theIEEE International Conference on Computer Vision(ICCV),2013.
[7]H.-G.Jeon,J.Park,G.Choe,J.Park,Y.Bok,Y.-W.Tai,andI.S.Kweon.Accurate depth map estimation from a lenslet light fieldcamera.InProceedings of International Conference on ComputerVision and PatternRecognition(CVPR),2015.
[8]H.Lin,C.Chen,S.B.Kang,and J.Yu.Depth recovery fromlight fieldusing focal stack symmetry.In Proceedings of the IEEEInternational Conferenceon Computer Vision(ICCV),2015.
[9]Neus Sabater,Valter Drazic,Mozhdeh Sei,et al.Light-FieldDemultiplexing and Disparity Estimation.HAL-00925652,2014.
[10]T.-C.Wang,A.Efros,and R.Ramamoorthi.Depth estimation withocclusion modeling using light-field cameras.In IEEE Transactions on PatternAnalysis and Machine Intelligence(TPAMI),2016.
[11]T.-C.Wang,A.Efros,and R.Ramamoorthi.Occlusion-aware depthestimation using light-field cameras.In Proceedings of the IEEE InternationalConference on Computer Vision(ICCV),2015.
[12]Ziyang Ma,Kaiming He,Yichen Wei,Jian Sun,and Enhua Wu.ConstantTime Weighted Median Filtering for Stereo Matching and Beyond.In Proceedingsof the IEEE International Conferenceon Computer Vision(ICCV),2013.
[13]Qifeng Chen,Vladlen Koltun.Full Flow:Optical Flow Estimation ByGlobal Optimization over Regular Grids.In Proceedings of InternationalConference on ComputerVision and Pattern Recognition(CVPR),2016.
发明内容
本发明针对现有技术的不足,受相机阵列的遮挡几何互补模型的启发,提供了一种基于遮挡几何互补模型的光场相机深度估计方法。
本发明方法的具体步骤如下:
步骤(1):将原始光场数据重组为一组子光圈图像阵列,具体如下:
原始光场数据的双平面表示方式为LF(x,y,u,v,c),表现为经过微透镜阵列平面和主透镜平面坐标的光线集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,取值范围为u∈[-Nu/2,Nu/2],v∈[-Nv/2,Nv/2]中的整数值,Nu和Nv分别微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,通常Nc取值为3,表示红、绿、蓝三色通道;对于主透镜平面上的某个具体坐标位置(u,v),从原始光场数据LF(x,y,u,v,c)中提取主透镜平面坐标为(u,v)的数据,合为一幅子光圈图像LF(u,v)(x,y,c);主透镜平面坐标中心(0,0)位置的子光圈图像为中心子光圈图像LF(0,0)(x,y,c);主透镜平面上所有坐标位置的子光圈图像共有Nu×Nv幅,组成子光圈图像阵列。
步骤(2):计算中心子光圈图像LF(0,0)(x,y,c)的水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c);计算子光圈图像LF(u,v)(x,y,c)的水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)。
所述的水平梯度图和垂直梯度图像计算方法为:
对于图像I(x,y,c),根据图像梯度计算公式,可得图像I(x,y,c)在水平和垂直方向的梯度分别为GxI(x,y,c)、GyI(x,y,c)。所述梯度计算公式具体描述为:
步骤(3):设定偏移量k的有效范围[kmin,kmax],偏移量步进Δk和偏移标号n;偏移量k的个数INT(·)为截取小数部分的取整函数;偏移标号n取值[0,Nk]间的整数,有偏移标号n所对应的偏移量为kmin+nΔk;偏移量k的有效范围[kmin,kmax]通常为[-4.0,0.5],偏移量步进Δk=0.05。
步骤(4):将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);则对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=-u,Δv=-v。
步骤(5):采用频率域相移计算方法,计算对准图像Ig(x,y,c)及其水平梯度图像GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c)经偏移标号n所对应的偏移后图像I′g(x,y,c|n)、GxI′g(x,y,c|n)和GyI′g(x,y,c|n),具体为:
对于偏移标号n,根据光场重对焦公式,计算对准图像Ig(x,y,c)相对于基准图像Ir(x,y,c)的相移量θ={θxy},其中水平方向相移量θx=Δu×(kmin+nΔk),垂直方向相移量θy=Δv×(kmin+nΔk);采用频率域相移计算方法,有:
其中分别为二维傅里叶变换和二维傅里叶逆变换,为成熟技术。
步骤(6):根据步骤(5)得到的结果,计算对准图像Ig(x,y,c)经偏移标号n所对应的偏移后,与基准图像Ir(x,y,c)的对应性差异值C(x,y|n),具体为:
C(x,y|n)=(1-β)·CSAD(x,y|n)+β·CGxySAD(x,y|n)
其中CSAD(x,y|n)和CGxySAD(x,y|n)分别为像素点(x,y)在偏移标号n下的色彩差异和梯度差异,β为色彩差异和梯度差异的融合参数,通常取值为0.11;CSAD(x,y|n)和CGxySAD(x,y|n)具体计算公式为:
其中MIN(·)为求最小值函数;τ为对应性差异的最大阈值,通常取值为0.5。
步骤(7):根据步骤(6)结果,提取每个像素点的初始深度标号,生成初始深度标号图dlabel(x,y),具体为:
对于像素点(x,y),在偏移标号n下的对应性差异值为C(x,y|n),它的初始深度标号为使其对应性差异值最小的偏移标号,并记录最小对应性差异值Cmin(x,y),表示为:
Cmin(x,y)=min C(x,y|n)
步骤(8):采用基于导向滤波的加权中值滤波方法,将基准图像Ir(x,y,c)作为导向图,对步骤(7)中得到的初始深度标号图dlabel(x,y)进行加权中值滤波,滤波后的深度标号图为d′label(x,y);导向滤波的正则参数通常为0.0001,窗口半径通常为9。
步骤(9):根据步骤(8)结果,计算对准图像相对于基准图像的光流,具体为:
对于像素点(x,y),其光流flow(x,y)表示为:
步骤(10):根据步骤(9)所得到的光流flow(x,y),将其定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的前向光流flowforward(x,y|u,v);并将步骤(6)中各偏移标号n下的对应性差异值C(x,y|n)记录为子光圈图像LF(u,v)(x,y,c)在各偏移标号n下的对应性差异值C(u,v)(x,y|n)。
步骤(11):将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=u,Δv=v。重复步骤(5)到步骤(9);将步骤(9)所得到的光流flow(x,y)定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的后向光流flowbackward(x,y|u,v)。
步骤(12):根据步骤(10)和步骤(11)结果,采用基于前向光流和后向光流的遮挡检测方法,估计子光圈图像LF(u,v)(x,y,c)与中心子光圈图像LF(0,0)(x,y,c)之间的遮挡Occ(u,v)(x,y),表示为:
步骤(13):根据步骤(12)和步骤(10)结果,可得每个子光圈图像与中心子光圈图像之间的遮挡估计和最小对应性差异值;根据遮挡几何互补模型,滤除遮挡光线,并将所有子光圈图像在偏移标号n下的对应性差异值进行累加,获得最终对应性代价cost(x,y|n),具体为:
步骤(14):根据步骤(13)中得到的最终对应性代价cost(x,y|n),提取深度标号图具体为:
对于像素点(x,y),在偏移标号n下的最终对应性差异值为cost(x,y|n),其深度标号为使其最终对应性差异值最小的偏移标号,表示为:
步骤(15):采用基于导向滤波的加权中值滤波方法,将中心子光圈图像LF(0,0)(x,y,c)作为导向图,对步骤(14)中得到的深度标号图进行加权中值滤波,得到滤波后深度标号图为导向滤波的正则参数通常为0.0001,窗口半径通常为9。
步骤(16):根据步骤(15)中得到的滤波后深度标号图计算最终深度图depth(x,y),具体为:
对于像素点(x,y),其滤波后深度标号为其最终深度为:
本发明有益效果如下:
本发明提供了一种基于遮挡互补的光场相机深度估计方法。该方法利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。该方法较其他方法可以对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。
附图说明
图1为本发明中的方法流程图;
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,一种基于遮挡几何互补模型的光场相机深度估计方法,具体步骤如下:
步骤(1):将原始光场数据重组为一组子光圈图像阵列,具体如下:
原始光场数据的双平面表示方式为LF(x,y,u,v,c),表现为经过微透镜阵列平面和主透镜平面坐标的光线集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,取值范围为u∈[-Nu/2,Nu/2],v∈[-Nv/2,Nv/2]中的整数值,Nu和Nv分别微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,通常Nc取值为3,表示红、绿、蓝三色通道;对于主透镜平面上的某个具体坐标位置(u,v),从原始光场数据LF(x,y,u,v,c)中提取主透镜平面坐标为(u,v)的数据,合为一幅子光圈图像LF(u,v)(x,y,c);主透镜平面坐标中心(0,0)位置的子光圈图像为中心子光圈图像LF(0,0)(x,y,c);主透镜平面上所有坐标位置的子光圈图像共有Nu×Nv幅,组成子光圈图像阵列。
步骤(2):计算中心子光圈图像LF(0,0)(x,y,c)的水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c);计算子光圈图像LF(u,v)(x,y,c)的水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)。
所述的水平梯度图和垂直梯度图像计算方法为:
对于图像I(x,y,c),根据图像梯度计算公式,可得图像I(x,y,c)在水平和垂直方向的梯度分别为GxI(x,y,c)、GyI(x,y,c)。所述梯度计算公式具体描述为:
步骤(3):设定偏移量k的有效范围[kmin,kmax],偏移量步进Δk和偏移标号n;偏移量k的个数INT(·)为截取小数部分的取整函数;偏移标号n取值[0,Nk]间的整数,有偏移标号n所对应的偏移量为kmin+nΔk;偏移量k的有效范围[kmin,kmax]通常为[-4.0,0.5],偏移量步进Δk=0.05。
步骤(4):将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);则对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=-u,Δv=-v。
步骤(5):采用频率域相移计算方法,计算对准图像Ig(x,y,c)及其水平梯度图像GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c)经偏移标号n所对应的偏移后图像I′g(x,y,c|n)、GxI′g(x,y,c|n)和GyI′g(x,y,c|n),具体为:
对于偏移标号n,根据光场重对焦公式,计算对准图像Ig(x,y,c)相对于基准图像Ir(x,y,c)的相移量θ={θxy},其中水平方向相移量θx=Δu×(kmin+nΔk),垂直方向相移量θy=Δv×(kmin+nΔk);采用频率域相移计算方法,有:
其中分别为二维傅里叶变换和二维傅里叶逆变换,为成熟技术。
步骤(6):根据步骤(5)得到的结果,计算对准图像Ig(x,y,c)经偏移标号n所对应的偏移后,与基准图像Ir(x,y,c)的对应性差异值C(x,y|n),具体为:
C(x,y|n)=(1-β)·CSAD(x,y|n)+β·CGxySAD(x,y|n)
其中CSAD(x,y|n)和CGxySAD(x,y|n)分别为像素点(x,y)在偏移标号n下的色彩差异和梯度差异,β为色彩差异和梯度差异的融合参数,通常取值为0.11;CSAD(x,y|n)和CGxySAD(x,y|n)具体计算公式为:
其中MIN(·)为求最小值函数;τ为对应性差异的最大阈值,通常取值为0.5。
步骤(7):根据步骤(6)结果,提取每个像素点的初始深度标号,生成初始深度标号图dlabel(x,y),具体为:
对于像素点(x,y),在偏移标号n下的对应性差异值为C(x,y|n),它的初始深度标号为使其对应性差异值最小的偏移标号,并记录最小对应性差异值Cmin(x,y),表示为:
Cmin(x,y)=min C(x,y|n)
步骤(8):采用基于导向滤波的加权中值滤波方法,将基准图像Ir(x,y,c)作为导向图,对步骤(7)中得到的初始深度标号图dlabel(x,y)进行加权中值滤波,滤波后的深度标号图为d′label(x,y);导向滤波的正则参数通常为0.0001,窗口半径通常为9。
步骤(9):根据步骤(8)结果,计算对准图像相对于基准图像的光流,具体为:
对于像素点(x,y),其光流flow(x,y)表示为:
步骤(10):根据步骤(9)所得到的光流flow(x,y),将其定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的前向光流flowforward(x,y|u,v);并将步骤(6)中各偏移标号n下的对应性差异值C(x,y|n)记录为子光圈图像LF(u,v)(x,y,c)在各偏移标号n下的对应性差异值C(u,v)(x,y|n)。
步骤(11):将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=u,Δv=v。重复步骤(5)到步骤(9);将步骤(9)所得到的光流flow(x,y)定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的后向光流flowbackward(x,y|u,v)。
步骤(12):根据步骤(10)和步骤(11)结果,采用基于前向光流和后向光流的遮挡检测方法,估计子光圈图像LF(u,v)(x,y,c)与中心子光圈图像LF(0,0)(x,y,c)之间的遮挡Occ(u,v)(x,y),表示为:
步骤(13):根据步骤(12)和步骤(10)结果,可得每个子光圈图像与中心子光圈图像之间的遮挡估计和最小对应性差异值;根据遮挡几何互补模型,滤除遮挡光线,并将所有子光圈图像在偏移标号n下的对应性差异值进行累加,获得最终对应性代价cost(x,y|n),具体为:
步骤(14):根据步骤(13)中得到的最终对应性代价cost(x,y|n),提取深度标号图具体为:
对于像素点(x,y),在偏移标号n下的最终对应性差异值为cost(x,y|n),其深度标号为使其最终对应性差异值最小的偏移标号,表示为:
步骤(15):采用基于导向滤波的加权中值滤波方法,将中心子光圈图像LF(0,0)(x,y,c)作为导向图,对步骤(14)中得到的深度标号图进行加权中值滤波,得到滤波后深度标号图为导向滤波的正则参数通常为0.0001,窗口半径通常为9。
步骤(16):根据步骤(15)中得到的滤波后深度标号图计算最终深度图depth(x,y),具体为:
对于像素点(x,y),其滤波后深度标号为其最终深度为:

Claims (1)

1.一种基于遮挡几何互补模型的光场相机深度估计方法,其特征在于包括如下步骤:
步骤(1):将原始光场数据重组为一组子光圈图像阵列,具体如下:
原始光场数据的双平面表示方式为LF(x,y,u,v,c),表现为经过微透镜阵列平面和主透镜平面坐标的光线集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,取值范围为u∈[-Nu/2,Nu/2],v∈[-Nv/2,Nv/2]中的整数值,Nu和Nv分别微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,通常Nc取值为3,表示红、绿、蓝三色通道;对于主透镜平面上的某个具体坐标位置(u,v),从原始光场数据LF(x,y,u,v,c)中提取主透镜平面坐标为(u,v)的数据,合为一幅子光圈图像LF(u,v)(x,y,c);主透镜平面坐标中心(0,0)位置的子光圈图像为中心子光圈图像LF(0,0)(x,y,c);主透镜平面上所有坐标位置的子光圈图像共有Nu×Nv幅,组成子光圈图像阵列;
步骤(2):计算中心子光圈图像LF(0,0)(x,y,c)的水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c);计算子光圈图像LF(u,v)(x,y,c)的水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c);
所述的水平梯度图和垂直梯度图像计算方法为:
对于图像I(x,y,c),根据图像梯度计算公式,可得图像I(x,y,c)在水平和垂直方向的梯度分别为GxI(x,y,c)、GyI(x,y,c);所述梯度计算公式具体描述为:
G x I ( x , y , c ) = | I ( x + 1 , y , c ) - I ( x - 1 , y , c ) | / 2 G y I ( x , y , c ) = | I ( x , y + 1 , c ) - I ( x , y - 1 , c ) | / 2 ;
步骤(3):设定偏移量k的有效范围[kmin,kmax],偏移量步进Δk和偏移标号n;偏移量k的个数INT(·)为截取小数部分的取整函数;偏移标号n取值[0,Nk]间的整数,有偏移标号n所对应的偏移量为kmin+nΔk;偏移量k的有效范围[kmin,kmax]通常为[-4.0,0.5],偏移量步进Δk=0.05;
步骤(4):将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);则对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=-u,Δv=-v;
步骤(5):采用频率域相移计算方法,计算对准图像Ig(x,y,c)及其水平梯度图像GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c)经偏移标号n所对应的偏移后图像I′g(x,y,c|n)、GxI′g(x,y,c|n)和GyI′g(x,y,c|n),具体为:
对于偏移标号n,根据光场重对焦公式,计算对准图像Ig(x,y,c)相对于基准图像Ir(x,y,c)的相移量θ={θxy},其中水平方向相移量θx=Δu×(kmin+nΔk),垂直方向相移量θy=Δv×(kmin+nΔk);采用频率域相移计算方法,有:
其中分别为二维傅里叶变换和二维傅里叶逆变换;
步骤(6):根据步骤(5)得到的结果,计算对准图像Ig(x,y,c)经偏移标号n所对应的偏移后,与基准图像Ir(x,y,c)的对应性差异值C(x,y|n),具体为:
C(x,y|n)=(1-β)·CSAD(x,y|n)+β·CGxySAD(x,y|n);
其中CSAD(x,y|n)和CGxySAD(x,y|n)分别为像素点(x,y)在偏移标号n下的色彩差异和梯度差异,β为色彩差异和梯度差异的融合参数,通常取值为0.11;CSAD(x,y|n)和CGxySAD(x,y|n)具体计算公式为:
C S A D ( x , y | n ) = M I N ( Σ c ( I g ′ ( x , y , c | n ) - I r ( x , y , c ) ) 2 , τ ) C G x y S A D ( x , y | n ) = C G x S A D ( x , y | n ) 2 + C G y S A D ( x , y | n ) 2 ;
其中MIN(·)为求最小值函数;τ为对应性差异的最大阈值,通常取值为0.5;
步骤(7):根据步骤(6)结果,提取每个像素点的初始深度标号,生成初始深度标号图dlabel(x,y),具体为:
对于像素点(x,y),在偏移标号n下的对应性差异值为C(x,y|n),它的初始深度标号为使其对应性差异值最小的偏移标号,并记录最小对应性差异值Cmin(x,y),表示为:
Cmin(x,y)=min C(x,y|n);
d l a b e l ( x , y ) = argmin n C ( x , y | n ) ;
步骤(8):采用基于导向滤波的加权中值滤波方法,将基准图像Ir(x,y,c)作为导向图,对步骤(7)中得到的初始深度标号图dlabel(x,y)进行加权中值滤波,滤波后的深度标号图为d′label(x,y);导向滤波的正则参数通常为0.0001,窗口半径通常为9;
步骤(9):根据步骤(8)结果,计算对准图像相对于基准图像的光流,具体为:
对于像素点(x,y),其光流flow(x,y)表示为:
f l o w ( x , y ) = { f x ( x , y ) , f y ( x , y ) } f x ( x , y ) = ( k m i n + d l a b e l ′ ( x , y ) × Δ k ) × Δ u f y ( x , y ) = ( k m i n + d l a b e l ′ ( x , y ) × Δ k ) × Δ v ;
步骤(10):根据步骤(9)所得到的光流flow(x,y),将其定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的前向光流flowforward(x,y|u,v);并将步骤(6)中各偏移标号n下的对应性差异值C(x,y|n)记录为子光圈图像LF(u,v)(x,y,c)在各偏移标号n下的对应性差异值C(u,v)(x,y|n);
步骤(11):将子光圈图像LF(u,v)(x,y,c)及其水平梯度图GxLF(u,v)(x,y,c)和垂直梯度图像GyLF(u,v)(x,y,c)分别作为基准图像Ir(x,y,c)及其水平梯度图GxIr(x,y,c)和垂直梯度图像GyIr(x,y,c);将中心子光圈图像LF(0,0)(x,y,c)及其水平梯度图GxLF(0,0)(x,y,c)和垂直梯度图像GyLF(0,0)(x,y,c)分别作为对准图像Ig(x,y,c)及其水平梯度图GxIg(x,y,c)和垂直梯度图像GyIg(x,y,c);对准图像Ig(x,y,c)与基准图像Ir(x,y,c)在主透镜平面坐标(u,v)上的偏差为:Δu=u,Δv=v;重复步骤(5)到步骤(9);将步骤(9)所得到的光流flow(x,y)定义为中心子光圈图像LF(0,0)(x,y,c)到子光圈图像LF(u,v)(x,y,c)的后向光流flowbackward(x,y|u,v);
步骤(12):根据步骤(10)和步骤(11)结果,采用基于前向光流和后向光流的遮挡检测方法,估计子光圈图像LF(u,v)(x,y,c)与中心子光圈图像LF(0,0)(x,y,c)之间的遮挡Occ(u,v)(x,y),表示为:
步骤(13):根据步骤(12)和步骤(10)结果,可得每个子光圈图像与中心子光圈图像之间的遮挡估计和最小对应性差异值;根据遮挡几何互补模型,滤除遮挡光线,并将所有子光圈图像在偏移标号n下的对应性差异值进行累加,获得最终对应性代价cost(x,y|n),具体为:
cos t ( x , y | n ) = 1 N ( x , y ) Σ v Σ u ( O c c ( u , v ) ( x , y ) × C ( u , v ) ( x , y | n ) ) N ( x , y ) = Σ v Σ u O c c ( u , v ) ( x , y )
步骤(14):根据步骤(13)中得到的最终对应性代价cost(x,y|n),提取深度标号图具体为:
对于像素点(x,y),在偏移标号n下的最终对应性差异值为cost(x,y|n),其深度标号为使其最终对应性差异值最小的偏移标号,表示为:
d ^ l a b e l ( x , y ) = argmin n cos t ( x , y | n )
步骤(15):采用基于导向滤波的加权中值滤波方法,将中心子光圈图像LF(0,0)(x,y,c)作为导向图,对步骤(14)中得到的深度标号图进行加权中值滤波,得到滤波后深度标号图为导向滤波的正则参数通常为0.0001,窗口半径通常为9;
步骤(16):根据步骤(15)中得到的滤波后深度标号图计算最终深度图depth(x,y),具体为:
对于像素点(x,y),其滤波后深度标号为其最终深度为:
d e p t h ( x , y ) = 1 1 - k f i n a l ( x , y ) k f i n a l ( x , y ) = k min + d ^ l a b e l ′ ( x , y ) × Δ k .
CN201611262452.2A 2016-12-30 2016-12-30 一种基于遮挡几何互补模型的光场相机深度估计方法 Active CN106651943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611262452.2A CN106651943B (zh) 2016-12-30 2016-12-30 一种基于遮挡几何互补模型的光场相机深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611262452.2A CN106651943B (zh) 2016-12-30 2016-12-30 一种基于遮挡几何互补模型的光场相机深度估计方法

Publications (2)

Publication Number Publication Date
CN106651943A true CN106651943A (zh) 2017-05-10
CN106651943B CN106651943B (zh) 2019-07-23

Family

ID=58837637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611262452.2A Active CN106651943B (zh) 2016-12-30 2016-12-30 一种基于遮挡几何互补模型的光场相机深度估计方法

Country Status (1)

Country Link
CN (1) CN106651943B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090920A (zh) * 2017-12-14 2018-05-29 浙江工商大学 一种新的光场图像深度流估计方法
CN108846473A (zh) * 2018-04-10 2018-11-20 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN110798677A (zh) * 2018-08-01 2020-02-14 Oppo广东移动通信有限公司 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
CN110913212A (zh) * 2019-12-27 2020-03-24 上海智驾汽车科技有限公司 基于光流的智能车载摄像头遮挡监测方法及装置、辅助驾驶系统
CN113436325A (zh) * 2021-07-30 2021-09-24 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
ALPER AYVACI等: ""Sparse occlusion detection with optical flow"", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
HAE-GON JEON 等: ""Accurate depth map estimation from a lenslet light field camera"", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
QIFENG CHEN等: ""Full flow: Optical flow estimation by global optimization over regular grid"", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
TING-CHUN WANG等: ""Depth estimation with occlusion modeling using light-field cameras"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
TING-CHUN WANG等: ""Occlusion aware depth estimation using light-field cameras"", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *
WENHUI ZHOU等: ""Depth Estimation with Cascade Occlusion Culling Filter for Light-field Cameras"", 《23RD INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR)》 *
ZHAOLIN XIAO等: ""Reconstructing Scene Depth and Appearance Behind Foreground Occlusion Using Camera Array"", 《2014 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 *
肖照林: ""基于相机阵列的光场成像与深度估计方法研究"", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090920A (zh) * 2017-12-14 2018-05-29 浙江工商大学 一种新的光场图像深度流估计方法
CN108090920B (zh) * 2017-12-14 2021-11-30 浙江工商大学 一种光场图像深度流估计方法
CN108846473A (zh) * 2018-04-10 2018-11-20 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN108846473B (zh) * 2018-04-10 2022-03-01 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN110798677A (zh) * 2018-08-01 2020-02-14 Oppo广东移动通信有限公司 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
CN110798677B (zh) * 2018-08-01 2021-08-31 Oppo广东移动通信有限公司 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
CN110913212A (zh) * 2019-12-27 2020-03-24 上海智驾汽车科技有限公司 基于光流的智能车载摄像头遮挡监测方法及装置、辅助驾驶系统
CN110913212B (zh) * 2019-12-27 2021-08-27 上海智驾汽车科技有限公司 基于光流的智能车载摄像头遮挡监测方法及装置、辅助驾驶系统
CN113436325A (zh) * 2021-07-30 2021-09-24 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN113436325B (zh) * 2021-07-30 2023-07-28 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN106651943B (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
CN106651943B (zh) 一种基于遮挡几何互补模型的光场相机深度估计方法
US9800856B2 (en) Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
Wanner et al. Generating EPI representations of 4D light fields with a single lens focused plenoptic camera
CN106340041B (zh) 一种基于级联遮挡滤除滤波器的光场相机深度估计方法
Smith et al. Light field video stabilization
Johannsen et al. On linear structure from motion for light field cameras
IL266036A (en) Device and method for information on distance from sight
Bishop et al. Full-resolution depth map estimation from an aliased plenoptic light field
Lee et al. Depth estimation from light field by accumulating binary maps based on foreground–background separation
Zhang et al. Du 2 net: Learning depth estimation from dual-cameras and dual-pixels
Li et al. Epi-based oriented relation networks for light field depth estimation
Liu et al. High quality depth map estimation of object surface from light-field images
Wang et al. A simple and robust super resolution method for light field images
Ramirez et al. Open challenges in deep stereo: the booster dataset
Schmeing et al. Edge-aware depth image filtering using color segmentation
Zeller et al. Establishing a probabilistic depth map from focused plenoptic cameras
CN108090920B (zh) 一种光场图像深度流估计方法
Yan et al. Depth estimation from a light field image pair with a generative model
CN110827343B (zh) 基于能量增强散焦响应的改进光场深度估计方法
Tomioka et al. Depth map estimation using census transform for light field cameras
Uliyar et al. Fast EPI based depth for plenoptic cameras
Akimov et al. Single-image depth map estimation using blur information
Fujii et al. Scene flow estimation through 3d analysis of multi-focus images
Navarro et al. Variational scene flow and occlusion detection from a light field sequence
CN107610170B (zh) 多目图像重聚焦的深度获取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant