CN108460747B - 一种光场相机的子孔径合成去遮挡方法 - Google Patents

一种光场相机的子孔径合成去遮挡方法 Download PDF

Info

Publication number
CN108460747B
CN108460747B CN201810326616.6A CN201810326616A CN108460747B CN 108460747 B CN108460747 B CN 108460747B CN 201810326616 A CN201810326616 A CN 201810326616A CN 108460747 B CN108460747 B CN 108460747B
Authority
CN
China
Prior art keywords
aperture
sub
image
motion vector
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810326616.6A
Other languages
English (en)
Other versions
CN108460747A (zh
Inventor
金欣
张恒
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201810326616.6A priority Critical patent/CN108460747B/zh
Publication of CN108460747A publication Critical patent/CN108460747A/zh
Application granted granted Critical
Publication of CN108460747B publication Critical patent/CN108460747B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种光场相机的子孔径合成去遮挡方法,包括:A1:输入被遮挡物对齐的多幅子孔径图像;A2:分别提取多幅所述子孔径图像的深度图和运动矢量;A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。本发明能够获取较好的视觉效果。

Description

一种光场相机的子孔径合成去遮挡方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种光场相机的子孔径合成去遮挡方法。
背景技术
光场相机在计算机视觉领域的应用引发了研究者们的广泛关注。2005年,斯坦福大学的Ng和Levoy首先提出手持式光场相机的原型。不同于传统相机,光场相机的主镜头和传感器平面之间插入了一块微透镜阵列。借助于特殊的几何关系,光场相机利用微透镜阵列和传感器平面记录了空间中光线的强度和方向。
2013年Dansereau等人提出了一套光场相机的解码、标定、校正和去噪方法,实现了光场相机子孔径图像的提取。2013年,Liu等人提出了基于张量的视觉数据填充算法,实现了图像中缺省部分的填补。2015年,Wang等人提出了遮挡情况下光场图像的深度估计方法,为深度估计提供了较为精准的结果。
现有的子孔径图像合成去遮挡方法主要可以分为:基于像素平均的孔径合成方法和基于像素挑选的孔径合成方法;其中基于像素平均的孔径合成方法也分为两种:直接平均和基于深度挑选的平均方法。直接平均法由于保留了来自遮挡物的像素,因而视觉效果不好。由于遮挡情况给深度估计带来了很大的困难,基于深度挑选的平均方法鲁棒性较差,容易被深度估计的误差影响。像素挑选的方法主要基于宏像素块中像素的置信度或者能量函数来挑选像素,但是这些方法的视觉效果较差。综上所述,现有的子孔径图像合成去遮挡方法中存在着视觉效果差的特点。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种光场相机的子孔径合成去遮挡方法,能够获取较好的视觉效果。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。
与现有技术相比,本发明的有益效果在于:本发明中的光场相机的子孔径合成去遮挡方法首先获取被遮挡物体对齐的子孔径图像,分别提取深度图和运动矢量,并将二者进行融合得到融合图像,然后在所有子孔图像的融合图像中目标区域内进行像素聚类,进而在相应的子孔径图像中挑选出来自于被遮挡物体的像素,按照空间位置对这些像素取平均,获取孔径合成图像;通过本发明的光场相机的子孔径合成去遮挡方法在获取被遮挡物体对齐的子孔径图像的基础上,能够去除镜头前小尺寸遮挡物,从而获得被遮挡物体的信息,从而获取较好的视觉效果。
附图说明
图1是本发明优选实施例的光场相机的子孔径合成去遮挡方法的流程示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明优选实施例的光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入子孔径图像:输入被遮挡物对齐的子孔径图像,即在这些子孔径图像中,被遮挡物体没有视差。
在本实施例中,应用单映性变换的方法,在由Illum相机拍摄得到子孔径图像中对齐被遮挡物体,子孔径图像的分辨率为434x625,共有225幅子孔径图像。
A2:提取深度图和运动矢量:分别提取每幅子孔径图像各自的深度图和运动矢量;
在本实施例中,采用现有的深度估计方法提取深度图,利用光流法计算运动矢量。
A3:融合深度图和运动矢量:对步骤A2中提取出的每一幅子孔径图像的深度图和运动矢量进行融合得到相应的融合图像;
在本实施例,步骤A3具体包括以下步骤:
A31:对步骤A2得到的深度图进行归一化处理:
Figure BDA0001626761040000031
其中,Depi,j表示由步骤A2得到的子孔径图像(i,j)的深度图,min(Depi,j)和max(Depi,j)分别表示深度图Depi,j中物体深度的最小值和最大值,Ii,j(x,y)表示这幅深度图中在(x,y)处像素的深度值,Ii,j'(x,y)表示经过归一化以后在(x,y)处像素的深度值;
A32:对步骤A2得到的运动矢量的模进行归一化处理:
Figure BDA0001626761040000032
其中,
Figure BDA0001626761040000033
Figure BDA0001626761040000034
分别表示从子孔径图像(i,j)提取的运动矢量图中(x,y)处像素的运动矢量在行和列方向上的分量,MVi,j(x,y)表示在运动矢量图中(x,y)处像素的运动矢量的模;
Figure BDA0001626761040000035
其中,min(MVi,j)和max(MVi,j)分别表示从子孔径图像(i,j)提取的运动矢量图中像素运动矢量的模的最小值和最大值,MVi,j'(x,y)表示归一化后的运动矢量图中(x,y)处像素的运动矢量的模;
A33:对归一化后的运动矢量和深度图进行融合得到融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示两者(也即归一化后的深度值和运动矢量的模)融合的权重。
在本实施例中,由于被遮挡物体的深度值较小,运动矢量较大,因而这里的k取负值。
A4:聚类并筛选像素:对步骤A3得到的融合图像进行聚类,并在相应的子孔径图像中进行像素筛选;
在本实施例,步骤A4具体包括以下步骤:
A41:在所有的子孔径图像及其相应的融合图像中选择目标区域:
在所有的子孔径图像及其对应的融合图像中选择相同的目标区域,使得该区域内仅包括遮挡物和被遮挡物体;
A42:对融合图像中目标区域内的像素进行聚类:
将步骤A3中的融合图像依据融合图像中像素值的大小进行聚类,得到如下两类:
Figure BDA0001626761040000041
Figure BDA0001626761040000042
其中,Ceni,j(1)和Ceni,j(2)是子孔径图像(i,j)相对应的融合图像中的像素经过聚类之后得到的两个聚类中心,
Figure BDA0001626761040000043
Figure BDA0001626761040000044
分别表示将融合图像的像素进行聚类得到的两个集合,Range表示在步骤A41中选择的目标区域;
A43:筛选来自于被遮挡物体的像素所在的集合:
Figure BDA0001626761040000045
其中,avg(Ii,j(p1,q1))和avg(Ii,j(p2,q2))分别表示集合
Figure BDA0001626761040000046
Figure BDA0001626761040000047
所代表的元素的均值,
Figure BDA0001626761040000048
Figure BDA0001626761040000049
即为来自于被遮挡物的像素组成的集合;
A44:在相应的子孔径图像中筛选出来源于被遮挡物体的像素:
Figure BDA0001626761040000051
其中,SIi,j(u,v)表示在子孔径图像(i,j)中(u,v)处的像素值,Ωi,j表示筛选出来的像素所在的集合。
在本实施例中,在步骤A42中,我们用模糊C均值聚类算法(FCM)对融合结果进行聚类。
A5:按照像素取平均:对所有的子孔径图像经步骤A4筛选出来的像素取平均,获取孔径合成图像;
在本实施例,步骤A5具体包括以下步骤:
对步骤A4筛选出的像素按照空间位置取平均:
Figure BDA0001626761040000052
其中,SIi,j(u,v)表示利用步骤A4从第(i,j)幅子孔径图像筛选出来的像素中,位置(u,v)处的像素值,即SIi,j(u,v)∈Ωi,j,N(u,v)表示在所有的经过步骤A4筛选出来的集合Ωi,j中在(u,v)处非空像素的个数,Imer(u,v)表示在孔径合成图像中(u,v)处像素值的大小,S表示输入的子孔径图像的全集。
A6:判断是否存在像素缺失:判断步骤A5得到的孔径合成图像是否存在像素缺失:若存在则需要进行像素填充,获取最终的孔径合成图像;若不存在,则步骤A5得到的孔径合成图像即为最终的孔径合成图像。
在本实施例中,采用现有的图像修复算法对步骤A5中得到的孔径合成图像的像素缺失处进行填充。
本发明优选实施例为了能够得到被遮挡的物体的表面信息,利用合成孔径的方法对输入的子孔径图像中来自被遮挡物体的像素进行合成,即可得到孔径合成图像;在孔径合成图像中,来自遮挡物的信息被删除,来自被遮挡物体的像素被保留并被平均,因此被遮挡物体的信息就显现出来。本发明的合成孔径方法的思路是:在获取被遮挡物体对齐的子孔径图像之后,通过融合子孔径图像的深度图和运动矢量,在相应的子孔径图像中筛选出来自被遮挡物体的像素,进而按照空间位置对这些像素取平均,即可获取孔径合成图像;其中的核心是从子孔径图像中筛选像素的过程,这个过程分为三步:融合深度图和运动矢量、对融合结果进行聚类和在子孔径图像中筛选像素;并且本发明通过融合深度图和运动矢量,并将挑选出来的像素取平均,能够有效减少深度估计和运动矢量带来的误差对结果的影响,使得结果更加稳定,视觉效果很好;此外,本发明还利用图像修复技术对孔径合成图像中的像素缺失部分进行填充,能够获得更好的视觉效果。通过本发明的光场相机的合成孔径去遮挡方法,可以得到合成孔径图像,能够去除镜头前小尺寸遮挡物,从而获得遮挡物后方的信息。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种光场相机的子孔径合成去遮挡方法,其特征在于,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像;
其中步骤A4具体包括:
A41:在所有的所述子孔径图像及相应的所述融合图像中选择相同的目标区域,其中目标区域内仅包括遮挡物和被遮挡物体;
A42:对所述融合图像中的目标区域内的像素进行聚类成两类;
A43:筛选来自于被遮挡物体的像素所在的集合,使得来自于被遮挡物的像素的组成的集合等于步骤A42中融合图像的像素聚类得到的两个集合中元素的均值较大的那个集合;
A44:在相应的所述子孔径图像中筛选出来源于被遮挡物体的像素。
2.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A3具体包括:
A31:对步骤A2中提取出的每一幅所述子孔径图像的深度图进行归一化处理;
A32:对步骤A2中提取出的每一幅所述子孔径图像的运动矢量的模进行归一化处理;
A33:分别对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像。
3.根据权利要求2所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A31具体采用式(1)对步骤A2中提取出的每一幅所述子孔径图像的深度图进行归一化处理:
Figure FDA0002558346480000021
其中,Depi,j表示由步骤A2得到的子孔径图像(i,j)的深度图,min(Depi,j)和max(Depi,j)分别表示深度图Depi,j中物体深度的最小值和最大值,Ii,j(x,y)表示这幅深度图中在(x,y)处像素的深度值,Ii,j'(x,y)表示经过归一化以后在(x,y)处像素的深度值。
4.根据权利要求3所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A32具体采用式(2)和式(3)对步骤A2中提取出的每一幅所述子孔径图像的运动矢量的模进行归一化处理:
Figure FDA0002558346480000022
其中,
Figure FDA0002558346480000023
Figure FDA0002558346480000024
分别表示从子孔径图像(i,j)提取的运动矢量图中(x,y)处像素的运动矢量在行和列方向上的分量,MVi,j(x,y)表示在运动矢量图中(x,y)处像素的运动矢量的模;
Figure FDA0002558346480000025
其中,min(MVi,j)和max(MVi,j)分别表示从子孔径图像(i,j)提取的运动矢量图中像素运动矢量的模的最小值和最大值,MVi,j'(x,y)表示归一化后的运动矢量图中(x,y)处像素的运动矢量的模。
5.根据权利要求4所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A33分别采用式(4)对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示归一化后的深度值和运动矢量的模融合的权重。
6.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,
步骤A42具体采用式(5)和式(6)对所述融合图像中的目标区域内的像素进行聚类:
Figure FDA0002558346480000031
Figure FDA0002558346480000032
其中,Ceni,j(1)和Ceni,j(2)是子孔径图像(i,j)相对应的融合图像中的像素经过聚类之后得到的两个聚类中心,
Figure FDA0002558346480000033
Figure FDA0002558346480000034
分别表示将融合图像的像素进行聚类得到的两个集合,Range表示在步骤A41中选择的目标区域。
7.根据权利要求6所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A43具体采用式(7)筛选来自于被遮挡物体的像素所在的集合:
Figure FDA0002558346480000035
其中,avg(Ii,j(p1,q1))和avg(Ii,j(p2,q2))分别表示集合
Figure FDA0002558346480000036
Figure FDA0002558346480000037
所代表的元素的均值,
Figure FDA0002558346480000038
Figure FDA0002558346480000039
即为来自于被遮挡物的像素组成的集合。
8.根据权利要求7所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A44具体采用式(8)在相应的所述子孔径图像中筛选出来源于被遮挡物体的像素:
Figure FDA00025583464800000310
其中,SIi,j(u,v)表示在子孔径图像(i,j)中(u,v)处的像素值,Ωi,j表示筛选出来的像素所在的集合。
9.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A5具体为采用式(9)对所有的所述子孔径图像经步骤A4筛选出来的像素取平均以获得孔径合成图像:
Figure FDA00025583464800000311
其中,SIi,j(u,v)表示利用步骤A4从第(i,j)幅子孔径图像筛选出来的像素中,位置(u,v)处的像素值,即SIi,j(u,v)∈Ωi,j,N(u,v)表示在所有的经过步骤A4筛选出来的集合Ωi,j中在(u,v)处非空像素的个数,Imer(u,v)表示在孔径合成图像中(u,v)处像素值的大小,S表示输入的子孔径图像的全集。
10.根据权利要求1至9任一项所述的光场相机的子孔径合成去遮挡方法,其特征在于,还包括:A6:判断步骤A5中得到的孔径合成图像是否存在像素缺失,若存在则对该孔径合成图像进行像素填充,获取最终的孔径合成图像,若不存在,则该孔径合成图像即为最终的孔径合成图像。
CN201810326616.6A 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法 Active CN108460747B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810326616.6A CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810326616.6A CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Publications (2)

Publication Number Publication Date
CN108460747A CN108460747A (zh) 2018-08-28
CN108460747B true CN108460747B (zh) 2020-09-18

Family

ID=63235307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810326616.6A Active CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Country Status (1)

Country Link
CN (1) CN108460747B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111970424B (zh) * 2020-08-25 2022-07-19 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469110A (zh) * 2014-11-26 2015-03-25 西北工业大学 可变角度采样数的光场采集装置
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10334151B2 (en) * 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469110A (zh) * 2014-11-26 2015-03-25 西北工业大学 可变角度采样数的光场采集装置
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Light Field Photography with a Hand-held Plenoptic Camera;Ren Ng 等;《Stanford Tech Report CTSR》;20051231;第1-11页 *
Saliency Detection on Light Field;Nianyi Li 等;《CVPR2014》;20141231;第1-8页 *
SYNTHETIC APERTURE BASED ON PLENOPTIC CAMERAS FOR SEEING BEHIND OCCLUSION;Heng Zhang 等;《IEEE》;20171231;第801-806页 *

Also Published As

Publication number Publication date
CN108460747A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN107493432B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
Klose et al. Sampling based scene-space video processing
CN108073857B (zh) 动态视觉传感器dvs事件处理的方法及装置
CN109615652A (zh) 一种深度信息获取方法及装置
CN107509031B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2014165244A1 (en) Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
CN108337434B (zh) 一种针对光场阵列相机的焦外虚化重聚焦方法
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
CN112866549B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
KR102262671B1 (ko) 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체
US11756221B2 (en) Image fusion for scenes with objects at multiple depths
WO2019177761A1 (en) Hierarchical disparity hypothesis generation with slanted support windows
CN103888663A (zh) 图像处理设备、图像拾取设备和图像处理方法
CN110120012B (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
CN109302600B (zh) 一种立体场景拍摄装置
CN108460747B (zh) 一种光场相机的子孔径合成去遮挡方法
CN112529773B (zh) Qpd图像后处理方法及qpd相机
CN111970424B (zh) 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法
CN110430400B (zh) 一种双目可运动摄像机的地平面区域检测方法
JP2009025050A (ja) 視界良否判別装置、視界良否判別方法、コンピュータプログラム
CN116347056A (zh) 图像对焦方法、装置、计算机设备和存储介质
CN112866554B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112104856A (zh) 低复杂度二维影像视讯转换成三维影像视讯的方法
Emberger et al. Low complexity depth map extraction and all-in-focus rendering for close-to-the-pixel embedded platforms
CN112288669A (zh) 一种基于光场成像的点云地图获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant