CN108460747B - 一种光场相机的子孔径合成去遮挡方法 - Google Patents
一种光场相机的子孔径合成去遮挡方法 Download PDFInfo
- Publication number
- CN108460747B CN108460747B CN201810326616.6A CN201810326616A CN108460747B CN 108460747 B CN108460747 B CN 108460747B CN 201810326616 A CN201810326616 A CN 201810326616A CN 108460747 B CN108460747 B CN 108460747B
- Authority
- CN
- China
- Prior art keywords
- aperture
- sub
- image
- motion vector
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 14
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 42
- 238000012935 Averaging Methods 0.000 claims abstract description 12
- 238000012216 screening Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 8
- 230000000903 blocking effect Effects 0.000 description 3
- 238000001308 synthesis method Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种光场相机的子孔径合成去遮挡方法,包括:A1:输入被遮挡物对齐的多幅子孔径图像;A2:分别提取多幅所述子孔径图像的深度图和运动矢量;A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。本发明能够获取较好的视觉效果。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种光场相机的子孔径合成去遮挡方法。
背景技术
光场相机在计算机视觉领域的应用引发了研究者们的广泛关注。2005年,斯坦福大学的Ng和Levoy首先提出手持式光场相机的原型。不同于传统相机,光场相机的主镜头和传感器平面之间插入了一块微透镜阵列。借助于特殊的几何关系,光场相机利用微透镜阵列和传感器平面记录了空间中光线的强度和方向。
2013年Dansereau等人提出了一套光场相机的解码、标定、校正和去噪方法,实现了光场相机子孔径图像的提取。2013年,Liu等人提出了基于张量的视觉数据填充算法,实现了图像中缺省部分的填补。2015年,Wang等人提出了遮挡情况下光场图像的深度估计方法,为深度估计提供了较为精准的结果。
现有的子孔径图像合成去遮挡方法主要可以分为:基于像素平均的孔径合成方法和基于像素挑选的孔径合成方法;其中基于像素平均的孔径合成方法也分为两种:直接平均和基于深度挑选的平均方法。直接平均法由于保留了来自遮挡物的像素,因而视觉效果不好。由于遮挡情况给深度估计带来了很大的困难,基于深度挑选的平均方法鲁棒性较差,容易被深度估计的误差影响。像素挑选的方法主要基于宏像素块中像素的置信度或者能量函数来挑选像素,但是这些方法的视觉效果较差。综上所述,现有的子孔径图像合成去遮挡方法中存在着视觉效果差的特点。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种光场相机的子孔径合成去遮挡方法,能够获取较好的视觉效果。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。
与现有技术相比,本发明的有益效果在于:本发明中的光场相机的子孔径合成去遮挡方法首先获取被遮挡物体对齐的子孔径图像,分别提取深度图和运动矢量,并将二者进行融合得到融合图像,然后在所有子孔图像的融合图像中目标区域内进行像素聚类,进而在相应的子孔径图像中挑选出来自于被遮挡物体的像素,按照空间位置对这些像素取平均,获取孔径合成图像;通过本发明的光场相机的子孔径合成去遮挡方法在获取被遮挡物体对齐的子孔径图像的基础上,能够去除镜头前小尺寸遮挡物,从而获得被遮挡物体的信息,从而获取较好的视觉效果。
附图说明
图1是本发明优选实施例的光场相机的子孔径合成去遮挡方法的流程示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明优选实施例的光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入子孔径图像:输入被遮挡物对齐的子孔径图像,即在这些子孔径图像中,被遮挡物体没有视差。
在本实施例中,应用单映性变换的方法,在由Illum相机拍摄得到子孔径图像中对齐被遮挡物体,子孔径图像的分辨率为434x625,共有225幅子孔径图像。
A2:提取深度图和运动矢量:分别提取每幅子孔径图像各自的深度图和运动矢量;
在本实施例中,采用现有的深度估计方法提取深度图,利用光流法计算运动矢量。
A3:融合深度图和运动矢量:对步骤A2中提取出的每一幅子孔径图像的深度图和运动矢量进行融合得到相应的融合图像;
在本实施例,步骤A3具体包括以下步骤:
A31:对步骤A2得到的深度图进行归一化处理:
其中,Depi,j表示由步骤A2得到的子孔径图像(i,j)的深度图,min(Depi,j)和max(Depi,j)分别表示深度图Depi,j中物体深度的最小值和最大值,Ii,j(x,y)表示这幅深度图中在(x,y)处像素的深度值,Ii,j'(x,y)表示经过归一化以后在(x,y)处像素的深度值;
A32:对步骤A2得到的运动矢量的模进行归一化处理:
其中,min(MVi,j)和max(MVi,j)分别表示从子孔径图像(i,j)提取的运动矢量图中像素运动矢量的模的最小值和最大值,MVi,j'(x,y)表示归一化后的运动矢量图中(x,y)处像素的运动矢量的模;
A33:对归一化后的运动矢量和深度图进行融合得到融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示两者(也即归一化后的深度值和运动矢量的模)融合的权重。
在本实施例中,由于被遮挡物体的深度值较小,运动矢量较大,因而这里的k取负值。
A4:聚类并筛选像素:对步骤A3得到的融合图像进行聚类,并在相应的子孔径图像中进行像素筛选;
在本实施例,步骤A4具体包括以下步骤:
A41:在所有的子孔径图像及其相应的融合图像中选择目标区域:
在所有的子孔径图像及其对应的融合图像中选择相同的目标区域,使得该区域内仅包括遮挡物和被遮挡物体;
A42:对融合图像中目标区域内的像素进行聚类:
将步骤A3中的融合图像依据融合图像中像素值的大小进行聚类,得到如下两类:
其中,Ceni,j(1)和Ceni,j(2)是子孔径图像(i,j)相对应的融合图像中的像素经过聚类之后得到的两个聚类中心,和分别表示将融合图像的像素进行聚类得到的两个集合,Range表示在步骤A41中选择的目标区域;
A43:筛选来自于被遮挡物体的像素所在的集合:
A44:在相应的子孔径图像中筛选出来源于被遮挡物体的像素:
其中,SIi,j(u,v)表示在子孔径图像(i,j)中(u,v)处的像素值,Ωi,j表示筛选出来的像素所在的集合。
在本实施例中,在步骤A42中,我们用模糊C均值聚类算法(FCM)对融合结果进行聚类。
A5:按照像素取平均:对所有的子孔径图像经步骤A4筛选出来的像素取平均,获取孔径合成图像;
在本实施例,步骤A5具体包括以下步骤:
对步骤A4筛选出的像素按照空间位置取平均:
其中,SIi,j(u,v)表示利用步骤A4从第(i,j)幅子孔径图像筛选出来的像素中,位置(u,v)处的像素值,即SIi,j(u,v)∈Ωi,j,N(u,v)表示在所有的经过步骤A4筛选出来的集合Ωi,j中在(u,v)处非空像素的个数,Imer(u,v)表示在孔径合成图像中(u,v)处像素值的大小,S表示输入的子孔径图像的全集。
A6:判断是否存在像素缺失:判断步骤A5得到的孔径合成图像是否存在像素缺失:若存在则需要进行像素填充,获取最终的孔径合成图像;若不存在,则步骤A5得到的孔径合成图像即为最终的孔径合成图像。
在本实施例中,采用现有的图像修复算法对步骤A5中得到的孔径合成图像的像素缺失处进行填充。
本发明优选实施例为了能够得到被遮挡的物体的表面信息,利用合成孔径的方法对输入的子孔径图像中来自被遮挡物体的像素进行合成,即可得到孔径合成图像;在孔径合成图像中,来自遮挡物的信息被删除,来自被遮挡物体的像素被保留并被平均,因此被遮挡物体的信息就显现出来。本发明的合成孔径方法的思路是:在获取被遮挡物体对齐的子孔径图像之后,通过融合子孔径图像的深度图和运动矢量,在相应的子孔径图像中筛选出来自被遮挡物体的像素,进而按照空间位置对这些像素取平均,即可获取孔径合成图像;其中的核心是从子孔径图像中筛选像素的过程,这个过程分为三步:融合深度图和运动矢量、对融合结果进行聚类和在子孔径图像中筛选像素;并且本发明通过融合深度图和运动矢量,并将挑选出来的像素取平均,能够有效减少深度估计和运动矢量带来的误差对结果的影响,使得结果更加稳定,视觉效果很好;此外,本发明还利用图像修复技术对孔径合成图像中的像素缺失部分进行填充,能够获得更好的视觉效果。通过本发明的光场相机的合成孔径去遮挡方法,可以得到合成孔径图像,能够去除镜头前小尺寸遮挡物,从而获得遮挡物后方的信息。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种光场相机的子孔径合成去遮挡方法,其特征在于,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像;
其中步骤A4具体包括:
A41:在所有的所述子孔径图像及相应的所述融合图像中选择相同的目标区域,其中目标区域内仅包括遮挡物和被遮挡物体;
A42:对所述融合图像中的目标区域内的像素进行聚类成两类;
A43:筛选来自于被遮挡物体的像素所在的集合,使得来自于被遮挡物的像素的组成的集合等于步骤A42中融合图像的像素聚类得到的两个集合中元素的均值较大的那个集合;
A44:在相应的所述子孔径图像中筛选出来源于被遮挡物体的像素。
2.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A3具体包括:
A31:对步骤A2中提取出的每一幅所述子孔径图像的深度图进行归一化处理;
A32:对步骤A2中提取出的每一幅所述子孔径图像的运动矢量的模进行归一化处理;
A33:分别对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像。
5.根据权利要求4所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A33分别采用式(4)对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示归一化后的深度值和运动矢量的模融合的权重。
10.根据权利要求1至9任一项所述的光场相机的子孔径合成去遮挡方法,其特征在于,还包括:A6:判断步骤A5中得到的孔径合成图像是否存在像素缺失,若存在则对该孔径合成图像进行像素填充,获取最终的孔径合成图像,若不存在,则该孔径合成图像即为最终的孔径合成图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810326616.6A CN108460747B (zh) | 2018-04-12 | 2018-04-12 | 一种光场相机的子孔径合成去遮挡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810326616.6A CN108460747B (zh) | 2018-04-12 | 2018-04-12 | 一种光场相机的子孔径合成去遮挡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108460747A CN108460747A (zh) | 2018-08-28 |
CN108460747B true CN108460747B (zh) | 2020-09-18 |
Family
ID=63235307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810326616.6A Active CN108460747B (zh) | 2018-04-12 | 2018-04-12 | 一种光场相机的子孔径合成去遮挡方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108460747B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111970424B (zh) * | 2020-08-25 | 2022-07-19 | 武汉工程大学 | 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104469110A (zh) * | 2014-11-26 | 2015-03-25 | 西北工业大学 | 可变角度采样数的光场采集装置 |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10334151B2 (en) * | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
-
2018
- 2018-04-12 CN CN201810326616.6A patent/CN108460747B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104469110A (zh) * | 2014-11-26 | 2015-03-25 | 西北工业大学 | 可变角度采样数的光场采集装置 |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
Non-Patent Citations (3)
Title |
---|
Light Field Photography with a Hand-held Plenoptic Camera;Ren Ng 等;《Stanford Tech Report CTSR》;20051231;第1-11页 * |
Saliency Detection on Light Field;Nianyi Li 等;《CVPR2014》;20141231;第1-8页 * |
SYNTHETIC APERTURE BASED ON PLENOPTIC CAMERAS FOR SEEING BEHIND OCCLUSION;Heng Zhang 等;《IEEE》;20171231;第801-806页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108460747A (zh) | 2018-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107493432B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
Klose et al. | Sampling based scene-space video processing | |
CN108073857B (zh) | 动态视觉传感器dvs事件处理的方法及装置 | |
CN109615652A (zh) | 一种深度信息获取方法及装置 | |
CN107509031B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
WO2014165244A1 (en) | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies | |
CN108337434B (zh) | 一种针对光场阵列相机的焦外虚化重聚焦方法 | |
JP6577703B2 (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
CN112866549B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
KR102262671B1 (ko) | 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체 | |
US11756221B2 (en) | Image fusion for scenes with objects at multiple depths | |
WO2019177761A1 (en) | Hierarchical disparity hypothesis generation with slanted support windows | |
CN103888663A (zh) | 图像处理设备、图像拾取设备和图像处理方法 | |
CN110120012B (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN109302600B (zh) | 一种立体场景拍摄装置 | |
CN108460747B (zh) | 一种光场相机的子孔径合成去遮挡方法 | |
CN112529773B (zh) | Qpd图像后处理方法及qpd相机 | |
CN111970424B (zh) | 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法 | |
CN110430400B (zh) | 一种双目可运动摄像机的地平面区域检测方法 | |
JP2009025050A (ja) | 視界良否判別装置、視界良否判別方法、コンピュータプログラム | |
CN116347056A (zh) | 图像对焦方法、装置、计算机设备和存储介质 | |
CN112866554B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN112104856A (zh) | 低复杂度二维影像视讯转换成三维影像视讯的方法 | |
Emberger et al. | Low complexity depth map extraction and all-in-focus rendering for close-to-the-pixel embedded platforms | |
CN112288669A (zh) | 一种基于光场成像的点云地图获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |