CN108460747A - 一种光场相机的子孔径合成去遮挡方法 - Google Patents

一种光场相机的子孔径合成去遮挡方法 Download PDF

Info

Publication number
CN108460747A
CN108460747A CN201810326616.6A CN201810326616A CN108460747A CN 108460747 A CN108460747 A CN 108460747A CN 201810326616 A CN201810326616 A CN 201810326616A CN 108460747 A CN108460747 A CN 108460747A
Authority
CN
China
Prior art keywords
aperture
sub
image
motion vector
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810326616.6A
Other languages
English (en)
Other versions
CN108460747B (zh
Inventor
金欣
张恒
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201810326616.6A priority Critical patent/CN108460747B/zh
Publication of CN108460747A publication Critical patent/CN108460747A/zh
Application granted granted Critical
Publication of CN108460747B publication Critical patent/CN108460747B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种光场相机的子孔径合成去遮挡方法,包括:A1:输入被遮挡物对齐的多幅子孔径图像;A2:分别提取多幅所述子孔径图像的深度图和运动矢量;A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。本发明能够获取较好的视觉效果。

Description

一种光场相机的子孔径合成去遮挡方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种光场相机的子孔径合成去遮挡方法。
背景技术
光场相机在计算机视觉领域的应用引发了研究者们的广泛关注。2005年,斯坦福大学的Ng和Levoy首先提出手持式光场相机的原型。不同于传统相机,光场相机的主镜头和传感器平面之间插入了一块微透镜阵列。借助于特殊的几何关系,光场相机利用微透镜阵列和传感器平面记录了空间中光线的强度和方向。
2013年Dansereau等人提出了一套光场相机的解码、标定、校正和去噪方法,实现了光场相机子孔径图像的提取。2013年,Liu等人提出了基于张量的视觉数据填充算法,实现了图像中缺省部分的填补。2015年,Wang等人提出了遮挡情况下光场图像的深度估计方法,为深度估计提供了较为精准的结果。
现有的子孔径图像合成去遮挡方法主要可以分为:基于像素平均的孔径合成方法和基于像素挑选的孔径合成方法;其中基于像素平均的孔径合成方法也分为两种:直接平均和基于深度挑选的平均方法。直接平均法由于保留了来自遮挡物的像素,因而视觉效果不好。由于遮挡情况给深度估计带来了很大的困难,基于深度挑选的平均方法鲁棒性较差,容易被深度估计的误差影响。像素挑选的方法主要基于宏像素块中像素的置信度或者能量函数来挑选像素,但是这些方法的视觉效果较差。综上所述,现有的子孔径图像合成去遮挡方法中存在着视觉效果差的特点。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种光场相机的子孔径合成去遮挡方法,能够获取较好的视觉效果。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。
与现有技术相比,本发明的有益效果在于:本发明中的光场相机的子孔径合成去遮挡方法首先获取被遮挡物体对齐的子孔径图像,分别提取深度图和运动矢量,并将二者进行融合得到融合图像,然后在所有子孔图像的融合图像中目标区域内进行像素聚类,进而在相应的子孔径图像中挑选出来自于被遮挡物体的像素,按照空间位置对这些像素取平均,获取孔径合成图像;通过本发明的光场相机的子孔径合成去遮挡方法在获取被遮挡物体对齐的子孔径图像的基础上,能够去除镜头前小尺寸遮挡物,从而获得被遮挡物体的信息,从而获取较好的视觉效果。
附图说明
图1是本发明优选实施例的光场相机的子孔径合成去遮挡方法的流程示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明优选实施例的光场相机的子孔径合成去遮挡方法,包括以下步骤:
A1:输入子孔径图像:输入被遮挡物对齐的子孔径图像,即在这些子孔径图像中,被遮挡物体没有视差。
在本实施例中,应用单映性变换的方法,在由Illum相机拍摄得到子孔径图像中对齐被遮挡物体,子孔径图像的分辨率为434x625,共有225幅子孔径图像。
A2:提取深度图和运动矢量:分别提取每幅子孔径图像各自的深度图和运动矢量;
在本实施例中,采用现有的深度估计方法提取深度图,利用光流法计算运动矢量。
A3:融合深度图和运动矢量:对步骤A2中提取出的每一幅子孔径图像的深度图和运动矢量进行融合得到相应的融合图像;
在本实施例,步骤A3具体包括以下步骤:
A31:对步骤A2得到的深度图进行归一化处理:
其中,Depi,j表示由步骤A2得到的子孔径图像(i,j)的深度图,min(Depi,j)和max(Depi,j)分别表示深度图Depi,j中物体深度的最小值和最大值,Ii,j(x,y)表示这幅深度图中在(x,y)处像素的深度值,Ii,j'(x,y)表示经过归一化以后在(x,y)处像素的深度值;
A32:对步骤A2得到的运动矢量的模进行归一化处理:
其中,分别表示从子孔径图像(i,j)提取的运动矢量图中(x,y)处像素的运动矢量在行和列方向上的分量,MVi,j(x,y)表示在运动矢量图中(x,y)处像素的运动矢量的模;
其中,min(MVi,j)和max(MVi,j)分别表示从子孔径图像(i,j)提取的运动矢量图中像素运动矢量的模的最小值和最大值,MVi,j'(x,y)表示归一化后的运动矢量图中(x,y)处像素的运动矢量的模;
A33:对归一化后的运动矢量和深度图进行融合得到融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示两者(也即归一化后的深度值和运动矢量的模)融合的权重。
在本实施例中,由于被遮挡物体的深度值较小,运动矢量较大,因而这里的k取负值。
A4:聚类并筛选像素:对步骤A3得到的融合图像进行聚类,并在相应的子孔径图像中进行像素筛选;
在本实施例,步骤A4具体包括以下步骤:
A41:在所有的子孔径图像及其相应的融合图像中选择目标区域:
在所有的子孔径图像及其对应的融合图像中选择相同的目标区域,使得该区域内仅包括遮挡物和被遮挡物体;
A42:对融合图像中目标区域内的像素进行聚类:
将步骤A3中的融合图像依据融合图像中像素值的大小进行聚类,得到如下两类:
其中,Ceni,j(1)和Ceni,j(2)是子孔径图像(i,j)相对应的融合图像中的像素经过聚类之后得到的两个聚类中心,分别表示将融合图像的像素进行聚类得到的两个集合,Range表示在步骤A41中选择的目标区域;
A43:筛选来自于被遮挡物体的像素所在的集合:
其中,avg(Ii,j(p1,q1))和avg(Ii,j(p2,q2))分别表示集合所代表的元素的均值, 即为来自于被遮挡物的像素组成的集合;
A44:在相应的子孔径图像中筛选出来源于被遮挡物体的像素:
其中,SIi,j(u,v)表示在子孔径图像(i,j)中(u,v)处的像素值,Ωi,j表示筛选出来的像素所在的集合。
在本实施例中,在步骤A42中,我们用模糊C均值聚类算法(FCM)对融合结果进行聚类。
A5:按照像素取平均:对所有的子孔径图像经步骤A4筛选出来的像素取平均,获取孔径合成图像;
在本实施例,步骤A5具体包括以下步骤:
对步骤A4筛选出的像素按照空间位置取平均:
其中,SIi,j(u,v)表示利用步骤A4从第(i,j)幅子孔径图像筛选出来的像素中,位置(u,v)处的像素值,即SIi,j(u,v)∈Ωi,j,N(u,v)表示在所有的经过步骤A4筛选出来的集合Ωi,j中在(u,v)处非空像素的个数,Imer(u,v)表示在孔径合成图像中(u,v)处像素值的大小,S表示输入的子孔径图像的全集。
A6:判断是否存在像素缺失:判断步骤A5得到的孔径合成图像是否存在像素缺失:若存在则需要进行像素填充,获取最终的孔径合成图像;若不存在,则步骤A5得到的孔径合成图像即为最终的孔径合成图像。
在本实施例中,采用现有的图像修复算法对步骤A5中得到的孔径合成图像的像素缺失处进行填充。
本发明优选实施例为了能够得到被遮挡的物体的表面信息,利用合成孔径的方法对输入的子孔径图像中来自被遮挡物体的像素进行合成,即可得到孔径合成图像;在孔径合成图像中,来自遮挡物的信息被删除,来自被遮挡物体的像素被保留并被平均,因此被遮挡物体的信息就显现出来。本发明的合成孔径方法的思路是:在获取被遮挡物体对齐的子孔径图像之后,通过融合子孔径图像的深度图和运动矢量,在相应的子孔径图像中筛选出来自被遮挡物体的像素,进而按照空间位置对这些像素取平均,即可获取孔径合成图像;其中的核心是从子孔径图像中筛选像素的过程,这个过程分为三步:融合深度图和运动矢量、对融合结果进行聚类和在子孔径图像中筛选像素;并且本发明通过融合深度图和运动矢量,并将挑选出来的像素取平均,能够有效减少深度估计和运动矢量带来的误差对结果的影响,使得结果更加稳定,视觉效果很好;此外,本发明还利用图像修复技术对孔径合成图像中的像素缺失部分进行填充,能够获得更好的视觉效果。通过本发明的光场相机的合成孔径去遮挡方法,可以得到合成孔径图像,能够去除镜头前小尺寸遮挡物,从而获得遮挡物后方的信息。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种光场相机的子孔径合成去遮挡方法,其特征在于,包括以下步骤:
A1:输入被遮挡物对齐的多幅子孔径图像;
A2:分别提取多幅所述子孔径图像的深度图和运动矢量;
A3:对步骤A2中提取出的每一幅所述子孔径图像的深度图和运动矢量进行融合分别得到相应的融合图像;
A4:对步骤A3中得到的所述融合图像进行聚类,并在相应的所述子孔径图像中进行像素筛选;
A5:对所有的所述子孔径图像经步骤A4筛选出来的像素取平均,获得孔径合成图像。
2.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A3具体包括:
A31:对步骤A2中提取出的每一幅所述子孔径图像的深度图进行归一化处理;
A32:对步骤A2中提取出的每一幅所述子孔径图像的运动矢量的模进行归一化处理;
A33:分别对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像。
3.根据权利要求2所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A31具体采用式(1)对步骤A2中提取出的每一幅所述子孔径图像的深度图进行归一化处理:
其中,Depi,j表示由步骤A2得到的子孔径图像(i,j)的深度图,min(Depi,j)和max(Depi,j)分别表示深度图Depi,j中物体深度的最小值和最大值,Ii,j(x,y)表示这幅深度图中在(x,y)处像素的深度值,Ii,j'(x,y)表示经过归一化以后在(x,y)处像素的深度值。
4.根据权利要求3所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A32具体采用式(2)和式(3)对步骤A2中提取出的每一幅所述子孔径图像的运动矢量的模进行归一化处理:
其中,分别表示从子孔径图像(i,j)提取的运动矢量图中(x,y)处像素的运动矢量在行和列方向上的分量,MVi,j(x,y)表示在运动矢量图中(x,y)处像素的运动矢量的模;
其中,min(MVi,j)和max(MVi,j)分别表示从子孔径图像(i,j)提取的运动矢量图中像素运动矢量的模的最小值和最大值,MVi,j'(x,y)表示归一化后的运动矢量图中(x,y)处像素的运动矢量的模。
5.根据权利要求4所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A33分别采用式(4)对归一化后的深度图和运动矢量的模进行融合得到每一幅所述子孔径图像的相应的融合图像:
Meri,j(x,y)=Ii,j'(x,y)+k·MVi,j'(x,y) (4)
其中,Meri,j(x,y)表示与子孔径图像(i,j)相对应的融合图像Meri,j中(x,y)处的值,k表示归一化后的深度值和运动矢量的模融合的权重。
6.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A4具体包括:
A41:在所有的所述子孔径图像及相应的所述融合图像中选择相同的目标区域,其中目标区域内仅包括遮挡物和被遮挡物体;
A42:对所述融合图像中的目标区域内的像素进行聚类;
A43:筛选来自于被遮挡物体的像素所在的集合;
A44:在相应的所述子孔径图像中筛选出来源于被遮挡物体的像素。
7.根据权利要求6所述的光场相机的子孔径合成去遮挡方法,其特征在于,
步骤A42具体采用式(5)和式(6)对所述融合图像中的目标区域内的像素进行聚类:
其中,Ceni,j(1)和Ceni,j(2)是子孔径图像(i,j)相对应的融合图像中的像素经过聚类之后得到的两个聚类中心,分别表示将融合图像的像素进行聚类得到的两个集合,Range表示在步骤A41中选择的目标区域;
优选地,步骤A43具体采用式(7)筛选来自于被遮挡物体的像素所在的集合:
其中,avg(Ii,j(p1,q1))和avg(Ii,j(p2,q2))分别表示集合所代表的元素的均值, 即为来自于被遮挡物的像素组成的集合。
8.根据权利要求7所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A44具体采用式(8)在相应的所述子孔径图像中筛选出来源于被遮挡物体的像素:
其中,SIi,j(u,v)表示在子孔径图像(i,j)中(u,v)处的像素值,Ωi,j表示筛选出来的像素所在的集合。
9.根据权利要求1所述的光场相机的子孔径合成去遮挡方法,其特征在于,步骤A5具体为采用式(9)对所有的所述子孔径图像经步骤A4筛选出来的像素取平均以获得孔径合成图像:
其中,SIi,j(u,v)表示利用步骤A4从第(i,j)幅子孔径图像筛选出来的像素中,位置(u,v)处的像素值,即SIi,j(u,v)∈Ωi,j,N(u,v)表示在所有的经过步骤A4筛选出来的集合Ωi,j中在(u,v)处非空像素的个数,Imer(u,v)表示在孔径合成图像中(u,v)处像素值的大小,S表示输入的子孔径图像的全集。
10.根据权利要求1至9任一项所述的光场相机的子孔径合成去遮挡方法,其特征在于,还包括:A6:判断步骤A5中得到的孔径合成图像是否存在像素缺失,若存在则对该孔径合成图像进行像素填充,获取最终的孔径合成图像,若不存在,则该孔径合成图像即为最终的孔径合成图像。
CN201810326616.6A 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法 Active CN108460747B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810326616.6A CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810326616.6A CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Publications (2)

Publication Number Publication Date
CN108460747A true CN108460747A (zh) 2018-08-28
CN108460747B CN108460747B (zh) 2020-09-18

Family

ID=63235307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810326616.6A Active CN108460747B (zh) 2018-04-12 2018-04-12 一种光场相机的子孔径合成去遮挡方法

Country Status (1)

Country Link
CN (1) CN108460747B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111970424A (zh) * 2020-08-25 2020-11-20 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469110A (zh) * 2014-11-26 2015-03-25 西北工业大学 可变角度采样数的光场采集装置
US20160269620A1 (en) * 2013-04-22 2016-09-15 Lytro, Inc. Phase detection autofocus using subaperture images
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160269620A1 (en) * 2013-04-22 2016-09-15 Lytro, Inc. Phase detection autofocus using subaperture images
CN104469110A (zh) * 2014-11-26 2015-03-25 西北工业大学 可变角度采样数的光场采集装置
CN107403423A (zh) * 2017-08-02 2017-11-28 清华大学深圳研究生院 一种光场相机的合成孔径去遮挡方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HENG ZHANG 等: "SYNTHETIC APERTURE BASED ON PLENOPTIC CAMERAS FOR SEEING BEHIND OCCLUSION", 《IEEE》 *
NIANYI LI 等: "Saliency Detection on Light Field", 《CVPR2014》 *
REN NG 等: "Light Field Photography with a Hand-held Plenoptic Camera", 《STANFORD TECH REPORT CTSR》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111970424A (zh) * 2020-08-25 2020-11-20 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法
CN111970424B (zh) * 2020-08-25 2022-07-19 武汉工程大学 基于微透镜阵列合成孔径的光场相机去遮挡系统和方法

Also Published As

Publication number Publication date
CN108460747B (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
Klose et al. Sampling based scene-space video processing
Xu et al. Depth-aware motion deblurring
CN107493432B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
EP2566150B1 (en) Image processing apparatus, image processing method, and program
US10257501B2 (en) Efficient canvas view generation from intermediate views
CN107509031B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2014165244A1 (en) Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
CN108337434B (zh) 一种针对光场阵列相机的焦外虚化重聚焦方法
CN107925751A (zh) 用于多视点降噪和高动态范围的系统和方法
KR20130061636A (ko) 멀티-레졸류션 절차를 이용하여 강건한 깊이 맵을 생성하는 시스템 및 방법
WO2021093635A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US20220237813A1 (en) Image fusion for scenes with objects at multiple depths
WO2014180255A1 (zh) 一种数据处理方法、装置、计算机存储介质及用户终端
EP3665651A1 (en) Hierarchical disparity hypothesis generation with slanted support windows
CN103888663A (zh) 图像处理设备、图像拾取设备和图像处理方法
CN110120012B (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
Mohan et al. Unconstrained motion deblurring for dual-lens cameras
CN108460747B (zh) 一种光场相机的子孔径合成去遮挡方法
CN112529773B (zh) Qpd图像后处理方法及qpd相机
JP2009025050A (ja) 視界良否判別装置、視界良否判別方法、コンピュータプログラム
CN116437205B (zh) 一种多视点多焦距成像的景深拓展方法和系统
JP6006506B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN109166079A (zh) 一种混合合成运动矢量与亮度聚类的去遮挡方法
EP3229106A1 (en) Efficient determination of optical flow between images
CN112866554B (zh) 对焦方法和装置、电子设备、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant