CN106210465A - 用于根据4d原始光场数据获得重聚焦图像的方法 - Google Patents

用于根据4d原始光场数据获得重聚焦图像的方法 Download PDF

Info

Publication number
CN106210465A
CN106210465A CN201610365799.3A CN201610365799A CN106210465A CN 106210465 A CN106210465 A CN 106210465A CN 201610365799 A CN201610365799 A CN 201610365799A CN 106210465 A CN106210465 A CN 106210465A
Authority
CN
China
Prior art keywords
coordinate
function
image
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610365799.3A
Other languages
English (en)
Inventor
诺伊斯·萨瓦特尔
贝诺特·范达姆
马修·霍格
瓦尔特·德拉季奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN106210465A publication Critical patent/CN106210465A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Abstract

在一个实施例中,提出了用于针对给定的焦平面值g根据4D原始光场数据获得重聚焦图像的方法。该方法是由电子设备执行的,并且其特征在于该方法包括针对至少一个颜色分量确定所述重聚焦图像的处于坐标(k,l)∈N2处的至少一个像素值,所述确定包括:针对所述至少一个颜色分量获得具有包括在所述坐标(k,l)的邻域中的坐标的至少一个投影像素值;基于函数对所述至少一个投影像素值进行加权,所述加权输出加权值;针对所述至少一个颜色分量使用所述加权值来更新所述重聚焦图像的处于坐标(k,l)处的所述至少一个像素值。

Description

用于根据4D原始光场数据获得重聚焦图像的方法
技术领域
本公开涉及4D光场数据处理。更具体地,本公开涉及用于根据4D原始光场数据直接获得2D重聚焦图像的技术,而无需对4D原始光场数据执行解复用(即,在无需使用根据4D原始光场数据得到/获得的亚孔径图像的情况下获得重聚焦图像)。
背景技术
本部分旨在向读者介绍本领域中可能与以下描述和/或要求保护的本发明的各方面相关的各个方面。相信本讨论有益于向读者提供背景信息以便于更好地理解本发明的各个方面。因此,应当理解,这些陈述应以这种方式被解读,而不是作为对现有技术的承认。
获取4D光场数据(可以被视为对4D光场的采样)(即,在ECCV2008会议记录中公开的Anat Levin等的文章“Understanding camera trade-offs through a Bayesian analysis of light field projections”的图1中解释的光线的记录)是热门的研究课题。
实际上,与通过相机获得的典型的2D图像相比,4D光场数据使用户能够有权访问更多的后处理特征,这些特征增强了图像的呈现和/或与用户的交互性。例如,利用4D光场数据,可以容易地执行对图像的后验重聚焦(即,利用自由选择的调焦距离的重聚焦意味着焦平面的位置可以后验指定/选择)并且在图像的场景中略微改变视角。为了获取4D光场数据,可以使用几种技术。特别地,文档WO2013/180192中或文档GB 2488905中描述的全光相机能够获取4D光场数据。在本文的图1、图2、图3、图4和图5中提供了全光相机的架构的细节。
在现有技术中,存在用于表示(或定义)4D光场数据的几种方式。实际上,在2006年7月公布的Ren Ng的题为“Digital Light Field Photography”的博士学位论文的第3.3章中,描述了用于表示4D光场数据的三种不同的方式。第一,当由例如图1中所示的全光相机等的全光相机进行记录时,可以通过微透镜图像集合来表示4D光场数据(参见本文中的图2的描述)。这种表示的4D光场数据被称作原始图像(或4D原始光场数据)。第二,可以通过亚孔径图像集来表示4D光场数据。亚孔径图像对应于从视角捕获的场景的图像,该视角在两个亚孔径图像之间略微不同。这些亚孔径图像提供了与成像场景的视差和深度有关的信息。第三,可以用核线图像集来表示4D光场数据(参见在2011年ISVC会议记录中公开的S.Wanner等的题为“Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera”的文章)。
用于根据4D光场数据执行重聚焦的常见技术基于微透镜图像的平移和相加(即,直接根据4D原始光场数据,注意IRAW),如文档WO 2013/167758(部分“图像重聚焦方法”)中所解释的。本文的图6大体上示出了如何投影所述4D原始光场数据中的坐标(x,y)处的像素以获得2D图像。当将4D原始光场像素(即,微图像的像素)投影到重聚焦图像时,权重图记录了累积的投影像素的数量。权重图还记录在投影坐标是非整数坐标的情况下的插值。一旦将所有4D原始光场像素投影到重聚焦图像并且确定了权重图,就通过权重图对重聚焦图像进行划分使得每一个重聚焦的像素接收到相同的平均贡献。例如,由此得到的2D图像可以在显示器上输出,或者存储和/或发送到另一设备。
为了提高2D重聚焦图像的质量(特别是锐度),可以使用Juliet Fiss等的题为“Refocusing Plenoptic Images using Depth-Adaptive Splatting”的文章中所述的技术以用于插值的目的。实际上,基于该方法的插值在于将4D原始光场像素对2D重聚焦图像的影响进行扩散(参见文章的图5,其中,坐标(x,y)处的4D原始光场像素被投影到具有被定义为溅射内核的函数的值的位置s)。如该文章中所提到的:“溅射可以被视为使用径向基函数的一种形式的分散数据插值”。然而,该方法的一个缺点是必须在将4D原始光场像素投影到2D重聚焦图像 上之前对4D原始光场数据去马赛克。该方法的另一缺点是溅射内核在(x,y)中是各项同性的,并且仅取决于场景的深度。最后,该方法的另一缺点是溅射内核未考虑多焦点全光相机(例如,如Todor Georgiev和Andrew Lumsdaine的题为“The Multi-Focus Plenoptic Camera”的文章中所述的多焦点全光相机)或场景的几何形状。
因此,需要提供可以克服这些缺点的技术。
发明内容
说明书中对“一个实施例”、“实施例”、“示例性实施例”的参考指示所描述的实施例可以包括特定特征、结构或特性,但是每个实施例可以不必包括所述特定特征、结构或特性。此外,这种短语不必参考相同实施例。此外,当结合实施例描述特定特征、结构或特性时,应认为,在本领域技术人员的知识内,结合其他实施例影响这种特征、结构或特性,而不论是否明确地描述。
本公开涉及用于针对给定的焦平面值g根据4D原始光场数据获得重聚焦图像的方法。该方法由电子设备执行,并且其特征在于该方法包括针对至少一个颜色分量确定所述重聚焦图像的处于坐标(k,l)∈N2处的至少一个像素值,所述确定包括:
-针对所述至少一个颜色分量获得具有包括在所述坐标(k,l)的邻域中的坐标的至少一个投影像素值;
-基于函数对所述至少一个投影像素值进行加权,所述加权输出加权值;
-针对所述至少一个颜色分量使用所述加权值来更新所述重聚焦图像的处于坐标(k,l)处的所述至少一个像素值。
因此,本申请涉及用于逐个颜色分量地确定重聚焦图像中的像素值的处理。因此,本技术无需对4D原始光场数据使用去马赛克方法(可以在Zhan Yu等的题为“An Analysis of Color Demosaicing in Plenoptic Cameras”的文章中找到与去马赛克方法有关的更多细节)。因此,本技术实现了对重聚焦图像中的彩色伪影的减小。实际上,一旦针对每一个颜色应用了本技术,就对重聚焦图像(针对每一个颜色 分量一个重聚焦图像)进行组合以获得彩色图像。在本技术中未使用去马赛克方法。
在优选的实施例中,所述用于获得的方法其特征在于所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为 其中h1对应于属于的值,并且函数||.||是范数函数。
在优选的实施例中,所述用于获得的方法其特征在于所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为 其中,h2对应于属于的值,并且greal(X,Y)的值对应于与所述4D原始光场数据相关联的场景中的g的实值。更具体地,greal(X,Y)对应于与所述4D原始光场数据相关联的场景中与获取所述4D原始光场数据的光场获取设备相距的实值距离。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为其中,h3和h3′对应于属于的值,并且值a,b,c和d对应于根据所述重聚焦图像的张量结构确定的平滑值。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为W6(k,l,X,Y)=χ((k,l)属于([X],[Y])的K个最近邻居像素),其中,χ(.)是特征函数,所述特征函数在语句成立的情况下等于1否则等于0,[.] 是取整函数,并且K是大于或等于2的整数。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为W7(k,l,X,Y)=PSF(x,y),其中,函数PSF是全光相机的点扩散函数的估计。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为W8=χ(||(x,y)-(Cx,Cy)||2<ρ),其中χ(.)是特征函数,所述特征函数在语句成立的情况下等于1否则等于0,ρ是阈值,并且函数||.||是范数函数。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为 其中,h8对应于属于的值,并且函数||.||是范数函数。
在优选的实施例中,所述方法其特征在于所述至少一个投影像素值具有坐标(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始 光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为等于 其中i≠4,其中,S(x,y)是(x,y)所属的微透镜的锐度的度量,并且Smax对应于所述4D原始光场数据的所有微透镜上的最大锐度值。
在优选的实施例中,所述方法其特征在于所述函数被定义为是可分离的。
在优选的实施例中,所述方法其特征在于所述函数被定义为与另一函数的乘积,其中,h1对应于属于的值,函数||.||是范数函数。
在优选的实施例中,所述用于获得的方法其特征在于所述更新包括将所述加权值与所述至少一个像素值相加。
在一个实施例中,存在对所述至少一个像素值进行初始化。例如,对所述至少一个像素值进行初始化可以包括:在电子设备的寄存器中初始化为空值。
根据示例实现方案,通过计算机软件程序来实现该方法的不同步骤,这种软件程序包括被设计为由根据本公开的中继模块(relay module)的数据处理器来执行的软件指令,并被设计为控制执行该方法的不同步骤。
因此,本公开的一个方面还涉及易于通过计算机或数据处理器执行的程序,这种程序包括用于命令执行上述方法的步骤的指令。
该程序可以使用任何编程语言,并可以是源代码、目标代码或源代码和目标代码之间的中间代码的形式,例如,部分编译形式或任何其他所需形式。
本公开还涉及一种可由数据处理器读取并包括上述程序的指令 的信息介质。
信息介质可以是能够存储程序的任何实体或设备。例如,介质可以包括存储装置,如ROM(代表“只读存储器”),例如CD-ROM(代表“压缩盘-只读存储器”)或微电子电路ROM,或磁性记录装置,例如软盘或硬盘驱动器。
此外,信息介质可以是可传输载体,例如,由无线电或其他装置通过电缆或光缆传递的电信号或光信号。程序可以专门下载到互联网类型的网络中。
备选地,信息介质可以是其中并入了程序的集成电路,该电路适于执行或者用于执行考虑中的方法。
根据一个实施例,通过软件和/或硬件组件来实现本公开的实施例。从这个角度,本文中的术语“模块”可以对应于软件组件以及对应于硬件组件,或对应于硬件与软件组件的集合。
软件组件对应于一个或多个计算机程序、程序的一个或多个子程序,或更一般地,对应于能够根据以下针对所涉及的模块描述的内容实现功能或功能集合的程序或软件程序的任何元素。一个这种软件组件由物理实体(终端、服务器等)的数据处理器来执行,并能够访问该物理实体的硬件资源(存储器、记录介质、通信总线、输入/输出电子板、用户接口等)。
类似地,硬件组件对应于能够根据以下针对所涉及的模块描述的内容实现功能或功能集合的硬件单元的任何元素。它可以是可编程硬件组件或具有用于执行软件的集成电路(例如,集成电路、智能卡、存储卡、用于执行固件的电子版等)的组件。在一个变型中,硬件组件包括为集成电路的处理器(诸如中央处理器)和/或微处理器和/或专用集成电路(ASIC)和/或专用指令集处理器(ASIP)和/或图形处理单元(GPU)和/或物理处理单元(PPU)和/或数字信号处理器(DSP)和/或图像处理器和/或协处理器和/或浮点单元和/或网络处理器和/或音频处理器和/或多核处理器。此外,硬件组件还可以包括基带处理器(包括例如存储器单元和固件)和/或接收或发送无线电信号的无线电电子电路(可以包括天线)。在一个实施例中,硬件组件与一个或多个 标准兼容,诸如ISO/IEC 18092/ECMA-340、ISO/IEC21481/ECMA-352、GSMA、StoLPaN、ETSI/SCP(智能卡平台)、全球平台(即,安全元件)。在一个变型中,硬件组件是射频识别(RFID)标签。在一个实施例中,硬件组件包括启用蓝牙通信和/或Wi-Fi通信和/或ZigBee通信和/或USB通信和/或火线通信和/或NFC(用于近场)通信的电路。
还应当注意的是,在本文中获得元素/值的步骤可以被视为读取电子设备的存储器单元中的这种元素/值的步骤或者经由通信装置从另一电子设备接收这种元素/值的步骤。
在另一实施例中,提出了用于针对给定的焦平面值g根据4D原始光场数据获得重聚焦图像的电子设备。所述电子设备其特征在于,所述电子设备包括被配置为针对至少一个颜色分量确定所述重聚焦图像的处于坐标(k,l)∈N2处的至少一个像素值的电路,所述电路包括:
-获得电路,被配置为针对所述至少一个颜色分量获得具有包括在所述坐标(k,l)的邻域中的坐标的至少一个投影像素值;
-加权电路,被配置为基于函数对所述至少一个投影像素值进行加权,所述加权电路输出加权值;
-更新电路,被配置为针对所述至少一个颜色分量使用所述加权值来更新所述重聚焦图像的处于坐标(k,l)处的所述至少一个像素值。
在优选的实施例中,所述电子设备其特征在于,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为 其中,h1对应于属于的值,并且函数||.||是范数函数。
附图说明
通过参考附图给出的本发明的示例性实施例的以下详细说明,本发明的上述和其他方面将变得更加显而易见:
-图1示意性地呈现了本技术可以应用于的实现对光场数据的获取的全光相机中包括的主要组件;
-图2呈现了图1的传感器阵列捕获的图像;
-图3和图4示出了假定理想薄透镜模型的情况下的示意性II型全光相机;
-图5呈现了I型全光相机;
-图6呈现了4D原始光场像素的投影;
-图7a和图7b示出了根据本公开的一个实施例的溅射过程;
-图7c呈现了确定重聚焦图像中的位置(k,l)∈N2处的像素的值的示例;
-图8(a)和图8(b)示出了基于对像素的张量分析的本公开的一个实施例;
-图9(a)和图9(b)呈现了图像和通过包括微透镜阵列的全光相机获得的该图像的一部分,其中微透镜具有不同的焦距;
-图10呈现了投影像素,该投影像素具有坐标(k,l),其中接收到针对每一个颜色通道的至少一个值;
-图11示出了(坐标(x,y)处的)4D原始光场数据的像素值如何在投影坐标(X,Y)周围溅射/扩散到K个最近邻居(在K=6的情况下);
-图12示出了用于根据4D原始光场数据重聚焦图像的方法的一些步骤;
-图13呈现了可以用于执行本文所公开的方法的一个或多个步骤的设备的示例。
具体实施方式
图1示意性地呈现了本技术可以应用于的实现对光场数据的获取的全光相机中包括的主要组件。
更具体地,全光相机包括标记为101的主透镜和标记为104的传感器阵列(即,像素传感器阵列(例如,基于CMOS技术的传感器))。标记为102的微透镜阵列位于主透镜101与传感器阵列104之间,微透镜阵列包括标记为103的微透镜的集合。应当注意的是,可选地,一些垫片可以位于每一个透镜附近的微透镜阵列与传感器之间,以防止来自一个透镜的光与其他透镜的光在传感器侧交叠。应当注意的是, 主透镜101可以是更复杂的光学系统,如图1中所示的光学系统(如例如文档GB2488905的图12和图13中所述的光学系统)。因此,全光相机可以被视为传统的相机加上设置在传感器前方的微透镜阵列,如图1所示。通过微透镜的光线覆盖记录这些光线的辐射的传感器阵列的一部分。通过传感器的这一部分进行记录定义了微透镜图像。
图2呈现了由传感器阵列104捕获的图像。实际上,在该视图中,呈现了传感器阵列104包括标记为201的像素集。通过微透镜的光线覆盖多个像素201,并且这些像素记录入射/接收的光线的能量值。
因此,全光相机的传感器阵列104记录了包括布置在2D图像(也被称作原始4D光场图像)中的2D小图像(即,标记为202的微透镜图像)的集合的图像。实际上,每一个小图像(即,微透镜图像)是由微透镜(微透镜可以由透镜阵列的坐标(i,j)来标识)产生的。因此,光场的像素与4个坐标(x,y,i,j)相关联。作为由传感器记录的4D光场的L(x,y,i,j)示出了由传感器记录的图像。每一个微透镜产生由圆形表示的微图像(小图像的形状取决于通常圆形的微透镜的形状)。对(传感器阵列中的)像素坐标加标签(x,y)。p是两个连续微图像之间的距离,p不一定是整数值。微透镜被选择为使得p大于像素大小δ。微透镜图像是通过其坐标(i,j)来参考的。每一个微透镜图像使用(u,v)坐标系对主透镜的瞳孔进行采样。一些像素可能未从任何微透镜接收到任何光子,特别是在微透镜的形状是圆形的情况下。在该情况下,微透镜间的空间被遮蔽以防止光子从微透镜外部通过,从而导致微图像中的一些黑色区域。如果微透镜具有正方形形状,则不需要遮蔽。微透镜图像(i,j)的中心位于坐标(xi,j,yi,j)处的传感器上。θ是像素的正方形网格与微透镜的正方形网格之间的角度,在图2中,θ=0。假定微透镜是根据规则的正方形网格来布置的,则可以在考虑微透镜图像(0,0)的像素坐标(x0,0,y0,0)的情况下通过以下等式来计算(xi,j,yi,j):
图2还示出了来自场景的物体在多个连续微透镜图像上可见(黑点)。物体的两个连续视图之间的距离是w,该距离被称作复制距离。因此,对象在r个连续微透镜图像上是可见的,其中:
r是一维的连续微透镜图像的数量。对象在r2个微透镜图像中是可见的。根据微透镜图像的形状,物体的r2个视图中的一些视图可能是不可见的。
可以在2012年5月在IEEE Transactions on Pattern Analysis and MachineIntelligence,Vol.34,N°5公开的Tom E.Bishop和Paolo Favaro的题为“The Light Field Camera:Extended Depth of Field,Aliasing,and Superresolution”的文章中的题为“Image formation of a Light field camera”的部分4中找到与全光相机有关的更多细节。
应当注意的是,在以与文档US2013258098中所述的方式相同的方式(或相似的方式)设计传统相机的像素的至少一部分的情况下,本技术也可以应用于“这种传统相机”(在没有附加的微透镜阵列位于主透镜和像素阵列之间的意义上)。实际上,文档US2013258098公开了可以由于使用多个光接收部(例如,文档US2013258098中的附图标记116和117)而记录光场数据的像素。因此,本领域技术人员可以具有集成了文档US2013258098的技术的像素阵列的这种传统相机视为图1中所示的一种类型的全光相机,其中,每一个微透镜将光线集中于传感器104中包括的两个像素上。应当注意的是,如果在像素的架构中集成了更多接收部,则可以在像素可以记录(由两个低和高接收部获得的)多于两个数据信息的意义上概括文档US2013258098的技术。本公开可以对集成可以记录光场数据(如前所述)的像素的“传统相机”的原始图像使用。实际上,这些原始图像可以被视为微透镜图像集。
还应当注意的是,本公开也可以应用于获取4D光场数据的其他设备,例如,包括文档US 2010/0265386中所示的编码孔径元件的设备或者2007年在SIGGRAPH的记录中公开的A.Levin a等的题为“Image and depth from a conventional camera with a coded aperture”的文章中的设备、或者使用1995年4月10日在应用光学中公开的EdwardR.Dowski、Jr和W.Thomas Cathe的题为“Extended depth of field through wave-frontcoding”的文章中提到的波阵面编码技术的设备。
图3和图4示出了在假定理想薄透镜模型的情况下的示意性的II型全光相机。以像素为单位给出了先前介绍的距离p和w。通过将它们与像素大小δ相乘:W=δ.w和P=δ.p来将它们分别转换为物理单位距离(米)P和W。这些距离取决于光场相机特性。
主透镜具有焦距F和孔径Ф。微透镜阵列由具有焦距f的微透镜构成。微透镜阵列的间距是φ。微透镜阵列位于与主透镜相距D的位置处和与传感器相距d的位置处。物体(图上不可见)位于与主透镜相距z的位置处(左侧)。通过主透镜将该物体聚焦到与主透镜相距z′的位置处(右侧)。
图3和图4分别示出了D>z′和D<z′的情况。在两种情况下,微透镜图像可以根据d和f聚焦。该设计涉及所谓的II型全光相机(也称作全光相机2.0)。
图5呈现了I型全光相机(也称作全光相机1.0),其中f=d。
在图5中,进行设计使得主透镜将图像聚焦到与微透镜阵列接近的位置处。如果主透镜精确地聚焦到微透镜阵列上,则W=∞。此外,微透镜图像完全离焦并且等于常数(不考虑噪声)。
复制距离W随着物体的距离z而改变。为了建立W与z之间的关系,依赖于薄透镜方程:
和泰勒斯定律:
将前面两个等式结合得到:
W与z之间的关系未假定微透镜图像是聚焦的。微透镜图像根据薄透镜方程严格聚焦:
此外,根据泰勒斯定律,得到P:
P=φe
比值e定义了微透镜间距与微透镜图像间距之间的放大。该比值非常接近于1,这是因为D>>d。
可以在文档WO 2013/167758中找到类似的论述。
图6呈现了4D原始光场像素(即,坐标(x,y)处的像素,其属于标记为600的中心位于坐标(Cx,Cy)的微透镜图像)向坐标(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy])处的(2D重聚焦图像中的)像素的投影,其中,g确定重聚焦平面,s定义2D重聚焦图像的图像大小(因此,size(Ig)=s·size(IRAW),其中Ig.对应于2D重聚焦图像)。在图6的示例中,s=1。在文档WO2013/167758中详细描述了关于重聚焦过程的更多细节。
因此,给定固定的图像大小s和焦平面g,估计将4D原始光场数据IRAW的所有像素(x,y)进行投影的重聚焦图像Ig。应当注意的是,投影的坐标(X,Y)不一定位于均匀分布的网格或规则的网格上。实际上,图像平面上的实值位置(X,Y)的分布高度依赖于值g。
应当注意的是,假定通过现有的任何技术(如在计算机视觉和模式识别(CVPR)的会议记录中公开的Dansereau等的题为“Decoding,calibration and rectification for lenselet-based plenoptic cameras”的文章 中所述的技术(IEEE的2013IEEE会议))来估计图像的微透镜中心(Cx,Cy)。
所提出的技术涉及用于针对给定焦点(基于g的值)根据4D原始光场数据获得重聚焦图像的方法,包括:通过确定在(k,l)的邻域中投影的像素值的加权和来确定重聚焦图像中的位置(k,l)∈N2处的像素的值。因此,重聚焦图像被定义如下:
其中,是归一化因子,Bkl是以(k,l)为中心的邻域,并且位置(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),且c={R,G,B}是颜色通道(其中,是R红色、G是绿色并且B是蓝色)。应当注意的是,IRAW具有贝叶斯模式,因此IRAW c(x,y)仅针对一个颜色通道是非零的。
图7(a)和图7(b)示出了根据本公开的一个实施例的溅射过程。注意,利用该定义,溅射内核调整模糊量。内核越大,2D重聚焦图像越模糊。
图7(a)示出了强度值IRAW c(x,y)被投影到重聚焦平面处并且在位置(X,Y)周围扩散(溅射)。通过溅射内核W对扩散值进行加权,这意味着并非(X,Y)周围的所有像素都接收到相同的像素值。
图7(b)示出了为了呈现重聚焦图像,针对图像网格的每一个像素位置(k,l),确定该位置处所有接收的像素值的(加权)和。在该示例中,像素(k,l)接收到两个值。为了说明的目的,在该图中,溅射内核的形状是圆形的,但是其他形状是可能的。
图7(c)呈现了确定重聚焦图像中的位置(k,l)∈N2处的像素的值。在第一步骤中,选择位于坐标(k,l)∈N2处的像素的邻域Bkl。在本公开的实施例中,这种邻域可以以坐标(k,l)∈N2为中心。在一个变型中,这种邻域不以坐标(k,l)∈N2为中心,但是邻域区域包括坐标 (k,l)∈N2。邻域的几何形状可以改变(从圆形改变为更复杂的几何结构(如图7(c)中所示的几何结构))。在图7(c)的示例中,仅来自4D原始光场数据IRAW的具有红色分量的三个像素在邻域Bkl中具有投影。因此,在一个实施例中,针对红色分量,Ig c(k,l)=
[W(1)(k,l,X1,Y1)IRAW c(x1,y1)+W(2)(k,l,X2,Y2)IRAW c(x2,y2)+
W(3)(k,l,X3,Y3)IRAW c(x3,y3)]*归一化系数。
在该等式中,加权函数(也称作溅射内核)W(1)、W(2)和W(3)可以是相同的函数或不同的函数。
针对相同的邻域但是针对另一颜色分量,其他投影的像素包括在该邻域中。现在,描述溅射内核W的可能定义中的每一个。W的最简单的定义是具有固定半径r的圆形,在本文中,将其称作W0。但是,这种简单的溅射内核不会精细地恢复重聚焦图像。
在本公开的第一实施例中,溅射内核W关于||(k,l)-(X,Y)||2是递减函数,这意味着W(X,Y,X,Y)随着||(k,l)-(X,Y)||2的增加达到其最大值然后成比例地减小。这种溅射内核的示例被定义为:
值h1是可以由用户输入的参数或者是被定义为执行对4D原始光场数据的获取的光场设备的参数的函数的参数。
在本公开的第二实施例中,假定针对每一个点(x,y)已知greal(x,y)的值,即g的实值(即,场景中与光场获取设备相距的实值距离)。也即是说,点(x,y)被假定为在其处聚焦的平面(可以在已知场景的深度的情况下对此进行估计)。然后,可以根据greal在每一个点处对溅射内核进行调整。设g是旨在在其处对图像进行重聚焦的所需焦平面。将溅射内核定义为当|g-greal|减小时的递减函数。利用该定义,焦平面g处的点保持清晰,而其他点是模糊的,并且模糊的量 与到焦平面g的距离成正比。这种溅射内核的示例由下式给出:
值h2是可以由用户输入的参数或者是被定义为执行对4D原始光场数据的获取的光场设备的参数的函数的参数。
在本公开的第三实施例中,图像(图像边界)的结构和几何形状是可以由溅射内核采用的重要信息。给定图像的边缘,溅射内核使其形状适应图像边界。在该情况下,溅射内核是各向异性的,并且使其自身适应图像的边缘。例如,已知被定义为下式(其中Ix,Iy是图像I的偏导数)的图像的张量结构
提供了关于图像的局部几何形状的重要信息:特征向量v1,v2提供了图像梯度的主方向(切向量和法向量的方向)并且相应的特征值λ1,λ2提供了每一个主向量的幅度。具体地,特征向量表征场景的局部几何结构(较小的λ1,λ2对应于同质区域,较大的λ1,λ2对应于图像角,并且较大的λ1和较小的λ2对应于具有切线v1的图像边缘)。图8(a)示出了图像边界的情况,其中,使用在黑点处计算的张量矩阵的特征向量和特征值来估计切向量和法向量。由于张量分析,可以定义溅射内核使得当存在图像边缘时其形状是自适应的(参见图8(b))。
考虑张量结构提供的图像的几何结构的溅射内核的示例被定义为:
该高斯内核在方向上使用值h3进行平滑并且在方向 上使用值h′3进行平滑。
值h3和h′3是可以由用户输入的参数或者是被定义为执行对4D原始光场数据的获取的光场设备的参数的函数的参数。
注意,实际上,由于对投影点(X,Y)的不规则采样,因此估计重聚焦图像的张量并不容易。然而,张量是局部算子,并且可以在原始图像中对张量进行估计然后以与图像颜色值相同的方式对张量进行投影。
在第四实施例中,溅射内核考虑了多焦点全光相机中的微透镜类型。例如,Raytrix相机是其中存在具有三个不同的焦距的三种类型的微透镜的全光相机。图9(a)示出了使用Raytrix R5相机捕获的4D原始光场数据。
图9(b)呈现了相同的图像的不同部分的三种不同的剪裁。注意,微透镜阵列是由在焦距方面三种不同类型的微透镜形成的。因此,不同的微透镜使场景的不同部分聚焦。与中间的结果相比,左边的结果未使相同的微透镜聚焦。最后一个结果显示了在三个微透镜离焦的情况下场景的一部分。
在该实施例中,考虑溅射内核根据要溅射的值而改变的事实。如果这种值来自聚焦的微透镜,则溅射内核应当具有比对未聚焦的微透镜的值进行扩散的溅射内核更大的权重。该思想是相对于聚焦的微透镜对未聚焦的微透镜进行惩罚。这种溅射内核的示例被定义为:
其中,Wi≠4是本文中定义的溅射内核中的任意一个,S(x,y)是(x,y)所属的微透镜的锐度的度量,并且Smax是原始图像的所有微透镜上的最大锐度值。可以使用多个锐度度量。例如,在模式识别46.5(2013):1415-1432中公开的Pertuz,Said等的题为“Analysis of focus measure operators for shape-from-focus”的文章中定义了锐度度量。
在本公开的第五实施例中,给定图像大小s和所需重聚焦平面g,确定重聚焦平面中的投影点(X,Y)的分布。虽然s仅考虑了规模,但是g的选择改变其自身的分布。
在本技术中,溅射内核考虑该分布使得2D重聚焦图像的呈现过程不会产生颜色“空洞”。换言之,本技术确保2D重聚焦图像Ig的每一个像素位置(k,l)在溅射过程期间已经得到了每一个颜色的至少一个强度值。
实际上,这意味着对溅射内核的支持具有由最大采样步长H给出的最小大小。
这种溅射内核的示例是W5=W0,其中,圆形具有半径r=H。
图10呈现了针对每一个颜色通道接收到至少一个颜色的像素位置(k,l)。溅射内核可以具有不同的形状和大小(只要确保(对于不产生“空洞”必要的)最小大小)。
溅射内核的所有前述定义建议将像素值IRAW c(x,y)扩散到最近像素。然而,在本公开的第六实施例中,可以将相同的像素值关于给定标准扩散到K个最近邻居像素(在颜色方面、在梯度方面等最近的邻居)。在形式上,
W6(k,l,X,Y)=χ((k,l)属于([X],[Y])的K-NN)
其中,χ(.)是特征函数(如果句法成立,则等于1,否则等于0),并且[.]是取整函数。
图11呈现了被溅射到K个最近邻居的值IRAW c(x,y)。在该示例中,K=6。K-NN不一定是根据欧氏距离的最近像素,但是根据颜色、深度或任何其他标准是最近的。
在本发明的第七实施例中,可以在溅射内核的定义中估计并考虑全光相机的PSF(点扩散函数)(或微透镜阵列的PSF)。这种内核的一个可能的定义是:
W7(k,l,X,Y)=PSF(x,y)
注意,每一个颜色通道具有不同的PSF,因此也可以根据要溅射的颜色通道来调整溅射内核的定义。
在本公开的第八实施例中,已知全光相机受到渐晕并且具体地受 到微透镜的渐晕。提议在溅射过程期间相比于来自微透镜的中心的像素来对受到渐晕的像素进行惩罚。这里,假定渐晕校正并非始终是完美的,并且经校正的像素具有更差的信噪比,因此即使利用渐晕校正算法,对这些像素进行惩罚也是有用的。这种溅射内核的一个可能的定义是定义下式:
W8=χ(||(x,y)-(Cx,Cy)||2<ρ)
这意味着忽略置于微透镜的边界处的所有像素并且仅考虑具有半径ρ的圆形中的像素。另一个可能的定义由下式给出:
值h8是可以由用户输入的参数或者是被定义为执行对4D原始光场数据的获取的光场设备的参数的函数的参数。
注意,考虑了主透镜的渐晕的特定内核也是可能的。
在第九实施例中,溅射内核可以被计算为至少两个先前定义的溅射内核的乘积(例如,W9=W1W7或者W9=W2W3W6W8)。
图12呈现了根据本发明的一个实施例的流程图。
更具体地,图12示出了用于根据获取的4D原始光场数据重聚焦图像的方法的一些步骤。
在标记为1201的步骤中,电子设备接收4D原始光场数据。此外,由所述电子设备获得一些参数,所述电子设备定义了必须在其上完成聚焦的焦平面。在一个实施例中,可以经由用户与用户界面的(用于选择例如必须在其上进行聚焦的物体的)交互来获得这些参数。这些参数还可以包括重聚焦图像的大小。
然后,在标记为1202的步骤中,电子设备对4D原始光场数据的所有像素坐标进行处理以确定(例如图6中所投影的)投影像素的所有坐标。然后,通过使用规则网格(在上定义的有限网格)来定义2D重聚焦图像中的坐标,完成确定该规则网格中的像素值的过程。为了确定坐标(k,l)∈N2处的像素值,可以执行先前所述的过程。
在一个变型中,并未对4D原始光场数据的所有像素进行“投影”。实际上,微透镜图像的边缘处的像素被丢弃,并且因此在重聚焦过程 中未被投影和使用。
在一个变型中,同时完成对2D重聚焦图像中的像素值的投影和更新。
在步骤1202的最后,获得2D重聚焦图像。然后可以由显示设备来显示该2D重聚焦图像。
图13呈现了可以用于执行本文所公开的方法的一个或多个步骤的设备的示例。
标记为1300的这种设备包括标记为1301的计算单元(例如,CPU,针对“中央处理单元”)和标记为1302的一个或多个存储器单元(例如,RAM(针对“随机存取存储器”)块,其中,可以在执行计算机程序的指令期间临时存储中间结果,或者ROM块,其中,尤其存储计算机程序,或者EEPROM(“电可擦除可编程只读存储器”)块或闪存块)。计算机程序由可以由计算单元执行的指令构成。这种设备1300还可以包括构成输入/输出接口的标记为1303的专用单元,以允许设备1300与其他设备进行通信。具体地,该专用单元1303可以连接到天线(以便执行无接触式通信)或串行端口(以便进行“接触式”通信)。应注意,图13中的箭头意味着被链接的单元可以通过例如总线来交换数据。
在备选实施例中,可以在可编程FPGA(“现场可编程门阵列”)组件或ASIC(“专用集成电路”)组件中以硬件实现前述方法的一部分步骤或所有步骤。
在备选实施例中,可以在包括如图13所公开的存储单元和处理单元的电子设备上执行前述方法的一部分步骤或所有步骤。
在本公开的一个实施例中,图13中所示的电子设备可以包括在被配置为捕获图像(即,对光场进行采样)的相机设备中。这些图像被存储在一个或多个存储器单元上。因此,这些图像可以被视为比特流数据(即,比特序列)。显而易见,比特流也可以转换为字节流,反之亦然。

Claims (15)

1.一种用于针对给定的焦平面值g根据4D原始光场数据来获得重聚焦图像的方法,所述方法由电子设备执行,并且其特征在于,所述方法包括针对至少一个颜色分量确定所述重聚焦图像的处于坐标(k,l)∈N2处的至少一个像素值,所述确定包括:
-针对所述至少一个颜色分量,获得具有包括在所述坐标(k,l)的邻域中的坐标的至少一个投影像素值;
-基于函数对所述至少一个投影像素值进行加权,所述加权输出加权值;
-针对所述至少一个颜色分量,使用所述加权值来更新所述重聚焦图像的处于坐标(k,l)处的所述至少一个像素值。
2.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为:
其中h1对应于属于的值,并且函数||.||是范数函数。
3.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为:
其中,h2对应于属于的值,并且greal(X,Y)的值对应于与所述4D原始光场数据相关联的场景中与获取所述4D原始光场数据的光场获取设备相距的实值距离。
4.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为:
其中,h3和h3′对应于属于的值,并且值a,b,c和d对应于根据所述重聚焦图像的张量结构确定的平滑值。
5.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为:
W6(k,l,X,Y)=χ((k,l)属于([X],[Y])的K个最近邻居像素),其中,χ(.)是特征函数,所述特征函数在语句成立的情况下等于1否则等于0,[.]是取整函数,并且K是大于或等于2的整数。
6.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标:
(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为:
W7(k,l,X,Y)=PSF(x,y),其中,函数PSF是全光相机的点扩散函数的估计。
7.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标:
(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为:
W8=χ(||(x,y)-(Cx,Cy)||2<ρ),其中χ(.)是特征函数,所述特征函数在语句成立的情况下等于1否则等于0,ρ是阈值,并且函数||.||是范数函数。
8.根据权利要求1所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标:
(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为:
其中,h8对应于属于的值,并且函数||.||是范数函数。
9.根据权利要求2至8中任一项所述的用于获得的方法,其中,所述至少一个投影像素值具有坐标:
(X,Y)=(s[g(x-Cx)+Cx],s[g(y-Cy)+Cy]),其中,s定义了所述2D重聚焦图像的图像大小,坐标(x,y)对应于所述4D原始光场数据中的像素的坐标,坐标(Cx,Cy)对应于坐标(x,y)处的像素所属的微图像的中心的坐标,并且所述函数被定义为等于:
其中i≠4,其中,S(x,y)是(x,y)所属的微透镜的锐度的度量,并且Smax对应于所述4D原始光场数据的所有微透镜上的最大锐度值。
10.根据权利要求2至9中任一项所述的用于获得的方法,其中,所述函数被定义为是可分离的。
11.根据权利要求2至9中任一项所述的用于获得的方法,其中,所述函数被定义为:
与另一函数的乘积,其中,h1对应于属于的值,函数||.||是范数函数。
12.根据权利要求1至11中任一项所述的用于获得的方法,其中,所述更新包括:将所述加权值与所述至少一个像素值相加。
13.一种计算机可读非暂时性存储介质,存储包括计算机可执行指令集的计算机程序,以在由计算机执行所述指令时,执行用于处理4D原始光场数据的方法,其中所述指令包括在执行时将所述计算机配置为执行根据权利要求1至12所述的方法的指令。
14.一种用于针对给定的焦平面值g根据4D原始光场数据获得重聚焦图像的电子设备,所述电子设备的特征在于,所述电子设备包括被配置为针对至少一个颜色分量确定所述重聚焦图像的处于坐标(k,l)∈N2处的至少一个像素值的电路,所述电路包括:
-获得电路,被配置为针对所述至少一个颜色分量获得具有包括在所述坐标(k,l)的邻域中的坐标的至少一个投影像素值;
-加权电路,被配置为基于函数对所述至少一个投影像素值进行加权,所述加权电路输出加权值;
-更新电路,被配置为针对所述至少一个颜色分量使用所述加权值来更新所述重聚焦图像的处于坐标(k,l)处的所述至少一个像素值。
15.根据权利要求14所述的电子设备,其中,所述至少一个投影像素值具有坐标(X,Y),并且所述函数被定义为:
其中,h1对应于属于的值,并且函数||.||是范数函数。
CN201610365799.3A 2015-05-29 2016-05-27 用于根据4d原始光场数据获得重聚焦图像的方法 Pending CN106210465A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15305816.9A EP3098778A1 (en) 2015-05-29 2015-05-29 Method for obtaining a refocused image from 4d raw light field data
EP15305816.9 2015-05-29

Publications (1)

Publication Number Publication Date
CN106210465A true CN106210465A (zh) 2016-12-07

Family

ID=53396409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610365799.3A Pending CN106210465A (zh) 2015-05-29 2016-05-27 用于根据4d原始光场数据获得重聚焦图像的方法

Country Status (6)

Country Link
US (1) US10182183B2 (zh)
EP (2) EP3098778A1 (zh)
JP (1) JP2016224948A (zh)
KR (1) KR20160140453A (zh)
CN (1) CN106210465A (zh)
BR (1) BR102016011825A2 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106937044A (zh) * 2016-12-14 2017-07-07 北京信息科技大学 不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置
CN110892706A (zh) * 2017-06-12 2020-03-17 交互数字Ce专利控股公司 用于在2d显示设备上显示从光场数据导出的内容的方法
CN111028257A (zh) * 2019-11-06 2020-04-17 北京航空航天大学 微透镜子图像几何中心及边缘的提取方法及装置
US11589034B2 (en) 2017-06-12 2023-02-21 Interdigital Madison Patent Holdings, Sas Method and apparatus for providing information to a user observing a multi view content

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9693038B2 (en) * 2015-04-21 2017-06-27 Hand Held Products, Inc. Systems and methods for imaging
EP3494543B1 (en) * 2016-08-05 2023-06-28 InterDigital CE Patent Holdings A method for obtaining at least one sub-aperture image being associated with one view
US10230911B1 (en) * 2017-08-29 2019-03-12 Ricoh Company, Ltd Preview generation for plenoptic imaging systems
CN111382753B (zh) * 2018-12-27 2023-05-12 曜科智能科技(上海)有限公司 光场语义分割方法、系统、电子终端及存储介质
US11030776B2 (en) 2019-02-01 2021-06-08 Molecular Devices (Austria) GmbH Calibration of a light-field imaging system
CN110222789B (zh) * 2019-06-14 2023-05-26 腾讯科技(深圳)有限公司 图像识别方法及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8749694B2 (en) * 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8724000B2 (en) * 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
JP5623313B2 (ja) 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
US9568606B2 (en) 2012-03-29 2017-02-14 Canon Kabushiki Kaisha Imaging apparatus for distance detection using high and low sensitivity sensors with inverted positional relations
JP6064040B2 (ja) * 2012-05-09 2017-01-18 ライトロ, インコーポレイテッドLytro, Inc. ライトフィールドの取り込み及び操作を改善するための光学系の最適化
GB2501936B (en) 2012-05-11 2016-11-30 Canon Kk Micro lens array and imaging apparatus
JP6168794B2 (ja) 2012-05-31 2017-07-26 キヤノン株式会社 情報処理方法および装置、プログラム。
JP2014016965A (ja) 2012-07-11 2014-01-30 Toshiba Corp 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置
US9456141B2 (en) * 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106937044A (zh) * 2016-12-14 2017-07-07 北京信息科技大学 不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置
CN106937044B (zh) * 2016-12-14 2020-10-23 北京信息科技大学 不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置
CN110892706A (zh) * 2017-06-12 2020-03-17 交互数字Ce专利控股公司 用于在2d显示设备上显示从光场数据导出的内容的方法
US11202052B2 (en) 2017-06-12 2021-12-14 Interdigital Ce Patent Holdings, Sas Method for displaying, on a 2D display device, a content derived from light field data
US11589034B2 (en) 2017-06-12 2023-02-21 Interdigital Madison Patent Holdings, Sas Method and apparatus for providing information to a user observing a multi view content
CN111028257A (zh) * 2019-11-06 2020-04-17 北京航空航天大学 微透镜子图像几何中心及边缘的提取方法及装置
CN111028257B (zh) * 2019-11-06 2022-05-17 北京航空航天大学 微透镜子图像几何中心及边缘的提取方法及装置

Also Published As

Publication number Publication date
BR102016011825A2 (pt) 2017-01-24
KR20160140453A (ko) 2016-12-07
US10182183B2 (en) 2019-01-15
EP3098779A1 (en) 2016-11-30
US20160353007A1 (en) 2016-12-01
JP2016224948A (ja) 2016-12-28
EP3098778A1 (en) 2016-11-30
EP3098779B1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
CN106210465A (zh) 用于根据4d原始光场数据获得重聚焦图像的方法
Wan et al. CoRRN: Cooperative reflection removal network
CA3040006C (en) Device and method for obtaining distance information from views
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
CN105814875B (zh) 选择用于立体成像的相机对
US20200242788A1 (en) Estimating Depth Using a Single Camera
CN111353948B (zh) 一种图像降噪方法、装置及设备
US10334229B2 (en) Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
CN106462956A (zh) 局部自适应直方图均衡
CN108389224B (zh) 图像处理方法及装置、电子设备和存储介质
US20150279056A1 (en) High-quality post-rendering depth blur
KR20170005009A (ko) 3d 라돈 이미지의 생성 및 사용
EP3542347A1 (en) Fast fourier color constancy
JP2017017690A (ja) プレンオプティック・フォービエイテッド・カメラ
US20190253593A1 (en) Photographing Method for Terminal and Terminal
US10366478B2 (en) Method and device for obtaining a HDR image by graph signal processing
Zhou et al. Multiframe super resolution reconstruction method based on light field angular images
Zhang et al. Synthetic aperture based on plenoptic camera for seeing through occlusions
CN113673474A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN105654462A (zh) 一种基于影像配准的建筑物高程提取方法
EP3166073A1 (en) Method for obtaining a refocused image from 4d raw light field data
CN113361360B (zh) 基于深度学习的多人跟踪方法及系统
CN112203023B (zh) 一种十亿像素视频生成方法及装置、设备、介质
Van Vo et al. High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation
CN113344997B (zh) 快速获取只含有目标对象的高清前景图的方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161207

WD01 Invention patent application deemed withdrawn after publication