CN107787463A - 优化对焦堆栈的捕获 - Google Patents

优化对焦堆栈的捕获 Download PDF

Info

Publication number
CN107787463A
CN107787463A CN201680033458.4A CN201680033458A CN107787463A CN 107787463 A CN107787463 A CN 107787463A CN 201680033458 A CN201680033458 A CN 201680033458A CN 107787463 A CN107787463 A CN 107787463A
Authority
CN
China
Prior art keywords
image
sharpness metric
lens
target depth
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680033458.4A
Other languages
English (en)
Other versions
CN107787463B (zh
Inventor
A·林斯科格
F·多普克
R·布鲁内尔
T·E·毕夏普
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of CN107787463A publication Critical patent/CN107787463A/zh
Application granted granted Critical
Publication of CN107787463B publication Critical patent/CN107787463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Abstract

生成对焦堆栈包括:接收用于识别多个目标深度的初始对焦数据;将透镜定位在第一位置处,以在多个目标深度中的第一目标深度处捕获第一图像;响应于捕获到第一图像并且在捕获附加图像之前,确定第一图像的锐度度量;响应于确定第一图像的锐度度量为不可接受的值,基于该锐度度量在第二位置处捕获第二图像,其中该第二位置不被包括在多个目标深度中;确定第二图像的锐度度量为可接受的值;以及使用第二图像来生成对焦堆栈。

Description

优化对焦堆栈的捕获
背景技术
本公开整体涉及数字图像捕获和处理领域,更具体地讲涉及优化对焦堆栈(focusstack)的捕获的领域。相机可调节透镜堆叠件以对焦在对象上。相机的自动对焦(AF)系统可例如自动调节透镜堆叠件以对焦在物体上。一个特定的图像可能有若干个应对焦的对象。
对焦堆叠将具有不同焦点的多个图像组合起来,创建出具有优于单个图像的整体对焦效果的最终图像。为了确保场景中的所有点都被捕获对焦,需要将透镜堆叠件从微距清理至无穷远。例如,相机可利用一系列预定深度的透镜堆叠件来捕获图像。在每个深度处,图像的各不同部分可被对焦。通过将各种图像组合成对焦堆栈,最终图像将具有多个焦点。
就其性质而言,使用对焦堆栈需要捕获多个图像,从而导致帧捕获和性能之间存在折衷。在帧数较少的情况下,可能会有部分场景未被捕获对焦,但处理能力将是最佳的。相反,更好的结果需要捕获更多的帧,以确保场景的所有部分都可被捕获对焦。然而,捕获的图像越多,所需处理能力就越大,所需存储各种图像以进行处理的内存也就越大。
发明内容
在一个实施方案中,描述了用于优化的对焦堆栈的捕获的方法。该方法包括接收用于识别目标深度的初始对焦数据;将透镜定位在第一位置,在第一目标深度处捕获第一图像;响应于捕获到第一图像并且在捕获附加图像之前,确定第一图像的锐度度量;响应于确定第一图像的锐度度量为不可接受的值,基于锐度度量来捕获第二位置处的第二图像,其中第二位置不与所述多个目标深度相关联;确定第二图像的锐度度量为可接受的值;以及使用第二图像来生成对焦堆栈。
在另一个实施方案中,该方法可在计算机可执行程序代码中实现,并且被存储于非暂态存储设备中。在又一个实施方案中,该方法可在具有图像捕获能力的电子设备中实现。
附图说明
图1以框图形式示出了根据一个或多个实施方案的简化的相机系统。
图2以流程图形式示出了根据一个实施方案的对焦堆栈操作。
图3示出了根据一个或多个实施方案的在优化对焦堆栈的捕获中所采用的各种步骤的示例性流程图。
图4以框图形式示出了根据一个或多个实施方案的简化的多功能设备。
具体实施方式
本公开涉及用于优化对焦堆栈的生成的系统、方法和计算机可读介质。一般来讲,公开了用于确定目标深度的技术,该技术始于在目标深度处捕获图像,并且在该目标深度处捕获图像的同时确定每个图像的锐度度量。如果针对特定图像的确定锐度度量被确定为不适于对焦堆栈,则将透镜重新定位以拍摄另一图像,其中透镜被定位成距捕获到不适合图像处稍近或稍远,然后再在该目标深度处捕获图像。更具体地,在一个或多个实施方案中,通过以下方式来生成对焦堆栈:接收用于识别目标深度的初始对焦堆栈数据,将透镜定位在第一位置以捕获第一目标深度处的第一图像,响应于捕获基于第一图像的锐度度量,确定基于该锐度度量在第二位置处捕获第二图像,以及使用第二图像来生成对焦堆栈。另外,在一个或多个实施方案中,在捕获第一图像之后,并且响应于确定第二图像的锐度度量是可接受的,将透镜定位在所确定的多个目标深度中的第二目标深度处,并在第二目标深度处捕获第三图像。
在以下描述中,为了解释的目的,阐述了很多具体细节以便提供对所公开构思的彻底理解。作为该描述的一部分,本公开的附图中的一些附图以框图形式表示结构和设备,以避免模糊所公开实施方案的新颖方面。在这种情况下,应该理解,对不具有相关标识符(例如,100)的编号附图元素的引用,是指具有标识符(例如100a和100b)的附图元素的所有实例。另外,作为本说明的一部分,本公开的一些附图可按流程图的形式提供。任何特定流程图中的框可按特定顺序呈现。然而,应当理解,任何流程图的特定流程仅用于示例出一个实施方案。在其他实施方案中,可删除流程图中描绘的各种部件中的任何部件,或者可按不同顺序执行这些部件,或者甚至可同时执行这些部件。另外,其他实施方案可包括未作为流程图的一部分而描绘的附加步骤。出于可读性和指导性目的,在原则上选择了本公开中使用的语言,可不这样选择以描绘或界定所公开的主题。在本公开中提到“一个实施方案”或“实施方案”意指包括在至少一个实施方案中的结合该实施方案所述的特定特征、结构或特性,并且多次提到“一个实施方案”或“实施方案”不应被理解为必然地全部参考同一实施方案或不同实施方案。
应当理解,在任何实际具体实施的开发中(如在任何开发项目中那样),必须要做出许多决策以实现开发者的特定目标(例如符合与系统和商务相关的约束条件),并且这些目标将在不同具体实施之间变化。还应当理解,此类开发工作可能是复杂且费时的,但尽管如此,对于受益于本公开的图像捕获的那些普通技术人员而言,这仍然是他们的日常工作。
出于本公开的目的,术语“透镜”是指可包括多个透镜的透镜组件,该透镜可被移动到各种位置以在多个深度处捕获图像,并因此产生多个焦点。这样,术语“透镜”可意指单个光学元件或被配置成堆叠件或其他布置的多个元件。
出于本公开的目的,术语“对焦堆栈”可描述捕获同一对象的图像,其中每个图像是以处于不同焦距处的透镜所捕获的。
参见图1,根据本公开的一个或多个实施方案描绘了相机系统100的简化框图。相机系统100可为相机(诸如数码相机)的一部分。相机系统100还可为多功能设备的一部分,诸如移动电话、平板电脑、个人数字助理、便携式音乐/视频播放器,或包括相机系统的任何其他电子设备。
相机系统100可包括透镜105。更具体地,如上所述,透镜105实际上可包括透镜组件,该透镜组件可包括多个光学透镜,每个光学透镜具有各种透镜特性。例如,每个透镜自身可具有影响由特定透镜捕获的图像质量的物理缺陷。当多个透镜相组合时,例如在复合透镜的情况下,透镜的各种物理特性可能影响通过透镜组件所捕获的图像的特性,诸如焦点。
如图1中所示,相机系统100还可包括图像传感器110。图像传感器110可为检测并传送构成图像的信息的传感器。光可先穿过透镜105,然后被图像传感器110检测到,并被存储在例如存储器115中。
在一个或多个实施方案中,相机系统100还可包括机械止动件120(120a、120b、120c和120d)。各种机械止动件120可描绘出全活动范围125的轮廓,透镜105可在该活动范围中移动以在各个位置处捕获图像。在一个或多个实施方案中,机械止动件120b和120d表示微距止动件,机械止动件120a和120c表示无穷远止动件。透镜105可在全活动范围125内移动,从而在微距止动件与无穷远止动件之间的各种距离处捕获图像。在不同的透镜位置捕获图像可能导致各种图像具有不同的焦点,或者场景中的各个点或多或少地被对焦。因此,根据在捕获图像时透镜的位置,图像中的不同物体或图像的一些部分可能看上去是对焦的。在一个或多个实施方案中,致动器130将透镜105在机械止动件120之间移动。在一个或多个实施方案中,相机系统可包括一个以上的相机,每个相机包括其自身的透镜装置、机械止动件等。
相机系统100中还包括取向传感器135和模式选择输入140,此二者均将输入提供给控制单元145。在一个实施方案中,图像捕获设备可使用电耦器件(或互补金属氧化物半导体)作为图像传感器110,用机电单元(例如,音圈电机)作为致动器130,并用加速度计135作为取向传感器。
转到图2,该图以流程图形式描绘了用于生成对焦堆栈的示例性方法。该流程图始于205,其中图像捕获系统接收到识别合适的目标深度或焦距的初始对焦数据。目标深度可包括对应捕获限定数量图像的场景中最主要深度的估计。在一个或多个实施方案中,可按深度图的形式接收初始对焦数据。此外,在一个或多个实施方案中,对焦数据可在自动对焦操作期间获得,或者可在预览模式期间使用传感器接收。在一个或多个实施方案中,可使用旨在测量与场景中对象的距离的硬件来接收初始对焦数据,诸如激光测距仪,或可相匹配的立体相机(具有相同焦距的两个相机)或不相匹配的立体相机(具有不同焦距的两个相机,例如,广角透镜/相机和长焦透镜/相机)。此外,接收初始对焦数据可包括相位检测部分。相位检测部分可提供对如何针对场景中的一个或多个兴趣点将透镜移动对焦的粗略估计。例如,在相位检测部分期间,控制器145可近似地识别将提供具有对焦的一个或多个感兴趣对象的图像的一个或多个对焦止动件。
流程图在210处继续进行,透镜(或可用透镜之一)被定位在第一目标深度处以捕获第一图像。例如,参见图1,致动器130可将透镜105移动到与初始对焦数据中所识别的第一目标深度相关联的位置。图像可使用图像传感器110来捕获并存储在存储器115中。
流程图在215处继续,并且确定图像的锐度度量是否为可接受的值。在一个或多个实施方案中,通过分析图像来检测边缘并确定检测到的边缘的锐度来确定锐度度量。也就是说,在一个或多个实施方案中,通过分析图像的边缘强度或者图像的一个或多个部分中的边缘强度来确定锐度度量。例如,可将一组滤波器应用于图像以确定边缘的强度。锐度度量可被表示为数值,或者通过识别图像或其指定部分的锐度或相对锐度的任何其他方式来表示。确定图像的锐度度量是否为可接受的值可包括,将确定的锐度度量与预定义的锐度阈值进行比较。例如,可能需要使用特定的锐度来生成对焦堆栈。所需锐度可按计算的数字的形式来表示,或者以在某个规模上的特定步骤的形式表示。另外,基于例如图像捕获系统的特性或环境因素,可在运行时修改或重新计算所需的锐度。在一个或多个实施方案中,可将锐度度量与锐度阈值进行比较,以确定将该图像包括在对焦堆栈中是否是可接受的。
在一个或多个实施方案中,还可基于当前图像与先前在不同目标深度处捕获的图像之间的特性的比较来确定锐度度量。例如,可在每个图像处评估用于确定初始对焦数据诸如立体相机和相位检测信息的各种技术。
如果在215处确定锐度度量不为可接受的值,则流程图在220处继续,并且所述多个目标深度被细化。例如,如果锐度度量指示边缘不够清晰,则可将透镜移动到比第一位置稍微靠近或远离的新位置,以便在移动到下一目标深度之前捕获另一个图像。在一个或多个实施方案中,相位检测信息或立体相机信息可利用每个图像来捕获,并且在目标深度的扫描期间对图像之间的信息进行分析可指示将镜头移向哪个方向。另外,相位检测信息还可指示到下一个新的目标深度的距离。
在一个或多个实施方案中,锐度度量可在镜头运动时即时计算。例如,当透镜105从第一目标深度运动到第二目标深度时,控制单元145可确定第一图像的锐度度量不足。作为响应,透镜105可被重新定位并以更接近第一图像的深度的位置捕获另一图像,以获得针对该目标深度具有更好锐度的图像。因此,当透镜从第一目标深度移动到第二目标深度时,可确定在第一目标深度处捕获的图像不够清晰,并且应当更靠近但稍微偏离第一目标深度来捕获另一个图像。因此,在220处,所述多个目标深度被细化,并且透镜返回到第一目标深度附近以捕获一个或多个附加图像,以确保捕获的表示第一目标深度的图像锐度足够,然后再继续下一目标深度。
当在215处捕捉的图像被认为具有可接受的锐度度量值之后,流程图继续到230。在230处,确定在所述多个目标深度中是否存在额外的目标深度。在一个或多个实施方案中,如果确定在初始聚焦数据中或者在细化的多个目标深度中存在附加目标深度,则流程图在225处继续,并且在下一个目标深度处捕获下一个图像。在一个或多个实施方案中,响应于在最后的目标深度捕获最后的图像,镜头可被重新定位到下一个目标深度。流程图在215处继续,并且确定图像的锐度度量是否为可接受的值。如果在215处确定锐度度量不为可接受的值,则流程图在220处继续,并且多个目标深度被细化。然后在225,在下一个目标深度捕获下一个图像。可重复215、220和225中描述的动作,直到锐度度量被认为是可接受的。
当在215处认为图像具有可接受的锐度度量值,并且在230处确定不存在更多的目标深度时,方法在235处继续。在235处,使用在215处锐度度量被认为可接受的图像来生成对焦堆栈。结果是一组图像(对焦堆栈),每个图像具有不同的对焦深度。在一个或多个实施方案中,对焦堆栈可被用于生成全聚焦图像,其中单个图像包括各种对焦深度。在一个或多个实施方案,对焦堆栈也可用于使用聚焦深度法(DFF)来生成深度图。具体地,在一个或多个实施方案中,优化捕获具有不同焦点的图像,可允许使用较少数量的图像来获得更好的深度图。
应该理解的是,上述流程图的各个部件可以不同的顺序或同时执行,并且在一个或多个实施方案中甚至可省略一些部件。
现在参考图3,示出了描绘在各个位置的透镜系统300的示例性流程图,以及在每个位置处捕获的示例图像305。应该理解的是,图3所示示例仅仅出于清楚的目,并且不旨在限制本公开。出于该示例的目的,初始对焦数据指示两个目标深度:目标深度A和目标深度B。在一个或多个实施方案中,可在捕获图像之前确定目标深度,例如在自动对焦过程期间,或从对焦图,或在其他一些初步测量期间。
该流程图开始于透镜系统300a在目标深度A处捕获图像305a。在该示例中,所捕获的场景包括云和闪电球,其中目标深度A旨在捕获对焦的闪电球。两者均以灰阶显示,表示锐度较差。在一个或多个实施方案中,相机系统可计算图像305a的锐度度量以确定锐度度量不佳。举例来说,在一个或多个实施方案中,相机系统可确定图像A 305a中所俘获的场景中的一个或多个部件的边缘强度包括强边缘。为了该示例的目的,相机系统可确定图像A305a的锐度度量是不可接受的。在一个或多个实施方案中,相机系统可在捕获图像之后,并且在镜头在目标深度A与目标深度B之间运动时,计算图像A 305a的锐度度量。
响应于确定图像A 305a的锐度度量不可接受,流程图继续到被描绘为透镜系统300b的系统。具体地,将透镜重新引导回目标深度A,在比目标深度A稍微更接近于无穷远的深度处捕获图像B 305b。结果是图像B 305B中的闪电球的边缘强度更清晰,如粗黑线条所描绘的。
响应于确定图像B 305b的锐度度量是可接受的,如透镜系统300c中所示,将透镜移动到目标深度B。应当理解的是,在一个或多个实施方案中,当相机系统正在计算图像B305b的锐度度量并且确定该锐度度量是可接受的,透镜在透镜系统300b和透镜系统300c(例如,目标深度B)中所描绘的位置之间移动。当透镜处于目标深度B时,图像C 305c可被捕获。如图所示,闪电球现在显示为灰阶,表示焦点没有对准,云则用黑色的清晰线条描绘,表示对准。相机系统可确定图像C 305c的锐度度量是可接受的。
由于透镜已在每个目标深度捕获图像,因此可生成对焦堆叠320。在一个或多个实施方案中,可生成对焦堆栈320,该对焦堆栈可为仅具有可接受的锐度度量值的捕获图像(即图像B 305b和图像C 305c)的集合。优化图像捕捉来形成对焦堆栈320的结果是,以从对焦堆栈生成的全聚焦图像的形式清晰描绘了云和闪电球两者,并且捕获的图像数量最少。
现在参见图4,其示出了根据一个实施方案的示例性多功能设备400的简化功能框图。电子设备400可包括处理器405、显示器410、用户界面415、图形硬件420、设备传感器425(例如,接近传感器/环境光传感器、加速度计和/或陀螺仪)、麦克风430、音频编解码器435、扬声器440、通信电路445、数字图像捕获单元450(例如,包括相机系统100)、视频编解码器455(例如,支持数字图像捕获单元450)、存储器460、存储设备465和通信总线470。多功能电子设备400可为例如数码相机或个人电子设备,诸如个人数字助理(PDA),个人音乐播放器,移动电话或平板电脑。
处理器405可执行必要的指令以实施或控制由设备400所执行的多种功能的操作(例如,诸如如本文公开的生成和/或处理图像)。处理器405可例如驱动显示器410并可从用户界面415接收用户输入。用户界面415可允许用户与设备400交互。例如,用户界面415可呈现多种形式,诸如按钮、小键盘、拨号盘、点击轮、键盘、显示屏和/或触摸屏。处理器405也可为例如片上系统,诸如存在于移动设备中的片上系统,并且包括专用图形处理单元(GPU)。处理器405可基于精简指令集计算机(RISC)或复杂指令集计算机(CISC)架构或任何其他合适的架构,并且可包括一个或多个处理内核。图形硬件420可为用于处理图形和/或辅助处理器405处理图形信息的专用计算硬件。在一个实施方案中,图形硬件420可包括可编程GPU。
传感器和相机电路450可捕获可至少部分地由以下设备根据本公开处理的静态图像和视频图像:视频编解码器455和/或处理器405和/或图形硬件420,以及/或者结合在电路450内的专用图像处理单元。由此捕获的图像可存储在存储器460和/或存储装置465中。存储器460可包括由处理器405和图形硬件420用来执行设备功能的一个或多个不同类型的介质。例如,存储器460可包括存储器高速缓存、只读存储器(ROM)和/或随机存取存储器(RAM)。存储装置465可存储介质(例如,音频文件、图像文件和视频文件)、计算机程序指令或软件、偏好信息、设备配置文件信息以及任何其他合适的数据。存储装置465可包括一个或多个非暂态存储介质,包括例如磁盘(固定盘、软盘和可移除盘)和磁带、光学介质(诸如,CD-ROM和数字视频光盘(DVD)),以及半导体存储设备(诸如,电可编程只读存储器(EPROM)和电可擦除可编程只读存储器(EEPROM))。存储器460和存储装置465可用于有形地保持被组织成一个或多个模块并以任何所需的计算机编程语言编写的计算机程序指令或代码。例如,在由处理器405执行时,此类计算机程序代码可实现本文所述的方法中的一种或多种。
实际上,已经发现如上所述使用多个透镜而不是单个透镜是有利的。因此,透镜105可被理解为表示可具有例如2至7个单独的透镜元件的透镜组件。此外,可使用完全不同的透镜系统来捕获用于形成对焦堆栈的图像。举例来说,一个透镜系统可为长焦透镜系统,而第二透镜系统可为广角透镜系统。另外,兴趣点的数量和使用音圈电机作为致动器仅仅是示例性的。自动对焦操作的方向被描述为从无穷远到图像捕获设备可聚焦的最近点来评估兴趣点。
最后,上述实施方案的变型可彼此结合使用。在回顾以上描述时,许多其他实施方案对于本领域的技术人员而言将是显而易见的。因此应当参考所附权利要求以及赋予此类权利要求的等同形式的完整范围来确定所公开主题的范围。在所附权利要求中,术语“包括(including)”和“其中(in which)”被用作相应术语“包括(comprising)”和“其中(wherein)”的通俗的英语等同形式。

Claims (21)

1.一种生成对焦堆栈的方法,包括:
接收用于识别多个目标深度的初始对焦数据;
将透镜定位在第一位置处,以在所述多个目标深度中的第一目标深度处捕获第一图像;
响应于捕获到所述第一图像并且在捕获附加图像之前,确定所述第一图像的锐度度量;
响应于确定所述第一图像的所述锐度度量为不可接受的值,基于所述锐度度量在第二位置处捕获第二图像,其中所述第二位置不被包括在所述多个目标深度中;
确定所述第二图像的锐度度量为可接受的值;以及
使用所述第二图像来生成对焦堆栈。
2.根据权利要求1所述的方法,还包括:
响应于确定所述第二图像的所述锐度度量为可接受的值,将所述透镜定位在所述多个目标深度中的第二目标深度处;以及
在所述第二目标深度处捕获第三图像。
3.根据权利要求1所述的方法,其中在将所述透镜移动到所述多个目标深度中的第二目标深度的同时,计算锐度度量。
4.根据权利要求1所述的方法,还包括响应于计算出锐度度量来将所述透镜重新定向到所述第二位置,以基于所述锐度度量来捕获所述第二图像,其中所述第二位置与不被包括在所述初始对焦数据中的新目标深度相关联。
5.根据权利要求1所述的方法,还包括:
使用所述对焦堆栈来生成全对焦图像。
6.根据权利要求1所述的方法,还包括:
使用所述对焦堆栈来生成深度图。
7.根据权利要求1所述的方法,还包括:
响应于捕获到所述第二图像并且在捕获附加图像之前,基于所述第二图像来确定新锐度度量;
基于所述新锐度度量在第三位置处捕获第三图像;以及
使用所述第三图像来修改所述对焦堆栈。
8.一种用于生成对焦堆栈的系统,包括:
透镜组件;
数字图像传感器,所述数字图像传感器被配置为从所述透镜组件接收光;和
存储器,所述存储器操作性地耦接到所述数字图像传感器并且包括计算机代码,所述计算机代码被配置为使得一个或多个处理器:
接收用于识别多个目标深度的初始对焦数据;
将透镜定位在第一位置处,以在所述多个目标深度中的第一目标深度处捕获第一图像;
响应于捕获到所述第一图像并且在捕获附加图像之前,确定所述第一图像的锐度度量;
响应于确定所述第一图像的所述锐度度量为不可接受的值,基于所述锐度度量在第二位置处捕获第二图像,其中所述第二位置不被包括在所述多个目标深度中;
确定所述第二图像的锐度度量为可接受的值;以及
使用所述第二图像来生成对焦堆栈。
9.根据权利要求8所述的系统,所述计算机代码被进一步配置为使得所述一个或多个处理器:
响应于确定所述第二图像的所述锐度度量为可接受的值,将所述透镜定位在所述多个目标深度中的第二目标深度处;以及
在所述第二目标深度处捕获第三图像。
10.根据权利要求8所述的系统,其中在将所述透镜移动到第二目标深度以用于捕获第二预期图像的同时,计算锐度度量。
11.根据权利要求8所述的系统,所述计算机代码被进一步配置为使得一个或多个处理器响应于计算出锐度度量来将所述透镜重新定向到所述第二位置,以基于所述锐度度量来捕获所述第二图像,其中所述第二位置与不被包括在所述初始对焦数据中的新目标深度相关联。
12.根据权利要求8所述的系统,其中所述计算机代码被进一步配置为使得所述一个或多个处理器使用所述对焦堆栈来生成全对焦图像。
13.根据权利要求8所述的系统,其中所述计算机代码被进一步配置为使得所述一个或多个处理器使用所述对焦堆栈来生成深度图。
14.根据权利要求8所述的系统,所述计算机代码被进一步配置为使得一个或多个处理器:
响应于捕获到所述第二图像并且在捕获附加图像之前,基于所述第二图像来确定新锐度度量;
基于所述新锐度度量在第三位置处捕获第三图像;以及
使用所述第三图像来修改所述对焦堆栈。
15.一种包括用于生成对焦堆栈的计算机代码的计算机可读介质,所述计算机代码可由一个或多个处理器执行以:
接收用于识别多个目标深度的初始对焦数据;
将透镜定位在第一位置处,以在所述多个目标深度中的第一目标深度处捕获第一图像;
响应于捕获到所述第一图像并且在捕获附加图像之前,确定所述第一图像的锐度度量;
响应于确定所述第一图像的所述锐度度量为不可接受的值,基于所述锐度度量在第二位置处捕获第二图像,其中所述第二位置不被包括在所述多个目标深度中;
确定所述第二图像的锐度度量为可接受的值;以及
使用所述第二图像来生成对焦堆栈。
16.根据权利要求15所述的计算机可读介质,所述计算机代码还可由一个或多个处理器执行以:
响应于确定所述第二图像的所述锐度度量为可接受的值,将所述透镜定位在所述多个目标深度中的第二目标深度处;以及
在所述第二目标深度处捕获第三图像。
17.根据权利要求15所述的计算机可读介质,其中在将所述透镜移动到第二目标深度以用于捕获第二预期图像的同时,计算锐度度量。
18.根据权利要求15所述的计算机可读介质,所述计算机代码还可由一个或多个处理器执行以响应于计算出锐度度量来将所述透镜重新定
向到所述第二位置,以基于所述锐度度量来捕获所述第二图像,其中所述第二位置与不被包括在所述多个目标深度中的新目标深度相关联。
19.根据权利要求15所述的计算机可读介质,所述计算机代码还可由一个或多个处理器执行以使用所述对焦堆栈来生成全对焦图像。
20.根据权利要求15所述的计算机可读介质,所述计算机代码还可由一个或多个处理器执行以使用所述对焦堆栈来生成深度图。
21.根据权利要求15所述的计算机可读介质,所述计算机代码还可由所述一个或多个处理器执行以:
响应于捕获到所述第二图像并且在捕获附加图像之前,基于所述第二图像来确定新锐度度量;
基于所述新锐度度量在第三位置处捕获第三图像;以及
使用所述第三图像来修改所述对焦堆栈。
CN201680033458.4A 2015-06-07 2016-06-06 优化对焦堆栈的捕获 Active CN107787463B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562172138P 2015-06-07 2015-06-07
US62/172,138 2015-06-07
US14/864,565 US9565356B2 (en) 2015-06-07 2015-09-24 Optimizing capture of focus stacks
US14/864,565 2015-09-24
PCT/US2016/036035 WO2016200734A1 (en) 2015-06-07 2016-06-06 Optimizing capture of focus stacks

Publications (2)

Publication Number Publication Date
CN107787463A true CN107787463A (zh) 2018-03-09
CN107787463B CN107787463B (zh) 2019-08-23

Family

ID=57451086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680033458.4A Active CN107787463B (zh) 2015-06-07 2016-06-06 优化对焦堆栈的捕获

Country Status (3)

Country Link
US (1) US9565356B2 (zh)
CN (1) CN107787463B (zh)
WO (1) WO2016200734A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113545030A (zh) * 2019-09-30 2021-10-22 谷歌有限责任公司 通过移动相机自动生成全焦图像
CN113692555A (zh) * 2019-04-17 2021-11-23 谷歌有限责任公司 在可变照明中电子控制相机的透镜的光传输

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680478B (zh) * 2015-02-15 2018-08-21 青岛海信移动通信技术股份有限公司 一种目标图像数据的选取方法和装置
CA2958766C (en) * 2016-02-25 2018-01-02 Synaptive Medical (Barbados) Inc. System and method for scope based depth map acquisition
WO2018109109A1 (en) * 2016-12-16 2018-06-21 Sony Corporation An optical scope system for capturing an image of a scene
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
CN111598997B (zh) * 2020-05-12 2023-10-13 北京信息科技大学 一种基于聚焦堆栈单体数据子集架构的全局计算成像方法
US20220400211A1 (en) * 2021-06-11 2022-12-15 Bennet Langlotz Digital camera with multi-subject focusing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US20090167930A1 (en) * 2007-12-27 2009-07-02 Ati Technologies Ulc Method and apparatus with fast camera auto focus
US20120098947A1 (en) * 2010-10-20 2012-04-26 David Robert Wilkes Producing universally sharp images
US20130010067A1 (en) * 2011-07-08 2013-01-10 Ashok Veeraraghavan Camera and Method for Focus Based Depth Reconstruction of Dynamic Scenes
US20130235252A1 (en) * 2012-03-09 2013-09-12 Htc Corporation Electronic Device and Focus Adjustment Method Thereof
US20150062370A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US20090167930A1 (en) * 2007-12-27 2009-07-02 Ati Technologies Ulc Method and apparatus with fast camera auto focus
US20120098947A1 (en) * 2010-10-20 2012-04-26 David Robert Wilkes Producing universally sharp images
US20130010067A1 (en) * 2011-07-08 2013-01-10 Ashok Veeraraghavan Camera and Method for Focus Based Depth Reconstruction of Dynamic Scenes
US20130235252A1 (en) * 2012-03-09 2013-09-12 Htc Corporation Electronic Device and Focus Adjustment Method Thereof
US20150062370A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113692555A (zh) * 2019-04-17 2021-11-23 谷歌有限责任公司 在可变照明中电子控制相机的透镜的光传输
CN113692555B (zh) * 2019-04-17 2023-09-29 谷歌有限责任公司 在可变照明中电子控制相机的透镜的光传输
CN113545030A (zh) * 2019-09-30 2021-10-22 谷歌有限责任公司 通过移动相机自动生成全焦图像
CN113545030B (zh) * 2019-09-30 2023-08-18 谷歌有限责任公司 通过移动相机自动生成全焦图像的方法、用户设备以及系统

Also Published As

Publication number Publication date
US9565356B2 (en) 2017-02-07
CN107787463B (zh) 2019-08-23
US20160360091A1 (en) 2016-12-08
WO2016200734A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
CN107787463B (zh) 优化对焦堆栈的捕获
US20190208125A1 (en) Depth Map Calculation in a Stereo Camera System
CN107950018B (zh) 图像生成方法和系统、以及计算机可读介质
JP6271990B2 (ja) 画像処理装置、画像処理方法
JP5159515B2 (ja) 画像処理装置およびその制御方法
TWI538512B (zh) 調整對焦位置的方法及電子裝置
JP2019053732A (ja) シーン内に存在する不要なオブジェクトの除去に基づくシーンの画像の動的生成
CN108632536B (zh) 一种相机控制方法及装置、终端、存储介质
CN108702457B (zh) 用于自动图像校正的方法、装置和计算机可读存储媒体
CN108200335A (zh) 基于双摄像头的拍照方法、终端及计算机可读存储介质
CN105578023A (zh) 一种快速拍摄图像方法及装置
JP6924064B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
CN113141448A (zh) 摄像装置
JP2015012482A (ja) 画像処理装置及び画像処理方法
CN109068118B (zh) 双摄模组的基线距离调整方法、装置及双摄模组
US9451155B2 (en) Depth-segmenting peak tracking autofocus
CN106878604B (zh) 一种基于电子设备的图像生成的方法和电子设备
JP5484129B2 (ja) 撮像装置
KR20110090085A (ko) 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US9898828B2 (en) Methods and systems for determining frames and photo composition within multiple frames
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2011135227A (ja) 被写体追跡装置及びその制御方法
JP2014138378A (ja) 撮像装置、その制御方法、および制御プログラム
JP2017184021A (ja) コンテンツ提供装置及びコンテンツ提供プログラム
JP2020043528A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant