CN101387735B - 用于图像捕获的自动聚焦方法和设备 - Google Patents

用于图像捕获的自动聚焦方法和设备 Download PDF

Info

Publication number
CN101387735B
CN101387735B CN2008102131223A CN200810213122A CN101387735B CN 101387735 B CN101387735 B CN 101387735B CN 2008102131223 A CN2008102131223 A CN 2008102131223A CN 200810213122 A CN200810213122 A CN 200810213122A CN 101387735 B CN101387735 B CN 101387735B
Authority
CN
China
Prior art keywords
image
fuzzy
condenser lens
fixed position
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008102131223A
Other languages
English (en)
Other versions
CN101387735A (zh
Inventor
朴炳冠
金圣洙
姜炳豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Samsung Electro Mechanics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Samsung Electro Mechanics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd, Samsung Electro Mechanics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN101387735A publication Critical patent/CN101387735A/zh
Application granted granted Critical
Publication of CN101387735B publication Critical patent/CN101387735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data

Abstract

提供一种用于图像捕获的自动聚焦方法、介质和设备。所述自动聚焦方法包括:通过使相应图像捕获设备的聚焦透镜位于第一固定位置来获得第一图像;通过使所述聚焦透镜位于第二固定位置来获得第二图像;计算第一图像和第二图像的模糊水平;通过将第一图像和第二图像的模糊水平代入多个模糊水平关系表达式的每个来确定所述聚焦透镜的位置,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使所述聚焦透镜位于第一固定位置和第二固定位置来获得所述多对图像的每对。

Description

用于图像捕获的自动聚焦方法和设备
技术领域
本发明的一个或多个实施例涉及一种用于图像捕获的自动聚焦方法、介质和设备,更具体地讲,涉及这样一种用于图像捕获的自动聚焦方法、介质和设备,其中,通过使用多个图像的模糊水平,能够不考虑透镜与对象之间的距离来高速地自动调焦,而不需要在普通模式和宏模式之间切换。 
背景技术
作为现代相机的特征的自动聚焦是通过基于相机镜头捕获的对象的信号检测所述对象并根据检测的结果自动驱动聚焦透镜来自动调焦的技术。 
已经做出了努力来提高图像捕获设备(例如,数字相机或数字可携式摄像机)使用自动聚焦功能捕获的图像的质量。 
图1示出了聚焦的精度与聚焦透镜的位置之间的关系的曲线图。图像捕获设备的聚焦透镜的位置根据聚焦透镜与对象之间的距离而改变。传统地,诸如高通滤波和爬山算法(hill climbing)的方法已经被广泛地使用,其中,通过在连续地改变聚焦透镜的位置的同时,比较在一个聚焦透镜位置的聚焦精度与在另一聚焦透镜位置的聚焦精度来确定最佳聚焦点。然而,这些方法需要相当多的图像来确定最佳聚焦点,因此造成快门延迟。这样,这些方法可能不适合用于高速拍摄。 
其他的传统自动聚焦方法包括:通过将聚焦透镜分别放置在两个固定的位置来获取图像;以像素为单位将所述图像彼此相加或相减;通过分析相加或相减的结果的频率分量来确定聚焦透镜的最佳位置。然而,这些自动聚焦方法需要彼此相加或相减的两个图像的边缘精确地彼此重合,并且还需要相当大的计算量。 
此外,这些其他自动聚焦方法需要在用于执行近距离拍摄的宏模式和用于执行正常拍摄的普通模式之间切换。因此,还没有提出不需要模式切换的自动聚焦方法。
发明内容
本发明的一个或多个实施例提供一种用于图像捕获的自动聚焦方法、介质和设备,其中,使用通过分别使聚焦透镜位于至少两个固定位置或最多三个固定位置获得的图像的模糊水平,能够不管聚焦透镜和对象之间的距离高速自动地调焦,而不需要在普通模式和宏模式之间切换。 
将在接下来的描述中部分阐述本发明另外的方面和/或优点,还有一部分通过描述将是清楚的,或者可以经过本发明的实施而得知。 
根据本发明的一方面,提供一种用于图像捕获的自动聚焦方法,所述自动聚焦方法包括:通过使相应图像捕获设备的聚焦透镜位于第一固定位置来获得第一图像;通过使所述聚焦透镜位于第二固定位置来获得第二图像;计算第一图像和第二图像的模糊水平;通过将第一图像和第二图像的模糊水平代入多个模糊水平关系表达式的每个来确定所述聚焦透镜的位置,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使所述聚焦透镜位于第一固定位置和第二固定位置来获得所述多对图像的每对。 
据本发明的另一方面,提供一种用于图像捕获的自动聚焦设备,所述自动聚焦设备包括:图像传感器模块,通过将光学信号转换为电信号获得图像;模糊水平计算模块,计算图像的模糊水平;聚焦透镜位置计算模块,通过将图像的模糊水平代入到图像传感器模块不同距离处的各个相应对象的多个模糊水平关系表达式中,来确定聚焦透镜的位置,其中,图像传感器模块通过使相应图像捕获设备的聚焦透镜位于第一固定位置来获得第一图像,通过使所述聚焦透镜位于第二固定位置来获得第二图像;模糊水平计算模块计算第一图像和第二图像的模糊水平;聚焦透镜位置计算模块通过将第一图像和第二图像的模糊水平代入多个模糊水平关系表达式的每个来确定聚焦透镜的位置,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使聚焦透镜位于第一固定位置和第二固定位置来获得所述多对图像的每对。 
附图说明
通过下面结合附图对实施例进行的描述,这些和/或其他方面和优点将会变得清楚并更易于理解,其中:
图1示出聚焦精度与聚焦透镜的位置之间的关系的曲线图; 
图2示出根据本发明的实施例的用于图像捕获的自动聚焦方法的流程图; 
图3示出焦距与到被聚焦的对象的距离之间的关系的曲线图; 
图4示出根据本发明的实施例的建立两个模糊水平之间的关系表达式的方法的流程图; 
图5示出用于解释图4所示的方法的曲线图; 
图6示出在到聚焦透镜不同距离处的多个对象的多个模糊水平关系表达式的曲线图; 
图7示出根据本发明的实施例的使用多个模糊水平关系表达式确定聚焦透镜的位置的方法的流程图; 
图8示出在到聚焦透镜不同距离处的多个对象的多个模糊水平关系表达式的曲线图,并说明了图7所示的方法; 
图9示出通过普通模式模糊水平关系表达式确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置的情况; 
图10示出根据本发明的实施例的计算模糊水平的方法的流程图; 
图11示出根据本发明的另一实施例的计算模糊水平的方法的流程图; 
图12示出根据本发明的实施例的用于图像捕获的自动聚焦设备的框图。 
具体实施方式
将更详细地描述实施例,实施例的示例在附图中示出,其中,相同的标号始终表示相同的部件。为此,可以以许多不同的形式实施本发明的实施例,并且不应被解释为局限于在此阐述的实施例。因此,下面通过参照附图仅描述实施例以解释本发明的各个方面。 
自动聚焦功能包括:当用户按下快门以捕获图像时,通过图像处理来计算聚焦透镜的最佳位置,并使聚焦透镜位于该最佳位置。当聚焦透镜位于最佳位置时,捕获最终图像。为了获得与在用户按下快门时获得的图像相似的最终图像,需要快速地确定聚焦透镜的最佳位置。本发明提供快速地确定聚焦透镜的最佳位置。 
图2示出根据本发明的实施例的用于图像捕获的自动聚焦方法的流程 图。参照图2,当用户按下相应的图像捕获设备的快门以捕获图像时,通过使图像捕获设备的聚焦透镜位于第一固定位置来获得第一图像I1,并且通过使聚焦透镜位于第二固定位置来获得第二图像I2(S110)。 
图3示出焦距与到被聚焦的对象的距离之间的关系的曲线图。假设焦距是聚焦透镜与感测从对象反射的光学信号的图像传感器模块之间的距离。随着焦距的增加,远离图像捕获设备的对象比远离图像捕获设备较少的对象更有可能被聚焦。因此,远离图像捕获设备的对象的图像比远离图像捕获设备较少的对象更清晰。因此,随着聚焦透镜离开S1而变得靠近S3,靠近图像捕获设备的对象被聚焦,并且图像捕获设备捕获的图像变得更清晰。 
参照图3,S1和S2之间的部分可对应于用于获得普通模式图像的聚焦透镜的位置的普通模式范围,S2和S3之间的部分可对应于用于执行近距离拍摄以及获得宏模式图像的聚焦透镜的位置的宏模式范围。在此情况下,第一固定位置和第二固定位置可以分别是作为普通模式范围的边界的S1和S2。然而,本发明不限于此。即,第一固定位置和第二固定位置可以分别是S2和S3。 
参照图2,计算第一图像I1的模糊水平B1和第二图像I2的模糊水平B2(S120)。图像的模糊水平是表示图像的清晰度或模糊度的水平的数值,并且可以以各种方式进行计算。以下,将参照图10和图11更详细地描述根据计算本发明的实施例的图像的模糊水平的方法。 
其后,通过将模糊水平B1和B2代入到图像捕获设备的预定距离处的对象的两个模糊水平之间的关系表达式(以下,称为模糊水平关系表达式)来确定聚焦透镜的位置(S130)。 
以下,将详细描述建立模糊水平关系表达式的方法。 
图4示出根据本发明的实施例的建立模糊水平关系表达式的方法的流程图,图5示出用于解释图4所示的方法的曲线图,图6示出在到图像捕获设备不同距离处的各个相应对象的多个模糊水平关系表达式的曲线图。 
参照图4,对于每个对象,通过使聚焦透镜分别位于两个固定位置来获得在到聚焦透镜不同距离处的多个对象的多对图像(S310)。具体地说,为了使用在图2的操作S120获得的模糊水平B1和B2,可将两个固定位置分别设置为S1和S2。例如,通过使聚焦透镜分别位于S1和S2获得对象A的两个图像,通过使聚焦透镜分别位于S1和S2获得对象B的两个图像。以这样的 方式,获得多个图像数据。 
其后,计算在操作S310获得的图像的模糊水平。即,计算在操作S310获得的每个图像的模糊水平坐标(S320),将模糊水平坐标映射到B1B2坐标系,从而获得图5的左侧的曲线图。图5的左侧的曲线图示出在到聚焦透镜100厘米的距离处的对象的模糊水平坐标。 
其后,通过对图5的左侧的曲线图拟合获得n阶多项式(S330)。图5的右侧的曲线图是在操作S330中获得的n阶多项式的曲线图,即多项式Y=f100(X)。多项式Y=f100(X)是在到聚焦透镜100厘米的距离处的对象的模糊水平关系表达式。 
图6示出在到图像获取设备不同距离处的各个相应对象的多个模糊水平关系表达式的曲线图。具体地说,图6示出通过从30厘米到150厘米以20厘米的间隔,逐渐地改变聚焦透镜与对象之间的距离获得的多个模糊水平关系表达式的曲线图。图6示出一阶多项式,但本发明的实施例不限于此。即,为了获得精确的模糊水平关系表达式,可拟合为较高阶多项式。 
因此,可通过将模糊水平B1和B2代入以上述方式建立的模糊水平关系表达式来确定聚焦透镜的位置。 
以下,将参照图7和图8更详细地描述确定聚焦透镜的位置的方法。 
图7示出根据本发明的实施例的通过将模糊水平代入模糊水平关系表达式来确定聚焦透镜的位置的方法的流程图,图8示出多个模糊水平关系表达式和模糊水平B1和B2的曲线图,并说明了图7所示的方法。 
参照图7,将在图2的操作S120获得的模糊水平B1和B2代入多个模糊水平关系表达式的每个,从多个模糊水平关系表达式选择具有最小误差的两个模糊水平关系表达式(S410)。即,参照图8,将模糊水平B2与将模糊水平B1代入图8的每个模糊水平关系表达式的结果f30(B1)、f50(B1)、f70(B1)、f90(B1)、f110(B1)、f130(B1)和f150(B1)进行比较。 
其后,确定图8的模糊水平关系表达式f30(B1)、f50(B1)、f70(B1)、f90(B1)、f110(B1)、f130(B1)和f150(B1)中的哪个产生最小误差,在图8的实施例中,具有最小误差的两个模糊水平关系表达式是:Y=f130(X)和Y=f110(X)。因此,确定第一图像I1和第二图像I2的对象位于到聚焦透镜110-130厘米的距离处。如上面参照图3所描述,当确定聚焦透镜和对象之间的距离时,也可确定最佳焦距,即,用于获得对象的最佳图像的焦距。
参照图7,基于在操作S410获得的两个模糊水平关系表达式的误差的比,确定第一图像I1和第二图像I2的对象和聚焦透镜之间的距离P(S420)。例如,可通过下面的等式来确定距离P:E1:E2=[f130(B1)-B2]:[B2-f110(B1)]=(130-P):(P-110),其中,E1和E2表示在操作S410获得的两个模糊水平关系表达式的误差。 
然而,如果使用上述方法确定的聚焦透镜位置是用于获得宏模式图像的位置,即,如果确定的聚焦透镜位置太靠近对象,则几乎不可能使用上述方法精确地确定聚焦透镜的位置。使用通过分别使聚焦透镜位于S1和S2获得的多对图像来获得图9示出的模糊水平关系表达式。具体地说,通过以20厘米为间隔改变聚焦透镜和对象之间的距离来获得图9示出的模糊水平关系表达式。 
参照图9,靠近图像捕获设备的对象的模糊水平关系表达式(例如,Y=f30(X)和Y=f50(X))的曲线图之间的距离小于远离图像捕获设备的对象的模糊水平关系表达式(例如,Y=f130(X)和Y=f150(X))的曲线图之间的距离。当分别使聚焦透镜位于S1和S2以获得普通模式图像时,图像捕获设备的近距离的模糊水平关系表达式的曲线图紧密地分布。相反,当分别使聚焦透镜位于S2和S3以获得宏模式图像时,图像捕获设备的远距离的模糊水平关系表达式的曲线图疏松地分布。因此,如果使用普通模式模糊水平关系表达式确定的聚焦透镜位置被确定为在图像捕获设备的近距离之内,即,如果确定的聚焦透镜位置是与宏模式对应的聚焦透镜位置,则可能不能精确地确定聚焦透镜和对象之间的距离(即,聚焦透镜的位置),这是因为模糊水平具有误差,并且由于图像捕获设备的近距离的模糊水平关系表达式紧密地分布,导致在提取具有最小误差的两个模糊水平关系表达式时很有可能出现误差。 
参照图2,如果使用普通模式模糊水平关系表达式(在普通模式中获得的两个模糊水平之间的关系表达式)确定的聚焦透镜位置是用于获得普通模式图像的聚焦透镜位置(S140),则可通过使聚焦透镜位于确定的聚焦透镜位置来获得图像。相反,如果确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置(S140),则可获得第三图像(S210),可计算第三图像的模糊水平(S220),并可使用宏模式模糊水平关系表达式(在宏模式中获得的两个模糊水平之间的关系表达式)再次确定聚焦透镜的位置(S230)。以下,将对此进行更详细地描述。
如图9所示,如果使用普通模式模糊水平关系表达式确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置,则通过使聚焦透镜位于这样的第三固定位置来获得第三图像(S210)。 
其后,计算这样的第三图像I3的模糊水平B3(S220)。 
其后,通过将模糊水平B2和B3代入宏模式模糊水平关系表达式来再次确定聚焦透镜的位置(S230)。可使用与上面参照图4和图5描述的方法基本相同的方法获得宏模式模糊水平关系表达式。即,可从通过使聚焦透镜位于S2和S3(用于执行近距离的拍摄的聚焦透镜位置)获得的图像得到的宏模式模糊水平关系表达式。可使用与上面参照图7和图8描述的方法基本相同的方法来执行操作S230。 
简而言之,可通过分别使聚焦透镜位于用于获得普通模式图像的两个固定位置(例如,S1和S2)来获得两个图像,可计算两个图像的模糊水平(即,B1和B2),并且可通过将模糊水平B1和B2代入普通模式模糊水平关系表达式来确定聚焦透镜的位置。然后,如果确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置,则可通过使聚焦透镜位于另一固定位置(例如,S3)来获得第三图像,可计算第三图像的模糊水平(即,B3),并且可通过将模糊水平B2和B3代入宏模式模糊水平关系表达式来再次确定聚焦透镜的位置。以这样的方式,可确定最佳聚焦透镜位置。然后,可通过使聚焦透镜位于最佳聚焦透镜位置来获得最终图像。 
然而,本发明的实施例还包括:可通过分别使聚焦透镜位于用于获得宏模式图像的两个固定位置(例如,S2和S3)来获得两个图像,然后可计算两个图像的模糊水平(即,B2和B3),然后可通过将模糊水平B2和B3代入宏模式模糊水平关系表达式来确定聚焦透镜的位置。然后,如果确定的聚焦透镜位置是用于获得普通模式图像的聚焦透镜位置,则可通过使聚焦透镜位于另一固定位置(例如,S1)来获得第三图像,可计算第三图像的模糊水平(例如,B1),并可通过将模糊水平B1和B2代入普通模式模糊水平关系表达式来再次确定聚焦透镜的位置。 
因此,根据图2的实施例的自动聚焦方法,可自动地调焦而不需要设置用于执行近距离拍摄的宏模式或用于执行正常拍摄的普通模式。此外,可仅基于两个或三个图像来确定聚焦透镜的位置,因此可减少确定聚焦透镜的位置所需的时间。
以下,将参照图10和图11详细描述图像的模糊水平的计算。 
图10示出根据本发明的实施例的计算模糊水平的方法的流程图,图11示出根据本发明的另一实施例的计算模糊水平的方法的流程图。 
参照图10,在图像中设置聚焦窗(S510)。可将图像的包括感兴趣对象的部分任意地指定为聚焦窗。通常,捕获对象的图像,以使对象可以显示在图像的中间。因此,在操作S510,可将图像的中间部分指定为聚焦窗。聚焦窗可被用户任意地设置或者可根据图像信号的分析结果被自动地设置。 
一旦聚焦窗被设置,通过计算聚焦窗中的像素的离散余弦变换(DCT)值的绝对值的平均值来计算图像的模糊水平(S520)。 
参照图11,使用与用于执行图10的S510的方法相同的方法在图像中设置聚焦窗(S610)。 
其后,聚焦窗被划分为多个区域(S620)。例如,聚焦窗可被划分为多个32×32的区域。然而,本发明不限于此。 
其后,计算每个区域中像素的DCT值的绝对值的平均值(M)(S630)。 
其后,通过计算多个区域的DCT值的绝对值的平均值(M)的平均值来计算图像的模糊水平(S640)。 
图12示出根据本发明的实施例的用于图像捕获的自动聚焦设备的框图。这里,术语设备应被认为与术语系统同义,但不限于单个附件,或所有实施例中的各个附件中实现的所有描述的部件,相反,根据实施例,公开为与不同的附件一起实施或分开实施和/或通过不同部件的位置,例如,各个设备/系统可以是单个处理部件或通过分布式网络来实施,注意:同样可利用另外的附件和可替换的实施例。 
参照图12,自动聚焦设备1000包括图像传感器模块1100、模糊水平计算模块1200和聚焦透镜位置计算模块1300。 
图像传感器模块1100通过将光学信号转换为电信号来获得图像。图像传感器模块1100检测透镜收集的光,并因此将检测的光转换为电信号。图像传感器主要被分为影像管图像传感器和固态图像传感器,例如电荷耦合器件(CCD)图像传感器和互补金属氧化物半导体(CMOS)图像传感器。 
图像传感器模块1100通过使聚焦透镜位于第一固定位置来获得第一图像I1,通过使聚焦透镜位于比第一固定位置更靠近图像传感器模块1100的第二固定位置来获得第二图像I2。第一固定位置和第二固定位置可以是使聚焦 透镜位于获得普通模式图像的位置。 
模糊水平计算模块1200计算第一图像I1的模糊水平B1和第二图像I2的模糊水平B2。 
模糊水平计算模块1200可通过分别在第一图像I1和第二图像I2中设置聚焦窗,并计算每个聚焦窗中的像素的DCT值的绝对值的平均值,来计算模糊水平B1和B2。 
或者,模糊水平计算模块1200可通过分别在第一图像I1和第二图像I2中设置聚焦窗,将每个聚焦窗划分为多个区域,计算每个聚焦窗的每个区域中的像素的DCT值的绝对值的平均值,并计算每个聚焦窗的多个区域的DCT像素值的绝对值的平均值的平均值来计算模糊水平B1和B2。 
聚焦透镜位置计算模块1300通过将模糊水平B1和B2代入到聚焦透镜预定距离的对象的模糊水平关系表达式来确定聚焦透镜的位置。 
可通过将对象的一对图像的模糊水平之间的关系拟合为多项式来获得模糊水平关系表达式,其中,通过使聚焦透镜位于两个固定位置的每个获得所述对象的一对图像。在此情况下,如果两个固定位置是用于获得普通模式图像的位置,即,S1和S2,则模糊水平关系表达式可以是普通模式模糊水平之间的关系表达式(以下,称为普通模式模糊水平关系表达式)。相反,如果两个固定位置是用于获得宏模式图像的两个固定位置,即,S2和S3,则模糊水平关系表达式可以是宏模式模糊水平之间的关系表达式(以下,称为宏模式模糊水平关系表达式)。 
如果第一固定位置和第二固定位置是用于获得普通模式图像的位置,即,S1和S2,则可使用多个普通模式模糊水平关系表达式来确定聚焦透镜的位置。相反,如果第一固定位置和第二固定位置是用于获得宏模式图像的位置,即,S2和S3,则可使用多个宏模式模糊水平关系表达式来确定聚焦透镜的位置。 
如果使用普通模式模糊水平关系表达式确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置,则可通过使聚焦透镜位于S3获得第三图像I3,并且可计算第三图像I3的模糊水平B3。其后,可通过将模糊水平B2和B3代入宏模式模糊水平关系表达式的每个来再次确定聚焦透镜的位置。类似地,如果使用宏模式模糊水平关系表达式确定的聚焦透镜位置是用于获得普通模式图像的聚焦透镜位置,则可通过使聚焦透镜位于S1来获得第四图像I1,并 可计算第四图像I1的模糊水平B1。其后,可通过将模糊水平B2和B1代入普通模式模糊水平关系表达式的每个来再次确定聚焦透镜的位置。 
如上所述,可基于聚焦透镜和对象之间的距离来确定聚焦透镜的最佳位置。其后,可使用根据本发明的实施例的自动聚焦方法和设备容易地确定聚焦透镜和对象之间的距离。此外,如果通过图像获取设备获取的图像包括多于1个的对象,则可通过在图像中设置聚焦窗并使用根据本发明的自动聚焦方法和设备在图像中任意地移动聚焦窗,来确定从各个对象到聚焦透镜的距离。在此情况下,可通过根据对象到聚焦透镜的距离以不同颜色显示对象来创建三维(3D)映射。 
上面已经参照示出根据本发明的实施例的用户界面、方法和介质的流程图,描述了本发明的实施例。将理解,可通过计算机可读代码实现流程图的每个块以及流程图中块的组合。可将这些计算机可读代码提供给通用计算机、专用计算机或其他可编程数据处理设备。 
因此,除了上述实施例,也可通过介质(例如,计算机可读介质)中/上的计算机可读代码/指令实现本发明的实施例,以控制至少一个处理部件来实现上述任何实施例。介质可对应于任何允许存储和/或传输计算机可读代码的介质。 
可以以各种方式在介质上记录/传输计算机可读代码,介质的示例包括记录介质(例如,磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD))和传输介质(例如,携带或包括载波的介质以及互联网的部件)。因此,介质可以是这样定义的和可测量的结构,其包括或携带信号或信息,例如,根据本发明的实施例的携带比特流的装置。介质还可以是分布式网络,从而计算机可读代码以分布式方式被存储/传送。此外,仅作为示例,处理部件可包括处理器或计算机处理器,并且处理部件可以分布和/或包括在单个装置中。 
根据本发明的实施例的自动聚焦方法、介质和设备可具有下面的优点。 
首先,可使用通过分别使聚焦透镜位于至少两个固定位置或最多三个固定位置获得的图像的模糊水平,高速地自动调焦。 
其次,可针对普通模式和宏模式两者自动地调焦,而不需要在普通模式和宏模式之间切换。 
再次,可基于聚焦透镜和对象之间的距离创建3D映射。
尽管已经参照本发明不同实施例具体显示和描述了本发明的各个方面,但是应该理解,这些示例性实施例应被认为仅是描述目的而非限制目的。每个实施例内的特征或方面的描述通常应被认为可用于其他实施例的其他相似特征或方面。 
因此,尽管已经显示和描述了一些实施例,但本领域的技术人员应该理解,在不脱离本发明的原理和精神的情况下,可以对这些实施例进行改变,本发明的范围由权利要求及其等同物限定。

Claims (13)

1.一种用于图像捕获的自动聚焦方法,包括:
通过使图像捕获设备的聚焦透镜位于第一固定位置来获得第一图像;
通过使所述聚焦透镜位于第二固定位置来获得第二图像;
计算第一图像和第二图像的模糊水平;
通过对将第一图像的模糊水平分别代入多个模糊水平关系表达式的结果与第二图像的模糊水平进行比较,选择具有最小误差的两个模糊水平关系表达式;基于选择的两个模糊水平关系表达式的误差的比,确定所述聚焦透镜的位置,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使所述聚焦透镜位于第一固定位置和第二固定位置来获得所述多对图像的每对,
其中,通过使所述聚焦透镜位于第一固定位置和第二固定位置,获得在到图像传感器模块的预定距离处的相应对象的一对图像,计算该对图像的模糊水平,并将该对图像的模糊水平之间的关系拟合为多项式,来获得每个模糊水平关系表达式。
2.如权利要求1所述的自动聚焦方法,其中,第一固定位置和第二固定位置是用于获得普通模式图像的聚焦透镜位置。
3.如权利要求2所述的自动聚焦方法,还包括:如果确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置,则:
通过使所述聚焦透镜位于第三固定位置来获得第三图像,所述第三固定位置比第二固定位置更靠近图像传感器模块;
计算第三图像的模糊水平;
通过将第二图像和第三图像的模糊水平代入多个模糊水平关系表达式的每个,来再次确定所述聚焦透镜的位置,其中,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使所述聚焦透镜位于第二固定位置和第三固定位置来获得所述多对图像的每对。
4.如权利要求3所述的自动聚焦方法,其中,第二固定位置和第三固定位置是用于获得宏模式图像的聚焦透镜位置。
5.如权利要求1所述的自动聚焦方法,其中,计算第一图像和第二图像的模糊水平的步骤包括:
分别在第一图像和第二图像中设置聚焦窗;
计算每个聚焦窗中的像素的离散余弦变换值的绝对值的平均值。
6.如权利要求1所述的自动聚焦方法,其中,计算第一图像和第二图像的模糊水平的步骤包括:
分别在第一图像和第二图像中设置聚焦窗;
将每个聚焦窗划分为多个区域;
计算每个聚焦窗的每个区域中的像素的离散余弦变换值的绝对值的平均值;
计算每个聚焦窗的多个区域的所述离散余弦变换值的绝对值的平均值的平均值。
7.如权利要求3所述的自动聚焦方法,其中,通过使所述聚焦透镜位于第二固定位置和第三固定位置,获得在到图像传感器模块预定距离处的相应对象的一对图像,计算该对图像的模糊水平,并将该对图像的模糊水平之间的关系拟合为多项式,来获得每个模糊水平关系表达式。
8.一种用于图像捕获的自动聚焦设备,包括:
图像传感器模块,通过将光学信号转换为电信号获得图像;
模糊水平计算模块,计算图像的模糊水平;
聚焦透镜位置计算模块,通过将图像的模糊水平代入到图像传感器模块不同距离处的各个相应对象的多个模糊水平关系表达式中,来确定聚焦透镜的位置,
其中,图像传感器模块通过使聚焦透镜位于第一固定位置来获得第一图像,通过使所述聚焦透镜位于第二固定位置来获得第二图像;模糊水平计算模块计算第一图像和第二图像的模糊水平;聚焦透镜位置计算模块通过对将第一图像的模糊水平分别代入所述多个模糊水平关系表达式的结果与第二图像的模糊水平进行比较,基于比较结果选择具有最小误差的两个模糊水平关系表达式,并基于选择的两个模糊水平关系表达式的误差的比确定所述聚焦透镜的位置,来确定所述聚焦透镜的位置,从到图像传感器模块不同距离处的各个相应对象的多对图像获得所述多个模糊水平关系表达式,通过分别使聚焦透镜位于第一固定位置和第二固定位置来获得所述多对图像的每对,
其中,通过使所述聚焦透镜位于第一固定位置和第二固定位置,以获得在到图像传感器模块预定距离处的相应对象的一对图像,计算该对图像的模糊水平,并将该对图像的模糊水平之间的关系拟合为多项式,来获得所述多个模糊水平关系表达式的每个。
9.如权利要求8所述的自动聚焦设备,其中,第一固定位置和第二固定位置是用于获得普通模式图像的聚焦透镜位置。
10.如权利要求9所述的自动聚焦设备,其中,如果由聚焦透镜位置计算模块确定的聚焦透镜位置是用于获得宏模式图像的聚焦透镜位置,则图像传感器模块通过使所述聚焦透镜位于第三固定位置来获得第三图像,所述第三固定位置比第二固定位置更靠近图像传感器模块;模糊水平计算模块计算第三图像的模糊水平;聚焦透镜位置计算模块通过将第二图像和第三图像的模糊水平代入分别从通过使所述聚焦透镜位于第二固定位置和第三固定位置获得的多对图像获得的多个模糊水平关系表达式的每个,来再次确定所述聚焦透镜的位置。
11.如权利要求10所述的自动聚焦设备,其中,第二固定位置和第三固定位置是用于获得宏模式图像的聚焦透镜位置。
12.如权利要求8所述的自动聚焦设备,其中,模糊水平计算模块通过在任意图像中设置聚焦窗,并计算聚焦窗中的像素的离散余弦变换值的绝对值的平均值,来计算所述任意图像的模糊水平。
13.如权利要求8所述的自动聚焦设备,其中,模糊水平计算模块通过在任意图像中设置聚焦窗,将聚焦窗划分为多个区域,计算每个区域中的像素的离散余弦变换值的绝对值的平均值,并计算多个区域的所述离散余弦变换值的绝对值的平均值的平均值,来计算所述任意图像的模糊水平。
CN2008102131223A 2007-09-14 2008-09-12 用于图像捕获的自动聚焦方法和设备 Active CN101387735B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020070093723 2007-09-14
KR10-2007-0093723 2007-09-14
KR1020070093723A KR101415872B1 (ko) 2007-09-14 2007-09-14 영상 획득 장치의 자동초점조절 방법 및 장치

Publications (2)

Publication Number Publication Date
CN101387735A CN101387735A (zh) 2009-03-18
CN101387735B true CN101387735B (zh) 2012-09-05

Family

ID=40454565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102131223A Active CN101387735B (zh) 2007-09-14 2008-09-12 用于图像捕获的自动聚焦方法和设备

Country Status (4)

Country Link
US (1) US7941042B2 (zh)
JP (1) JP5572299B2 (zh)
KR (1) KR101415872B1 (zh)
CN (1) CN101387735B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
CN101676683A (zh) * 2008-09-19 2010-03-24 鸿富锦精密工业(深圳)有限公司 尺寸侦测系统及侦测方法
US8553093B2 (en) * 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8837576B2 (en) * 2009-11-06 2014-09-16 Qualcomm Incorporated Camera parameter-assisted video encoding
US10178406B2 (en) * 2009-11-06 2019-01-08 Qualcomm Incorporated Control of video encoding based on one or more video capture parameters
KR101594000B1 (ko) * 2009-12-02 2016-02-26 삼성전자주식회사 포커스 렌즈의 이동 방향을 결정하는 오토포커싱 방법, 상기 방법을 기록한 기록 매체, 오토포커싱 장치
JP5587930B2 (ja) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法
US20150201182A1 (en) * 2013-04-11 2015-07-16 Altek Semiconductor Corp. Auto focus method and auto focus apparatus
JP5866493B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP5866537B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
CN104811603B (zh) * 2014-01-24 2017-09-19 昆盈企业股份有限公司 辅助对焦装置及方法
CN108022306B (zh) * 2017-12-30 2021-09-21 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
EP4062629A4 (en) * 2020-04-14 2023-01-25 Samsung Electronics Co., Ltd. METHODS AND SYSTEMS FOR RECORDING ENHANCED MEDIA IN REAL TIME

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1270328A (zh) * 1999-04-14 2000-10-18 奥林巴斯光学工业株式会社 照相机的防模糊系统
CN1460888A (zh) * 2002-05-17 2003-12-10 奥林巴斯光学工业株式会社 自动焦点调节装置
US7110035B1 (en) * 1999-05-25 2006-09-19 Flir Systems Ab Device and a method for an infrared image analyzing autofocus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3055961B2 (ja) 1991-04-02 2000-06-26 オリンパス光学工業株式会社 自動焦点装置
JPH0993480A (ja) * 1995-09-27 1997-04-04 Canon Inc 撮像装置
JP3980799B2 (ja) 1999-08-19 2007-09-26 株式会社リコー 自動合焦装置およびその合焦方法
KR100334953B1 (ko) 2000-01-18 2002-05-04 한헌수 소형 다이스 홀 검사용 카메라의 고속 자동초점조절방법
JP3921069B2 (ja) * 2001-10-15 2007-05-30 株式会社リコー 撮像装置
US7053953B2 (en) * 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
JP2005284135A (ja) * 2004-03-30 2005-10-13 Olympus Corp 合焦情報取得用検出装置及びそれを用いた撮像装置
KR100645636B1 (ko) 2004-12-09 2006-11-15 삼성전기주식회사 Dct 계수를 이용한 카메라의 자동초점조절장치 및 그방법
JP2006323172A (ja) * 2005-05-19 2006-11-30 Olympus Corp 合焦情報取得装置
JP4794963B2 (ja) * 2005-06-28 2011-10-19 キヤノン株式会社 撮像装置および撮像プログラム
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
JP4665718B2 (ja) * 2005-10-28 2011-04-06 株式会社ニコン 撮影装置
JP2007199633A (ja) * 2006-01-30 2007-08-09 Olympus Corp 合焦検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1270328A (zh) * 1999-04-14 2000-10-18 奥林巴斯光学工业株式会社 照相机的防模糊系统
US7110035B1 (en) * 1999-05-25 2006-09-19 Flir Systems Ab Device and a method for an infrared image analyzing autofocus
CN1460888A (zh) * 2002-05-17 2003-12-10 奥林巴斯光学工业株式会社 自动焦点调节装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP特开2007-206545A 2007.08.16
JP特开平11-183788A 1999.07.09

Also Published As

Publication number Publication date
US7941042B2 (en) 2011-05-10
JP5572299B2 (ja) 2014-08-13
JP2009069830A (ja) 2009-04-02
KR101415872B1 (ko) 2014-07-11
KR20090028255A (ko) 2009-03-18
CN101387735A (zh) 2009-03-18
US20090074396A1 (en) 2009-03-19

Similar Documents

Publication Publication Date Title
CN101387735B (zh) 用于图像捕获的自动聚焦方法和设备
US8018524B2 (en) Image-pickup method and apparatus having contrast and phase difference forcusing methods wherein a contrast evaluation area is changed based on phase difference detection areas
KR101370356B1 (ko) 스테레오스코픽 화상 디스플레이 방법 및 장치, 2d 화상데이터 입력으로부터 3d 화상 데이터를 생성하는 방법,그리고 2d 화상 데이터 입력으로부터 3d 화상 데이터를생성하는 장치
KR101345093B1 (ko) 자동 초점 제어 장치, 이미지 캡처 장치 및 초점 자동 조절 방법
CN107258077B (zh) 用于连续自动聚焦(caf)的系统和方法
US20160248967A1 (en) Distance information producing apparatus, image capturing apparatus, distance information producing method and storage medium storing distance information producing program
GB2553178A (en) Video processing apparatus, video processing method, and program
US11682131B2 (en) Image capturing apparatus and method of controlling image capturing apparatus
CN108600638B (zh) 摄像机自动调焦系统及方法
US20110043682A1 (en) Method for using flash to assist in focal length detection
CN106973199B (zh) 利用对焦距离扫描提高深度精确度的多光圈相机系统
US8294810B2 (en) Assisting focusing method for face block
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
US20110134309A1 (en) Method to Evaluate Contrast Value for an Image and Applications Thereof
JPH05300421A (ja) 自動焦点調節装置
JP2018017876A (ja) 撮像装置及びその制御方法、及び画像処理装置及び方法
US20060061679A1 (en) Auto focus methods and auto focus devices for electronic cameras using the same
KR102061087B1 (ko) 비디오 프로젝터용 포커싱방법, 장치 및 저장매체에 저장된 프로그램
US9049382B2 (en) Image processing apparatus and image processing method
JP5018932B2 (ja) 撮像装置
JPH07209576A (ja) 光学的検出装置およびフォーカス制御装置
KR101371369B1 (ko) 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법
JP5355252B2 (ja) 撮像装置及びその制御方法
JP6818814B2 (ja) 焦点検出装置およびその制御方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant