CN107209345B - 对焦控制装置、摄像装置、对焦控制方法及介质 - Google Patents
对焦控制装置、摄像装置、对焦控制方法及介质 Download PDFInfo
- Publication number
- CN107209345B CN107209345B CN201580071033.8A CN201580071033A CN107209345B CN 107209345 B CN107209345 B CN 107209345B CN 201580071033 A CN201580071033 A CN 201580071033A CN 107209345 B CN107209345 B CN 107209345B
- Authority
- CN
- China
- Prior art keywords
- focusing position
- ocular
- focusing
- specific region
- photographed images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
Abstract
本发明提供一种实现向眼部区域的对焦,并且能够获得所希望的对焦结果的对焦控制装置、摄像装置、对焦控制方法及对焦控制程序。对焦控制装置具备:对焦位置确定部(34),根据在使聚焦透镜移动的同时通过成像元件(5)拍摄被摄体来获得的摄像图像信号确定对焦位置;及AF区域确定部(33),根据从在任意时刻通过成像元件(5)拍摄来获得的摄像图像信号检测出的脸部区域、与从在比任意时刻更靠前的时刻拍摄来获得的摄像图像信号检测出的眼部区域,确定AF区域,向根据AF区域的信号通过对焦位置确定部(34)确定的对焦位置驱动聚焦透镜。
Description
技术领域
本发明涉及一种对焦控制装置、摄像装置、对焦控制方法及对焦控制程序。
背景技术
近年来,随着CCD(Charge Coupled Device)图像传感器、CMOS(ComplementaryMetal Oxide Semiconductor)图像传感器等成像元件的高分辨率化,数码静态相机、数码摄像机、智能手机等具有摄像功能的信息设备的需求骤增。另外,将如以上的具有摄像功能的信息设备称作摄像装置。
这些摄像装置中,作为使焦点对焦于主要被摄体的对焦控制方法,采用对比度AF(Auto Focus、自动对焦)方式或相位差AF方式。
对比度AF方式为如下方式,即,沿着光轴方向驱动聚焦透镜的同时获取在各驱动阶段获得的摄像图像信号的对比度作为评价值,将评价值最高的透镜位置作为对焦位置。在此所说的聚焦透镜为通过沿光轴方向移动来调节摄像光学系统的焦距的透镜。
作为设定表示摄像图像信号中应对焦的区域的特定区域(以下,称作AF区域)的方法,有各种方法。例如,专利文献1中记载的摄像装置中,从通过成像元件拍摄的摄像图像信号提取人物的脸部和眼部,进一步确定脸部的方向,脸部朝向正面时将脸部设定为AF区域,脸部朝向侧面时将眼部设定为AF区域。
专利文献2中记载的摄像装置根据摄像图像信号从被摄体中检测脸部,进一步检测眼部、鼻子、嘴角、唇角、瞳孔等脸部的器官,将检测出的眼部设定为AF区域。
专利文献3中记载的摄像装置中,从摄像图像信号提取被摄体的眼部及鼻子、嘴、耳朵的候选组,将所提取的眼部候选组中满足条件的一对候选判断为一对眼部。并且,对眼部候选组和与其对应的形成脸部的其他器官建立对应关联来检测脸部区域,将检测出的脸部区域设定为AF区域。
专利文献4中记载的摄像装置中,分别从多个摄像图像信号检测被摄体的脸部区域,进一步从检测出的脸部区域检测眼部、嘴或鼻子等器官。并且,记载有如下方法,即,在多个摄像图像信号上跟踪脸部区域的移动位置,并将校正至少1个器官在摄像图像信号上的位置的区域设定为AF区域。
以往技术文献
专利文献
专利文献1:日本特开2013-80248号公报
专利文献2:日本特开2012-231200号公报
专利文献3:日本特开2012-199986号公报
专利文献4:日本特开2012-198807号公报
发明内容
发明要解决的技术课题
近年来,摄像装置中不仅要求对脸部区域对焦,还想对焦于眼部区域的用户需求日益强烈。并且,近年来,摄像装置中要求缩短对焦于被摄体为止的时间。
另一方面,从摄像图像信号检测眼部区域的处理与从摄像图像信号检测脸部区域的处理相比,较复杂,处理中需要较长时间。因此,很难在任意时刻同时从所获得的摄像图像信号检测脸部区域与眼部区域。
因此,若欲对焦于眼部区域,则只能待眼部区域的检测处理结束之后,再对检测出的眼部区域计算评价值。但是,被摄体移动时,检测出的眼部区域与当前时点的眼部区域的位置之间有可能产生偏差,有可能无法获得所希望的对焦结果。
专利文献1~4中,未考虑这种很难在相同时刻检测脸部区域与眼部区域的课题。
本发明是鉴于上述情况而完成的,其目的在于提供一种实现对眼部区域的对焦,并且能够获得所希望的对焦结果的对焦控制装置、摄像装置、对焦控制方法及对焦控制程序。
用于解决技术课题的手段
本发明的对焦控制装置,其具备:对焦位置确定部,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述摄像来获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测部,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测部,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定部,根据通过上述脸部检测部从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测部从在比上述任意时刻更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动部,向根据上述摄像图像信号中通过上述特定区域确定部确定的特定区域的信号、通过上述对焦位置确定部确定的对焦位置驱动上述聚焦透镜。
本发明的摄像装置,其具备上述对焦控制装置及上述成像元件。
本发明的对焦控制方法,其具备:对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述拍摄获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定步骤,根据通过上述脸部检测步骤从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测步骤从在比上述任意时刻更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动步骤,向根据上述摄像图像信号中的通过上述特定区域确定步骤确定的特定区域的信号、通过上述对焦位置确定步骤确定的对焦位置驱动上述聚焦透镜。
本发明的对焦控制程序,其用于使计算机执行如下步骤:对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述拍摄获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定步骤,根据通过上述脸部检测步骤从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测步骤从在比上述任意时刻更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动步骤,向根据上述摄像图像信号中的通过上述特定区域确定步骤确定的特定区域的信号、通过上述对焦位置确定步骤确定的对焦位置驱动上述聚焦透镜。
发明效果
根据本发明,能够提供一种实现对眼部区域的对焦,并且能够获得所希望的对焦结果的对焦控制装置、摄像装置、对焦控制方法及对焦控制程序。
附图说明
图1是表示作为用于说明本发明的一实施方式的摄像装置的一例的数码相机的概略结构的图。
图2是图1所示的数码相机中的对比度AF处理部20的功能框图。
图3是表示眼部区域的提取的一例的图。
图4是以时序示出通过脸部检测部31检测出的脸部区域与通过眼部检测部32检测出的眼部区域的图。
图5是用于说明AF区域的确定方法的图。
图6是用于说明AF区域的确定方法的另一图。
图7是用于说明图1所示的数码相机的AF动作的流程图。
图8是表示评价值曲线的一例的图。
图9是例示脸部区域F、眼部区域E、放大眼部区域EZ的图。
图10是表示放大眼部区域EZ的设定的变形例的图。
图11是表示作为本发明的摄影装置的一实施方式的智能手机200的外观的图。
图12是图11的智能手机的内部框图。
具体实施方式
以下,参考附图,对本发明的实施方式进行说明。
图1是表示作为用于说明本发明的一实施方式的摄像装置的一例的数码相机的概略结构的图。
图1所示的数码相机的摄像系统具备摄像光学系统(包含成像透镜1及光圈2)及CCD型或CMOS型等成像元件5。包含成像透镜1及光圈2的摄像光学系统对相机主体装卸自如或固定于相机主体。成像透镜1包含能够沿光轴方向移动的聚焦透镜。
集中控制数码相机的整个电力控制系统的系统控制部11控制发光部12及受光部13。并且,系统控制部11控制透镜驱动部8来调整成像透镜1中包含的聚焦透镜的位置。而且,系统控制部11通过经由光圈驱动部9控制光圈2的开口量来进行曝光量的调整。
并且,系统控制部11经由成像元件驱动部10驱动成像元件5,输出通过成像透镜1拍摄的被摄体像作为摄像图像信号。系统控制部11中通过操作部14,由用户输入命令信号。摄像图像信号包含沿X方向及与此正交的Y方向排列为二维状的多个像素信号。
数码相机的电力控制系统还具备:模拟信号处理部6,与成像元件5的输出连接且进行相关双采样处理等模拟信号处理;及模拟数字转换电路(A/D)7,将从模拟信号处理部6输出的模拟信号转换为数字信号。模拟信号处理部6及模拟数字转换电路7通过系统控制部11控制。
而且,该数码相机的电力控制系统具备:主存储器16;存储器控制部15,连接于主存储器16;数字信号处理部17,对从模拟数字转换电路7输出的摄像图像信号进行插值运算、伽马校正运算及RGB/YC转换处理等来生成摄像图像数据;压缩/扩展处理部18,将在数字信号处理部17中生成的摄像图像数据压缩成JPEG(Joint Photographic ExpertsGroup)形式对压缩图像数据进行扩展;对比度AF处理部20;外部存储器控制部21,连接有装卸自如的记录介质22;及显示控制部23,连接有搭载于相机背面等的显示部24。
存储器控制部15、数字信号处理部17、压缩/扩展处理部18、对比度AF处理部20、外部存储器控制部21及显示控制部23通过控制总线25及数据总线26相互连接,根据来自系统控制部11的指令被控制。
图2是图1所示的数码相机中的对比度AF处理部20的功能框图。
对比度AF处理部20具备脸部检测部31、眼部检测部32、AF区域确定部33及对焦位置确定部34。这些功能框通过由系统控制部11中包含的处理器执行对焦控制程序来形成。
脸部检测部31对从成像元件5输出并通过模拟数字转换电路7进行数字转换的摄像图像信号进行周知的脸部检测处理,检测人物及动物的脸部。作为脸部检测方法,能够适用利用登录有多个脸部图像信息的辞典来检测的方法、或利用模板匹配来检测的方法等。
脸部检测部31若检测出存在脸部,则输出摄像图像信号中存在脸部的区域(以下,称作脸部区域)的坐标作为脸部检测结果。并且,脸部检测部31还输出检测出的脸部区域是相对于数码相机朝向正面的脸部还是相对于数码相机朝向斜侧的脸部的脸部方向信息作为脸部检测结果。
眼部检测部32对通过脸部检测部31检测出的脸部区域的摄像图像信号进行周知的眼部检测处理来检测人物及动物的眼部。眼部检测部32若检测出存在眼部,则将摄像图像信号中的以存在眼部的眼部坐标(1点的坐标)为中心的规定区域(例如,包含该眼部坐标的脸部区域的面积的10%左右的区域)作为眼部区域,输出眼部区域的坐标作为眼部检测结果。
另外,人物或动物的脸部相对于数码相机朝向正面时,通过眼部检测部32检测与左右眼部对应的2个眼部区域。能够通过脸部检测部31检测脸部是否相对于数码相机朝向正面。通过脸部检测部31检测出的脸部区域为表示相对于数码相机朝向正面的脸部的区域时,眼部检测部32输出从该脸部区域检测出的2个眼部区域中的任一个作为眼部检测结果。
并且,人物或动物的脸部相对于数码相机倾斜时,也通过眼部检测部32检测与左右眼部对应的2个眼部区域。此时,眼部检测部32根据成为眼部检测对象的脸部区域在摄像图像信号中的位置,确定输出该脸部区域中包含的左右2个眼部的眼部区域的哪一个作为眼部检测结果。
从数码相机观察时,比数码相机的视角中心更靠左侧的人具有使整个身体朝向视角中心以使右半身映现在近前方的趋势。并且,从数码相机观察时,比数码相机的视角中心更靠右侧的人具有使整个身体朝向视角中心以使左半身映现在近前方的趋势。
即,如图3中(A)所示,若人的脸部比摄像图像信号的中心更靠左侧,则从该脸部检测出的2个眼部区域中更靠左侧的眼部区域WR成为表示位于更靠近数码相机的位置的眼部的区域。
并且,如图3中(B)所示,若人的脸部比摄像图像信号的中心更靠右侧,则从该脸部检测出的2个眼部区域中更靠右侧的眼部区域WL成为表示位于更靠近数码相机的位置的眼部的区域。
对焦于眼部时,能够通过对焦于位于靠近数码相机的位置的眼部来获得没有违和感的摄像图像。因此,眼部检测部32对于示出侧颜的脸部区域,根据该脸部区域在摄像图像信号上的位置,输出位于更靠近数码相机的位置的眼部的眼部区域作为眼部检测结果。
对焦位置确定部34沿光轴方向移动成像透镜1中包含的聚焦透镜的同时,按聚焦透镜的每个位置通过成像元件5拍摄被摄体,根据通过该拍摄获得的摄像图像信号确定聚焦透镜的对焦位置。
具体而言,对焦位置确定部34计算按聚焦透镜的每个移动位置获得的摄像图像信号的规定区域的对比度值作为评价值。评价值例如通过在规定区域中积算各像素信号中的与相邻像素信号之间的亮度差来获得。
并且,对焦位置确定部34计算表示计算出的多个评价值与分别和该多个评价值对应的聚焦透镜位置的信息之间的关系的评价值曲线,将该评价值曲线中评价值变得最大的聚焦透镜的位置确定为对焦位置。
若在任意时刻有对比度AF的命令(以下,称作AF命令),则AF区域确定部33根据通过脸部检测部31从在该任意时刻通过成像元件5拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过眼部检测部32从在比该任意时刻更靠前的时刻通过成像元件5拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示从成像元件5输出的摄像图像信号中应对焦的区域的特定区域即AF区域。AF区域确定部33作为特定区域确定部发挥作用。
图4是以时序示出通过脸部检测部31检测出的脸部区域与通过眼部检测部32检测出的眼部区域的图。
如图4所示,在时刻T1~T4,通过脸部检测部31检测出正方形的脸部区域W1~W4。其中,为了精度良好地进行对比度AF,脸部检测部31对脸部区域W1与在比时刻T1更靠前的时刻检测出的脸部区域进行平均来获得脸部区域WW1。
同样地,脸部检测部31对脸部区域W2与在时刻T1获得的脸部区域WW1进行平均来获得脸部区域WW2。并且,脸部检测部31对脸部区域W3与在时刻T2获得的脸部区域WW2进行平均来获得脸部区域WW3。并且,脸部检测部31对脸部区域W4与在时刻T3获得的脸部区域WW3进行平均来获得脸部区域WW4。
例如,利用脸部区域W2的中心坐标T2(x、y)及脸部区域W2的一边的长度T2(L)、在时刻T1获得的脸部区域WW1的中心坐标(X1、Y1)及脸部区域WW1的一边的长度L1,根据下式(1),计算已平均的脸部区域WW2的中心坐标(X2、Y2)及脸部区域WW2的一边的长度L2。
X2=(T2(x)+X1)/2
Y2=(T2(y)+Y1)/2
L2=(T2(L)+L1))/2……(1)
关于在时刻T1进行的针对脸部区域WW1内的摄像图像信号的眼部检测部32的眼部检测处理结果与在时刻T2进行的针对脸部区域WW2内的摄像图像信号的眼部检测部32的眼部检测处理结果,与和脸部检测处理结果相比,检测花费更多时间,因此分别在时刻T3及时刻T4输出。
在时刻T3从眼部检测部32输出的眼部区域E1成为对包含从脸部区域W1检测出的眼部坐标P1的眼部区域与在时刻T2输出的眼部区域进行平均的区域。眼部区域E1的中心坐标成为在时刻T3从眼部检测部32输出的眼部坐标PP1。
同样地,在时刻T4从眼部检测部32输出的眼部区域E2成为包含从脸部区域W2检测出的眼部坐标P2的眼部区域与在时刻T3输出的眼部区域E1进行平均的区域。眼部区域E2的中心坐标成为在时刻T4从眼部检测部32输出的眼部坐标PP2。
通过脸部检测部31检测出的脸部区域的大小如脸部区域W1~W4中例示,即使是相同的被摄体,有时也会发生变动。因此,通过进行平均来将该脸部区域的大小的偏差抑制在最低限度,能够提高AF区域的确定精度。
并且,针对眼部区域,相对于脸部区域的大小确定眼部区域的大小时,即使是相同的被摄体,随着脸部区域的变动,有时眼部区域的大小会发生变动。因此,进行平均处理较有效。另外,脸部区域与眼部区域的各个平均处理并非必需。
图4的例子中,若在时刻T4由用户发出AF命令,则AF区域确定部33根据在时刻T4检测出的脸部区域WW4与在时刻T4输出的眼部区域E2确定AF区域。
例如,如图5所示,当在时刻T4检测出的脸部区域WW4中存在在时刻T4输出的眼部区域E2的中心坐标PP2时,AF区域确定部33将脸部区域WW4与眼部区域E2中的任一个确定为AF区域。
并且,如图6所示,当在时刻T4检测出的脸部区域WW4外存在在时刻T4输出的眼部区域E2的中心坐标PP2时,AF区域确定部33将脸部区域WW4确定为AF区域。此时,在时刻T2至时刻T4期间被摄体大幅移动,能够判断眼部区域E2的检测精度较低(并非实际的眼部而是将背景等作为眼部区域E2的可能性较高),因此脸部区域WW4确定为AF区域。
图7是用于说明图1所示的数码相机的AF动作的流程图。图7的处理通过操作部14的快门按钮被按压等而AF命令输入到系统控制部11来开始。
若有AF命令,则系统控制部11移动聚焦透镜的同时通过成像元件5拍摄被摄体(步骤S0)。该各拍摄中,将通过最先进行的拍摄来获得的摄像图像信号作为摄像图像信号IA。
若获取到摄像图像信号IA,则脸部检测部31对摄像图像信号IA实施脸部检测处理,并输出脸部检测结果(脸部区域的坐标)。与该脸部检测处理并行地,眼部检测部32输出针对在比获得摄像图像信号IA的时刻更靠前的时刻通过成像元件5拍摄来获得的摄像图像信号IB的眼部检测处理的结果(眼部区域的坐标)(步骤S1)。
接着,AF区域确定部33对在步骤S1中检测出的脸部区域(以下,设为脸部区域F)与眼部区域(以下,设为眼部区域E)进行比较,判定脸部区域F中是否存在眼部区域E的中心(步骤S2)。
当脸部区域F中不存在眼部区域E的中心时,换言之,当脸部区域F外存在眼部区域E的中心时(步骤S2:否),AF区域确定部33将脸部区域F确定为AF区域(步骤S11)。
步骤S11之后,对焦位置确定部34根据通过步骤S0的各拍摄来获得的摄像图像信号中通过步骤S11确定的AF区域的信号,计算聚焦透镜的每个位置的评价值,将评价值变得最大的聚焦透镜的位置确定为第1对焦位置G1。
若第1对焦位置G1已确定,则系统控制部11控制透镜驱动部8,向该第1对焦位置G1驱动聚焦透镜(步骤S12),结束AF动作。系统控制部11作为驱动部发挥作用。该驱动部为通过由系统控制部11中包含的处理器执行对焦控制程序来实现的功能框。执行对焦控制程序的系统控制部11与对比度AF处理部20作为对焦控制装置发挥作用。
当步骤S2的判定为“是”时,对焦位置确定部34根据通过步骤S0的各拍摄来获得的摄像图像信号中通过步骤S1检测出的脸部区域F的信号,按每个聚焦透镜位置计算评价值,确定评价值变得最大的聚焦透镜的第1对焦位置G1(步骤S3)。
并且,对焦位置确定部34根据通过步骤S0的各拍摄来获得的摄像图像信号中通过步骤S1检测出的眼部区域E的信号,按聚焦透镜的每个位置计算评价值,确定评价值变得最大的聚焦透镜的第2对焦位置G2(步骤S4)。
眼部区域E为小于脸部区域F的区域。因此,对于眼部区域E,评价值曲线成为如图8例示的曲线,有时无法确定唯一的第2对焦位置G2。因此,AF区域确定部33在步骤S4之后,判定通过步骤S4的处理是否已确定了第2对焦位置G2(步骤S5)。
通过步骤S4的处理已确定了第2对焦位置G2时(步骤S5:否),AF区域确定部33进行第1对焦位置G1与第2对焦位置G2的比较。具体而言,AF区域确定部33判定第1对焦位置G1与第2对焦位置G2之差是否小于第1阈值TH1且第2对焦位置G2是否比第1对焦位置G1更靠成像元件5侧(步骤S6)。
当步骤S6的判定为“是”时,AF区域确定部33将眼部区域E确定为AF区域(步骤S7)。步骤S7之后,系统控制部11控制透镜驱动部8,向第2对焦位置G2驱动聚焦透镜(步骤S8),并结束AF动作。
当步骤S6的判定为“否”时,AF区域确定部33将脸部区域F确定为AF区域(步骤S9)。步骤S9之后,系统控制部11控制透镜驱动部8,向第1对焦位置G1驱动聚焦透镜(步骤S10),并结束AF动作。
若眼部区域E的信号为拍摄脸部区域F中包含的眼部来获得的信号,则基于脸部区域F的信号的第1对焦位置G1与基于眼部区域E的信号的第2对焦位置G2之间不会产生较大偏差。因此,第1对焦位置G1与第2对焦位置G2之差较大表示眼部区域E的信号是拍摄与脸部区域中包含的眼部不同的部分(例如背景)来获得的信号的可能性较高。因此,步骤S6的判定中,第1对焦位置G1与第2对焦位置G2之差为第1阈值TH1以上时,视作眼部区域E的可靠性较低,AF区域确定部33将脸部区域F确定为AF区域。
并且,即使第1对焦位置G1与第2对焦位置G2之差小于第1阈值TH1,但根据眼部区域E的信号确定的第2对焦位置G2比根据脸部区域F的信号确定的第1对焦位置G1更靠被摄体侧时,若向第2对焦位置G2驱动聚焦透镜,则焦点有可能在脸部区域F中的大部分未对焦,有可能无法清楚地拍摄脸部。为了避免这种情况,步骤S6的判定中,仅在第1对焦位置G1与第2对焦位置G2之差小于第1阈值TH1且第2对焦位置G2比第1对焦位置G1更靠成像元件5侧时,将眼部区域E确定为AF区域。
当步骤S5的判定为“是”时,AF区域确定部33设定包含眼部区域E且放大眼部区域E的放大眼部区域EZ(步骤S13)。之后,对焦位置确定部34根据通过步骤S0的各拍摄来获得的摄像图像信号中通过步骤S13设定的放大眼部区域EZ的信号,按聚焦透镜的每个位置计算评价值,确定评价值变得最大的聚焦透镜的第3对焦位置G3(步骤S14)。
放大眼部区域E的放大眼部区域EZ的信息量比眼部区域E更增加。因此,对于放大眼部区域EZ,能够使可确定对焦位置的可能性高于眼部区域E。
图9是例示脸部区域F、眼部区域E、放大眼部区域EZ的图。
图9的例子中,放大眼部区域EZ的中心坐标比眼部区域E的中心坐标更向靠近包含眼部区域E的脸部区域F的中心的方向偏离。
放大眼部区域的中心坐标比眼部区域E的中心坐标更向靠近脸部区域F的中心的方向偏离包含如下状态,即,将以眼部区域E的中心坐标作为起点并以脸部区域F的中心坐标作为终点的矢量分解为X方向成分与Y方向成分时,放大眼部区域EZ的中心坐标位于从眼部区域E的中心坐标向朝向X方向成分矢量的方向偏离规定量的位置的状态、放大眼部区域EZ的中心坐标位于从眼部区域E的中心坐标向朝向Y方向成分矢量的方向偏离规定量的位置的状态、放大眼部区域的中心坐标位于分别从眼部区域E的中心坐标向朝向X方向成分矢量的方向与朝向Y方向成分矢量的方向偏离规定量的位置。
通过如图9那样设定放大眼部区域EZ,能够降低放大眼部区域EZ溢出脸部区域F的可能性。通过放大眼部区域EZ不会溢出脸部区域F外,即使根据放大眼部区域EZ的信号确定对焦位置,并向该对焦位置驱动聚焦透镜时,也能够防止焦点对焦于脸部以外的部分,提高对焦精度。
另外,即使放大眼部区域EZ的中心坐标比眼部区域E的中心坐标更向靠近包含眼部区域E的脸部区域F的中心的方向偏离,例如如图10所示,有时放大眼部区域EZ的一部分也会溢出脸部区域F外。
这种情况下,AF区域确定部33优选排除放大眼部区域EZ中比脸部区域F更靠外侧的部分(图10中,未画斜线的区域)来设定放大眼部区域EZ。由此,即使在根据放大眼部区域EZ的信号确定对焦位置,并向该对焦位置驱动聚焦透镜时,也能够可靠地防止焦点对焦于脸部以外的部分,提高对焦精度。
放大眼部区域EZ为小于脸部区域F的区域。因此,对于放大眼部区域EZ,评价值曲线也有可能成为如图8中例示的曲线,有时无法确定唯一的第3对焦位置G3。因此,AF区域确定部33在步骤S14之后,判定通过步骤S14的处理是否已确定了第3对焦位置G3(步骤S15)。
通过步骤S14的处理已确定了第3对焦位置G3时(步骤S15:否),AF区域确定部33进行第1对焦位置G1与第3对焦位置G3的比较。具体而言,AF区域确定部33判定第1对焦位置G1与第3对焦位置G3之差是否小于第2阈值TH2且第3对焦位置G3是否比第1对焦位置G1更靠成像元件5侧(步骤S16)。
当步骤S16的判定为“是”时,AF区域确定部33将放大眼部区域EZ判定为AF区域(步骤S17)。步骤S17之后,系统控制部11控制透镜驱动部8,向第3对焦位置G3驱动聚焦透镜(步骤S18),并结束AF动作。
当步骤S16的判定为“否”时,AF区域确定部33将脸部区域F确定为AF区域(步骤S9)。步骤S9之后,系统控制部11控制透镜驱动部8,向第1对焦位置G1驱动聚焦透镜(步骤S10),并结束AF动作。
若放大眼部区域EZ的信号为拍摄包含脸部区域F中包含的眼部来获得的信号,则基于脸部区域F的信号的第1对焦位置G1与基于放大眼部区域EZ的信号的第3对焦位置G3之间不会产生较大偏差。
因此,第1对焦位置G1与第3对焦位置G3之差较大表示,放大眼部区域EZ的信号是拍摄与脸部区域中包含的眼部不同的部分(例如背景)来获得的信号的可能性较高。因此,步骤S16的判定中,第1对焦位置G1与第3对焦位置G3之差为第2阈值TH2以上时,视作放大眼部区域EZ的可靠性较低,AF区域确定部33将脸部区域F确定为AF区域。
并且,即使第1对焦位置G1与第3对焦位置G3之差小于第2阈值TH2,但根据放大眼部区域EZ的信号确定的第3对焦位置G3比根据脸部区域F的信号确定的第1对焦位置G1更靠被摄体侧时,若向第3对焦位置G3驱动聚焦透镜,则焦点有可能在脸部区域F的大部分未对焦,有可能无法清楚地拍摄脸部。
为了避免这种情况,步骤S16的判定中,仅在第1对焦位置G1与第3对焦位置G3之差小于第2阈值TH2且第3对焦位置G3比第1对焦位置G1更靠成像元件5侧时,将放大眼部区域EZ确定为AF区域。
如上,图1所示的数码相机能够根据在任意时刻检测出的脸部区域与从在比该任意时刻更靠前的时刻获得的摄像图像信号检测出的眼部区域之间的关系,确定将眼部区域与脸部区域中的哪个作为AF区域来进行聚焦透镜的驱动。
因此,即使在由于被摄体移动而在脸部区域与眼部区域的位置产生较大偏差时,也能够减少误对焦的概率并实现稳定的AF动作。并且,被摄体未移动时,即,脸部区域中存在眼部区域的中心时,能够向根据眼部区域与脸部区域中对焦精度变高的区域的信号确定的对焦位置驱动聚焦透镜。因此,被摄体未移动时,能够进行精度较高的AF动作。
并且,即使在无法确定第2对焦位置G2时,也设定放大眼部区域EZ,并根据该放大眼部区域EZ的信号确定第3对焦位置G3。并且,已确定了第3对焦位置G3时,能够向第3对焦位置G3驱动聚焦透镜,因此能够增加进行使焦点对焦于眼部附近的摄像的可能性。
并且,设想若向第2对焦位置G2及第3对焦位置G3驱动聚焦透镜则对焦精度下降时(步骤S6:否及步骤S16:否),脸部区域确定为AF区域。因此,无论在什么情况下,都能够进行焦点至少对焦于脸部区域的摄像,能够确保对焦精度。
另外,若AF命令输入至系统控制部11,则显示控制部23将即时显示图像显示于显示部24,并且在AF动作时,可将表示脸部区域与眼部区域的信息(例如,脸部框与眼部框)显示于显示部24。
其中,对于表示眼部区域的信息,设为仅在步骤S2的判定为“是”时显示即可。通过如此,不会在没有眼部的部分显示眼部框,不会给用户带来违和感。
而且,进行步骤S7、步骤S9及步骤S11的处理时,显示控制部23可强调显示表示确定为AF区域的区域的框,变更未确定为AF区域的框的颜色和亮度。由此,能够使用户在直观上认识到焦点对焦于哪一区域。
接着,作为摄像装置,对智能手机的结构进行说明。
图11是表示作为本发明的摄影装置的一实施方式的智能手机200的外观的图。图11所示的智能手机200具有平板状框体201,在框体201的一侧的面具备作为显示部的显示面板202与作为输入部的操作面板203成为一体的显示输入部204。并且,这种框体201具备扬声器205、麦克风206、操作部207及相机部208。另外,框体201的结构并不限定于此,例如能够采用显示部与输入部独立的结构,或者采用具有折叠结构或滑动机构的结构。
图12是表示图11所示的智能手机200的结构的框图。如图12所示,作为智能手机的主要的构成要件,具备无线通信部210、显示输入部204、通话部211、操作部207、相机部208、存储部212、外部输入输出部213、GPS(Global Positioning System)接收部214、动作传感器部215、电源部216及主控制部220。并且,作为智能手机200的主要功能,具备进行经由省略图示的基站装置和省略图示的移动通信网的移动无线通信的无线通信功能。
无线通信部210根据主控制部220的命令,对容纳于移动通信网的基站装置进行无线通信。使用该无线通信,进行语音数据、图像数据等各种文件数据、电子邮件数据等的收发、Web数据或流数据等的接收。
显示输入部204是所谓的触控面板,其具备显示面板202及操作面板203,所述显示输入部204通过主控制部220的控制,显示图像(静态图像及动态图像)和文字信息等来视觉性地向用户传递信息,并且检测用户对所显示的信息的操作。
显示面板202是将LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等用作显示设备的装置。
操作面板203是以能够视觉辨认显示于显示面板202的显示面上的图像的方式载置,并检测通过用户的手指或触控笔来操作的一个或多个坐标的设备。若通过用户的手指或触控笔操作该设备,则将因操作而产生的检测信号输出至主控制部220。接着,主控制部220根据所接收的检测信号检测显示面板202上的操作位置(坐标)。
如图12所示,作为本发明的摄影装置的一实施方式来例示的智能手机200的显示面板202与操作面板203成为一体而构成显示输入部204,配置成操作面板203完全覆盖显示面板202。
采用该配置时,操作面板203可以对显示面板202以外的区域也具备检测用户操作的功能。换言之,操作面板203可具备针对与显示面板202重叠的重叠部分的检测区域(以下,称为显示区域)和针对除此以外的不与显示面板202重叠的外缘部分的检测区域(以下,称为非显示区域)。
另外,可使显示区域的大小与显示面板202的大小完全一致,但并非一定要使两者一致。并且,操作面板203可具备外缘部分和除此以外的内侧部分这两个感应区域。而且,外缘部分的宽度根据框体201的大小等而适当设计。此外,作为在操作面板203中采用的位置检测方式,可举出矩阵开关方式、电阻膜方式、表面弹性波方式、红外线方式、电磁感应方式、静电电容方式等,可采用任意方式。
通话部211具备扬声器205和麦克风206,所述通话部211将通过麦克风206输入的用户的语音转换成能够在主控制部220中处理的语音数据来输出至主控制部220,或者对通过无线通信部210或外部输入输出部213接收的语音数据进行解码来从扬声器205输出。并且,如图18所示,例如能够将扬声器205搭载于与设置有显示输入部204的面相同的面,将麦克风206搭载于框体201的侧面。
操作部207为使用键开关等的硬件键,接受来自用户的命令。例如,如图图11所示,操作部207搭载于智能手机200的框体201的侧面,是若被手指等按下则开启,若手指离开则通过弹簧等的复原力而成为关闭状态的按钮式开关。
存储部212存储主控制部220的控制程序和控制数据、应用软件、将通信对象的名称和电话号码等建立对应关联的地址数据、所收发的电子邮件的数据、通过网络浏览下载的网络数据和已下载的内容数据,并且临时存储流数据等。并且,存储部212由智能手机内置的内部存储部及具有装卸自如的外部存储器插槽的外部存储部218构成。另外,构成存储部212的各个内部存储部217与外部存储部218通过使用闪存类型、硬盘类型、微型多媒体卡类型、卡类型的存储器、RAM(Random Access Memory)或ROM(Read Only Memory)等存储介质来实现。
外部输入输出部213发挥与连结于智能手机200的所有外部设备的接口的作用,用于通过通信等(例如,通用串行总线(USB)、IEEE1394等)或网络(例如,互联网、无线LAN(Local Area Network)、蓝牙(Bluetooth)(注册商标)、RFID(Radio FrequencyIdentification)、红外线通信、UWB(Ultra Wideband)(注册商标)或紫蜂(Zig Bee)(注册商标)等)直接或间接地与其他外部设备连接。
作为与智能手机200连结的外部设备,例如有:有/无线头戴式耳机、有/无线外部充电器、有/无线数据端口、经由卡插槽连接的存储卡或SIM(Subscriber IdentityModule)卡、UIM(User Identity Module Card)卡、经由音频/视频I/O(Input/Output)端子连接的外部音频/视频设备、无线连接的外部音频/视频设备、有/无线连接的智能手机、有/无线连接的个人计算机、有/无线连接的个人计算机、耳机等。外部输入输出部213能够将从这种外部设备接收到传送的数据传递至智能手机200内部的各构成要件、或将智能手机200内部的数据传送至外部设备。
GPS接收部214根据主控制部220的命令,接收从GPS卫星ST1~STn发送的GPS信号,执行基于所接收的多个GPS信号的测位运算处理,检测包含智能手机200的纬度、经度、高度的位置。GPS接收部214在能够从无线通信部210或外部输入输出部213(例如无线LAN)获取位置信息时,还能够利用该位置信息检测位置。
动作传感器部215例如具备3轴加速度传感器等,根据主控制部220的命令,检测智能手机200的物理动作。通过检测智能手机200的物理动作,可检测智能手机200的移动方向或加速度。该检测结果被输出至主控制部220。
电源部216根据主控制部220的命令,向智能手机200的各部供给积蓄在电池(未图示)中的电力。
主控制部220具备微处理器,根据存储部212所存储的控制程序或控制数据进行动作,统一控制智能手机200的各部。并且,主控制部220为了通过无线通信部210进行语音通信或数据通信,具备控制通信系统的各部的移动通信控制功能及应用处理功能。
应用处理功能通过主控制部220根据存储部212所存储的应用软件进行动作来实现。作为应用处理功能,例如有控制外部输入输出部213来与对象设备进行数据通信的红外线通信功能、进行电子邮件的收发的电子邮件功能、浏览Web页的Web浏览功能等。
并且,主控制部220具备根据接收数据或所下载的流数据等图像数据(静态图像或动态图像的数据)而在显示输入部显示输入部204显示影像等的图像处理功能。图像处理功能是指主控制部220对上述图像数据进行解码,对该解码结果实施图像处理并将图像显示于显示输入部204的功能。
而且,主控制部220执行对显示面板202的显示控制和检测通过操作部207、操作面板203进行的用户操作的操作检测控制。通过执行显示控制,主控制部220显示用于启动应用软件的图标或滚动条等软件键,或者显示用于创建电子邮件的窗口。另外,滚动条是指用于使无法完全落入显示面板202的显示区域的较大图像等,接受使图像的显示部分移动的命令的软件键。
并且,通过执行操作检测控制,主控制部220检测通过操作部207进行的用户操作,或者通过操作面板203接受对上述图标的操作或对上述窗口的输入栏输入字符串,或者接受通过滚动条进行的显示图像的滚动请求。
而且,通过执行操作检测控制,主控制部220具备判定对操作面板203操作的位置是与显示面板202重叠的重叠部分(显示区域)还是除此以外的不与显示面板202重叠的外缘部分(非显示区域),并控制操作面板203的感应区域或软件键的显示位置的触控面板控制功能。
并且,主控制部220还能够检测对操作面板203的手势操作,并根据检测出的手势操作执行预先设定的功能。手势操作表示并非以往的简单的触控操作,而是通过手指等描绘轨迹、或者同时指定多个位置、或者组合这些来从多个位置对至少一个描绘轨迹的操作。
相机部208包含图1所示的数码相机中的外部存储器控制部21、记录介质22、显示控制部23、显示部24及操作部14以外的结构。通过相机部208生成的摄像图像数据能够记录于存储部212,或通过外部输入输出部213和无线通信部210输出。图11所示的智能手机200中,相机部208搭载于与显示输入部204相同的面,但相机部208的搭載位置并不限定于此,还可搭载于显示输入部204的背面。
并且,相机部208能够利用于智能手机200的各种功能中。例如,能够在显示面板202显示由相机部208获取的图像,或者作为操作面板203的操作输入之一而利用相机部208的图像。并且,当GPS接收部214检测位置时,还能够参考来自相机部208的图像来检测位置。而且,还能够参考来自相机部208的图像,不使用3轴加速度传感器或者与3轴加速度传感器并用来判断智能手机200的相机部208的光轴方向,或判断当前的使用环境。当然,还能够在应用软件内利用来自相机部208的图像。
另外,能够在静态图像或动态图像的图像数据上附加通过GPS接收部214获取的位置信息、通过麦克风206获取的语音信息(也可通过主控制部等进行语音文本转换而成为文本信息)、通过动作传感器部215获取的姿势信息等等来记录于记录部212,还能够通过外部输入输出部213和无线通信部210输出。
在如上结构的智能手机200中,通过在相机部208中设置图1的对比度AF处理部20,能够进行高精度的对焦控制。
如上说明,本说明书公开以下事项。
所公开的对焦控制装置,其具备:对焦位置确定部,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述拍摄来获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测部,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测部,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定部,根据通过上述脸部检测部从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测部从在比上述任意更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动部,向根据上述摄像图像信号中通过上述特定区域确定部确定的特定区域的信号,通过上述对焦位置确定部确定的对焦位置驱动上述聚焦透镜。
所公开的对焦控制装置中,当上述脸部区域以外存在上述眼部区域的中心时,上述特定区域确定部将上述脸部区域确定为上述特定区域。
所公开的对焦控制装置中,当上述脸部区域中存在上述眼部区域的中心时,上述特定区域确定部通过上述聚焦透镜的第1对焦位置与上述聚焦透镜的第2对焦位置的比较,将上述脸部区域与上述眼部区域中的任一个确定为上述特定区域,上述聚焦透镜的第1对焦位置根据上述摄像图像信号中的上述脸部区域的信号通过上述对焦位置确定部确定,上述聚焦透镜的第2对焦位置根据上述摄像图像信号中的上述眼部区域的信号通过上述对焦位置确定部确定。
所公开的对焦控制装置中,当上述第1对焦位置与上述第2对焦位置之差小于第1阈值且上述第2对焦位置比上述第1对焦位置更靠上述成像元件侧时,上述特定区域确定部将上述眼部区域确定为上述特定区域。
所公开的对焦控制装置中,当无法确定上述第2对焦位置时,上述特定区域确定部通过上述聚焦透镜的第3对焦位置与上述第1对焦位置的比较,将上述脸部区域与上述放大眼部区域中的任一个确定为上述特定区域,上述聚焦透镜的第3对焦位置根据上述摄像图像信号中的放大上述眼部区域的放大眼部区域信号通过上述对焦位置确定部确定。
所公开的对焦控制装置中,当上述第1对焦位置与上述第3对焦位置之差小于第2阈值且上述第3对焦位置比上述第1对焦位置更靠上述成像元件侧时,上述特定区域确定部将上述放大眼部区域确定为上述特定区域。
所公开的对焦控制装置中,上述特定区域确定部使上述放大眼部区域的中心向比上述眼部区域的中心更靠近上述脸部区域的中心的方向偏离。
所公开的对焦控制装置中,上述特定区域确定部从上述放大眼部区域排除上述放大眼部区域中比上述脸部区域更靠外侧的部分。
所公开的摄像装置具备上述对焦控制装置及上述成像元件。
所公开的对焦控制方法,其具备:对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述拍摄获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定步骤,根据通过上述脸部检测步骤从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测步骤从在比上述任意时刻更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动步骤,向根据上述摄像图像信号中的通过上述特定区域确定步骤确定的特定区域的信号,通过上述对焦位置确定步骤确定的对焦位置驱动上述聚焦透镜。
所公开的对焦控制方法中,上述特定区域确定步骤中,当上述脸部区域外存在上述眼部区域的中心时,将上述脸部区域确定为上述特定区域。
所公开的对焦控制方法中,上述特定区域确定步骤中,当上述脸部区域中存在上述眼部区域的中心时,通过上述聚焦透镜的第1对焦位置与上述聚焦透镜的第2对焦位置的比较,将上述脸部区域与上述眼部区域中的任一个确定为上述特定区域,上述聚焦透镜的第1对焦位置根据上述摄像图像信号中的上述脸部区域的信号通过上述对焦位置确定步骤确定,上述聚焦透镜的第2对焦位置根据上述摄像图像信号中的上述眼部区域的信号通过上述对焦位置确定部确定。
所公开的对焦控制方法中,上述特定区域确定步骤中,当上述第1对焦位置与上述第2对焦位置之差小于第1阈值且上述第2对焦位置比上述第1对焦位置更靠上述成像元件侧时,将上述眼部区域确定为上述特定区域。
所公开的对焦控制方法中,上述特定区域确定步骤中,当无法确定上述第2对焦位置时,根据上述聚焦透镜的第3对焦位置与上述第1对焦位置的比较,将上述脸部区域与上述放大眼部区域中的任一个确定为上述特定区域,上述聚焦透镜的第3对焦位置根据上述摄像图像信号中的包含上述眼部区域且大于上述眼部区域的放大眼部区域的信号通过上述对焦位置确定步骤确定。
所公开的对焦控制方法中,上述特定区域确定步骤中,当上述第1对焦位置与上述第3对焦位置之差小于第2阈值且上述第3对焦位置比上述第1对焦位置更靠上述成像元件侧时,将上述放大眼部区域确定为上述特定区域。
所公开的对焦控制方法中,上述特定区域确定步骤中,使上述放大眼部区域的中心向比上述眼部区域的中心更靠近上述脸部区域的中心的方向偏离。
所公开的对焦控制方法中,上述特定区域确定步骤中,从上述放大眼部区域排除上述放大眼部区域中比上述脸部区域更靠外侧的部分。
所公开的对焦控制程序,其用于使计算机执行如下步骤:对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按上述聚焦透镜的每个位置,使通过上述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过上述拍摄来获得的摄像图像信号确定上述聚焦透镜的对焦位置;脸部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行脸部检测处理;眼部检测步骤,对通过上述成像元件拍摄被摄体来获得的摄像图像信号进行眼部检测处理;特定区域确定步骤,根据通过上述脸部检测步骤从在任意时刻通过上述成像元件拍摄来获得的第1摄像图像信号检测出的脸部区域、与通过上述眼部检测步骤从在比上述任意时刻更靠前的时刻通过上述成像元件拍摄来获得的第2摄像图像信号检测出的眼部区域,确定表示上述摄像图像信号中应对焦的区域的特定区域;及驱动步骤,向根据上述摄像图像信号中的通过上述特定区域确定步骤确定的特定区域的信号,通过上述对焦位置确定步骤确定的对焦位置驱动上述聚焦透镜。
产业上的可利用性
本发明尤其适用于数码相机等,便利性较高且有效。
以上,根据特定实施方式对本发明进行了说明,但本发明并不限定于该实施方式,能够在不脱离所公开的发明的技术思想的范围内进行各种变更。
本申请基于2014年12月26日申请的日本专利申请(专利申请2014-265823),其内容引入本说明书中。
符号说明
1-成像透镜(包括聚焦透镜),5-成像元件,11-系统控制部(驱动部),20,对比度AF处理部,31-脸部检测部,32-眼部检测部,33-AF区域确定部(特定区域确定部),34-对焦位置确定部。
Claims (18)
1.一种对焦控制装置,其具备:
对焦位置确定部,使能够沿光轴方向移动的聚焦透镜移动的同时,按所述聚焦透镜的每个位置,使通过所述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过所述拍摄而获得的摄像图像信号来确定所述聚焦透镜的对焦位置;
脸部检测部,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行脸部检测处理;及
眼部检测部,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行眼部检测处理;
所述对焦控制装置的特征在于,还具备:
特定区域确定部,根据通过所述脸部检测部从在任意时刻由所述成像元件拍摄而获得的第1摄像图像信号检测出的脸部区域、与通过所述眼部检测部从在比所述任意时刻更靠前的时刻由所述成像元件拍摄而获得的第2摄像图像信号检测出的眼部区域,确定表示所述摄像图像信号中应对焦的区域的特定区域;及
驱动部,将所述聚焦透镜向对焦位置驱动,该对焦位置是根据所述摄像图像信号中的由所述特定区域确定部所确定的特定区域的信号、通过所述对焦位置确定部来确定。
2.根据权利要求1所述的对焦控制装置,其中,
当所述脸部区域外存在所述眼部区域的中心时,所述特定区域确定部将所述脸部区域确定为所述特定区域。
3.根据权利要求1或2所述的对焦控制装置,其中,
当所述脸部区域中存在所述眼部区域的中心时,所述特定区域确定部通过所述聚焦透镜的第1对焦位置与所述聚焦透镜的第2对焦位置的比较,将所述脸部区域与所述眼部区域中的任一个确定为所述特定区域,所述聚焦透镜的第1对焦位置是根据所述摄像图像信号中的所述脸部区域的信号通过所述对焦位置确定部来确定,所述聚焦透镜的第2对焦位置是根据所述摄像图像信号中的所述眼部区域的信号通过所述对焦位置确定部来确定。
4.根据权利要求3所述的对焦控制装置,其中,
当所述第1对焦位置与所述第2对焦位置之差小于第1阈值且所述第2对焦位置比所述第1对焦位置更靠所述成像元件侧时,所述特定区域确定部将所述眼部区域确定为所述特定区域。
5.根据权利要求3所述的对焦控制装置,其中,
当不能确定所述第2对焦位置时,所述特定区域确定部通过所述聚焦透镜的第3对焦位置与所述第1对焦位置的比较,将所述脸部区域与放大眼部区域中的任一个确定为所述特定区域,所述聚焦透镜的第3对焦位置是根据所述摄像图像信号中的将所述眼部区域放大后的所述放大眼部区域的信号通过所述对焦位置确定部来确定。
6.根据权利要求5所述的对焦控制装置,其中,
当所述第1对焦位置与所述第3对焦位置之差小于第2阈值且所述第3对焦位置比所述第1对焦位置更靠所述成像元件侧时,所述特定区域确定部将所述放大眼部区域确定为所述特定区域。
7.根据权利要求5或6所述的对焦控制装置,其中,
所述特定区域确定部使所述放大眼部区域的中心向比所述眼部区域的中心更靠近所述脸部区域的中心的方向偏离。
8.根据权利要求7所述的对焦控制装置,其中,
所述特定区域确定部从所述放大眼部区域排除所述放大眼部区域中比所述脸部区域更靠外侧的部分。
9.一种摄像装置,其具备:
根据权利要求1至8中任一项所述的对焦控制装置;及
所述成像元件。
10.一种对焦控制方法,其具备:
对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按所述聚焦透镜的每个位置,使通过所述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过所述拍摄获得的摄像图像信号来确定所述聚焦透镜的对焦位置;
脸部检测步骤,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行脸部检测处理;及
眼部检测步骤,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行眼部检测处理;
所述对焦控制方法的特征在于,还具备:
特定区域确定步骤,根据通过所述脸部检测步骤从在任意时刻由所述成像元件拍摄而获得的第1摄像图像信号检测出的脸部区域、与通过所述眼部检测步骤从在比所述任意时刻更靠前的时刻由所述成像元件拍摄而获得的第2摄像图像信号检测出的眼部区域,确定表示所述摄像图像信号中应对焦的区域的特定区域;及
驱动步骤,将所述聚焦透镜向对焦位置驱动,该对焦位置是根据所述摄像图像信号中的通过所述特定区域确定步骤所确定的特定区域的信号、通过所述对焦位置确定步骤来确定。
11.根据权利要求10所述的对焦控制方法,其中,
所述特定区域确定步骤中,当所述脸部区域外存在所述眼部区域的中心时,将所述脸部区域确定为所述特定区域。
12.根据权利要求10或11所述的对焦控制方法,其中,
所述特定区域确定步骤中,当所述脸部区域中存在所述眼部区域的中心时,通过所述聚焦透镜的第1对焦位置与所述聚焦透镜的第2对焦位置的比较,将所述脸部区域与所述眼部区域中的任一个确定为所述特定区域,所述聚焦透镜的第1对焦位置是根据所述摄像图像信号中的所述脸部区域的信号通过所述对焦位置确定步骤而确定,所述聚焦透镜的第2对焦位置是根据所述摄像图像信号中的所述眼部区域的信号通过所述对焦位置确定步骤而确定。
13.根据权利要求12所述的对焦控制方法,其中,
所述特定区域确定步骤中,当所述第1对焦位置与所述第2对焦位置之差小于第1阈值且所述第2对焦位置比所述第1对焦位置更靠所述成像元件侧时,将所述眼部区域确定为所述特定区域。
14.根据权利要求12所述的对焦控制方法,其中,
所述特定区域确定步骤中,当不能确定所述第2对焦位置时,根据所述聚焦透镜的第3对焦位置与所述第1对焦位置的比较,将所述脸部区域与放大眼部区域中的任一个确定为所述特定区域,所述聚焦透镜的第3对焦位置是根据所述摄像图像信号中的包含所述眼部区域且大于所述眼部区域的所述放大眼部区域的信号通过所述对焦位置确定步骤而确定。
15.根据权利要求14所述的对焦控制方法,其中,
所述特定区域确定步骤中,当所述第1对焦位置与所述第3对焦位置之差小于第2阈值且所述第3对焦位置比所述第1对焦位置更靠所述成像元件侧时,将所述放大眼部区域确定为所述特定区域。
16.根据权利要求14或15所述的对焦控制方法,其中,
所述特定区域确定步骤中,使所述放大眼部区域的中心向比所述眼部区域的中心更靠近所述脸部区域的中心的方向偏离。
17.根据权利要求16所述的对焦控制方法,其中,
所述特定区域确定步骤中,从所述放大眼部区域排除所述放大眼部区域中比所述脸部区域更靠外侧的部分。
18.一种计算机可读取存储介质,存储用于使计算机执行如下步骤的对焦控制程序:
对焦位置确定步骤,使能够沿光轴方向移动的聚焦透镜移动的同时,按所述聚焦透镜的每个位置,使通过所述聚焦透镜拍摄被摄体的成像元件拍摄被摄体,根据通过所述拍摄而获得的摄像图像信号来确定所述聚焦透镜的对焦位置;
脸部检测步骤,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行脸部检测处理;及
眼部检测步骤,对通过所述成像元件拍摄被摄体而获得的摄像图像信号进行眼部检测处理;
所述计算机可读取存储介质的特征在于,所存储的所述对焦控制程序还使计算机执行:
特定区域确定步骤,根据通过所述脸部检测步骤从在任意时刻由所述成像元件拍摄而获得的第1摄像图像信号检测出的脸部区域、与通过所述眼部检测步骤从在比所述任意时刻更靠前的时刻由所述成像元件拍摄而获得的第2摄像图像信号检测出的眼部区域,确定表示所述摄像图像信号中应对焦的区域的特定区域;及
驱动步骤,将所述聚焦透镜向对焦位置驱动,该对焦位置是根据所述摄像图像信号中的通过所述特定区域确定步骤所确定的特定区域的信号、通过所述对焦位置确定步骤来确定。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-265823 | 2014-12-26 | ||
JP2014265823 | 2014-12-26 | ||
PCT/JP2015/081896 WO2016103962A1 (ja) | 2014-12-26 | 2015-11-12 | 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107209345A CN107209345A (zh) | 2017-09-26 |
CN107209345B true CN107209345B (zh) | 2018-10-16 |
Family
ID=56149996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580071033.8A Active CN107209345B (zh) | 2014-12-26 | 2015-11-12 | 对焦控制装置、摄像装置、对焦控制方法及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9912859B2 (zh) |
JP (1) | JP6186521B2 (zh) |
CN (1) | CN107209345B (zh) |
WO (1) | WO2016103962A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102392789B1 (ko) * | 2015-10-21 | 2022-05-02 | 삼성전자주식회사 | 초점 설정을 위한 방법 및 그 전자 장치 |
JP6630337B2 (ja) * | 2017-10-17 | 2020-01-15 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7066388B2 (ja) * | 2017-12-06 | 2022-05-13 | キヤノン株式会社 | 焦点調節装置、その制御方法、およびプログラム、記憶媒体、並びに撮像装置 |
CN109272000B (zh) * | 2018-09-10 | 2022-01-25 | 南方电网电力科技股份有限公司 | 一种机器人仪表对准和调焦方法及装置 |
JP7129294B2 (ja) * | 2018-09-21 | 2022-09-01 | キヤノン株式会社 | 電子機器および領域選択方法 |
JP2020149304A (ja) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | 撮像装置および表情検出方法 |
EP3995877A4 (en) * | 2019-07-12 | 2022-08-24 | Sony Group Corporation | IMAGING APPARATUS, IMAGING PROCEDURE AND PROGRAM |
JP7293025B2 (ja) * | 2019-07-29 | 2023-06-19 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP2021032984A (ja) * | 2019-08-21 | 2021-03-01 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP7418104B2 (ja) * | 2019-08-30 | 2024-01-19 | キヤノン株式会社 | 画像処理装置及び画像処理装置の制御方法 |
CN111654622B (zh) * | 2020-05-28 | 2022-10-14 | 维沃移动通信有限公司 | 拍摄对焦方法、装置、电子设备及存储介质 |
JP2022045757A (ja) * | 2020-09-09 | 2022-03-22 | キヤノン株式会社 | 撮像制御装置およびその制御方法 |
JP2022131706A (ja) | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
US11729502B2 (en) * | 2021-04-28 | 2023-08-15 | Canon Kabushiki Kaisha | Apparatus including focusing function and method of the same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034261A (ja) * | 2005-06-22 | 2007-02-08 | Fujifilm Corp | 自動合焦制御装置およびその制御方法 |
CN101364029A (zh) * | 2007-08-10 | 2009-02-11 | 佳能株式会社 | 摄像设备及其控制方法 |
CN101677360A (zh) * | 2008-09-16 | 2010-03-24 | 佳能株式会社 | 摄像装置及控制方法 |
CN103493471A (zh) * | 2011-04-23 | 2014-01-01 | 奥林巴斯映像株式会社 | 摄像装置和摄像方法 |
CN104838313A (zh) * | 2012-09-19 | 2015-08-12 | 富士胶片株式会社 | 摄像装置及其控制方法 |
JP5788197B2 (ja) * | 2011-03-22 | 2015-09-30 | オリンパス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4824627B2 (ja) * | 2007-05-18 | 2011-11-30 | 富士フイルム株式会社 | 自動焦点調節装置及び自動焦点調節方法並びに撮像装置及び撮像方法 |
JP4888838B2 (ja) * | 2008-05-12 | 2012-02-29 | トヨタ自動車株式会社 | 運転者撮像装置および運転者撮像方法 |
KR101728042B1 (ko) * | 2010-10-01 | 2017-04-18 | 삼성전자주식회사 | 디지털 촬영 장치 및 이의 제어 방법 |
JP5669549B2 (ja) * | 2010-12-10 | 2015-02-12 | オリンパスイメージング株式会社 | 撮像装置 |
WO2012176542A1 (ja) | 2011-06-24 | 2012-12-27 | オリンパスイメージング株式会社 | カメラシステム |
JP5692141B2 (ja) | 2012-04-06 | 2015-04-01 | トヨタ自動車株式会社 | 液圧ブレーキシステム |
JP5950664B2 (ja) * | 2012-04-10 | 2016-07-13 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP5075288B2 (ja) | 2012-05-31 | 2012-11-21 | キヤノン株式会社 | 撮像装置及びその制御方法 |
CN103778406B (zh) * | 2012-10-19 | 2018-03-09 | 佳能株式会社 | 对象检测方法及设备 |
JP5647209B2 (ja) * | 2012-11-07 | 2014-12-24 | オリンパスイメージング株式会社 | 撮像装置及び撮像方法 |
US9854216B2 (en) * | 2013-12-10 | 2017-12-26 | Canon Kabushiki Kaisha | Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium |
-
2015
- 2015-11-12 JP JP2016566026A patent/JP6186521B2/ja active Active
- 2015-11-12 WO PCT/JP2015/081896 patent/WO2016103962A1/ja active Application Filing
- 2015-11-12 CN CN201580071033.8A patent/CN107209345B/zh active Active
-
2017
- 2017-06-22 US US15/629,828 patent/US9912859B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034261A (ja) * | 2005-06-22 | 2007-02-08 | Fujifilm Corp | 自動合焦制御装置およびその制御方法 |
CN101364029A (zh) * | 2007-08-10 | 2009-02-11 | 佳能株式会社 | 摄像设备及其控制方法 |
CN101677360A (zh) * | 2008-09-16 | 2010-03-24 | 佳能株式会社 | 摄像装置及控制方法 |
JP5788197B2 (ja) * | 2011-03-22 | 2015-09-30 | オリンパス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
CN103493471A (zh) * | 2011-04-23 | 2014-01-01 | 奥林巴斯映像株式会社 | 摄像装置和摄像方法 |
CN104838313A (zh) * | 2012-09-19 | 2015-08-12 | 富士胶片株式会社 | 摄像装置及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2016103962A1 (ja) | 2017-08-17 |
WO2016103962A1 (ja) | 2016-06-30 |
CN107209345A (zh) | 2017-09-26 |
US20170289441A1 (en) | 2017-10-05 |
US9912859B2 (en) | 2018-03-06 |
JP6186521B2 (ja) | 2017-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107209345B (zh) | 对焦控制装置、摄像装置、对焦控制方法及介质 | |
CN105190392B (zh) | 摄像装置和对焦控制方法 | |
CN104205804A (zh) | 图像处理装置、拍摄装置、程序以及图像处理方法 | |
CN105452926B (zh) | 摄像装置及对焦控制方法 | |
CN104125396A (zh) | 图像拍摄方法和装置 | |
CN104408402A (zh) | 人脸识别方法及装置 | |
WO2018120662A1 (zh) | 一种拍照方法,拍照装置和终端 | |
CN107003587B (zh) | 摄像装置及像抖动校正方法 | |
US8400532B2 (en) | Digital image capturing device providing photographing composition and method thereof | |
CN109478334A (zh) | 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及程序 | |
CN105704369B (zh) | 一种信息处理方法及装置、电子设备 | |
CN107003586B (zh) | 摄像装置及摄像方法 | |
CN105960604B (zh) | 摄像装置及对焦控制方法 | |
CN105980905B (zh) | 摄像装置及对焦控制方法 | |
CN108139562A (zh) | 对焦控制装置、对焦控制方法、对焦控制程序、镜头装置、摄像装置 | |
CN106030366A (zh) | 摄像装置及对焦控制方法 | |
CN106062607B (zh) | 摄像装置及对焦控制方法 | |
CN105472246A (zh) | 拍照装置及方法 | |
KR101671137B1 (ko) | 영상 촬영 장치 및 그 방법 | |
CN108139564A (zh) | 对焦控制装置、摄像装置、对焦控制方法及对焦控制程序 | |
CN112351188A (zh) | 根据对象显示图形元素的装置和方法 | |
CN106062608B (zh) | 摄像装置及对焦控制方法 | |
US20170187950A1 (en) | Imaging device and focus control method | |
CN110717399A (zh) | 人脸识别方法和电子终端设备 | |
CN109477948A (zh) | 对焦控制装置、对焦控制方法、对焦控制程序、透镜装置、摄像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |