CN103314321B - 成像设备、成像方法、成像程序和计算机可读信息记录介质 - Google Patents

成像设备、成像方法、成像程序和计算机可读信息记录介质 Download PDF

Info

Publication number
CN103314321B
CN103314321B CN201280005324.3A CN201280005324A CN103314321B CN 103314321 B CN103314321 B CN 103314321B CN 201280005324 A CN201280005324 A CN 201280005324A CN 103314321 B CN103314321 B CN 103314321B
Authority
CN
China
Prior art keywords
subject
focusing
tracks
region
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280005324.3A
Other languages
English (en)
Other versions
CN103314321A (zh
Inventor
二矢川和也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of CN103314321A publication Critical patent/CN103314321A/zh
Application granted granted Critical
Publication of CN103314321B publication Critical patent/CN103314321B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

一种成像设备,具有:成像部分,包括图像传感器;对焦控制部分,配置为驱动成像部分中包括的光学系统,将被摄体的图像输入到图像传感器的光接收部分,基于通过成像部分获得的图像来获得自动对焦评估值,并执行对焦控制;以及距离测量部分,配置为通过使用多个二维传感器来测量到被摄体的距离。对焦控制部分在被摄体的位置在距离测量部分的距离测量可用区域外部的情况下执行对焦控制。

Description

成像设备、成像方法、成像程序和计算机可读信息记录介质
技术领域
本发明涉及成像设备、成像方法、成像程序和计算机可读信息记录介质。具体地说,本发明涉及即使在使用二维距离测量传感器的情况下也能防止由被摄体处于距离测量传感器的距离测量可用区域外部(这使得距离测量不可用)而关于被摄体的对焦变得不可能的成像设备、成像方法、成像程序和计算机可读信息记录介质。(距离测量可用区域是距离测量由二维距离测量传感器可用的区域。)
背景技术
在现有技术中,作为外置式的距离测量设备和光度测量设备,已知这样的方法:其中,例如,一对线传感器(line sensor)用于距离测量的目的,而多段传感器用于光度测量目的。该对线传感器分别与一对透镜组合,从而获得两个相机。然后,检测两个相机之间的被摄体的差异(即,视差),并且根据三角测量原理来测量距离。
在现有技术中,在一个半导体芯片上,形成一对距离测量线传感器和光度测量传感器(具有大尺寸)。此时,以传感器的中心线偏移的方式在半导体芯片上放置各个传感器。从而,可以减小半导体芯片的尺寸,因此可以小型化距离测量设备和光度测量设备(例如,参见日本专利No.4217491(专利文档1))。
进一步,在现有技术中,讨论了使用自动对焦设备的相机的技术,其使用多点外部AF(自动对焦)(其使用线传感器)和内部多点AF(对比度AF)二者(例如,参见日本特开专利申请No.2001-221945(专利文档2))。注意,上述“对比度AF”指的是使用电荷耦合器件(CCD)等根据“爬山方法”的AF。
发明内容
在一方面,提供了一种成像设备,包括:成像部分,包括图像传感器;对焦控制部分,被配置为驱动所述成像部分中包括的光学系统,将被摄体的图像输入到所述图像传感器的光接收部分中,基于通过所述成像部分获得的图像来获得自动对焦评估值,并执行对焦控制;以及距离测量部分,被配置为通过使用多个二维传感器来测量到所述被摄体的距离。在所述被摄体的位置在所述距离测量部分的距离测量可用区域外部的情况下,所述对焦控制部分执行对焦控制。
当联系附图阅读时,本发明的其他目标、特征和优点将从如下详细描述中变得更加显而易见。
附图说明
图1A、图1B和图1C示出了可应用于本发明的实施例1到6中的任意一个的成像设备的外观的示例;
图2示出了图1中所示的成像设备的内部系统配置的一个示例;
图3示出了图2中所示的CPU块的功能配置的一个示例;
图4示出了成像设备的操作过程的一个示例的流程图;
图5图示AF区域的一个示例;
图6图示在跟踪AF时的窄区域AF区域的一个示例;
图7示出了跟踪AF过程的一个示例的流程图;
图8图示距离测量方法的一个示例;
图9示出了根据本发明的实施例1的跟踪AF过程的一个示例的流程图;
图10示出了根据本发明的实施例2的跟踪AF过程的一个示例的流程图;
图11图示在“WIDE”模式时距离测量可用区域;
图12示出了根据本发明的实施例3的跟踪AF过程的一个示例的流程图;
图13示出了根据本发明的实施例4的跟踪AF过程的一个示例的流程图;
图14图示估计距离测量结果的方法的一个示例;以及
图15示出了根据本发明的实施例5的跟踪AF过程的一个示例的流程图。
具体实施方式
根据专利文档1和专利文档2的上述配置,使用线传感器来执行距离测量。因此,仅可以测量到视野中心的距离,并且不能执行对于监视器屏幕的整体的距离测量(多点距离测量)。
进一步,在二维传感器用作通过其可以执行对于宽区域的距离测量的距离测量传感器的情况下,可以执行监视器屏幕的整体的距离测量。然而,为了执行对于监视器屏幕的宽区域的距离测量的目的,例如,在变焦的情况下,在主透镜(相机透镜)的拍摄区域与距离测量传感器的距离测量可用区域之间,视野可能不一致。从而,被摄体可能在距离测量传感器的距离测量可用区域外部,并且距离测量可能变得不可能。这种问题是只有使用这种二维传感器的情况才有的。
考虑上述问题,已经提出了本发明的各实施例,并且各实施例的目标是提供即使在使用二维传感器作为距离测量传感器的情况下也能防止由被摄体处于二维距离测量传感器的距离测量可用区域外部(这使得距离测量不可用)而关于被摄体的对焦变得不可能的成像设备、成像方法、成像程序和计算机可读信息记录介质。
根据本发明的实施例,当二维传感器用作距离测量传感器时,使用对比度AF。从而,可以防止由被摄体处于二维距离测量传感器的距离测量可用区域外部(这使得距离测量不可用)而关于被摄体的对焦变得不可能的情形。具体来说,例如,在跟踪AF时,从距离测量传感器获得跟踪被摄体的距离测量信息,并基于由此获得的距离测量信息,精确地执行关于被摄体的对焦。在下文中,将描述根据本发明的成像设备、成像方法、成像程序和计算机可读信息记录介质。
<成像设备的外观>
首先,将使用附图描述可应用于本发明的任意一个实施例的成像设备。图1A、图1B和图1C示出了可应用于本发明的实施例1到6中的任意一个的成像设备的外观的一个示例。图1A示出了成像设备的平面视图的一个示例;图1B示出了成像设备的前视图的一个示例;而图1C示出了成像设备的后视图的一个示例。要注意的是,在该示例中,将数码相机描述为成像设备的一个示例。然而,根据本发明实施例的成像设备不限于此,并且进一步,配置的形状、布局等不限于此,并且可以根据本发明的范围自由地确定。
图1A、图1B和图1C中所示的成像设备1包括子液晶显示器(子LCD)11、存储卡和电池加载部分12、频闪光发射部分13、光学取景器14、距离测量单元15、遥控光接收部分16、AF(自动对焦)辅助光发射装置部分17、镜筒单元18、AF LED 19、频闪LED 20、LCD监视器21和开关SW1到SW4。
<成像设备的内部系统配置示例>
进一步,图2示出了根据实施例的成像设备的内部系统配置的一个示例。图2中所示的成像设备被配置为包括子LCD 11、频闪光发射部分13、距离测量单元15、遥控光接收部分16、镜筒单元18、AF LED 19、频闪LED 20、LCD监视器21、电荷耦合器件(CCD)31、F/E-IC 32、同步动态随机存取存储器(SDRAM)33、数码相机处理器(在下文中,简称为“处理器”)34、随机存取存储器(RAM)35、内置存储器36、只读存储器(ROM)37、声音输入单元38、声音再现单元39、频闪电路40、LCD驱动器41、子中央处理器(子CPU)42、操作按键单元43、蜂鸣器44、通用串行总线(USB)连接器45、串行驱动器电路46、RS-232C连接器47、LCD驱动器48、视频放大器49、视频插孔50、存储卡插槽51和存储卡52。
进一步,在图2中,镜筒单元18具有:变焦光学单元18-1,其包括变焦透镜18-1a和变焦电机18-1b;对焦光学单元18-2,其包括对焦透镜18-2a和对焦电机18-2b;光圈单元18-3,其包括光圈18-3a和光圈电机18-3b;机械快门单元18-4,其包括机械快门18-4a和机械快门电机18-4b;以及电机驱动器18-5。
进一步,在图2中,前端集成电路(F/E-IC)32包括相关二重采样单元(CDS)32-1、自动增益控制单元(AGC)32-2、模数(A-D)转换器32-3和定时发生器(TG)32-4。CDS 32-1执行相关二重采样,用于去除图像噪声。AGC 32-2执行自动增益控制。A-D转换器32-2执行模数转换。TG 32-4基于垂直同步信号(VD)和水平同步信号(HD)来产生驱动定时信号。
进一步,在图2中,处理器34包括串行块34-1、CCD1信号处理块34-2、CCD2信号处理单元34-3、CPU块34-4、本地静态随机存取存储器(SRAM)34-5、USB块34-6、互集成电路(I2C)块34-7、JPEG编码块34-8、缩放块34-9、TV信号显示单元34-10和存储卡控制器块34-11。这些相应的块34-1到34-11通过总线相互连接。JPEG编码块34-8执行JPEG压缩和解压缩。缩放块34-9执行图像数据的尺寸的放大和缩小。
进一步,在图2中,声音输入单元38被配置为具有声音记录电路38-1、麦克风放大器38-2和麦克风38-3。进一步,在图2中,声音再现单元39被配置为具有声音再现电路39-1、音频放大器39-2和扬声器39-3。
图1A、图1B、图1C和图2中所示的成像设备1具有作为数码相机的功能。具体来说,如图1A所示,在成像设备1的顶部,提供子LCD 11、释放开关SW1和模式转盘SW2。
进一步,如图1B所示,在成像设备1的侧面部分,提供存储卡和电池加载部分12的盖。在存储卡和电池加载部分12中,提供存储卡插槽51(参见图2),向该插槽插入存储卡52。存储卡52用于存储由成像设备1拍摄的图像的图像数据。并且,将电池(未示出)加载在存储卡和电池加载部分12中。电池用于对于开启到成像设备1的电源,并驱动成像设备1中包括的一系列系统。进一步,在成像设备1的前侧(参见图1B),提供频闪光发射部分13、光学取景器14、距离测量单元15、遥控光接收单元16、AF辅助光发射装置部分17和镜筒单元18。频闪光发射部分13包括频闪灯(未示出),用于在拍摄时发射光。光学取景器14用于通过光学透镜在视觉上确定被摄体的位置。遥控光接收部分16接收由分离的遥控设备(未示出)发送的红外线等的遥控信号。AF辅助光发射装置部分17包括LED等,以在自动对焦时发射光。镜筒单元18包括拍摄镜头(相机镜头)。
进一步,如图1C所示,在成像设备1的后侧,提供光学取景器14、AF LED 19、频闪LED 20、LCD监视器21、用于广角变焦(WIDE)的开关SW3、用于远距变焦(TELE)的开关SW4、用于设置或取消自定时器的设置的开关SW5、用于从菜单进行选择的开关SW6、用于在监视器屏幕(LCD监视器2)上向上移动AF框(稍后描述)或设置频闪灯的开关SW10、用于在监视器屏幕上向右移动AF框的开关SW11、用于开启/关闭监视器屏幕的开关SW9、用于在监视器屏幕上向下移动AF框或设置宏(macro)功能的开关SW13、用于在监视器屏幕上向左移动AF框或检查拍摄的图像的开关SW12、用于输入许可意图(OK)的开关SW7、用于快速访问的开关SW8和用于开启或关闭电源的开关SW14。
进一步,在图2中,处理器34在内部包括CPU(未示出),并且成像设备1的各个部分由处理器34控制。在处理器34的外部,提供SDRAM 33、RAM 35、ROM 37和内置存储器36,并且经由总线与处理器34连接。在ROM37中,存储各种控制程序(用于使得CPU执行各种功能)和参数。在内置存储器36中,存储所拍摄图像的图像数据。
在SDRAM 33中,存储RAW-RGB图像数据(已经对其执行了白平衡校正和γ校正)、YUV图像数据(已经转换为亮度数据和色差数据)和JPEG图像数据(已经根据JPEG压缩)。从所拍摄图像的图像数据的转换获得RAW-RGB图像数据、YUV图像数据和JPEG图像数据。
当由用户接通用于开启或关闭电源的SW 14时,将ROM 37中存储的控制程序加载到处理器34的存储器(未示出)中,并由处理器34的CPU执行。因此,根据控制程序来控制成像设备1的各个部分。
当因此执行控制程序时,RAM 35用作工作区。因此,关于RAM 35,写入控制数据和/或参数,并且随时从其读取写入的数据/参数。根据本发明实施例的稍后描述的所有处理/操作作为处理器34的CPU执行控制程序的结果而主要由处理器34执行。
在镜筒单元18中,变焦透镜18-1a、对焦透镜18-2a、光圈18-3a和机械快门18-4a分别由变焦电机18-b、对焦电机18-2b、光圈电机18-3b和机械快门电机18-4b驱动。这些电机18-1b到18-4b由电机驱动器18-5驱动。电机驱动器18-5由处理器34的CPU块34-4控制。
根据本发明的实施例,用于广角变焦(WIDE)的开关SW3和/或用于远距变焦(TELE)的开关SW4由用户操作,并且通过镜筒单元18的各个光学系统18-1和18-2,在CCD 31的光接收部分上形成被摄体的图像。由CCD 31将形成的被摄体(图像)转换为图像信号,并且将图像信号输出到F/E-IC 32。
在F/E-IC 32中,CDS 32-1对于获得的图像信号执行相关二重采样。AGC32-2自动地执行从CDS 32-1获得的图像信号的增益的调整。A-D转换器32-3将从AGC 32-2获得的模拟图像信号转换为数字图像信号。即,F/E-IC 32对于从CCD 31输出的模拟图像信号执行诸如降噪处理、增益调整处理之类的预定处理,将模拟图像信号转换为数字图像信号,并将数字图像信号输出到处理器34的CCD1信号处理块34-2。
TG 32-4基于以反馈方式从处理器34的CC1信号处理块34-2发送的VD和HD信号,执行定时处理,如控制由F/E-IC 32执行的图像信号的采样的定时的处理。
处理器34的CPU块34-4与F/E-IC 32、电机驱动器18-5、声音记录电路38-1、声音再现电路39-1和使得频闪光发射部分13发射光的频闪电路40、距离测量单元15和子CPU 42连接。因此,由CPU块34-4控制这些相应部分。
现在将描述声音输入单元38和声音再现单元39。例如,根据由CPU块34-4给出的控制指令,经由麦克风38-3取得的声音信号由麦克风放大器38-2放大,由声音记录电路38-1转换为数字信号,并记录在内置存储器36、存储卡52等上。基于由CPU块34-4给出的控制指令,声音再现电路39-1将之前记录在RAM35等上的声音数据转换为声音信号,音频放大器39-2放大声音信号,并且扬声器39-3输出对应的声音。
例如,距离测量单元15具有二维传感器,例如,作为距离测量传感器,并且使用二维传感器测量到成像设备1的拍摄区域中包括的被摄体的距离。
根据本发明的实施例,如上所述,即使使用这种二维传感器,通过与二维传感器一起使用对比度AF,也可以防止由被摄体处于距离测量传感器的距离测量可用区域外部(这使得距离测量不可用)而关于被摄体的对焦变得不可能的情形。稍后将描述根据本发明的各个实施例的其具体内容。
子LCD11经由LCD驱动器48、AF LED 19、频闪LED 20、遥控光接收部分16、包括上述开关SW1到SW14的操作按键单元43、蜂鸣器44等连接到子CPU 42。因此,这些相应部分由子CPU 42控制。进一步,子CPU 42执行输入到遥控光接收部分16的信号的状态、通过操作按键单元43(例如,上述开关SW1到SW14等)输入的指令的状态的监视。
例如,处理器34的USB块34-6与USB连接器45连接。例如,处理器34的串行块34-1经由串行驱动器电路46与RS-232C连接器47连接。因此,在根据本发明的任意一个实施例的成像设备1中,可以使用USB块34-6或串行块34-1执行与连接到成像设备1的外部设备(未示出)的数据通信。
处理器34的TV信号显示块34-10与用于驱动LCD监视器21的LCD驱动器48以及用于放大视频信号并执行阻抗匹配的视频放大器49连接。LCD监视器21连接到LCD驱动器48,并且用于与外部监视器设备(如,TV)连接的视频插孔50连接到视频放大器49。即,TV信号显示块34-10将图像数据转换为视频信号,并将视频信号输出到显示部分(如,LCD监视器21)或与视频插孔50连接的外部监视器设备。
LCD监视器21用于监视正在拍摄的被摄体、显示所拍摄图像、显示存储卡52或内置存储器36上记录的图像等。注意,LCD监视器21可以具有使用触摸板等的输入和/或输出功能,并且在这种情况下,可以基于由用户经由触摸板等执行的触摸输入操作来指定特定被摄体或输入各种指令。
存储卡插槽51连接到存储卡控制器块34-11。因此,为了扩展的目的,成像设备1将图像数据发送到存储卡52并且从存储卡52接收图像数据。
注意,在成像设备1的上述配置中,镜筒单元18、CCD 31、F/E-IC 32和CCD1信号处理块34-2用作成像部分。进一步,在图2中所示的配置中,CCD 31用作固态图像传感器,用于执行被摄体的光学图像的光电转换。然而,不需要限制于此,代替地,例如,互补金属氧化物半导体(CMOS)可以用于同样的目的。在这种情况下,CCD1信号处理块34-2和CCD2信号处理块34-3分别由CMOS1信号处理块和CMOS2信号处理单元代替,并且也由此执行类似的处理。
<CPU块34-4的功能配置的示例>
接着,将使用附图描述根据本发明实施例的CPU块34-4的功能配置的具体示例。图3示出了CPU块34-4的功能配置的一个示例。图3中所示的CPU块34-4包括自动对焦控制部分34-4a、AF区域设置控制部分34-4b、被摄体检测部分34-4c和焦点对准(in-focus)位置确定部分34-4d。
例如,自动对焦控制部分34-4a驱动成像部分中包括的光学系统(例如,镜筒单元18),将被摄体的图像输入到图像传感器(CCD 31)的光接收部分,基于从图像传感器获得的图像信号获得AF评估值,并执行对焦控制。注意,例如,被摄体指的是在被摄体检测部分34-4c等中检测到的被摄体。注意,例如,通过使用从数字RGB信号获得的亮度数据的预定频率分量来获得AF评估值(例如,参见专利文档2)。
进一步,例如,在被摄体在距离测量部分的距离测量可用区域外部的情况下,自动对焦控制部分34-4a使用跟踪AF功能等执行对焦控制。例如,距离测量部分指的是使用多个二维传感器的距离测量系统。在上述成像设备1中,距离测量单元15用作距离测量部分。
AF区域设置控制部分34-4b在执行AF时,基于预定条件,关于整个拍摄区域,设置要进一步执行AF的区域(窄区域AF区域73-1或73-2,例如,参见图6)等。
被摄体检测部分34-4c从成像设备1的拍摄区域中包括的一个或多个被摄体之中检测特定被摄体。例如,被摄体检测部分34-4c检测最靠近成像设备1的被摄体,或者例如用户从LCD监视器21使用触摸板等指定的被摄体。
进一步,在由于被摄体操作、成像设备1移动等而使得被摄体在拍摄区域外部移动的情况下,为了避免不能测量到被摄体的距离的情形的目的,被摄体检测部分34-4c基于预定条件,使用跟踪AF功能等执行被摄体的检测。
焦点对准位置确定部分34-4d对于由被摄体检测部分34-4c检测到的被摄体确定焦点对准位置。注意,稍后将描述要由CPU块34-4执行的具体处理内容。
<根据实施例的成像设备1的一般操作的示例>
接着,将使用流程图描述成像设备1的一般操作的示例。图4是示出了成像设备1的操作过程的一个示例的流程图。
注意,在下面所示的操作过程中,成像设备1的操作模式包括拍摄模式(用在拍摄时)和再现模式(用在再现所拍摄图像时)。进一步,在拍摄模式中,包括面部识别模式和普通模式。在面部识别模式中,识别被摄体的面部,并且对于在识别出的面部中和周围包括的图像区域(在下文中,称为“面部区域”)执行自动曝光(AE)处理、自动对焦(AF)处理等。在普通模式中,对于普通图像区域(在下文中,称为“普通区域”(或“普通AF区域”62,例如,参见图5))执行AE处理、AF处理等。进一步,在拍摄模式中,包括使用自定时器的自定时器模式、通过遥控来远程控制成像设备1的遥控模式等。
注意,在根据本发明实施例的操作过程中,当在接通成像设备1的电源开关SW14的状态下使用模式转盘的开关SW2来设置拍摄模式时,成像设备1进入拍摄模式。当在接通成像设备1的电源开关SW14的状态下使用模式转盘的开关SW2来设置再现模式时,成像设备1进入再现模式。因此,当接通成像设备1的电源开关SW14时,开始图4的流程图中所示的操作过程。
在图4中所示的操作过程中,首先,确定已经由用户设置的模式(步骤S01),因此确定设置的模式是否是操作模式中包括的一个模式(步骤S02)。在设置的模式是操作模式中包括的一个模式的情况下(步骤S02“是”),然后确定设置的模式是否是拍摄模式(步骤S03)。即,在步骤S01、S02和S03中,确定模式转盘的开关SW2的状态是拍摄模式、再现模式还是另一模式。
在步骤S03,当开关SW2的状态对应于拍摄模式时(步骤S03“是”),执行监视处理(步骤S04)。在步骤S04,处理器34控制电机驱动器18-5,将镜筒单元18中包括的镜筒移动到能够执行拍摄的位置,并且进一步,向拍摄所需的各个电路(即,例如,CCD 31、F/E-IC 32、LCD监视器21等)供电。然后,随时通过CCD 31将由此通过各个光学系统(变焦光学单元18-1和对焦光学单元18-2)在CCD 31的光接收部分上形成的被摄体的图像的信息转换为RGB模拟信号。然后,由CDS电路32-1和AGC 32-2对于RGB模拟信号执行预定处理(如,上述降噪处理、增益调整处理等),由A-D转换器32-3转换为RGB数字信号,并输出到处理器34的CCD1信号处理块34-2。
进一步,通过CCD1信号处理块34-2将RGB数字信号转换为RAW-RGB图像数据、YUV图像数据和JPEG图像数据,并且写入SDRAM 33的帧存储器上。注意,在这些种类的图像数据之中,随时从帧存储器读出YUV图像数据,由TV信号显示块34-10将其转换为视频信号,并输出到LCD监视器21或外部监视器设备(如,TV)。
因此,其中在拍摄等待状态期间将被摄体的图像数据带到SDRAM 33的帧存储器中且将被摄体的图像输出到LCD监视器21或外部监视器设备(如,TV)的处理被称为“监视处理”(步骤S04)。
在由此执行步骤S04的监视处理之后,确定是否已经通过例如模式转盘的开关SW2改变了设置(步骤S05)。当已经改变了设置时(步骤S05“是”),流程进行到步骤S02,并且执行根据由此改变的设置的接下来的处理。当尚未改变设置时(步骤S05“否”),执行拍摄处理(步骤S06)。
在步骤S06,确定释放开关SW1的状态。当尚未由用户按下释放开关SW1时,流程然后返回到步骤S04。当已经按下了释放开关SW1时,执行其中将此时带到SDRAM33的帧存储器中的被摄体的图像数据记录在内置存储器36或存储卡52等上的处理。此后,流程返回到步骤S04。
即,在成像设备1在拍摄模式中操作的情况下,重复步骤S04到S06。重复的状态称为“取景器模式”。在根据本发明实施例的成像设备1中,以大约1/30秒的时段重复这些步骤,并且与重复操作一起,更新在LCD监视器21或外部监视器设备上指示的显示。
进一步,在步骤S03,当操作模式不是拍摄模式时(步骤S03“否”),成像设备1进入再现模式,并且再现所拍摄图像(步骤S07)。在步骤S07,将内置存储器36、存储卡52等上记录的图像数据输出到LCD监视器21或外部监视器设备(如,TV)。
然后,从模式转盘的开关SW2确定是否已经改变了设置(步骤S08)。当已经改变了设置时(步骤S08“是”),流程返回到步骤S02,并且执行接下来的处理。当尚未执行设置时(步骤S08“否”),流程返回到步骤S07,并且再次执行步骤S07。
接着,作为根据实施例的成像设备1的主要功能,将详细描述AE功能、AF功能、跟踪AF功能、使用距离测量单元15的距离测量传感器的距离测量功能。
<AE功能>
成像设备1中的自动曝光(AE)功能是通过在成像设备(如,相机)(即,实施例中的成像设备1)中改变光圈值和快门速度的组合来在图像传感器(即,实施例中的CCD 31)的光接收部分中自动地确定曝光量的功能。
<AF功能>
接着,将描述成像设备1的AF功能。自动对焦(AF)功能是自动地调整拍摄镜头(相机镜头)的对焦的功能。当由CCD 31获得的图像处于焦点对准状态时,被摄体的图像的轮廓部分清晰,因此在图像的轮廓部分的AF评估值增大。
在“对比度AF”控制中的对焦检测时,在对焦透镜18-2a以光轴方向移动的同时,计算在对焦透镜18-2a的各个移动位置处的AF评估值,并且检测AF评估值具有最大值的对焦透镜18-2a的位置。
进一步,在存在多个位置(在其每一个位置处AF评估值变为最大)的情况下,分别考虑AF评估值的量值和在最大AF评估值周围的AF评估值的上升程度和AF评估值的下降程序来确定其中最可靠的位置。然后,将由此确定的位置用作AF处理中的焦点对准位置。在多个位置(在其每一个处AF评估值变为最大)的任意一个都高度可靠的情况下,将最短距离的最大位置确定为焦点对准位置。
随时将AF评估值的数据记录在处理器34的存储器中,作为图像数据的特征数据,并且特征数据用于AF处理。AF评估值可以基于拍摄图像的特定区域的数字RGB信号来计算。
图5示出了AF区域(普通AF区域)的一个示例。注意,在图5中,示出了处于取景器模式的LCD监视器21的显示状态,并且LCD显示区域61的中心框是作为成像设备1中的所取得的图像的上述特定区域的普通AF区域62。在图5中所示的示例中,普通AF区域62是相对于LCD显示区域61具有40%的水平长度和30%的垂直长度的区域。然而,普通AF区域62的尺寸不限于此。
在根据本发明实施例的成像设备1中,当按下释放按钮SW1时,基于在处理器34的CCD1信号处理块34-2中取得的RGB数字信号来计算指示曝光状态的AE评估值和指示关于屏幕的对焦程度的AF评估值。
<跟踪AF功能>
接着,将使用附图描述成像设备1的跟踪AF功能。图6图示在跟踪AF时AF区域(即,窄区域AF区域73-1或73-2)的一个示例。跟踪AF功能是这样的功能:在由图像传感器取得的整个拍摄区域(图像)71中搜索作为跟踪目标登记的被摄体图案,并继续关于由此检测到的被摄体图案的位置对焦,以便即使当被摄体在整个拍摄图区域71中来回移动时,当正在拍摄被摄体时也能使得被摄体被对焦。
为了从拍摄区域71检测作为跟踪目标的被摄体(在下文中称为“跟踪被摄体”)72-1,在许多情况下使用模板匹配。更具体地说,在ROM 37中存储的模板与图像传感器(如,CCD 31)取得的图像之间执行比较,并且在取得的图像中已经检测到类似于模板的图像或特征的情况下,确定已经检测到跟踪被摄体。进一步,例如,模板是图像数据本身、从图像数据获得的诸如直方图之类的特征等。
根据本发明的实施例,由用户指定的跟踪被摄体的直方图用作模板。进一步,根据本发明的实施例,作为继续关于检测到的跟踪被摄体72-1对焦的方法,例如,使用重复窄区域AF的方法。具体来说,在已经确定跟踪被摄体已经在屏幕上移动的情况下(根据实施例,确定在跟踪被摄体的位置已经在整个拍摄区域71上移动的情况下跟踪被摄体已经移动),将执行AF的区域移动到跟踪被摄体已经由此在屏幕上移动到的位置。注意,例如,基于上述模板匹配来执行确定关于跟踪被摄体是否已经在屏幕上移动以及在屏幕上将要执行AF的区域的位置移动到跟踪被摄体已经由此移动到的位置。然后,在该位置处,在当前焦点位置周围执行对于比普通AF区域(即,普通AF区域62)窄得多的区域(即,窄区域AF区域73-1或73-2,图6中)的AF。然后,在已经发现焦点对准位置的情况下,完成窄区域AF。在尚未发现焦点对准位置的情况下,基于过去AF处理中已经获得的AF评估值的上升和下降程度来确定焦点对准位置是否可能存在于沿着光轴方向的短距离或长距离。然后,在期望存在焦点对准位置的光轴方向中移动相机镜头的焦点,然后,再次执行窄区域AF。执行该处理,直到发现焦点对准位置为止,从而,继续对焦跟踪被摄体72-1。
跟踪AF模式可以由成像设备1的菜单开关SW6选择。可替代地,跟踪AF模式可以作为操作模式之前在快速访问开关SW8处登记且操作开关SW8的结果而容易地被选择。
接着,通过使用流程图,将描述跟踪AF的具体处理。图7是示出了跟踪AF过程的一个示例的流程图。在跟踪AF模式中,当由用户输入跟踪AF开始指令时,开始跟踪AF处理(步骤S11)(在图7中,为了方便的原因,将其指示为“接通RL开关”)。具体来说,当由用户半按下释放开关(可以称为“RL开关”)SW1时,输入跟踪AF开始指令,并且开始跟踪AF。当连续地半按下释放开关SW1时,连续地执行跟踪AF。
当半按下释放开关SW1时,例如,在监视屏幕中心的在水平方向中具有10%的长度且在垂直方向中具有10%的长度的区域(即,图6中的窄区域AF区域73-1)中存在的被摄体被登记为跟踪目标(或跟踪被摄体72-1),并且关于窄区域AF区域73-1执行AF(步骤S12)。
然后,确定AF是否已经成功(步骤S13)。注意,“AF已经成功”(或“AF结果是成功的”)意味着基于如上所述的AF评估值已经发现跟踪被摄体的焦点对准位置。在下文中也将应用相同的方式。在AF已经成功的情况下(步骤S13“是”),开始跟踪AF。具体来说,总是连续地从屏幕(例如,根据模板匹配)搜索跟踪被摄体72-1(参见图6),因此,相应地更新屏幕上跟踪被摄体72-1的位置。即,确定跟踪被摄体72-1的位置是否已经在屏幕上移动(步骤S14)。在位置已经在屏幕上移动的情况下(步骤S14“是”),在显示部分(即,在实施例中的LCD监视器21)的屏幕上显示的窄区域AF区域73-1的框(即,AF框或跟踪框)在屏幕上移动到与跟踪被摄体已经由此移动的位置相同或类似的(窄区域AF区域73-2,参见图6的)位置。注意,例如,基于上述模板匹配来执行上述搜索屏幕上的跟踪被摄体。进一步,由于跟踪被摄体72的位置已经由此从屏幕上的前一位置移动,因此在屏幕上的该更新位置处执行窄区域AF,且因此,沿着光轴方向搜索跟踪被摄体72-1的焦点对准位置(步骤S16)。
然后,确定在步骤S16的AF结果是否成功(步骤S17)。在AF结果不成功的情况下(步骤S17“否”),例如,在期望存在焦点对准位置的光轴方向上移动AF开始位置(步骤S18),流程进行到步骤S16,并且再次执行AF。
然后,确定RL开关SW1的半按下是否已经中断(步骤S19)(在图7中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S19“否”),流程返回到步骤S14。在开关SW1的半按下已经中断的情况下(步骤S19“是”),或者在AF结果不成功的情况下(步骤S13“否”),流程随后结束。在跟踪被摄体72-1尚未在屏幕上移动的情况下(步骤S14“否”),再次执行步骤S14。
<使用距离测量单元15的距离测量传感器的距离测量功能>
接着,将使用图8描述使用距离测量单元15的距离测量传感器的距离测量功能。图8图示了距离测量方法的一个示例。根据本发明实施例的距离测量传感器例如是这样的传感器:其中,排列第一组透镜81-1和图像传感器(二维传感器)82-1以及第二组透镜81-2和图像传感器(二维传感器)82-2,并且使用从两个图像传感器82-1和82-2获得的图像之间的视差,根据三角测量来测量到被摄体的距离。注意,可以在整个拍摄区域(图像)中包括的所有位置处执行距离测量。
在图8的示例中,B表示作为在透镜81-1与81-2之间的空间的基线的长度。fL和fR表示各个透镜81-1与81-2的焦距。假设fL和fR具有fL=m×fR的关系。即,“m”表示焦距的比。
如图8所示,基于基线的长度B,在dL和dR的位置处的图像传感器82-1和82-2上形成要测量距离的被摄体的图像。此时,长度L(到被摄体的距离)从如下公式(1)获得:
L={(B+dL+dR)×m×fR}/(dL+m×dR)...(1)
注意,在除了主镜头(相机镜头)之外还准备仅用于距离测量目的的光学系统的情况下,fR可以等于fL,且fR和fL可以等于f,并且代替公式(1),可以使用公式(2):
L={(B+dL+dR)×f}/(dL+dR)...(2)
在公式(1)中,左右透镜81-1和82-2的焦距可以彼此不同,因此,例如,用于拍摄的主镜头(相机镜头)可以用作透镜82-1。因此,可以通过基于基线的长度B来测量dL和dR,从而获得距离L。注意,根据本发明的实施例,根据上述距离测量方法,总是可以在预定定时执行距离测量,并且当在成像设备1中维持拍摄模式时,总是可以连续地更新距离测量结果。注意,二维传感器的数量不限于2,并且例如,可以使用等于或大于3的多个二维传感器。
接着,将详细描述根据本发明实施例的、使用距离测量传感器的跟踪AF过程。注意,例如,通过使用图3描述的CPU块34-4的各个部分来执行现在描述的跟踪AF过程。
<跟踪AF过程:实施例1>
图9是示出了根据本发明的实施例1的跟踪AF过程的一个示例的流程图。
如上所述,在执行跟踪AF的情况下,通常,连续地执行关于跟踪被摄体的区域的对焦。作为用于其的具体方法,存在在移动用以关于屏幕执行对焦的位置直到发现跟踪被摄体的焦点对准位置为止的同时连续地执行对焦的方法、通过如上所述在屏幕上移动窄AF区域的同时重复在窄区域(窄区域AF区域)搜索跟踪被摄体来发现跟踪被摄体的焦点对准位置的方法等。
然而,在任意方法中,可能难以处理到被摄体的距离中的急剧变化。例如,在屏幕上移动窄AF区域的同时重复搜索窄AF区域的方法中,必须重复窄AF区域多次以搜索跟踪被摄体的焦点对准位置。因此,根据实施例1,通过使用距离测量传感器来实现跟踪AF,其对到被摄体的距离中的急剧变化很鲁棒。
具体来说,如图9所示,首先,作为半按下RL开关SW1(步骤S21)的结果(在图9中,为了方便的目的,“接通RL开关”),关于屏幕的中心区域(窄区域AF区域)执行AF(步骤S22)。然后,在执行对焦操作之后,确定AF结果是否成功(步骤S23)。
在AF结果成功的情况下(步骤S23“是”),将窄区域AF区域中的被摄体登记为跟踪目标,并且开始跟踪目标的跟踪AF。在开始跟踪AF之后,确定跟踪被摄体是否已经移动(步骤S24)。在跟踪被摄体已经移动的情况下(步骤S24“是”),流程进行到移动跟踪框(或AF框)并关于已经由此移动的跟踪被摄体对焦的处理。
具体来说,首先,跟踪框(或AF框)移动到跟踪目标已经移动的位置(步骤S25)。此后,根据现有技术,在跟踪目标已经移动的情况下,通过简单地对于微小区域(窄区域AF区域)执行AF可以连续地对焦跟踪被摄体。与此相比,根据本发明的实施例1,在跟踪目标已经移动的情况下,代替执行AF以关于跟踪目标对焦,与跟踪目标的区域对应地获得距离测量结果(步骤S26),并且作为将相机镜头的焦点移动到距离测量结果的位置的结果而对焦跟踪被摄体(步骤S27)。
然后,确定RL开关SW1的半按下是否已经中断(步骤S28)(在图9中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下了开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S28“否”),流程返回到步骤S24。在开关SW1的半按下已经中断的情况下(步骤S28“是”),或者在AF结果不成功的情况下(步骤S23“否”),流程随后结束。在跟踪被摄体72-1尚未在屏幕上移动的情况下(步骤S24“否”),再次执行步骤S24。
根据实施例1,通过执行上述处理,即使对于到跟踪目标的距离的各种变化的情况也可以立即关于跟踪目标对焦。从而,可以解决在跟踪AF时由于到被摄体的距离的急剧变化而导致的不能立即关于跟踪目标对焦的问题。
<跟踪AF过程:实施例2>
接着,将使用流程图描述根据本发明的实施例2的跟踪AF过程。根据实施例2,例如使用距离测量传感器的结果以及窄区域AF来执行跟踪AF。在根据上述实施例1的方法执行跟踪AF的情况下,距离测量传感器的结果的精度可能对于跟踪AF的处理有影响。具体来说,根据实施例1,焦点移动到距离测量结果的位置。因此,如果距离测量结果存在误差,则相机镜头的焦点可能移动到跟踪被摄体没有焦点对准的位置。因此,根据实施例2,沿着光轴方向在距离测量结果附近执行窄区域AF,从而即使距离测量结果中包括一些误差,也可以精确地关于跟踪被摄体对焦。
现在将使用流程图描述根据实施例2的使用距离测量结果的窄区域AF的处理。图10是根据实施例2的跟踪AF过程的一个示例的流程图。根据实施例2,如实施例1中那样开始跟踪AF,并且当跟踪被摄体已经移动时,窄区域AF区域相应地移动,并且在由此移动的窄区域AF区域从距离测量传感器获得跟踪被摄体的位置信息(距离测量结果)。此后,使用由此获得的距离测量结果作为AF扫描范围的中心来设置沿着光轴方向的窄AF扫描范围,因此,在由此移动的窄区域AF区域处执行窄区域AF。从而,即使当出现到被摄体的距离的急剧变化时,也可以在很少次的AF内发现跟踪被摄体的焦点对准位置。
具体来说,如图10所示,首先,作为RL开关SW1半按下的结果(步骤S31)(在图10中,为了方便的目的,“接通RL开关”),关于屏幕的中心区域(窄区域AF区域)执行AF(步骤S32)。然后,在执行对焦操作之后,确定AF结果是否成功(步骤S33)。
在AF结果成功的情况下(步骤S33“是”),将窄区域AF区域中的被摄体登记为跟踪目标,并且开始跟踪目标的跟踪AF。在开始跟踪AF之后,确定跟踪被摄体是否已经移动(步骤S34)。在跟踪被摄体已经移动的情况下(步骤S34“是”),流程进行到移动跟踪框(AF框)并且关于已经移动的跟踪被摄体对焦的处理。
具体来说,首先,将跟踪框(或AF框)移动到跟踪目标已经移动的位置(步骤S35)。此后,与跟踪目标已经移动到的区域对应地获得距离测量结果(步骤S36),并且将相机镜头的焦点移动到距离测量结果的位置(步骤S37)。
接着,沿着光轴方向在距离测量结果附近执行窄区域AF,从而可以对焦跟踪被摄体(步骤S38)。然后,确定在步骤S38执行的AF的结果是否成功(步骤S39)。在AF结果不成功的情况下(步骤S39“否”),例如,在期望存在焦点对准位置的光轴方向上移动AF开始位置(步骤S40),流程进行到步骤S38,并且再次执行窄区域AF。
在AF结果成功的情况下(步骤S39“是”),确定RL开关SW1的半按下是否已经中断(步骤S41)(在图10中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S41“否”),流程返回到步骤S34。在开关SW1的半按下已经中断的情况下(步骤S41“是”),或者在AF结果不成功的情况下(步骤S33“否”),流程随后结束。在跟踪被摄体尚未在屏幕上移动的情况下(步骤S34“否”),再次执行步骤S34。
根据实施例2,通过执行上述处理,可以响应于到跟踪目标的距离的各种变化而不依赖于距离测量结果中的误差(如果有的话)来关于跟踪目标对焦。因此,可以消除在距离测量结果具有误差的情况下跟踪目标未焦点对准的问题。
<跟踪AF过程:实施例3>
接着,将使用流程图描述根据本发明的实施例3的跟踪AF过程。根据实施例3,根据相机镜头中的焦距来确定在跟踪AF时是否使用距离测量传感器的结果。
图11示出了WIDE模式中距离测量可用区域的一个示例。近来,存在许多相机(成像设备),其中变焦对于与高放大倍率的焦距是可能的。在这种情况下,由于在WIDE模式与TELE模式之间焦距非常不同,因此其间的视角相应地很不同。然而,由于距离测量传感器中的透镜是不能变焦的透镜,因此对于距离测量传感器来说,视角是固定的。因此,为了通过相机镜头中WIDE端与TELE端之间的焦距的全部范围,对于视角的整个区域执行距离测量,要将距离测量传感器的焦距设置得等于WIDE端的焦距。然而,在成像设备1是高放大倍率相机的情况下,当距离测量传感器的焦距由此设置得等于WIDE端的焦距时,当相机镜头具有WIDE端的视角时可以从距离测量传感器的屏幕看到的区域对应于当相机镜头具有TELE端的视角时可以从距离测量传感器的屏幕看到的非常小的区域。因此,由于在TELE端可以从距离测量传感器的屏幕看到的区域由此非常小,因此在TELE端距离测量精度可能大大恶化。
因此,根据实施例3,如图11所示,相对于整个拍摄区域91设置包括跟踪被摄体92的距离测量可用区域93,并且距离测量传感器是具有增大的焦距的传感器,从而可以仅在WIDE端在距离测量可用区域93内执行距离测量。从而,可以在WIDE模式和TELE模式二者中执行距离测量。
注意,根据实施例3,将距离测量传感器的焦距的一个示例设置为大约80mm。在这种情况下,由于距离测量传感器的焦距由此设置为增大,从而如上所述,可以仅在WIDE端在距离测量可用区域93内执行距离测量,因此在WIDE模式不能对于视角的整个区域执行距离测量。因此,在屏幕的边沿,不能使用距离测量结果来执行跟踪AF。因此,根据实施例3,根据相机镜头的焦距来确定是否使用距离测量的结果用于跟踪AF。
具体来说,在相机镜头的焦距小于距离测量传感器的焦距(在上述示例中,80mm)的情况下,不使用距离测量的结果。在焦距由此短的情况下,相对于到被摄体的距离的实际变化的AF中焦点的必要移动量小于焦距长的情况。因此,当使用相同的焦点移动量来执行AF时,相机镜头的焦距变得越短,则可以执行焦点对准位置的搜索的距离变得越长。因此,在相机镜头的焦距更短的情况下,即使在出现到跟踪被摄体的距离的急剧变化的情况下,在跟踪AF中丢失跟踪被摄体的焦点对准位置的概率很小。
现在将使用流程图描述包括通过使用相机镜头的焦距来确定是否使用距离测量传感器的具体方法的根据实施例3的跟踪AF过程的一个示例。图12是示出了根据实施例3的跟踪AF过程的一个示例的流程图。
具体来说,如图12所示,首先,作为RL开关SW1半按下的结果(步骤S51)(在图12中,为了方便的目的,“接通RL开关”),关于屏幕的中心区域(窄区域AF区域)执行AF(步骤S52)。然后,在执行对焦操作之后,确定AF结果是否成功(步骤S53)。
在AF结果成功的情况下(步骤S53“是”),将窄区域AF区域中的被摄体登记为跟踪目标,并且开始用于跟踪目标的跟踪AF。在开始跟踪AF之后,确定跟踪被摄体是否已经移动(步骤S54)。在跟踪被摄体已经移动的情况下(步骤S54“是”),流程进行到移动跟踪框(或AF框)并且关于已经移动的跟踪被摄体对焦的处理。
具体来说,首先,将跟踪框(或AF框)移动到跟踪目标已经移动的位置(步骤S55)。此后,对于已经移动的跟踪目标执行对焦。此时,将相机镜头的当前焦距与距离测量传感器的焦距进行比较。即,确定相机镜头的焦距是否大于等于距离测量传感器的焦距(在上述示例中,80mm)(步骤S56)。在相机镜头的焦距大于等于距离测量传感器的焦距的情况下(步骤S56“是”),执行使用距离测量传感器的距离测量结果的AF。具体来说,与已经移动的跟踪目标的区域对应地获得距离测量结果(步骤S57),并且作为相机镜头的焦点移动到距离测量结果的位置的结果,对焦跟踪被摄体(步骤S58)。
在步骤S58结束之后,执行窄区域AF(步骤S59)。在相机镜头的焦距小于距离测量传感器的焦距(在上述示例中80mm)的情况下(步骤S56“否”),仅使用窄区域AF而不使用距离测量传感器的距离测量结果来执行AF(步骤S59)。在不使用距离测量传感器的距离测量结果的处理的情况下,距离测量传感器自身的距离测量操作可以停止或者可以继续。
接着,确定在步骤S59执行的AF的结果是否成功(步骤S60)。在AF结果不成功的情况下(步骤S60“否”),例如,在期望存在焦点对准位置的光轴方向上移动AF开始位置(步骤S61),流程进行到步骤S59,并且再次执行AF。
在AF结果成功的情况下(步骤S60“是”),确定RL开关SW1的半按下是否已经中断(步骤S62)(在图12中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S62“否”),流程返回到步骤S54。在开关SW1的半按下已经中断的情况下(步骤S62是),或者在AF结果不成功的情况下(步骤S53“否”),流程随后结束。在跟踪被摄体尚未在屏幕上移动的情况下(步骤S54“否”),再次执行步骤S54。
根据实施例3,作为执行上述处理的结果,即使当使用具有任意焦距的相机并使用具有任意焦距的距离测量传感器时,也可以使用距离测量结果来执行跟踪AF。
<跟踪AF过程:实施例4>
接着,将使用流程图描述根据本发明的实施例4的跟踪AF过程。根据实施例4,取决于相机镜头的焦距和跟踪被摄体在屏幕上的位置来确定在跟踪AF时是否使用距离测量传感器的距离测量结果。
同样如对于实施例3在上面描述的那样,可能存在这样的情况:在可以执行变焦到与高放大倍率对应的焦距的相机中,在WIDE端不能对于视角的整个区域执行距离测量。在这种情况下,不能在屏幕的外围区域(边沿)执行距离测量。因此,根据实施例4,代替在相机镜头的焦距是存在不能进行距离测量的区域(外围区域或边沿)的焦距的情况下如实施例3中那样不使用距离测量结果,仅在跟踪被摄体已经移动到不能进行距离测量的区域(外围区域或边沿)的情况下不使用距离测量结果。从而,可以增加能够使用距离测量结果的情形的数量。
现在将使用流程图描述包括通过使用相机镜头的焦距来确定是否使用距离测量传感器的距离测量结果的具体方法的根据实施例4的跟踪AF过程的一个示例。图13是示出根据实施例4的跟踪AF过程的一个示例的流程图。
具体来说,如图13所示,首先,作为RL开关SW1半按下的结果(步骤S71)(在图13中,为了方便的目的,“接通RL开关”),对于屏幕的中心区域(窄区域AF区域)执行AF(步骤S72)。然后,在执行对焦操作之后,确定AF结果是否成功(步骤S73)。
在AF结果成功的情况下(步骤S73“是”),将窄区域AF区域中的被摄体登记为跟踪目标,并且开始对于跟踪目标的跟踪AF。在开始跟踪AF之后,确定跟踪被摄体是否已经移动(步骤S74)。在跟踪被摄体已经移动的情况下(步骤S74“是”),流程进行到移动跟踪框(或AF框)并关于已经移动的跟踪被摄体对焦的处理。
具体来说,首先,将跟踪框(或AF框)移动到跟踪目标已经移动的位置(步骤S75)。此后,对于已经移动的跟踪目标执行对焦。此时,确定已经在屏幕上移动的跟踪被摄体的位置是否是可以由距离传感器测量到跟踪被摄体的距离的位置。即,确定跟踪被摄体是否在距离测量可用区域93(参见图11)内(步骤S76)。在跟踪被摄体在距离测量可用区域93内的情况下(步骤S76“是”),执行使用距离测量传感器的距离测量结果的AF。具体来说,通过与已经移动的跟踪目标的区域对应的距离测量传感器获得距离测量结果(步骤S77),并且作为相机镜头的焦点沿着光轴方向移动到距离测量结果的位置的结果而对焦跟踪被摄体(步骤S78)。
在步骤S78结束之后,执行AF(步骤S79)。在跟踪被摄体不在距离测量可用区域93内的情况下(步骤S76“否”),仅使用窄区域AF而不使用距离测量传感器的距离测量结果来执行AF(步骤S79)。在不使用距离测量传感器的距离测量结果的处理的情况下,距离测量传感器本身的距离测量操作可以停止或可以继续。
接着,确定在步骤S79执行的AF的结果是否成功(步骤S80)。在AF结果不成功的情况下(步骤S80“否”),例如,在期望存在焦点对准位置的光轴方向上移动AF开始位置(步骤S81),流程进行到步骤S79,并且再次执行AF。
在AF结果成功的情况下(步骤S80“是”),确定RL开关SW1的半按下是否已经中断(步骤S82)(在图13中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S82“否”),流程返回到步骤S74。在开关SW1的半按下已经中断的情况下(步骤S82“是”),或者在AF结果不成功的情况下(步骤S73“否”),流程随后结束。在跟踪被摄体尚未在屏幕上移动的情况下(步骤S74“否”),再次执行步骤S74。
根据实施例4,作为执行上述处理的结果,可以最大化即使当使用具有任意焦距的相机和使用具有任意焦距的距离测量传感器时,使用距离测量结果来执行跟踪AF的情形的数量。
<跟踪AF过程:实施例5>
接着,将使用流程图描述根据本发明的实施例5的跟踪AF过程。根据实施例5,在跟踪AF时,使用相机镜头的焦距和跟踪被摄体在屏幕上的位置来估计距离测量结果。图14图示估计距离测量结果的方法。
同样如对于实施例3在上面描述的那样,可能存在这样的情况:在可以执行变焦到与高放大倍率对应的焦距的相机中,在WIDE端不能对于视角的整个区域执行距离测量。在这种情况下,不能在屏幕的外围区域(边沿)执行距离测量。根据上述实施例4,例如,在跟踪被摄体已经移动到不能进行距离测量的区域(外围区域或边沿)的情况下不使用距离测量结果。代替地,根据实施例5,在跟踪被摄体已经移动到距离测量可用区域93(参见图11)外部的区域(距离测量不可用区域)的情况下,基于当跟踪被摄体已经在距离测量可用区域93内时获得的跟踪被摄体的距离信息,当跟踪被摄体处于距离测量可用区域93外部的区域中时估计到跟踪被摄体的距离。然后,将估计的距离用作跟踪被摄体的距离测量结果,因此,可以最大化能够使用距离测量结果的情形的数量。
具体来说,如图14所示,如下那样执行距离测量结果的估计。即,在整个拍摄区域101中,在屏幕的中心处获得跟踪被摄体102-1的位置。此后,以固定间隔测量到正在运动的跟踪被摄体的距离。然后,当跟踪被摄体已经移动到距离测量可用区域103外部的区域(距离测量不可用区域)时(例如,当跟踪被摄体102-1已经移动到图14中跟踪被摄体102-2的位置时),基于在该时间之前由此获得的跟踪被摄体的距离信息,估计该时间之后的距离信息。即,根据实施例5,例如通过使用线性内插,基于当在相应两个点处跟踪被摄体102-1已经在距离测量可用区域103内时获得的距离信息,即:在已经初始地开始跟踪被摄体102-1的跟踪时的距离和紧接在跟踪被摄体已经移动到距离测量不可用区域之前的时间处的距离来估计该时间之后的距离信息。
图15是示出了根据实施例5的跟踪AF过程的一个示例的流程图。具体来说,如图15所示,首先,作为RL开关SW1半按下的结果(步骤S91)(在图15中,为了方便的目的,“接通RL开关”),对于屏幕的中心区域(窄区域AF区域)执行AF(步骤S92)。然后,在执行对焦操作之后,确定AF结果是否成功(步骤S93)。
在AF结果成功的情况下(步骤S93“是”),将窄区域AF区域中的被摄体登记为跟踪目标,并且开始跟踪目标的跟踪AF。在开始跟踪AF之后,确定跟踪被摄体是否已经在屏幕上移动(步骤S94)。在跟踪被摄体已经在屏幕上移动的情况下(步骤S94“是”),流程进行到移动跟踪框(或AF框)并关于已经移动的跟踪被摄体对焦的处理。
具体来说,首先,将跟踪框(或AF框)移动到跟踪目标已经移动的位置(步骤S95)。此后,对于已经移动的跟踪目标执行对焦。此时,确定跟踪被摄体的位置是否是可以测量到跟踪被摄体的距离的位置。即,确定跟踪被摄体是否处于距离测量可用区域103内(步骤S96)。在跟踪被摄体处于距离测量可用区域103内的情况下(步骤S96“是”),执行使用距离测量传感器的距离测量结果的AF。具体来说,通过与已经移动的跟踪目标的区域对应的距离测量传感器来获得距离测量结果(步骤S97)。
在跟踪被摄体未处于距离测量可用区域103内的情况下(步骤S96“否”),不使用距离测量传感器的距离测量结果,并且执行到跟踪被摄体的距离的上述估计(步骤S98)。在步骤S97或步骤S98结束之后,作为根据步骤S97的结果或步骤S98的结果相机镜头的焦点在光轴方向中移动的结果而对焦跟踪被摄体(步骤S99),并且执行AF(窄区域AF)(步骤S100)。
接着,确定在步骤S99执行的AF的结果是否成功(步骤S101)。在AF结果不成功的情况下(步骤S101“否”),例如,在期望存在焦点对准位置的光轴方向上移动AF开始位置(步骤S102),流程进行到步骤S100,并且再次执行AF。
在AF结果成功的情况下(步骤S101“是”),确定RL开关SW1的半按下是否已经中断(步骤S103)(在图15中,为了方便的目的,“RL开关断开?”)。注意,如下那样执行关于RL开关SW1的半按下是否已经中断的确定。即,在用户的手指已经从RL开关SW1移开或者已经完全按下开关SW1的情况下,确定RL开关SW1的半按下已经中断。在开关SW1的半按下尚未中断的情况下(步骤S103“否”),流程返回到步骤S94。在开关SW1的半按下已经中断的情况下(步骤S103“是”),或者在AF结果不成功的情况下(步骤S93“否”),流程随后结束。在跟踪被摄体尚未在屏幕上移动的情况下(步骤S94“否”),再次执行步骤S94。
根据实施例5,作为执行上述处理的结果,即使在距离测量不可用区域中,也可以以与距离测量可用区域中的速度相同的速度执行跟踪AF。
<跟踪AF过程:实施例6>
接着,将描述根据本发明的实施例6的跟踪AF过程。对于上述各个实施例,描述了根据(跟踪AF中的)自动跟踪处理,自动地移动AF框(即,上述窄区域AF区域或跟踪框)的情况。然而,本发明的实施例不限于此,并且例如,即使在手动地移动AF框的情况下,执行与上述各个实施例中的处理类似的处理。因此,作为本发明的实施例6,现在将详细描述手动地移动AF框的情况。
<AF框的手动移动>
例如,通过按下图1C中所示的上、下、左和右开关SW10、SW13、SW12和SW11中的任意一个,可以手动地移动当前在屏幕中心显示的AF框(例如,图6中所示的窄区域AF区域73-1)。因此,根据实施例6,通过在屏幕上将AF框移动到任意位置,并且通过按下图1C中所示的OK开关SW7,将AF框固定在该位置。
进一步,在移动的AF框处于距离测量可用区域(93或103)外部的区域中的情况下,如上述实施例4中那样执行窄区域AF(对比度AF)。
进一步,例如,在显示部分(即,LCD监视器21)具有诸如触摸板之类的输入/输出功能的情况下,作为用户通过他或她的手指触摸LCD监视器21的屏幕上显示的任意被摄体的结果,也可以将AF框移动到被摄体。在这种情况下,在移动的AF框处于距离测量可用区域(93或103)外部的区域中的情况下,如上述实施例4中那样执行窄区域AF(对比度AF)。
根据实施例6,通过执行上述处理,例如,作为自动跟踪操作的结果,或者作为手动地移动AF框的结果,即使在作为变焦操作的结果AF框进入距离测量可用区域外部的区域的情况下,通过执行窄区域AF(对比度AF),也可以防止由被摄体处于距离测量传感器的距离测量可用区域(93或103)外部(这使得距离测量不可用)而关于被摄体的对焦不可能的情形。注意,上述实施例1到6可以适当地组合在一起。
如上所述,根据本发明的实施例,当被摄体移动到距离测量可用区域外部时通过使用对比度AF,即使在二维传感器用作距离测量传感器的情况下,也可以防止由被摄体处于距离测量传感器的距离测量可用区域外部(这使得距离测量不可用)而关于被摄体的对焦不可能的情形。因此,即使当到跟踪被摄体的距离在跟踪AF期间急剧地变化时,也可以以实时方式继续关于被摄体对焦。
本发明不限于具体公开的实施例,并且在不脱离本发明的范围的情况下,可以进行变更和修改。
本申请基于在2011年1月17日提交的日本优先权专利申请No.2011-006939和在2011年9月30日提交的日本优先权专利申请No.2011-217683,将其全部内容通过引用的方式合并在此。

Claims (5)

1.一种成像设备,包括:
成像部分,包括图像传感器;
对焦控制部分,配置为驱动所述成像部分中包括的光学系统,将被摄体的图像输入到所述图像传感器的光接收部分,基于通过所述成像部分获得的图像来获得自动对焦评估值,并执行对焦控制;以及
距离测量部分,配置为通过使用多个二维传感器来测量到所述被摄体的距离,其中
所述对焦控制部分在所述被摄体的位置在距离测量可用区域外部的情况下执行对焦控制,其中所述距离测量可用区域是在由所述成像部分拍摄的区域中设置的,并且所述距离测量部分能够在所述距离测量可用区域中测量到所述被摄体的距离,其中
所述对焦控制部分配置为通过比较所述光学系统的焦距与所述二维传感器的焦距,确定是否使用由所述距离测量部分获得的距离测量结果。
2.根据权利要求1所述的成像设备,其中
所述对焦控制部分配置为在所述被摄体的位置已经从所述距离测量部分的距离测量可用区域内部移动到所述距离测量部分的距离测量可用区域的外部的情况下执行对焦控制。
3.根据权利要求2所述的成像设备,其中
所述对焦控制部分配置为在所述被摄体的位置在所述距离测量部分的距离测量可用区域内部的情况下,将所述光学系统的焦点位置移动到由所述距离测量部分测量的距离的位置,并基于移动的焦点位置来执行对焦控制。
4.根据权利要求1所述的成像设备,其中
所述距离测量部分配置为在所述被摄体的位置已经从所述距离测量部分的距离测量可用区域内部移动到所述距离测量部分的距离测量可用区域外部的情况下,基于所述距离测量部分的距离测量可用区域内部的所述被摄体的位置来估计所述被摄体的位置。
5.一种成像方法,包括:
使用包括图像传感器的成像部分来取得被摄体的图像;
驱动所述成像部分中包括的光学系统,输入所述被摄体的图像到所述图像传感器的光接收部分中,基于通过所述成像部分获得的图像来获得自动对焦评估值,并执行对焦控制;以及
通过使用多个二维传感器来测量到所述被摄体的距离,其中
在由所述成像部分拍摄的区域中设置在所述测量中能够测量到所述被摄体的距离的距离测量可用区域,并且所述对焦控制在所述被摄体的位置在所述距离测量可用区域外部的情况下执行,其中
通过比较所述光学系统的焦距与所述二维传感器的焦距,确定是否使用由所述距离测量部分获得的距离测量结果。
CN201280005324.3A 2011-01-17 2012-01-13 成像设备、成像方法、成像程序和计算机可读信息记录介质 Active CN103314321B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011006939 2011-01-17
JP2011-006939 2011-01-17
JP2011-217683 2011-09-30
JP2011217683A JP2012163940A (ja) 2011-01-17 2011-09-30 撮像装置、撮像方法、及び撮像プログラム
PCT/JP2012/051138 WO2012099226A1 (en) 2011-01-17 2012-01-13 Imaging apparatus, imaging method, imaging program and computer readable information recording medium

Publications (2)

Publication Number Publication Date
CN103314321A CN103314321A (zh) 2013-09-18
CN103314321B true CN103314321B (zh) 2016-09-07

Family

ID=46515845

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280005324.3A Active CN103314321B (zh) 2011-01-17 2012-01-13 成像设备、成像方法、成像程序和计算机可读信息记录介质

Country Status (5)

Country Link
US (1) US20130293768A1 (zh)
EP (1) EP2666046A4 (zh)
JP (1) JP2012163940A (zh)
CN (1) CN103314321B (zh)
WO (1) WO2012099226A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6136310B2 (ja) * 2013-01-31 2017-05-31 リコーイメージング株式会社 撮像装置
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
CN108600612B (zh) * 2015-09-28 2021-03-09 Oppo广东移动通信有限公司 一种拍照方法及移动终端
DE102017103660B4 (de) 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
JP6882016B2 (ja) * 2017-03-06 2021-06-02 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP6900228B2 (ja) * 2017-04-10 2021-07-07 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
CN107147849A (zh) * 2017-05-25 2017-09-08 潍坊科技学院 一种摄影设备的控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1438534A (zh) * 2002-02-04 2003-08-27 佳能株式会社 测距和测光装置、照相机
CN101854473A (zh) * 2009-03-31 2010-10-06 索尼公司 成像设备和焦点检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623309A (en) * 1987-02-12 1997-04-22 Canon Kabushiki Kaisha Automatic focusing device with adaptive signal filtering
JP4398017B2 (ja) * 1998-10-07 2010-01-13 オリンパス株式会社 測距装置
JP2001221945A (ja) 2000-02-08 2001-08-17 Ricoh Co Ltd 自動合焦装置
JP2002314851A (ja) * 2001-04-10 2002-10-25 Nikon Corp 撮影装置
JP3949000B2 (ja) * 2002-04-22 2007-07-25 三洋電機株式会社 オートフォーカスカメラ
US20040100573A1 (en) * 2002-11-21 2004-05-27 Osamu Nonaka Focusing apparatus and camera including the same
JP4217491B2 (ja) 2003-01-23 2009-02-04 キヤノン株式会社 センサー装置
EP1684503B1 (en) * 2005-01-25 2016-01-13 Canon Kabushiki Kaisha Camera and autofocus control method therefor
JP4586709B2 (ja) * 2005-11-02 2010-11-24 オムロン株式会社 撮像装置
JP4874668B2 (ja) * 2006-02-22 2012-02-15 Hoya株式会社 オートフォーカスユニット及びカメラ
JP2008058399A (ja) * 2006-08-29 2008-03-13 Canon Inc 焦点調節装置、撮像装置、および制御方法
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
JP5056136B2 (ja) * 2007-04-18 2012-10-24 株式会社ニコン 画像追尾装置
JP2008287064A (ja) * 2007-05-18 2008-11-27 Sony Corp 撮像装置
JP2010072537A (ja) * 2008-09-22 2010-04-02 Canon Inc 撮像装置及びその制御方法
JP5390871B2 (ja) * 2009-01-26 2014-01-15 キヤノン株式会社 撮像装置、その制御方法
CN102227749B (zh) * 2009-07-29 2014-07-09 松下电器产业株式会社 移动体检测方法及移动体检测装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1438534A (zh) * 2002-02-04 2003-08-27 佳能株式会社 测距和测光装置、照相机
CN101854473A (zh) * 2009-03-31 2010-10-06 索尼公司 成像设备和焦点检测方法

Also Published As

Publication number Publication date
EP2666046A4 (en) 2015-06-03
US20130293768A1 (en) 2013-11-07
JP2012163940A (ja) 2012-08-30
WO2012099226A1 (en) 2012-07-26
EP2666046A1 (en) 2013-11-27
CN103314321A (zh) 2013-09-18

Similar Documents

Publication Publication Date Title
CN103314321B (zh) 成像设备、成像方法、成像程序和计算机可读信息记录介质
TWI399082B (zh) Display control device, display control method and program
JP5005570B2 (ja) 画像処理装置およびプログラム
JP5564996B2 (ja) 撮像装置及び撮像方法
CN101893808B (zh) 摄影装置的控制方法
CN101373253B (zh) 摄影装置和摄影装置的控制方法
CN103024265A (zh) 摄像装置和摄像装置的摄像方法
CN108024053A (zh) 摄像装置、焦点调节方法和记录介质
JP2012002951A (ja) 撮像装置、合焦位置検出方法および合焦位置検出プログラム
CN103428464B (zh) 被摄体识别设备和被摄体识别方法
CN101388966B (zh) 带放大显示功能的照相机和照相机的控制方法
JP5267609B2 (ja) 撮像装置及びそのプログラム
CN106254754A (zh) 拍摄装置、图像处理装置、拍摄装置的控制方法
CN102811312A (zh) 摄像设备及其控制方法
CN102404503A (zh) 自动调焦设备和摄像设备
CN102752514B (zh) 摄像设备及其控制方法
CN104052924A (zh) 拍摄装置、拍摄系统和拍摄方法
KR101739378B1 (ko) 디지털 영상 촬영 장치 및 이의 제어 방법
CN101373255B (zh) 摄影装置和摄影装置的控制方法
JP2012093409A (ja) 撮像装置および撮像方法
JP5544917B2 (ja) 撮像装置及び撮像方法
CN102857689A (zh) 摄像设备及其控制方法
JP6136310B2 (ja) 撮像装置
JP2010200084A (ja) 撮像装置
CN101403846B (zh) 摄影装置和摄影装置的控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant