CN116724261A - 摄像装置、摄像方法及摄像程序 - Google Patents

摄像装置、摄像方法及摄像程序 Download PDF

Info

Publication number
CN116724261A
CN116724261A CN202180090249.4A CN202180090249A CN116724261A CN 116724261 A CN116724261 A CN 116724261A CN 202180090249 A CN202180090249 A CN 202180090249A CN 116724261 A CN116724261 A CN 116724261A
Authority
CN
China
Prior art keywords
moving object
image pickup
future time
distance
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180090249.4A
Other languages
English (en)
Inventor
冲山和也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN116724261A publication Critical patent/CN116724261A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种能够抑制因作为运动物体的被摄体被掩蔽而导致的误动作的摄像装置、摄像方法及摄像程序。数码相机(100)检测存在于由成像元件(5)在不同时刻获得的多个像素数据中的运动物体(81)。并且,数码相机(100)根据第1距离与第2距离的比较结果,进行未来时刻t3的物体(82)对运动物体(81)的掩蔽的检测处理,所述第1距离是未来时刻t3的运动物体(81)的预测距离,所述第2距离是存在于未来时刻t3的运动物体(81)的预测位置坐标中的物体的距离。并且,数码相机(100)根据该检测处理的结果进行摄像控制。

Description

摄像装置、摄像方法及摄像程序
技术领域
本发明涉及一种摄像装置、摄像方法及摄像程序。
背景技术
近年来,伴随CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)图像传感器等成像元件的高分辨率化,对数码相机、数码摄像机或智能手机等具有摄像功能的信息设备的需求急剧增加。另外,将具有上述那样的摄像功能的信息设备称为摄像装置。在这些摄像装置中,作为对焦于主要被摄体的聚焦控制方式,采用对比度AF(Auto Focus,自动聚焦)方式或相位差AF方式。
在专利文献1中记载了一种摄像装置,该摄像装置通过比较追踪位置的相对被摄体距离信息与追踪位置的周边区域的相对被摄体距离信息,检测追踪位置的周边的掩蔽物。
在专利文献2中记载了一种聚焦调节装置,该摄像装置在从检测出被摄体的状态转移到未检测出的状态的情况下,若规定区域的对焦度比预先设定的阈值高,则在未检测出被摄体后的预先设定的时间内抑制聚焦调节部件的驱动。
在专利文献3中记载了一种摄像装置,该摄像装置通过评价来自跟踪传感器的摄像图像与基准图像的相关度来检测摄像图像中的跟踪对象位置,单独跟踪在聚焦调节时对焦的被摄体作为主被摄体,单独跟踪从摄像装置观察时位于主被摄体前面的被摄体作为掩蔽被摄体,在存在于主被摄体上且不存在于掩蔽被摄体上的测距点进行聚焦调节。
以往技术文献
专利文献
专利文献1:日本特开2013-131996号公报
专利文献2:日本特开2010-156851号公报
专利文献3:日本特开2014-202875号公报
发明内容
本发明的技术所涉及的1个实施方式提供一种能够抑制因作为运动物体的被摄体被掩蔽而导致的误动作的摄像装置、摄像方法及摄像程序。
用于解决技术课题的手段
本发明的技术所涉及的1个实施方式的摄像装置具备通过摄像光学系统拍摄被摄体的成像元件、和处理器,上述处理器进行如下处理:检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,根据上述检测处理的结果进行摄像控制。
本发明的技术所涉及的1个实施方式的摄像方法是包括通过摄像光学系统拍摄被摄体的成像元件、和处理器的摄像装置的摄像方法,上述处理器进行如下处理:检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,根据上述检测处理的结果进行摄像控制。
本发明的技术所涉及的1个实施方式的摄像程序是包括通过摄像光学系统拍摄被摄体的成像元件、和处理器的摄像装置的摄像程序,上述摄像程序用于使上述处理器执行如下处理:检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,根据上述检测处理的结果进行摄像控制。
发明效果
根据本发明,能够提供一种能够抑制因作为运动物体的被摄体被掩蔽而导致的误动作的摄像装置、摄像方法及摄像程序。
附图说明
图1是表示作为本发明的摄像装置的一个实施方式的数码相机100的概略结构的图。
图2是表示搭载于数码相机100的成像元件5的结构的一例的平面示意图。
图3是图2所示的1个AF区域53的局部放大图。
图4是表示构成图3所示的任意的对行的相位差检测用像素的图。
图5是表示相位差检测用像素52A的截面结构的图。
图6是表示将成像元件5中包含的所有的像素51作为拍摄用像素,将各像素51分割为2个的结构的图。
图7是表示数码相机100的掩蔽检测处理的一例的流程图。
图8是表示利用数码相机100检测被摄体的掩蔽的一例的图(其1)。
图9是表示利用数码相机100检测被摄体的掩蔽的一例的图(其2)。
图10是表示利用数码相机100检测被摄体的掩蔽的一例的图(其3)。
图11是表示利用数码相机100检测被摄体的掩蔽的一例的图(其4)。
图12是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例1的流程图。
图13是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例2的流程图。
图14是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例3的流程图。
图15是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例4的流程图。
图16是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例5的流程图。
图17是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例6的流程图。
图18是表示作为本发明的摄像装置的另一个实施方式的智能手机200的外观的图。
图19是表示图18所示的智能手机200的结构的框图。
具体实施方式
以下,参考附图,对本发明的实施方式进行说明。
图1是表示作为本发明的摄像装置的一个实施方式的数码相机100的概略结构的图。
图1所示的数码相机100具备透镜装置40,该透镜装置40具有成像透镜1、光圈2、透镜控制部4、透镜驱动部8及光圈驱动部9。
在本实施方式中,透镜装置40可以对数码相机100的主体能够装卸,也可以固定在数码相机100的主体上。
成像透镜1和光圈2构成摄像光学系统,成像透镜1在图1中被记载为一个透镜,但成像透镜可以由至少包括一个聚焦透镜的多个透镜构成,也可以仅由一个聚焦透镜构成。该聚焦透镜是用于调节摄像光学系统的聚焦位置的透镜,由单个透镜或多个透镜构成。通过使聚焦透镜在摄像光学系统的光轴方向上移动来进行聚焦位置的调节。另外,作为聚焦透镜,可以使用能够通过可变地控制透镜的曲面来改变聚焦位置的液体透镜。
透镜装置40的透镜控制部4构成为能够通过有线或无线与数码相机100的主体的系统控制部11通信。
透镜控制部4按照来自系统控制部11的指令,经由透镜驱动部8驱动成像透镜1中包含的聚焦透镜,或经由光圈驱动部9驱动光圈2。
数码相机100的主体具备:通过摄像光学系统拍摄被摄体的CMOS图像传感器或CCD图像传感器等成像元件5;模拟信号处理部6,与成像元件5的输出连接,进行相关双采样处理等模拟信号处理;模拟数字转换电路7,将从模拟信号处理部6输出的模拟信号转换为数字信号;成像元件驱动部10;系统控制部11,对整体进行集中控制;及操作部14。另外,模拟信号处理部6和模拟数字转换电路7也可以与成像元件5构成为一体。
模拟信号处理部6、模拟数字转换电路7及成像元件驱动部10由系统控制部11控制。成像元件驱动部10也可以包括在系统控制11中而构成。
系统控制部11经由成像元件驱动部10驱动成像元件5,将通过摄像光学系统拍摄的被摄体像作为拍摄图像信号输出。来自用户的命令信号通过操作部14输入到系统控制部11。
系统控制部11由处理器、RAM(Random Access Memory:随机存取存储器)及闪存(Flash Memory)等ROM(Read Only Memory:只读存储器)存储器构成。在使用闪存的情况下,能够根据需要改写所存储的程序。
系统控制部11通过执行包含存储在内置的ROM中的摄像程序的程序来实现后述的各功能。
而且,数码相机100的电气控制系统具备:主存储器16;存储器控制部15,与主存储器16连接;数字信号处理部17,对从模拟数字转换电路7输出的摄像图像信号实施信号处理,生成摄像图像数据;对比度AF处理部18,通过对比度AF方式计算聚焦位置;相位差AF处理部19,通过相位差AF方式计算聚焦位置;外部存储器控制部20,与装卸自如的记录介质21连接;及显示控制部22,与搭载于相机背面等的显示部23连接。
聚焦位置是聚焦(对焦)于某个被摄体的聚焦透镜的位置,通过驱动成像透镜1中包含的聚焦透镜,聚焦位置发生变化。对比度AF处理部18及相位差AF处理部19计算适合于对焦的目标被摄体的聚焦位置。适合于某个被摄体的聚焦位置根据数码相机100与该被摄体之间的距离而发生变化。
适合于被摄体的聚焦位置例如在相位差AF中根据散焦数据计算。散焦数据是表示当前的聚焦相对于被摄体向哪个方向偏离了何种程度的数据。例如,在对比度AF中,根据被摄体的对比度计算聚焦位置。
存储器控制部15、数字信号处理部17、对比度AF处理部18、相位差AF处理部19、外部存储器控制部20及显示控制部22通过控制总线24及数据总线25相互连接,并由来自系统控制部11的指令控制。
图2是表示搭载于数码相机100的成像元件5的结构的一例的平面示意图。
成像元件5具有受光面50,在该受光面50上配置有在行方向X和与行方向X正交的列方向Y上二维状地排列的大量像素。
在图2的例子中,在受光面50上设置有63个聚焦检测区域(以下,称为AF区域)53,该聚焦检测区域53是成为对焦的对象的区域(成为对焦的对象的被摄体像成像的区域)。
在数码相机100中,从图2所示的63个AF区域53中选择1个或连续排列的多个AF区域53,进行对焦于通过所选择的AF区域53拍摄的被摄体的聚焦控制。
AF区域53是包括摄像用像素和相位差检测用像素作为像素的区域。在受光面50中除了AF区域53以外的部分仅配置摄像用像素。
图3是图2所示的1个AF区域53的局部放大图。
在AF区域53中,二维状地排列有像素51(图中正方形块)。各像素51包括光电二极管等光电转换部和形成在该光电转换部上方的滤色器。另外,各像素51也可以是不使用滤色器而通过光电二极管的结构进行分光的结构。
在图3中,对于包括透射红色光的滤色器(R滤光片)的像素51(R像素51)标注有“R”字符。
在图3中,对于包括透射绿色光的滤色器(G滤光片)的像素51(G像素51)标注有“G”字符。
在图3中,对于包括透射蓝色光的滤色器(B滤光片)的像素51(B像素51)标注有“B”字符。滤色器的排列在受光面50整体中成为拜耳排列。
在AF区域53中,G像素51的一部分(图3中的标记阴影的像素)成为相位差检测用像素52A、52B。在图3的例子中,包括R像素51和G像素51的像素行中的任意的像素行中的各G像素51成为相位差检测用像素52A,在列方向Y上与该各G像素51最近的相同颜色的G像素51成为相位差检测用像素52B。
相位差检测用像素52A与在列方向Y上与相位差检测用像素52A最近的相同颜色的相位差检测用像素52B构成一对。但是,这些相位差检测用像素的配置仅为一例,也可以是其他配置。例如一部分G像素51可以是相位差检测用像素,也可以配置于R像素51或B像素51中。
由位于图3中的从上起第3行像素行的相位差检测用像素52A和位于图3中的从上起第5行像素行的相位差检测用像素52B构成由在行方向X上排列的多个对构成的对行PL1。
由位于图3中的从上起第7行像素行的相位差检测用像素52A和位于图3中的从上起第9行像素行的相位差检测用像素52B构成由在行方向X上排列的多个对构成的对行PL2。
由位于图3中的从上起第11行像素行的相位差检测用像素52A和位于图3中的从上起第13行像素行的相位差检测用像素52B构成由在行方向X上排列的多个对构成的对行PL3。
如此,在AF区域53中,在列方向Y上排列有多个对行。
图4是表示构成图3所示的任意的对行的相位差检测用像素的图。
相位差检测用像素52A是第一信号检测部,其接收通过在行方向X上被分割为2个区域的成像透镜1的光瞳区域的一个分割区域的光束,并检测与受光量对应的信号。
相位差检测用像素52B是第二信号检测部,其接收通过上述光瞳区域的另一个分割区域的光束,并检测与受光量对应的信号。
另外,在AF区域53中,除了相位差检测用像素52A、52B以外的多个像素51是摄像用像素。该摄像用像素接收通过成像透镜1的光瞳区域的上述2个分割区域两者的光束,检测与受光量对应的信号。
在各像素51的光电转换部上方设置有遮光膜,在该遮光膜上形成有限定光电转换部的受光面积的开口。
摄像用像素的开口的中心与摄像用像素的光电转换部的中心一致。相对于此,相位差检测用像素52A的开口(图4的空心部分)的中心相对于相位差检测用像素52A的光电转换部的中心向一侧(右侧)偏心。
并且,相位差检测用像素52B的开口(图4的空心部分)的中心相对于相位差检测用像素52B的光电转换部的中心向另一侧(左侧)偏心。
图5是表示相位差检测用像素52A的截面结构的图。如图5所示,相位差检测用像素52A的开口c相对于光电转换部PD向一侧(右)偏心。
如图5所示,通过由遮光膜覆盖光电转换部PD的一侧,能够选择性地遮蔽从与由遮光膜覆盖的方向相反的方向入射的光。
通过该结构,能够通过包括构成任意的对行的相位差检测用像素52A的像素组和包括构成该对行的相位差检测用像素52B的像素组,检测由这2个像素组分别拍摄的像中的行方向X的相位差。
另外,成像元件5的像素结构并不限于图2~图5所示的结构。
例如,也可以是将成像元件5中包含的所有的像素作为拍摄用像素,将各摄像用像素在行方向X上分割为2个部分,将一个分割部分作为相位差检测用像素52A,将另一个分割部分作为相位差检测用像素52B的结构。
图6是表示将成像元件5中包含的所有的像素51作为拍摄用像素,将各像素51分割为2个的结构的图。
在图6的结构中,在成像元件5中将标记了R的像素51分割为2个,将分割后的2个分别作为相位差检测用像素r1和相位差检测用像素r2。
并且,在成像元件5中将标记了G的像素51分割为2个,将分割后的2个分别作为相位差检测用像素g1和相位差检测用像素g2。
而且,在成像元件5中将标记了B的像素51分割为2个,将分割后的2个分别作为相位差检测用像素b1和相位差检测用像素b2。
在该结构中,相位差检测用像素r1、g1、b1分别成为第一信号检测部,相位差检测用像素r2、g2、b2分别成为第二信号检测部。
在图6的结构例中,若将1个像素51中包含的第一信号检测部和第二信号检测部的信号相加,则获得没有相位差的通常的摄像用信号。即,在图6的结构中,能够将所有的像素用作相位差检测用像素和摄像用像素两者。并且,在图6的结构例中,能够提高AF区域的尺寸及形状的设定的自由度。
系统控制部11选择性地进行基于相位差AF方式的聚焦控制和基于对比度方式的聚焦控制中的任一者。
相位差AF处理部19根据系统控制部11的命令,使用从通过用户操作等从63个AF区域53中选择的1个或多个AF区域53中的相位差检测用像素52A及相位差检测用像素52B读出的检测信号组,计算由上述一对光束形成的2个像的相对错位量即相位差。
并且,相位差AF处理部19根据该相位差,求出成像透镜1的聚焦调节状态,这里是作为散焦量和散焦方向的散焦数据。散焦量是聚焦位置与当前的聚焦透镜的位置之差,是表示使聚焦透镜移动多少时聚焦透镜到达聚焦位置的值,散焦方向表示使聚焦透镜向哪个方向移动即可。能够根据散焦数据和此时的透镜的数据计算聚焦透镜的驱动量和驱动方向。
系统控制部11通过根据该散焦数据驱动聚焦透镜,进行基于利用相关运算结果的相位差AF方式的聚焦控制。
对比度AF处理部18分析由成像元件5拍摄的摄像图像,通过对比度AF方式确定成像透镜1的聚焦位置。
即,对比度AF处理部18一边通过系统控制部11的控制来移动成像透镜1的聚焦透镜位置,一边求出在移动后的每个位置(多个位置)获得的摄像图像的对比度(明暗差)。并且,将对比度成为最大的聚焦透镜位置确定为对比度最大聚焦位置。
系统控制部11根据由对比度AF处理部18确定的对比度最大聚焦位置来驱动聚焦透镜,由此进行基于利用了摄像图像的对比度的对比度AF方式的聚焦控制。
并且,数码相机100也可以搭载连续AF模式,该连续AF模式连续进行多次对焦于被摄体的聚焦控制。例如,数码相机100一边显示作为实时表示通过成像元件5的连续拍摄获得的摄像图像的图像的实时取景图像(即时预览图像),一边连续进行多次对焦于被摄体的聚焦控制。
图7是表示数码相机100的掩蔽检测处理的一例的流程图。数码相机100作为检测主要被摄体的掩蔽的掩蔽检测处理,重复执行例如图7所示的处理。该处理例如由系统控制部11及相位差AF处理部19中的至少任一者执行。
这里所说的掩蔽是指,当一个被摄体位于数码相机100的摄像方向(前方)时,在该一个被摄体与数码相机100之间存在其他物体,由于该其他物体,一个被摄体处于从数码相机100看不到的状态,用数码相机100不能拍摄一个被摄体。
首先,数码相机100进行被摄体的检测处理(步骤S701)。被摄体可以是由用户指定的被摄体,也可以是由数码相机100自动检测出的被摄体。
接着,数码相机100判断通过步骤S701是否检测出被摄体(步骤S702)。在未检测出被摄体的情况下(步骤S702:“否”),数码相机100使掩蔽标志无效(步骤S703),并结束一连串的处理。掩蔽标志是表示作为运动物体的被摄体是否被掩蔽的信息,存储于数码相机100的存储器(例如主存储器16)中。
在步骤S702中,在检测出被摄体的情况下(步骤S702:“是”),数码相机100判断通过刚刚进行的步骤S701检测出的被摄体是否为与通过上次步骤S701检测出的被摄体相同的被摄体(步骤S704)。例如,根据检测出的各被摄体的相似度等来进行检测出的各被摄体是否相同的判断。在不是相同的被摄体的情况下(步骤S704:“否”),该被摄体在当前时刻不被识别为运动物体,因此数码相机100转移到步骤S703,使掩蔽标志无效。
在步骤S704中,在是相同的被摄体的情况下(步骤S704:“是”),数码相机100计算通过刚刚进行的步骤S701检测出的被摄体的散焦数据(步骤S705)。例如,数码相机100计算由成像元件5获得的最新像素数据中的、基于通过刚刚进行的步骤S701检测出被摄体的被摄体区域的相位差信息的散焦数据。
如上所述,散焦数据包括散焦量和散焦方向。被摄体的散焦数据的精度没有特别限定,例如被摄体的散焦数据也可以是“远”及“近”这2个值的信息。然而,在相位差AF中,若已知散焦数据,则能够使用此时的透镜的数据和散焦数据求出被摄体与数码相机100之间的距离作为散焦数据。在对比度AF中也能够根据聚焦位置计算散焦数据。
接着,数码相机100根据通过刚刚进行的步骤S705计算出的散焦数据和通过过去的步骤S705对相同的被摄体计算出的散焦数据,计算作为未来时刻t3的该被摄体的散焦数据的预测值的散焦数据D1(步骤S706)。未来时刻t3例如是下次透镜驱动(成像透镜1的聚焦透镜的驱动)的时刻。
接着,数码相机100计算预测XY坐标,该预测XY坐标是未来时刻t3的、通过刚刚进行的步骤S701检测出的被摄体的XY坐标的预测值(步骤S707)。XY坐标是表示二维图像内的位置的位置坐标。
接着,数码相机100计算散焦数据D2,该散焦数据D2是基于通过步骤S707计算出的预测XY坐标的散焦数据(步骤S708)。例如,数码相机100计算基于由成像元件5获得的最新像素数据中的预测XY坐标的部分的相位差信息的散焦数据作为散焦数据D2。
接着,数码相机100判断基于通过步骤S706计算出的散焦数据D1的聚焦位置是否比基于通过步骤S708计算出的散焦数据D2的聚焦位置远(在图7中,表述为“D1>D2?”。)(步骤S709)。
在步骤S709中,在基于散焦数据D1的聚焦位置不比基于散焦数据D2的聚焦位置远的情况下(步骤S709:“否”),能够预测为通过刚刚进行的步骤S701检测出的被摄体在时刻t3不会被掩蔽物掩蔽。在该情况下,数码相机100转移到步骤S703,使掩蔽标志无效。
在步骤S709中,在基于散焦数据D1的聚焦位置比基于散焦数据D2的聚焦位置远的情况下(步骤S709:“是”),能够预测为通过刚刚进行的步骤S701检测出的被摄体在时刻t3会被掩蔽物掩蔽。在该情况下,数码相机100使掩蔽标志有效(步骤S710),并结束一连串的处理。
图8~图11是表示利用数码相机100检测被摄体的掩蔽的一例的图。图8所示的像素数据PD1是在时刻t1由成像元件5获得的像素数据。图9所示的像素数据PD2是在时刻t1之后的时刻t2由成像元件5获得的像素数据。图10所示的像素数据PD3是在时刻t2之后的时刻t3由成像元件5获得的像素数据。图11所示的像素数据PD4是在时刻t3之后的时刻t4由成像元件5获得的像素数据。另外,在图8~图11中,图示了对像素数据PD1~PD4进行了去马赛克处理的情况。
运动物体81是在时刻t1~t4存在于数码相机100的摄像区域中的运动物体(在该例中为人物)。例如,假设数码相机100通过基于像素数据PD1、PD2的被摄体的检测处理检测出运动物体81作为被摄体。在图8~图11的例子中,在时刻t1~t4,从数码相机100观察时,运动物体81从左前方朝向右后方移动。
物体82是在时刻t1~t4存在于数码相机100的摄像区域中的静止物(在该例中为电线杆)。例如,在时刻t3,运动物体81位于物体82的背后,其结果,运动物体81的至少一部分被物体82掩蔽。并且,在时刻t4,从数码相机100观察时,运动物体81位于物体82的右侧,其结果,消除了物体82对运动物体81的掩蔽。
作为一例,对时刻t2的数码相机100的处理进行说明。在此,假设在时刻t1,数码相机100已检测出运动物体81作为被摄体,并且还已计算出时刻t1的运动物体81的散焦数据。在时刻t2,数码相机100再次检测运动物体81作为被摄体,计算时刻t2的运动物体81的散焦数据。
接着,数码相机100计算作为未来时刻的时刻t3的运动物体81的散焦数据D1。例如,数码相机100根据时刻t1、t2的运动物体81的散焦数据的计算结果,计算时刻t3的运动物体81的散焦数据D1。
并且,数码相机100计算时刻t3的运动物体81的预测XY坐标。例如,数码相机100根据时刻t1、t2的运动物体81的检测结果,计算时刻t3的运动物体81的预测XY坐标。
接着,数码相机100利用计算出的预测XY坐标来计算散焦数据D2。例如,数码相机100计算由成像元件5在时刻t2获得的像素数据PD2中的、基于计算出的预测XY坐标的部分中的相位差信息的散焦数据D2。
并且,数码相机100比较计算出的散焦数据D1、D2。在图8~图11的例子中,在时刻t3,运动物体81位于物体82的背后,因此基于散焦数据D1的聚焦位置比基于散焦数据D2的聚焦位置远。由此,数码相机100预测运动物体81在时刻t3被物体82掩蔽,使掩蔽标志有效。
如此,数码相机100检测存在于由成像元件5在时刻t1、t2(不同时刻)获得的像素数据PD1、PD2(多个像素数据)中的运动物体81。并且,数码相机100计算散焦数据D1(第1距离),该散焦数据D1是未来时刻t3的运动物体81的预测距离。并且,数码相机100计算散焦数据D2(第2距离),该散焦数据D2是存在于未来时刻t3的运动物体81的预测XY坐标(预测位置坐标)中的物体82的距离。
并且,数码相机100根据散焦数据D1、D2的比较结果,进行未来时刻t3的物体82对运动物体81的掩蔽的检测处理。具体而言,在基于散焦数据D1的聚焦位置比基于散焦数据D2的聚焦位置远的情况下,数码相机100判定为存在时刻t3的物体82对运动物体81的掩蔽。并且,数码相机100根据该检测处理的结果进行摄像控制。由此,能够抑制因作为被摄体的运动物体81被物体82掩蔽而导致的摄像控制的误动作。
数码相机100例如根据像素数据PD1、PD2(多个像素数据)中的运动物体81的XY坐标(各位置坐标),计算未来时刻t3的运动物体81的预测XY坐标。但是,未来时刻t3的运动物体81的预测XY坐标并不限于像素数据PD1、PD2,能够根据在未来时刻t3之前由成像元件5获得的任意的多个像素数据中的运动物体81的XY坐标来计算。
并且,数码相机100例如根据时刻t1、t2(多个时刻)的运动物体81的距离的检测结果,计算作为未来时刻t3的运动物体81的预测距离的散焦数据D1(第1距离)。但是,散焦数据D1并不限于时刻t1、t2,能够根据未来时刻t3之前的任意的多个时刻的运动物体81的距离的检测结果来计算。
并且,数码相机100计算时刻t2的物体82的散焦数据,作为存在于未来时刻t3的运动物体81的预测XY坐标中的物体82的距离即散焦数据D2(第2距离)。但是,散焦数据D2并不限于时刻t2的物体82的散焦数据,也可以是时刻t3之前的任意的时刻的物体82的散焦数据。
图12是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例1的流程图。数码相机100重复执行例如图7所示的处理和图12所示的处理。图12的处理例如由系统控制部11及相位差AF处理部19中的至少任一者执行。并且,例如在每个透镜驱动(成像透镜1的聚焦透镜的驱动)的定时执行图12的处理。
首先,数码相机100判断掩蔽标志是否有效(步骤S121)。在掩蔽标志有效的情况下(步骤S121:“否”),能够推测为在本次的透镜驱动的定时,作为被摄体的运动物体81没有被物体82掩蔽。在该情况下,数码相机100根据被摄体的散焦数据的最新检测结果来进行透镜驱动(步骤S122),并结束一连串的处理。具体而言,数码相机100根据由成像元件5获得的最新像素数据中的、基于当前的被摄体的XY坐标的部分的相位差信息的散焦数据的检测结果,进行成像透镜1的聚焦透镜的驱动。
在步骤S121中,在掩蔽标志有效的情况下(步骤S121:“是”),数码相机100能够推测为在本次的透镜驱动的定时,作为被摄体的运动物体81被物体82掩蔽。在该情况下,数码相机100维持成像透镜1的聚焦透镜的驱动状态(步骤S123),并结束一连串的处理。通过步骤S123,能够停止基于被摄体的散焦数据的最新检测结果的透镜驱动。
例如,由于掩蔽标志在图8~图11所示的例子的时刻t3有效,因此数码相机100例如将成像透镜1的聚焦透镜的驱动状态维持为基于在时刻t2获得的像素数据的驱动状态。
如此,在检测出时刻t3的运动物体81的掩蔽的情况下,数码相机100在时刻t3停止基于运动物体81的散焦数据的检测结果的成像透镜1的聚焦透镜的驱动,其中,运动物体81的散焦数据基于最新像素数据。由此,能够抑制对焦于掩蔽运动物体81的物体82的误动作。
并且,在检测时刻t3的运动物体81的掩蔽并停止基于时刻t3的运动物体81的散焦数据的检测结果的成像透镜1的聚焦透镜的驱动的情况下,数码相机100可以计算时刻t3之后的作为消除运动物体81的掩蔽的预测时刻的时刻t4。例如,数码相机100根据时刻t1、t2的运动物体81的XY坐标的检测结果,计算运动物体81的XY坐标偏离物体82的XY坐标的、时刻t3之后的时刻t4。并且,数码相机100在时刻t4重新开始基于运动物体81的散焦数据的检测结果的摄像光学系统的成像透镜1的驱动。由此,即使停止基于运动物体81的散焦数据的检测结果的成像透镜1的聚焦透镜的驱动,也能够在消除运动物体81的掩蔽的时刻t4重新开始基于运动物体81的散焦数据的检测结果的成像透镜1的聚焦透镜的驱动。
并且,数码相机100可以例如根据时刻t1、t2的运动物体81的XY坐标的检测结果,计算消除运动物体81的掩蔽的时刻t4的运动物体81的预测XY坐标,根据在时刻t4由成像元件5获得的像素数据中的与计算出的时刻t4的运动物体81的预测XY坐标对应的数据进行被摄体检测处理。由此,能够缩小基于在消除运动物体81的掩蔽的时刻t4获得的像素数据的被摄体检测处理的对象区域。因此,能够缩短被摄体检测处理所需的处理时间。并且,能够提高被摄体检测处理的精度。
图13是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例2的流程图。数码相机100也可以重复执行例如图7所示的处理和图13所示的处理。图13的处理例如由系统控制部11及相位差AF处理部19中的至少任一者执行。并且,例如在每个透镜驱动的定时执行图12的处理。
首先,数码相机100判断掩蔽标志是否有效(步骤S131)。在掩蔽标志无效的情况下(步骤S131:“否”),数码相机100转移到步骤S132。步骤S132与图12所示的步骤S122相同。
在步骤S131中,在掩蔽标志有效的情况下(步骤S131:“是”),数码相机100不进行基于被摄体的散焦数据的最新检测结果的透镜驱动,而是根据过去的多个时刻的被摄体的散焦数据的检测结果进行透镜驱动(步骤S133),并结束一连串的处理。
例如,由于掩蔽标志在图8~图11所示的例子的时刻t3有效,因此数码相机100根据由成像元件5在时刻t1、t2获得的各像素数据的相位差信息,计算时刻t3的运动物体81的散焦数据的预测值,根据计算出的散焦数据的预测值,进行成像透镜1的聚焦透镜的驱动。
如此,在检测出时刻t3的运动物体81的掩蔽的情况下,数码相机100可以在时刻t3,根据时刻t3之前的多个时刻的运动物体81的散焦数据的检测结果,驱动成像透镜1的聚焦机构。由此,即使在运动物体81被掩蔽的时刻也能够继续聚焦控制。另外,时刻t3之前的多个时刻并不限于时刻t1、t2。
图14是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例3的流程图。数码相机100也可以重复执行例如图7所示的处理和图14所示的处理。图14的处理例如由系统控制部11执行。并且,例如在每个被摄体检测定时执行图14的处理。被摄体检测定时可以是由成像元件5获得像素数据的各定时,也可以是由成像元件5获得像素数据的各定时中存在能够执行被摄体检测处理的处理资源的定时。
首先,数码相机100判断掩蔽标志是否有效(步骤S141)。在掩蔽标志无效的情况下(步骤S141:“否”),数码相机100进行包括基于最新像素数据的被摄体的检测处理的被摄体检测处理(步骤S142),并结束一连串的处理。步骤S142的被摄体检测处理例如是图7所示的处理。在步骤S141中,在掩蔽标志有效的情况下(步骤S141:“是”),数码相机100不进行被摄体检测处理,并结束一连串的处理。
如此,数码相机100可以设为,在掩蔽标志有效的期间,执行基于由成像元件5获得的像素数据的被摄体检测处理,在掩蔽标志无效的期间(例如时刻t3)停止基于由成像元件5获得的像素数据的被摄体检测处理。由此,能够抑制因作为被摄体的运动物体81被物体82掩蔽而导致误判定为运动物体81不存在的误动作。并且,通过停止被摄体检测处理,能够抑制消耗电力。另外,除了重新检测被摄体的处理以外,被摄体检测处理还可以包括追踪已检测出的被摄体的移动的追踪处理。
图15是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例4的流程图。数码相机100也可以重复执行例如图7所示的处理和图15所示的处理。图14的处理例如由系统控制部11执行。并且,例如在每个上述被摄体检测定时执行图14的处理。
首先,数码相机100判断掩蔽标志是否有效(步骤S151)。在掩蔽标志无效的情况下(步骤S151:“否”),数码相机100转移到步骤S152。步骤S152与图14所示的步骤S142相同。
在步骤S151中,在掩蔽标志有效的情况下(步骤S151:“是”),数码相机100进行被摄体检测处理(步骤S152),并结束一连串的处理。但是,即使步骤S152中的被摄体检测处理失败,数码相机100也维持通过基于在此之前由成像元件5获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。
例如,在图8~图11所示的例子中,即使不能从在运动物体81被掩蔽的时刻t3获得的像素数据中检测出从在时刻t1、t2获得的像素数据中检测出的运动物体81,数码相机100也不判定为运动物体81不存在,而继续追踪运动物体81的处理。
如此,数码相机100也可以设为,即使基于在掩蔽标志无效的期间(例如时刻t3)由成像元件5获得的像素数据的被摄体检测处理失败,也能够维持通过基于在此之前由成像元件5获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。由此,在运动物体81暂时被掩蔽的情况下,能够抑制停止运动物体81的追踪处理的误动作、或被摄体的检测对象切换为与运动物体81不同的物体的误动作。
图16是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例5的流程图。数码相机100也可以重复执行例如图7所示的处理和图16所示的处理。图16的处理例如由系统控制部11执行。并且,例如,在由成像元件5进行连续拍摄时,每当由成像元件5获得像素数据时执行图16的处理。
由成像元件5进行连续拍摄时是指进行静止图像的拍摄模式下的实时取景图像(即时预览图像)的显示的情况、动态图像拍摄时、或连续拍摄(连拍)静止图像时等。
首先,数码相机100判断掩蔽标志是否有效(步骤S161)。在掩蔽标志无效的情况下(步骤S161:“否”),数码相机100进行所获得的像素数据的图像记录(步骤S162),并结束一连串的处理。基于像素数据的图像记录是指像素数据向记录介质21的记录、或根据像素数据生成的图像向记录介质21的记录。
在步骤S161中,在掩蔽标志有效的情况下(步骤S161:“是”),数码相机100不进行所获得的像素数据的图像记录,并结束一连串的处理。
在例如图8~图11所示的例子中,数码相机100进行在时刻t1、t2获得的像素数据PD1、PD2的图像记录,不进行在时刻t3获得的像素数据PD3的图像记录。
如此,数码相机100也可以在检测出时刻t3的运动物体81的掩蔽的情况下,停止基于在时刻t3由成像元件5获得的像素数据的图像记录。由此,能够防止进行基于在运动物体81被掩蔽的时刻t3获得的像素数据的,即基于运动物体81没有以满意的状态被拍摄的可能性高的像素数据的图像记录。因此,能够省去用户删除不满意的图像的劳力和时间。并且,能够节约记录介质21的记录容量。
图17是表示基于运动物体81的掩蔽的检测结果的数码相机100的摄像控制的具体例6的流程图。数码相机100也可以重复执行例如图7所示的处理和图17所示的处理。图17的处理例如由系统控制部11执行。并且,例如,在由成像元件5进行连续拍摄时,每当由成像元件5获得像素数据时执行图17的处理。
首先,数码相机100判断掩蔽标志是否有效(步骤S171)。在掩蔽标志无效的情况下(步骤S171:“否”),数码相机100根据本次获得的像素数据更新曝光及白平衡(步骤S172),并结束一连串的处理。
在步骤S172中,例如,数码相机100根据本次获得的像素数据中的被摄体的部分的数据,计算要适用于像素数据的适当的曝光及白平衡。并且,数码相机100进行将计算出的曝光或白平衡适用于该像素数据向记录介质21的记录、或基于该像素数据的实时取景图像的显示等的处理。
在步骤S171中,在掩蔽标志有效的情况下(步骤S171:“是”),数码相机100维持像素数据的曝光及白平衡(步骤S173),并结束一连串的处理。
例如,在图8~图11所示的例子中,数码相机100将适用于在时刻t3获得的像素数据向记录介质21的记录、基于在时刻t3获得的像素数据的实时取景图像的显示等的曝光及白平衡维持为根据在时刻t2获得的像素数据中的被摄体的部分的数据计算出的曝光及白平衡。另外,对关于曝光及白平衡进行图17的处理的情况进行了说明,但也可以设为仅对曝光及白平衡中的一者进行图17的处理。
如此,数码相机100也可以在检测出时刻t3的运动物体81的掩蔽的情况下,停止基于在时刻t3由成像元件5获得的像素数据的曝光及白平衡中的至少任一者的控制。由此,能够防止根据在运动物体81被掩蔽的时刻t3获得的像素数据、即没有充分地拍摄到作为曝光及白平衡的自动设定的基准的被摄体的可能性高的像素数据,进行曝光或白平衡的变更。
图18是表示作为本发明的摄像装置的另一个实施方式的智能手机200的外观的图。
图18所示的智能手机200具有平板状的框体201,且在框体201的一个面具备显示输入部204,该显示输入部204由作为显示部的显示面板202与作为输入部的操作面板203一体化而成。
并且,这种框体201具备扬声器205、麦克风206、操作部207及相机部208。另外,框体201的结构并不限定于此,例如能够采用显示部与输入部独立的结构,或采用具有折叠结构或滑动机构的结构。
图19是表示图18所示的智能手机200的结构的框图。
如图19所示,作为智能手机的主要构成要件,具备无线通信部210、显示输入部204、通话部211、操作部207、相机部208、存储部212、外部输入输出部213、GNSS(GlobalNavigation Satellite System:全球导航卫星系统)接收部214、动作传感器部215、电源部216及主控制部220。
并且,作为智能手机200的主要功能,具备经由省略图示的基站装置BS与省略图示的移动通信网NW进行移动无线通信的无线通信功能。
无线通信部210按照主控制部220的命令对容纳于移动通信网NW的基站装置BS进行无线通信。使用该无线通信,进行语音数据、图像数据等各种文件数据、电子邮件数据等的收发、网络数据或流数据等的接收。
显示输入部204为通过主控制部220的控制,显示图像(静止图像及动态图像)或文字信息等而向用户视觉传递信息,并且检测对所显示的信息的用户操作的、即所谓的触摸面板,且具备显示面板202和操作面板203。
关于显示面板202,将LCD(Liquid Crystal Display:液晶显示器)、OELD(OrganicElectro-Luminescence Display:有机发光二极管)等用作显示器件。
操作面板203为以能够视觉辨认显示于显示面板202的显示面上的图像的方式载置,且通过用户的手指或触控笔来检测被操作的一或多个坐标的器件。若通过用户的手指或触控笔操作该器件,则向主控制部220输出因操作而产生的检测信号。接着,主控制部220根据所接收的检测信号检测显示面板202上的操作位置(坐标)。
如图19所示,作为本发明的摄影装置的一个实施方式而例示的智能手机200的显示面板202与操作面板203一体化而构成显示输入部204,但成为如操作面板203完全覆盖显示面板202的配置。
在采用该配置的情况下,操作面板203可以在显示面板202以外的区域也具备检测用户操作的功能。换言之,操作面板203可以具备针对与显示面板202重叠的重叠部分的检测区域(以下,称为显示区域)和针对其以外的不与显示面板202重叠的外缘部分的检测区域(以下,称为非显示区域)。
另外,可以使显示区域的大小与显示面板202的大小完全一致,但不一定需要使两者一致。并且,操作面板203可以具备外缘部分和其以外的内侧部分这两个感应区域。而且,外缘部分的宽度根据框体201的大小等来适当设计。
此外,作为在操作面板203所采用的位置检测方式,可列举矩阵开关方式、电阻膜方式、表面弹性波方式、红外线方式、电磁感应方式、静电电容方式等,且能够采用任意方式。
通话部211具备扬声器205或麦克风206,将通过麦克风206输入的用户的语音转换为能够通过主控制部220进行处理的语音数据而向主控制部220输出,或将通过无线通信部210或者外部输入输出部213接收的语音数据解码而从扬声器205输出。
并且,如图18所示,例如,能够将扬声器205搭载于与设置有显示输入部204的面相同的面,且将麦克风206搭载于框体201的侧面。
操作部207为使用了按键开关等的硬件键,且接收来自用户的命令。例如,如图18所示,操作部207搭载于智能手机200的框体201的侧面,且为通过手指等按压时成为开启状态,将手指移开则通过弹簧等的复原力而成为关闭状态的按钮式开关。
存储部212存储主控制部220的控制程序及控制数据、应用软件、将通信对象的名称或电话号码等建立对应关联的地址数据、所收发的电子邮件的数据、通过Web浏览器下载的Web数据、已下载的内容数据,并且临时存储流数据等。并且,存储部212由内置于智能手机的内部存储部217和具有装卸自如的外部存储器插槽的外部存储部218构成。
另外,构成存储部212的各个内部存储部217和外部存储部218使用闪存类型(flash memory type)、硬盘类型(hard disk type)、微型多媒体卡类型(multimedia cardmicro type)、卡类型的存储器(例如,MicroSD(注册商标)存储器等)、RAM(Random AccessMemory)、ROM(Read Only Memory)等存储介质来实现。
外部输入输出部213发挥与智能手机200连结的所有的外部设备的接口的作用,且用于通过通信等(例如,通用串行总线(USB)、IEEE1394、Bluetoo th(注册商标)、RFID(Radio Frequency Identification:射频识别)、红外线通信(Infrared DataAssociation:IrDA)(注册商标)、UWB(Ultra Wideband:超宽带)(注册商标)、紫蜂(ZigBee)(注册商标)等)或网络(例如,以太网(注册商标)、无线LAN(Local Area Network:局域网)等)与其他外部设备直接或间接连接。
作为与智能手机200连结的外部设备,例如有如下:有线/无线头戴式耳机、有线/无线外部充电器、有线/无线数据端口、经由卡插槽连接的存储卡(Memory card)、SIM(Subscriber Identity Module Card:订户识别模块卡)/UIM(User Identity ModuleCard:用户识别模块卡)卡、经由音频视频I/O(Input/Output)端子连接的外部音频视频设备、无线连接的外部音频视频设备、有线/无线连接的智能手机、有线/无线连接的计算机、有线/无线连接的个人计算机、耳机等。
外部输入输出部213能够设为将从这种外部设备接收传送的数据传递至智能手机200的内部各构成要件,或使智能手机200的内部数据被传送到外部设备。
GNSS接收部214按照主控制部220的命令,接收从GNSS卫星ST1~STn发送的GNSS信号,执行基于所接收的多个GNSS信号的定位运算处理,并检测包括智能手机200的纬度、经度、高度的位置。GNSS接收部214在能够从无线通信部210或外部输入输出部213(例如,无线LAN)获取位置信息时,还能够利用该位置信息来检测位置。
动作传感器部215例如具备3轴的加速度传感器等,按照主控制部220的命令,检测智能手机200的物理动向。通过检测智能手机200的物理动向,检测出智能手机200的移动方向或加速度。将该检测结果输出至主控制部220。
电源部216按照主控制部220的命令向智能手机200的各部供给积蓄在电池(未图示)的电力。
主控制部220具备微处理器,按照存储部212所存储的控制程序及控制数据进行动作,从而集中控制智能手机200的各部。并且,主控制部220具备为了通过无线通信部210进行语音通信或数据通信而控制通信系统的各部的移动通信控制功能和应用程序处理功能。
应用程序处理功能通过主控制部220按照存储部212所存储的应用软件进行动作而实现。作为应用程序处理功能,例如有控制外部输入输出部213而与相向设备进行数据通信的红外线通信功能、进行电子邮件的收发的电子邮件功能或浏览网页的网络浏览器功能等。
并且,主控制部220具备根据接收数据或已下载的流数据等图像数据(静止图像或动态图像的数据)而将影像显示于显示输入部204等的图像处理功能。
图像处理功能是指,主控制部220对上述图像数据进行解码,并对该解码结果实施图像处理,从而将图像显示于显示输入部204的功能。
而且,主控制部220执行对显示面板202的显示控制和检测通过操作部207、操作面板203的用户操作的操作检测控制。
通过执行显示控制,主控制部220显示用于启动应用软件的图标或滚动条等软件键,或者显示用于创建电子邮件的窗口。
另外,滚动条是指,关于无法收敛于显示面板202的显示区域的大图像等,用于接收移动图像的显示部分的命令的软件键。
并且,通过执行操作检测控制,主控制部220检测通过操作部207的用户操作,或通过操作面板203接收对上述图标的操作或对上述窗口的输入栏的字符串的输入,或者接收通过滚动条的显示图像的滚动要求。
而且,通过执行操作检测控制,主控制部220具备判定对操作面板203的操作位置是否为与显示面板202重叠的重叠部分(显示区域),或者是否为其以外的不与显示面板202重叠的外缘部分(非显示区域),且控制操作面板203的感应区域或软件键的显示位置的触摸面板控制功能。
并且,主控制部220也能够检测对操作面板203的手势操作,并根据所检测出的手势操作,执行预先设定的功能。
手势操作并不是以往单纯的触摸操作,而是指用手指等描绘轨迹,或同时指定多个位置,或者将这些组合而从多个位置至少对一个描绘轨迹的操作。
相机部208包括除了图1所示的数码相机100中的外部存储器控制部20、记录介质21、显示控制部22、显示部23及操作部14以外的结构。能够将由相机部208生成的摄像图像数据记录在存储部212,或通过外部输入输出部213或无线通信部210输出。
在图18所示的智能手机200中,相机部208搭载于与显示输入部204相同的面,但相机部208的搭载位置并不限定于此,也可以搭载于显示输入部204的背面。
并且,相机部208能够利用于智能手机200的各种功能。例如,能够在显示面板202显示通过相机部208获取的图像,或作为操作面板203的操作输入之一,利用相机部208的图像。
并且,在GNSS接收部214检测位置时,还能够参考来自相机部208的图像来检测位置。而且,还能够参考来自相机部208的图像,不使用3轴加速度传感器,或者与3轴加速度传感器同时使用来判断智能手机200的相机部208的光轴方向,或判断当前的使用环境。当然,还能够在应用软件内利用来自相机部208的图像。
除此以外,能够将通过GNSS接收部214获取的位置信息、通过麦克风206获取的语音信息(通过主控制部等,可以进行语音文本转换而成为文本信息等)、通过动作传感器部215获取的姿势信息等附加于静止图像数据或动态图像数据而存储于存储部212中,或者通过外部输入输出部213或无线通信部210进行输出。
在上述那样的结构的智能手机200中,通过图1所示的系统控制部11进行上述处理,也能够抑制因作为运动物体的被摄体被掩蔽而导致的误动作。
(变形例1)
在上述实施方式中,将在行方向X上检测相位差的情况作为了例子,但在列方向Y上检测相位差的情况下,也同样地能够适用本发明。
(变形例2)
在上述实施方式中,作为AF检测,对由相位差AF处理部19进行相位差AF方式的AF检测的情况进行了说明,但作为AF检测,可以采用对比度AF处理部18通过对比度方式进行AF检测的结构。并且,作为AF检测,也可以采用进行组合了相位差AF方式及对比度方式的AF检测的结构。
如以上说明,本说明书中公开了以下事项。
(1)
一种摄像装置,其具备通过摄像光学系统拍摄被摄体的成像元件、和处理器,
上述处理器进行如下处理:
检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,
根据上述检测处理的结果进行摄像控制。
(2)
根据(1)所述的摄像装置,其中,
上述处理器根据上述多个像素数据中的上述运动物体的各位置坐标,计算上述未来时刻的上述运动物体的上述预测位置坐标。
(3)
根据(1)或(2)所述的摄像装置,其中,
上述处理器根据上述未来时刻之前的多个时刻的上述运动物体的距离的检测结果来计算上述第1距离。
(4)
根据(1)至(3)中任一项所述的摄像装置,其中,
上述处理器计算上述未来时刻之前的时刻的上述物体的距离作为上述第2距离。
(5)
根据(1)至(4)中任一项所述的摄像装置,其中,
上述处理器在上述检测处理中,在上述第1距离比上述第2距离长的情况下,检测上述掩蔽。
(6)
根据(1)至(5)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,在上述未来时刻停止基于上述运动物体的距离的检测结果的上述摄像光学系统的聚焦机构的驱动。
(7)
根据(6)所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,计算上述未来时刻之后的消除上述掩蔽的预测时刻,在上述预测时刻重新开始基于上述运动物体的距离的检测结果的上述摄像光学系统的聚焦机构的驱动。
(8)
根据(1)至(7)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,在上述未来时刻根据上述未来时刻之前的多个时刻的上述运动物体的距离的检测结果,驱动上述摄像光学系统的聚焦机构。
(9)
根据(1)至(8)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的被摄体检测处理。
(10)
根据(1)至(9)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,即使基于在上述未来时刻由上述成像元件获得的像素数据的被摄体检测处理失败,也维持通过基于在上述未来时刻之前由上述成像元件获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。
(11)
根据(1)至(10)中任一项所述的摄像装置,其中,
上述处理器进行如下处理:
在检测出上述掩蔽的情况下,计算上述未来时刻之后的消除上述掩蔽的预测时刻,
计算上述预测时刻的上述运动物体的预测位置坐标,
根据在上述预测时刻由上述成像元件获得的像素数据中的与上述预测时刻的上述运动物体的预测位置坐标对应的数据,进行被摄体检测处理。
(12)
根据(1)至(11)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的图像记录。
(13)
根据(1)至(12)中任一项所述的摄像装置,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的曝光及白平衡中的至少任一者的控制。
(14)
一种摄像装置的摄像方法,所述摄像装置包括通过摄像光学系统拍摄被摄体的成像元件、和处理器,
上述处理器进行如下处理:
检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,
根据上述检测处理的结果进行摄像控制。
(15)
根据(14)所述的摄像方法,其中,
上述处理器根据上述多个像素数据中的上述运动物体的各位置坐标,计算上述未来时刻的上述运动物体的上述预测位置坐标。
(16)
根据(14)或(15)所述的摄像方法,其中,
上述处理器根据上述未来时刻之前的多个时刻的上述运动物体的距离的检测结果来计算上述第1距离。
(17)
根据(14)至(16)中任一项所述的摄像方法,其中,
上述处理器计算上述未来时刻之前的时刻的上述物体的距离作为上述第2距离。
(18)
根据(14)至(17)中任一项所述的摄像方法,其中,
上述处理器在上述检测处理中,在上述第1距离比上述第2距离长的情况下,检测上述掩蔽。
(19)
根据(14)至(18)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,在上述未来时刻停止基于上述运动物体的距离的检测结果的上述摄像光学系统的聚焦机构的驱动。
(20)
根据(19)所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,计算上述未来时刻之后的消除上述掩蔽的预测时刻,在上述预测时刻重新开始基于上述运动物体的距离的检测结果的上述摄像光学系统的聚焦机构的驱动。
(21)
根据(14)至(20)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,在上述未来时刻根据上述未来时刻之前的多个时刻的上述运动物体的距离的检测结果,驱动上述摄像光学系统的聚焦机构。
(22)
根据(14)至(21)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的被摄体检测处理。
(23)
根据(14)至(22)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,即使基于在上述未来时刻由上述成像元件获得的像素数据的被摄体检测处理失败,也维持通过基于在上述未来时刻之前由上述成像元件获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。
(24)
根据(14)至(23)中任一项所述的摄像方法,其中,
上述处理器进行如下处理:
在检测出上述掩蔽的情况下,计算上述未来时刻之后的消除上述掩蔽的预测时刻,
计算上述预测时刻的上述运动物体的预测位置坐标,
根据在上述预测时刻由上述成像元件获得的像素数据中的与上述预测时刻的上述运动物体的预测位置坐标对应的数据,进行被摄体检测处理。
(25)
根据(14)至(24)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的图像记录。
(26)
根据(14)至(25)中任一项所述的摄像方法,其中,
上述处理器在通过上述检测处理检测出上述掩蔽的情况下,停止基于在上述未来时刻由上述成像元件获得的像素数据的曝光及白平衡中的至少任一者的控制。
(27)
一种摄像装置的摄像程序,上述摄像装置包括通过摄像光学系统拍摄被摄体的成像元件、和处理器,上述摄像程序用于使上述处理器执行如下处理:
检测存在于由上述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据第1距离与第2距离的比较结果,进行上述未来时刻的上述物体对上述运动物体的掩蔽的检测处理,上述第1距离是未来时刻的上述运动物体的预测距离,上述第2距离是存在于上述未来时刻的上述运动物体的预测位置坐标中的物体的距离,
根据上述检测处理的结果进行摄像控制。
以上,参考附图对各种实施方式进行了说明,但本发明当然并不限定于该例。只要是本领域技术人员,在专利技术方案中记载的范围内,显然能够想到各种变更例或修正例,应当理解这些当然也属于本发明的技术范围。并且,在不脱离发明的主旨的范围内,可以任意地组合上述实施方式中的各构成要件。
另外,本申请基于2021年1月15日申请的日本专利申请(日本特愿2021-005139),其内容作为参考引用于本申请中。
产业上的可利用性
本发明尤其适用于数码相机等,便利性高且有效。
符号说明
1-成像透镜,4-透镜控制部,5-成像元件,6-模拟信号处理部,7-模拟数字转换电路,8-透镜驱动部,9-光圈驱动部,10-成像元件驱动部,11-系统控制部,14、207-操作部,15-存储器控制部,16-主存储器,17-数字信号处理部,18-对比度AF处理部,19-相位差AF处理部,20-外部存储器控制部,21-记录介质,22-显示控制部,23-显示部,25-数据总线,40-透镜装置,50-受光面,51-像素,53-AF区域,81-运动物体,82-物体,100-数码相机,200-智能手机,201-框体,202-显示面板,203-操作面板,204-显示输入部,205-扬声器,206-麦克风,208-相机部,210-无线通信部,211-通话部,212-存储部,213-外部输入输出部,214-GNSS接收部,215-动作传感器部,216-电源部,217-内部存储部,218-外部存储部,220-主控制部,r1、r2、g1、g2、b1、b2、52A、52B-相位差检测用像素,PD1~P4-像素数据,ST1~STn-GNSS卫星。

Claims (27)

1.一种摄像装置,其具备通过摄像光学系统拍摄被摄体的成像元件、和处理器,
所述处理器进行如下处理:
检测存在于由所述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据未来时刻的所述运动物体的预测距离即第1距离与存在于所述未来时刻的所述运动物体的预测位置坐标中的物体的距离即第2距离的比较结果,进行所述未来时刻的所述物体对所述运动物体的掩蔽的检测处理,
根据所述检测处理的结果进行摄像控制。
2.根据权利要求1所述的摄像装置,其中,
所述处理器根据所述多个像素数据中的所述运动物体的各位置坐标,计算所述未来时刻的所述运动物体的所述预测位置坐标。
3.根据权利要求1或2所述的摄像装置,其中,
所述处理器根据所述未来时刻之前的多个时刻的所述运动物体的距离的检测结果来计算所述第1距离。
4.根据权利要求1至3中任一项所述的摄像装置,其中,
所述处理器计算所述未来时刻之前的时刻的所述物体的距离作为所述第2距离。
5.根据权利要求1至4中任一项所述的摄像装置,其中,
所述处理器在所述检测处理中,在所述第1距离比所述第2距离长的情况下,检测所述掩蔽。
6.根据权利要求1至5中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,在所述未来时刻停止基于所述运动物体的距离的检测结果的所述摄像光学系统的聚焦机构的驱动。
7.根据权利要求6所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,计算所述未来时刻之后的消除所述掩蔽的预测时刻,在所述预测时刻重新开始基于所述运动物体的距离的检测结果的所述摄像光学系统的聚焦机构的驱动。
8.根据权利要求1至7中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,在所述未来时刻根据所述未来时刻之前的多个时刻的所述运动物体的距离的检测结果,驱动所述摄像光学系统的聚焦机构。
9.根据权利要求1至8中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的被摄体检测处理。
10.根据权利要求1至9中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,即使基于在所述未来时刻由所述成像元件获得的像素数据的被摄体检测处理失败,也维持通过基于在所述未来时刻之前由所述成像元件获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。
11.根据权利要求1至10中任一项所述的摄像装置,其中,
所述处理器进行如下处理:
在检测出所述掩蔽的情况下,计算所述未来时刻之后的消除所述掩蔽的预测时刻,
计算所述预测时刻的所述运动物体的预测位置坐标,
根据在所述预测时刻由所述成像元件获得的像素数据中的与所述预测时刻的所述运动物体的预测位置坐标对应的数据,进行被摄体检测处理。
12.根据权利要求1至11中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的图像记录。
13.根据权利要求1至12中任一项所述的摄像装置,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的曝光及白平衡中的至少任一者的控制。
14.一种摄像装置的摄像方法,所述摄像装置包括通过摄像光学系统拍摄被摄体的成像元件和处理器,
所述处理器进行如下处理:
检测存在于由所述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据未来时刻的所述运动物体的预测距离即第1距离与存在于所述未来时刻的所述运动物体的预测位置坐标中的物体的距离即第2距离的比较结果,进行所述未来时刻的所述物体对所述运动物体的掩蔽的检测处理,
根据所述检测处理的结果进行摄像控制。
15.根据权利要求14所述的摄像方法,其中,
所述处理器根据所述多个像素数据中的所述运动物体的各位置坐标,计算所述未来时刻的所述运动物体的所述预测位置坐标。
16.根据权利要求14或15所述的摄像方法,其中,
所述处理器根据所述未来时刻之前的多个时刻的所述运动物体的距离的检测结果来计算所述第1距离。
17.根据权利要求14至16中任一项所述的摄像方法,其中,
所述处理器计算所述未来时刻之前的时刻的所述物体的距离作为所述第2距离。
18.根据权利要求14至17中任一项所述的摄像方法,其中,
所述处理器在所述检测处理中,在所述第1距离比所述第2距离长的情况下,检测所述掩蔽。
19.根据权利要求14至18中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,在所述未来时刻停止基于所述运动物体的距离的检测结果的所述摄像光学系统的聚焦机构的驱动。
20.根据权利要求19所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,计算所述未来时刻之后的消除所述掩蔽的预测时刻,在所述预测时刻重新开始基于所述运动物体的距离的检测结果的所述摄像光学系统的聚焦机构的驱动。
21.根据权利要求14至20中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,在所述未来时刻根据所述未来时刻之前的多个时刻的所述运动物体的距离的检测结果,驱动所述摄像光学系统的聚焦机构。
22.根据权利要求14至21中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的被摄体检测处理。
23.根据权利要求14至22中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,即使基于在所述未来时刻由所述成像元件获得的像素数据的被摄体检测处理失败,也维持通过基于在所述未来时刻之前由所述成像元件获得的像素数据的被摄体检测处理检测出的被摄体的检测状态。
24.根据权利要求14至23中任一项所述的摄像方法,其中,
所述处理器进行如下处理:
在检测出所述掩蔽的情况下,计算所述未来时刻之后的消除所述掩蔽的预测时刻,
计算所述预测时刻的所述运动物体的预测位置坐标,
根据在所述预测时刻由所述成像元件获得的像素数据中的与所述预测时刻的所述运动物体的预测位置坐标对应的数据,进行被摄体检测处理。
25.根据权利要求14至24中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的图像记录。
26.根据权利要求14至25中任一项所述的摄像方法,其中,
所述处理器在通过所述检测处理检测出所述掩蔽的情况下,停止基于在所述未来时刻由所述成像元件获得的像素数据的曝光及白平衡中的至少任一者的控制。
27.一种摄像装置的摄像程序,所述摄像装置包括通过摄像光学系统拍摄被摄体的成像元件、和处理器,所述摄像程序用于使所述处理器执行如下处理:
检测存在于由所述成像元件在不同时刻获得的多个像素数据中的运动物体,
根据未来时刻的所述运动物体的预测距离即第1距离与存在于所述未来时刻的所述运动物体的预测位置坐标中的物体的距离即第2距离的比较结果,进行所述未来时刻的所述物体对所述运动物体的掩蔽的检测处理,根据所述检测处理的结果进行摄像控制。
CN202180090249.4A 2021-01-15 2021-12-22 摄像装置、摄像方法及摄像程序 Pending CN116724261A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021-005139 2021-01-15
JP2021005139 2021-01-15
PCT/JP2021/047737 WO2022153815A1 (ja) 2021-01-15 2021-12-22 撮像装置、撮像方法、及び、撮像プログラム

Publications (1)

Publication Number Publication Date
CN116724261A true CN116724261A (zh) 2023-09-08

Family

ID=82447275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180090249.4A Pending CN116724261A (zh) 2021-01-15 2021-12-22 摄像装置、摄像方法及摄像程序

Country Status (4)

Country Link
US (1) US20230345122A1 (zh)
JP (1) JP7351027B2 (zh)
CN (1) CN116724261A (zh)
WO (1) WO2022153815A1 (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172482B2 (ja) 2008-06-06 2013-03-27 本田技研工業株式会社 車両周辺監視装置
JP6818449B2 (ja) * 2016-06-30 2021-01-20 キヤノン株式会社 焦点検出装置
US20230169674A1 (en) 2020-05-15 2023-06-01 Sony Group Corporation Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
US20230345122A1 (en) 2023-10-26
JPWO2022153815A1 (zh) 2022-07-21
WO2022153815A1 (ja) 2022-07-21
JP7351027B2 (ja) 2023-09-26

Similar Documents

Publication Publication Date Title
US10277802B2 (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging device
US9854151B2 (en) Imaging device and focusing control method
US10564390B2 (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging device
US9794471B2 (en) Imaging device and focusing control method
US11343422B2 (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging device
US9819853B2 (en) Imaging device and focusing control method
US20160205315A1 (en) Imaging device and focusing control method
US20220137329A1 (en) Focusing control device, lens device, imaging device, focusing control method, focusing control program
US10623625B2 (en) Focusing control device, imaging device, focusing control method, and nontransitory computer readable medium
US9900494B2 (en) Imaging device and focus control method
US20160381284A1 (en) Imaging device and focusing control method
CN116724261A (zh) 摄像装置、摄像方法及摄像程序
US10520793B2 (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging device
WO2022145322A1 (ja) 撮像装置、フォーカス制御方法、及び、フォーカス制御プログラム
CN116074625A (zh) 控制装置、摄像装置、控制方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination