CN105376477B - 检测装置以及检测方法 - Google Patents
检测装置以及检测方法 Download PDFInfo
- Publication number
- CN105376477B CN105376477B CN201510477962.0A CN201510477962A CN105376477B CN 105376477 B CN105376477 B CN 105376477B CN 201510477962 A CN201510477962 A CN 201510477962A CN 105376477 B CN105376477 B CN 105376477B
- Authority
- CN
- China
- Prior art keywords
- mentioned
- subject
- test section
- information
- acquisition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/53—Constructional details of electronic viewfinders, e.g. rotatable or detachable
- H04N23/531—Constructional details of electronic viewfinders, e.g. rotatable or detachable being rotatable or detachable
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供检测装置以及检测方法。本发明的课题在于在被摄体的状态的检测时减少误检测。在摄像装置(100)中,具备:检测部(4d),检测显示面板(8a)所显示的摄像图像内的检测区域(T)中的状态;判别部(4b),从该摄像图像中判别出被摄体;取得部(4c),在由判别部(4b)在检测区域(T)的区域外判别出规定被摄体的情况下,取得与该规定的被摄体相关的信息;以及控制部(检测部(4d)),基于由取得部(4c)取得的与规定的被摄体相关的信息,对检测区域(T)的状态的检测进行控制。
Description
本申请主张以2014年8月8日提出的日本专利申请2014-162003以及2014年11月26日提出的日本专利申请2014-238570为基础的优先权,并将这些基础申请的内容全部援用于本申请。
技术领域
本发明涉及检测装置以及检测方法。
背景技术
以往,作为设置于数码相机等摄像装置的功能,例如日本特开2005-333420号公报那样,已知有在摄影画面内的指定区域内检测出被摄体的动作而自动地按下快门的自动摄影功能(以下,称作运动快门)。
然而,运动快门是假定为通过在指定区域内检测出作为被摄体的人的有意图的动作(例如,手的动作等)来实现的。但是,在上述专利文献1所公开的运动快门中,存在的问题为:即使在指定区域内拍摄到被摄体以外的人或者拍摄到树枝随风摆动的情况下,也无法与作为被摄体的人的有意图的动作进行区分,会进行误检测。
发明内容
本发明是鉴于这种问题而完成的,其目的在于,在被摄体的状态的检测时减少误检测。
一种检测装置,其特征在于,具备:
检测部,检测摄像图像内的规定的区域中的状态;
判别部,从上述摄像图像中判别被摄体;
取得部,在通过上述判别部在上述规定的区域外判别出规定的被摄体的情况下,取得与该规定的被摄体相关的信息;以及
控制部,基于由上述取得部取得的与规定的被摄体相关的信息,控制上述检测部对上述规定的区域中的状态进行的检测。
一种检测装置,其特征在于,具备:
检测部,检测摄像图像内的规定的区域中的状态变化;
取得部,取得由上述检测部在上述规定的区域内检测到状态变化时的、与到检测到该状态变化的位置为止的聚焦距离相关的聚焦距离信息;以及
判定部,基于由上述取得部取得的聚焦距离信息,判定由上述检测部检测到的状态变化是否是有意的。
一种检测方法,其特征在于,包括:
检测摄像图像内的规定的区域中的状态的处理;
从上述摄像图像中判别被摄体的处理;
在上述规定的区域外判别出规定的被摄体的情况下,取得与该规定的被摄体相关的信息的处理;以及
基于与上述规定的被摄体相关的信息,控制上述规定的区域中的状态的检测的处理。
一种检测方法,其特征在于,包括:
检测摄像图像内的规定的区域中的状态变化的处理;
取得在上述规定的区域内检测到状态变化时的、与到检测到该状态变化的位置为止的聚焦距离相关的聚焦距离信息的处理;以及
基于所取得的聚焦距离信息,判定所检测出的状态变化是否是有意的处理。
本发明的其它目的和优点将在下面的详细说明部分中列出,并且它们根据说明部分也是显而易见的,或者可以通过实施本发明来获悉。本发明的目的和优点可以借助于下面具体给出的手段和组合方式来实现和获得。
附图说明
当与以下的附图相配合地考虑以下的详细叙述时,能够更深刻地理解本发明。
图1是表示应用了本发明的实施方式1的摄像装置的概要构成的框图。
图2A、图2B是示意地表示图1的摄像装置的立体图。
图3是表示图1的摄像装置的检测条件表的一例的图。
图4是表示图1的摄像装置的运动快门处理的动作的一例的流程图。
图5是表示图4的运动快门处理中的检测处理1的动作的一例的流程图。
图6是表示图4的运动快门处理中的检测处理2的动作的一例的流程图。
图7A、图7B、图7C是示意地表示图4的运动快门处理的实时查看图像(live viewimage)的一例的图。
图8A、图8B是用于对检测区域内的物体的动作的一例进行说明的图。
图9是表示实施方式2的检测处理1的动作的一例的流程图。
图10是表示实施方式2的检测处理2的动作的一例的流程图。
图11是表示实施方式2的变形例的检测处理1的动作的一例的流程图。
图12是表示实施方式2的变形例的检测处理2的动作的一例的流程图。
图13是表示实施方式3的运动快门处理的动作的一例的流程图。
具体实施方式
[实施方式1]
以下,使用附图对本发明的具体方式进行说明。但是,发明的范围并不限定于图示例。
图1是表示应用了本发明的检测装置的实施方式1的摄像装置100的概要构成的框图。此外,图2A是示意地表示图1的摄像装置100的立体图,图2B是示意地表示使摄像装置100的显示面板8a转动180°的状态的立体图。
如图1所示,本实施方式的摄像装置100具备中央控制部1、存储器2、摄像部3、摄像控制部4、图像数据生成部5、存储部6、图像记录部7、显示部8以及操作输入部9。
此外,中央控制部1、存储器2、摄像部3、摄像控制部4、图像数据生成部5、存储部6、图像记录部7以及显示部8经由总线10连接。
此外,如图2A以及图2B所示,摄像装置100为,在具备摄像部3(尤其是透镜部3a;后述)的装置主体部100A上,经由规定的转动机构(例如,铰接机构等)安装有显示部8的显示面板8a。具体而言,显示面板8a以绕与光轴X方向大致正交的一个轴(例如,水平方向的轴等)大致180°转动自如的方式轴支承于装置主体部100A。即,通过使显示面板8a相对于装置主体部100A相对地转动大致180°,由此能够配置为使显示面板8a的显示方向与摄像部3的摄像方向大致相同,即,使显示面板8a与透镜部3a的露出面相同地面向被摄体侧(参照图2B)。并且,在使显示面板8a成为与透镜部3a的露出面为相同侧的状态下,用户能够在目视确认显示面板8a所显示的包含用户本身的图像的同时,进行所谓的自拍。
另外,显示面板8a例如也可以相对于装置主体部100A以绕与光轴X方向大致正交的垂直方向的轴大致180°转动自如的方式轴支承,在该情况下,在使显示面板8a成为与透镜部3a的露出面为相同侧的状态下,也能够进行所谓的自拍。
中央控制部1对摄像装置100的各部进行控制。具体而言,虽然省略图示,但中央控制部1具备CPU(Central Processing Unit)、RAM(Random Access Memory)、以及ROM(ReadOnly Memory),并按照摄像装置100用的各种处理程序(省略图示)来进行各种控制动作。
存储器2例如由DRAM(Dynamic Random Access Memory)等构成,暂时地存储由中央控制部1、摄像控制部4等的各部处理的数据等。
摄像部(摄像单元)3对被摄体进行摄像。具体而言,摄像部3具备透镜部3a以及电子摄像部3b。
透镜部3a例如由透镜、聚焦透镜等多个透镜构成。
电子摄像部3b例如由CMOS(Complementary Metal-oxide Semiconductor)、CCD(Charge Coupled Device)等图像传感器构成,将通过了透镜部3a的各种透镜的光学像转换成二维的图像信号。
另外,虽然省略图示,但摄像部3也可以具备对通过透镜部3a的光量进行调整的光圈。
摄像控制部4控制由摄像部3对被摄体进行的摄像。
虽然省略图示,但摄像控制部4具备定时信号发生器以及驱动器等。摄像控制部4通过定时信号发生器、驱动器对电子摄像部3b进行扫描驱动,按照每规定周期而通过电子摄像部3b将光学像转换成二维的图像信号,从该电子摄像部3b的摄像区域每次一个画面量地读出帧图像,使其朝图像数据生成部5输出。此外,摄像控制部4进行AF(自动聚焦处理)、AE(自动曝光处理)、AWB(自动白平衡)等、对被摄体进行摄像时的条件的调整控制。
此外,在本实施方式中,摄像控制部4具备状态判定部4a、判别部4b、取得部4c、检测部4d以及开始控制部4e。
另外,摄像控制部4的各部例如由规定的逻辑电路构成,但该构成仅为一例,并不限定于此。
状态判定部4a对该摄像装置100的状态进行判定。
即,状态判定部4a判定是否处于能够使由摄像部3摄像而显示于显示部8的被摄体的图像由该被摄体本身目视确认的规定的状态(所谓的自拍的状态)。
具体而言,在摄像部3对被摄体进行摄像时,状态判定部4a判定是否处于摄像部3的摄像方向(透镜部3a的露出方向)与显示面板8a的显示方向大致相同的状态。例如,状态判定部4a基于机械地检测显示面板8a相对于装置主体部100A转动了大致180°的情况的开关(省略图示)的检测信号、检测显示面板8a相对于重力方向的倾斜的传感器(例如,加速度传感器等;省略图示)的检测信号的输入,来判定摄像部3的摄像方向与显示面板8a的显示方向是否大致相同。
并且,状态判定部4a在判定为摄像部3的摄像方向与显示面板8a的显示方向大致相同的情况下,确定为处于能够使由摄像部3摄像而显示于显示部8的被摄体的图像由该被摄体本身目视确认的规定的状态。
判别部(判别单元)4b从显示面板8a所显示的实时查看图像L(参照图7A)中判别被摄体。
在本实施方式中,判别部4b进行规定的面部检测处理,从逐次显示的实时查看图像L内检测包含人的面部的面部区域F(参照图7A)。在检测到面部区域F的情况下,判别部4b将人判别为被摄体。此外,在检测到面部区域F的情况下,判别部4b将面部区域F的图像数据与面部图像数据文件6a(后述)所存储的与特定人物的面部相关的面部图像数据进行对照,对被判别为被摄体的人是否是特定人物进行判别。并且,在面部区域F的图像数据和与特定人物的面部相关的面部图像数据一致的情况下,判别部4b将特定人物判别为被摄体。
另外,上述面部检测处理是公知技术,因此在此省略详细的说明。
在通过判别部4b而人被判别为被摄体的情况下,取得部(取得单元)4c取得与该人相关的信息。
在本实施方式中,在通过判别部4b而人被判别为被摄体的情况下,取得部4c取得与该人的聚焦距离、即从摄像装置100到被判别为被摄体的人为止的距离相关的聚焦距离信息,作为与该人相关的信息。在摄像控制部4对被判别为被摄体的人进行AF控制时,取得该聚焦距离信息。
此外,在通过判别部4b而人被判别为被摄体的情况下,取得部4c取得与该人的特征颜色相关的特征颜色信息,作为与该人相关的信息。
在本实施方式中,取得部4c取得与该人的皮肤的颜色相关的特征颜色信息,作为人的特征颜色。具体而言,取得部4c从由判别部4b检测到的面部区域F(参照图7A)中仅提取标准的肤色以及与该肤色近似的颜色(近似颜色)的区域,即,将头发、眉毛、眼睛、嘴唇等区域排除在外,计算所提取的区域的颜色的平均值(RGB值)。并且,取得部4c取得该平均值、即与面部的肤色的RGB值相关的数据(与人的肤色相关的特征颜色信息)。另外,在计算上述平均值的情况下,也可以根据所提取的区域的色调值(°)进行计算。
此外,在本实施方式中,取得部4c取得与该人的衣服的颜色相关的特征颜色信息,作为人的特征颜色。具体而言,取得部4c提取由判别部4b判别的人的区域中、与不同于面部区域F的肤色区域H(参照图7A)的上侧邻接的规定面积以上的区域,并计算所提取的区域的RGB值。并且,取得部4c取得与该RGB值、即被推测为衣服的区域的颜色的RGB值相关的数据(与人的衣服的颜色相关的特征颜色信息)。另外,在由判别部4b判别的人的区域内包含多个肤色区域的情况下,将更接近该人的面部区域F的肤色区域作为对象。此外,与人的衣服的颜色相关的特征颜色信息,并不限定于与RGB值相关的数据,也可以是与色调值(°)相关的数据。
此外,在通过判别部4b而人被判别为被摄体的情况下,取得部4c取得与根据该人的面部大小而推测的手的大小相关的手尺寸信息,作为与该人相关的信息。
具体而言,取得部4c通过将由判别部4b判别的人的面部区域F的纵向的长度与用于计算手的大小的规定比率相乘,由此取得与根据该人的面部区域F而推测的手的大小相关的手尺寸信息。此处,手的大小例如用从中指的前端到手掌的根部为止的长度(pixels)表示。
此外,在由判别部4b判别为被摄体的人是特定的人物的情况下,取得部4c取得与该特定的人物建立对应而预先存储的特定信息。
具体而言,在由判别部4b判别的人的面部区域F的图像数据与存储部6(后述)所存储的与特定的人物的面部相关的面部图像数据一致的情况下,取得部4c从检测条件表6b(后述)取得和与该特定的人物建立对应的检测条件A相关的信息,作为特定信息。如图3所示,例如,在通过判别部4b而特定的人物a被判别为被摄体的情况下,取得部4c取得和与特定的人物a建立对应的检测条件A(检测区域(规定的区域)T(参照图7)内的手的上下方向的动作)相关的信息,作为特定信息。
检测部(检测单元、控制单元)4d基于由取得部4c取得的与人相关的信息来设定检测条件,在该检测条件下,在显示面板8a所显示的实时查看图像L内的检测区域(规定的区域)T(参照图7)中,对被摄体的状态变化进行检测。另外,检测区域T的位置以及范围能够适当任意地变更,例如能够基于用户对操作部进行的规定操作来进行指定,也能够将显示面板8a的显示画面整体指定为检测区域。此外,通过使判别部4b将人判别为被摄体的区域成为检测区域(规定的区域)T的区域外,由此能够在检测区域T中更高精度地检测出被摄体的状态变化。
后述的存储部6所包含的图3所示的检测条件表6b,对由检测部4d检测被摄体的状态变化时的检测条件进行定义。
在检测条件表6b中,定义有检测条件1~4以及检测条件A。
具体而言,在检测条件1中,成为离被摄体聚焦距离为规定的距离的范围内(被摄体聚焦距离(m)±s(m))。此处,规定的距离是指实时查看图像L的进深方向上的距离,作为规定的距离,设定有作为被摄体的人的手能够达到的距离(例如,1m)。
在检测条件2中,成为与由判别部4b判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内(面部的肤色的RGB值±t)。
在检测条件3中,成为与手的大小大致相同的范围内(手的大小(pixels)±v(pixels))。
在检测条件4中,成为与由判别部4b判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内(衣服的颜色的RGB值±p)。
在检测条件A中,例如成为:在特定的人物a的情况下,检测出检测区域T内的从上向下的动作(特定信息);此外,在特定的人物b的情况下,检测出检测区域T内的从下向上的动作(特定信息);此外,在特定的人物c的情况下,检测出检测区域T内的上→下→上的动作(特定信息);此外,在特定的人物d的情况下,检测出检测区域T内的下→上→下的动作(特定信息);……等。
检测部4d参照图3所示的检测条件表6b,首先,通过将由取得部4c取得的具体的聚焦距离信息适用于检测条件1的条件内容,由此设定检测条件1(离被摄体聚焦距离为规定的距离的范围内(被摄体聚焦距离(m)±s(m)))。另外,“s”的值能够适当任意地变更,例如能够基于用户对操作部进行的规定操作来进行指定。此外,“s”的值也可以不是绝对数而是比率(%)。
接着,检测部4d通过将由取得部4c取得的与具体的面部的肤色的RGB值相关的数据适用于图3所示的检测条件表6b的检测条件2的条件内容,由此设定检测条件2(与由判别部4b判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内(面部的肤色的RGB值±t))。另外,作为检测条件2的条件内容,也可以代替“面部的肤色的RGB值±t”而使用“面部的皮肤的颜色的色调值±u(°)”。此外,“t”、“u”的值与上述“s”的值同样,能够适当任意地变更。此外,“t”、“u”的值也可以不是绝对数而是比率(%)。
接着,检测部4d通过将由取得部4c取得的与具体的手的大小相关的手尺寸信息适用于图3所示的检测条件表6b的检测条件3的条件内容,由此设定检测条件3(与手的大小大致相同的范围内(手的大小(pixels)±v(pixels)))。另外,“v”的值与上述“s”的值同样,能够适当任意地变更。此外,“v”的值也可以不是绝对数而是比率(%)。
接着,检测部4d通过将由取得部4c取得的与被推测为具体的衣服的区域的颜色的RGB值相关的数据适用于图3所示的检测条件表6b的检测条件4的条件内容,由此设定检测条件4(与由判别部4b判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内(衣服的颜色的RGB值±p))。另外,作为检测条件4的条件内容,也可以代替“衣服的颜色的RGB值±p”而使用“衣服的颜色的色调值±q(°)”。此外,“p”、“q”的值与上述“s”的值同样,能够适当任意地变更。此外,“p”、“q”的值也可以不是绝对数而是比率(%)。
接着,如图7A所示,检测部4d基于在逐次显示的实时查看图像L内OSD(On ScreenDisplay)显示有开始指标M的检测区域T内的像素值的变动,对图像的变化进行检测。并且,如图7B以及图7C所示,在检测到图像的变化的情况下,检测部4d判定此时存在于检测区域T的物体是否满足上述检测条件1、即该物体是否处于离被摄体聚焦距离为规定的距离的范围内。此处,例如通过由摄像控制部4进行相对于该物体的AF控制,由此进行到该物体的距离的测定。并且,在判定为满足检测条件1的情况(例如,图7B的情况)下,检测部4d判定是否满足检测条件2~4中的任意一个条件,即,该物体的颜色是否在与由判别部4b判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内、该物体的大小是否在与手的大小大致相同的范围内、该物体的颜色是否在与由判别部4b判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内。并且,在判定为满足检测条件2~4中的任意一个条件的情况下,检测部4d判断为由判别部4b判别的人(被摄体)存在动作。另一方面,在判定为不满足检测条件1的情况(例如,图7C的情况)下、或者判定为虽然满足检测条件1但不满足检测条件2~4的任意一个条件的情况下,检测部4d判断为由判别部4b判别的人(被摄体)不存在动作。
此外,在由判别部4b判别为被摄体的人为特定的人物、且由取得部4c取得有特定信息的情况下,检测部4d设定上述检测条件1~4,并且基于该特定信息来取得(设定)检测条件A。并且,在判定为满足检测条件1并且满足检测条件2~4的任意一个条件、并进一步满足检测条件A的情况下,检测部4d判断为由判别部4b判别的特定的人物(被摄体)存在动作。另一方面,在判定为不满足检测条件1的情况下,在判定为虽然满足检测条件1但不满足检测条件2~4的任意一个条件的情况下,或者在判定为虽然满足检测条件1并且满足检测条件2~4的任意一个条件但不满足检测条件A的情况下,检测部4d判断为由判别部4b判别的特定的人物(被摄体)不存在动作。
开始控制部(执行单元)4e执行由摄像部3进行的被摄体的摄像图像的摄影处理。
在本实施方式中,在由检测部4d判断为由判别部4b判别的人或者特定的人物存在动作的情况下,开始控制部4e执行由摄像部3进行的被摄体的摄像图像的摄影处理。
具体而言,在虽然通过判别部4b而人被判别为被摄体但并未判别为该人是特定的人物的情况下,在由检测部4d判定为满足检测条件1并且满足检测条件2~4中的任意一个条件时,开始控制部(执行单元)4e执行由摄像部3进行的被摄体的摄像图像的摄影处理。另一方面,在通过判别部4b而特定的人物被判别为被摄体的情况下,在由检测部4d判定为满足检测条件1并且满足检测条件2~4中的任意一个条件、并进一步满足检测条件A时,开始控制部4e执行由摄像部3进行的被摄体的摄像图像的摄影处理。
图像数据生成部5为,在对于从电子摄像部3b传送的帧图像的模拟值的信号、按照每个RGB的颜色成分来适当地进行了增益调整之后,通过取样保持电路(省略图示)进行取样保持而通过A/D转换器(省略图示)转换成数字数据,通过彩色处理电路(省略图示)进行包括像素插补处理以及γ校正处理的彩色处理,之后,生成数字值的亮度信号Y以及色差信号Cb、Cr(YUV数据)。
此外,图像数据生成部5将所生成的图像数据传送至被用作为缓冲存储器的存储器2、图像记录部7。
存储部6为可读写的非易失性的存储器,例如是闪存器、EEPROM(ElectricallyErasable and Programmable Read Only Memory)。在该存储部6中存储有面部图像数据文件6a、检测条件表6b等。
在面部图像数据文件6a中,建立对应地存储有特定的人物a、b、c、d…的名字、以及该特定的人物a、b、c、d…的面部图像数据等。在本实施方式中,通过由判别部4b对由判别部4b检测到的面部区域F的图像数据与面部图像数据文件6a所存储的面部图像数据进行对照,由此能够确定由判别部4b判别的人。
如上述那样,检测条件表6b对由检测部4d检测被摄体的状态变化时的检测条件进行定义。
图像记录部7例如由非易失性存储器(闪存器)等构成。此外,图像记录部7记录由图像数据生成部5的编码部(省略图示)以规定的编码方式所编码的各种图像的图像数据。
在本实施方式中,图像记录部7例如记录由开始控制部4e在执行摄影处理时摄像的图像的图像数据等。
另外,图像记录部7例如也可以构成为,记录介质(省略图示)构成为拆装自如,对从所安装的记录介质的数据的读出、对记录介质的数据的写入进行控制。
显示部8显示静止图像、动态图像。具体而言,显示部8具备显示面板8a以及显示控制部8b。
显示面板8a在显示区域内显示图像。具体而言,显示面板8a在静止图像摄像模式、动态图像摄像模式下将通过摄像部3对被摄体进行摄像而生成的多个图像帧以规定的再生帧频率逐次更新,并同时显示实时查看图像L。
另外,作为显示面板8a,例如能够举出液晶显示面板、有机EL显示面板等,但这仅为一例而并不限定于此。
显示控制部8b基于从存储器2、图像记录部7读出并译码的规定尺寸的图像数据,进行使规定的图像显示于显示面板8a的显示画面的控制。具体而言,显示控制部8b具备VRAM(Video Random Access Memory)、VRAM控制器、数字视频编码器等。并且,数字视频编码器在中央控制部1的控制下,将从存储器2读出而存储于VRAM(省略图示)的亮度信号Y以及色差信号Cb、Cr,经由VRAM控制器从VRAM读出,并基于这些数据产生视频信号而向显示面板8a输出。
此外,在本实施方式中,当由状态判定部4a判定为摄像部3的摄像方向与显示面板8a的显示方向大致相同时,显示控制部8b将由摄像部3摄像而由图像数据生成部5生成的多个图像帧以规定的再生帧频率逐次更新,并同时使实时查看图像L显示于显示面板8a,并且读出而取得规定的存储单元(例如,存储器2等)所存储的指示摄像开始的开始指标M等图像数据,使其与实时查看图像L重叠而进行OSD(On Screen Display)显示(参照图7A)。
操作输入部9用于对装置主体输入各种指示。
具体而言,操作输入部9例如具备操作部(省略图示),该操作部具备快门按钮、与动作模式、功能等的选择指示相关的上下左右的光标按钮、以及决定按钮等。
并且,当用户对操作部的各种按钮进行操作时,操作输入部9将与被操作的按钮相应的操作指示输出至中央控制部1。中央控制部1根据从操作输入部9输出并输入的操作指示,使各部执行规定的动作(例如,被摄体的摄像等)。
另外,操作输入部9也可以构成为,具有与显示部8的显示面板8a成为一体地设置的触摸面板(省略图示)。
<运动快门处理>
接着,参照图4对本实施方式的摄像装置100的运动快门处理进行说明。
图4是表示运动快门处理的动作的一例的流程图。
如图4所示,首先,状态判定部4a判定是否为摄像部3的摄像方向与显示面板8a的显示方向大致相同的状态(步骤S1)。即,状态判定部4a判定是否为显示面板8a相对于装置主体部100A转动了大致180°的状态。
在步骤S1中,当判定为摄像部3的摄像方向与显示面板8a的显示方向大致相同时(步骤S1:是),显示控制部8b将由摄像部3摄像而由图像数据生成部5生成的多个图像帧以规定的再生帧频率逐次更新,并同时使实时查看图像L显示于显示面板8a,并且读出而取得规定的存储单元(例如,存储器2等)所存储的指示摄像开始的开始指标M等图像数据,并使其与实时查看图像L重叠而进行OSD显示(步骤S2;参照图7A)。另一方面,在步骤S1中,当判定为摄像部3的摄像方向与显示面板8a的显示方向不大致相同时(步骤S1:否),结束运动快门处理。
接着,判别部4b进行规定的面部检测处理,从显示于显示面板8a的实时查看图像L中判别被摄体(步骤S3)。
并且,当在规定时间内作为被摄体而没有判别为人时(步骤S4:否),结束运动快门处理。另一方面,当在规定时间内人被判别为被摄体时(步骤S4:是),判别部4b判定被判别为被摄体的人是否为特定的人物(步骤S5)。
在步骤S5中,在无法在规定时间内判别被判别为被摄体的人是否为特定的人物的情况下(步骤S5:否),执行检测处理1(步骤S6)、摄影处理(步骤S8),并结束运动快门处理。另外,对于检测处理1将后述。
另一方面,在步骤S5中,在规定时间内能够判别被判别为被摄体的人是否为特定的人物的情况下(步骤S5:是),执行检测处理2(步骤S7)、摄影处理(步骤S8),并结束运动快门处理。另外,对于检测处理2将后述。
<检测处理1>
接着,参照图5对检测处理1进行详细说明。
图5是表示检测处理1的动作的一例的流程图。
如图5所示,首先,检测部4d通过将由取得部4c取得的具体的聚焦距离信息适用于检测条件表6b的检测条件1的条件内容,由此设定检测条件1(步骤S11)。
接着,检测部4d通过将由取得部4c取得的与具体的面部的肤色的RGB值相关的数据适用于检测条件表6b的检测条件2的条件内容,由此设定检测条件2(步骤S12)。
接着,检测部4d通过将由取得部4c取得的与具体的手的大小相关的手尺寸信息适用于检测条件表6b的检测条件3的条件内容,由此设定检测条件3(步骤S13)。
接着,检测部4d通过将由取得部4c取得的与被推测为具体的衣服的区域的颜色的RGB值相关的数据适用于检测条件表6b的检测条件4的条件内容,由此设定检测条件4(步骤S14)。
接着,检测部4d基于在实时查看图像L内、OSD显示有开始指标M的检测区域T内的像素值的变动,来判定在检测区域T内是否检测到物体的动作(步骤S15)。
在步骤S15中,在判定为在检测区域T内没有检测到物体的动作的情况下(步骤S15:否),检测部4d反复执行步骤S15的处理。另一方面,在步骤S15中,在判定为在检测区域T内检测到物体的动作的情况下(步骤S15:是),检测部4d判定是否满足检测条件1、即该物体是否处于离被摄体聚焦距离为规定的距离的范围内(步骤S16)。
在步骤S16中,在判定为不满足检测条件1的情况下(步骤S16:否),检测部4d返回到步骤S15的处理,继续判定在检测区域T内是否检测到物体的动作(步骤S15)。另一方面,在步骤S16中,在判定为满足检测条件1的情况下(步骤S16:是),检测部4d判定是否满足检测条件2、即该物体的颜色是否在与由判别部4b判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内(步骤S17)。
在步骤S17中,在判定为满足检测条件2的情况下(步骤S17:是),结束检测处理1。另一方面,在步骤S17中,在判定为不满足检测条件2的情况下(步骤S17:否),检测部4d判定是否满足检测条件3、即该物体的大小是否在与手的大小为大致相同的范围内(步骤S18)。
在步骤S18中,在判定为满足检测条件3的情况下(步骤S18:是),结束检测处理1。另一方面,在步骤S18中,在判定为不满足检测条件3的情况下(步骤S18:否),检测部4d判定是否满足检测条件4、即该物体的颜色是否在与由判别部4b判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内(步骤S19)。
在步骤S19中,在判定为满足检测条件4的情况下(步骤S19:是),结束检测处理1。另一方面,在步骤S19中,在判定为不满足检测条件4的情况下(步骤S19:否),返回到步骤S15,检测部4d继续判定在检测区域T内是否检测到物体的动作(步骤S15)。另外,在即便经过规定时间检测处理1也未结束的情况下,结束运动快门处理。
<检测处理2>
接着,参照图6对检测处理2进行详细说明。
图6是表示检测处理2的动作的一例的流程图。在检测处理2中,除了步骤S25的取得检测条件A的处理、以及步骤S31的是否满足检测条件A的判定处理以外,执行与上述检测处理1相同的处理。
如图6所示,检测部4d与检测处理1同样地设定检测条件1~4(步骤S21~步骤S24)。接着,检测部4d取得基于由取得部4c取得的特定信息的检测条件A(步骤S25)。
接着,检测部4d与检测处理1同样地,基于在实时查看图像L内、OSD显示有开始指标M的检测区域T内的像素值的变动,来判定在检测区域T内是否检测到物体的动作(步骤S26)。
在步骤S26中,在判定为在检测区域T内没有检测到物体的动作的情况下(步骤S26:否),检测部4d反复执行步骤S26的处理。另一方面,在步骤S26中,在判定为在检测区域T内检测到物体的动作的情况下(步骤S26:是),检测部4d判定是否满足检测条件1(步骤S27)。
在步骤S27中,在判定为不满足检测条件1的情况下(步骤S27:否),检测部4d返回到步骤S26的处理,继续判定在检测区域T内是否检测到物体的动作(步骤S26)。另一方面,在步骤S27中,在判定为满足检测条件1的情况下(步骤S27:是),检测部4d判定是否满足检测条件2(步骤S28)。
在步骤S28中,在判定为满足检测条件2的情况下(步骤S28:是),转移到步骤S31。另一方面,在步骤S28中,在判定为不满足检测条件2的情况下(步骤S28:否),检测部4d判定是否满足检测条件3(步骤S29)。
在步骤S29中,在判定为满足检测条件3的情况下(步骤S29:是),转移到步骤S31。另一方面,在步骤S29中,在判定为不满足检测条件3的情况下(步骤S29:否),检测部4d判定是否满足检测条件4(步骤S30)。
在步骤S30中,在判定为满足检测条件4的情况下(步骤S30:是),转移到步骤S31。另一方面,在步骤S30中,在判定为不满足检测条件4的情况下(步骤S30:否),返回到步骤S26,检测部4d执行其以后的处理。
接着,在步骤S31中,检测部4d判定是否满足检测条件A(步骤S31)。此处,在判定为满足检测条件A的情况下(步骤S31:是),结束检测处理2。另一方面,在判定为不满足检测条件A的情况下(步骤S31:否),返回到步骤S26,检测部4d执行其以后的处理。另外,在即便经过规定时间检测处理2也未结束的情况下,结束运动快门处理。
如以上那样,根据本实施方式的摄像装置100,在通过运动快门处理对作为被摄体的人进行摄像的情况(例如,进行自拍的情况)下,在实时查看图像L内、OSD显示有开始指标M的检测区域T内,基于与该人相关的信息来设定检测条件,在该检测条件下检测规定的物体的状态变化。
因此,在检测区域T内拍摄到不满足检测条件的人、物的情况下,能够防止该人、物的状态变化被检测,因此能够仅适当地检测满足该检测条件的规定的物体的状态变化。
具体而言,在本实施方式中,基于与被判别为被摄体的人的聚焦距离相关的聚焦距离信息,来设定检测条件1(处于离被摄体聚焦距离为规定的距离的范围内),在该检测条件1下检测规定的物体的状态变化。
因此,能够将未处于离被摄体聚焦距离为规定的距离的范围内的物体的状态变化从检测对象排除,因此例如能够防止由于其他人、车等在作为被摄体的人的后方通过而导致的误检测。
此外,在本实施方式中,基于与被判别为被摄体的人的皮肤的颜色相关的特征颜色信息,来进一步设定检测条件2(在与被判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内),在该检测条件2下检测规定的物体的状态变化。
因此,在即便是满足上述检测条件1的物体、但该物体的颜色不在与被判别为被摄体的人的皮肤的颜色为相同颜色或者类似颜色的范围内的情况下,能够将该物体的状态变化从检测对象排除,因此能够更可靠地防止误检测。
此外,在本实施方式中,基于与根据被判别为被摄体的人的面部的大小而推测的手的大小相关的手尺寸信息,进一步设定检测条件3(在与手的大小大致相同的范围内),在该检测条件3下检测规定的物体的状态变化。
因此,在即便是满足上述检测条件1的物体、但该物体的大小不在与被判别为被摄体的人的手的大小大致相同的范围内的情况下,能够将该物体的状态变化从检测对象排除,因此能够更可靠地防止误检测。
此外,在本实施方式中,基于与被判别为被摄体的人的衣服的颜色相关的特征颜色信息,进一步设定检测条件4(在与被判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内),在该检测条件4下检测规定的物体的状态变化。
因此,在即便是满足上述检测条件1的物体、但该物体的颜色不在与被判别为被摄体的人的衣服的颜色为相同颜色或者类似颜色的范围内的情况下,能够将该物体的状态变化从检测对象排除,因此能够更可靠地防止误检测。
此外,在本实施方式中,在被判别为被摄体的人为特定的人物的情况下,基于与该特定的人物建立对应地预先存储的特定信息,进一步设定检测条件A(例如,在特定的人物a的情况下,检测出检测区域T内的从上向下的动作),在该检测条件A下检测规定的物体的状态变化。
因此,在即便是满足上述检测条件1、以及检测条件2~4的任意一个条件的物体的状态变化、但该物体的动作不满足检测条件A的情况下,能够将该物体的状态变化从检测对象排除,能够更可靠地防止误检测。
此外,在本实施方式中,与被判别为被摄体的人的位置无关地设定实时查看图像L内的检测区域T的位置。
因此,能够在用户所希望的位置设定检测区域T,因此能够在用户所希望的位置检测规定的物体的状态变化,作为被摄体的人能够以所希望的姿势进行摄影。
〔实施方式2〕
接着,对实施方式2的摄像装置200进行说明。另外,基本上具有与实施方式1的摄像装置100相同的构成,以下,对于具有相同构成的部分赋予相同符号而省略说明,主要对不同的部分进行说明。
实施方式2的摄像装置200的特征在于,基于聚焦距离信息以及焦点距离信息,使进行运动检测(检测处理1(参照图9)、检测处理2(参照图10))时的阈值(动作检测灵敏度)变化。
以下,对本实施方式的检测部4d进行说明。
本实施方式的检测部4d基于与从摄像装置200到由判别部4b判别为被摄体的人为止的距离(聚焦距离)相关的聚焦距离信息、以及对该人执行了AF控制时的与透镜部3a的透镜的焦点距离相关的焦点距离信息,来设定在实时查看图像L内的检测区域T中检测状态时的阈值。
具体而言,检测部4d将上述聚焦距离的值的倒数、上述焦点距离的值及规定的系数相乘而得到的值设定为阈值。并且,在由摄像部3摄像的多个图像帧之间的检测区域T的像素值(亮度、颜色)的变化量为上述阈值以上的情况下,检测部4d判断为在实时查看图像L内的检测区域T中存在状态变化。
例如,如图8B所示,在从摄像装置200到作为被摄体的人(男孩)为止的聚焦距离与图8A相比更长、并且与图8A相比焦点距离更短的情况下,阈值与图8A相比变小。由此,如图8B所示,在作为被摄体的男孩的手的摆动幅度与图8A相比更小、即实时查看图像L内的检测区域T中的像素值的变化量更小的情况下,能够通过降低阈值(提高动作检测灵敏度)来检测该男孩的手的动作(状态变化)。
<检测处理1>
图9是表示实施方式2的检测处理1的流程图。
如图9所示,在实施方式2的检测处理1中,与上述实施方式1的情况相同,在进行了步骤S11的处理之后,检测部4d取得进行了与从摄像装置200到被判别为被摄体的人为止的距离相关的聚焦距离信息的取得(AF控制)时的与透镜部3a的透镜的焦点距离相关的焦点距离信息(步骤S201)。接着,检测部4d将所取得的聚焦距离的值的倒数、焦点距离的值及规定的系数相乘而得到的值设定为阈值(步骤S202)。接着,检测部4d与上述实施方式1的情况相同地进行步骤S12~步骤S14的处理。
接着,检测部4d基于在实时查看图像L内OSD显示有开始指标M的检测区域T内的像素值的变动,来判定是否在检测区域T内检测到物体的阈值以上的动作(步骤S203)。
在步骤S203中,在判定为在检测区域T内未检测到物体的阈值以上的动作的情况下(步骤S203:否),检测部4d反复执行步骤S203的处理。另一方面,在步骤S203中,在判定为在检测区域T内检测到物体的阈值以上的动作的情况下(步骤S203:是),检测部4d执行以后(步骤S16~步骤S19)的处理而结束检测处理1。
<检测处理2>
图10是表示实施方式2的检测处理2的流程图。
如图10所示,在实施方式2的检测处理2中,与上述实施方式1的情况相同,在进行了步骤S21的处理之后,检测部4d取得进行了与从摄像装置200到被判别为被摄体的人为止的距离相关的聚焦距离信息的取得(AF控制)时的与透镜部3a的透镜的焦点距离相关的焦点距离信息(步骤S211)。接着,检测部4d将所取得的聚焦距离的值的倒数、焦点距离的值及规定的系数相乘而得到的值设定为阈值(步骤S212)。接着,检测部4d与上述实施方式1的情况相同地执行步骤S21~步骤S25的处理。
接着,检测部4d基于在实时查看图像L内OSD显示有开始指标M的检测区域T内的像素值的变动,来判定是否在检测区域T内检测到物体的阈值以上的动作(步骤S213)。
在步骤S213中,在判定为在检测区域T内未检测到物体的阈值以上的动作的情况下(步骤S213:否),检测部4d反复执行步骤S213的处理。另一方面,在步骤S213中,在判定为在检测区域T内检测到物体的阈值以上的动作的情况下(步骤S213:是),检测部4d执行以后(步骤S27~步骤S31)的处理而结束检测处理2。
如以上那样,根据实施方式2的摄像装置200,通过检测部4d,基于与从摄像装置200到由判别部4b判别为被摄体的人为止的距离(聚焦距离)相关的聚焦距离信息、以及对该人执行AF控制时的与透镜部3a的透镜的焦点距离相关的焦点距离信息,来设定在实时查看图像L内的检测区域T中检测状态(例如,作为被摄体的人的手的动作)时的阈值。
因此,由于基于聚焦距离信息和焦点距离信息来设定在实时查看图像L内的检测区域T中检测状态(例如,作为被摄体的人的手的动作)时的阈值,因此能够根据聚焦距离信息和焦点距离信息而使该阈值不同。
由此,能够根据所设定的阈值而使运动检测时的动作检测灵敏度不同,能够设定适合于被摄体的摄像状况的动作检测灵敏度,因此能够提高运动检测的检测精度,发挥稳定的运动快门。
此外,根据实施方式2的摄像装置200,基于聚焦距离信息的聚焦距离越长、并且基于焦点距离信息的焦点距离越短,则将阈值设定为越小的值。
因此,例如,所设定的阈值越小,则越能够提高运动检测时的动作检测灵敏度。
由此,在从摄像装置200到被摄体为止的距离较远而该被摄体的影像较小的情况下,能够提高运动检测时的动作检测灵敏度,因此即便该被摄体的动作的变化较小也能够良好地检测出该被摄体的动作。
<变形例>
接着,对实施方式2的变形例的摄像装置200T进行说明。另外,基本上具有与实施方式1的摄像装置100、实施方式2的摄像装置200相同的构成,以下,对于具有相同构成的部分赋予相同符号而省略说明,主要对不同的部分进行说明。
实施方式2的变形例的摄像装置200T的特征在于,代替聚焦距离信息以及焦点距离信息,而基于与作为被摄体的人的面部的大小相关的面部尺寸信息,使进行运动检测(检测处理1(参照图11)、检测处理2(参照图12))时的阈值(动作检测灵敏度)变化。
以下,对本变形例的取得部4c以及检测部4d进行说明。
在通过判别部4b而人被判别为被摄体的情况下,本变形例的取得部4c取得与该人的大小相关的被摄体尺寸信息,作为与该人相关的信息。
具体而言,取得部4c根据由判别部4b判别的人的面部区域F(参照图7A)取得与该人的面部的大小相关的面部尺寸信息,作为被摄体尺寸信息。此处,人的面部的大小例如用由判别部4b判别的人的面部区域F的面积表示。
本变形例的检测部4d基于由取得部4c取得的面部尺寸信息,设定在实时查看图像L内的检测区域T中检测状态时的阈值。具体而言,检测部4d将上述人的面部的大小的值与规定的系数相乘而得到的值设定为阈值。因此,人的面部的大小的值越小,则阈值越降低(动作检测灵敏度越提高),因此例如图8B所示,即便在实时查看图像L内的检测区域T中的像素值的变化量较小的情况下,也能够检测被摄体的动作(状态变化)。
<检测处理1>
图11是表示本变形例的检测处理1的流程图。
如图11所示,在本变形例的检测处理1中,首先,检测部4d将基于由取得部4c取得的面部尺寸信息的人的面部的大小的值与规定的系数相乘而得到的值设定为阈值(步骤S221)。接着,检测部4d与上述实施方式1的情况相同地进行步骤S11~步骤S14的处理。
接着,检测部4d与上述实施方式2的情况相同,基于在实时查看图像L内OSD显示有开始指标M的检测区域T内的像素值的变动,来判定是否在检测区域T内检测到物体的阈值以上的动作(步骤S203)。
在步骤S203中,在判定为在检测区域T内未检测到物体的阈值以上的动作的情况下(步骤S203:否),检测部4d反复执行步骤S203的处理。另一方面,在步骤S203中,在判定为在检测区域T内检测到物体的阈值以上的动作的情况下(步骤S203:是),检测部4d执行以后(步骤S16~步骤S19)的处理而结束检测处理1。
<检测处理2>
图12是表示本变形例的检测处理2的流程图。
如图12所示,在本变形例的检测处理2中,首先,检测部4d将基于由取得部4c取得的面部尺寸信息的人的面部的大小的值与规定的系数相乘而得到的值设定为阈值(步骤S231)。接着,检测部4d与上述实施方式1的情况相同地进行步骤S21~步骤S25的处理。
接着,检测部4d与上述实施方式2的情况相同,基于在实时查看图像L内OSD显示有开始指标M的检测区域T内的像素值的变动,来判定是否在检测区域T内检测到物体的阈值以上的动作(步骤S213)。
在步骤S213中,在判定为在检测区域T内未检测到物体的阈值以上的动作的情况下(步骤S213:否),检测部4d反复执行步骤S213的处理。另一方面,在步骤S213中,在判定为在检测区域T内检测到物体的阈值以上的动作的情况下(步骤S213:是),检测部4d执行以后(步骤S27~步骤S31)的处理而结束检测处理2。
如以上那样,根据本变形例的摄像装置200T,通过检测部4d,基于由取得部4c取得的面部尺寸信息,设定在实时查看图像L内的检测区域T中检测状态(例如,作为被摄体的人的手的动作)时的阈值。
因此,基于面部尺寸信息,设定在实时查看图像L内的检测区域T中检测状态(例如,作为被摄体的人的手的动作)时的阈值,因此能够根据面部尺寸信息而使该阈值不同。
由此,能够根据所设定的阈值而使运动检测时的动作检测灵敏度不同,并能够设定适合于被摄体的摄像状况的动作检测灵敏度,因此能够提高运动检测的检测精度,发挥稳定的运动快门。
此外,根据本变形例的摄像装置200T,在由判别部4b进行了规定的面部检测处理时取得面部尺寸信息,因此能够减轻取得该面部尺寸信息所需要的处理负担。
此外,根据本变形例的摄像装置200T,基于面部尺寸信息的人的面部的大小越小,则将阈值设定为越小的值。
因此,例如,所设定的阈值越小,则越能够提高运动检测时的动作检测灵敏度。
由此,在作为被摄体的人的面部的大小较小的情况下,能够判断为从摄像装置200T到被摄体为止的距离较远,并提高运动检测时的动作检测灵敏度,因此即便该被摄体的动作的变化较小也能够良好地检测出该被摄体的动作。
〔实施方式3〕
接着,对实施方式3的摄像装置300进行说明。另外,基本上具有与实施方式1的摄像装置100相同的构成,以下,对于具有相同构成的部分赋予相同符号而省略说明,主要对不同的部分进行说明。
实施方式3的摄像装置300的特征在于,在检测区域T内检测到物体的动作时的检测区域T内的像素值的变化量为阈值以上的情况下,判定为该动作是有意的,并执行摄影处理。
以下,对本实施方式的取得部4c、开始控制部4e以及摄像控制部4进行说明。
本实施方式的取得部4c,取得由检测部4d在检测区域T内检测到物体的动作(状态变化)时的、与到检测到该物体的动作的位置为止的聚焦距离相关的聚焦距离信息。
本实施方式的摄像控制部(判定单元)4,基于由取得部4c取得的聚焦距离信息,来判定由检测部4d检测到的物体的动作是否是有意的。
具体而言,摄像控制部4基于由检测部4d在检测区域T内检测到物体的动作时的、与到检测到该物体的动作的位置为止的聚焦距离相关的聚焦距离信息、以及对于检测到该物体的动作的位置执行了AF控制时的、与透镜部3a的透镜的焦点距离相关的焦点距离信息,来设定对由检测部4d检测到的物体的动作是否是有意的进行判定时的阈值。检测部4d将上述聚焦距离的值的倒数、上述焦点距离的值及规定的系数相乘而得到的值设定为阈值。
此外,摄像控制部4判定由检测部4d在检测区域T内检测到物体的动作时的检测区域T内的像素值的变动量的值是否为阈值以上。并且,在判定为检测区域T内的像素值的变动量的值为阈值以上的情况下,摄像控制部4判定为该物体的动作是有意的。另一方面,在判定为检测区域T内的像素值的变动量的值不为阈值以上的情况下,摄像控制部4判定为该物体的动作是无意的。
在由摄像控制部4判定为检测区域T中的物体的动作是有意的情况下,本实施方式的开始控制部4e执行由摄像部3进行的被摄体的摄像图像的摄影处理。
<运动快门处理>
图13是表示本实施方式的运动快门处理的流程图。
如图13所示,在本实施方式的运动快门处理中,首先,与上述实施方式1的情况相同地进行步骤S1以及步骤S2的处理。
接着,检测部4d基于在实时查看图像L内OSD显示有开始指标M的检测区域T内的像素值的变动,来判定是否在检测区域T内检测到物体的动作(步骤S301)。
在步骤S301中,在判定为在检测区域T内未检测到物体的动作的情况下(步骤S301:否),结束运动快门处理。另一方面,在步骤S301中,在判定为在检测区域T内检测到物体的动作的情况下(步骤S301:是),取得部4c取得由检测部4d在检测区域T内检测到物体的动作时的、与到检测到该物体的动作的位置为止的聚焦距离相关的聚焦距离信息(步骤S302)。
接着,摄像控制部4在由检测部4d在检测区域T内检测到物体的动作时取得对于检测到该物体的动作的位置执行了AF控制时的、与透镜部3a的透镜的焦点距离相关的焦点距离信息(步骤S303)。
接着,摄像控制部4将所取得的聚焦距离的值的倒数、焦点距离的值及规定的系数相乘而得到的值设定为阈值(步骤S304)。
接着,摄像控制部4判定由检测部4d在检测区域T内检测到物体的动作时的检测区域T内的像素值的变动量的值是否为阈值以上(步骤S305)。
在步骤S305中,在判定为检测区域T内的像素值的变动量的值为阈值以上的情况下(步骤S305:是),摄像控制部4判定为该物体的动作是有意的(步骤S306)。并且,与上述实施方式1的情况相同,执行摄影处理(步骤S8),结束运动快门处理。
另一方面,在步骤S305中,在判定为检测区域T内的像素值的变动量的值不为阈值以上的情况下(步骤S305:否),摄像控制部4判定为该物体的动作是无意的(步骤S307),返回到步骤S301,反复进行以后的处理。
如以上那样,根据实施方式3的摄像装置300,通过取得部4c取得由检测部4d在检测区域T内检测到状态变化时的、与到检测到该状态变化的位置为止的聚焦距离相关的聚焦距离信息,通过摄像控制部4基于由取得部4c取得的聚焦距离信息,判定由检测部4d检测到的状态变化是否是有意的。
因此,例如,通过判定由检测部4d检测到的状态变化是否是有意的,由此能够决定是否执行由摄像部3进行的摄影处理,因此在运动快门中能够仅执行用户所意图的摄影处理。
此外,根据实施方式3的摄像装置300,通过摄像控制部4,基于由检测部4d在检测区域T内检测到物体的动作时的、与到检测到该物体的动作的位置为止的聚焦距离相关的聚焦距离信息、以及对于检测到该物体的动作的位置执行了AF控制时的、与透镜部3a的透镜的焦点距离相关的焦点距离信息,来设定对由检测部4d检测到的物体的动作是否是有意的进行判定时的阈值。
因此,基于聚焦距离信息和焦点距离信息,来设定对由检测部4d检测到的物体的动作是否是有意的进行判定时的阈值,因此能够根据聚焦距离信息和焦点距离信息而使该阈值不同。
由此,能够根据所设定的阈值而使对由检测部4d检测到的物体的动作是否是有意的进行判定时的判定基准不同,能够设定适合于被摄体的摄像状况的判定基准。
此外,根据实施方式3的摄像装置300,基于聚焦距离信息的聚焦距离越长、并且基于焦点距离信息的焦点距离越短,则将阈值设定为越小的值。
因此,例如,所设定的阈值越小,则越能够降低对由检测部4d检测到的物体的动作是否是有意的进行判定时的判定基准。
由此,在从摄像装置300到被摄体为止的距离较远而该被摄体的影像较小的情况下,能够降低判定基准,因此即便该被摄体的动作的变化较小也能够判定为该被摄体的动作是有意的,在这种情况下,能够防止运动快门不工作这种不良情况。
另外,本发明并不限定于上述实施方式,在不脱离本发明主旨的范围内也可以进行各种改进以及设计的变更。
例如,在上述实施方式1中,在满足检测条件1并且满足检测条件2~4中的任意一个条件的情况下,检测部4d判断为由判别部4b判别的人(被摄体)存在动作,但能够适当任意地变更为了进行该判断而必须满足的条件,例如也可以为,在满足检测条件1~4中的任意一个条件的情况下、满足检测条件1~4的全部条件的情况下,检测部4d判断为由判别部4b判别的人(被摄体)存在动作。
此外,在上述实施方式1中,从由判别部4b检测到的面部区域F中仅提取标准的肤色以及与该肤色近似的颜色(近似颜色)的区域,并将该区域的颜色的平均值计算为面部的肤色的RGB值,但并不限定于此,也可以仅将标准的肤色的RGB值作为面部的肤色的RGB值。
此外,在上述实施方式1中,在虽然通过判别部4b而人被判别为被摄体但未判别为该人是特定的人物的情况下,在由检测部4d判定为满足检测条件1并且满足检测条件2~4中的任意一个条件时,开始控制部4e执行由摄像部3进行的被摄体的摄像图像的摄影处理,但并不限定于此,例如也可以为,当由检测部4d判定为满足上述检测条件时,作为与摄影相关的规定的处理,而执行变焦操作、自动定时器的开始处理。
此外,在上述实施方式1中,作为与特定的人物建立对应地预先存储的特定信息,能够举出该特定的人物所特有的动作,但并不限定于此,例如也可以是该特定的人物所特有的物(例如,旗等)、颜色、形状(例如,手的形状(石头、布、剪刀等))等。
此外,在上述实施方式1~3中,在判定为摄像部3的摄像方向与显示面板8a的显示方向大致相同的情况下,检测规定的物体的状态变化,但并不限定于此,能够任意地设定是否检测规定的物体的状态变化,并不限定于自拍,也可以检测其他的被摄体的状态变化。
此外,在上述实施方式1中,将人判别为被摄体,但并不限定于此,例如也可以为,判别车辆,作为规定的区域而检测通过门的情况,或者,在制造生产线中,判别在生产线上移动的半成品,而检测通过生产线上的规定的区域的情况。
此外,在上述实施方式2中,将聚焦距离的值的倒数、焦点距离的值及规定的系数相乘而得到的值设定为阈值,但只要聚焦距离越长并且焦点距离越短、则阈值越小即可,计算方法并不限定于上述方法。此外,例如也可以为,预先存储将聚焦距离以及焦点距离与阈值建立对应的表,并设定与实际取得的聚焦距离以及焦点距离相对应的阈值。
此外,在上述实施方式2的变形例中,将人的面部的大小的值与规定的系数相乘而得到的值设定为阈值,但只要人的面部的大小越小、则阈值越小即可,计算方法并不限定于上述方法。此外,例如也可以为,预先存储将人的面部的大小与阈值建立对应的表,设定与实际取得的人的面部的大小相对应的阈值。
此外,在上述实施方式3中,由检测部4d在检测区域T内检测到物体的动作(状态变化)时的、对于检测到该物体的动作的位置的AF控制,并不限定于单次AF,也可以是连续AF。
此外,上述实施方式1~3的摄像装置100、200、200T、300的构成为一例,并不限定于此。例如,也可以由具备摄像功能的智能手机等便携式终端构成。具体而言,例如,在使用便携式终端进行上述实施方式1~3的自拍的情况下,通过利用该便携式终端的向显示面板侧露出的摄像部的透镜部(所谓的内摄像头(in camera)),由此成为能够使被摄体本身目视确认由摄像部摄像而显示于显示面板的该被摄体的动态图像的状态。
此外,在上述实施方式1中构成为,通过在中央控制部1的控制下驱动状态判定部、判别部、取得部、以及检测部,来实现作为检测单元、判别单元、取得单元、以及控制单元的功能,但并不限定于此,也可以构成为,通过由中央控制部1的CPU执行规定的程序等来实现。
即,在存储程序的程序存储器(省略图示)中,预先存储包含检测处理例程、判别处理例程、取得处理例程、以及控制处理例程的程序。并且,也可以通过检测处理例程使中央控制部1的CPU作为对摄像图像内的规定区域中的状态进行检测的单元起作用。此外,也可以通过判别处理例程使中央控制部1的CPU作为从摄像图像中判别被摄体的单元起作用。此外,也可以通过取得处理例程使中央控制部1的CPU作为在通过判别处理例程在规定区域外判别出规定的被摄体的情况下、取得与该规定的被摄体相关的信息的单元起作用。此外,也可以通过控制处理例程使中央控制部1的CPU作为基于通过取得处理例程取得的与规定的被摄体相关的信息、对通过检测处理例程对规定区域中的状态的检测进行控制的单元起作用。
并且,作为存储有用于执行上述各处理的程序的计算机可读取的介质,除了ROM、硬盘等之外,还可以应用闪存器等非易失性存储器、CD-ROM等可移动式记录介质。此外,作为经由规定的通信线路提供程序的数据的介质,还应用载波(carrier wave)。
对本发明的实施方式进行了说明,但本发明的范围并不限定于上述实施方式,还包含专利请求范围所记载的发明的范围和与其等同的范围。
以下,附记在本申请的申请书中最初附加的专利请求范围所记载的发明。附记所记载的请求项的编号与在本申请的申请书中最初附加的专利请求范围相同。
Claims (18)
1.一种检测装置,其特征在于,具备:
检测部,检测摄像图像内的规定的区域中的满足规定的检测条件的状态;
判别部,从上述摄像图像中判别满足与上述规定的检测条件不同的规定的判别条件的、规定的被摄体;
取得部,在通过上述判别部在上述规定的区域外判别出满足上述规定的判别条件的规定的被摄体的情况下,取得与该规定的被摄体相关的信息;以及
控制部,基于由上述取得部取得的与规定的被摄体相关的信息,控制上述检测部对上述规定的区域中的满足与上述规定的判别条件不同的规定的检测条件的状态进行的检测。
2.如权利要求1所述的检测装置,其特征在于,
上述检测部能够在设置于摄像图像内的预先决定的位置的上述规定的区域中检测所指定的距离的物体的状态,
上述取得部取得与上述规定的被摄体的聚焦距离相关的聚焦距离信息,作为与上述规定的被摄体相关的信息,
上述控制部对上述检测部进行控制,以便在摄像图像内的上述规定的区域中,基于由上述取得部取得的聚焦距离信息,在距上述规定的被摄体的聚焦距离为所指定的距离的范围内检测物体的状态。
3.如权利要求1所述的检测装置,其特征在于,
上述检测部能够在设置于摄像图像内的预先决定的位置的上述规定的区域中检测规定的颜色的物体的状态,
上述取得部取得与上述规定的被摄体的特征颜色相关的特征颜色信息,作为与上述规定的被摄体相关的信息,
上述控制部对上述检测部进行控制,以便在摄像图像内的上述规定的区域中,基于由上述取得部取得的特征颜色信息,在与上述规定的被摄体的特征颜色为相同颜色或者类似颜色的范围内检测物体的状态。
4.如权利要求2所述的检测装置,其特征在于,
上述规定的被摄体为人,
上述检测部能够在设置于摄像图像内的预先决定的位置的上述规定的区域中检测规定的颜色的物体的状态,
上述取得部取得与作为上述规定的被摄体的人的特征颜色相关的特征颜色信息,作为与上述规定的被摄体相关的信息,
上述控制部进一步对上述检测部进行控制,以便在摄像图像内的上述规定的区域中,基于由上述取得部取得的特征颜色信息,在与上述人的特征颜色为相同颜色或者类似颜色的范围内检测物体的状态。
5.如权利要求1所述的检测装置,其特征在于,
上述规定的被摄体为人,
上述检测部能够在设置于摄像图像内的预先决定的位置的上述规定的区域中检测规定的大小的物体的状态,
上述取得部取得与根据作为上述规定的被摄体的人的面部的大小而推测的手的大小相关的手尺寸信息,作为与上述规定的被摄体相关的信息,
上述控制部对上述检测部进行控制,以便在摄像图像内的上述规定的区域中,基于由上述取得部取得的手尺寸信息,检测与上述手的大小大致相同的范围内的物体的状态。
6.如权利要求1所述的检测装置,其特征在于,
上述取得部取得与上述规定的被摄体的聚焦距离相关的聚焦距离信息,作为与上述规定的被摄体相关的信息,
上述控制部基于由上述取得部取得的聚焦距离信息,作为上述规定的检测条件而设定上述检测部在上述规定的区域中检测状态时的阈值。
7.如权利要求6所述的检测装置,其特征在于,
上述控制部进一步基于该检测装置所具备的用于取得上述摄像图像的透镜的焦点距离信息,设定上述阈值。
8.如权利要求1所述的检测装置,其特征在于,
上述取得部取得与上述规定的被摄体的大小相关的被摄体尺寸信息,作为与上述规定的被摄体相关的信息,
上述控制部基于由上述取得部取得的被摄体尺寸信息,作为上述规定的检测条件而设定上述检测部在上述规定的区域中检测状态时的阈值。
9.如权利要求8所述的检测装置,其特征在于,
上述规定的被摄体为人,
上述取得部取得与作为上述规定的被摄体的人的面部的大小相关的面部尺寸信息,作为与上述规定的被摄体相关的信息,
上述控制部基于由上述取得部取得的面部尺寸信息,作为上述规定的检测条件而设定上述检测部在上述规定的区域中检测状态时的阈值。
10.如权利要求1所述的检测装置,其特征在于,
上述控制部进行控制,以便根据由上述判别部判别出的规定的被摄体,使上述检测部的检测条件不同。
11.如权利要求10所述的检测装置,其特征在于,
上述检测部能够在设置于摄像图像内的预先决定的位置的上述规定的区域中检测规定的特定信息的物体的状态,
在通过上述判别部而特定的人物被判别为规定的被摄体的情况下,上述取得部取得与该特定的人物建立对应地预先存储的特定信息,
上述控制部进一步对上述检测部进行控制,以便在摄像图像内的上述规定的区域中,基于由上述取得部取得的上述特定信息,检测物体的状态。
12.如权利要求1所述的检测装置,其特征在于,还具备:
摄像部,对被摄体的图像进行摄影;以及
执行部,以由上述检测部检测到上述规定的区域中的规定的状态为契机,执行与上述摄像部的摄影相关的规定的处理。
13.如权利要求1所述的检测装置,其特征在于,
上述检测部检测摄像图像内的规定的区域中的状态变化,
上述控制部基于由上述取得部取得的与规定的被摄体相关的信息,控制上述检测部对上述规定的区域中的状态变化进行的检测。
14.一种检测装置,其特征在于,具备:
检测部,检测摄像图像内的规定的区域中的状态变化;
取得部,取得由上述检测部在上述规定的区域内检测到状态变化时的、与到检测到该状态变化的位置为止的聚焦距离相关的聚焦距离信息;以及判定部,基于由上述取得部取得的聚焦距离信息、以及与用于取得上述摄像图像的透镜的焦点距离有关的焦点距离信息,判定由上述检测部检测到的状态变化是否是有意的。
15.如权利要求14所述的检测装置,其特征在于,
上述判定部基于由上述取得部取得的聚焦距离信息,设定对由上述检测部检测到的状态变化是否是有意的进行判定时的阈值。
16.如权利要求15所述的检测装置,其特征在于,
上述判定部进一步基于该检测装置所具备的用于取得上述摄像图像的透镜的焦点距离信息,设定上述阈值。
17.一种检测方法,其特征在于,包括:
检测摄像图像内的规定的区域中的满足规定的检测条件的状态的处理;
从上述摄像图像中判别满足与上述规定的检测条件不同的规定的判别条件的、规定的被摄体的处理;
在上述规定的区域外判别出满足上述规定的判别条件的规定的被摄体的情况下,取得与该规定的被摄体相关的信息的处理;以及
基于与上述规定的被摄体相关的信息,控制上述规定的区域中的满足与上述规定的判别条件不同的规定的检测条件的状态的检测的处理。
18.一种检测方法,其特征在于,包括:
检测摄像图像内的规定的区域中的状态变化的处理;
取得在上述规定的区域内检测到状态变化时的、与到检测到该状态变化的位置为止的聚焦距离相关的聚焦距离信息的处理;以及
基于所取得的聚焦距离信息、以及与用于取得上述摄像图像的透镜的焦点距离有关的焦点距离信息,判定所检测的状态变化是否是有意的处理。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-162003 | 2014-08-08 | ||
JP2014162003 | 2014-08-08 | ||
JP2014238570A JP6024728B2 (ja) | 2014-08-08 | 2014-11-26 | 検出装置、検出方法及びプログラム |
JP2014-238570 | 2014-11-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105376477A CN105376477A (zh) | 2016-03-02 |
CN105376477B true CN105376477B (zh) | 2018-10-16 |
Family
ID=55268392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510477962.0A Active CN105376477B (zh) | 2014-08-08 | 2015-08-06 | 检测装置以及检测方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9779290B2 (zh) |
JP (1) | JP6024728B2 (zh) |
KR (1) | KR20160018354A (zh) |
CN (1) | CN105376477B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6107844B2 (ja) * | 2015-01-28 | 2017-04-05 | カシオ計算機株式会社 | 検出装置、検出制御方法、及びプログラム |
US10136061B2 (en) * | 2015-01-30 | 2018-11-20 | Microsoft Technology Licensing, Llc | Automatic processing of automatic image capture parameter adjustment |
JP1571919S (zh) * | 2016-05-17 | 2017-03-21 | ||
JP1571316S (zh) * | 2016-05-17 | 2017-03-13 | ||
CN107181976B (zh) * | 2017-04-28 | 2021-01-29 | 华为技术有限公司 | 一种弹幕显示方法及电子设备 |
US10609294B2 (en) * | 2017-12-22 | 2020-03-31 | X Development LLP | Systems and methods for sampling images |
JP6696094B2 (ja) * | 2018-09-27 | 2020-05-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 移動体、制御方法、及びプログラム |
US11048922B2 (en) * | 2019-05-24 | 2021-06-29 | Intel Corporation | Gesture detection using color segmentation |
EP3981324A4 (en) * | 2019-06-07 | 2023-05-24 | Daikin Industries, Ltd. | RATING SYSTEM |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101136066A (zh) * | 2006-07-25 | 2008-03-05 | 富士胶片株式会社 | 拍摄装置、方法及程序 |
JP2008283502A (ja) * | 2007-05-11 | 2008-11-20 | Casio Comput Co Ltd | デジタルカメラ、及び撮影制御方法、撮影制御プログラム |
JP2011243031A (ja) * | 2010-05-19 | 2011-12-01 | Canon Inc | ジェスチャ認識装置及びジェスチャ認識方法 |
CN102545974A (zh) * | 2010-12-22 | 2012-07-04 | 株式会社东芝 | 卡形电子装置、通信终端以及认证方法 |
JP5402341B2 (ja) * | 2009-01-26 | 2014-01-29 | 株式会社Jvcケンウッド | 自動撮像装置及び自動撮像方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0628399B2 (ja) | 1984-06-25 | 1994-04-13 | キヤノン株式会社 | カメラにおける自動追尾装置 |
JPH06153017A (ja) * | 1992-11-02 | 1994-05-31 | Sanyo Electric Co Ltd | 機器の遠隔制御装置 |
US7373109B2 (en) * | 2003-11-04 | 2008-05-13 | Nokia Corporation | System and method for registering attendance of entities associated with content creation |
JP2005333420A (ja) | 2004-05-20 | 2005-12-02 | Matsushita Electric Ind Co Ltd | 電子カメラ装置 |
JP2010009558A (ja) | 2008-05-28 | 2010-01-14 | Oki Semiconductor Co Ltd | 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置 |
JP2011097502A (ja) | 2009-11-02 | 2011-05-12 | Panasonic Corp | 撮影制御装置および撮影制御方法 |
US9131147B2 (en) * | 2011-10-07 | 2015-09-08 | Fuji Xerox Co., Ltd. | System and method for detecting and acting on multiple people crowding a small display for information sharing |
JP5880135B2 (ja) | 2012-02-29 | 2016-03-08 | カシオ計算機株式会社 | 検出装置、検出方法及びプログラム |
-
2014
- 2014-11-26 JP JP2014238570A patent/JP6024728B2/ja not_active Expired - Fee Related
-
2015
- 2015-07-20 KR KR1020150102709A patent/KR20160018354A/ko not_active Application Discontinuation
- 2015-07-20 US US14/804,036 patent/US9779290B2/en active Active
- 2015-08-06 CN CN201510477962.0A patent/CN105376477B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101136066A (zh) * | 2006-07-25 | 2008-03-05 | 富士胶片株式会社 | 拍摄装置、方法及程序 |
JP2008283502A (ja) * | 2007-05-11 | 2008-11-20 | Casio Comput Co Ltd | デジタルカメラ、及び撮影制御方法、撮影制御プログラム |
JP5402341B2 (ja) * | 2009-01-26 | 2014-01-29 | 株式会社Jvcケンウッド | 自動撮像装置及び自動撮像方法 |
JP2011243031A (ja) * | 2010-05-19 | 2011-12-01 | Canon Inc | ジェスチャ認識装置及びジェスチャ認識方法 |
CN102545974A (zh) * | 2010-12-22 | 2012-07-04 | 株式会社东芝 | 卡形电子装置、通信终端以及认证方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20160018354A (ko) | 2016-02-17 |
JP2016039625A (ja) | 2016-03-22 |
JP6024728B2 (ja) | 2016-11-16 |
US9779290B2 (en) | 2017-10-03 |
US20160044222A1 (en) | 2016-02-11 |
CN105376477A (zh) | 2016-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105376477B (zh) | 检测装置以及检测方法 | |
KR102117050B1 (ko) | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 | |
CN109068058B (zh) | 超级夜景模式下的拍摄控制方法、装置和电子设备 | |
JP6539091B2 (ja) | 撮像装置およびその制御方法 | |
TWI425826B (zh) | 影像選擇裝置、影像選擇方法 | |
CN104349051B (zh) | 被摄体检测装置以及被摄体检测装置的控制方法 | |
JP4906034B2 (ja) | 撮影装置および方法並びにプログラム | |
CN105282435B (zh) | 变焦控制设备和变焦控制方法 | |
US11782507B2 (en) | Image changes based on facial appearance | |
CN101783877B (zh) | 图像拍摄装置及频闪图像生成方法 | |
CN105323470B (zh) | 变焦控制设备和变焦控制方法 | |
CN103731601B (zh) | 图像处理装置以及图像处理方法 | |
KR20120022512A (ko) | 전자 카메라, 화상 처리 장치 및 화상 처리 방법 | |
CN104052908B (zh) | 摄像装置、以及显示方法 | |
CN105516611A (zh) | 摄像装置和摄影方法 | |
CN105744116A (zh) | 检测方法、控制方法、检测装置、控制装置及电子装置 | |
JP2010117948A (ja) | 表情判定装置、その制御方法、撮像装置及びプログラム | |
JP2010114752A (ja) | 撮像装置及び撮像方法及びプログラム | |
CN105744179A (zh) | 摄像装置、摄像控制方法 | |
JP5880135B2 (ja) | 検出装置、検出方法及びプログラム | |
CN105827907B (zh) | 检测装置以及检测控制方法 | |
CN115037869A (zh) | 自动对焦方法、装置、电子设备及计算机可读存储介质 | |
JP4831344B2 (ja) | 目の位置の検出方法 | |
CN105763789B (zh) | 摄像装置、操作辅助方法 | |
JP6432290B2 (ja) | 撮像装置、撮像制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |