CN104081757B - 图像处理设备、图像处理方法、图像处理系统 - Google Patents

图像处理设备、图像处理方法、图像处理系统 Download PDF

Info

Publication number
CN104081757B
CN104081757B CN201380007191.8A CN201380007191A CN104081757B CN 104081757 B CN104081757 B CN 104081757B CN 201380007191 A CN201380007191 A CN 201380007191A CN 104081757 B CN104081757 B CN 104081757B
Authority
CN
China
Prior art keywords
face
tracking
face area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380007191.8A
Other languages
English (en)
Other versions
CN104081757A (zh
Inventor
村上正典
德世明
辻村贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104081757A publication Critical patent/CN104081757A/zh
Application granted granted Critical
Publication of CN104081757B publication Critical patent/CN104081757B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

一种图像处理系统包括:脸部检测单元,用于在图像中检测脸部;和部分区域检测单元,用于基于在图像中检测到的脸部的位置检测图像的部分区域。跟踪确定单元也可被包括在图像处理系统中以基于预定条件选择脸部和部分区域中的至少一个以便进行跟踪并且跟踪选择的脸部和部分区域之一。

Description

图像处理设备、图像处理方法、图像处理系统
技术领域
本公开涉及一种图像处理设备、图像处理方法、程序和记录介质。
背景技术
在[PTL 1]中公开了一种从拾取的图像检测人的脸部区域并且跟踪脸部区域的技术。在[PTL 1]中公开的技术能够通过跟踪脸部区域来跟踪人。
引用列表
专利文献
PTL 1:JP 2004-283959A
发明内容
技术问题
然而,在[PTL 1]中公开的技术中,在不能检测到脸部区域的情况下,对人的跟踪将会中断。因此,希望具有能够更可靠地执行对人的跟踪的技术。
问题的解决方案
一种图像处理系统包括:脸部检测单元,用于在图像中检测脸部;和部分区域检测单元,用于基于在图像中检测到的脸部的位置检测图像的部分区域。
该图像处理系统还包括:跟踪确定单元,用于基于预定条件选择脸部和部分区域中的至少一个以进行跟踪并且跟踪选择的脸部和部分区域中的至少一个。
一种图像处理方法包括:在脸部检测单元中,在图像中检测脸部;以及在部分区域检测单元中,基于在图像中检测到的脸部的位置检测图像的部分区域。
一种非暂态计算机可读介质,利用它上面的计算机可读指令而被编码,其中当计算机可读指令由计算机执行时,计算机可读指令使计算机执行一种方法,该方法包括:在图像中检测脸部;以及基于在图像中检测到的脸部的位置检测图像的部分区域。
发明的有益效果
根据上述本公开,能够更可靠地执行对人的跟踪。
附图说明
图1是显示根据本公开的实施例的图像处理设备的结构的方框图。
图2是显示由图像处理设备执行的处理的过程的流程图。
图3是显示由图像处理设备执行的处理的过程的流程图。
图4是显示由图像处理设备执行的处理的过程的流程图。
图5是显示由图像处理设备执行的处理的过程的流程图。
图6是显示由图像处理设备执行的处理的过程的流程图。
图7是显示由图像处理设备设置的身体区域的例子的解释示图。
图8是显示由图像处理设备设置的身体区域的例子的解释示图。
图9是显示由图像处理设备设置的身体区域的例子的解释示图。
图10是显示跟踪目标的新检测到的脸部区域和身体区域之间的位置关系被判断的状态的解释示图。
图11是显示跟踪目标从脸部区域移至身体区域的状态的解释示图。
图12是显示跟踪目标从脸部区域移至身体区域的状态的解释示图。
图13是用于描述由图像处理设备执行的跟踪处理的效果的解释示图。
图14是用于描述由图像处理设备执行的跟踪处理的效果的解释示图。
图15是用于描述由图像处理设备执行的跟踪处理的效果的解释示图。
图16是用于描述由图像处理设备执行的跟踪处理的效果的解释示图。
图17是用于描述本实施例的修改例子的解释示图。
图18是用于描述本实施例的修改例子的解释示图。
图19是用于描述在对人的跟踪中断的情况下执行的处理的解释示图。
图20是用于描述本实施例的修改例子的解释示图。
图21是用于描述本实施例的修改例子的解释示图。
图22是用于描述本实施例的修改例子的解释示图。
图23是用于描述本实施例的修改例子的解释示图。
图24是用于描述本实施例的修改例子的解释示图。
图25是用于描述本实施例的修改例子的解释示图。
图26是用于描述本实施例的效果的解释示图。
具体实施方式
以下,将参照附图详细描述本公开的优选实施例。需要注意的是,在本说明书和附图中,具有基本上相同的功能和结构的结构元素由相同的标号表示,并且省略这些结构元素的重复解释。
需要注意的是,将按照下面的次序进行描述。
1.背景技术的检查
2.图像处理设备的结构
3.由图像处理设备执行的处理的过程
4.由图像处理设备实现的效果
5.各种修改例子
6.结论
<1.背景技术的检查>
本发明的发明人通过检查跟踪拾取的图像中的人的背景技术而被引导想出根据本实施例的图像处理设备。因此,将首先检查背景技术。
在[PTL 1]中公开了从拾取的图像检测人的脸部区域并且跟踪脸部区域的技术。需要注意的是,在[PTL 1]中,通过同时使用脸部检测和肤色区域检测来实现跟踪的准确性的提高。另一方面,还提出从拾取的图像提取人(拍摄对象)的部分区域(描述人的各部分之中的除脸部之外的部分的区域)并且跟踪身体区域的技术。这里,在本实施例中,部分区域可以是除人体的脸部之外的每个区域(例如,描述主体的区域、描述手的区域等)。在本实施例中,部分区域被称为身体区域。在这些技术中,能够通过跟踪脸部区域或身体区域来跟踪人。在这些技术中,由于能够通过跟踪人来识别人的状况,所以根据人的状况的各种参数(例如,图像拾取设备的焦点、亮度等)的设置变为可能。
然而,这些技术彼此独立,并且不存在同时使用这些技术的已知技术。另外,在例如人背对着成像透镜或者人与成像透镜相隔较远距离的情况下,跟踪脸部区域的技术不能检测到该脸部区域。于是,在跟踪脸部区域的技术中,在未检测到人的情况下,对人的跟踪将会中断。
另外,跟踪身体区域的技术针对环境改变(诸如,亮度改变或人的姿势的改变)较弱。也就是说,跟踪身体区域的技术针对环境改变具有低鲁棒性。因此,在跟踪身体区域的技术中,根据环境的改变,存在对身体区域的跟踪(也就是说,对人的跟踪)中断以及跟踪的精度减小的情况。
另一方面,根据本实施例的图像处理设备能够同时使用对脸部区域的跟踪和对身体区域的跟踪,并且能够通过在这些区域之间合适地切换来更可靠地执行对人的跟踪。以下,将描述细节。需要注意的是,本实施例的图像处理设备1能够跟踪包括人的各种类型的活体(诸如,人、狗或猫)。当然,图像处理设备1可仅跟踪人,或者它可仅跟踪除人之外的动物。
<2.图像处理设备的结构>
接下来,将描述基于图1的图像处理设备1的结构。图像处理设备1包括透镜10、图像拾取部分20、活体跟踪部分(跟踪部分)30、显示部分40和外部IF(接口)50。需要注意的是,图像处理设备1具有硬件结构,诸如透镜、图像拾取元件、CPU、ROM、RAM、闪存、显示器和连接器。用于实现图像处理设备1中的图像拾取部分20、活体跟踪部分30和显示部分40的程序被记录在ROM中。CPU读出并且执行记录在ROM中的程序。因此,透镜10、图像拾取部分20、活体跟踪部分30、显示部分40和外部IF(接口)50由这种硬件结构实现。
由于图像处理设备1包括透镜10和图像拾取部分20,所以它是图像拾取设备(例如,数字静止照相机)。当然,图像处理设备1可不具有透镜10和图像拾取部分20。在这种情况下,图像处理设备1从外面获取拾取的图像,并且基于该拾取的图像跟踪人。另外,尽管由图像处理设备1执行的处理所需的程序被记录在图像处理设备1里面的ROM中,但该程序可被记录在外部记录介质中。在这种情况下,图像处理设备1例如从外部记录介质读出并且执行以上程序。可经网络提供该程序。
图像拾取部分20具有图像拾取元件,吸收穿过透镜10的外部光,并且通过照射图像拾取元件来产生拾取的图像。需要注意的是,如图7中所示,x轴和y轴被设置于拾取的图像。沿拾取的图像的水平方向延伸的轴成为x轴,并且沿拾取的图像的垂直方向延伸的轴成为y轴。图像拾取部分20将拾取的图像输出到活体跟踪部分30。图像拾取部分20能够执行静止和运动图像的图像拾取。在对运动图像执行图像拾取的情况下,图像拾取部分20针对每个规定时间产生拾取的图像(该拾取的图像变为运动图像的每一帧),并且将拾取的图像输出到活体跟踪部分30。需要注意的是,在下面的描述中,假设拾取的图像是当前帧的拾取的图像,除非另外标注。
活体跟踪部分30包括图像存储器31、脸部检测部分32、脸部核对部分33、身体跟踪部分34、跟踪目标确定部分35、身体区域检测部分36、特征量提取部分37和显示控制部分38。图像存储器31存储由图像拾取部分20给出的拾取的图像。另外,图像存储器31存储脸部区域列表,利用该脸部区域列表,脸部区域的特征量和脸部区域的识别信息关联。这里,脸部区域的各部分(诸如,眼睛、鼻子或嘴)的位置、形状、脸部区域的轮廓等被包括作为脸部区域的特征量。
脸部检测部分32执行从拾取的图像检测活体的脸部区域的脸部检测处理。脸部核对部分33执行核对当前帧的脸部区域与脸部区域列表中的脸部区域的脸部核对处理。另外,脸部核对部分33执行跟踪跟踪目标的脸部区域(也就是说,跟踪脸部区域)的脸部跟踪处理。身体跟踪部分34跟踪由身体区域检测部分36设置的身体区域。也就是说,身体跟踪部分34执行身体跟踪处理。跟踪目标确定部分35确定脸部区域和身体区域中的至少一个作为跟踪目标。身体跟踪检测部分36设置与脸部区域具有规定位置关系的区域作为跟踪目标的身体区域(也就是说,跟踪身体区域)。特征量提取部分37从跟踪身体区域提取特征量。显示控制部分38在显示部分40上显示拾取的图像等。将在稍后描述由这种结构执行的具体处理。显示部分40通过显示控制部分38的控制而显示拾取的图像等。外部IF 50是用于连接图像处理设备1和外部装置的接口。
<3.由图像处理设备执行的处理的过程>
接下来,将根据图2-6中示出的流程图描述由图像处理设备1执行的处理的过程。
(总体处理)
首先,将根据图2中示出的流程图描述总体处理。在步骤S10中,脸部检测部分32执行脸部检测处理。具体地讲,脸部检测部分32从图像存储器31获取拾取的图像,并且从拾取的图像检测脸部区域。另外,脸部检测部分32将脸部帧叠加在拾取的图像中的脸部区域上。脸部检测部分32将已叠加脸部帧的拾取的图像(也就是说,脸部帧叠加图像)输出到脸部核对部分33。
需要注意的是,在本实施例中,在脸部区域颠倒或转过去的情况下,它被认为不是检测的目标。需要注意的是,在脸部区域颠倒的情况下,脸部区域可被认为是检测的目标。另外,在诸如上述脸部区域转过去的情况下,可估计脸部区域的位置。
这里,存在脸部区域颠倒的情况,例如由稍后描述的第一参考轴和y轴形成的角度变为大于或等于-180度并且小于-135度或者大于+135度并且小于或等于+180度的情况(参照步骤S190)。
另一方面,存在脸部区域转过去的情况,例如由稍后描述的第二参考轴和光轴形成的角度变为大于或等于-180度并且小于-135度或者大于+135度并且小于或等于+180度的情况(参照步骤S240)。
在步骤S20中,脸部核对部分33执行脸部核对处理和脸部跟踪处理。具体地讲,脸部核对部分33从脸部跟踪帧叠加图像中的脸部区域提取特征量,并且通过核对提取的特征量与脸部区域列表中的特征量来使脸部帧叠加图像中的脸部区域与脸部区域列表中的识别信息关联。另外,在脸部区域列表中未登记的新脸部区域(也就是说,在前一帧(在当前帧之前的一帧)中未检测到的脸部区域)存在于脸部帧叠加图像中的情况下,脸部核对部分33将与新脸部区域对应的脸部帧改变为新脸部帧。需要注意的是,脸部核对部分33将在前一帧中检测到的脸部区域视为普通脸部区域。
接下来,脸部核对部分33判断是否存在用户对脸部区域的指定操作。在判断存在用户对脸部区域的指定操作的情况下,脸部核对部分33将用户指定的脸部区域设置为跟踪脸部区域,并且将与跟踪脸部区域关联的识别信息存储在图像存储器31中。接下来,脸部核对部分33将脸部跟踪帧叠加在跟踪脸部区域上。脸部核对部分33产生指示已检测到跟踪脸部区域的第一脸部检测信息,并且将第一脸部检测信息输出到跟踪目标确定部分35。另外,脸部核对部分33产生已叠加脸部跟踪帧的脸部帧叠加图像(也就是说,脸部跟踪帧叠加图像),并且将脸部跟踪帧叠加图像输出到身体区域检测部分36和显示控制部分38。需要注意的是,除脸部跟踪帧之外的脸部帧可被删除。
另一方面,在已经设置跟踪脸部区域的情况下,脸部核对部分33从图像存储器31获取与跟踪脸部区域关联的识别信息(也就是说,跟踪目标识别信息),并且从脸部帧叠加图像搜索具有与跟踪目标识别信息相同的识别信息的脸部区域。在检测到具有与跟踪目标识别信息相同的识别信息的脸部区域的情况下,脸部核对部分33认为这个脸部区域是跟踪脸部区域并且将脸部跟踪帧叠加在跟踪脸部区域上。脸部核对部分33产生指示已检测到跟踪脸部区域的第一脸部检测信息,并且将第一脸部检测信息输出到跟踪目标确定部分35。另外,脸部核对部分33产生已叠加脸部跟踪帧的脸部帧叠加图像(也就是说,脸部跟踪帧叠加图像),并且将脸部跟踪帧叠加图像输出到身体区域检测部分36和显示控制部分38。
另一方面,在未能从脸部帧叠加图像检测到具有与跟踪目标识别信息相同的识别信息的脸部区域的情况下,脸部核对部分33产生指示未能检测到跟踪脸部区域的第二脸部检测信息,并且将第二脸部检测信息输出到跟踪目标确定部分35。另外,脸部核对部分33将脸部帧叠加图像输出到跟踪目标确定部分35和显示控制部分38。
接下来,脸部核对部分33判断是否已由跟踪目标确定部分35在前一帧中给出脸部区域跟踪连续信息(也就是说,跟踪目标是否是脸部区域)。在判断为已由跟踪目标确定部分35在前一帧中给出脸部区域跟踪连续信息的情况下,脸部核对部分33在执行下面的脸部跟踪处理之后前进至步骤S30。另一方面,在判断为未由跟踪目标确定部分35在前一帧中给出脸部区域跟踪连续信息的情况下,脸部核对部分33前进至步骤S30。以上是脸部核对处理的内容。
也就是说,脸部核对部分33从前一帧的跟踪脸部区域附近搜索当前帧的脸部区域。在从前一帧的跟踪脸部区域附近检测到当前帧的脸部区域的情况下,脸部核对部分33判断检测到的脸部区域是跟踪脸部区域并且将脸部跟踪帧叠加在跟踪脸部区域上。然后,脸部核对部分33将显示从前一帧的跟踪脸部区域附近检测到当前帧的脸部区域的第一脸部跟踪结果信息输出到跟踪目标确定部分35。另外,脸部核对部分33将脸部跟踪帧叠加图像输出到身体区域检测部分36和显示控制部分38。
另一方面,在未能从前一帧的跟踪脸部区域附近检测到当前帧的脸部区域的情况下,脸部核对部分33将显示未能执行脸部跟踪的第二脸部跟踪结果信息输出到跟踪目标确定部分35。
需要注意的是,脸部检测部分32和脸部核对部分33执行上述步骤S10和S20的处理,而不管跟踪目标是否是脸部区域。
在步骤S30中,身体跟踪部分34判断是否已由跟踪目标确定部分35给出开始指示信息。在已由跟踪目标确定部分35给出开始指示信息的情况下,身体跟踪部分34前进至步骤S40,并且在未给出开始指示信息的情况下,身体跟踪部分34前进至步骤S50。
在步骤S40中,身体跟踪部分34从图像存储器31获取拾取的图像。接下来,身体跟踪部分34基于由特征量提取部分37给出的特征量信息执行身体跟踪处理。
具体地讲,身体跟踪部分34从拾取的图像搜索跟踪身体区域。在能够从拾取的图像检测到跟踪身体区域的情况下,身体跟踪部分34将身体跟踪帧叠加在跟踪身体区域的一部分上。接下来,身体跟踪部分34将指示能够检测到跟踪身体区域的第一身体跟踪结果信息和已叠加身体跟踪帧的拾取的图像(也就是身体跟踪帧叠加图像)输出到跟踪目标确定部分35。另外,身体跟踪部分34将身体跟踪帧叠加图像输出到显示控制部分38。在与脸部跟踪帧的模式不同的模式(例如,颜色、尺寸或形状)下描述身体跟踪帧。
另一方面,在未能从拾取的图像检测到跟踪身体区域的情况下,身体跟踪部分34将指示未能检测到跟踪身体区域的第二身体跟踪结果信息输出到跟踪目标确定部分35。
在步骤S50中,跟踪目标确定部分35执行图3中示出的跟踪目标确定处理。总的说来,跟踪目标确定处理是确定脸部区域和身体区域中的至少一个作为跟踪目标的处理。在脸部区域被确定为跟踪目标的情况下,跟踪目标确定部分35将指示脸部区域被确定为跟踪目标的脸部区域跟踪连续信息输出到脸部核对部分33。在已给出脸部区域跟踪连续信息的情况下,脸部核对部分33连续地在下一帧中执行上述脸部跟踪处理。另一方面,在身体区域被确定为跟踪目标的情况下,跟踪目标确定部分35在稍后描述的步骤S100中将开始指示信息输出到身体跟踪部分34。需要注意的是,在脸部区域被确定为跟踪目标但脸部区域的可靠性变为等于或低于规定值的情况下,跟踪目标确定部分35将开始指示信息输出到身体跟踪部分34。也就是说,在本实施例中,存在并行地跟踪脸部区域和身体区域的情况。
在步骤S60中,跟踪目标确定部分35判断跟踪目标是否是脸部区域。在判断跟踪目标是脸部区域的情况下,跟踪目标确定部分35前进至步骤S70,并且在判断跟踪目标是身体区域的情况下,跟踪目标确定部分35前进至步骤S100。
在步骤S70中,跟踪目标确定部分35将指示身体区域的检测的身体区域检测指示信息输出到身体区域检测部分36。在已给出身体区域检测指示信息的情况下,身体区域检测部分36执行图4中示出的身体区域检测处理。总的说来,身体区域检测处理是检测与脸部区域具有规定位置关系的区域作为搜索身体区域的处理。这里,总的说来,所述规定位置关系表示脸部区域和身体区域由脸部区域的颈部连接的位置关系。这个脸部区域和身体区域被认为构成同一拍摄对象(活体)。另外,身体区域指示活体的各部分之中的除脸部之外的任意部分。身体区域检测部分36将与身体区域相关的身体区域信息输出到特征量提取部分37。
在步骤S80中,特征量提取部分37基于身体区域信息从身体区域提取身体区域的特征量。这里,身体颜色(肤色)等被包括作为身体区域的特征量。特征量提取部分37产生与身体区域的特征量相关的特征量信息,并且将特征量信息输出到身体跟踪部分34。身体跟踪部分34基于特征量信息在下一帧中执行身体跟踪处理。
在步骤S90中,脸部核对部分33执行脸部登记处理。具体地讲,脸部核对部分33将新脸部区域的特征量和与新脸部区域对应的识别信息登记在脸部区域列表中。
在步骤S100中,跟踪目标确定部分35执行下一次跟踪目标判断处理。总的说来,下一次跟踪目标判断处理是确定是否在下一帧中执行身体跟踪处理的处理。其后,图像处理设备1结束该处理。
(跟踪目标确定处理)
接下来,将描述基于图3的跟踪目标确定处理的过程。在步骤S110中,跟踪目标确定部分35判断是否已通过核对处理检测到跟踪脸部区域。具体地讲,跟踪目标确定部分35判断是否已由脸部核对部分33给出第一脸部检测信息。在判断为已给出第一脸部检测信息的情况下,跟踪目标确定部分35前进至步骤S120,并且在判断为未给出第一脸部检测信息而是给出第二脸部检测信息的情况下,跟踪目标确定部分35前进至步骤S130。
在步骤S120中,跟踪目标确定部分35确定跟踪目标是脸部区域。也就是说,在已通过核对处理检测到与跟踪脸部区域相同的脸部区域的情况下,跟踪目标确定部分35确定跟踪目标是脸部区域。其后,跟踪目标确定部分35结束跟踪目标确定处理。
在步骤S130中,跟踪目标确定部分35判断脸部核对部分33是否正在执行脸部跟踪以及是否能够检测到跟踪脸部区域。具体地讲,跟踪目标确定部分35判断是否已由脸部核对部分33给出第一脸部跟踪结果信息。在判断为已由脸部核对部分33给出第一脸部跟踪结果信息的情况下,跟踪目标确定部分35前进至步骤S120,并且在判断为脸部核对部分33未给出第一脸部跟踪结果信息而是给出第二脸部跟踪结果信息的情况下,跟踪目标确定部分35前进至步骤S140。因此,在已通过脸部跟踪处理检测到与跟踪脸部区域相同的脸部区域的情况下,跟踪目标确定部分35确定跟踪目标是脸部区域。
在步骤S140中,跟踪目标确定部分35判断身体跟踪处理是否已成功。具体地讲,跟踪目标确定部分35判断是否已由身体跟踪部分34给出第一身体跟踪结果信息。在判断为已由身体跟踪部分34给出第一身体跟踪结果信息的情况下,跟踪目标确定部分35前进至步骤S150,并且在判断为由身体跟踪部分34未给出第一身体跟踪结果信息而是给出第二身体跟踪结果信息的情况下,跟踪目标确定部分35前进至步骤S180。
在步骤S150中,跟踪目标确定部分35执行连接判断处理。总的说来,连接判断处理是连接新脸部区域与跟踪身体区域的处理。在新脸部区域与跟踪身体区域具有上述规定位置关系的情况下,也就是说,在认为新脸部区域和跟踪身体区域构成同一拍摄对象的情况下,跟踪目标确定部分35连接新脸部区域与跟踪身体区域。
在步骤S160中,跟踪目标确定部分35判断新脸部区域和跟踪身体区域是否已连接,并且在判断它们已连接的情况下,跟踪目标确定部分35前进至步骤S120,并且在判断它们未连接的情况下,跟踪目标确定部分35前进至步骤S170。因此,即使存在未通过当前帧的核对处理和脸部跟踪处理检测到新脸部区域的情况,在新脸部区域与跟踪身体区域连接的情况下,跟踪目标确定部分35也将跟踪目标设置为脸部区域。
在步骤S170中,跟踪目标确定部分35将跟踪目标设置为身体区域。因此,在未通过当前帧的核对处理和脸部跟踪处理检测到新脸部区域并且新脸部区域未与跟踪身体区域连接的情况下,跟踪目标确定部分35将跟踪目标设置为身体区域。其后,跟踪目标确定部分35结束跟踪目标确定处理。
在步骤S180中,跟踪目标确定部分35执行指示跟踪已结束的确定。这是因为,既未检测到跟踪脸部区域,又未检测到跟踪身体区域。其后,跟踪目标确定部分35结束跟踪目标确定处理。
(身体区域检测处理)
接下来,将描述基于图4的身体区域检测处理的过程。在步骤S190中,身体区域检测部分36判断跟踪脸部区域的滚动方向是否朝向前方。这里,滚动方向是拾取的图像上的旋转方向。具体地讲,身体区域检测部分36首先设置与脸部区域的颈部延伸的方向平行的第一参考轴。然后,身体区域检测部分36基于跟踪脸部区域内的各部分(诸如,眼睛、鼻子或嘴)的位置调整第一参考轴。例如,在第一参考轴不垂直于连接双眼的直线的情况下,身体区域检测部分36使第一参考轴旋转,以使得它们垂直。第一参考轴具有从眼睛朝着颈部的方向为正的方向。
接下来,身体区域检测部分36检测由第一参考轴和y轴形成的角度。在由这些轴形成的角度大于-45度并且小于+45度的情况下,身体区域检测部分36判断跟踪脸部区域的滚动方向朝向前方。需要注意的是,变为用于身体区域检测部分36的判断的参考的角度不限于这里指示的值。以下同样如此。当拍摄对象笔直站立时,由第一参考轴和y轴形成的角度变为0度,并且假设逆时针方向是正方向。在图7(a)中示出跟踪脸部区域的滚动方向朝向前方的例子。在这个例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第一参考轴和y轴形成的角度为几乎0度。
在判断跟踪脸部区域的滚动方向是朝向前方的情况下,身体区域检测部分36前进至步骤S200,并且在判断跟踪脸部区域的滚动方向是除朝向前方的方向之外的方向的情况下,身体区域检测部分36前进至步骤S210。
在步骤S200中,身体区域检测部分36检测(设置)与跟踪脸部区域的颈部相邻并且沿第一参考轴的正轴向方向(第一参考轴的正轴向方向比垂直于这个轴的轴向方向长)延伸的区域作为跟踪身体区域。例如,在图7(a)中示出的例子中,身体区域检测部分36将沿垂直方向较长的区域400设置在跟踪脸部区域210的向下方向,并且这被认为是跟踪身体区域。
接下来,身体区域检测部分36基于跟踪脸部区域的尺寸、世代信息和性别信息调整跟踪身体区域的形状。这里,世代信息是例如婴儿、儿童和成年人的分类。例如,随着跟踪脸部区域变得更大,身体区域检测部分36将跟踪身体区域设置得更大。这是因为这样的假设:随着跟踪脸部区域变得更大,拍摄对象的年龄增加并且跟踪身体区域变得更大。另外,随着跟踪脸部区域指示的世代变得更年轻,身体区域检测部分36将跟踪身体区域与跟踪脸部区域的尺寸之比设置得更小。这是因为,婴儿或儿童具有相对于他们的头的尺寸而言较小的身体。另外,身体区域检测部分36调整身体区域,以使得女性的身体区域小于男性的身体区域。其后,身体区域检测部分36前进至步骤S240。
在步骤S210中,身体区域检测部分36判断跟踪脸部区域的滚动方向是否向左倾斜。在判断跟踪脸部区域的滚动方向是向左倾斜的情况下,身体区域检测部分36前进至步骤S220,并且在判断跟踪脸部区域的滚动方向是向右倾斜的情况下,身体区域检测部分36前进至步骤S230。
在由第一参考轴和y轴形成的角度为大于或等于+45度并且小于或等于+135度的情况下,身体区域检测部分36判断跟踪脸部区域的滚动方向向左倾斜。在图7(b)中示出跟踪脸部区域的滚动方向向左倾斜的例子。在这个例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第一参考轴和y轴形成的角度为几乎90度。
另一方面,在由第一参考轴和y轴形成的角度为大于或等于-135度并且小于或等于-45度的情况下,身体区域检测部分36判断跟踪脸部区域的滚动方向向右倾斜。在图7(c)中示出跟踪脸部区域的滚动方向向右倾斜的例子。在这个例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第一参考轴和y轴形成的角度为几乎-90度。
在步骤S220中,身体区域检测部分36检测(设置)与跟踪脸部区域的颈部相邻并且沿第一参考轴的正轴向方向延伸的区域作为跟踪身体区域。例如,在图7(b)中示出的例子中,身体区域检测部分36将沿水平方向较长的区域400设置在跟踪脸部区域210的向右方向,并且这被认为是跟踪身体区域。接下来,身体区域检测部分36基于跟踪脸部区域的尺寸、世代信息和性别信息调整跟踪脸部区域的形状。其后,身体区域检测部分36前进至步骤S240。
在步骤S230中,身体区域检测部分36检测(设置)与跟踪脸部区域的颈部相邻并且沿第一参考轴的正轴向方向延伸的区域作为跟踪身体区域。在图7(c)中示出的例子中,身体区域检测部分36将沿水平方向较长的区域400设置在跟踪脸部区域210的向左方向,并且这被认为是跟踪身体区域。接下来,身体区域检测部分36基于跟踪脸部区域的尺寸、世代信息和性别信息调整跟踪脸部区域的形状。其后,身体区域检测部分36前进至步骤S240。
在步骤S240中,身体区域检测部分36判断跟踪脸部区域的偏航方向是否朝向前方。这里,偏航方向是垂直于第一参考轴的平面(也就是偏航方向参考表面)上的旋转方向。具体地讲,身体区域检测部分36首先设置将拍摄对象的视线投影到偏航方向参考表面的轴作为第二参考轴。第二参考轴具有从拍摄对象朝着透镜10的方向为正的方向。然后,身体区域检测部分36基于跟踪脸部区域内的各部分(诸如,眼睛、鼻子或嘴)的位置调整第二参考轴。例如,在第二参考轴不经过将嘴的中心点投影到偏航方向参考表面的投影点的情况下,身体区域检测部分36调整第二参考轴的位置,以使得第二参考轴经过该投影点。
接下来,身体区域检测部分36检测由第二参考轴和光轴形成的角度。在由这些轴形成的角度大于-10度并且小于+10度的情况下,身体区域检测部分36判断跟踪脸部区域的偏航方向朝向前方。这里,假设光轴具有从拍摄对象朝着透镜10的方向为正的方向。在拍摄对象朝向透镜10侧并且第二参考轴变为平行于光轴的情况下,由第二参考轴和光轴形成的角度变为0度,并且假设偏航方向参考表面上的逆时针方向是正方向。在图8(a)中示出跟踪脸部区域的偏航方向朝向前方的例子。在这个例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第二参考轴和光轴形成的角度为几乎0度。
在判断跟踪脸部区域的偏航方向是朝向前方的情况下,身体区域检测部分36前进至步骤S310,并且在判断跟踪脸部区域的偏航方向是除朝向前方的方向之外的方向的情况下,身体区域检测部分36前进至步骤S250。
在步骤S250中,身体区域检测部分36判断跟踪脸部区域的偏航方向是否朝向左侧。在由第二参考轴和光轴形成的角度为大于或等于-135度并且小于或等于-10度的情况下,身体区域检测部分36判断跟踪脸部区域的偏航方向朝向左侧。在图8(b)和8(c)中示出跟踪脸部区域的偏航方向朝向左侧的例子。在图8(b)中示出的例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第二参考轴和光轴形成的角度为大约-30度。在图8(c)中示出的例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第二参考轴和光轴形成的角度为大约-90度。
另一方面,在由第二参考轴和光轴形成的角度为大于或等于+10度并且小于或等于+135度的情况下,身体区域检测部分36判断跟踪脸部区域的偏航方向朝向右侧。在图8(d)和8(e)中示出跟踪脸部区域的偏航方向朝向右侧的例子。在图8(d)中示出的例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第二参考轴和光轴形成的角度为大约+30度。在图8(e)中示出的例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且由第二参考轴和光轴形成的角度为大约+90度。
在判断跟踪脸部区域的偏航方向是朝向左侧的情况下,身体区域检测部分36前进至步骤S260,并且在判断跟踪脸部区域的偏航方向为朝向右侧的情况下,身体区域检测部分36前进至步骤S290。
在步骤S260中,身体区域检测部分36判断由第二参考轴和光轴形成的角度是否为大于或等于-45度并且小于或等于-10度。也就是说,身体区域检测部分36判断沿跟踪脸部区域的偏航方向的旋转是否较小。在判断由第二参考轴和光轴形成的角度为大于或等于-45度并且小于或等于-10度或更小(也就是说,沿跟踪脸部区域的偏航方向的旋转较小)的情况下,身体区域检测部分36前进至步骤S270。另一方面,在判断由第二参考轴和光轴形成的角度为小于-45度(也就是说,沿偏航方向的旋转较大)的情况下,身体区域检测部分36前进至步骤S280。
在步骤S270中,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向稍微移动跟踪身体区域。例如,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向将跟踪身体区域移动脸部跟踪帧300的宽度(x轴方向的长度)的仅大约1/4。在图8(b)中示出的例子中,例如,由于跟踪脸部区域210在拾取的图像中向左旋转,所以身体区域检测部分36将跟踪身体区域400向右移动脸部跟踪帧的宽度的仅大约1/4。其后,身体区域检测部分36前进至步骤S320。
在步骤S280中,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向显著移动跟踪身体区域。例如,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向将跟踪身体区域移动脸部跟踪帧300的宽度的仅大约1/2。在图8(c)中示出的例子中,例如,由于跟踪脸部区域210在拾取的图像中向左旋转,所以身体区域检测部分36将跟踪身体区域400向右移动脸部跟踪帧的宽度的仅大约1/2。其后,身体区域检测部分36前进至步骤S320。
在步骤S290中,身体区域检测部分36判断由第二参考轴和光轴形成的角度是否为大于或等于+10度并且小于或等于+45度。也就是说,身体区域检测部分36判断沿跟踪脸部区域的偏航方向的旋转是否较小。在判断由第二参考轴和光轴形成的角度为大于或等于+10度并且小于或等于+45度的情况下,身体区域检测部分36前进至步骤S300。另一方面,在判断由第二参考轴和光轴形成的角度大于+45度(也就是说,沿偏航方向的旋转较大)的情况下,身体区域检测部分36前进至步骤S310。
在步骤S300中,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向稍微移动跟踪身体区域。例如,身体区域检测部分36 沿与第二参考轴的旋转方向相反的方向将跟踪身体区域移动脸部跟踪帧300的宽度(x轴方向的长度)的仅大约1/4。在图8(d)中示出的例子中,例如,由于跟踪脸部区域210在拾取的图像中向右旋转,所以身体区域检测部分36将跟踪身体区域400向左移动脸部跟踪帧的宽度的仅大约1/4。其后,身体区域检测部分36前进至步骤S320。
在步骤S310中,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向显著移动跟踪身体区域。例如,身体区域检测部分36沿与第二参考轴的旋转方向相反的方向将跟踪身体区域移动脸部跟踪帧300的宽度的仅大约1/2。在图8(e)中示出的例子中,例如,由于跟踪脸部区域210在拾取的图像中向右旋转,所以身体区域检测部分36将跟踪身体区域400向左移动脸部跟踪帧的宽度的仅大约1/2。其后,身体区域检测部分36前进至步骤S320。
在步骤S320中,身体区域检测部分36基于跟踪脸部区域的俯仰方向(颈部的较长方向)的方向和旋转角度调整跟踪身体区域。这里,俯仰方向是包括第一参考轴和光轴的平面(也就是俯仰方向参考表面)上的旋转方向。具体地讲,身体区域检测部分36首先设置将拍摄对象的视线投影到俯仰方向参考表面的轴作为第三参考轴。第三参考轴具有从拍摄对象朝着透镜10的方向为正的方向。然后,身体区域检测部分36基于跟踪脸部区域内的各部分(诸如,眼睛、鼻子或嘴)的位置调整第三参考轴。例如,在将经过鼻子和嘴的中心点的直线投影到俯仰方向参考表面的投影直线和第三参考轴不垂直的情况下,身体区域检测部分36使第三参考轴旋转,以使得它们垂直。
接下来,身体区域检测部分36检测由第三参考轴和光轴形成的角度(也就是沿跟踪脸部区域的俯仰方向的旋转角度)。这里,沿跟踪脸部区域的俯仰方向的旋转角度在拍摄对象朝向透镜10侧时并且在第三参考轴变为平行于光轴时变为0度,并且假设俯仰方向参考表面上的逆时针方向是正方向。总的说来,沿跟踪脸部区域的俯仰方向的旋转角度在拍摄对象使其脸部靠近其身体时变为负值,并且在拍摄对象使其脸部远离其身体时变为正值。在沿跟踪脸部区域的俯仰方向的旋转角度变为正值的情况下,随着旋转角度的绝对值变得更大,身体区域检测部分36沿第一参考轴的正方向将跟踪身体区域设置得更大。另一方面,在沿跟踪脸部区域的俯仰方向的旋转角度变为负值的情况下,随着旋转角度的绝对值变得更大,身体区域检测部分36沿第一参考轴的正方向将跟踪身体区域设置得更小。
接下来,身体区域检测部分36从跟踪身体区域内切除伸出到拾取的图像外面的区域。这里,在跟踪脸部区域布置在拾取的图像的边缘的情况下,例如,跟踪脸部区域非常大的情况被包括作为跟踪身体区域的一部分伸出到拾取的图像外面的情况。在图9(a)中示出跟踪身体区域的一部分伸出到拾取的图像外面的例子。在图9(a)中示出的例子中,在脸部跟踪帧叠加图像100中描述跟踪脸部区域210和脸部跟踪帧300,并且跟踪身体区域400的一部分伸出到脸部跟踪帧叠加图像100下方。
在步骤S330中,身体区域检测部分36判断跟踪身体区域相对于跟踪脸部区域是否具有某一尺寸或更大尺寸。在判断跟踪身体区域相对于跟踪脸部区域具有某一尺寸或更大尺寸的情况下,身体区域检测部分36结束身体区域检测处理,并且在跟踪身体区域相对于跟踪脸部区域具有小于某一尺寸的尺寸的情况下,身体区域检测部分36前进至步骤S335。
在步骤S335中,身体区域检测部分36沿跟踪脸部区域的方向扩展跟踪身体区域。在图9(b)中示出沿跟踪脸部区域的方向扩展跟踪身体区域的例子。在如图9(b)中所示执行步骤S335的处理的情况下,跟踪身体区域的一部分被叠加在跟踪脸部区域上。需要注意的是,扩展的区域的尺寸可基本上与通过步骤S320切除的区域相同。其后,身体区域检测部分36结束身体区域检测处理。
需要注意的是,身体区域检测部分36可通过同时使用在跟踪脸部区域周围的区域的移动信息(移动向量)和除拾取的图像之外的信息(例如,红外信息、距离信息、温度记录器信息等)来检测跟踪身体区域。例如,身体区域检测部分36可检测具有与跟踪脸部区域的移动相似的移动的区域作为跟踪身体区域。另外,身体区域检测部分36可检测具有与跟踪脸部区域的温度相似的温度的区域作为跟踪身体区域。另外,身体区域检测部分36可检测相对于透镜10的距离与跟踪脸部区域的相对于透镜10的距离相似的区域作为跟踪身体区域。
(连接判断处理)
接下来,将描述基于图5的在步骤S150中示出的连接判断处理。在步骤S340中,跟踪目标确定部分35通过组合由脸部核对部分33给出的脸部帧叠加图像和由身体跟踪部分34给出的身体跟踪帧叠加图像来产生用于连接判断的图像。在脸部核对部分33检测到新脸部区域的情况下,新脸部区域和新脸部帧被包括在这个用于连接判断的图像中。另外,身体跟踪帧被包括在该用于连接判断的图像中。接下来,跟踪目标确定部分35计算身体跟踪帧的重心。例如,身体跟踪帧的重心变为身体跟踪帧的中心点。
在步骤S350中,跟踪目标确定部分35判断新脸部区域的滚动方向是否朝向前方。具体处理内容类似于步骤S190的处理内容。在判断新脸部区域的滚动方向是朝向前方的情况下,跟踪目标确定部分35前进至步骤S360,并且如果判断新脸部区域的滚动方向是除朝向前方的方向之外的方向,则跟踪目标确定部分35前进至步骤S370。
在步骤S360中,身体区域检测部分36设置与新脸部区域的颈部相邻并且沿第一参考轴的正轴向方向延伸的区域作为搜索区域。需要注意的是,身体区域检测部分36沿垂直于第一参考轴的方向扩大搜索区域。在图10(a)中示出搜索区域的例子。在这个例子中,在连接判断图像110中描述新脸部区域220和新脸部帧310,并且新脸部区域的滚动方向朝向前方。另外,跟踪目标确定部分35将沿垂直方向较长的搜索区域440设置在新脸部区域220的向下方向。
接下来,跟踪目标确定部分35基于跟踪脸部区域的尺寸、世代信息和性别信息调整跟踪脸部区域的形状。具体处理内容类似于上述步骤S200的处理内容。
在步骤S370中,跟踪目标确定部分35判断跟踪脸部区域的滚动方向是否向左倾斜。具体处理内容类似于步骤S210的处理内容。在判断跟踪脸部区域的滚动方向是向左倾斜的情况下,跟踪目标确定部分35前进至步骤S380,并且在判断跟踪脸部区域的滚动方向是向右倾斜的情况下,跟踪目标确定部分35前进至步骤S390。
在步骤S380中,跟踪目标确定部分35设置与跟踪脸部区域的颈部相邻并且沿第一参考轴的正轴向方向延伸的区域作为搜索区域。需要注意的是,身体区域检测部分36沿垂直于第一参考轴的方向扩大搜索区域。在图10(b)中示出搜索区域的例子。在这个例子中,在连接判断图像110中描述新脸部区域220和新脸部帧310,并且新脸部区域的滚动方向向左倾斜。另外,跟踪目标确定部分35将沿水平方向较长的搜索区域440设置在新脸部区域220的向右方向。接下来,跟踪目标确定部分35基于新脸部区域的尺寸、世代信息和性别信息调整新脸部区域的形状。其后,跟踪目标确定部分35前进至步骤S400。
在步骤S390中,跟踪目标确定部分35设置与新脸部区域的颈部相邻并且沿第一参考轴的正轴向方向延伸的区域作为搜索区域。需要注意的是,身体区域检测部分36沿垂直于第一参考轴的方向扩大搜索区域。另外,在执行步骤S390的处理的情况下,新脸部区域的滚动方向向右倾斜。在图10(c)中示出搜索区域的例子。在这个例子中,在连接判断图像110中描述新脸部区域220和新脸部帧310,并且新脸部区域的滚动方向向右倾斜。另外,跟踪目标确定部分35将沿水平方向较长的搜索区域440设置在新脸部区域220的向左方向。接下来,身体区域检测部分36基于新脸部区域的尺寸、世代信息和性别信息调整新脸部区域的形状。其后,身体区域检测部分36前进至步骤S400。
在步骤S400中,跟踪目标确定部分35判断新脸部区域的偏航方向是否朝向前方。具体处理内容类似于步骤S240的处理内容。在判断新脸部区域的偏航方向是朝向前方的情况下,跟踪目标确定部分35前进至步骤S480,并且在判断新脸部区域的偏航方向是除朝向前方的方向之外的方向的情况下,跟踪目标确定部分35前进至步骤S410。
在步骤S410中,跟踪目标确定部分35判断新脸部区域的偏航方向是否向左倾斜。具体处理内容类似于步骤S250的处理内容。在判断新脸部区域的偏航方向是向左倾斜的情况下,跟踪目标确定部分35前进至步骤S420,并且在判断新脸部区域的偏航方向是向右倾斜的情况下,跟踪目标确定部分35前进至步骤S450。
在步骤S420中,跟踪目标确定部分35判断沿新脸部区域的偏航方向的旋转是否较小。具体处理内容类似于步骤S260的处理内容。在判断沿新脸部区域的偏航方向的旋转是较小的情况下,跟踪目标确定部分35前进至步骤S430。另一方面,在判断沿新脸部区域的偏航方向的旋转是较大的情况下,跟踪目标确定部分35前进至步骤S440。
在步骤S430中,跟踪目标确定部分35沿与第二参考轴的旋转方向相反的方向稍微移动搜索区域。具体处理内容类似于步骤S270的处理内容。其后,跟踪目标确定部分35前进至步骤S480。
在步骤S440中,跟踪目标确定部分35沿与第二参考轴的旋转方向相反的方向显著移动搜索区域。具体处理内容类似于步骤S280的处理内容。其后,跟踪目标确定部分35前进至步骤S480。
在步骤S450中,跟踪目标确定部分35判断沿新脸部区域的偏航方向的旋转是否较小。具体处理内容类似于步骤S290的处理内容。在判断沿新脸部区域的偏航方向的旋转是较小的情况下,跟踪目标确定部分35前进至步骤S460。另一方面,在判断沿新脸部区域的偏航方向的旋转是较大的情况下,跟踪目标确定部分35前进至步骤S470。
在步骤S460中,跟踪目标确定部分35沿与第二参考轴的旋转方向相反的方向稍微移动搜索区域。具体处理内容类似于步骤S300的处理内容。其后,跟踪目标确定部分35前进至步骤S480。
在步骤S470中,跟踪目标确定部分35沿与第二参考轴的旋转方向相反的方向显著移动搜索区域。具体处理内容类似于步骤S310的处理内容。其后,跟踪目标确定部分35前进至步骤S480。
在步骤S480中,跟踪目标确定部分35判断身体跟踪帧的重心是否存在于搜索区域内。在图10(a)中示出身体跟踪帧的重心存在于搜索区域内的例子。在图10(a)中示出的例子中,身体跟踪帧420和重心430被叠加在连接判断图像110上,并且重心430存在于搜索区域440内。类似地,在图10(d)中示出身体跟踪帧的重心存在于搜索区域外面的例子。在图10(d)中示出的例子中,身体跟踪帧420和重心430被叠加在连接判断图像110上,并且重心430存在于搜索区域440外面。
在判断身体跟踪帧的重心是存在于搜索区域内的情况下,跟踪目标确定部分35前进至步骤S490,并且在判断身体跟踪帧的重心是存在于搜索区域外面的情况下,跟踪目标确定部分35前进至步骤S500。
在步骤S490中,跟踪目标确定部分35判断新脸部区域和跟踪身体区域具有上述规定位置关系,并且连接它们。其后,跟踪目标确定部分35结束连接判断处理。另一方面,在步骤S500中,跟踪目标确定部分35判断新脸部区域和跟踪身体区域不具有规定位置关系,并且不连接它们。其后,跟踪目标确定部分35结束连接判断处理。
需要注意的是,跟踪目标确定部分35可通过同时使用在新脸部区域周围的区域的移动信息(移动向量)和除拾取的图像之外的信息(例如,红外信息、距离信息、温度记录器信息等)来设置搜索区域。具体处理内容类似于身体区域检测处理的处理内容。
(下一次跟踪目标判断处理)
接下来,将描述基于图6的下一次跟踪目标判断处理。在步骤S510中,跟踪目标确定部分35判断身体区域是否是跟踪目标。需要注意的是,通过图3中示出的跟踪目标确定处理来确定跟踪目标。在身体区域是跟踪目标的情况下,跟踪目标确定部分35前进至步骤S520,并且在脸部区域是跟踪目标的情况下,跟踪目标确定部分前进至步骤S530。
在步骤S520中,跟踪目标确定部分35启动身体跟踪部分34。具体地讲,跟踪目标确定部分35在身体跟踪部分34中启动开始指示信息。以这种方式,身体跟踪处理从下一帧开始。其后,跟踪目标确定部分35结束下一次跟踪目标判断处理。
在步骤S530中,跟踪目标确定部分35判断跟踪脸部区域的可靠性是否等于或低于规定值。在判断跟踪脸部区域的可靠性是等于或低于规定值的情况下,跟踪目标确定部分35前进至步骤S520,并且在跟踪脸部区域的可靠性超过规定值的情况下,跟踪目标确定部分35前进至步骤S540。因此,即使存在跟踪目标是脸部区域的情况,在脸部区域的可靠性低的情况下,跟踪目标确定部分35也并行地执行脸部跟踪和身体跟踪。当跟踪脸部区域的偏航方向的旋转角度的绝对值变得更大时,跟踪脸部区域的可靠性变得更小。在步骤S540中,跟踪目标确定部分35不启动身体跟踪部分34。其后,跟踪目标确定部分35结束下一次跟踪目标判断处理。
以这种方式,活体跟踪部分30假设跟踪目标原则上是脸部区域。也就是说,在已通过当前帧的核对处理检测到跟踪脸部区域的情况下,活体跟踪部分30假设跟踪目标是脸部区域。另外,在已通过当前帧的脸部跟踪处理检测到跟踪脸部区域的情况下,活体跟踪部分30假设跟踪目标是脸部区域。另外,即使跟踪目标是身体区域,在新脸部区域和跟踪身体区域连接的情况下,活体跟踪部分30也将跟踪目标改变为脸部区域。
然而,在当前帧中未检测到跟踪脸部区域并且新脸部区域未与跟踪身体区域连接的情况下,活体跟踪部分30假设跟踪目标是身体区域。然后,在跟踪目标变为身体区域的情况下,或者在跟踪脸部区域的可靠性低的情况下,活体跟踪部分30在下一帧中开始身体跟踪处理。也就是说,在当前帧中检测到的跟踪脸部区域的可靠性低的情况下,活体跟踪部分30在下一帧中并行地执行脸部跟踪处理和身体跟踪处理。例如,作为活体跟踪部分30假设跟踪目标原则上是脸部区域的原因,包括与身体跟踪处理相比对于脸部跟踪处理而言更高的针对环境改变的鲁棒性。
另外,活体跟踪部分30通常在脸部跟踪处理期间检测跟踪身体区域。以这种方式,活体跟踪部分30能够通常识别最新的(也就是与目前环境对应的)跟踪身体区域。
(由显示控制部分执行的处理)
接下来,将描述显示控制部分38在显示部分40上显示的图像的例子。显示控制部分38通过组合由每个结构给出的图像来产生显示图像120,并且在显示部分40上显示这个显示图像120。图11(a)-(d)和12(a)-(d)是显示图像120的例子。在当前帧的跟踪目标是脸部区域的情况下,显示控制部分38在显示部分40上显示例如图11(a)中示出的显示图像120。
在这个显示图像120中描述人图像200、跟踪脸部区域210和脸部跟踪帧300。人图像200相对于透镜10朝向前方。需要注意的是,身体区域检测部分36与由显示控制部分38执行的处理并行地检测跟踪身体区域400。
其后,当人图像200的偏航方向改变时,跟踪脸部区域210的可靠性减小。然而,在跟踪脸部区域210的可靠性高的情况下,跟踪目标保持为脸部区域,并且身体跟踪部分34不启动。因此,显示控制部分38以与图11(a)的方式相同的方式显示显示图像120,如图11(b)中所示。
其后,在跟踪脸部区域的可靠性等于或低于规定值的情况下,跟踪目标保持为脸部区域,但身体跟踪部分34启动。在这种情况下,脸部跟踪帧叠加图像和身体跟踪帧叠加图像被给予显示控制部分38。因此,显示控制部分38在显示部分40上显示这些图像的组合作为显示图像120,如图11(c)中所示。在显示图像120中既描述脸部跟踪帧300又描述身体跟踪帧420。
其后,当不再检测到跟踪脸部区域时,脸部帧叠加图像和身体跟踪帧叠加图像被给予显示控制部分38。因此,显示控制部分38在显示部分40上显示这些图像的组合作为显示图像120,如图11(d)中所示。然而,由于未检测到脸部区域,所以在显示图像120中未描述脸部区域。需要注意的是,即使在这种情况下,脸部检测部分32和脸部核对部分33也继续启动。
在未检测到新脸部区域的状态下,显示控制部分38显示类似图像(参照图11(e)-12(a)、12(b))。以这种方式,用户能够容易地理解当前跟踪目标和跟踪目标切换的时刻。
其后,当检测到新脸部区域时,新脸部帧被包括在脸部帧叠加图像中。在这种情况下,显示控制部分38在显示部分40上显示图12(c)中示出的显示图像120。在这个显示图像120中描述新脸部区域220和新脸部帧310。另一方面,跟踪目标确定部分35与由显示控制部分38执行的处理并行地执行连接判断处理。在图12(c)中示出的例子中,由于新脸部区域220和身体跟踪帧420具有规定位置关系,所以假设新脸部区域220是跟踪脸部区域210,并且假设新脸部帧310是脸部跟踪帧300。另外,身体跟踪部分34停止。因此,显示控制部分38在下一帧中显示图12(d)中示出的显示图像120。在这个显示图像120中描述跟踪脸部区域210和脸部跟踪帧300。
<4.由图像处理设备实现的效果>
接下来,将描述由图像处理设备1实现的效果的一些例子。图13(a)-(c)显示在显示部分40上显示的显示图像120的例子。在这些显示图像120中描述人图像200和狗图像500。另外,身体跟踪帧600被叠加在狗图像500的身体区域上。也就是说,狗图像500是跟踪目标。另一方面,人图像200的脸部区域是普通脸部区域230(也就是说,也在前一帧中检测到的脸部区域)。因此,脸部帧320被叠加在普通脸部区域230上。也就是说,通过目标跟踪部分34跟踪作为跟踪目标的狗图像500,脸部检测部分32和脸部核对部分33连续地执行脸部检测处理和脸部核对处理。因此,即使在狗图像500的跟踪期间,图像拾取部分20也能够基于显示图像120根据人图像200的脸部区域执行白平衡调整。另外,图像拾取部分20能够基于显示图像120将焦点与狗图像500匹配,并且能够将脸部区域的曝光调整为合适的值。
在人图像200和狗图像500分开的情况下,如图13(a)中所示,它们自然不连接。然而,当它们彼此靠近时,如图13(b)中所示,存在脸部区域230和跟踪身体区域的位置关系变为规定位置关系的情况。然而,连接判断处理的目标不限于新脸部区域。因此,如图13(c)中所示,脸部区域230和跟踪身体区域不连接,并且作为结果,脸部区域230不被认为是跟踪目标。以这种方式,图像处理设备1能够防止跟踪目标移至不同的拍摄对象。
类似地,图14(a)-(b)是显示图像120的例子。如图14(a)中所示,在显示图像120中描述人图像200以及200a-200c。人图像200的脸部区域是这些人图像之中的跟踪目标。因此,人图像200的脸部区域是跟踪脸部区域210。另一方面,其它人图像200a-200c的脸部区域是普通脸部区域,并且脸部帧320a-320c分别被叠加在它们上面。
其后,如图14(b)中所示,当不再检测到人图像200的脸部区域时,跟踪目标移至人图像200的身体区域。也就是说,跟踪身体帧420被叠加在人图像200的身体区域上。另一方面,在这个例子中,由于检测到人图像200a-200c的脸部区域,所以脸部帧320a-320c被叠加在它们上面。因此,即使存在不再检测到人图像的脸部区域的情况,图像拾取部分20也能够基于显示图像120根据人图像200的脸部区域执行白平衡调整。另外,图像拾取部分20能够基于显示图像120将脸部区域的曝光调整为合适的值。
类似地,图15(a)-(d)是显示图像120的例子。在这些显示图像120中描述人图像200和狗图像500。另外,人图像200的脸部区域是跟踪脸部区域210,并且脸部跟踪帧300被叠加在跟踪脸部帧210上。因此,跟踪脸部区域210被登记在脸部区域列表中。
在跟踪脸部区域210和狗图像500具有规定位置关系时,如图15(a)中所示,存在狗图像500被检测为跟踪身体区域400的情况。因此,如图15(b)中所示,当人移至图像处理设备1的图像拾取范围外面时,存在狗图像500被认为是跟踪身体区域的情况,并且身体跟踪帧420被叠加在狗图像500上。
其后,当人图像200在某一帧中返回到显示图像120中时,如图15(c)中所示,人图像200的脸部区域被认为是新脸部区域220。另外,新脸部帧310被叠加在新脸部区域220上。需要注意的是,在这个例子中,由于新脸部区域220和狗图像500分开,所以它们不连接。然而,由于新脸部区域220已经被登记在脸部区域列表中,所以新脸部区域220在脸部核对处理中被认为是跟踪脸部区域210,并且脸部跟踪帧300被叠加在跟踪脸部区域210上。因此,如图15(d)中所示,跟踪目标返回到人图像200的脸部区域。以这种方式,即使跟踪目标在某一帧中移至不同的拍摄对象,图像处理设备1也能够使跟踪目标返回到原始拍摄对象。
类似地,图16(a)-(d)是显示图像120的例子。在这些显示图像120中描述人图像200。在图16(a)中示出的显示图像120中,跟踪人图像200。然而,由于未检测到脸部区域,所以身体区域被认为是跟踪目标。因此,身体跟踪帧420被叠加在人图像200的身体区域上。
其后,当人接近图像处理设备1(沿箭头A1的方向移动)时,如图16(b)中所示,将会检测到人图像200的脸部区域。以这种方式,跟踪目标改变为脸部区域。也就是说,人图像200的脸部区域被认为是跟踪脸部区域210,并且脸部跟踪帧300被叠加在跟踪脸部区域210上。另外,跟踪脸部区域210被登记在脸部区域列表中。
其后,当人移至图像处理设备1的图像拾取范围外面(沿箭头A2的方向移动)时,如图16(c)中所示,人图像200从显示图像120消失(帧消失),并且跟踪中断。
其后,当人从图像处理设备1的图像拾取范围外面沿箭头A3的方向移动并且进入图像处理设备1的图像拾取范围中时,首先,人图像200的脸部区域在核对处理中被认为是新脸部区域。另外,由于人图像200的脸部区域已经被登记在脸部区域列表中,所以新脸部区域被认为是跟踪脸部区域210,并且脸部跟踪帧300被叠加在跟踪脸部区域210上。因此,如图16(d)中所示,跟踪目标返回到人图像200的脸部区域。以这种方式,即使跟踪目标在某一时刻消失,图像处理设备1也能够在跟踪目标返回到图像拾取范围中时立即跟踪这个跟踪目标。
需要注意的是,在仅跟踪人图像的身体区域的技术中,可能无法登记人的脸部区域。因此,在这种技术中,当跟踪目标暂时消失时,即使跟踪目标返回到图像拾取范围中,也可能无法仍然仅跟踪身体区域。于是,对身体区域的跟踪针对环境改变具有低鲁棒性。因此,在仅跟踪人图像的身体区域的技术中,当跟踪目标暂时消失时,经常存在不能返回跟踪的情况。另一方面,即使跟踪目标在某一时刻消失,图像处理设备1也能够在跟踪目标返回到图像拾取范围中时立即跟踪这个跟踪目标。
<5.各种修改例子>
接下来,将描述图像处理设备1执行的处理的各种修改例子。
(第一修改例子)
如上所述,在检测到新脸部区域并且新脸部区域和跟踪身体区域具有规定位置关系的情况下,跟踪目标确定部分35认为新脸部区域是跟踪脸部区域。然而,即使存在检测到新脸部区域并且新脸部区域和跟踪身体区域具有规定位置关系的情况,跟踪目标确定部分35也可继续对身体区域的跟踪。
将基于图17(a)-(d)描述由第一修改例子执行的处理的例子。图17(a)-(d)显示在第一修改例子中显示在显示部分40上的显示图像120的例子。图17(a)-(c)类似于图12(a)-(c)。也就是说,跟踪目标确定部分35执行上述跟踪目标确定处理,直至检测到新脸部区域。
然而,如图17(c)中所示,即使存在检测到新脸部区域220并且新脸部区域220和跟踪身体区域具有规定位置关系的情况,跟踪目标确定部分35也可不认为新脸部区域220是跟踪脸部区域。具体地讲,跟踪目标确定部分35可不执行连接判断处理。因此,在下一帧中,脸部核对部分33认为前一帧的新脸部区域220是普通脸部帧230,并且将脸部帧320叠加在普通脸部帧230上。因此,如图17(d)中所示,显示控制部分38显示描述普通脸部区域230、脸部帧320和身体跟踪帧420的显示图像120。
根据第一修改例子,图像处理设备1能够准确而连续地跟踪除脸部区域之外的部分,诸如动物、车辆或人的身体区域。需要注意的是,假设通过用户的设置来启动图像处理设备1是否对新脸部区域执行连接判断处理。以这种方式,图像处理设备1能够响应各种用户的需要。
(第二修改例子)
接下来,将描述第二修改例子。在第二修改例子中,通过用户的输入操作等,脸部核对部分33将脸部区域之一设置为微笑跟踪脸部区域。然后,脸部核对部分33将微笑脸部跟踪帧叠加在微笑跟踪脸部区域上。在微笑跟踪脸部区域是微笑的脸部的情况下,脸部核对部分33将这一点报告给图像拾取部分20,并且图像拾取部分20在接收到这个报告时执行图像拾取。需要注意的是,优选地,在与脸部跟踪帧不同的模式下显示微笑脸部跟踪帧。
另外,身体区域检测部分36检测与微笑跟踪脸部区域具有规定位置关系的区域作为微笑跟踪身体区域。然后,身体跟踪部分34将微笑身体跟踪帧叠加在微笑跟踪身体区域上。另外,在微笑跟踪身体区域与新脸部区域具有规定位置关系的情况下,跟踪目标确定部分35认为新脸部区域是微笑跟踪脸部区域。需要注意的是,跟踪目标确定部分35可容易地通过扩大搜索区域来将跟踪目标改变为脸部区域。
将基于图18(a)-(b)描述由第二修改例子执行的处理的例子。图18(a)-(b)是在第二修改例子中显示在显示部分40上的显示图像120的例子。如图18(a)中所示,在显示图像120中描述人图像200以及200a-200c。人图像200的脸部区域是这些人图像之中的微笑跟踪脸部区域240,并且微笑跟踪帧350被叠加在微笑跟踪脸部区域240上。另一方面,其它人图像200a-200c的脸部区域是普通脸部区域,并且脸部帧320a-320c被叠加在它们上面。
其后,如图18(b)中所示,当不再检测到人图像200的脸部区域时,跟踪目标移至人图像200的身体区域。这里,人图像200的身体区域被认为是微笑跟踪身体区域,并且微笑身体跟踪帧450被叠加在微笑跟踪身体区域上。其后,在再次检测到人图像200的脸部区域的情况下,这个脸部区域(也就是说,新脸部区域)被认为是微笑跟踪脸部区域240,并且微笑跟踪帧350被叠加在微笑跟踪脸部区域240上。
以这种方式,即使在某一脸部区域已被设置为微笑跟踪脸部区域之后暂时未检测到这个脸部区域,图像处理设备1也能够防止其它脸部区域被设置为微笑跟踪脸部区域。因此,即使除用户已指定的脸部区域之外的脸部区域是微笑的脸部,图像处理设备1也能够不执行图像拾取。
需要注意的是,在仅跟踪脸部区域的技术中,当暂时不再检测到微笑跟踪脸部区域时,如图19中所示,其它脸部区域被认为是微笑跟踪脸部区域,并且微笑目标脸部帧350a-350c被显示在这些脸部区域上。因此,在这种技术中,存在当除用户已指定的脸部区域之外的脸部区域是微笑的脸部时执行图像拾取的情况。
(第三修改例子)
接下来,将描述第三修改例子。如上所述,在跟踪脸部区域的可靠性低的情况下,显示控制部分38既显示脸部跟踪帧又显示身体跟踪帧。然而,在第三修改例子中,即使存在跟踪脸部区域的可靠性低的情况,显示控制部分38也仅显示脸部跟踪帧。在这种情况下,在不再检测到跟踪脸部帧的情况下,脸部跟踪帧立即移至身体跟踪帧(在一帧中)。当然,脸部跟踪帧可被连续地显示某一时间段以防止搜寻。
将基于图20(a)-(b)描述由第三修改例子执行的处理的例子。图20(a)-(b)是在第三修改例子中显示在显示部分40上的显示图像120的例子。图20(a)中示出的显示图像120类似于图11(c)中示出的显示图像120,并且是在跟踪脸部区域210的可靠性低的情况下显示的图像。另一方面,图20(b)类似于图11(d),并且是在不再检测到跟踪帧区域的情况下显示的图像。在如图20(a)所示的第三修改例子中,即使跟踪脸部区域210的可靠性变低,也不显示身体跟踪帧420。即使在第三修改例子中,用户也能够准确地理解跟踪目标。
(第四修改例子)
接下来,将描述第四修改例子。如上所述,在跟踪脸部区域的可靠性低的情况下,显示控制部分38既显示脸部跟踪帧又显示身体跟踪帧。然而,在第四修改例子中,在跟踪脸部区域的可靠性低的情况下,显示控制部分38将显示图像120中的脸部跟踪帧改变为过渡帧,并且不显示身体跟踪帧。然后,显示控制部分38针对每一帧逐渐地将这个过渡帧移至身体跟踪帧的位置。然后,在过渡帧的位置与身体跟踪帧的位置匹配的情况下,显示控制部分38将过渡帧改变为身体跟踪帧。根据第四修改例子,能够可靠地防止搜寻,并且用户能够准确地理解跟踪目标。
将基于图21(a)-(c)描述由第四修改例子执行的处理的例子。图21(a)-(c)是在第四修改例子中显示在显示部分40上的显示图像120的例子。图21(a)中示出的显示图像120类似于图11(c)中示出的显示图像120,并且是在跟踪脸部区域210的可靠性低的情况下显示的图像。另一方面,图21(b)和21(c)类似于图11(d),并且是在不再检测到跟踪脸部区域的情况下显示的图像。在第四修改例子中,在跟踪脸部区域210的可靠性变低的情况下,显示控制部分38将脸部跟踪帧300改变为过渡帧700。然后,如图21(b)和21(c)中所示,显示控制部分38针对每一帧逐渐地将过渡帧700移至身体跟踪帧的位置。
(第五修改例子)
接下来,将描述第五修改例子。在第五修改例子中,身体跟踪部分34将脸部跟踪帧叠加在跟踪身体区域上。因此,即使存在跟踪目标变为身体区域的情况,显示控制部分38也显示已叠加脸部跟踪帧的跟踪身体区域。
将基于图22描述由第五修改例子执行的处理的例子。图22显示与图14(b)的情况类似的情况。然而,在第五修改例子中,脸部跟踪帧300被叠加在人图像200的跟踪身体区域上。即使在这种情况下,用户也能够准确地理解跟踪目标。
(第六修改例子)
接下来,将描述第六修改例子。在第六修改例子中,在跟踪目标变为身体区域的情况下,脸部检测部分32检测与跟踪身体区域具有规定位置关系的区域作为脸部估计区域。然后,脸部核对部分33将脸部估计帧叠加在脸部估计区域上。另一方面,身体跟踪部分34不将身体跟踪帧叠加在跟踪身体区域上。因此,即使存在跟踪目标变为身体区域的情况,显示控制部分38也显示已叠加脸部估计帧的脸部估计区域。需要注意的是,可在与脸部跟踪帧的模式相似的模式(例如,颜色或形状)下或者在另一模式下显示脸部估计帧。
将基于图23描述由第六修改例子执行的处理的例子。图23显示与图14(b)的情况类似的情况。然而,在第六修改例子中,脸部估计帧360被叠加在人图像200的脸部估计区域上。即使在这种情况下,用户也能够准确地理解跟踪目标。
(第七修改例子)
接下来,将描述第七修改例子。在第七修改例子中,身体跟踪部分34将人体帧叠加在跟踪身体区域的整个身体上。需要注意的是,即使存在跟踪目标变为脸部区域的情况,身体跟踪部分34也可将这个人体帧叠加在跟踪身体区域上。
将基于图24描述由第七修改例子执行的处理的例子。图24显示与图14(b)的情况类似的情况。然而,在第七修改例子中,人体帧370被叠加在人图像200的跟踪身体区域的整个身体上。
(第八修改例子)
接下来,将描述第八修改例子。在第八修改例子中,身体跟踪部分34将身体跟踪帧叠加在第六修改例子中的跟踪身体区域上。
将基于图25描述由第八修改例子执行的处理的例子。图25显示与图14(b)的情况类似的情况。然而,在第八修改例子中,脸部估计帧360被叠加在人图像200的脸部估计区域上,并且身体跟踪帧420被叠加在跟踪身体区域上。即使在这种情况下,用户也能够准确地理解跟踪目标。
<6.结论>
以这种方式,图像处理设备1能够合适地在脸部区域和身体区域之间切换跟踪目标。以这种方式,即使存在脸部区域频繁地垂直和水平移动以及脸部检测不稳定的情况,并且即使存在环境(例如,亮度)频繁改变的情况,图像处理设备1也能够更准确地并且连续地跟踪跟踪目标。因此,图像处理设备1可执行跟踪目标的方向和尺寸的改变以及针对环境(诸如,亮度)的改变比较鲁棒的拍摄对象跟踪。另外,由于图像处理设备1能够减小由于不再能够识别跟踪目标而结束跟踪的频率,所以用户重新登记跟踪目标的劳动能够显著减少。
在图26(a)-(d)中示出的例子中,例如,儿童被描述为显示图像120中的人图像200。由于儿童频繁地移动,所以脸部检测将会不稳定。另外,这个图像在亮度频繁改变的环境(例如,沙滩)中执行图像拾取。
在能够检测到人图像200的脸部区域的情况下,如图26(a)中所示,图像处理设备1认为脸部区域是跟踪脸部区域210,并且将脸部跟踪帧300叠加在跟踪脸部区域210上。另一方面,图像处理设备1检测与跟踪脸部区域210具有规定位置关系的区域作为跟踪身体区域。也就是说,即使在对脸部区域的跟踪期间,图像处理设备1也识别最新的跟踪身体区域。
因此,如图26(b)中所示,即使存在不再能够检测到人图像200的脸部区域的情况,图像处理设备1也能够立即将跟踪目标改变为身体区域,并且能够将身体跟踪帧420叠加在跟踪身体区域上。
其后,在再次检测到人图像200的脸部区域的情况下,如图26(c)中所示,图像处理设备1认为这个脸部区域是新脸部区域。然后,由于新脸部区域与跟踪身体区域具有规定位置关系,所以图像处理设备1认为新脸部区域是跟踪脸部区域210,并且将脸部跟踪帧300叠加在跟踪脸部区域210上。接下来,另一方面,图像处理设备1检测与跟踪脸部区域210具有规定位置关系的区域作为跟踪身体区域。也就是说,即使在对脸部区域的跟踪期间,图像处理设备1也识别最新的跟踪身体区域。
因此,如图26(d)中所示,即使存在不再能够检测到人图像200的脸部区域的情况,图像处理设备1也能够立即将跟踪目标改变为身体区域,并且能够将身体跟踪帧420叠加在跟踪身体区域上。
在上述本实施例中,图像处理设备1检测与拾取的图像中的脸部区域具有规定位置关系的区域作为身体区域,并且跟踪身体区域。因此,即使存在不能检测到脸部区域的情况,由于图像处理设备1能够跟踪身体区域,所以也能够更可靠地执行对人的跟踪。
另外,由于图像处理设备1基于脸部区域的特征检测身体区域,所以能够更准确地检测身体区域。
另外,由于脸部区域的方向、脸部区域的尺寸、脸部区域内的各部分的位置、世代信息和性别信息中的至少一个被包括在脸部区域的特征中,所以图像处理设备1能够更准确地检测身体区域。
另外,由于脸部区域的滚动方向、偏航方向和俯仰方向中的至少一个被包括在脸部区域的方向中,所以图像处理设备1能够更准确地检测身体区域。
另外,由于图像处理设备1从拾取的图像检测脸部区域,确定脸部区域和身体区域中的至少一个作为跟踪目标,并且跟踪跟踪目标,所以即使图像处理设备1遇到不能检测到脸部区域的情况,也能够跟踪身体区域。
另外,在以前帧中(具体地讲,在前一帧中)检测到脸部区域的情况下,图像处理设备1确定脸部区域作为跟踪目标。因此,在前一帧中检测到脸部区域的情况下,也就是说,在可执行脸部跟踪的情况下,图像处理设备1能够连续地执行脸部跟踪。
另外,在以前帧中(也就是说,在前一帧中)检测到并且跟踪脸部区域的情况下,图像处理设备1确定脸部区域作为跟踪目标。因此,在前一帧中跟踪脸部区域的情况下,也就是说,在可执行脸部跟踪的情况下,图像处理设备1能够连续地执行脸部跟踪。
另外,在对脸部区域的跟踪期间的脸部区域的可靠性等于或低于规定值的情况下,由于图像处理设备1开始对身体区域的跟踪,所以能够更准确而可靠地跟踪人体。
另外,在对身体区域的跟踪期间检测到脸部区域并且脸部区域和身体区域具有规定位置关系的情况下,图像处理设备1确定脸部区域作为跟踪目标。因此,在检测到构成与身体区域的拍摄对象相同的拍摄对象的脸部区域的情况下,图像处理设备1能够立即重新开始脸部跟踪。
另外,在以前帧中(也就是说,在前一帧中)未检测到脸部区域并且脸部区域和身体区域具有规定位置关系的情况下,图像处理设备1确定脸部区域作为跟踪目标。因此,在身体区域和脸部区域构成不同的拍摄对象的情况下并且即使它们的位置关系是暂时规定位置关系,图像处理设备1也能够不将跟踪目标移至脸部区域。
另外,在拾取的图像和显示跟踪目标的跟踪帧(脸部跟踪帧或身体跟踪帧)被显示在显示部分40上并且跟踪目标已改变的情况下,图像处理设备1既显示脸部跟踪帧又显示身体跟踪帧。因此,用户能够更准确地理解跟踪目标。
另外,图像处理设备1在与跟踪目标的类型对应的模式下显示跟踪帧。也就是说,在跟踪目标变为脸部区域的情况下,图像处理设备1将脸部跟踪帧叠加在脸部区域上,并且在跟踪目标变为身体区域的情况下,图像处理设备1将身体跟踪帧叠加在身体区域上。因此,用户能够更准确地理解跟踪目标的类型。
另外,在拾取的图像和跟踪帧被显示在显示部分40上并且跟踪目标已改变的情况下,由于图像处理设备1执行从改变之前的跟踪目标到改变之后的跟踪目标的过渡帧的过渡,所以能够防止搜寻。因此,用户能够更准确地理解跟踪目标。
本领域技术人员应该理解,在不脱离所附权利要求或其等同物的范围的情况下,可以根据设计的需要和其它因素做出各种变型、组合、子组合和替换。
另外,本技术也可构造如下。
(1)一种图像处理系统,包括:脸部检测单元,用于在图像中检测脸部;和部分区域检测单元,用于基于在图像中检测到的脸部的位置检测图像的部分区域。
(2)如(1)所述的图像处理系统,还包括:跟踪确定单元,用于基于预定条件选择脸部和部分区域中的至少一个以进行跟踪并且跟踪选择的脸部和部分区域中的至少一个。
(3)如(1)和(2)中任何一项所述的图像处理系统,还包括:脸部核对单元,用于核对由脸部检测单元检测到的脸部的至少一部分与存储的脸部信息的列表。
(4)如(1)至(3)中任何一项所述的图像处理系统,还包括:透镜;图像拾取单元,用于通过透镜捕捉图像;和显示器,用于显示图像以及显示对选择的脸部和部分区域中的至少一个的跟踪。
(5)如(2)所述的图像处理系统,其中所述预定条件包括脸部跟踪的可靠性,脸部跟踪的可靠性随着脸部的旋转角度增加而减小。
(6)如(2)或(5)中任何一项所述的图像处理系统,其中所述跟踪确定单元在脸部跟踪的可靠性高于预定阈值时选择脸部以进行跟踪。
(7)如(2)、(5)或(6)中任何一项所述的图像处理系统,其中所述跟踪确定单元在脸部跟踪的可靠性等于或低于所述预定阈值时选择脸部和部分区域以进行跟踪。
(8)如(2)、(5)、(6)或(7)中任何一项所述的图像处理系统,其中所述跟踪确定单元在未检测到脸部时选择部分区域以进行跟踪。
(9)如(1)至(8)中任何一项所述的图像处理系统,其中所述部分区域检测单元基于在图像中检测到的脸部的取向检测部分区域。
(10)如(1)至(9)中任何一项所述的图像处理系统,其中所述检测到的部分区域的至少一部分在脸部垂直布置时在脸部下方延伸。
(11)如(1)至(10)中任何一项所述的图像处理系统,其中所述检测到的部分区域的至少一部分在脸部向左侧倾斜时向脸部的右侧延伸。
(12)如(1)至(11)中任何一项所述的图像处理系统,其中所述检测到的部分区域的至少一部分在脸部向右侧倾斜时向脸部的左侧延伸。
(13)如(2)所述的图像处理系统,其中所述跟踪确定单元基于所述预定条件直接从跟踪脸部切换到跟踪部分区域。
(14)如(7)所述的图像处理系统,其中所述脸部检测单元基于部分区域的位置识别脸部估计区域。
(15)如(2)至(14)中任何一项所述的图像处理系统,还包括:显示图像的显示单元,其中跟踪的指示基于对脸部和部分区域中的至少一个的选择而被叠加在图像上。
(16)如(15)所述的图像处理系统,其中所述指示包括叠加在图像上的框。
(17)如(15)至(16)中任何一项所述的图像处理系统,其中当既跟踪脸部又跟踪部分区域时,所述指示包括叠加在脸部上的第一框和叠加在部分区域上的第二框。
(18)如(15)至(17)中任何一项所述的图像处理系统,其中当既跟踪脸部又跟踪部分区域时,所述框被叠加在脸部和部分区域上方。
(19)一种图像处理方法,包括:在脸部检测单元中,在图像中检测脸部;以及在部分区域检测单元中,基于在图像中检测到的脸部的位置检测图像的部分区域。
(20)一种非暂态计算机可读介质,该计算机可读介质利用它上面的计算机可读指令而被编码,当计算机可读指令由计算机执行时,计算机可读指令使计算机执行一种方法,该方法包括:在图像中检测脸部;以及基于在图像中检测到的脸部的位置检测图像的部分区域。
(21)一种图像处理设备,包括:
跟踪部分,基于拾取的图像中的脸部区域检测拍摄对象的部分区域并且跟踪所述部分区域。
(22)如(21)所述的图像处理设备,其中所述部分区域与脸部区域具有规定位置关系。
(23)如(22)所述的图像处理设备,其中所述跟踪部分从拾取的图像检测脸部区域,确定脸部区域和部分区域中的至少一个作为跟踪目标,并且跟踪跟踪目标。
(24)如(23)所述的图像处理系统,其中所述跟踪部分在脸部区域和部分区域之间切换跟踪目标。
(25)如(24)所述的图像处理设备,其中在每次检测到脸部区域时脸部区域被登记在脸部区域列表中并且当前帧的脸部区域与脸部区域列表中登记的脸部区域匹配的情况下,所述跟踪部分确定该脸部区域作为跟踪目标。
(26)如(24)所述的图像处理系统,其中在当前帧的脸部区域与在以前帧中跟踪的脸部区域匹配的情况下,所述跟踪部分确定该脸部区域作为跟踪目标。
(27)如(24)至(26)中任何一项所述的图像处理设备,其中在对脸部区域的跟踪期间的脸部区域的可靠性变为等于或低于规定值的情况下,所述跟踪部分开始对部分区域的跟踪。
(28)如(24)至(27)中任何一项所述的图像处理设备,其中在对部分区域的跟踪期间检测到脸部区域并且脸部区域和部分区域具有所述规定位置关系的情况下,所述跟踪部分确定该脸部区域作为跟踪目标。
(29)如(28)所述的图像处理设备,其中在以前帧中未检测到脸部区域并且脸部区域和部分区域具有所述规定位置关系的情况下,所述跟踪部分确定该脸部区域作为跟踪目标。
(30)如(24)至(29)中任何一项所述的图像处理设备,其中在拾取的图像和显示跟踪目标的跟踪目标通知图像被显示在显示部分上并且跟踪目标已改变的情况下,所述跟踪部分既显示改变之前的跟踪目标的跟踪目标通知图像又显示改变之后的跟踪目标的跟踪目标通知图像。
(31)如(24)至(30)中任何一项所述的图像处理设备,其中所述跟踪部分在显示部分上显示拾取的图像,并且在与跟踪目标的类型对应的模式下在显示部分上显示显示跟踪目标的跟踪目标通知图像。
(32)如(24)至(29)中任何一项所述的图像处理设备,其中在拾取的图像和显示跟踪目标的跟踪目标通知图像被显示在显示部分上并且跟踪目标已改变的情况下,所述跟踪部分执行从改变之前的跟踪目标到改变之后的跟踪目标的跟踪目标通知图像的过渡。
(33)如(21)至(32)中任何一项所述的图像处理设备,其中所述跟踪部分基于脸部区域的特征检测部分区域。
(34)如(33)所述的图像处理设备,其中所述脸部区域的方向、脸部区域的尺寸、脸部区域的移动、脸部区域内的各部分的位置、世代信息和性别信息中的至少一个被包括作为脸部区域的特征。
(35)如(34)所述的图像处理设备,其中所述脸部区域的滚动方向、偏航方向和俯仰方向中的至少一个被包括作为脸部区域的方向。
(36)一种图像处理方法,包括:
基于拾取的图像中的脸部区域检测拍摄对象的部分区域并且跟踪部分区域。
(37)一种程序,用于使计算机实现下述功能:
基于拾取的图像中的脸部区域检测拍摄对象的部分区域并且跟踪部分区域。
标号列表
1 图像处理设备
10 透镜
20 图像拾取部分
30 活体跟踪部分
31 图像存储器
32 脸部检测部分
33 脸部核对部分
34 身体跟踪部分
35 跟踪目标确定部分
36 身体区域检测部分
37 特征量提取部分
38 显示控制部分
40 显示部分
50 外部接口

Claims (17)

1.一种图像处理系统,包括:
脸部检测单元,在图像中检测脸部;
部分区域检测单元,基于在图像中检测到的脸部的位置检测图像的部分区域;以及
跟踪确定单元,基于预定条件选择脸部和部分区域中的至少一个以进行跟踪并且跟踪选择的脸部和部分区域中的至少一个,
其中所述预定条件包括脸部跟踪的可靠性,脸部跟踪的可靠性随着脸部的旋转角度增加而减小,以及
其中所述跟踪确定单元在脸部跟踪的可靠性高于预定阈值时选择脸部以进行跟踪。
2.如权利要求1所述的图像处理系统,还包括:
脸部核对单元,核对由脸部检测单元检测到的脸部的至少一部分与存储的脸部信息的列表。
3.如权利要求2所述的图像处理系统,还包括:
透镜;
图像拾取单元,通过透镜捕捉图像;和
显示器,显示图像以及显示对选择的脸部和部分区域中的至少一个的跟踪。
4.如权利要求1所述的图像处理系统,其中所述跟踪确定单元在脸部跟踪的可靠性等于或低于所述预定阈值时选择脸部和部分区域以进行跟踪。
5.如权利要求4所述的图像处理系统,其中所述跟踪确定单元在未检测到脸部时选择部分区域以进行跟踪。
6.如权利要求1所述的图像处理系统,其中所述部分区域检测单元基于在图像中检测到的脸部的取向检测部分区域。
7.如权利要求6所述的图像处理系统,其中检测到的部分区域的至少一部分在脸部垂直取向时在脸部下方延伸。
8.如权利要求7所述的图像处理系统,其中检测到的部分区域的至少一部分在脸部向左侧倾斜时向脸部的右侧延伸。
9.如权利要求8所述的图像处理系统,其中检测到的部分区域的至少一部分在脸部向右侧倾斜时向脸部的左侧延伸。
10.如权利要求1所述的图像处理系统,其中所述跟踪确定单元基于所述预定条件直接从跟踪脸部切换到跟踪部分区域。
11.如权利要求4所述的图像处理系统,其中所述脸部检测单元基于部分区域的位置识别脸部估计区域。
12.如权利要求1所述的图像处理系统,还包括:
显示图像的显示单元,其中跟踪的指示基于对脸部和部分区域中的至少一个的选择而被叠加在图像上。
13.如权利要求12所述的图像处理系统,其中所述指示包括叠加在图像上的框。
14.如权利要求13所述的图像处理系统,其中当既跟踪脸部又跟踪部分区域时,所述指示包括叠加在脸部上的第一框和叠加在部分区域上的第二框。
15.如权利要求13所述的图像处理系统,其中当既跟踪脸部又跟踪部分区域时,所述框被叠加在脸部和部分区域两者上。
16.一种图像处理方法,包括:
在脸部检测单元中,在图像中检测脸部;
在部分区域检测单元中,基于在图像中检测到的脸部的位置检测图像的部分区域;以及
在跟踪确定单元中,基于预定条件选择脸部和部分区域中的至少一个以进行跟踪并且跟踪选择的脸部和部分区域中的至少一个,
其中所述预定条件包括脸部跟踪的可靠性,脸部跟踪的可靠性随着脸部的旋转角度增加而减小,以及
其中在脸部跟踪的可靠性高于预定阈值时选择脸部以进行跟踪。
17.一种图像处理设备,包括:
在图像中检测脸部的模块;
基于在图像中检测到的脸部的位置检测图像的部分区域的模块;以及
基于预定条件选择脸部和部分区域中的至少一个以进行跟踪并且跟踪选择的脸部和部分区域中的至少一个的模块,
其中所述预定条件包括脸部跟踪的可靠性,脸部跟踪的可靠性随着脸部的旋转角度增加而减小,以及
其中在脸部跟踪的可靠性高于预定阈值时选择脸部以进行跟踪。
CN201380007191.8A 2012-02-06 2013-01-28 图像处理设备、图像处理方法、图像处理系统 Active CN104081757B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-022679 2012-02-06
JP2012022679A JP5978639B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び記録媒体
PCT/JP2013/000428 WO2013118450A1 (en) 2012-02-06 2013-01-28 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
CN104081757A CN104081757A (zh) 2014-10-01
CN104081757B true CN104081757B (zh) 2017-10-17

Family

ID=47739425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380007191.8A Active CN104081757B (zh) 2012-02-06 2013-01-28 图像处理设备、图像处理方法、图像处理系统

Country Status (5)

Country Link
US (1) US10225462B2 (zh)
EP (1) EP2813066A1 (zh)
JP (1) JP5978639B2 (zh)
CN (1) CN104081757B (zh)
WO (1) WO2013118450A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144263A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6184189B2 (ja) * 2013-06-19 2017-08-23 キヤノン株式会社 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
CN106157328B (zh) * 2015-04-20 2019-05-03 欧姆龙株式会社 运动判定装置、运动判定方法
CN106296725B (zh) * 2015-06-12 2021-10-19 富泰华工业(深圳)有限公司 运动目标实时检测与跟踪方法及目标检测装置
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2017018012A1 (ja) * 2015-07-28 2017-02-02 ソニー株式会社 情報処理システム、情報処理方法、および記録媒体
WO2017043132A1 (ja) * 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
JP6775343B2 (ja) 2015-09-11 2020-10-28 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
EP3142040A1 (en) 2015-09-11 2017-03-15 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and program
JP6649864B2 (ja) * 2015-10-23 2020-02-19 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム
CN105357442A (zh) * 2015-11-27 2016-02-24 小米科技有限责任公司 摄像头拍摄角度调整方法及装置
JP6700791B2 (ja) * 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
TWI610569B (zh) * 2016-03-18 2018-01-01 晶睿通訊股份有限公司 物體追蹤資訊的傳輸與顯示方法及其系統
JP6755713B2 (ja) * 2016-05-25 2020-09-16 キヤノン株式会社 追尾装置、追尾方法及びプログラム
CN106127732B (zh) * 2016-06-13 2019-01-01 深圳市太赫兹科技创新研究院 微波图像中人体性别检测方法和装置
CN106650583B (zh) * 2016-09-28 2019-07-23 Oppo广东移动通信有限公司 人脸检测方法、装置及终端设备
CN106331511A (zh) * 2016-11-16 2017-01-11 广东欧珀移动通信有限公司 智能终端跟踪拍摄的方法和装置
CN106780658B (zh) * 2016-11-16 2021-03-09 北京旷视科技有限公司 人脸特征添加方法、装置及设备
CN106780662B (zh) 2016-11-16 2020-09-18 北京旷视科技有限公司 人脸图像生成方法、装置及设备
JP6797009B2 (ja) * 2016-12-01 2020-12-09 株式会社Nttドコモ 人物識別装置、方法及びプログラム
WO2018112137A1 (en) * 2016-12-15 2018-06-21 General Electric Company System and method for image segmentation using a joint deep learning model
KR102495359B1 (ko) * 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
CN108734083B (zh) * 2018-03-21 2023-04-25 北京猎户星空科技有限公司 智能设备的控制方法、装置、设备和存储介质
CN108733280A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的焦点跟随方法、装置、智能设备及存储介质
CN110163889A (zh) * 2018-10-15 2019-08-23 腾讯科技(深圳)有限公司 目标跟踪方法、目标跟踪装置、目标跟踪设备
WO2020080037A1 (ja) * 2018-10-18 2020-04-23 パナソニックIpマネジメント株式会社 撮像装置
CN109274891B (zh) * 2018-11-07 2021-06-22 北京旷视科技有限公司 一种图像处理方法、装置及其存储介质
TWI692731B (zh) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 物件位置判斷電路
CN111416916B (zh) * 2019-01-04 2022-07-26 瑞昱半导体股份有限公司 物件位置判断电路
SG10201906302XA (en) * 2019-07-05 2021-02-25 Nec Asia Pacific Pte Ltd Method and apparatus for adaptively identifying a target subject for event throttling
CN110334670B (zh) * 2019-07-10 2021-08-17 北京迈格威科技有限公司 对象监控方法及装置、电子设备、存储介质
CN110807407B (zh) * 2019-10-30 2023-04-18 东北大学 一种用于视频中高度近似动态目标的特征提取方法
CN111275002A (zh) * 2020-02-18 2020-06-12 上海商汤临港智能科技有限公司 一种图像处理方法、装置及电子设备
JP7095002B2 (ja) * 2020-02-19 2022-07-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP7497587B2 (ja) 2020-03-24 2024-06-11 Omデジタルソリューションズ株式会社 撮像装置
JP2022045757A (ja) * 2020-09-09 2022-03-22 キヤノン株式会社 撮像制御装置およびその制御方法
JPWO2022074787A1 (zh) * 2020-10-08 2022-04-14
CN114449155A (zh) * 2020-11-02 2022-05-06 嘉楠明芯(北京)科技有限公司 基于摄像装置的云台控制方法以及云台控制装置
WO2022239291A1 (ja) * 2021-05-13 2022-11-17 パナソニックIpマネジメント株式会社 物体検知装置及び方法
WO2022244414A1 (ja) * 2021-05-19 2022-11-24 パナソニックIpマネジメント株式会社 計測方法および計測装置
CN113554693B (zh) * 2021-09-18 2021-12-31 深圳市安软慧视科技有限公司 一种边缘部署图像的关联和评判方法、设备及存储介质
WO2023065165A1 (zh) * 2021-10-20 2023-04-27 深圳市大疆创新科技有限公司 可移动平台的控制方法、装置、可移动平台和存储介质
JP2023064568A (ja) * 2021-10-26 2023-05-11 キヤノン株式会社 撮像装置及びその制御方法並びにプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101202841A (zh) * 2006-12-11 2008-06-18 株式会社理光 摄像装置以及用于摄像装置的曝光控制方法
CN101453605A (zh) * 2007-12-07 2009-06-10 佳能株式会社 摄像设备及其控制方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219225A (ja) * 2002-01-25 2003-07-31 Nippon Micro Systems Kk 動体画像監視装置
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP4239635B2 (ja) 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP4670635B2 (ja) * 2005-12-27 2011-04-13 株式会社ニコン 撮影装置
JP4808578B2 (ja) * 2006-09-22 2011-11-02 富士フイルム株式会社 デジタルカメラおよびその制御方法
JP2009048347A (ja) * 2007-08-17 2009-03-05 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP4991493B2 (ja) 2007-11-16 2012-08-01 株式会社リコー 電子装置、電力モードの切替方法、プログラム及びコンピュータ読み取り可能な記録媒体
JP4552997B2 (ja) * 2007-11-16 2010-09-29 カシオ計算機株式会社 撮像装置及びプログラム
JP4843002B2 (ja) * 2008-01-25 2011-12-21 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP5047007B2 (ja) * 2008-03-03 2012-10-10 三洋電機株式会社 撮像装置
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
JP2010003251A (ja) * 2008-06-23 2010-01-07 Panasonic Corp 画像リサイズ処理装置及び画像リサイズ処理方法
JP2010108475A (ja) 2008-10-03 2010-05-13 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP2010113129A (ja) * 2008-11-06 2010-05-20 Nikon Corp 画像追尾装置、焦点調節装置、および撮像装置
JP4748271B2 (ja) * 2009-01-28 2011-08-17 株式会社ニコン 電子カメラおよび画像処理プログラム
JP5233720B2 (ja) * 2009-02-12 2013-07-10 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
US20100259647A1 (en) * 2009-04-09 2010-10-14 Robert Gregory Gann Photographic effect for digital photographs
CN101546376A (zh) * 2009-04-28 2009-09-30 上海银晨智能识别科技有限公司 人体生物信息采集系统、人脸照片采集、质检系统及方法
JP5359645B2 (ja) * 2009-07-23 2013-12-04 ソニー株式会社 構図判定装置、撮像システム、構図判定方法、プログラム
JP2011166305A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置
JP4852652B2 (ja) * 2010-03-09 2012-01-11 パナソニック株式会社 電子ズーム装置、電子ズーム方法、及びプログラム
JP2011209966A (ja) * 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP5577793B2 (ja) 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101916496B (zh) * 2010-08-11 2013-10-02 无锡中星微电子有限公司 一种司机驾驶姿势检测的系统和方法
JP5771461B2 (ja) * 2011-06-29 2015-09-02 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101202841A (zh) * 2006-12-11 2008-06-18 株式会社理光 摄像装置以及用于摄像装置的曝光控制方法
CN101453605A (zh) * 2007-12-07 2009-06-10 佳能株式会社 摄像设备及其控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144263A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质

Also Published As

Publication number Publication date
US20140247374A1 (en) 2014-09-04
EP2813066A1 (en) 2014-12-17
JP5978639B2 (ja) 2016-08-24
CN104081757A (zh) 2014-10-01
JP2013162329A (ja) 2013-08-19
WO2013118450A1 (en) 2013-08-15
US10225462B2 (en) 2019-03-05

Similar Documents

Publication Publication Date Title
CN104081757B (zh) 图像处理设备、图像处理方法、图像处理系统
WO2019179441A1 (zh) 智能设备的焦点跟随方法、装置、智能设备及存储介质
CN105590312B (zh) 前景图像分割方法和装置
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
US9031327B2 (en) Information processing device, method, and program that recognizes a predetermined part of a body
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
JP5829679B2 (ja) 撮像装置、撮像装置の合焦制御方法、及び集積回路
US11587355B2 (en) Tracking control method, device, and aircraft
US20070268369A1 (en) Automatic Imaging Method and Apparatus
JP5001930B2 (ja) 動作認識装置及び方法
JP5737399B2 (ja) 赤目判定装置
KR101635896B1 (ko) 깊이 정보 기반 사람 추적 장치 및 그 방법
JP2003150942A (ja) 目位置追跡方法
JP4992823B2 (ja) 顔検出装置及び顔検出方法
JP2001076156A (ja) 画像監視装置
CN110651274A (zh) 可移动平台的控制方法、装置和可移动平台
JP5092663B2 (ja) 車両制御装置
JP2009176005A (ja) 顔画像の特徴点検出方法およびその装置
JP2010193406A (ja) 画像入力装置及び被写体検出方法、プログラム
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
US20220139007A1 (en) Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
JP4429680B2 (ja) 適応型人工視覚方法及びシステム
JP5035139B2 (ja) 眼画像処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant