CN103354596B - 自动连发图像撷取方法、追踪对象的方法及相关移动装置 - Google Patents

自动连发图像撷取方法、追踪对象的方法及相关移动装置 Download PDF

Info

Publication number
CN103354596B
CN103354596B CN201310051385.XA CN201310051385A CN103354596B CN 103354596 B CN103354596 B CN 103354596B CN 201310051385 A CN201310051385 A CN 201310051385A CN 103354596 B CN103354596 B CN 103354596B
Authority
CN
China
Prior art keywords
feature
image
missing
mobile device
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310051385.XA
Other languages
English (en)
Other versions
CN103354596A (zh
Inventor
周永明
班佛.卓
王景弘
林嵩皓
邱崇格
许丽君
叶震宇
萧太尔.米卡
凡里雅.豪尔赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
High Tech Computer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by High Tech Computer Corp filed Critical High Tech Computer Corp
Publication of CN103354596A publication Critical patent/CN103354596A/zh
Application granted granted Critical
Publication of CN103354596B publication Critical patent/CN103354596B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明揭露一种移动装置,其中包含图像感测单元、触控屏幕及处理器。图像感测单元是用以接收包含至少一对象的场景的至少一图像;触控屏幕是用以显示该场景的图像以及接收至少一个使用者输入;处理器是用以当接收到对应于该对象的第一使用者输入时,对应于该第一使用者输入,识别对象以决定对象的特征,根据对象的特征在场景中追踪对象,以及根据对象的运动状态撷取场景的多个图像;其中运动状态是通过图像感测单元所接收的连续图像中对象特征的变化决定。

Description

自动连发图像撷取方法、追踪对象的方法及相关移动装置
技术领域
本发明是有关于一种自动连发图像撷取方法、用以在一场景中追踪一对象的方法及一移动装置,尤指一种当使用者利用移动装置的自动连发模式去自动拍摄对应于对象的一连串图像时,可产生总是聚焦在对象上的一连串图像,以满足使用者的需求的自动连发图像撷取方法、用以在场景中追踪对象的方法及移动装置。
背景技术
在现有技术中,图像撷取装置的自动连发功能可提供自动拍摄对应于一场景的一连串图像的能力。图像撷取装置可以是智能型手机、平板计算机、数字照相机及/或其它手持式装置。例如,当使用者按下显示在智能型手机的触控屏幕上的快门图标时,可通过安装在智能型手机上的照相机应用程序撷取对应于场景的一连串图像。场景可包含一或多个使用者想要记录的对象。通过撷取连发图像,使用者可在一段时间内捕捉对象的变化(例如,对象的运动)以增加生活的乐趣。
然而,因为当使用者利用照相机内的自动连发模式去自动拍摄对应于对象的连串图像时,图像可能没有聚焦在对象上,所以对应于对象的连串图像无法满足使用者的需求。如此,当使用者利用照相机内的自动连发模式时,使用者可能因为上述现有技术缺点而不愉快。
发明内容
本发明的一实施例提供一种应用于移动装置的自动连发图像撷取方法,其中移动装置包含触控屏幕。该自动连发图像撷取方法包含从触控屏幕接收对应于场景内一对象的第一使用者输入;决定对应于第一使用者输入的该对象的特征;根据对象的特征,在场景内追踪对象;接收用以撷取该场景的至少一图像的第二使用者输入;根据对象的特征,决定对象的运动状态;根据 对象的运动状态,撷取场景的多个图像。
本发明的另一实施例提供一种应用于移动装置用以在场景中追踪对象的方法,其中移动装置包含触控屏幕。该方法包含通过输入指令锁定显示在该触控屏幕的一场景内的一对象;识别和决定对应于输入指令的对象的特征;根据对象的特征,决定对应于对象的至少一主要特点;根据对象的特征,决定对象附近区域内对应于对象的至少一次要特点;根据主要特点和次要特点的运动,决定对象的运动;对应于主要特点和该次要特点的部分失踪超过第一预定时间判定对象是否失踪;当对象被判定失踪时,在场景中搜寻对象。
本发明的另一实施例提供一种移动装置,包含图像感测单元、触控屏幕及处理器。图像感测单元用以接收包含至少一对象的场景的至少一图像;触控屏幕用以显示场景的至少一图像以及接收至少一使用者的输入;处理器是用以当接收到对应于该对象的第一使用者输入时,识别该对象,决定对象的特征,根据对象的特征在场景中追踪对象,以及根据对象的运动状态撷取场景的多个图像;其中运动状态是通过图像感测单元所接收的连续图像中对象特征的变化决定。
附图说明
图1是本发明一实施例的移动装置的示意图。
图2是本发明的另一实施例的一种应用于移动装置的对象追踪方法的流程图。
图3是本发明的另一实施例的一种应用于移动装置的对象追踪方法的流程图。
图4是本发明的另一实施例的一种应用于移动装置的对象追踪方法的流程图。
图5是本发明的另一实施例的一种应用于移动装置的自动连发图像撷取方法的流程图。
图6为在触控屏幕显示对应于储存在存储器内的连发图像的图像浏览的示意图。
图7说明当使用者触碰代表图像的图标时,一连串连发图像的所有图像是以缩图方式显示在触控屏幕的下半部以及代表图像是显示在触控屏幕的上半部的示意图。
图8说明当使用者触碰一连串连发图像中的特定图像以全屏幕观看时,隐藏的功能选单会被触发显示的示意图。
图9说明当使用者选择展开选项时,一连串连发图像被重整以及重新以单张图像形式储存的示意图。
[标号说明]
100移动装置 102图像感测单元
104快门图示 106触控屏幕
108存储器 110处理器
112可视标示 114手指
IS输入指令 OBJ对象
200-216、300-318、400-406、500-518 步骤
具体实施方式
请参照图1。图1是本发明一实施例的一移动装置100的示意图。如图1所示,移动装置100包含图像感测单元102、触控屏幕106、存储器108以及处理器110。图像感测单元102是用以接收一场景(scene)的一或多个图像,其中场景可包含一或多对象,或甚至没有对象。触控屏幕106是用以显示图像感测单元102所接收的预览图像,以及提供作为用以接收使用者输入的使用者界面。在本发明的实施例中,触控屏幕106提供用以控制移动装置100的图像撷取操作的至少一快门图示104。然而,触控屏幕106可接收其它形式的使用者输入(例如轻敲触控屏幕106或触碰触控屏幕106的多指手势,用以控制预览图像显示)。例如,使用者可轻敲显示在触控屏幕106的对象OBJ以设定或锁定聚焦在对象OBJ。显示在触控屏幕106上的可视标示112是用以通知使用者对象OBJ被锁定。然而在本发明另一实施例中,使用者可使用二指以放大或缩小场景。
处理器110是用以接收与处理图像感测单元102所接收的图像,提供预览图像给触控屏幕106,以及储存对应于使用者输入而撷取的图像至存储器108。处理器110亦用以从触控屏幕106接收对应于使用者输入的指令以及据以处理对应于使用者输入的指令。例如,对应于使用者按压或轻敲快门图示104,处理器110将执行图像撷取指令以编码或储存相对应的图像。对应于轻敲对象OBJ的使用者输入,处理器110将执行对象锁定指令以锁定并追踪对 象OBJ。处理器110可通过发现对象OBJ的特征执行对象锁定指令,根据对象OBJ的特征,追踪对象OBJ,以及设置焦点在对象OBJ。在本发明的实施例中,处理器110可以是图像信号处理器或任何其它适合处理图像的处理单元。值得注意的是,处理器110可以是硬件、软件及/或硬件和软件的组合,以及用以执行实现上述所揭露功能的程序码。存储器108是用以储存对应于图像撷取指令的图像,以及利用一编码格式(例如JPEG格式)储存对应于图像撷取指令的图像。
在本发明中,可通过追踪锁定对象OBJ以及决定锁定对象OBJ的运动状态实现自动连发撷取图像的功能。对应于使用者轻敲快门图标104,在锁定对象OBJ是处于移动状态下,可自动撷取锁定对象OBJ的一连串连发图像。另一方面,对应于使用者轻敲快门图标104,如果锁定对象OBJ是在静止状态,则可自动撷取锁定对象OBJ的单一图像。本发明的自动连发图像撷取方法的优点在于使用者不需要去决定何时是撷取他或她想要的最佳图像的时间点,或不需要担心如果他或她是在运动中拍摄对象时会得到模糊的对象图像。通过自动撷取移动对象的多个图像,使用者可在之后从多个图像中检视或选择他或她所喜欢的图像。如此,使用者便可藉此保存拍照当下珍贵的时刻。为了有效率地锁定和追踪对象OBJ,处理器110用以识别对应于使用者输入的对象OBJ,决定对象OBJ的特征,在对象OBJ连续图像之间决定对象OBJ的运动变化,以及根据对象OBJ的运动变化,追踪对象OBJ。
处理器110可通过脸部检测、边缘检测、萃取特征及/或其它现有技术已知的方法识别对象OBJ。一旦对象OBJ被识别,接着再决定用以追踪对象OBJ的特征点。特征点可包含一或多个与对象OBJ直接相关的主要特点以及一或多次要特点,其中次要特点可能是或可能不是对象OBJ的部分,以及次要特点是包含在靠近对象OBJ的一个区域,用以支持追踪对象OBJ。主要特点通常是固定的,但是次要特点可视对象OBJ所在场景的变化状况而动态加入或移除。被选择的主要特点和次要特点具有显着不同的特征。例如,在通过颜色选择主要特点和次要特点的情况下,主要特点和次要特点将有不同的颜色值,使得主要特点和次要特点之间不会互相搞混。在本发明一实施例中,如果锁定的对象OBJ是一张人脸,则可从脸部部位(例如眼睛区域和牙齿区域等)选择主要特点。然后,可从头发区域、肩膀区域和脖子区域等选择次要特点。可选择特征点为具有MxN像素尺寸的小区块,其中M和N是为正整数,区块的尺寸也可根据选择区域的特殊形状而改变。例如,如果选择眼睛区域当做特征点,则可通过眼睛区域的真实尺寸决定此特征点的尺寸。如上所述,特征点应具有不同的特征,例如,在特征点之间的颜色变化必须超过一临界值。另外,特征点最好是不同于包含对象OBJ的场景的其它背景部位以改善追踪准确性。在本发明的另一实施例中,可通过对象OBJ的形状或边缘选择特征点,其中每一特征点应具有不同的形状及/或尺寸。另外,可预先决定或根据被锁定对象OBJ而动态决定特征点的数目。例如,如果被锁定对象OBJ具有很少的不同特征,则特征点的数目可调整为对应于对象OBJ可被找到的最大不同特征的数目。
一旦对象OBJ被识别以及对象OBJ的特征点被决定,则可通过特征点的运动追踪对象OBJ。另外,为了决定每一特征点的运动,则必须决定连续图像中与对象OBJ相关的特征点的位置。值得注意的是为了降低运算负担以及改善效能,处理器110可对预览图像执行上述操作而不是对高分辨率图像执行上述操作,如此便可加速处理器110的图像处理速度。对于一段时间内的连续N个图像内的一给定特征点,可根据给定特征点计算对应于每一图像的运动变化,以及可累积对应于每一图像的运动变化以示意一段时间内相对于每一图像的运动变化。另外,可根据所有特征点的运动变化的组合,决定对象大致的运动变化。在本发明的一实施例中,主要特点的运动变化具有较高的重要性(亦即较大的权重),而次要特点的运动变化具有较低的重要性(亦即较小的权重)或可被忽略。另外,可通过特征点的平均加权重总和(average weighted-sum)、特征点的加权重总和(weighted sum)及/或其它权重的组合决定对象OBJ的运动变化。在本发明的另一实施例中,可根据在一段时间内图像中关于对象OBJ的累积运动变化,决定对象OBJ大致的运动变化。另外,当对象OBJ大致的运动变化低于一第一临界值时,对象OBJ被判定为处于静止状态;当对象OBJ大致的运动变化高于一第二临界值时,对象OBJ被判定为处于移动状态。
如上所述,当接收到用以撷取对应于一场景的图像的使用者输入,可根据对象OBJ的运动变化决定锁定对象OBJ的运动状态。当锁定对象OBJ是处于静止状态时,处理器110将撷取单一图像,然后处理器110编码以及储存此单一图像至存储器108;当锁定对象OBJ是处于运动状态时,处理器110将自动撷取一连串连发图像,然后处理器110编码以及储存此连串连发图像 至存储器108。另外,使用者可预设或预定一连串连发图像的数量。在本发明的一实施例中,移动装置100可操作在二个图像撷取模式(正常模式和自动连发模式)。在正常模式中,当从快门图示104接收的使用者输入是单张撷取指令(例如单击轻敲快门图示104)时,处理器110仅撷取单一图像。在自动连发模式中,当从快门图示104接收到使用者输入时,处理器110可根据运动状态撷取单一图像或是撷取多个图像。请注意,亦可从其它形式(例如从一硬件快门键)接收使用者输入。
在追踪锁定对象OBJ的过程中,当特征点其中之一失踪时,可对应开启一第一时间窗口。在第一时间窗口中,处理器110将寻找并尝试复原失踪的特征点。在本发明的一实施例中,如果失踪的特征点是次要特点且无法在第一时间窗口结束后复原,则处理器110可删去失踪的特征点并重新选择一个新的次要特点。在本发明的另一实施例中,如果失踪的特征点的数量超过一预定值或预定百分比且无法在一第二时间窗口结束后复原,则判定对象OBJ失踪并解除锁定对象OBJ。甚者,如果全部或大部分的主要特点失踪且无法复原时,对象OBJ被判定失踪。如果大部分的主要特点仍可被追踪,但次要特点的失踪时,则现阶段的次要特点可被删去并重新选择新的次要特点。然而,在本发明的另一实施例中,一特征点可因为其运动变化和其它特征点差异过大而被删去。例如,如果一特征点的运动变化超过或低于所有特征点的平均运动变化一预定临界值时,则此特征点可被删去。因为一个具有差异甚大的运动变化的特征点将被认为不再和对象OBJ有关并且不是一个适合用以追踪对象OBJ的候选特征点。
接下来,请参照图2,是本发明的另一实施例的一种应用于移动装置的对象追踪方法的流程图。图2的对象追踪方法是利用图1的移动装置100说明,详细步骤如下:
步骤200:开始;
步骤202:接收用以锁定触控屏幕106显示的场景内一对象OBJ的输入指令IS;
步骤204:识别和分析对象OBJ的特征;
步骤206:根据对象OBJ的特征,决定对象OBJ的至少一主要特点;
步骤208:在对应于对象OBJ的预定区域内决定次要特点;
步骤210:根据主要特点和次要特点的运动,决定对象OBJ的运动;
步骤212:当主要特点和次要特点的至少一部分失踪超过第一预定时间时,判定对象OBJ是否失踪;
步骤214:于第二预定时间内在预览图像中搜寻对象;
步骤216:于第二预定时间内复原对象OBJ,跳回步骤210。
在步骤202中,如图1所示,触控屏幕106可通过感测使用者的手指114触碰移动装置100的触控屏幕106显示的场景内的对象OBJ产生输入指令IS。在步骤204中,处理器110可利用对象OBJ的颜色特征或其它特征(例如对象OBJ的边缘、表面、特征点或形状)识别和分析对象OBJ的特征。如图1所示,可于触控屏幕106通过可视标示112(例如一矩形提示)示意对象OBJ。但本发明并不受限于可视标示112是矩形。另外,处理器110可控制图像感测单元102聚焦在对象OBJ。处理器110亦可追踪显示在触控屏幕106上的对象OBJ的运动。在步骤206中,处理器110根据锁定对象OBJ的已分析特征,决定对象OBJ的主要特点。当对象OBJ的主要特点对应至不同的颜色区域,主要特点的特征可以是例如,每一颜色区域的亮度或边缘。
在步骤208中,除了主要特点之外,可加入一或多次要特点以改善对象OBJ的追踪准确性。在本发明的一实施例中,可从对象OBJ邻近的预定尺寸区域选择次要特点。通过分析对象OBJ以及对应于对象OBJ的背景,可发现和选择一些和主要特点之间的差异大于一临界值的次要特点。也就是说,次要特点应具有可和主要特点的特征区别的特征,而且每一次要特点皆相互不同。例如,如果通过对象OBJ的颜色选择主要特点,则次要特点其中之一可以是背景中相对于对象OBJ较为明亮的区域,其中相对明亮区域的颜色和主要特点的颜色不同。另外,可根据围绕对象OBJ的环境变化(例如,光照情况),调整主要特点和次要特点的特征以改善主要特点的追踪能力。
在步骤210中,处理器110可监控主要特点和次要特点的运动以决定对象OBJ的运动。也就是说,处理器110可利用主要特点和次要特点之间的相对运动以决定对象OBJ的运动。
在步骤212中,如果主要特点和次要特点的一部分失踪超过第一预定时间时,处理器110判定对象OBJ失踪。另外,如果大部分的主要特点失踪,少部分主要特点和大部分的次要特点失踪,或甚至全部的主要特点和次要特点都失踪时,处理器110亦会判定对象OBJ失踪。但本发明并不受限于上述的任一组合,且处理器110可根据实际需求调整上述的任一组合。在步骤214 中,处理器110于第二预定时间内搜寻对象OBJ,其中当对象OBJ于第二预定时间内再次出现时,图像感测单元102可更正追踪误差并重新聚焦在对象OBJ。另外,当对象OBJ于第二预定时间内再次出现时,处理器110可通过被寻回的失踪主要特点及/或次要特点搜寻对象OBJ。在本发明的另一实施例中,如果仅有次要特点失踪,则处理器110可利用新的次要特点取代已失踪的次要特点。
请参照图3,图3是本发明另一实施例的一种应用于移动装置的对象追踪方法的流程图。图3的对象追踪方法可实施于图1的移动装置100,详细步骤如下:
步骤300:开始;
步骤302:从触控屏幕106接收用以追踪与锁定显示在触控屏幕106上的对象OBJ的输入指令IS;
步骤304:识别和决定对象OBJ的特征;
步骤306:根据对象OBJ的特征,决定用以追踪的主要特点;
步骤308:在对应于对象OBJ的预定区域内决定用以支持追踪对象OBJ的次要特点;
步骤310:根据主要特点和次要特点的运动,决定对象OBJ的运动;
步骤312:当部分的主要特点和次要特点失踪超过第一预定时间,判定对象OBJ是否失踪;
步骤314:于第二预定时间内搜寻已失踪的主要特点及/或次要特点以找出对象OBJ;
步骤316:当未在第二预定时间内找到对象OBJ时,解除锁定对象OBJ;
步骤318:结束。
图3的实施例和图2的实施例的差别在于在步骤316中,因为未能在第二预定时间内找到对象OBJ,所以处理器110解除锁定和追踪对象OBJ。如果已失踪的主要特点及/或次要特点依然失踪超过一段时间,则暗示对象OBJ已移出场景。如此,使用者可选择新的对象来锁定和追踪。在图3的实施例中,因为对象OBJ已经移出触控屏幕106所显示的场景之外,使用者并不需要再次触碰触控屏幕106以解除锁定和追踪对象。另外,图3的实施例的其余操作原理皆和图2的实施例相同,在此不再赘述。
请参照图4,图4是本发明另一实施例的一种应用于移动装置的对象追 踪方法的流程图。图4的对象追踪方法可实施于图1的移动装置100,详细步骤如下:
步骤400:开始;
步骤402:从触控屏幕106接收对应于图像中的对象OBJ的输入指令IS并锁定对象OBJ;
步骤404:从触控屏幕106接收对应于对象OBJ的另一输入指令IS并解除锁定对象OBJ;
步骤406:结束。
在步骤404中,触控屏幕106可通过感测使用者的手指114触碰移动装置100的触控屏幕106显示的对象OBJ产生另一输入指令IS。解除锁定对象OBJ后,使用者可选择新的目标以锁定和追踪。
请参照图5,图5是本发明另一实施例的一种应用于移动装置的自动连发图像撷取方法的流程图。图5的自动连发图像撷取方法可实施于图1的移动装置100,详细步骤如下:
步骤500:开始;
步骤502:从触控屏幕106接收对应于触控屏幕106显示的场景中的对象OBJ的第一使用者的输入;
步骤504:识别和决定对象OBJ的特征;
步骤506:根据对象OBJ的特征在场景中追踪对象OBJ;
步骤508:接收用以撷取该场景的至少一图像的第二使用者输入;
步骤510:对应于第二使用者输入,根据特征决定对象OBJ的运动状态;
步骤512:决定对象OBJ是否处于一静止状态;如果是,进行步骤514;如果否,跳至步骤518;
步骤514:撷取场景的单一图像并储存此单一图像至存储器108;
步骤516:判定对象OBJ是否从静止状态转变至一运动状态;如果是,进行步骤518;如果否,跳回步骤512;
步骤518:撷取场景的一连串图像并储存此连串图像至存储器108。
在步骤502中,请参照图1,触控屏幕106通过感测使用者的手指114触碰显示在移动装置100的触控屏幕106中对象OBJ来接收第一使用者的输入。在步骤504中,处理器110识别和决定对象的特征(例如对象OBJ的颜色部位、边缘、表面、特征点或形状),亦即处理器110可通过脸部检测、边缘 检测、特征撷取及/或其它现有技术已知的方法识别对象OBJ。在本发明的另一实施例中,处理器110可依据使用者的需求决定对象OBJ的特征。在步骤506中,处理器110可根据对象OBJ的特征追踪对象OBJ。处理器110可分析对象的特征,以及选择可代表对象OBJ并用以追踪对象OBJ的特征点。特征点可包含和对象OBJ直接相关的主要特点和/或不属于对象OBJ的一部分的次要特点。在步骤508至步骤510中,可从例如触控屏幕106或其它使用者接口(例如硬件快门键)接收用以撷取场景的至少一图像的第二使用者输入。在接收第二使用者输入后,处理器110可根据对象OBJ的特征,决定对象OBJ的运动状态。
在步骤512至步骤514中,处理器110可通过特征点在连续图像中的运动变化决定对象OBJ的运动状态。如果对象OBJ从一图像到另一图像(例如下一图像或一预定数目连续图像后的一图像)的运动变化低于第一临界值,则对象OBJ被判定是处于静止状态;如果对象OBJ的运动变化不低于第一临界值,则对象OBJ被判定是处于移动状态。在本发明的另一实施例中,可累积第一预定时间内对象OBJ的运动变化。当对象OBJ处于静止状态,处理器110撷取场景的单一图像并储存此单一图像至存储器108。处理器110编码单一图像的步骤可先于储存此单一图像至存储器108的步骤。然后,在步骤516中,如果在第二预定时间内对象OBJ的较大运动变化大于一第二预定临界值时,处理器110可判定对象OBJ是从静止状态转变至运动状态,其中第二预定临界值可根据对象OBJ的尺寸来设定(例如对象OBJ尺寸的一半)。但本发明并不受限于第二预定临界值是根据对象OBJ的尺寸而设定。接下来在步骤518中,当对象OBJ是处于移动状态或从静止状态转变至移动状态时,处理器110撷取包含对象OBJ的场景的一连串连发图像并储存包含对象OBJ的场景的此连串连发图像至存储器108。另外,一般说来,第二预定临界值通常设为小于第一预定临界值。
在步骤512至步骤518中,当处理器110根据对象OBJ的运动变化大于第一预定临界值而判定对象OBJ是处于运动状态,处理器110对应撷取包含对象OBJ知场景的一连串连发图像并储存包含对象OBJ的场景的此连串连发图像至存储器108,其中对象OBJ的运动变化可为第一预定时间的累积值。
另外,处理器110可根据图2、图3和图4所说明的对象追踪方法,识别和锁定对象OBJ,所以在此不再赘述。
请参照图6,图6说明储存在存储器108内的连发图像显示在触控屏幕106的对应图像浏览的示意图。如图6所示,在自动连发模式中撷取的图像会被搜集在一起。例如,以一代表图像602示意一连串连发图像,其中代表图像602的角落有一小图示。也就是说,使用者将不会在图像预览中看到此连串连发图像的所有图像,而仅看到代表图像602。如图7所示,当使用者触碰代表图像602以浏览此连串连发图像的所有图像时,此连串连发图像的所有图像是以缩图方式显示在触控屏幕106的下半部而代表图像602是显示在触控屏幕106的上半部。如图7所示,使用者可通过滑动显示在触控屏幕106下半部的连串连发图像缩图列,来观看此连串连发图像的其它图像。在本发明的另一实施例中,触控屏幕106的上半部可利用幻灯片放映的方式显示此连串连发图像的所有图像。
当使用者触碰此连串连发图像中的一特定图像以全屏幕观看时,一隐藏的功能选单802会被触发显示(如图8所示)。如图8所示,在本发明的一实施例中,功能选单802包含一些选项,例如,最爱(best)选项,删除(delete)选项,以及展开(expand)选项。当使用者选择最爱选项时,代表图像602被换成在全屏幕显示下使用者当下所选择的图像,或从存储器108删除此连串连发图像的其它图像。当使用者选择删除选项时,使用者所选择的图像将从此连串连发图像中删除。当使用者选择展开选项时,此连串连发图像被重整并重新以单张图像形式储存。如此,代表图像602将不再存在且使用者可以在图像预览中分别看见此连串连发图像的所有图像(如图9所示)。在本发明的另一实施例中,如果在自动连发模式中撷取的图像少于一预定值,则在自动连发模式中撷取的图像将不会被搜集在一起,而是以单张图像形式储存。
综上所述,本发明提供一种当使用者在一场景选择一对象时,可自动锁定和追踪场景中的对象的新颖方式。在本发明的一实施例中,处理器可利用对应于对象的主要特点和次要特点来决定对象的运动,且据此当接收到撷取输入时决定是否撷取单一图像或一连串连发图像。因此,相较于现有技术,当使用者利用移动装置的自动连发模式去自动拍摄对应于对象的一连串图像时,移动装置所产生对应于对象的连串图像总是能聚焦在对象上,所以本发明可满足使用者的需求。

Claims (13)

1.一种用于一移动装置用以在一场景中追踪一对象的方法,该移动装置包含一触控屏幕,该方法包含:
接收一输入指令以锁定显示在该触控屏幕的一场景内的一对象;
识别和决定对应于该输入指令的该对象的特征;
根据该对象的该特征,决定对应于该对象的至少一主要特点;
根据该对象的该特征,决定该对象附近的一区域内对应于该对象的至少一次要特点;
根据该主要特点和该次要特点的运动,决定该对象的运动;
当该主要特点和该次要特点的一部分失踪超过一第一预定时间,判定该对象失踪;及
当该对象被判定失踪时,在该场景中搜寻该对象。
2.根据权利要求1所述的方法,还包含:
当该对象在一第二预定时间内未被寻回,释放该对象的锁定。
3.根据权利要求1所述的方法,其中在该场景中搜寻该对象包含:
在一第二预定时间之内搜寻该主要特点和该次要特点被判定失踪的该部分。
4.根据权利要求1所述的方法,其中判定该对象失踪包含下列之一:
当超过一第一数目的主要特点失踪时,该对象被判定失踪;
当超过一第二数目的主要特点和超过一第三数目的次要特点失踪时,该对象被决定失踪。
5.根据权利要求4所述的方法,还包含:
当该次要特点失踪超过一第三预定时间,用一新次要特点取代该被判定失踪的该次要特点。
6.根据权利要求1所述的方法,还包含:
对应于接收到一第二输入指令,释放该对象的锁定。
7.根据权利要求1所述的方法,其中该对象的该特征是颜色、亮度、边缘以及形状的一组合,以及该对象是通过脸部检测算法、边缘检测算法以及特征撷取算法之一所识别。
8.一种移动装置,包含:
一图像感测单元,用以接收包含至少一对象的一场景的至少一图像;
一触控屏幕,用以显示该场景的该至少一图像以及接收至少一使用者输入;及
一处理器,用以当接收到对应于该对象的一第一使用者输入时,识别该对象,决定该对象的特征,根据该对象的该特征决定对应于该对象的至少一主要特点及决定该对象附近的一区域内对应于该对象的至少一次要特点,根据该主要特点和该次要特点的运动决定该对象的运动,当该主要特点和该次要特点的一部分失踪超过一第一预定时间,判定该对象失踪,及当该对象被判定失踪时,在该场景中搜寻该对象。
9.根据权利要求8所述的移动装置,其中该处理器还用以根据该特征追踪该对象。
10.根据权利要求9所述的移动装置,其中该对象的运动是根据该特征在一预定时间中的变化而决定。
11.根据权利要求8所述的移动装置,其中该处理器还用以于当该对象的运动是一静止状态时,撷取该场景的一单一图像,以及还用以于当该对象的运动是一移动状态时,撷取该场景的一连串连发图像。
12.根据权利要求11所述的移动装置,其中当该至少一图像的连续的图像中该特征的变化低于一第一临界值,判定该对象是处于该静止状态,以及当在该连续的图像中该特征的变化高于一第二临界值,判定该对象是处于该移动状态。
13.根据权利要求8所述的移动装置,其中该特征是颜色、亮度、边缘以及形状的一组合,以及该对象是通过脸部检测算法、边缘检测算法以及特征撷取算法之一所识别。
CN201310051385.XA 2012-02-13 2013-02-16 自动连发图像撷取方法、追踪对象的方法及相关移动装置 Active CN103354596B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261597851P 2012-02-13 2012-02-13
US61/597,851 2012-02-13

Publications (2)

Publication Number Publication Date
CN103354596A CN103354596A (zh) 2013-10-16
CN103354596B true CN103354596B (zh) 2017-04-12

Family

ID=47738985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310051385.XA Active CN103354596B (zh) 2012-02-13 2013-02-16 自动连发图像撷取方法、追踪对象的方法及相关移动装置

Country Status (4)

Country Link
US (1) US9124800B2 (zh)
EP (1) EP2627075B1 (zh)
CN (1) CN103354596B (zh)
TW (1) TWI501165B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176774A1 (en) * 2012-12-25 2014-06-26 Samsung Electronics Co., Ltd. Photographing apparatus and method for photographing in an appropriate photographing mode
KR102082661B1 (ko) * 2013-07-12 2020-02-28 삼성전자주식회사 전자 장치의 촬영 이미지 생성 방법 및 장치
US9310908B2 (en) * 2013-10-30 2016-04-12 Htc Corporation Color sampling method and touch control device thereof
KR102252448B1 (ko) * 2014-09-12 2021-05-14 삼성전자주식회사 제어 방법 및 그 방법을 처리하는 전자장치
US9912864B2 (en) * 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for using a camera device to support multiple modes of operation
CN106324945A (zh) * 2015-06-30 2017-01-11 中兴通讯股份有限公司 非接触式自动对焦方法和装置
US9973647B2 (en) 2016-06-17 2018-05-15 Microsoft Technology Licensing, Llc. Suggesting image files for deletion based on image file parameters
US10671895B2 (en) 2016-06-30 2020-06-02 Microsoft Technology Licensing, Llc Automated selection of subjectively best image frames from burst captured image sequences
CN106845385A (zh) * 2017-01-17 2017-06-13 腾讯科技(上海)有限公司 视频目标跟踪的方法和装置
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
CN107241552B (zh) * 2017-06-30 2020-01-14 Oppo广东移动通信有限公司 一种图像获取方法、装置、存储介质和终端
CN110062158A (zh) * 2019-04-08 2019-07-26 北京字节跳动网络技术有限公司 控制拍摄装置的方法、装置、电子设备和计算机可读存储介质
KR102708717B1 (ko) 2019-05-17 2024-09-23 삼성전자주식회사 특정 순간에 관한 사진 또는 동영상을 자동으로 촬영하는 디바이스 및 그 동작 방법
CN112580400B (zh) * 2019-09-29 2022-08-05 荣耀终端有限公司 图像选优方法及电子设备
CN110868537B (zh) * 2019-11-08 2022-01-04 维沃移动通信有限公司 一种拍摄方法、电子设备
CN111447365B (zh) * 2020-04-16 2021-11-30 维沃移动通信有限公司 一种拍摄方法及电子设备
US12005573B2 (en) 2020-12-06 2024-06-11 Cionic, Inc. Mobility based on machine-learned movement determination
US11957605B2 (en) * 2020-12-06 2024-04-16 Cionic, Inc. Machine-learned movement determination based on intent identification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101472070A (zh) * 2007-12-28 2009-07-01 卡西欧计算机株式会社 记录符合规定条件的图像的摄像装置及其摄像方法
CN101750845A (zh) * 2008-12-12 2010-06-23 三星电机株式会社 自动聚焦方法
CN101867717A (zh) * 2009-04-16 2010-10-20 华晶科技股份有限公司 数字影像的拍摄参数的调整方法及数字摄像装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
US7634113B2 (en) * 2004-12-07 2009-12-15 Electronics And Telecommunications Research Institute User authentication system and method thereof
US7835542B2 (en) 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation
WO2007119355A1 (ja) * 2006-03-15 2007-10-25 Omron Corporation 追尾装置、追尾方法、追尾装置の制御プログラム、およびコンピュータ読み取り可能な記録媒体
US8040389B2 (en) * 2006-07-25 2011-10-18 Nikon Corporation Image processing method, image processing program and image processing apparatus for detecting object of an image
JP4518157B2 (ja) * 2008-01-31 2010-08-04 カシオ計算機株式会社 撮像装置及びそのプログラム
CN111522493A (zh) * 2008-08-22 2020-08-11 谷歌有限责任公司 移动设备上的三维环境中的导航
TW201013214A (en) * 2008-09-17 2010-04-01 Altek Corp Photography device and method for sensing the moving speed of the photographed object
JP5426874B2 (ja) 2008-12-22 2014-02-26 富士フイルム株式会社 オートフォーカスシステム
TW201033908A (en) * 2009-03-12 2010-09-16 Micro Star Int Co Ltd System and method for counting people flow
US8269736B2 (en) * 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
WO2011043060A1 (ja) * 2009-10-07 2011-04-14 パナソニック株式会社 追尾対象選択装置、方法、プログラム及び回路
JP5394296B2 (ja) * 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
US20110283212A1 (en) * 2010-05-13 2011-11-17 Nokia Corporation User Interface
US20130057702A1 (en) 2010-07-06 2013-03-07 Lg Electronics Inc. Object recognition and tracking based apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101472070A (zh) * 2007-12-28 2009-07-01 卡西欧计算机株式会社 记录符合规定条件的图像的摄像装置及其摄像方法
CN101750845A (zh) * 2008-12-12 2010-06-23 三星电机株式会社 自动聚焦方法
CN101867717A (zh) * 2009-04-16 2010-10-20 华晶科技股份有限公司 数字影像的拍摄参数的调整方法及数字摄像装置

Also Published As

Publication number Publication date
EP2627075A3 (en) 2013-11-13
TW201346782A (zh) 2013-11-16
EP2627075B1 (en) 2014-10-08
EP2627075A2 (en) 2013-08-14
TWI501165B (zh) 2015-09-21
CN103354596A (zh) 2013-10-16
US20130208127A1 (en) 2013-08-15
US9124800B2 (en) 2015-09-01

Similar Documents

Publication Publication Date Title
CN103354596B (zh) 自动连发图像撷取方法、追踪对象的方法及相关移动装置
KR101611440B1 (ko) 이미지 처리 방법 및 장치
US9589595B2 (en) Selection and tracking of objects for display partitioning and clustering of video frames
US8363900B2 (en) Image processing apparatus, image processing method, and program
CN107533363B (zh) 手势识别装置、手势识别方法以及信息处理装置
CN101651779B (zh) 信息处理设备、方法
KR102057937B1 (ko) 디스플레이 장치 및 그 이미지 표시 방법
CN101685543B (zh) 视频运动检测方法和照相机
EP2079009A1 (en) Apparatus and methods for a touch user interface using an image sensor
SE1550243A1 (sv) Improved identification of a gesture
CN102469261A (zh) 成像设备,成像显示控制方法和程序
US10972663B2 (en) Methods for automatically switching video capturing and playing back frame rate
KR20180038241A (ko) 영상 제공 장치 및 방법
US9262062B2 (en) Method of providing thumbnail image and image photographing apparatus thereof
US20120320237A1 (en) Camera with function of removing unwanted object and method thereof
CN111787223A (zh) 视频拍摄方法、装置和电子设备
CN105991928A (zh) 图像处理装置以及图像处理方法
CN113923350A (zh) 视频拍摄方法、装置、电子设备和可读存储介质
JP4594197B2 (ja) 自動追尾装置
CN104137528B (zh) 提供用户界面的方法及应用该方法的图像拍摄装置
JP2012109850A (ja) 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
KR100651292B1 (ko) 카메라가 탑재된 티브이 및 그 티브이의 영상 정보 제공방법과 그 시스템
CN107515708A (zh) 拍照方法及移动终端
CN105765960B (zh) 拍摄装置、拍摄方法以及程序
JP5257124B2 (ja) デジタルカメラおよび画像処理プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant