CN105825524A - 目标跟踪方法和装置 - Google Patents

目标跟踪方法和装置 Download PDF

Info

Publication number
CN105825524A
CN105825524A CN201610137587.XA CN201610137587A CN105825524A CN 105825524 A CN105825524 A CN 105825524A CN 201610137587 A CN201610137587 A CN 201610137587A CN 105825524 A CN105825524 A CN 105825524A
Authority
CN
China
Prior art keywords
tracked target
target
model
tracked
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610137587.XA
Other languages
English (en)
Other versions
CN105825524B (zh
Inventor
赵颜果
沈锦祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shenghui Lighting Co Ltd
Original Assignee
Zhejiang Shenghui Lighting Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shenghui Lighting Co Ltd filed Critical Zhejiang Shenghui Lighting Co Ltd
Priority to CN201610137587.XA priority Critical patent/CN105825524B/zh
Publication of CN105825524A publication Critical patent/CN105825524A/zh
Priority to PCT/CN2017/075104 priority patent/WO2017152794A1/en
Priority to US15/743,994 priority patent/US20180211104A1/en
Application granted granted Critical
Publication of CN105825524B publication Critical patent/CN105825524B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种目标跟踪方法和装置。该方法包括:获取被跟踪目标的模型,被跟踪目标的模型包括初级预测模型和验证模型;获取当前帧视频图像并根据被跟踪目标最近一次被更新的状态,确定在当前帧视频图像上的跟踪感兴趣区域和运动限制区域;在跟踪感兴趣区域内根据初级预测模型预测被跟踪目标在当前帧中的状态;根据被跟踪目标在当前帧中的状态确定被跟踪目标所在的目标图像;根据第二描述方式在目标图像中提取被跟踪目标的高级特征,并判断该高级特征与验证模型的匹配度是否大于等于预设的相似度阈值,以及判断在目标图像上被跟踪目标的当前位置是否位于运动限制区域内;若是,则确定被跟踪目标跟踪成功。本发明的方法提高了跟踪的效率和鲁棒性。

Description

目标跟踪方法和装置
技术领域
本发明涉及跟踪技术,尤其涉及一种目标跟踪方法和装置。
背景技术
视频监控是企事业单位、商业场所、公园等重点部门或重要场所进行实时监控的物理基础,管理部门可通过视频监控获得有效数据、图像或声音信息。随着当前计算机应用的迅速发展和推广,视频监控的原理也被广泛应用到单目标手势跟踪系统中,通过该单目标手势跟踪系统可以对用户的目标手势进行跟踪识别,从而可以根据所识别到的手势进行相应的控制。
但是,当前的单目标手势跟踪系统在跟踪目标手势的过程中,在手势发生变化时,容易因与人手表观相类似物体的干扰出现跟踪漂移或者跟踪丢失的情况,故,当前的单目标跟踪手势跟踪系统跟踪效率较低,鲁棒性较差。
发明内容
本发明提供的目标跟踪方法和装置,用以解决现有技术中的单目标跟踪系统跟踪效率较低,鲁棒性较差的技术问题。
第一方面,本发明提供一种目标跟踪方法,包括:
获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度;
获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动;
在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态;
根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像;
根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内;
若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内,则确定所述被跟踪目标跟踪成功。
进一步地,所述方法还包括:
在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果;
根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
更进一步地,所述根据所述检测结果确定是否重新初始化所述被跟踪目标的模型,具体包括:
若所述检测结果为在所述跟踪感兴趣区域内存在所述其他预定义目标,则根据所述其他预定义目标重新初始化所述被跟踪目标的模型;
若所述检测结果为所述跟踪感兴趣区域内不存在所述其他被跟踪目标,且所述被跟踪目标在所述当前帧跟踪失败,则不对所述被跟踪目标的模型进行更新;
若所述检测结果为所述跟踪感兴趣区域内不存在所述其他预定义目标,且所述被跟踪目标在所述当前帧跟踪成功,则对所述被跟踪目标的模型中进行参数修正。
更进一步地,所述方法还包括:
将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。
更进一步地,所述方法还包括:
判断是否检测到预设的用户行为;
若是,则停止跟踪。
更进一步地,若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内,所述方法还包括:
步骤A:根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域;
步骤B:根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功;
步骤C:若跟踪失败,则返回步骤A,若跟踪失败的次数达到预设次数时,确定所述被跟踪目标为永久丢失状态,停止跟踪。
更进一步地,所述被跟踪目标为手势。
第二方面,本发明提供一种目标跟踪装置,包括:
第一获取模块,用于获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度;
第二获取模块,用于获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动;
预测模块,用于在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态;
验证模块,用于根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像,并根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内;
确定模块,用于在所述验证模块确定在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内时,确定所述被跟踪目标跟踪成功。
进一步地,所述装置还包括:
检测模块,用于在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果;
处理模块,用于根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
更进一步地,所述处理模块,包括:
第一处理单元,用于在所述检测结果为在所述跟踪感兴趣区域内存在所述其他预定义目标时,根据所述其他预定义目标重新初始化所述被跟踪目标的模型;
第二处理单元,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他被跟踪目标,且所述被跟踪目标在所述当前帧跟踪失败时,不对所述被跟踪目标的模型进行更新;
第三处理单元,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他预定义目标,且所述被跟踪目标在所述当前帧跟踪成功时,对所述被跟踪目标的模型中进行参数修正。
更进一步地,所述装置还包括:
显示模块,用于将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。
更进一步地,所述装置还包括:
判断模块,用于判断是否检测到预设的用户行为,并在判断检测到预设的用户行为时,指示所述装置停止跟踪。
更进一步地,若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内,则
所述第二获取模块,还用于根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域;
所述确定模块,还用于根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功,并且还用于在确定跟踪失败时,重新指示所述第二获取模块继续根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下下一帧的跟踪感兴趣区域,直至跟踪失败的次数达到预设次数时,则确定所述被跟踪目标为永久丢失状态,指示所述装置停止跟踪。
更进一步地,所述被跟踪目标为手势。
本发明提供的目标跟踪方法和装置,通过获取初级预测模型和验证模型,并根据被跟踪目标最近一次被更新的状态,确定被跟踪目标在当前帧视频图像上的跟踪感兴趣区域和运动限制区域,进而在该跟踪感兴趣区域内结合被跟踪目标最近一次被更新的状态和初级预测模型预测被跟踪目标在当前帧的状态,并采用验证模型和运动限制区域对所预测的被跟踪目标在当前帧的状态进行验证,确定跟踪的准确性,由于初级预测模型中的第一描述方式较为简单,因此提高了跟踪预测的效率,从而也就提高了跟踪的效率,另外,由于验证模型中的第二描述方式的复杂度优于第一描述方式,使得其在目标图像中对被跟踪目标的特征提起更加详尽,确保了预测验证的有效性,进一步提高了跟踪结果的鲁棒性。进一步地,由于上述跟踪感兴趣区域和运动限制区域的设定,不仅大大减小了搜索的区域,提高了跟踪的效率,而且由于避免了在不必要位置的匹配,因此有利于抑制在跟踪过程中的跟踪漂移和错误匹配。
附图说明
为了更清楚地说明本发明实施例现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的目标跟踪方法实施例一的流程示意图;
图2为本发明提供的目标跟踪方法实施例二的流程示意图;
图3为本发明提供的目标跟踪方法实施例三的流程示意图;
图4为本发明提供的跟踪感兴趣和运动限制区域示意图;
图5为本发明提供的目标跟踪方法实施例四的流程示意图;
图6为本发明提供的反复性挥手动作的检测示意图;
图7为本发明提供的目标跟踪装置实施例一的结构示意图;
图8为本发明提供的目标跟踪装置实施例二的结构示意图;
图9为本发明提供的目标跟踪装置实施例三的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明所涉及的目标跟踪方法,可以适用于不同的目标的跟踪,该被跟踪目标可以是人脸、脚、手势等,具体的,以被跟踪目标为手势为例,该目标跟踪方法可以集合到动态手势识别系统中,通过跟踪和识别用户的手势,实现相应的操作控制,例如,用于家电控制(例如通过手势控制电视机的开关、换台、调音,或者通过手势控制空调温度、风向,或者通过手势控制电磁炉操作选项、时间,等等)、鼠标操作(即用手势代替鼠标操作电脑)、空中手书(对用户空中书写进行字体识别,了解用户操作意图)。
以被跟踪目标为用户的手势为例,下述方法实施例的执行主体可以为目标跟踪装置,该目标跟踪装置可以是单独的单目标手势跟踪系统,还可以是集成在单目标手势跟踪系统中的装置。该目标跟踪装置可以通过软件、硬件或者软硬结合的方式实现。
本发明提供的目标跟踪方法,旨在解决现有技术中的单目标跟踪系统,在跟踪目标手势的过程中,在手势发生变化时,容易因与人手表观相类似物体的干扰出现跟踪漂移或者跟踪丢失的情况,即,本发明所涉及的方法可以克服当前的单目标跟踪手势跟踪系统跟踪效率较低,鲁棒性较差的技术问题。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本发明提供的目标跟踪方法实施例一的流程示意图。本实施例涉及的是根据初级预测模型对被跟踪目标在当前帧中的状态进行预测,并利用验证模型对所预测的被跟踪目标的状态进行验证,确定跟踪是否成功的具体过程。如图1所示,该方法包括如下步骤:
S101:获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度。
具体的,当单目标跟踪系统(与被跟踪目标为手势为例,该单目标跟踪系统为单目标手势跟踪系统)不在执行跟踪任务的时候(比如刚刚启动或者某个跟踪任务终止之后),就会执行手势检测,以获取下次执行跟踪任务时所需要的被跟踪目标的模型。该被跟踪目标的模型是目标跟踪的依据,它记录了对被跟踪目标属性的刻画,该被跟踪目标的模型包括初级预测模型和验证模型;其中,初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度。无论是初级预测模型还是验证模型,其中所包含的信息均是对被跟踪目标的属性特征的刻画,这些属性特征数据一方面用于跟踪时相似度测量的标准,另一方面,用于对预测结果做验证时的基准。上述初级预测模型用于预测被跟踪目标在当前帧中的状态,该预测的状态可以包括被跟踪目标的位置信息、被跟踪目标的大小(缩放尺度信息)、被跟踪目标的形变信息、被跟踪目标的方向信息等;上述验证模型主要用于验证所预测的被跟踪目标在当前帧的状态是否准确。
此处列举手势跟踪中常用的目标图像的描述方式:(a)基于几何特征的描述,比如区域特征、轮廓、曲率、凹凸性等;(b)基于直方图的描述,比如颜色直方图、纹理直方图、梯度方向直方图;(c)基于肤色隶属度图像的描述;(d)基于像素/超像素对比度的描述,比如点对特征、、Haar/Haar-like特征等。一般情况下,用于预测验证的描述方式不同于用于预测的描述方式,也就是说,上述验证模型中的高级特征的描述方式与初级预测模型中的低级特征的描述方式不同,可以记初级预测模型中的低级特征的第一描述方式的集合为Ωp,验证模型中的高级特征的第二描述方式的集合为Ωv,Ωp中的第一描述方式的复杂度小于Ωv中的第二描述方式的复杂度。可选的,该Ωp中的第一描述方式可以是二值mask图像块的描述方式、可以是二值mask直方图的描述方式、还可以是肤色检测得到的概率图的描述方式、还可以是颜色直方图的描述方式等;可选的,该Ωv中的第二描述方式可以是局部二值模式(LocalBinaryPattern,简称LBP)直方图的描述方式、还可以是camshift的描述方式等。总之,Ωp中的第一描述方式的复杂度小于Ωv中的第二描述方式的复杂度,这样可以保证在预测被跟踪目标在当前帧中的状态时的快速高效。
上述获取被跟踪目标的模型的具体过程实际上是跟踪初始化的过程,以被跟踪目标为手势为例,该跟踪初始化是通过手势检测来实现的,当检测到预设的被跟踪目标(即预设的手势)时,从视频图像中提取特征对该被跟踪目标的属性进行描述(采用第一描述方式和第二描述方式分别提取),获得被跟踪目标的模型,即获取初始预测模型和验证模型,用于以后跟踪阶段匹配预测和预测验证的依据。
此阶段的手势检测可以是在整幅图像中进行也可以是在图像的某个局部区域中进行,优选的可以是在视频图像的特定区域做检测来实现初始化,比如特定区域可以设置在视频图像的正中间1/4部分,设置该特定区域可以对系统有如下帮助:
(a)符合操作的习惯,用户操作时,一般都是先将手抬起到某个舒适的位置P,然后才开始某个手势,所以用户意识中的跟踪开始位置是P,而不是在人手抬起过程中的某个位置。因此,设置在特定区域内做检测,有利于在实现正确的初始化,有利于后续的动态手势识别。
(b)增强检测的鲁棒性,减少错误检测,即可以减小搜索的区域,从而有效抑制复杂背景、动态背景的干扰,便利主体用户的操作,抑制非主体用户的干扰,抑制无意识手势的干扰;
(c)增强后续跟踪的质量,如果跟踪初始化发生在人手抬起的过程中,由于急速运动造成的运动模糊,可能导致被初始化目标模型准确性下降,影响后续的跟踪质量,而在特定区域内检测,可以有效抑制这种情况。
(d)减小搜索的区域,提高检测的效率;
初始化阶段可以是对某几个预定义手势做检测,还可以是对某一个特定手势做检测,优选的,本实施例中的跟踪初始化阶段可以对闭合手掌做检测,这样可以抑制检测错误,同时大幅度地提高检测效率。
关于跟踪初始化检测所用的方法,可以结合运行信息、肤色信息或者手势的纹理信息等等,此处列举常用的几种快速检测方法:
(a)依据被跟踪目标(即预设的手势)的几何信息进行手势检测或者手势识别,比如通过背景减除法或者肤色分割法,分割出手势的区域,通过对分割区域的形状分析进行手势识别;
(b)使用被跟踪目标(即预设的手势)的表观信息进行手势检测或者手势识别,比如纹理、局部亮度统计等,此类方法可以包括haar特征+adaboost检测法、点对特征+随机树检测法、LBP直方图特征+支持向量机检测法等等。
S102:获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动。
具体的,在单目标跟踪系统获取了被跟踪目标的模型之后,可以通过摄像头获取当前帧视频图像,并结合该被跟踪目标最近一次被更新的状态确定被跟踪目标在当前帧的跟踪感兴趣区域和运动限制区域。可选的,这里的被跟踪目标最近一次被更新的状态可以是被跟踪目标在前一帧视频图像上的状态,还可以是被跟踪目标在前几帧视频图像上的状态,例如,假设当前帧视频图像对应是t5时刻,前一帧视频图像对应t4时刻,前两帧视频图像对应t4时刻,前三帧视频图像对应t3时刻,则被跟踪目标最近一次被更新的状态可以是在t4时刻对应的帧的视频图像上的状态,还可以是在t3时刻对应的帧的视频图像上的状态(这种情况是前一帧和前两帧被跟踪目标均跟踪失败,被跟踪目标的状态仍然是在前三帧上时的状态)。
上述的运动限制区域,是在被跟踪目标的模型被初始化的同时,根据手势最初被检测到时的状态(手势的位置信息,尺寸信息,偏斜角度等)所设置的一个限制区域,这是因为初始的手势位置一般都是用户举起手来感觉最舒服最轻松的位置,受制于身体关节之间的链接关系,人手在此位置附近运动比较轻松自如,一旦偏离过远,一则容易发生疲劳,二则手的姿态容易发生大的变化从而导致跟踪失败,该运动限制区域是保持不变的。
上述的跟踪感兴趣区域,是根据被跟踪目标运动的连续性特点,根据被跟踪目标在前一帧或者前几帧时的状态(即被跟踪目标最近一次被更新的状态),估计被跟踪目标在当前帧可能出现的区域,然后仅仅局限在该区域中寻找与被跟踪目标的模型的最佳匹配(即寻找被跟踪目标),跟踪感兴趣区域随着所述被跟踪目标的移动进行移动,例如,在当前帧跟踪感兴趣区域可能位于图像中间位置,在下一帧图像中因为人手的移动,在下一帧中的跟踪感兴趣区域就有可能位于下一帧图像中的其他位置,但是,上述运动限制区域在当前帧图像和下一帧图像中的位置是相同的。而事实上,正常情况下,被跟踪目标的位置都会在该跟踪感兴趣区域之内。基于此种办法,不仅大大减小了搜索的区域,提高了跟踪的效率,而且由于避免了在不必要位置的匹配,因此有利于抑制在跟踪过程中的跟踪漂移和错误匹配,另外,该跟踪感兴趣区域的限制,也潜在地提醒用户手势运动不宜过快,抑制快速运动中形成运动模糊从而降低跟踪质量的情况,有效抑制跟踪过程中在人脸、脖子、胳膊等肤色区域的错误匹配。
S103:在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态。
具体的,在单目标跟踪系统获取了当前帧视频图像上的跟踪感兴趣区域和运动限制区域之后,在跟踪感兴趣区域之内根据被跟踪目标最近一次被更新的状态预测被跟踪目标在当前帧中的状态,该预测的状态可以包括被跟踪目标的位置信息、被跟踪目标的大小(缩放尺度信息)、被跟踪目标的形变信息、被跟踪目标的方向信息等;此处列举几项比较实用的快速跟踪预测方法:
(a)用颜色直方图表达被跟踪目标像素值的分布,基于该颜色直方图计算源图像的反向传播图像P,根据P进行camshift跟踪;
(b)根据肤色模型计算肤色隶属度图P,P在某点的像素值代表该点是肤色点的概率,根据P进行camshift跟踪;
(c)以源图像/分块、LBP直方图/分块、梯度方向直方图、Haar特征等作为图像描述,结合粒子滤波的方法进行跟踪;
(d)在图像上选取随机点,或者均匀剖分形成的网格点、或者检测出如Harris角点、尺度不变特征变换(Scale-Invariantfeaturetransform,简称SIFT)/加速稳健特征(SpeededUpRobustFeatures,简称SURF)特征点,对这些点基于光流法做跟踪,对跟踪的结果做综合分析得到目标的状态。
上述跟踪预测方法从根本上说,都是在某区域范围所包含的被跟踪目标的所有候选状态中(被跟踪目标在图像中的不同位置、不同的尺度信息,即被跟踪目标在当前帧视频图像中有很多的可能取值),寻找与初始预测模型匹配度最高者,或者说通过某种方法从该区域中产生一系列候选状态,并从中选取最佳匹配者S。但是这个最佳匹配者S不一定就是真实的被跟踪目标的状态,因此需要对其进行验证。参见下述S104和S105的过程。
S104:根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像。
S105:根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内。
具体的,在预测了被跟踪目标在当前帧中的状态后,单目标跟踪系统根据上述被跟踪目标在当前帧中的状态,确定被跟踪目标所在的目标图像,该目标图像可以是当前帧中的彩色图像。由于上述预测的被跟踪目标在当前帧的状态不一定精准,因此,采用验证模型对所预测的状态进行验证。即,根据验证模型中的用于验证的第二描述方式,从状态S所对应的目标图像中,提取被跟踪目标的高级特征,并与验证模型中的高级特征作对比,判断在上述目标图像中提取的被跟踪目标的高级特征与验证模型的匹配度是否大于预设的相似度阈值,并判断在上述目标图像上所述被跟踪目标的当前位置是否位于运动限制区域内。
S106:若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内,则确定所述被跟踪目标跟踪成功。
具体的,如果在上述目标图像中提取的被跟踪目标的高级特征与验证模型的匹配度大于或者等于预设的相似度阈值,在上述目标图像上所述被跟踪目标的当前位置位于运动限制区域内,则确定跟踪成功,否则认为跟踪失败或者无效。这里导致跟踪失败或者无效的原因可能有如下:
(a)按照Ωv中所述第二描述方式在目标图像中提取的被跟踪目标的高级特征,与验证模型的匹配度小于预设的相似度阈值,匹配失败;
(b)在上述目标图像上所述被跟踪目标的当前位置超出了上述运动限制区域。
可选的,在本发明实施例中,所对应的初级预测模型的预测方案可以是颜色直方图+camshift,则上述验证模型所采用的用于预测验证的第二描述方式可以包括:分块LBP纹理直方图以及轮廓方向梯度(HistogramofOrientedGradients,简称HOG)直方图。
本发明提供的目标跟踪方法,通过获取初级预测模型和验证模型,并根据被跟踪目标最近一次被更新的状态,确定被跟踪目标在当前帧视频图像上的跟踪感兴趣区域和运动限制区域,进而在该跟踪感兴趣区域内结合被跟踪目标最近一次被更新的状态和初级预测模型预测被跟踪目标在当前帧的状态,并采用验证模型和运动限制区域对所预测的被跟踪目标在当前帧的状态进行验证,确定跟踪的准确性,由于初级预测模型中的第一描述方式较为简单,因此提高了跟踪预测的效率,从而也就提高了跟踪的效率,另外,由于验证模型中的第二描述方式的复杂度优于第一描述方式,使得其在目标图像中对被跟踪目标的特征提起更加详尽,确保了预测验证的有效性,进一步提高了跟踪结果的鲁棒性。进一步地,由于上述跟踪感兴趣区域和运动限制区域的设定,不仅大大减小了搜索的区域,提高了跟踪的效率,而且由于避免了在不必要位置的匹配,因此有利于抑制在跟踪过程中的跟踪漂移和错误匹配。
图2为本发明提供的目标跟踪方法实施例二的流程示意图。本实施例涉及的是在当前帧视频图像的跟踪感兴趣区域内进行局部检测,以确定是否更新当前的被跟踪目标的模型的具体过程。在上述实施例的基础上,进一步地,上述方法还可以包括:
S201:在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果。
具体的,以被跟踪目标为手势为例,在手势识别中,不仅需要通过跟踪获得运动的人手的轨迹,而且需要识别该过程中每一帧图像中人手的姿态,即静态手势的类型。许多系统是通过对上述预测状态S所对应的目标图像做识别来实现跟踪中的静态手势的识别,但是这存在如下两方面的问题,其一,当跟踪逐渐发生漂移的时候,预测状态S所对应的目标图像并不完全与真正的手势区域吻合,比如可能是以手腕为心的人手和手势的一部分,此时对该区域做识别,识别结果就会不准确;其二,即便是在正确跟踪的情况,仅仅对预测状态S所对应的目标图像做一次性识别,识别错误的概率也是比较大的。鉴于此,本发明实施例提出在上述的跟踪感兴趣区域内,使用多尺度滑动窗口检测的方案,对被跟踪手势(即被跟踪目标)之外的其他预定义手势(即其他预定义目标)进行检测,其中的窗口尺度会根据被跟踪目标在当前帧的当前状态来设置。对每一类手势检测到的目标窗口进行聚类,得到若干个簇,在所有手势对应的窗口簇中选择出一个置信度最高者,计算其对应在当前帧视频图像中的手势位置和手势类型,则检测结果为在所述跟踪感兴趣区域内存在其他预定义手势,且所述其他预定义手势在当前帧视频图像中的位置和手势类型。如果任何一类都没有检测到目标窗口(即在跟踪感兴趣区域内没有检测到除所述被跟踪手势之外的其他预定义手势),或者经过聚类没有符合预设要求的簇,则检测结果为在所述跟踪感兴趣区域内不存在其他预定义手势。
S202:根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
具体的,继续以被跟踪目标为手势为例,若上述检测结果为在所述跟踪感兴趣区域内存在其他预定义手势,该检测结果包含了所述其他预定义手势在当前帧视频图像中的位置和手势类型,则认为跟踪中有手势姿态的变化,即在跟踪过程中手势发生了形变,则单目标跟踪系统会根据所检测到的其他预定义手势重新初始化上述被跟踪目标的模型。
若上述检测结果为在所述跟踪感兴趣区域内不存在其他预定义手势,且所述被跟踪手势在所述当前帧跟踪失败,则不对上述被跟踪目标的模型进行更新,即上述对当前帧手势姿态的分类结果即为被跟踪目标的模型中所记录的手势姿态。
若上述检测结果为在所述跟踪感兴趣区域内不存在其他预定义手势,且所述被跟踪手势在所述当前帧跟踪成功,则对上述被跟踪目标的模型中进行参数修正(参数修正不等于上述的重新初始化),例如,修正被跟踪手势的位置、尺度等。在跟踪验证成功的情况下,为了让被跟踪目标的模型能够适应运动中被跟踪目标表观的缓慢变化,需要对被跟踪目标的模型做渐进式更新(即参数修正),更新算法需要依据被跟踪目标的模型中具体所用的特征、以及预测方法和验证方法来定。下面列举几种描述方式及其相应的可用更新方法:
(a)若被跟踪目标的模型采用的是基于颜色直方图+cam-shift的描述方式,则在进行被跟踪目标的参数修正(渐进式更新)时可以采用颜色直方图更新方式H(i)=aH(i)+(1-a)Ht(i),其中H(i)代表直方图的第i个元素,Ht代表当前预测状态S所对应的目标图像的颜色直方图。
(b)若被跟踪目标的模型采用的是基于尺寸归一化的源图像+粒子滤波的描述方式,目标表观所有图像所张成的子空间作为模型表示;则在进行被跟踪目标的参数修正(渐进式更新)时,可以通过计算粒子与子空间的距离来计算粒子权重,每隔一定的视频帧,积累一定的正样本数量,可以通过增量式PCA分解来来对子空间做更新。
(c)若被跟踪目标的模型采用的是基于图像特征点(Harris/AffinrHarris/SIFT/SURF等等)+粒子滤波的描述方式,使用特征点所构成的码书或者字典来进行模型表示,使用粒子图像的特征点与码书或者字典的匹配度作为粒子的权重;则在进行被跟踪目标的参数修正(渐进式更新)时,通过新状态中的目标图像的特征对码书/字典进行更新。
上述使用滑动窗口检测结果做分类来提高分类准确度,是基于这一过程中会产生大量包含有被跟踪手势的窗口,采用多次分类的置信度比单一次的置信度要高。该方法可以提高跟踪当中对静态手势分类的精度,并且解决了手势突变,而被跟踪目标的模型来不及学习所导致的跟踪失败(因为通常在手势从一种变为另一种的时候,中间会发生漂移,已经导致了跟踪上的错误),并且不容易发生误检率。
本发明提供的目标跟踪方法,不仅提高了跟踪预测的效率和鲁棒性,并且,由于上述跟踪感兴趣区域和运动限制区域的设定,大大减小了搜索的区域,提高了跟踪的效率,而且由于避免了在不必要位置的匹配,因此有利于抑制在跟踪过程中的跟踪漂移和错误匹配。同时,通过在当前帧视频图像的跟踪感兴趣区域内检测是否存在除被跟踪目标之外的其他预定义目标,获得检测结果,并通过结合检测结果和跟踪结果(跟踪失败或者成功),来确保可以及时重新初始化被跟踪目标的模型,解决了因手势突变而被跟踪目标的模型来不及学习所导致的跟踪失败的问题,并且,采用多尺度滑动窗口检测的方法,提高了跟踪当中对静态手势识别的精度。
图3为本发明提供的目标跟踪方法实施例三的流程示意图。本实施例涉及的是在上述目标图像中提取的被跟踪目标的高级特征与验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内时,上述单目标跟踪系统确定被跟踪目标是永久丢失还是短暂性丢失,以进一步确定是否是真正的跟踪失败的具体过程。在上述实施例的基础上,进一步地,该方法还可以包括:
步骤A:根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域。
具体的,在上述目标图像中提取的被跟踪目标的高级特征与验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内时,说明被跟踪目标跟踪失败,则单目标跟踪系统根据被跟踪目标最近一次被更新的状态(最近一次被更新的状态可以参见上述实施例一的描述),确定该被跟踪目标在当前帧的下一帧的跟踪感兴趣区域。
步骤B:根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功。
具体的,当上述系统确定被跟踪目标在下一帧的跟踪感兴趣区域(设为A)之后,系统在该区域内采用上述初级预测模型预测被跟踪目标在下一帧中的状态,并确定被跟踪目标在下一帧中的状态对应的目标图像(设为P),然后在该目标图像上提取被跟踪目标的高级特征,从而判断该高级特征与上述验证模型的匹配度是否大于或者等于上述相似度阈值,并判断被跟踪目标在目标图像P中的位置是否位于运动限制区域(运动限制区域的位置是不变的)内,以确定在下一帧被跟踪目标是否跟踪成功。该步骤B的具体过程可以参照上述实施例一中的S102-S106的具体描述,仅将其中的当前帧更改为下一帧即可。
步骤C:若跟踪失败,则返回步骤A,若跟踪失败的次数达到预设次数时,确定所述被跟踪目标为永久丢失状态,停止跟踪。
具体的,当确定被跟踪目标在下一帧跟踪失败时,则单目标跟踪系统再次根据被跟踪目标最近一次被更新的状态确定被跟踪目标在当前帧的下下一帧的跟踪感兴趣区域,然后再次根据被跟踪目标在下下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下下一帧所述被跟踪目标是否跟踪成功,以此类推。若跟踪失败的次数达到预设次数时,则确定被跟踪目标为永久丢失状态,停止跟踪,若跟踪失败的次数还没有预设次数就已经跟踪成功,则确定被跟踪目标为短暂丢失状态。
例如,参见图4所示的跟踪感兴趣和运动限制区域示意图,M矩形框代表被跟踪手势区域,N矩形框所围的为跟踪感兴趣区域,O矩形框所围区域为根据手势的初始位置所确定的运动限制区域。
在图4中的t0时刻检测到“拳头”手势,t1~t7为该检测所启动的跟踪进程中按照时间先后顺序所选取的若干帧;运动限制区域由t0时刻的手势状态所确定,在本次跟踪进程中该运动限制区域保持不变;跟踪感兴趣区域随着手势的移动得到动态调整,如t6和t7时刻跟踪状态所示,此时跟踪的结果表明人手已经移动出了运动限制区域,此时被跟踪手势会被声明为短暂丢失状态,根据被跟踪目标最近一次被更新的状态(即被成功跟踪的状态)来确定新的跟踪感兴趣区域,在此区域内继续进行跟踪,直到重新在运动限制区域内检测到被跟踪手势(即跟踪失败的次数还没有预设次数就已经跟踪成功),或者被跟踪目标的状态由暂时性丢失转化为永久丢失(即跟踪失败的次数达到预设次数)时停止跟踪进程。
本发明提供的目标跟踪方法,在被跟踪目标丢失之后,仍然在丢失区域附近进行数帧检测,抑制由于目标短暂丢失所造成的跟踪中断问题,进一步提高了跟踪的鲁棒性。
图5为本发明提供的目标跟踪方法实施例四的流程示意图。本实施例涉及的是将被跟踪目标在当前帧中的跟踪状态和上述检测结果进行显示,用户观测到该跟踪状态和检测结果后,若发现跟踪失败或者无效,可以触发单目标跟踪系统及时停止跟踪进程的具体过程。在上述实施例的基础上,进一步地,上述方法还可以包括:
S401:将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。
具体的,本实施例中,被跟踪目标为手势。当单目标跟踪系统确定了最终被跟踪目标的跟踪结果后(无论是跟踪成功还是失败),均将该被跟踪目标在每一帧的处理结果(检测结果和跟踪状态)在每一帧的视频图像里面做标记,可以让用户观察到系统当前的处理结果,从而让用户直观的看到当前是否发生了跟踪漂移或者跟踪丢失的问题,尤其是漂移到错误的背景上的时候,单目标跟踪系统可能因处于跟踪阶段,从而无法启动新的手势识别进程。而这种错误一旦发生,由于在线学习的原因,反而更加难以得到纠正。但是本实施例中通过将被跟踪目标在所述当前帧中的跟踪状态和检测结果进行显示,用户可以观察到这种错误,因此可以确定是否采取主动措施终止跟踪进程。
本实施例中,可选的,单目标跟踪系统可以在智能电视硬件支持下的android平台进行测试,硬件配置可以为处理器主频为700MHz,系统内存可以为200M,通过USB借口连接的普通WEB摄像头进行视频捕捉,若跟踪进程启动,被跟踪目标在当前帧中的跟踪状态和检测结果可以在电视的屏幕上进行显示。该单目标跟踪系统的设备成本低,除了作为载体的智能设备之外,只需要一个普通摄像头,即可实现对人手的跟踪,而无需额外的穿戴式设备。
S402:判断是否检测到预设的用户行为。
S403:若是,则停止跟踪。
具体的,当用户观察到当前的跟踪进程出现了跟踪漂移或者其他跟踪错误,用户可以向单目标跟踪系统输入预设的用户行为,单目标跟踪系统可以通过摄像头获得用户的行为,当判断用户的行为为预设的用户行为时,则单目标跟踪系统确定当前跟踪进程出现问题,及时停止跟踪。
可选的,该预设的用户行为可以为反复性挥手操作。反复性的挥手操作指的是,以某点为心,在周围区域让手势做上下左右反复运动。在跟踪过程中,对于每一帧在运动限制区域内对该行为做检测。对此行为的检测可以通过运动积分图像来检测挥手行为,如图6所示,在任意连续的两帧之间计算绝对差分图像Dt,通过公式Mt+1=(1-α)Mt+αDt来计算t+1时刻的运动积分图像,然后对该运行几分图像进行二值化(α代表更新率,α越大更新速度越快),对mask图像进行联通域分析,如果在运动限制区域内存在大块的mask联通区域,则认为异常,如果在连续数帧中有半数以上的图像帧有异常,则认为有“挥手”行为发生,此时应该停止跟踪。上述反复性挥手动作可以通过以下方式来影响和技术错误的跟踪:(a)在被跟踪目标区域进行快速挥手动作,被跟踪目标因为遮挡而发生丢失,从而导致跟踪终止;(b)反复性的快速挥手操作,可能因运动模糊造成图像质量下降导致跟踪失败,从而导致跟踪终止;(c)跟踪中会在运动限制区域进行挥手行为检测,一旦检测到该行为,就认为是用户在提示有跟踪错误发生,据此系统可以终止当前的跟踪。
本发明提供的目标跟踪方法,通过将被跟踪目标的跟踪状态和检测结果进行可视化,使得用户能够发挥主观能动性参与跟踪进程的监督,并能主动进行纠错,从而及时结束错误的跟踪,增强了跟踪的流畅性的方案。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图7为本发明提供的目标跟踪装置实施例一的结构示意图。如图7所示,该装置可以包括:第一获取模块10、第二获取模块11、预测模块12、验证模块13和确定模块14。
第一获取模块10,用于获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度;
第二获取模块11,用于获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动;
预测模块12,用于在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态;
验证模块13,用于根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像,并根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内;
确定模块14,用于在所述验证模块13确定在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内时,确定所述被跟踪目标跟踪成功。
本发明提供的目标跟踪装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
进一步地,继续参见图7,若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内,则所述第二获取模块11,还用于根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域;
所述确定模块14,还用于根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功,并且还用于在确定跟踪失败时,重新指示所述第二获取模块11继续根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下下一帧的跟踪感兴趣区域,直至跟踪失败的次数达到预设次数时,则确定所述被跟踪目标为永久丢失状态,指示所述装置停止跟踪。
图8为本发明提供的目标跟踪装置实施例二的结构示意图。在上述图7所示实施例的基础上,进一步地,如图8所示,上述装置还可以包括:
检测模块15,用于在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果;
处理模块16,用于根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
进一步地,继续参见图8,所述处理模块16,包括:
第一处理单元161,用于在所述检测结果为在所述跟踪感兴趣区域内存在所述其他预定义目标时,根据所述其他预定义目标重新初始化所述被跟踪目标的模型;
第二处理单元162,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他被跟踪目标,且所述被跟踪目标在所述当前帧跟踪失败时,不对所述被跟踪目标的模型进行更新;
第三处理单元163,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他预定义目标,且所述被跟踪目标在所述当前帧跟踪成功时,对所述被跟踪目标的模型中进行参数修正。
本发明提供的目标跟踪装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
图9为本发明提供的目标跟踪装置实施例三的结构示意图。在上述图8所示实施例的基础上,进一步地,如图9所示,上述装置还可以包括:显示模块17,用于将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。进一步地,还可以包括判断模块18,用于判断是否检测到预设的用户行为,并在判断检测到预设的用户行为时,指示所述装置停止跟踪。
进一步地,所述被跟踪目标为手势。
本发明提供的目标跟踪装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (14)

1.一种目标跟踪方法,其特征在于,包括:
获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度;
获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动;
在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态;
根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像;
根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内;
若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内,则确定所述被跟踪目标跟踪成功。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果;
根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述检测结果确定是否重新初始化所述被跟踪目标的模型,具体包括:
若所述检测结果为在所述跟踪感兴趣区域内存在所述其他预定义目标,则根据所述其他预定义目标重新初始化所述被跟踪目标的模型;
若所述检测结果为所述跟踪感兴趣区域内不存在所述其他被跟踪目标,且所述被跟踪目标在所述当前帧跟踪失败,则不对所述被跟踪目标的模型进行更新;
若所述检测结果为所述跟踪感兴趣区域内不存在所述其他预定义目标,且所述被跟踪目标在所述当前帧跟踪成功,则对所述被跟踪目标的模型中进行参数修正。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
判断是否检测到预设的用户行为;
若是,则停止跟踪。
6.根据权利要求1-5任一项所述的方法,其特征在于,若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内,所述方法还包括:
步骤A:根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域;
步骤B:根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功;
步骤C:若跟踪失败,则返回步骤A,若跟踪失败的次数达到预设次数时,确定所述被跟踪目标为永久丢失状态,停止跟踪。
7.根据权利要求6所述的方法,其特征在于,所述被跟踪目标为手势。
8.一种目标跟踪装置,其特征在于,包括:
第一获取模块,用于获取被跟踪目标的模型,所述被跟踪目标的模型包括初级预测模型和验证模型;其中,所述初级预测模型包括采用第一描述方式提取的所述被跟踪目标的低级特征,所述验证模型包括采用第二描述方式提取的所述被跟踪目标的高级特征,所述第一描述方式的复杂度小于所述第二描述方式的复杂度;
第二获取模块,用于获取当前帧视频图像,并根据所述被跟踪目标最近一次被更新的状态,确定在所述当前帧视频图像上的跟踪感兴趣区域和运动限制区域;其中,所述跟踪感兴趣区域随着所述被跟踪目标的移动进行移动;
预测模块,用于在所述跟踪感兴趣区域内,根据所述初级预测模型预测所述被跟踪目标在所述当前帧中的状态;
验证模块,用于根据所述被跟踪目标在所述当前帧中的状态,确定所述被跟踪目标所在的目标图像,并根据所述第二描述方式在所述目标图像中提取所述被跟踪目标的高级特征,并判断在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度是否大于或者等于预设的相似度阈值,以及判断在所述目标图像上所述被跟踪目标的当前位置是否位于所述运动限制区域内;
确定模块,用于在所述验证模块确定在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置位于所述运动限制区域内时,确定所述被跟踪目标跟踪成功。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
检测模块,用于在所述跟踪感兴趣区域内检测是否存在除所述被跟踪目标之外的其他预定义目标,获得检测结果;
处理模块,用于根据所述检测结果确定是否重新初始化所述被跟踪目标的模型。
10.根据权利要求9所述的装置,其特征在于,所述处理模块,包括:
第一处理单元,用于在所述检测结果为在所述跟踪感兴趣区域内存在所述其他预定义目标时,根据所述其他预定义目标重新初始化所述被跟踪目标的模型;
第二处理单元,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他被跟踪目标,且所述被跟踪目标在所述当前帧跟踪失败时,不对所述被跟踪目标的模型进行更新;
第三处理单元,用于在所述检测结果为所述跟踪感兴趣区域内不存在所述其他预定义目标,且所述被跟踪目标在所述当前帧跟踪成功时,对所述被跟踪目标的模型中进行参数修正。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
显示模块,用于将所述被跟踪目标在所述当前帧中的跟踪状态和所述检测结果进行显示。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
判断模块,用于判断是否检测到预设的用户行为,并在判断检测到预设的用户行为时,指示所述装置停止跟踪。
13.根据权利要求8-12任一项所述的装置,其特征在于,若所述在所述目标图像中提取的被跟踪目标的高级特征与所述验证模型的匹配度大于或者等于预设的相似度阈值,且在所述目标图像上所述被跟踪目标的当前位置没有位于所述运动限制区域内,则
所述第二获取模块,还用于根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下一帧的跟踪感兴趣区域;
所述确定模块,还用于根据所述被跟踪目标在下一帧的跟踪感兴趣区域、所述运动限制区域、所述初级预测模型和所述验证模型,确定在下一帧所述被跟踪目标是否跟踪成功,并且还用于在确定跟踪失败时,重新指示所述第二获取模块继续根据被跟踪目标最近一次被更新的状态,确定所述被跟踪目标在下下一帧的跟踪感兴趣区域,直至跟踪失败的次数达到预设次数时,则确定所述被跟踪目标为永久丢失状态,指示所述装置停止跟踪。
14.根据权利要求13所述的装置,其特征在于,所述被跟踪目标为手势。
CN201610137587.XA 2016-03-10 2016-03-10 目标跟踪方法和装置 Active CN105825524B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610137587.XA CN105825524B (zh) 2016-03-10 2016-03-10 目标跟踪方法和装置
PCT/CN2017/075104 WO2017152794A1 (en) 2016-03-10 2017-02-28 Method and device for target tracking
US15/743,994 US20180211104A1 (en) 2016-03-10 2017-02-28 Method and device for target tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610137587.XA CN105825524B (zh) 2016-03-10 2016-03-10 目标跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN105825524A true CN105825524A (zh) 2016-08-03
CN105825524B CN105825524B (zh) 2018-07-24

Family

ID=56987610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610137587.XA Active CN105825524B (zh) 2016-03-10 2016-03-10 目标跟踪方法和装置

Country Status (3)

Country Link
US (1) US20180211104A1 (zh)
CN (1) CN105825524B (zh)
WO (1) WO2017152794A1 (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355603A (zh) * 2016-08-29 2017-01-25 深圳市商汤科技有限公司 人体跟踪方法和人体跟踪装置
CN106371459A (zh) * 2016-08-31 2017-02-01 京东方科技集团股份有限公司 目标跟踪方法及装置
CN106842625A (zh) * 2017-03-03 2017-06-13 西南交通大学 一种基于特征共识性的目标追踪眼镜及方法
WO2017152794A1 (en) * 2016-03-10 2017-09-14 Zhejiang Shenghui Lighting Co., Ltd. Method and device for target tracking
CN107256561A (zh) * 2017-04-28 2017-10-17 纳恩博(北京)科技有限公司 目标跟踪方法和装置
CN108177146A (zh) * 2017-12-28 2018-06-19 北京奇虎科技有限公司 机器人头部的控制方法、装置及计算设备
CN108337429A (zh) * 2017-01-19 2018-07-27 佳能株式会社 图像处理设备和图像处理方法
CN108960206A (zh) * 2018-08-07 2018-12-07 北京字节跳动网络技术有限公司 视频帧处理方法和装置
CN109194916A (zh) * 2018-09-17 2019-01-11 东莞市丰展电子科技有限公司 一种具有图像处理模块的可移动拍摄系统
CN109658434A (zh) * 2018-12-26 2019-04-19 成都纵横自动化技术股份有限公司 一种目标跟踪的方法及装置
CN110069961A (zh) * 2018-01-24 2019-07-30 北京京东尚科信息技术有限公司 一种物体检测方法和装置
CN110163055A (zh) * 2018-08-10 2019-08-23 腾讯科技(深圳)有限公司 手势识别方法、装置和计算机设备
CN110298863A (zh) * 2018-03-22 2019-10-01 佳能株式会社 用于跟踪视频序列中的对象的装置和方法以及存储介质
WO2019200785A1 (zh) * 2018-04-18 2019-10-24 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN110543808A (zh) * 2019-06-14 2019-12-06 哈尔滨理工大学 一种目标识别跟踪方法及系统
CN110992393A (zh) * 2019-11-24 2020-04-10 杭州鼎热科技有限公司 一种基于视觉的目标运动跟踪方法
CN111144180A (zh) * 2018-11-06 2020-05-12 天地融科技股份有限公司 一种监控视频的风险检测方法及系统
CN111325770A (zh) * 2020-02-13 2020-06-23 中国科学院自动化研究所 基于rgbd相机的目标跟随方法、系统、装置
CN111383246A (zh) * 2018-12-29 2020-07-07 杭州海康威视数字技术股份有限公司 条幅检测方法、装置及设备
CN111684457A (zh) * 2019-06-27 2020-09-18 深圳市大疆创新科技有限公司 一种状态检测方法、装置及可移动平台
CN111815678A (zh) * 2020-07-10 2020-10-23 北京猎户星空科技有限公司 目标跟随方法、装置和电子设备
CN112417963A (zh) * 2020-10-20 2021-02-26 上海卫莎网络科技有限公司 一种优化视频目标检测、识别或分割的精度和效率的方法
CN112513932A (zh) * 2018-06-27 2021-03-16 瑞典爱立信有限公司 实时应用中的对象跟踪
CN112585944A (zh) * 2020-01-21 2021-03-30 深圳市大疆创新科技有限公司 跟随方法、可移动平台、装置和存储介质
CN113395450A (zh) * 2018-05-29 2021-09-14 深圳市大疆创新科技有限公司 一种跟踪拍摄方法、设备及存储介质
CN113744299A (zh) * 2021-09-02 2021-12-03 上海安维尔信息科技股份有限公司 一种相机控制方法、装置、电子设备及存储介质
CN115474080A (zh) * 2022-09-07 2022-12-13 长沙朗源电子科技有限公司 一种有线投屏控制方法及装置
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116778532A (zh) * 2023-08-24 2023-09-19 汶上义桥煤矿有限责任公司 一种煤矿井下人员目标跟踪方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809136A (zh) * 2016-03-14 2016-07-27 中磊电子(苏州)有限公司 影像数据处理方法及影像数据处理系统
EP3425591B1 (en) * 2017-07-07 2021-01-13 Tata Consultancy Services Limited System and method for tracking body joints
TWI637354B (zh) * 2017-10-23 2018-10-01 緯創資通股份有限公司 判斷使用者之姿勢之影像偵測方法以及影像偵測裝置
CN109087330A (zh) * 2018-06-08 2018-12-25 中国人民解放军军事科学院国防科技创新研究院 一种基于由粗到精图像分割的运动目标检测方法
CN109376606B (zh) * 2018-09-26 2021-11-30 福州大学 一种电力巡检图像杆塔基础故障检测方法
TWI673653B (zh) * 2018-11-16 2019-10-01 財團法人國家實驗研究院 移動物體偵測系統及方法
CN109657615B (zh) * 2018-12-19 2021-11-02 腾讯科技(深圳)有限公司 一种目标检测的训练方法、装置及终端设备
CN109840504B (zh) * 2019-02-01 2022-11-25 腾讯科技(深圳)有限公司 物品取放行为识别方法、装置、存储介质及设备
CN110298239B (zh) * 2019-05-21 2024-06-28 平安科技(深圳)有限公司 目标监控方法、装置、计算机设备及存储介质
CN111191532B (zh) * 2019-12-18 2023-08-25 深圳供电局有限公司 基于施工区域的人脸识别方法、装置、计算机设备
CN111144406B (zh) * 2019-12-22 2023-05-02 复旦大学 一种太阳能面板清扫机器人自适应目标roi定位方法
US11467254B2 (en) * 2020-02-27 2022-10-11 Samsung Electronics Co., Ltd. Method and apparatus of radar-based activity detection
CN111402291B (zh) * 2020-03-04 2023-08-29 阿波罗智联(北京)科技有限公司 用于跟踪目标的方法和装置
CN113536864B (zh) * 2020-04-22 2023-12-01 深圳市优必选科技股份有限公司 手势识别方法、装置、计算机可读存储介质及终端设备
CN111611941B (zh) * 2020-05-22 2023-09-19 腾讯科技(深圳)有限公司 特效处理方法及相关设备
CN111798482B (zh) * 2020-06-16 2024-10-15 浙江大华技术股份有限公司 一种目标跟踪方法及设备
WO2022021432A1 (zh) * 2020-07-31 2022-02-03 Oppo广东移动通信有限公司 手势控制方法及相关装置
CN114463370B (zh) * 2020-11-09 2024-08-06 北京理工大学 二维影像目标跟踪优化方法及装置
CN113537241B (zh) * 2021-07-16 2022-11-08 重庆邮电大学 一种基于自适应特征融合的长时相关滤波目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040017930A1 (en) * 2002-07-19 2004-01-29 Samsung Electronics Co., Ltd. System and method for detecting and tracking a plurality of faces in real time by integrating visual ques
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
US20090141940A1 (en) * 2007-12-03 2009-06-04 Digitalsmiths Corporation Integrated Systems and Methods For Video-Based Object Modeling, Recognition, and Tracking
CN102214359A (zh) * 2010-04-07 2011-10-12 北京智安邦科技有限公司 基于层级式特征匹配的目标跟踪装置及方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
US7860162B2 (en) * 2005-09-29 2010-12-28 Panasonic Corporation Object tracking method and object tracking apparatus
DE102010019147A1 (de) * 2010-05-03 2011-11-03 Lfk-Lenkflugkörpersysteme Gmbh Verfahren und Vorrichtung zur Verfolgung der Bewegungsbahn eines sich bewegenden Objekts sowie Computerprogramm und Datenträger
US9429417B2 (en) * 2012-05-17 2016-08-30 Hong Kong Applied Science and Technology Research Institute Company Limited Touch and motion detection using surface map, object shadow and a single camera
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN105825524B (zh) * 2016-03-10 2018-07-24 浙江生辉照明有限公司 目标跟踪方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040017930A1 (en) * 2002-07-19 2004-01-29 Samsung Electronics Co., Ltd. System and method for detecting and tracking a plurality of faces in real time by integrating visual ques
US20090141940A1 (en) * 2007-12-03 2009-06-04 Digitalsmiths Corporation Integrated Systems and Methods For Video-Based Object Modeling, Recognition, and Tracking
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
CN102214359A (zh) * 2010-04-07 2011-10-12 北京智安邦科技有限公司 基于层级式特征匹配的目标跟踪装置及方法

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017152794A1 (en) * 2016-03-10 2017-09-14 Zhejiang Shenghui Lighting Co., Ltd. Method and device for target tracking
CN106355603B (zh) * 2016-08-29 2019-10-22 深圳市商汤科技有限公司 人体跟踪方法和人体跟踪装置
CN106355603A (zh) * 2016-08-29 2017-01-25 深圳市商汤科技有限公司 人体跟踪方法和人体跟踪装置
CN106371459A (zh) * 2016-08-31 2017-02-01 京东方科技集团股份有限公司 目标跟踪方法及装置
CN108337429A (zh) * 2017-01-19 2018-07-27 佳能株式会社 图像处理设备和图像处理方法
CN108337429B (zh) * 2017-01-19 2020-11-03 佳能株式会社 图像处理设备和图像处理方法
CN106842625A (zh) * 2017-03-03 2017-06-13 西南交通大学 一种基于特征共识性的目标追踪眼镜及方法
CN106842625B (zh) * 2017-03-03 2020-03-17 西南交通大学 一种基于特征共识性的目标追踪方法
CN107256561A (zh) * 2017-04-28 2017-10-17 纳恩博(北京)科技有限公司 目标跟踪方法和装置
CN108177146A (zh) * 2017-12-28 2018-06-19 北京奇虎科技有限公司 机器人头部的控制方法、装置及计算设备
CN110069961A (zh) * 2018-01-24 2019-07-30 北京京东尚科信息技术有限公司 一种物体检测方法和装置
CN110298863B (zh) * 2018-03-22 2023-06-13 佳能株式会社 用于跟踪视频序列中的对象的装置和方法以及存储介质
CN110298863A (zh) * 2018-03-22 2019-10-01 佳能株式会社 用于跟踪视频序列中的对象的装置和方法以及存储介质
WO2019200785A1 (zh) * 2018-04-18 2019-10-24 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN113395450A (zh) * 2018-05-29 2021-09-14 深圳市大疆创新科技有限公司 一种跟踪拍摄方法、设备及存储介质
CN112513932A (zh) * 2018-06-27 2021-03-16 瑞典爱立信有限公司 实时应用中的对象跟踪
CN108960206A (zh) * 2018-08-07 2018-12-07 北京字节跳动网络技术有限公司 视频帧处理方法和装置
CN108960206B (zh) * 2018-08-07 2021-01-22 北京字节跳动网络技术有限公司 视频帧处理方法和装置
CN110163055A (zh) * 2018-08-10 2019-08-23 腾讯科技(深圳)有限公司 手势识别方法、装置和计算机设备
CN109194916B (zh) * 2018-09-17 2022-05-06 东莞市丰展电子科技有限公司 一种具有图像处理模块的可移动拍摄系统
CN109194916A (zh) * 2018-09-17 2019-01-11 东莞市丰展电子科技有限公司 一种具有图像处理模块的可移动拍摄系统
CN111144180A (zh) * 2018-11-06 2020-05-12 天地融科技股份有限公司 一种监控视频的风险检测方法及系统
CN111144180B (zh) * 2018-11-06 2023-04-07 天地融科技股份有限公司 一种监控视频的风险检测方法及系统
CN109658434A (zh) * 2018-12-26 2019-04-19 成都纵横自动化技术股份有限公司 一种目标跟踪的方法及装置
CN111383246A (zh) * 2018-12-29 2020-07-07 杭州海康威视数字技术股份有限公司 条幅检测方法、装置及设备
CN111383246B (zh) * 2018-12-29 2023-11-07 杭州海康威视数字技术股份有限公司 条幅检测方法、装置及设备
CN110543808A (zh) * 2019-06-14 2019-12-06 哈尔滨理工大学 一种目标识别跟踪方法及系统
CN111684457A (zh) * 2019-06-27 2020-09-18 深圳市大疆创新科技有限公司 一种状态检测方法、装置及可移动平台
CN111684457B (zh) * 2019-06-27 2024-05-03 深圳市大疆创新科技有限公司 一种状态检测方法、装置及可移动平台
CN110992393A (zh) * 2019-11-24 2020-04-10 杭州鼎热科技有限公司 一种基于视觉的目标运动跟踪方法
CN112585944A (zh) * 2020-01-21 2021-03-30 深圳市大疆创新科技有限公司 跟随方法、可移动平台、装置和存储介质
CN111325770A (zh) * 2020-02-13 2020-06-23 中国科学院自动化研究所 基于rgbd相机的目标跟随方法、系统、装置
CN111325770B (zh) * 2020-02-13 2023-12-22 中国科学院自动化研究所 基于rgbd相机的目标跟随方法、系统、装置
CN111815678A (zh) * 2020-07-10 2020-10-23 北京猎户星空科技有限公司 目标跟随方法、装置和电子设备
CN111815678B (zh) * 2020-07-10 2024-01-23 北京猎户星空科技有限公司 目标跟随方法、装置和电子设备
CN112417963A (zh) * 2020-10-20 2021-02-26 上海卫莎网络科技有限公司 一种优化视频目标检测、识别或分割的精度和效率的方法
CN113744299B (zh) * 2021-09-02 2022-07-12 上海安维尔信息科技股份有限公司 一种相机控制方法、装置、电子设备及存储介质
CN113744299A (zh) * 2021-09-02 2021-12-03 上海安维尔信息科技股份有限公司 一种相机控制方法、装置、电子设备及存储介质
CN115474080A (zh) * 2022-09-07 2022-12-13 长沙朗源电子科技有限公司 一种有线投屏控制方法及装置
CN115474080B (zh) * 2022-09-07 2024-02-20 长沙朗源电子科技有限公司 一种有线投屏控制方法及装置
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116778532B (zh) * 2023-08-24 2023-11-07 汶上义桥煤矿有限责任公司 一种煤矿井下人员目标跟踪方法
CN116778532A (zh) * 2023-08-24 2023-09-19 汶上义桥煤矿有限责任公司 一种煤矿井下人员目标跟踪方法

Also Published As

Publication number Publication date
WO2017152794A1 (en) 2017-09-14
US20180211104A1 (en) 2018-07-26
CN105825524B (zh) 2018-07-24

Similar Documents

Publication Publication Date Title
CN105825524A (zh) 目标跟踪方法和装置
CN102831439B (zh) 手势跟踪方法及系统
CN108875833B (zh) 神经网络的训练方法、人脸识别方法及装置
US10488939B2 (en) Gesture recognition
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
WO2020011014A1 (zh) 实时视频的目标检测与识别方法、系统、存储介质及设备
Yuan et al. Particle filter re-detection for visual tracking via correlation filters
US9805256B2 (en) Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier
EP3540574B1 (en) Eye tracking method, electronic device, and non-transitory computer readable storage medium
KR102530516B1 (ko) 자동 수어 인식 방법 및 시스템
CN104145296A (zh) 头部跟踪方法、装置及计算机可读记录介质
Wu et al. Vision-based fingertip tracking utilizing curvature points clustering and hash model representation
CN112949512B (zh) 一种动态手势识别方法、手势交互方法及交互系统
Mohd Asaari et al. Adaptive Kalman Filter Incorporated Eigenhand (AKFIE) for real-time hand tracking system
CN114937285B (zh) 动态手势识别方法、装置、设备及存储介质
CN111898561A (zh) 一种人脸认证方法、装置、设备及介质
CN114549557A (zh) 一种人像分割网络训练方法、装置、设备及介质
El-Baz et al. An efficient algorithm for 3D hand gesture recognition using combined neural classifiers
Ueng et al. Vision based multi-user human computer interaction
Thabet et al. Algorithm of local features fusion and modified covariance-matrix technique for hand motion position estimation and hand gesture trajectory tracking approach
CN117173624A (zh) 在计算装置中的对象识别模型学习方法
US20220050528A1 (en) Electronic device for simulating a mouse
Fang et al. An improved moving tracking algorithm with multiple information fusion based on 3d sensors
Cheng et al. Improved fast compressive tracking for low-altitude flying target tracking
KR101508842B1 (ko) 저비용 휴먼 컴퓨터 상호작용 어플리케이션을 위한 진화 적응 시선 추적을 제공하는 시스템 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Target tracking method and device

Effective date of registration: 20230302

Granted publication date: 20180724

Pledgee: Tongxiang Yunbei Investment Construction Co.,Ltd.

Pledgor: ZHEJIANG SHENGHUI LIGHTING Co.,Ltd.

Registration number: Y2023980033495

PE01 Entry into force of the registration of the contract for pledge of patent right