CN109523573A - 目标对象的跟踪方法和装置 - Google Patents
目标对象的跟踪方法和装置 Download PDFInfo
- Publication number
- CN109523573A CN109523573A CN201811423422.4A CN201811423422A CN109523573A CN 109523573 A CN109523573 A CN 109523573A CN 201811423422 A CN201811423422 A CN 201811423422A CN 109523573 A CN109523573 A CN 109523573A
- Authority
- CN
- China
- Prior art keywords
- image
- module
- model
- target
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种目标对象的跟踪方法和装置,其中,该方法包括:获取第一图像和第二图像;通过人脸识别,从第一图像中确定出目标对象,并根据目标对象得到第一目标模型;根据第一目标模型和第二图像,确定第二目标模型;计算第二目标模型相对于第一目标模型的第一均值漂移向量;根据第一目标模型和第一均值漂移向量,确定目标对象的第一位移向量。由于该方案先通过针对第一图像的人脸识别来锁定目对象,再通过计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而确定出目标对象的实际位移向量,从而解决了现有方法中存在的跟踪过程计算量相对较大、处理效率相对较低的技术问题。
Description
技术领域
本发明涉及目标跟踪技术领域,特别是涉及一种目标对象的跟踪方法和装置。
背景技术
如今许多城市区域都已经布设了摄像头,用以协助监管、保护市民的生活和安全。如何利用通过上述摄像头实时采集的图像数据自动对区域中的一些可疑人或物进行有效的跟踪、监控是人们较为关注的问题。
目前,现有的跟踪方法大多是先对每一帧图像数据中的人脸都分别进行人脸识别,再通过图像计算得到各帧图像数据中的人脸特征值,继而依次对比连续两帧图像数据的中人脸特征值来锁定目标对象,再确定目标对象的相对运动轨迹,实现对目标对象的跟踪。
上述方法具体实施时,需要分别去识别每一帧图像数据中的人脸,并且还需要分别计算对比图像数据中的人脸特征值来锁定目标对象。而识别图像中的人脸、计算对比人脸特征的过程本身就较为复杂,计算量也相对较大。且通过摄像头实时获取的图像数据的数据量通常比较庞大。因此,基于现有方法来处理摄像头实时采集得到的图像数据,以跟踪目标对象时,往往存在计算量相对较大、处理效率相对较低的技术问题。
针对上述问题,目前尚未提出有效的解决方案。
发明内容
本申请实施方式提供了一种目标对象的跟踪方法和装置,以解决现有方法中存在的跟踪过程计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果。
本申请实施方式提供了一种目标对象的跟踪方法,包括:
获取第一图像和第二图像;
通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;
根据所述第一目标模型和所述第二图像,确定第二目标模型;
根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;
根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
在一个实施方式中,所述根据所述目标对象得到第一目标模型,包括:
将第一图像中目标对象所在的区域确定为第一目标区域;
对所述第一目标区域进行像素特征提取,得到所述第一目标模型。
在一个实施方式中,根据所述第一目标模型和所述第二图像,确定第二目标模型,包括:
搜索所述第二图像,得到多个候选区域;
对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型;
根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型。
在一个实施方式中,根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型,包括:
分别计算所述多个候选目标模型中的各个候选目标模型与所述第一目标模型的相似函数;
将相似函数的数值最大的候选目标模型确定为第二目标模型。
在一个实施方式中,根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量,包括:
按照以下公式,计算所述第一均值漂移向量:
其中,Mh1为第一均值漂移向量,Xi为第二目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk为第二目标模型所在的区域中数据点的集合,k为第二目标模型所在的区域中数据点的总数,X为第一目标模型所在的区域的中心点的像素点直方图的数据值。
在一个实施方式中,根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量,包括:
将第一图像中所述第一目标模型所在的区域的中心点确定为目标对象的起点;
根据所述目标对象的起点和所述第一均值漂移向量,计算目标对象的第一位移向量。
在一个实施方式中,在根据所述第一目标模型和所述第二图像,确定第二目标模型后,所述方法还包括:
检测第二图像中所述第二目标模型所在的区域的中心点是否位于第一图像中所述第一目标模型所在的区域中;
在确定第二图像中所述第二目标模型所在的区域的中心点位于第一图像中所述第一目标模型所在的区域以外的情况下,重新确定第二目标模型。
在一个实施方式中,在根据所述第一目标对象和所述第一均值漂移向量,确定目标对象的第一位移向量后,所述方法还包括:
获取第三图像;
根据所述第二目标模型和所述第三图像,确定第三目标模型;
根据所述第二目标模型和所述第三目标模型,计算所述第三目标模型相对于第二目标模型的第二均值漂移向量;
根据所述第二目标模型和所述第二均值漂移向量,确定目标对象的第二位移向量。
本申请实施方式还提供了一种目标对象的跟踪装置,包括:
获取模块,用于获取第一图像和第二图像;
第一确定模块,用于通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;
第二确定模块,用于根据所述第一目标模型和所述第二图像,确定第二目标模型;
计算模块,用于根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;
第三确定模块,用于根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
本申请实施方式还提供了一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现获取第一图像和第二图像;通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;根据所述第一目标模型和所述第二图像,确定第二目标模型;根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
在本申请实施方式中,由于先通过针对第一图像的人脸识别来锁定目对象,再通过计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而确定出目标对象的实际位移向量,从而解决了现有方法中存在的跟踪过程计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对本申请实施方式提供的目标对象的跟踪方法和装置的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是根据本申请实施方式提供的目标对象的跟踪方法的处理流程示意图;
图2是根据本申请实施方式提供的目标对象的跟踪装置的组成结构示意图;
图3是基于本申请实施例提供的目标对象的跟踪方法的电子设备的组成结构示意图;
图4是在一个场景示例中应用本申请实施方式提供的目标对象的跟踪方法和装置的实施例示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
考虑到现有的基于摄像头采集的图像数据进行定位跟踪的方法,大多需要对每一帧图像都进行人脸识别,并计算各帧图像中的人脸特征值,再通过对比人脸特征值对目标对象进行锁定跟踪。而人脸识别、计算过程相对较为复杂、繁琐,且要分析处理的图像数据的数据量通常较为庞大,导致基于现有的跟踪方法在具体进行目标对象跟踪时势必需要进行大量的计算,进而使得处理过程需要占用较多的计算资源,处理时间相对较长,处理效率相对较低。
针对产生上述问题的根本原因,本申请考虑可以只对第一图像进行人脸识别,以确定目标对象,并建立第一目标模型;进而可以不需要对其他帧图像进行人脸识别以及人脸特征计算,而是基于均值漂移算法,通过计算第二图像中的第二目标模型相对于第一图像中的第一目标模型的均值漂移向量来确定目标对象从第一图像所表征的时间到第二图像所表这的时间之间的时间段内的相对位移;最后再结合第一图像中的第一目标模型计算出目标对象的位移向量,即确定出了目标对象的运动轨迹,实现了对目标对象的跟踪。通过上述方法,由于不需要再对每一帧图像都进行复杂、繁琐的人脸识别以及人脸特征计算,简化了计算过程,减少了计算量,从而提高了处理效率。
基于上述思考思路,本申请实施方式提供了一种目标对象的跟踪方法,具体可以参阅图1所示的根据本申请实施方式提供的目标对象的跟踪方法的处理流程示意图。具体实施时,该方法可以包括以下内容。
S11:获取第一图像和第二图像。
在本实施方式中,上述第一图像和第二图像具体可以是包含有待跟踪的目标对象的照片或者视频的截图。其中,上述第一图像所表征的时间点要早于第二图像所表征的时间点。
在本实施方式中,上述第一图像和第二图像具体可以是连续的两张图像,例如,可以是连续的视频数据中前后相邻的两帧图像。当然,上述第一图像和第二图像还可以是相隔时间较短的两帧图像,例如,第二图像可以是晚于第一图像2秒后拍摄的照片等。当然,需要说明的是上述所列举第一图像和第二图像只是一种示意性说明。具体实施时,根据具体情况和处理要求,上述第一图像和第二图像还可以是其他形式或内容。对此,本说明书不作限定。
在本实施方式中,上述获取第一图像和第二图像,具体实施时可以包括:通过摄像头获取实时采集任一帧图像作为第一图像,获取第一图像之后的下一帧图像作为第二图像。或者,从一段视频数据中截取任一帧图像作为第一图像,截取第一图像之后的下一帧图像作为第二图像。
S12:通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型。
在本实施方式中,上述目标对象具体可以理解为待跟踪的人。当然,后续也可以将上述方法应用于包括车辆、动物等物品的目标对象的跟踪。对此,本说明书不作限定。
在本实施方式中,上述通过人脸识别,从所述第一图像中确定出目标对象,具体实施时,可以包括:通过人脸检测算法对第一图像进行人脸识别,根据人脸识别结果确定目标对象。
在本实施方式中,上述人脸检测算法具体可以包括:训练好的用于人脸识别的卷积神经网络(CNN)和/或VJ人脸检测器(Viola&Jones Face Detector)等。当然,需要说明的是,上述所列举的人脸检测算法只是一种示意性说明。具体实施时,根据具体的应用场景和处理需求,还可以采用其他类型的人脸检测算法。对此,本说明书不作限定。
在本实施方式中,在通过人脸识别,从第一图像中确定出目标对象后,相当于完成了对待跟踪的目标对象的初始化处理,后续定位跟踪过程中,不再需要再对其他帧图像(例如第二图像、第三图像等)再进行人脸识别。因此,可以有效地减少计算量,提高处理效率。
在本实施方式中,在根据人脸识别结果,从第一图像中确定出目标对象,完成目标对象的初始化的同时,也确定出了目标对象在第一图像中的位置(即起点),即也完成了对目标对象位置的初始化。
在本实施方式中,上述第一目标模型具体可以理解为一种关于第一图像中目标对象所在区域的像素特征值概率的描述。具体的,上述第一目标模型与目标对象在第一图像中所处的位置区域对应。
在一个实施方式中,上述根据所述目标对象得到第一目标模型,具体实施时,可以包括以下内容:
S1:将第一图像中目标对象所在的区域确定为第一目标区域;
S2:对所述第一目标区域进行像素特征提取,得到所述第一目标模型。
在本实施方式中,上述第一目标区域具体可以是一种以目标对象中心位置为区域中心,包含有目标对象的区域。具体的,该区域可以是宽为W,高为H的矩形区域。其中,上述矩形区域的尺寸(即W、H的具体取值)可以根据具体情况灵活设置。对此,本说明书不作限定。
在本实施方式中,具体实施时,可以对第一目标区域进行像素特征提取,根据提取得到的像素特征值概率,建立与第一目标区域对应的第一目标模型。
S13:根据所述第一目标模型和所述第二图像,确定第二目标模型。
在本实施方式中,上述第二目标模型具体可以理解为一种关于第二图像中目标对象所在区域的像素特征值概率的描述。具体的,上述第二目标模型与目标对象在第二图像中所处的位置区域对应。
在一个实施方式中,上述根据所述第一目标模型和所述第二图像,确定第二目标模型,具体实施时,可以包括以下内容:
S1:搜索所述第二图像,得到多个候选区域;
S2:对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型;
S3:根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型。
在本实施方式中,上述候选区域具体可以理解为第二图像中可能包含有目标对象的待定区域。
在本实施方式中,上述候选目标对象具体可以理解为候选区域中的像素特征值概率的描述。
在本实施方式中,对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型,具体实施时,可以包括:分别对所述多个后选区域中的各个候选区域进行像素特征提取,根据提取得到的各个候选区域的像素特征值概率,分别建立与各个候选区域对应的候选目标模型。
在一个实施方式中,上述根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型,具体实施时,可以包括以下内容:
S1:分别计算所述多个候选目标模型中的各个候选目标模型与所述第一目标模型的相似函数;
S2:将相似函数的数值最大的候选目标模型确定为第二目标模型。
在本实施方式中,与第一目标模型的相似函数的数值最大的候选目标模型可以理解为是与第一目标模型最为相似、接近的目标模型,即第二图像中具有较高概率包含有目标对象的区域所对应的目标模型。
在本实施方式中,通过计算第二图像中的各个候选模型与第一目标模型的相似函数来从确定出第二图像中的第二目标模型,即从第二图像中锁定目标对象。而不需要像现有方法那样去逐个计算每帧图像中的人脸特征值,再通过人脸特征值对比来锁定目标对象。从而降低了计算量,提高了处理效率。
S14:根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量。
在本实施方式中,具体实施时,可以根据所述第一目标模型和所述第二目标模型,通过均值漂移算法计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量。
在本实施方式中,上述均值漂移算法具体可以理解为一种基于密度梯度上升的非参数方法。通常上述均值漂移算法多应用于数据分类或聚类分析等场景中。
本申请考虑到基于均值漂移算法可以计算出的均值漂移向量能够具有指向最大可能方向特点,可以用于进行目标对象跟踪,衡量目标对象的相对位移。且均值漂移算法本身具有收敛速度快,计算量相对较少的特点。因此,可以在兼顾定位精确性的同时,还具有较高的处理效率。基于上述特点,在本申请实施方式提取使用均值漂移算法来计算第二图像中的第二目标模型与第一图像中的第一目标模型之间的均值漂移向量来表征目标对象在第一图像所表征时间点和第二图像所表征的时间点之间的时间段内的相对位移。
在一个实施方式中,上述根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量,具体实施时,可以包括以下内容:
按照以下公式,计算所述第一均值漂移向量:
其中,Mh1具体可以表示为第一均值漂移向量,Xi具体可以表示为第二目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk具体可以表示为第二目标模型所在的区域中数据点的集合,k具体可以表示为第二目标模型所在的区域中数据点的总数,X具体可以表示为第一目标模型所在的区域的中心点的像素点直方图的数据值。
在本实施方式中,上述各个数据点的像素点直方图的数据值具体实施时,可以按照以下公式计算:
Xr=R*256+G*16+B
其中,Xr具体可以表示为任意一个数据点的像素点直方图的数据值,R、G、B具体可以分别表示该数据点在RGB颜色空间各个对应通道的通道值。
S15:根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
在本实施方式中,上述第一位移向量具体可以理解为由第一图像所表征的时间点处的目标对象所处的位置指向第二图像所表征的时间点出目标对象所处的位置的向量。根据上述第一位移向量可以准确地确定出目标对象在第二图像所表征的时间点所处的具体位置。
在一个实施方式中,上述根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量,具体实施时,可以包括以下内容:
S1:将第一图像中所述第一目标模型所在的区域的中心点确定为目标对象的起点;
S2:根据所述目标对象的起点和所述第一均值漂移向量,计算目标对象的第一位移向量。
在本实施方式,具体实施时,可以按照以下公式,计算目标对象的第一位移向量:
x1=x0+Mh1
其中,上述x1具体可以表示为目标对象的第一位移向量,x0具体可以表示为目标对象的起点,Mh1具体可以表示为第一均值漂移向量。
在一个实施方式中,再按照上述方式,根据第一图像和第二图像确定出目标对象在第二图像所表征的时间点所处的位置后,进一步还可以获取第三图像,根据第三图像确定出第二位移向量,即第三图像相对于第二图像目标对象的位移向量;再结合第一图像,可以确定目标对象在第三图像所表征的时间点时所处的具体位置,达到对目标对象的进一步跟踪。
在一个实施方式中,在根据所述第一目标对象和所述第一均值漂移向量,确定目标对象的第一位移向量后,所述方法具体实施时,还可以包括以下内容:
S1:获取第三图像;
S2:根据所述第二目标模型和所述第三图像,确定第三目标模型;
S3:根据所述第二目标模型和所述第三目标模型,计算所述第三目标模型相对于第二目标模型的第二均值漂移向量;
S4:根据所述第二目标模型和所述第二均值漂移向量,确定目标对象的第二位移向量。
在本实施方式中,上述第三图像具体可以理解为所表征的时间点晚于第二图像的图像数据。
在本实施方式中,上述根据所述第二目标模型和所述第三图像,确定第三目标模型,参照确定第二目标模型的实施方式,具体可以包括:搜索所述第三图像,得到多个候选区域;对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型;根据所述第二目标模型,从所述多个候选目标模型中确定出第三目标模型。
在本实施方式中,上述第二均值漂移向量具体可以理解为一种能够表征目标对象在第二图像所表征时间点和第三图像所表征的时间点之间的时间段内的相对位移的向量。
在本实施方式中,具体实施时,可以参照使用计算第一均值漂移向量的计算公式计算第二均值漂移向量。对此,本说明书不再赘述。
在本实施方式中,通过根据所述第二目标模型和所述第二均值漂移向量,可以确定目标对象的第二位移向量,即可以确定出目标对象由第一图像所表征的时间点至第三图像所表征的时间点的位移变化,从而实现了对目标对象的跟踪。
还需要说明的是,在本实施方式中,仅以第三图像为例说明了如何基于本说明书实施方式所提供的目标对象的跟踪方法,根据第二图像和第三图像的分析处理,对目标对象进行进一步的跟踪。事实上,根据具体情况和处理需要还可以获取第四图像、第五图像等,进而可以按照上述同样实施方式通过确定相邻两图像中的目标模型之间的均值漂移向量,达到对目标对象位移向量的确定,实现对目标对象的跟踪。对此,本说明书不在赘述。需要强调的是,不管后续的要分析处理的图像数据的数据量有多庞大,基于上述方法只需要对第一图像进行一次人脸识别,而不需要对除第一图像以外的其他图像再进行人脸识别,从而可以有效地减少工作量,提高处理效率。
在本申请实施例中,相较于现有技术,由于先通过针对第一图像的人脸识别来锁定目对象,再通过计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而确定出目标对象的实际位移向量,从而解决了现有方法中存在的跟踪过程计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果。
在一个实施方式中,为了进一步提高跟踪的准确度,考虑到第一图像和第二图像间隔的时间较短,所表征的动作过程几乎是连续的,因此可以增加区域约束条件,即要求第二图像中的第二目标模型的所在区域的中心点要位于第一图像中的第一目标模型所在的区域内。这样可以降低错误率,提高准确度。
在一个实施方式中,在根据所述第一目标模型和所述第二图像,确定第二目标模型后,所述方法具体实施时,还可以包括以下内容:
S1:检测第二图像中所述第二目标模型所在的区域的中心点是否位于第一图像中所述第一目标模型所在的区域中;
S2:在确定第二图像中所述第二目标模型所在的区域的中心点位于第一图像中所述第一目标模型所在的区域以外的情况下,重新确定第二目标模型。
在本实施方式中,具体实施时,当确定第二图像中所述第二目标模型所在的区域的中心点位于第一图像中所述第一目标模型所在的区域以外时,可以判断所确定的第二目标模型可能具有较大误差,这时可以重新确定第二目标模型,避免误差的传递,提高跟踪的准确度。
在一个实施方式中,进一步考虑到所选定的目标区域(即图像中目标对象的所在区域,例如第一目标区域)中较外层的数据点的像素值相对较容易受到影响,可靠度相对较低;而目标区域中靠近中心点位置附近的数据点的像素值通常受影响较小,可靠度相对更高。
基于上述考虑,为了提高所确定的均值漂移向量的准确度,在本实施方式中可以通过提高目标区域中靠近中心点位置附近的数据点的像素值的权重,和/或,降低中较外层的数据点的像素值的权重对计算均值漂移向量的公式进行改进,得到改进后的公式;再根据改进后的公式计算均值漂移向量。
在一个实施方式中,具体实施时,可以在计算均值漂移向量的公式中引入核函数得到改进后的公式,使得目标区域中的数据点随着与中心点距离的逐渐增加,像素值的偏移量对均值漂移量的贡献逐渐减小,即使得距离中心点越远的数据点的像素值的权重越小,距离中心点越近的数据点的像素值的权重越大,从而可以提高计算的鲁棒性,使得所确定的均值漂移向量更加的准确,进而提高跟踪的精确度。
在本实施方式中,具体实施时,可以按照以下改进后的公式计算第一均值漂移向量:
其中,Mh1具体可以表示为第一均值漂移向量,Xi具体可以表示为第二目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk具体可以表示为第二目标模型所在的区域中数据点的集合,k具体可以表示为第二目标模型所在的区域中数据点的总数,X具体可以表示为第一目标模型所在的区域的中心点的像素点直方图的数据值;g具体可以表示为Epannechnikov核函数,h具体可以表示为带宽。
其中,上述带宽具体可以按照以下公式确定:
其中,h具体可以表示为带宽,W具体可以表示为第一目标区域的宽,H具体也可以表示为第一目标区域的高。
在本实施方式中,需要说明的是,本实施方式仅以计算第一均值漂移向量为例,说明如何利用改进后的公式计算得到更加准确的第一均值漂移向量。在计算第二均值漂移向量或者其他均值漂移向量时,也可以参照上述实施方式,利用改进后的公式进行计算。对此,本说明书不再赘述。
从以上的描述中,可以看出,本申请实施方式提供的目标对象的跟踪方法由于先通过针对第一图像的人脸识别来锁定目对象,再通过计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而确定出目标对象的实际位移向量,从而解决了现有方法中存在的跟踪过程计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果;还通过对计算均值漂移向量改进,引入核函数来增加区域中相对更加可靠的中心点位置附近的权重,使得计算得到的均值漂移向量更加准确,提高了跟踪精度。
基于同一发明构思,本发明实施方式中还提供了一种目标对象的跟踪装置,如下面的实施方式所述。由于该装置解决问题的原理与目标对象的跟踪方法相似,因此目标对象的跟踪装置的实施可以参见目标对象的跟踪方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。请参阅图2所示,是本申请实施方式提供的目标对象的跟踪装置的一种组成结构示意图,该装置具体可以包括:获取模块21、第一确定模块22、第二确定模块23、计算模块24和第三确定模块25,下面对该结构进行具体说明。
获取模块21,具体可以用于获取第一图像和第二图像;
第一确定模块22,具体可以用于通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;
第二确定模块23,具体可以用于根据所述第一目标模型和所述第二图像,确定第二目标模型;
计算模块24,具体可以用于根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;
第三确定模块25,具体可以用于根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
在一个实施方式中,为了能够根据所述目标对象得到第一目标模型,所述第一确定模块22具体可以包括以下结构单元:
第一确定单元,具体可以用于将第一图像中目标对象所在的区域确定为第一目标区域;
第一提取单元,具体可以用于对所述第一目标区域进行像素特征提取,得到所述第一目标模型。
在一个实施方式中,为了能够根据所述第一目标模型和所述第二图像,确定第二目标模型,所述第二确定模块23具体可以包括以下结构单元:
搜索单元,具体可以用于搜索所述第二图像,得到多个候选区域;
第二提取单元,具体可以用于对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型;
第二确定单元,具体可以用于根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型。
在一个实施方式中,为了能够根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型,所述第二确定单元具体实施时,可以按照以下程序执行:分别计算所述多个候选目标模型中的各个候选目标模型与所述第一目标模型的相似函数;将相似函数的数值最大的候选目标模型确定为第二目标模型。
在一个实施方式中,上述计算模块24具体实施时,可以按照以下公式,计算所述第一均值漂移向量:
其中,Mh1具体可以表示为第一均值漂移向量,Xi具体可以表示为第二目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk具体可以表示为第二目标模型所在的区域中数据点的集合,k具体可以表示为第二目标模型所在的区域中数据点的总数,X具体可以表示为第一目标模型所在的区域的中心点的像素点直方图的数据值。
其中,上述计算模块24具体实施时,可以按照以下公式计算各个数据点的像素点直方图的数据值:
Xr=R*256+G*16+B
其中,Xr具体可以表示为任意一个数据点的像素点直方图的数据值,R、G、B具体可以分别表示该数据点在RGB颜色空间各个对应通道的通道值。
在一个实施方式中,为了能够根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量,上述第三确定模块25具体可以包括以下结构单元:
第三确定单元,具体可以用于将第一图像中所述第一目标模型所在的区域的中心点确定为目标对象的起点;
计算单元,具体可以用于根据所述目标对象的起点和所述第一均值漂移向量,计算目标对象的第一位移向量。
在一个实施方式中,所述装置具体还可以包括检测模块,具体可以用于检测第二图像中所述第二目标模型所在的区域的中心点是否位于第一图像中所述第一目标模型所在的区域中;并在确定第二图像中所述第二目标模型所在的区域的中心点位于第一图像中所述第一目标模型所在的区域以外的情况下,重新确定第二目标模型。
在一个实施方式中,为了能够对目标对象进行进一步跟踪,具体实施时,所述获取模块21具体还可以用于获取第三图像;所述第二确定模块23具体还可以用于根据所述第二目标模型和所述第三图像,确定第三目标模型;所述计算模块24具体还可以用于根据所述第二目标模型和所述第三目标模型,计算所述第三目标模型相对于第二目标模型的第二均值漂移向量;所述第三确定模块25具体还可以用于根据所述第二目标模型和所述第二均值漂移向量,确定目标对象的第二位移向量。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,上述实施方式阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,在本说明书中,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
此外,在本说明书中,诸如第一和第二这样的形容词仅可以用于将一个元素或动作与另一元素或动作进行区分,而不必要求或暗示任何实际的这种关系或顺序。在环境允许的情况下,参照元素或部件或步骤(等)不应解释为局限于仅元素、部件、或步骤中的一个,而可以是元素、部件、或步骤中的一个或多个等。
从以上的描述中,可以看出,本申请实施方式提供的目标对象的跟踪装置,由于先通过第一确定模块针对第一图像的人脸识别来锁定目对象,再通过计算模块计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而通过第三确定模块确定出目标对象的实际位移向量,从而解决了现有装置中存在的计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果。
本申请实施方式还提供了一种电子设备,参阅图3所示的基于本申请实施例提供的目标对象的跟踪方法的电子设备的组成结构示意图。其中,该设备包括摄像头31、处理器32和存储器33。具体的,上述摄像头31具体可以用于获取第一图像和第二图像。
上述处理器32具体可以用于通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;根据所述第一目标模型和所述第二图像,确定第二目标模型;根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
所述存储器33具体可以用于存储第一图像和第二图像,以及处理器所使用的程序指令。
在本实施方式中,所述摄像头具体可以是单目摄像头,例如USB单目摄像头,也可以是双目摄像头,还可以是其他类型的图片采集设备或者视频采集设备。具体实施时,上述摄像头可以实时采集图像数据,并将图像数据通过有线或无线的方式发送至处理器,供处理器分析处理。所述处理器可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。所述存储器具体可以是现代信息技术中用于保存信息的记忆设备。所述存储器可以包括多个层次,在数字系统中,只要能保存二进制数据的都可以是存储器;在集成电路中,一个没有实物形式的具有存储功能的电路也叫存储器,如RAM、FIFO等;在系统中,具有实物形式的存储设备也叫存储器,如内存条、TF卡等。
在本实施方式中,该电子设备具体实现的功能和效果,可以与其它实施方式对照解释,在此不再赘述。
本申请实施方式中还提供了一种计算机存储介质,所述计算机存储介质存储有计算机程序指令,在所述计算机程序指令被执行时实现:获取第一图像和第二图像;通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;根据所述第一目标模型和所述第二图像,确定第二目标模型;根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
在本实施方式中,上述存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(Hard DiskDrive,HDD)或者存储卡(Memory Card)。所述存储器可以用于存储计算机程序指令。
在本实施方式中,该计算机存储介质存储的程序指令具体实现的功能和效果,可以与其它实施方式对照解释,在此不再赘述。
在一个具体实施场景示例中,应用本申请提供的目标对象的跟踪方法和装置对摄像头实时采集的图像数据中的目标对象进行锁定跟踪。具体实施过程可以参阅图4所示的在一个场景示例中应用本申请实施方式提供的目标对象的跟踪方法和装置的流程示意图,按照以下内容执行。
具体实施时,可以通过人脸检测是完成初始化跟踪目标工作。具体的,只需跟踪或跟新跟踪目标时执行一次即可(即只要对第一图像进行人脸识别确定目标对象即可,而不需要再对其他帧图像进行人脸识别),所以该过程不影响跟踪性能。
具体实施时,可以自由选择人脸检测的算法,例如卷积神经网络(CNN)或者VJ人脸检测器(Viola&Jones Face Detector)等都(对第一图像进行人脸识别,确定目标对象)。
再可以基于均值漂移算法进行目标跟踪。具体的,可以通过分别计算目标区域(即第一图像中的第一目标区域)和候选区域(例如第二图像中的候选区域)内像素的特征值概率,得到关于目标模型(即第一目标模型)和候选模型(例如第二图像中的候选目标模型)的描述。
然后利用相似函数度量初始帧目标模型(即第一目标模型)和当前帧的候选模型(例如第二图像中的候选模块)的相似性。再选择使相似函数最大的候选模型(例如第二图像中的第二目标模型),并得到关于目标模型的均值漂移向量(例如第一均值漂移向量)。其中,这个向量正是目标对象由(第一图像中的)初始位置向(例如第二图像中的)正确位置移动的位移向量。
由于均值漂移算法具有快速收敛的特点,因此可以通过不断迭代计算均值漂移向量,最终将收敛到目标对象的真实位置(例如第一位移向量),达到跟踪的目的。
其中,上述均值漂移向量的具体计算公式可以表示为以下形式:
其中,Mh具体可以表示为当前帧图像相对上一帧图像的均值漂移向量,Xi具体可以表示为当前帧图像中的目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk具体可以表示为当前帧图像中的目标模型所在的区域中数据点的集合,k具体可以表示为当前帧图像中的目标模型所在的区域中数据点的总数,X具体可以表示为上一当前帧图像中的目标模型所在的区域的中心点的像素点直方图的数据值。
在本场景示例中,跟踪的过程主要就是计算当前帧图像相对上一帧图像的均值漂移相量Mh,进而可以根据均值漂移向量计算当前帧图像中目标对象的位移向量,具体的可以表示为:
x″=x′+Mh
其中,上述x″具体可以表示为当前帧图像中的目标对象的位移向量,x′具体可以表示为上一帧图像中的目标对象的位移向量,Mh具体可以表示为当前帧图像相对上一帧图像的均值漂移向量。
在本场景示例中,为了提高所确定的均值漂移向量的准确度,还可以加入核函数来提高效果,即在计算漂移相量时加入权重,加入核函数后均值漂移的改进后的公式可表示为:
其中,g为Epannechnikov核函数,h具体可以表示为带宽。
其中,上述带宽具体可以按照以下公式确定:
其中,h具体可以表示为带宽,W具体可以表示为区域的宽,H具体也可以表示为区域的高。
进一步,为了减少误差,提高准确度,还可以在上述方案的基础上增加区域约束。具体的考虑到视频中的图像帧在跟踪过程是连续性的,根据这一特点,可以通过限定当前帧目标中心点在上一帧的目标矩形区域内,来降低错误率。
通过上述场景示例,验证了本申请实施方式提供的目标对象的跟踪方法和装置,由于先通过针对第一图像的人脸识别来锁定目对象,再通过计算第一目标模型与第二目标模型之间的第一均值漂移向量,作为目标对象的相对位移向量,进而确定出目标对象的实际位移向量,确实解决了现有方法中存在的计算量相对较大、处理效率相对较低的技术问题,达到能够高效地根据摄像头实时采集的图像数据,对目标对象进行精确定位跟踪的技术效果;还通过对计算均值漂移向量改进,引入核函数来增加区域中相对更加可靠的中心点位置附近的权重,使得计算得到的均值漂移向量更加准确,提高了跟踪精度。
尽管本申请内容中提到不同的具体实施方式,但是,本申请并不局限于必须是行业标准或实施例所描述的情况等,某些行业标准或者使用自定义方式或实施例描述的实施基础上略加修改后的实施方案也可以实现上述实施例相同、等同或相近、或变形后可预料的实施效果。应用这些修改或变形后的数据获取、处理、输出、判断方式等的实施例,仍然可以属于本申请的可选实施方案范围之内。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
虽然通过实施例描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的实施方式包括这些变形和变化而不脱离本申请。
Claims (10)
1.一种目标对象的跟踪方法,其特征在于,包括:
获取第一图像和第二图像;
通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;
根据所述第一目标模型和所述第二图像,确定第二目标模型;
根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;
根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
2.根据权利要求1所述的目标对象的跟踪方法,其特征在于,所述根据所述目标对象得到第一目标模型,包括:
将第一图像中目标对象所在的区域确定为第一目标区域;
对所述第一目标区域进行像素特征提取,得到所述第一目标模型。
3.根据权利要求1所述的目标对象的跟踪方法,其特征在于,根据所述第一目标模型和所述第二图像,确定第二目标模型,包括:
搜索所述第二图像,得到多个候选区域;
对所述多个候选区域分别进行像素特征提取,得到多个候选目标模型;
根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型。
4.根据权利要求3所述的目标对象的跟踪方法,其特征在于,根据所述第一目标模型,从所述多个候选目标模型中确定出第二目标模型,包括:
分别计算所述多个候选目标模型中的各个候选目标模型与所述第一目标模型的相似函数;
将相似函数的数值最大的候选目标模型确定为第二目标模型。
5.根据权利要求1所述的目标对象的跟踪方法,其特征在于,根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量,包括:
按照以下公式,计算所述第一均值漂移向量:
其中,Mh1为第一均值漂移向量,Xi为第二目标模型所在的区域中编号为i的数据点的像素点直方图的数据值,Sk为第二目标模型所在的区域中数据点的集合,k为第二目标模型所在的区域中数据点的总数,X为第一目标模型所在的区域的中心点的像素点直方图的数据值。
6.根据权利要求1所述的目标对象的跟踪方法,其特征在于,根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量,包括:
将第一图像中所述第一目标模型所在的区域的中心点确定为目标对象的起点;
根据所述目标对象的起点和所述第一均值漂移向量,计算目标对象的第一位移向量。
7.根据权利要求1所述的目标对象的跟踪方法,其特征在于,在根据所述第一目标模型和所述第二图像,确定第二目标模型后,所述方法还包括:
检测第二图像中所述第二目标模型所在的区域的中心点是否位于第一图像中所述第一目标模型所在的区域中;
在确定第二图像中所述第二目标模型所在的区域的中心点位于第一图像中所述第一目标模型所在的区域以外的情况下,重新确定第二目标模型。
8.根据权利要求1所述的目标对象的跟踪方法,其特征在于,在根据所述第一目标对象和所述第一均值漂移向量,确定目标对象的第一位移向量后,所述方法还包括:
获取第三图像;
根据所述第二目标模型和所述第三图像,确定第三目标模型;
根据所述第二目标模型和所述第三目标模型,计算所述第三目标模型相对于第二目标模型的第二均值漂移向量;
根据所述第二目标模型和所述第二均值漂移向量,确定目标对象的第二位移向量。
9.一种目标对象的跟踪装置,其特征在于,包括:
获取模块,用于获取第一图像和第二图像;
第一确定模块,用于通过人脸识别,从所述第一图像中确定出目标对象,并根据所述目标对象得到第一目标模型;
第二确定模块,用于根据所述第一目标模型和所述第二图像,确定第二目标模型;
计算模块,用于根据所述第一目标模型和所述第二目标模型,计算所述第二目标模型相对于所述第一目标模型的第一均值漂移向量;
第三确定模块,用于根据所述第一目标模型和所述第一均值漂移向量,确定目标对象的第一位移向量。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机指令,所述指令被执行时实现权利要求1至8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811423422.4A CN109523573A (zh) | 2018-11-23 | 2018-11-23 | 目标对象的跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811423422.4A CN109523573A (zh) | 2018-11-23 | 2018-11-23 | 目标对象的跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109523573A true CN109523573A (zh) | 2019-03-26 |
Family
ID=65794624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811423422.4A Pending CN109523573A (zh) | 2018-11-23 | 2018-11-23 | 目标对象的跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523573A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN111709391A (zh) * | 2020-06-28 | 2020-09-25 | 重庆紫光华山智安科技有限公司 | 一种人脸人体匹配方法、装置及设备 |
WO2021051654A1 (zh) * | 2019-09-19 | 2021-03-25 | 深圳云天励飞技术有限公司 | 快速光流跟踪方法及相关设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1130846A (zh) * | 1994-12-29 | 1996-09-11 | 大宇电子株式会社 | 用于对视频信号特征点估算运动矢量的装置 |
US20040017930A1 (en) * | 2002-07-19 | 2004-01-29 | Samsung Electronics Co., Ltd. | System and method for detecting and tracking a plurality of faces in real time by integrating visual ques |
CN101477690A (zh) * | 2008-12-30 | 2009-07-08 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN103116756A (zh) * | 2013-01-23 | 2013-05-22 | 北京工商大学 | 一种人脸检测与跟踪方法及装置 |
CN104866805A (zh) * | 2014-02-20 | 2015-08-26 | 腾讯科技(深圳)有限公司 | 人脸实时跟踪的方法和装置 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
CN105760826A (zh) * | 2016-02-03 | 2016-07-13 | 歌尔声学股份有限公司 | 一种人脸跟踪方法、装置和智能终端 |
CN106127811A (zh) * | 2016-06-30 | 2016-11-16 | 西北工业大学 | 基于上下文的目标尺度自适应跟踪方法 |
CN106683118A (zh) * | 2016-12-30 | 2017-05-17 | 北京航空航天大学 | 一种基于分层模型的无人机目标跟踪方法 |
CN107563323A (zh) * | 2017-08-30 | 2018-01-09 | 华中科技大学 | 一种视频人脸特征点定位方法 |
CN108090428A (zh) * | 2017-12-08 | 2018-05-29 | 广西师范大学 | 一种人脸识别方法及其系统 |
CN108416800A (zh) * | 2018-03-13 | 2018-08-17 | 青岛海信医疗设备股份有限公司 | 目标跟踪方法及装置、终端、计算机可读存储介质 |
-
2018
- 2018-11-23 CN CN201811423422.4A patent/CN109523573A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1130846A (zh) * | 1994-12-29 | 1996-09-11 | 大宇电子株式会社 | 用于对视频信号特征点估算运动矢量的装置 |
US20040017930A1 (en) * | 2002-07-19 | 2004-01-29 | Samsung Electronics Co., Ltd. | System and method for detecting and tracking a plurality of faces in real time by integrating visual ques |
CN101477690A (zh) * | 2008-12-30 | 2009-07-08 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN103116756A (zh) * | 2013-01-23 | 2013-05-22 | 北京工商大学 | 一种人脸检测与跟踪方法及装置 |
CN104866805A (zh) * | 2014-02-20 | 2015-08-26 | 腾讯科技(深圳)有限公司 | 人脸实时跟踪的方法和装置 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
CN105760826A (zh) * | 2016-02-03 | 2016-07-13 | 歌尔声学股份有限公司 | 一种人脸跟踪方法、装置和智能终端 |
CN106127811A (zh) * | 2016-06-30 | 2016-11-16 | 西北工业大学 | 基于上下文的目标尺度自适应跟踪方法 |
CN106683118A (zh) * | 2016-12-30 | 2017-05-17 | 北京航空航天大学 | 一种基于分层模型的无人机目标跟踪方法 |
CN107563323A (zh) * | 2017-08-30 | 2018-01-09 | 华中科技大学 | 一种视频人脸特征点定位方法 |
CN108090428A (zh) * | 2017-12-08 | 2018-05-29 | 广西师范大学 | 一种人脸识别方法及其系统 |
CN108416800A (zh) * | 2018-03-13 | 2018-08-17 | 青岛海信医疗设备股份有限公司 | 目标跟踪方法及装置、终端、计算机可读存储介质 |
Non-Patent Citations (3)
Title |
---|
张春林: "《基于多传感器信息融合的移动机器人定位与跟踪》", 《中国优秀硕士学位论文全文数据库》 * |
徐骁翔: "《基于MeanShift的运动目标检测与跟踪研究》", 《中国优秀硕士学位论文全文数据库》 * |
王娟等: "《改进的均值漂移算法在运动目标跟踪中的研究》", 《系统仿真学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110287817B (zh) * | 2019-06-05 | 2021-09-21 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
WO2021051654A1 (zh) * | 2019-09-19 | 2021-03-25 | 深圳云天励飞技术有限公司 | 快速光流跟踪方法及相关设备 |
CN111709391A (zh) * | 2020-06-28 | 2020-09-25 | 重庆紫光华山智安科技有限公司 | 一种人脸人体匹配方法、装置及设备 |
CN111709391B (zh) * | 2020-06-28 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 一种人脸人体匹配方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423695B2 (en) | Face location tracking method, apparatus, and electronic device | |
US11062123B2 (en) | Method, terminal, and storage medium for tracking facial critical area | |
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
US11023730B1 (en) | Fine-grained visual recognition in mobile augmented reality | |
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
Guo et al. | Action recognition using sparse representation on covariance manifolds of optical flow | |
US11093737B2 (en) | Gesture recognition method and apparatus, electronic device, and computer-readable storage medium | |
US11967089B2 (en) | Object tracking method, tracking processing method, corresponding apparatus, and electronic device | |
CN108171207A (zh) | 基于视频序列的人脸识别方法和装置 | |
CN104517104A (zh) | 一种基于监控场景下的人脸识别方法及系统 | |
CN110598558A (zh) | 人群密度估计方法、装置、电子设备及介质 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN103208008A (zh) | 基于机器视觉的交通视频监控目标检测快速适应方法 | |
EP2704056A2 (en) | Image processing apparatus, image processing method | |
WO2015195301A1 (en) | Obtaining structural information from images | |
CN104866805A (zh) | 人脸实时跟踪的方法和装置 | |
CN104036287A (zh) | 一种基于人类运动显著轨迹的视频分类方法 | |
CN109523573A (zh) | 目标对象的跟踪方法和装置 | |
CN101324958A (zh) | 一种目标跟踪方法及装置 | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
Srilekha et al. | A novel approach for detection and tracking of vehicles using Kalman filter | |
Duncan et al. | Relational entropy-based saliency detection in images and videos | |
Peng et al. | Deep learning-based autonomous real-time digital meter reading recognition method for natural scenes | |
Hannuksela et al. | Face tracking for spatially aware mobile user interfaces | |
Zhong et al. | Multl-resolution background subtraction for dynamic scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190326 |
|
RJ01 | Rejection of invention patent application after publication |