CN104392437A - 基于多细胞块状态融合的对象跟踪方法 - Google Patents
基于多细胞块状态融合的对象跟踪方法 Download PDFInfo
- Publication number
- CN104392437A CN104392437A CN201410633195.3A CN201410633195A CN104392437A CN 104392437 A CN104392437 A CN 104392437A CN 201410633195 A CN201410633195 A CN 201410633195A CN 104392437 A CN104392437 A CN 104392437A
- Authority
- CN
- China
- Prior art keywords
- target
- configuration
- image
- block
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于多细胞块状态融合的对象跟踪方法,属于视觉对象跟踪技术领域。它能有效地解决对象旋转、扭曲、缩放等非刚性运动变化以及遮挡下的跟踪问题。包括以下步骤:从初始图像中选择并确定要跟踪的目标对象。可以通过运动目标检测方法自动提取或人机交互方法手动指定。在目标对象区域内按照随机生成的中心点位置、设置目标细胞块。在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的视频文件分解为多个帧组成的图像序列,逐个提取帧图像作为输入图像。如果输入图像为空,则整个流程中止。配置中各个细胞块的状态,根据其对应的目标细胞块确定最佳配置。目标定位用于估计当前目标的状态。
Description
技术领域
本发明属于计算机视觉对象跟踪技术领域,特别涉及计算机图形图像处理技术领域。
背景技术
视觉对象跟踪是许多计算机视觉应用的基本和关键问题,如视频分析,智能监控,人机交互,行为识别等,尽管研究人员对此做出了大量的工作,但要在复杂的环境中实现实时稳定的对象跟踪仍然是极具挑战性的任务。
目前依赖检测或者学习的对象跟踪方法(如TLD,Tracking-Learning-Detection)受到越来越广泛的关注。这些方法通过学习某种分类器,如支持向量机、自举、随机森林,或者随机蕨等来发掘未知的数据和信息,进而增强其对目标及其场景变化的适应能力。在基础(短时)跟踪(如KLT、均值漂移、粒子滤波等)失败时,这些分类器则被用作检测器进行目标检测,以达到恢复跟踪的目的。为了保证分类器学习的准确性,同时又能尽可能的适应目标的变化,Babenko等提出了袋学习的思想和OMB方法(Online-MILBoost),Kalal等提出了P-N(Positive-Negative)正负样例学习的方法。然而,这些方法仍然难以处理非刚性运动变化以及遮挡等问题。对此,霍夫森林提供了一种可能的解决方法。霍夫森林是一种融合霍夫变换的随机森林,它由多个决策树组成,每棵树将图像或者视频中的局部表观映射到它的叶节点中,而每个叶节点则包含在霍夫空间中的概率投票。由此,对象的定位或者检测被看作是寻求在霍夫图像中的概率极大值点。然而这样的检测过程十分耗时,因此基于霍夫森林的对象跟踪方法在实时性上远不及基于随机蕨的方法。此外,基于稀疏表示和学习的对象跟踪方法,由于其较稳定的跟踪性能受到越来越多的关注和研究,然而这些方法十分依赖样例模板,同样存在不小的失败风险,且计算结构复杂而难以满足实际实时性的要求。
一般情况下,场景越复杂,跟踪或者检测就变得越困难,由于计算资源的局限和效率的要求,对象表观模型不能过于复杂。实际上,除了目标本身以外,背景信息也是十分有用且重要的信息。Yang等采用图像分割融合方法,通过时空分析发掘辅助对象作为跟踪协助,其对应实现的CAT跟踪系统表现出较稳定的跟踪结果。然而该辅助对象的获取基于一定的运动假设,因而难以适应更复杂的跟踪环境,且计算效率有待进一步的提高。Grabner等提出通过获取目标周围有价值的特征点,借此预测目标的位置,增强了跟踪的稳定性,然而检测和匹配所有这些局部特征点的方法在计算上十分耗时。Thang等通过将PNT作为基础跟踪和同时增加对误匹配项的跟踪来改进Grabner等的算法,能够在一定程度上区分与目标相似的对象,从而表现出更好的跟踪性能。Fan等提出学习具有较强区别性的关注区域用以辅助跟踪,然而在场景出现剧烈运动时,受这些局部区域的限制,其计算效率依然不高。Godec等通过对场景进行聚类学习,将背景分类为多个虚拟的类型,取得了较为满意的跟踪效果,但是该方法假设背景只是逐步而细微的改变,这在很多跟踪场合并不成立,因此其应用有限。
因此,本发明提出一种基于多细胞块状态融合的对象跟踪方法。该方法根据目标对象设置多个细胞块,每个细胞块具有其独立的运动状态,所有细胞块的一种状态构成一个配置,即通过配置将这些细胞块的状态信息进行融合,而一个配置对应了一种可能的目标状态。该方法通过产生多个配置,并计算其中最优的配置(置信度最高)进而估计得到目标状态,从而实现目标定位。由于目标状态估计不依赖其整体表观,构成目标的各个细胞块独立运动,且配置的置信度计算简单、快速,因此本发明方法可实现实时稳定的对象跟踪,能够处理目标旋转、扭曲、缩放等非刚性运动变化以及遮挡等问题。此外,本发明方法不仅可以用于单目标跟踪,通过在配置中包含多个目标的细胞块,还可以扩展用于多目标的跟踪。
发明内容
本发明的目的是提供一种基于多细胞块状态融合的对象跟踪方法,它能有效地实现实时稳定的对象跟踪,解决对象旋转、扭曲、缩放等非刚性运动变化以及遮挡下的跟踪问题。
本发明的目的通过以下技术方案来实现:该技术方案包括如下步骤:
(1)目标选取
从初始图像中选择并确定要跟踪的目标对象。目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定。
(2)设置目标细胞块
在目标对象区域内按照随机生成的中心点位置、宽和高提取图像块作为目标细胞块,用I表示图像,T表示目标,C1,C2,C3表示细胞块。设xT,yT,wT,hT分别表示目标的中心点横坐标,中心点纵坐标,以及宽和高,而目标细胞块的数目N=(wT×hT)/10;设Ci=(xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai)为第i个目标细胞块,i<N,其中xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai分别表示第i个目标细胞块的中心点横坐标,中心点纵坐标,横轴方向的速度,纵轴方向的速度,宽,高,宽变化值,高变化值,以及对应的图像块。每个目标细胞块的中心点横坐标,中心点纵坐标,以及宽和高的值均随机产生,只要满足该细胞块包含在目标区域内即可,而其横轴方向的速度,纵轴方向的速度,以及宽变化值和高变化值此时均等于0。
(3)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像。如果输入图像为空,则整个流程中止。
(4)产生配置
配置由细胞块构成,配置中各个细胞块的状态根据其对应的目标细胞块随机生成确定,不同的配置其细胞块的状态不同,一个配置对应了一种可能的目标状态。设为第k个配置,k<M,其中M为配置的总数,这里M=500, 为第k个配置中的第i个细胞块。的计算方法为:首先初始化即使得 然后随机生成中的以及接着更新即使得 以及 最后根据在当前的图像中提取对应的图像块更新对每个配置及其包含的所有细胞块进行上述的计算,即可生成所需的所有配置。
(5)确定最佳配置
最佳配置即所有配置中置信度值最高的那个配置。设为第k个配置的置信度,其中为第k个配置中的第i个细胞块所对应的图像块与第i个目标细胞块所对应的图像块之间的规则化交叉互相关值(NCC,Normalized Cross-Correlation)。设 表示最佳配置,则
(6)目标定位
最佳配置用于估计当前目标的状态。目标的中心点横坐标和纵坐标分别计算为: 而目标的宽wT为前一时刻目标的宽加上目标的高hT为前一时刻目标的高加上其中由此计算得到目标的位置和大小,完成对目标的定位。跟踪完成,跳转到(2)。
本发明与现有技术相比的优点和效果:该方法根据目标对象设置多个细胞块,每个细胞块具有其独立的运动状态,所有细胞块的一种状态构成一个配置,即通过这种配置将这些细胞块的状态信息进行融合,而一个配置对应了一种可能的目标状态。该方法通过产生多个配置,并计算其中最优的配置(置信度最高)进而估计得到目标状态,从而实现目标定位。由于目标状态估计不依赖其整体表观,构成目标的各个细胞块独立运动,且配置的置信度计算简单、快速,因此本发明方法可实现实时稳定的对象跟踪,能够处理目标旋转、扭曲、缩放等非刚性运动变化以及遮挡等问题。此外,本发明方法不仅可以用于单目标跟踪,通过在配置中包含多个目标的细胞块,还可以扩展用于多目标的跟踪。
附图说明
图1为本发明目标细胞块示意图
图2为本发明的技术流程图
具体实施方式
下面根据附图对本发明做进一步描述:本发明的方法可用于对象跟踪的各种场合,如智能视频分析,自动人机交互,交通视频监控,无人车辆驾驶,生物群体分析,以及流体表面测速等。
本发明技术方案包括如下步骤:
(1)目标选取
从初始图像中选择并确定要跟踪的目标对象。目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定。
(2)设置目标细胞块
在目标对象区域内按照随机生成的中心点位置、宽和高提取图像块作为目标细胞块,图1中,用I表示图像,T表示目标,C1,C2,C3表示细胞块。设xT,yT,wT,hT分别表示目标的中心点横坐标,中心点纵坐标,以及宽和高,而目标细胞块的数目N=(wT×hT)/10;设Ci=(xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai)为第i个目标细胞块,i<N,其中xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai分别表示第i个目标细胞块的中心点横坐标,中心点纵坐标,横轴方向的速度,纵轴方向的速度,宽,高,宽变化值,高变化值,以及对应的图像块。每个目标细胞块的中心点横坐标,中心点纵坐标,以及宽和高的值均随机产生,只要满足该细胞块包含在目标区域内即可,而其横轴方向的速度,纵轴方向的速度,以及宽变化值和高变化值此时均等于0。
(3)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像。如果输入图像为空,则整个流程中止。
(4)产生配置
配置由细胞块构成,配置中各个细胞块的状态根据其对应的目标细胞块随机生成确定,不同的配置其细胞块的状态不同,一个配置对应了一种可能的目标状态。设为第k个配置,k<M,其中M为配置的总数,这里M=500, 为第k个配置中的第i个细胞块。的计算方法为:首先初始化即使得 然后随机生成中的以及接着更新即使得 以及 最后根据在当前的图像中提取对应的图像块更新对每个配置及其包含的所有细胞块进行上述的计算,即可生成所需的所有配置。
(5)确定最佳配置
最佳配置即所有配置中置信度值最高的那个配置。设为第k个配置的置信度,其中为第k个配置中的第i个细胞块所对应的图像块与第i个目标细胞块所对应的图像块之间的规则化交叉互相关值(NCC,Normalized Cross-Correlation)。设 表示最佳配置,则
(6)目标定位
最佳配置用于估计当前目标的状态。目标的中心点横坐标和纵坐标分别计算为: 而目标的宽wT为前一时刻目标的宽加上目标的高hT为前一时刻目标的高加上其中由此计算得到目标的位置和大小,完成对目标的定位。跟踪完成,跳转到(2)。
在跟踪过程中,细胞块根据目标对象设置,每个细胞块具有其独立的运动状态,所有细胞块的一种状态构成一个配置,即通过配置将这些细胞块的状态信息进行融合,而一个配置对应了一种可能的目标状态。通过产生多个配置,并计算其中最优的配置(置信度最高)进而估计得到目标的状态(位置和大小),完成目标定位,从而实现对目标对象的跟踪。
以智能视频分析为例:智能视频分析包含许多重要的自动分析任务,如对象行为分析,视频压缩等,而这些工作的基础则是能够进行稳定的对象跟踪。可以采用本发明提出的跟踪方法实现,具体来说,首先根据目标的选取结果设置目标细胞块,如图1所示;然后在跟踪过程中生成多个配置,每个配置的细胞块状态根据目标细胞块随机生成确定;接着计算所有配置中的最佳配置,即具有最高置信度的那个配置;最后根据最佳配置及其细胞块估计当前目标的状态,完成目标定位,实现对目标对象的跟踪。由于目标状态估计不依赖其整体表观,构成目标的各个细胞块独立运动,且配置的置信度计算简单、快速,因此本发明方法可实现实时稳定的对象跟踪,能够处理目标旋转、扭曲、缩放等非刚性运动变化以及遮挡等问题。
本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪系统软件可在任何PC或者嵌入式系统中实现实时对象跟踪应用。
Claims (1)
1.基于多细胞块状态融合的对象跟踪方法,所述方法包括如下步骤:
(1)目标选取
从初始图像中选择并确定要跟踪的目标对象,目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定;
(2)设置目标细胞块
在目标对象区域内按照随机生成的中心点位置、宽和高提取图像块作为目标细胞块,用I表示图像,T表示目标,C1,C2,C3表示细胞块,设xT,yT,wT,hT分别表示目标的中心点横坐标,中心点纵坐标,以及宽和高,而目标细胞块的数目N=(wT×hT)/10,设Ci=(xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai)为第i个目标细胞块,i<N,其中xi,yi,vi,x,vi,y,wi,hi,Δwi,Δhi,Ai分别表示第i个目标细胞块的中心点横坐标,中心点纵坐标,横轴方向的速度,纵轴方向的速度,宽,高,宽变化值,高变化值,以及对应的图像块;每个目标细胞块的中心点横坐标,中心点纵坐标,以及宽和高的值均随机产生,只要满足该细胞块包含在目标区域内即可,而其横轴方向的速度,纵轴方向的速度,以及宽变化值和高变化值此时均等于0;
(3)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像;如果输入图像为空,则整个流程中止;
(4)产生配置
配置由细胞块构成,配置中各个细胞块的状态根据其对应的目标细胞块随机生成确定,不同的配置其细胞块的状态不同,一个配置对应了一种可能的目标状态;设为第k个配置,k<M,其中M为配置的总数,这里M=500, 为第k个配置中的第i个细胞块;的计算方法为:首先初始化即使得 然后随机生成中的以及接着更新即使得 以及 最后根据在当前的图像中提取对应的图像块更新对每个配置及其包含的所有细胞块进行上述的计算,即可生成所需的所有配置;
(5)确定最佳配置
最佳配置即所有配置中置信度值最高的那个配置;设为第k个配置的置信度,其中为第k个配置中的第i个细胞块所对应的图像块与第i个目标细胞块所对应的图像块之间的规则化交叉互相关值;设 表示最佳配置,则
(6)目标定位
最佳配置用于估计当前目标的状态;目标的中心点横坐标和纵坐标分别计算为: 而目标的宽wT为前一时刻目标的宽加上 目标的高hT为前一时刻目标的高加上 其中由此计算得到目标的位置和大小,完成对目标的定位;跟踪完成,跳转到(2)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410633195.3A CN104392437B (zh) | 2014-11-11 | 2014-11-11 | 基于多细胞块状态融合的对象跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410633195.3A CN104392437B (zh) | 2014-11-11 | 2014-11-11 | 基于多细胞块状态融合的对象跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104392437A true CN104392437A (zh) | 2015-03-04 |
CN104392437B CN104392437B (zh) | 2017-04-12 |
Family
ID=52610335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410633195.3A Expired - Fee Related CN104392437B (zh) | 2014-11-11 | 2014-11-11 | 基于多细胞块状态融合的对象跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104392437B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107636726A (zh) * | 2015-04-30 | 2018-01-26 | 相位聚焦有限公司 | 用于确定对象的时间行为的方法和设备 |
CN109032070A (zh) * | 2018-07-19 | 2018-12-18 | 西南交通大学 | 一种采用电涡流位移传感器的非接触式R-test测量仪标定方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617634A (zh) * | 2013-11-26 | 2014-03-05 | 浙江工业大学 | 基于细胞区域特征和局部图特征的细胞跟踪方法及装置 |
-
2014
- 2014-11-11 CN CN201410633195.3A patent/CN104392437B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617634A (zh) * | 2013-11-26 | 2014-03-05 | 浙江工业大学 | 基于细胞区域特征和局部图特征的细胞跟踪方法及装置 |
Non-Patent Citations (2)
Title |
---|
WEI QUAN: "Adaptive collaborative tracking for multiple targets", 《MEASUREMENT SCIENCE AND TECHNOLOGY》 * |
陈莹: "均衡化特征匹配的非刚体细胞形态跟踪", 《中国图象图形学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107636726A (zh) * | 2015-04-30 | 2018-01-26 | 相位聚焦有限公司 | 用于确定对象的时间行为的方法和设备 |
CN109032070A (zh) * | 2018-07-19 | 2018-12-18 | 西南交通大学 | 一种采用电涡流位移传感器的非接触式R-test测量仪标定方法 |
CN109032070B (zh) * | 2018-07-19 | 2020-11-03 | 西南交通大学 | 一种采用电涡流位移传感器的非接触式R-test测量仪标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104392437B (zh) | 2017-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8345984B2 (en) | 3D convolutional neural networks for automatic human action recognition | |
Jiang et al. | Deep neural networks-based vehicle detection in satellite images | |
CN102722725B (zh) | 一种基于主动场景学习的对象跟踪方法 | |
CN102799900A (zh) | 一种基于检测中支持在线聚类学习的对象跟踪方法 | |
CN101976348A (zh) | 图像聚类方法和系统 | |
Xu et al. | Hierarchical activity discovery within spatio-temporal context for video anomaly detection | |
CN104637052A (zh) | 基于目标引导显著性检测的对象跟踪方法 | |
CN103886325A (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN111161315A (zh) | 一种基于图神经网络的多目标跟踪方法和系统 | |
Neiswanger et al. | The dependent Dirichlet process mixture of objects for detection-free tracking and object modeling | |
CN103065158A (zh) | 基于相对梯度的isa模型的行为识别方法 | |
CN104881029A (zh) | 基于一点ransac和fast算法的移动机器人导航方法 | |
Fiaz et al. | Vision based human activity tracking using artificial neural networks | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
You et al. | Learning to detect mobile objects from lidar scans without labels | |
Tapu et al. | Real time static/dynamic obstacle detection for visually impaired persons | |
CN103886585A (zh) | 一种基于排序学习的视频跟踪方法 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
Liu et al. | Human action recognition based on 3D SIFT and LDA model | |
CN104463909A (zh) | 基于信度组合地图模型的视觉目标跟踪方法 | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Jung et al. | V-STRONG: Visual Self-Supervised Traversability Learning for Off-road Navigation | |
CN104392437A (zh) | 基于多细胞块状态融合的对象跟踪方法 | |
杜绪伟 et al. | Real-time hand tracking based on YOLOv4 model and Kalman filter | |
Griffith et al. | Towards autonomous lakeshore monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170412 Termination date: 20191111 |
|
CF01 | Termination of patent right due to non-payment of annual fee |