CN104268902A - 面向工业现场的多目标视频跟踪方法 - Google Patents
面向工业现场的多目标视频跟踪方法 Download PDFInfo
- Publication number
- CN104268902A CN104268902A CN201410523496.0A CN201410523496A CN104268902A CN 104268902 A CN104268902 A CN 104268902A CN 201410523496 A CN201410523496 A CN 201410523496A CN 104268902 A CN104268902 A CN 104268902A
- Authority
- CN
- China
- Prior art keywords
- target
- probability density
- color
- tracking
- enter step
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20108—Interactive selection of 2D slice in a 3D data set
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向工业现场的多目标视频跟踪方法,是一种融合了背景建模和运动信息的Camshift方法,首先根据跟踪目标获得目标颜色概率密度图像;然后根据背景建模获得的运动区域图像对目标颜色概率密度图像进行滤波处理;在Camshift每次迭代过程中,引入运动方向信息,通过加权融合获得最优匹配位置;在多目标跟踪过程中,将当前帧中已完成搜索的跟踪目标在目标颜色概率密度图像中滤除,减少对其它目标的干扰。实验表明,本发明方法对相似背景干扰和多目标的相互干扰,具有很好的处理能力。
Description
技术领域
本发明涉及一种面向工业现场的多目标视频跟踪方法,属于复杂环境的工业现场中的多目标跟踪技术。
背景技术
在工业产业飞速发展的今天,用计算机来代替人力来完成对现场情况的记录与分析已经越来越必要。传统的视频监控系统主要由人工对采集获取图像信息进行分析,工作量非常巨大,并且人的注意力会随着时间推移不能集中,导致出错率的增加。所以,由计算机来代替人对这些信息进行分析和记录是必要且明智的选择。
在工业现场的智能视频监控中,仓库物流管理是一个新兴而复杂的领域。工业现场的物流仓库环境复杂,背景中存在大量相似的物体,运动轨道上的跟踪目标有很大程度上的相似,加上跟踪过程中目标的旋转、大小变化以及相互遮挡等因素,大大增加了工业现场多目标跟踪的难度。
随着三十多年众多学者的不断探索和研究,大量的跟踪算法被提出以解决跟踪过程中遇到的各种问题和挑战,包括目标突然快速运动、外观变化、尺度变化、光照变化、局部遮挡或者短时间全部遮挡、背景复杂的干扰等[1]。目前,视频跟踪的主要方法有基于运动模型、基于光流、基于特征等几类方法。
跟踪问题的首要步骤是外观模型的建立。在计算机视觉技术快速发展下,外观模型的建立方法层出不穷。如文献[2]提出的利用图像分割方法,将被跟踪区域分割成多个超像素块,结合SIFT特征,形成词汇本,并计算每个词在词汇本上的权值,作为目标的外观模型。对于目标搜索策略,现有的多目标跟踪技术大都使用粒子滤波来搜索最佳匹配[3]。粒子滤波采用蒙特卡洛法采样观测样本,使得算法不易陷入局部极小值,但是随着目标状态空间的增加,需要采样大量的粒子才能保证跟踪的精度,而对每个粒子的计算需要消耗大量的时间,很难满足实时性的要求。光流法一直被认为是一种计算复杂度较高的方法,且很少被应用在实时监控中。然而,文献[4]提出一种稀疏光流快速计算的目标跟踪算法,克服了实时性差的问题,能很好地适应于目标遮挡情况并且能跟踪快速运动目标,但跟踪准确率还有待提高。
基于颜色特征的Camshift算法可以有效地实现运动目标的快速定位与实时跟踪,尤其在目标形变、旋转等情况下,具有较高的鲁棒性和实时性。然而传统的Camshift算法在跟踪过程中没有利用跟踪目标的运动信息,在周围环境干扰较强或者存在遮挡的情况下,很难对目标进行准确的跟踪[5]。粒子滤波与Camshift算法的结合,可以加强跟踪的鲁棒性,但粒子滤波的难点在于参考分布的选择及粒子退化的问题[8-9]。Deilamani等人用多特征融合的方法对Camshift跟踪算法进行改进[6],实验结果表明:多特征融合有效地提高了复杂环境下Camshift算法的跟踪准确率。但同时增加了算法的复杂度,不能满足实时跟踪系统的需要。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种面向工业现场的多目标视频跟踪方法,利用跟踪目标特征的颜色直方图对目标概率密度进行快速估计;在此基础上利用背景建模对目标概率密度进行滤波,减少静止背景中相似物体对Camshift算法的影响;在Camshift算法迭代搜索过程中,将每次迭代搜索结果与运动方向信息加权,计算得优秀的搜索结果;在多目标跟踪过程中,根据搜索的顺序,将前一个目标的搜索得出的区域在概率密度图中置0,以减少对后面搜索的干扰。通过上述过程的改进,使得算法不仅能处理背景复杂情况下的目标跟踪问题,还能对多个相似目标同时进行有效准确跟踪。
技术方案:为实现上述目的,本发明采用的技术方案为:
面向工业现场的多目标视频跟踪方法,对轨道上的多目标进行跟踪;该方法是一种融合了背景建模和运动信息的Camshift方法,首先根据跟踪目标获得目标颜色概率密度图像;然后根据背景建模获得的运动区域图像对目标颜色概率密度图像进行滤波处理;在Camshift每次迭代过程中,引入运动方向信息,通过加权融合获得最优匹配位置;在多目标跟踪过程中,将当前帧中已完成搜索的跟踪目标在目标颜色概率密度图像中滤除,减少对其它目标的干扰。
具体的,在视频监测区域,当检测到多个目标时,按照目标进入轨道的顺序将目标依次命名为TAG1、TAG2、TAG3、…、TAGi、…,对TAGi进行目标跟踪,具体包括如下步骤:
(1)根据当前目标的目标特征直方图,计算当前帧的目标颜色概率密度图像,进入步骤(2);
(2)将当前帧的目标颜色概率密度图像与背景建模获得的运动区域图像进行对比,将非运动区域所对应的概率密度值置为零;同时,将前帧的目标颜色概率密度图像中,已经跟踪成功的目标区域所对应的概率密度值置为零;得到当前帧新的目标颜色概率密度图像I(x,y),根据当前帧新的目标颜色概率密度图像I(x,y)获取候选目标区域,计算候选目标区域的中心坐标为(x0,y0),进入步骤(3);
(3)计算候选目标区域的零阶矩M00及关于x0,y0的一阶矩M10和M01:
进入步骤(4);
(4)根据零阶矩M00以及一阶矩M10和M01计算目标在候选目标区域中的当前位置(x1,y1):
进入步骤(5);
(5)将当前位置(x1,y1)记录到数组Point[]中,计算以(x1,y1)为中心的候选目标区域与参考模板之间的相似度,并将计算出的相似度记录到数组initial_sim[]中,进入步骤(6);
(6)相比于以(x0,y0)为中心的候选目标区域,若以当前位置(x1,y1)为中心的候选目标区域与参考模板之间的相似度降低,则进行如下赋值: 得到新的当前位置(x1,y1),进入步骤(7);否则迭代结束,进入步骤(8);
(7)若移动步长则迭代结束,进入步骤(8);否则x0←x1,y0←y1,返回步骤(3);
(8)将当前目标在当前帧中的当前位置(x1,y1)记为a0,将目标在前一帧中的位置记为a1,计算当前目标的运动方向向量进入步骤(9);
(9)将数组Point[]中保存的坐标分别与目标在前一帧中的位置a1相减,计算位移方向向量,依次为n为迭代次数;将分别为与计算余弦量,保存为cos1,cos2,...cosn,进入步骤(10);
(10)将cosi与所对应位置的候选区域的相似度initial_sim[i]相乘,结果保存到数组fused_sim[i]中,进入步骤(11);
(11)将fused_sim[i]中最大的值所对应的位置作为当前目标的在当前帧中的跟踪结果,并将该位置作为当前目标在下一帧中的参考模板,进入步骤(12);
(12)判断当前帧中的所有目标是否都跟踪结束:如果没有,返回步骤(1),对下一个目标进行跟踪;否则,结束。
具体的,通过背景建模获得的运动区域图像,采用的方法为背景差法,使用HSV颜色模型的H分量值作为像素值。
有益效果:本发明提供的面向工业现场的多目标视频跟踪方法,不仅能处理背景复杂情况下的目标跟踪问题,还能对多个相似目标同时进行有效准确跟踪,避免工业现场轨道旁其他相似物品的干扰。
附图说明
图1为本发明的实现流程图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
本发明在传统的Camshift跟踪算法上加以改进,包括:①选用HSV颜色空间,以减少光照带来的影响;②Camshift跟踪算法主要思想是利用跟踪目标特征的颜色直方图对目标概率密度进行快速估计,本发明在此基础上利用背景建模对目标概率密度进行滤波,减少静止背景中相似物体对Camshift跟踪算法的影响;③在Camshift跟踪算法迭代搜索过程中,将每次迭代搜索结果与速度信息加权,计算得优秀的搜索结果;④在多目标跟踪过程中,根据搜索的顺序,将前一个目标的搜索得出的区域在概率密度图中置0,以减少对后面搜索的干扰。通过上述过程的改进,使得本发明算法不仅能处理背景复杂情况下的目标跟踪问题,还能对多个相似目标同时进行有效准确跟踪。
下面结合实施例对本发明及其使用到的现有技术加以具体说明。
一、Camshift跟踪算法
Camshift跟踪算法(Continuously Adaptive Mean Shift)是根据连续图像颜色动态变化的概率分布来进行目标搜索的一种方法,用于对彩色运动目标进行的视觉跟踪。基本思想是根据目标的颜色特征在当前视频图像帧中搜素运动目标所在的位置和大小,在下一帧图像中,用运动目标当前的位置和大小初始化搜索窗口,不断重复上述过程从而实现对目标的连续跟踪。当跟踪彩色目标时,Camshift跟踪算法从图像的颜色直方图中获取颜色概率分布[10]。由于Camshift跟踪算法是计算局部最优解的算法,它不依赖于跟踪对象的具体模型,对噪声干扰不敏感,同时其计算简单、效率高,因而具有很强的鲁棒性和良好的实时性。
二、多目标跟踪算法
针对物流仓库运动轨道的特点,本发明设计出有效的多目标跟踪算法,来对轨道上的目标进行跟踪。首先,运动区域图与概率分布图的融合有效地减少了背景中相似物体对跟踪结果的干扰。但是场景监控中,传送带上运动的多个物体之间的相互干扰还没有解决,所以在Camshift跟踪算法搜索结果决策时,加入运动方向信息,减少了搜索结果向运动反方向移动的可能性。多目标搜索过程中,通过在概率密度图像中,将已搜索目标的位置置零,来减少相似目标之间的相互干扰。图1为算法流程图。
2.1背景建模
背景建模的任务是通过对一段连续的视频图像序列进行统计和分析,从中提取相对不变的像素信息,并将这些像素信息作为整个视频的参考背景。本发明采用统计法提取的背景。为了减少光照带来的影响,本发明使用HSV颜色模型的H分量值作为像素值。
统计提取法的基本假设是在视频序列中,运动物体不会始终在某个位置保持不动[6]。定义相关图像序列的像素值为I(x,y,t),其中x,y表示像素点空间位置,t表示帧数。那么我们把相邻帧间的灰度变化可以表示为:
d=|I(x,y,t)-I(x,y,t-1)| (1)
其中,T表示阈值,用来滤除噪声。对于坐标为(x,y)的像素点,CDM(x,y,t)表示第t帧与第t-1帧之间像素值差,它记录着像素点(x,y)的像素随时间变化。通过统计,CDM(x,y,t)持续为0的,表示像素值没有发生变化,我们取其中最长的一个区间,把这段的像素值作为背景。本发明采用背景差法从图像中获得运动区域图像,即获得背景以外的目标部分。
2.2直方图计算与直方图匹配度计算
算法的准确跟踪离不开外观模型的选择,本发明选择颜色特征直方图作为外观模型的描述,以直方图匹配度计算来评判跟踪准确率。
2.2.1参考模板特征直方图与候选区域直方图
假定运动目标模板区域的点的集合为该区域坐标以坐标零为中点,并按照区域大小h进行归一化。定义一种映射关系用以将各个像素点的颜色值量化并映射到对应的直方图bins中,B为最大量化等级。对于每一个像素xi,表示该像素点颜色量化后的直方图bins序号。该区域的轮廓函数为k(x),那么,对于以坐标零为中心,其颜色概率分布特征可以表示为:
其中,是Cronecker Deta1函数,C是归一化常数,用以保证
候选区域直方图计算与参考模块特征直方图类似,计算公式如下:
其中,Ch为归一化常数。
2.2.2直方图匹配度计算
运动目标跟踪的实质是在连续帧中寻找与参考目标最为相似的候选区域,因此物体跟踪可以简化为寻找最优的y,使得pu(y)与qu最相似。通常使用Bhattacharrya系数ρ(y)来衡量两者之间的相似度,Bhattacharrya系数ρ(y)定义如下:
Bhattacharrya系数ρ(y)越大,则pu(y)与qu越相似。
针对物流仓库运动轨道的特点,本发明设计出有效的多目标跟踪算法,来对轨道上的目标进行跟踪。首先,采用运动区域图与概率分布图相融合的方法,以减少背景中相似物体对跟踪结果的干扰;但是场景监控中,传送带上运动的多个物体之间的相互干扰还没有解决,所以在使用Camshift算法搜索结果决策时加入运动方向信息,以减少搜索结果向运动反方向移动的可能性;在多目标搜索过程中,通过在概率密度图像中,将已搜索目标的位置置零,来减少相似目标之间的相互干扰。图1为算法流程图。
2.3多目标跟踪算法步骤
物流仓库中,跟踪目标都沿着物流轨道运动,运动方向与前几帧都存在关联,所以在位置决策阶段引入运动方向信息,有效地抑制搜索框往运动反方向进行搜索。多目标跟踪的顺序按照目标进入轨道的顺序进行,当一个目标搜索成功后,将其所在区域在后一个目标的概率目标图像中滤除,排出了搜索框锁定前方目标的可能。所以轨道上的目标能够有效准确地进行跟踪。
在视频监测区域,当检测到多个目标时,按照目标进入轨道的顺序将目标依次命名为TAG1、TAG2、TAG3、…、TAGi、…,对TAGi进行目标跟踪,具体包括如下步骤:
(1)根据当前目标的目标特征直方图,计算当前帧的目标颜色概率密度图像,进入步骤(2);
(2)将当前帧的目标颜色概率密度图像与背景建模获得的运动区域图像进行对比,将非运动区域所对应的概率密度值置为零;同时,将前帧的目标颜色概率密度图像中,已经跟踪成功的目标区域所对应的概率密度值置为零;得到当前帧新的目标颜色概率密度图像I(x,y),根据当前帧新的目标颜色概率密度图像I(x,y)获取候选目标区域,计算候选目标区域的中心坐标为(x0,y0),进入步骤(3);
(3)计算候选目标区域的零阶矩M00及关于x0,y0的一阶矩M10和M01:
进入步骤(4);
(4)根据零阶矩M00以及一阶矩M10和M01计算目标在候选目标区域中的当前位置(x1,y1):
进入步骤(5);
(5)将当前位置(x1,y1)记录到数组Point[]中,计算以(x1,y1)为中心的候选目标区域与参考模板之间的相似度,并将计算出的相似度记录到数组initial_sim[]中,进入步骤(6);
(6)相比于以(x0,y0)为中心的候选目标区域,若以当前位置(x1,y1)为中心的候选目标区域与参考模板之间的相似度降低,则进行如下赋值: 得到新的当前位置(x1,y1),进入步骤(7);否则迭代结束,进入步骤(8);
(7)若移动步长则迭代结束,进入步骤(8);否则x0←x1,y0←y1,返回步骤(3);
(8)将当前目标在当前帧中的当前位置(x1,y1)记为a0,将目标在前一帧中的位置记为a1,计算当前目标的运动方向向量进入步骤(9);
(9)将数组Point[]中保存的坐标分别与目标在前一帧中的位置a1相减,计算位移方向向量,依次为n为迭代次数;将分别为与计算余弦量,保存为cos1,cos2,...cosn,进入步骤(10);
(10)将cosi与所对应位置的候选区域的相似度initial_sim[i]相乘,结果保存到数组fused_sim[i]中,进入步骤(11);
(11)将fused_sim[i]中最大的值所对应的位置作为当前目标的在当前帧中的跟踪结果,并将该位置作为当前目标在下一帧中的参考模板,进入步骤(12);
(12)判断当前帧中的所有目标是否都跟踪结束:如果没有,返回步骤(1),对下一个目标进行跟踪;否则,结束。
三、实验结果与分析
为了验证本文算法的有效性,我们通过书店物流仓库的真实监控视频进行了物品箱跟踪实验.算法在Intel Core i5处理器,2.80GHz计算机上运行,利用VC++编程实现,检测算法性能,重点是对算法鲁棒性和实时性进行检测,包括遮挡、相似物体干扰情况下的跟踪结果。
实验视频为物流仓库的监控视频,摄像头位置固定,视频共150帧,每帧大小320*240。实验中我们对视频中物流仓库轨道上的箱子进行跟踪,轨道周围有大量相似物体干扰,被跟踪物体在运动中会出现相互遮挡,旋转,以及光线变化等情况,以下是实验过程。
3.1复杂背景干扰对比实验
首先我们利用Camshift与Kalman滤波融合算法对物流仓库进行复杂环境跟踪实验。Camshift与kalman滤波融合是目标跟踪领域一个比较经典的组合算法,由kalman滤波通过目标前一帧的速度信息以及位置信息,预测当前帧目标出现的位置,然后通过Camshift来准确搜索,提高搜索效率。由于目标周围存在大量相似物体,而算法的预测与搜索,都是基于颜色特征来进行的,所以出现跟踪失败。而本发明算法考虑到静态背景存在干扰,引入背景滤除操作,在搜索过程中,将运动方向信息考虑到搜索结果的决策中,有利于排除相似物体的干扰,即使当目标出现被遮挡的情况下,也能很好的定位目标。
3.2多目标跟踪对比实验
接下来介绍跟踪目标在大小、形状上出现变化的多目标跟踪结果。首先用Camshift与kalman滤波融合算法进行实验,当被跟踪的两个目标相距较远时,该算法能准确地跟踪目标,然而当目标相互靠近,由于目标太过相似,跟踪就出现严重偏差。而Camshift算法是基于颜色的搜索,无法辨别颜色相似的目标。而本文算法,除了颜色特征,在搜索结果决策时引入运动方向信息,并且在针对多目标跟踪时,将前一个目标的搜索结果,在新目标搜索的概率密度图像中置零,减少了相似目标之间的干扰。实验证明,无论运动目标是明显分开,还是目标位置非常接近,本发明算法都能准确地对目标进行跟踪。
工业现场环境复杂,空间较大,跟踪过程中有很大的不确定性。本发明算法有效地克服了复杂环境问题,并且对多个目标进行有效地跟踪。在实时性方面,本算法处理150帧图像所用时间为3.79s,能够达到实时处理的要求。
实验结果表明:本算法有很好的鲁棒性和实时性,能有效地解决工业现场物品跟踪的问题。
四、结论
本发明研究在工业现场复杂环境下对多目标进行跟踪的问题,提出了一种融合背景建模和运动信息的Camshift算法,并在搜索过程加以约束限制,以求达到最好的实验结果。实验结果表明:在跟踪过程中,背景干扰的问题得到有效地解决;运动信息的融合,以及算法的改进,有效地解决了跟踪过场中多个目标之间的相互干扰问题。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.面向工业现场的多目标视频跟踪方法,对轨道上的多目标进行跟踪;其特征在于:该方法是一种融合了背景建模和运动信息的Camshift方法,首先根据跟踪目标获得目标颜色概率密度图像;然后根据背景建模获得的运动区域图像对目标颜色概率密度图像进行滤波处理;在Camshift每次迭代过程中,引入运动方向信息,通过加权融合获得最优匹配位置;在多目标跟踪过程中,将当前帧中已完成搜索的跟踪目标在目标颜色概率密度图像中滤除,减少对其它目标的干扰。
2.根据权利要求1所述的面向工业现场的多目标视频跟踪方法,其特征在于:在视频监测区域,当检测到多个目标时,按照目标进入轨道的顺序将目标依次命名为TAG1、TAG2、TAG3、…、TAGi、…,对TAGi进行目标跟踪,具体包括如下步骤:
(1)根据当前目标的目标特征直方图,计算当前帧的目标颜色概率密度图像,进入步骤(2);
(2)将当前帧的目标颜色概率密度图像与背景建模获得的运动区域图像进行对比,将非运动区域所对应的概率密度值置为零;同时,将前帧的目标颜色概率密度图像中,已经跟踪成功的目标区域所对应的概率密度值置为零;得到当前帧新的目标颜色概率密度图像I(x,y),根据当前帧新的目标颜色概率密度图像I(x,y)获取候选目标区域,计算候选目标区域的中心坐标为(x0,y0),进入步骤(3);
(3)计算候选目标区域的零阶矩M00及关于x0,y0的一阶矩M10和M01:
进入步骤(4);
(4)根据零阶矩M00以及一阶矩M10和M01计算目标在候选目标区域中的当前位置(x1,y1):
进入步骤(5);
(5)将当前位置(x1,y1)记录到数组Point[]中,计算以(x1,y1)为中心的候选目标区域与参考模板之间的相似度,并将计算出的相似度记录到数组initial_sim[]中,进入步骤(6);
(6)相比于以(x0,y0)为中心的候选目标区域,若以当前位置(x1,y1)为中心的候选目标区域与参考模板之间的相似度降低,则进行如下赋值: 得到新的当前位置(x1,y1),进入步骤(7);否则迭代结束,进入步骤(8);
(7)若移动步长则迭代结束,进入步骤(8);否则x0←x1,y0←y1,返回步骤(3);
(8)将当前目标在当前帧中的当前位置(x1,y1)记为a0,将目标在前一帧中的位置记为a1,计算当前目标的运动方向向量进入步骤(9);
(9)将数组Point[]中保存的坐标分别与目标在前一帧中的位置a1相减,计算位移方向向量,依次为n为迭代次数;将分别为与计算余弦量,保存为cos1,cos2,...cosn,进入步骤(10);
(10)将cosi与所对应位置的候选区域的相似度initial_sim[i]相乘,结果保存到数组fused_sim[i]中,进入步骤(11);
(11)将fused_sim[i]中最大的值所对应的位置作为当前目标的在当前帧中的跟踪结果,并将该位置作为当前目标在下一帧中的参考模板,进入步骤(12);
(12)判断当前帧中的所有目标是否都跟踪结束:如果没有,返回步骤(1),对下一个目标进行跟踪;否则,结束。
3.根据权利要求1所述的面向工业现场的多目标视频跟踪方法,其特征在于:通过背景建模获得的运动区域图像,采用的方法为背景差法,使用HSV颜色模型的H分量值作为像素值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410523496.0A CN104268902A (zh) | 2014-09-30 | 2014-09-30 | 面向工业现场的多目标视频跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410523496.0A CN104268902A (zh) | 2014-09-30 | 2014-09-30 | 面向工业现场的多目标视频跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104268902A true CN104268902A (zh) | 2015-01-07 |
Family
ID=52160421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410523496.0A Pending CN104268902A (zh) | 2014-09-30 | 2014-09-30 | 面向工业现场的多目标视频跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104268902A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105100727A (zh) * | 2015-08-14 | 2015-11-25 | 河海大学 | 一种固定位监控图像中指定物品实时跟踪方法 |
CN106022238A (zh) * | 2016-05-12 | 2016-10-12 | 清华大学 | 基于滑窗优化的多目标跟踪方法 |
CN108062773A (zh) * | 2016-11-07 | 2018-05-22 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN108257159A (zh) * | 2017-12-07 | 2018-07-06 | 广西师范大学 | 一种音视频监控服务端、系统及方法 |
CN109544604A (zh) * | 2018-11-28 | 2019-03-29 | 天津工业大学 | 基于认知网络的目标跟踪方法 |
-
2014
- 2014-09-30 CN CN201410523496.0A patent/CN104268902A/zh active Pending
Non-Patent Citations (1)
Title |
---|
练海晨 等: "面向物流仓库的多目标视频跟踪", 《计算机与现代化》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105100727A (zh) * | 2015-08-14 | 2015-11-25 | 河海大学 | 一种固定位监控图像中指定物品实时跟踪方法 |
CN105100727B (zh) * | 2015-08-14 | 2018-03-13 | 河海大学 | 一种固定位监控图像中指定物品实时跟踪方法 |
CN106022238A (zh) * | 2016-05-12 | 2016-10-12 | 清华大学 | 基于滑窗优化的多目标跟踪方法 |
CN106022238B (zh) * | 2016-05-12 | 2019-05-28 | 清华大学 | 基于滑窗优化的多目标跟踪方法 |
CN108062773A (zh) * | 2016-11-07 | 2018-05-22 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN108062773B (zh) * | 2016-11-07 | 2021-05-28 | 深圳光启合众科技有限公司 | 图像处理方法和装置、机器人 |
CN108257159A (zh) * | 2017-12-07 | 2018-07-06 | 广西师范大学 | 一种音视频监控服务端、系统及方法 |
CN109544604A (zh) * | 2018-11-28 | 2019-03-29 | 天津工业大学 | 基于认知网络的目标跟踪方法 |
CN109544604B (zh) * | 2018-11-28 | 2023-12-01 | 深圳拓扑视通科技有限公司 | 基于认知网络的目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cao et al. | Vehicle detection and motion analysis in low-altitude airborne video under urban environment | |
Li et al. | Robust people counting in video surveillance: Dataset and system | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN104992451A (zh) | 一种改进的目标跟踪方法 | |
CN103218816A (zh) | 一种基于视频分析的人群密度估计方法与人流量统计方法 | |
CN104318263A (zh) | 一种实时高精度人流计数方法 | |
CN101324956A (zh) | 基于均值漂移的抗遮挡运动目标跟踪方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN104268902A (zh) | 面向工业现场的多目标视频跟踪方法 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
Hu et al. | An infrared target intrusion detection method based on feature fusion and enhancement | |
Akpinar et al. | Video action recognition using an optical flow based representation | |
CN111797785B (zh) | 一种基于深度学习的多航空器跟踪方法 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及系统 | |
Zhao et al. | APPOS: An adaptive partial occlusion segmentation method for multiple vehicles tracking | |
Xia et al. | Automatic multi-vehicle tracking using video cameras: An improved CAMShift approach | |
Hou et al. | Human detection and tracking over camera networks: A review | |
Yasir et al. | Review on real time background extraction: models, applications, environments, challenges and evaluation approaches | |
Dagvasumberel et al. | Railroad near-miss occurrence detection and risk estimation system with data from camera using deep learning | |
Saini et al. | Region and feature matching based vehicle tracking for accident detection | |
Malinas et al. | Vehicle track detection in CCD imagery via conditional random field | |
Yadav et al. | An Efficient Yolov7 and Deep Sort are Used in a Deep Learning Model for Tracking Vehicle and Detection | |
Yang et al. | Crowd density and counting estimation based on image textural feature | |
Madrigal et al. | Learning and regularizing motion models for enhancing particle filter-based target tracking | |
Saif et al. | Adaptive long term motion pattern analysis for moving object detection using UAV aerial images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150107 |
|
RJ01 | Rejection of invention patent application after publication |