CN104392469B - 一种基于软特征理论的目标跟踪方法 - Google Patents
一种基于软特征理论的目标跟踪方法 Download PDFInfo
- Publication number
- CN104392469B CN104392469B CN201410777880.3A CN201410777880A CN104392469B CN 104392469 B CN104392469 B CN 104392469B CN 201410777880 A CN201410777880 A CN 201410777880A CN 104392469 B CN104392469 B CN 104392469B
- Authority
- CN
- China
- Prior art keywords
- target
- frequency
- pixel
- soft
- barycenter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
Abstract
一种基于软特征理论的目标跟踪方法,属于计算机视觉技术领域。该方法包括:目标区域初始化;提取目标的软特征信息;对目标的软特征信息进行前趋预测;修复目标的软特征信息;目标跟踪。采用软特征对运动目标进行跟踪,对目标形状变化和尺度伸缩具有很好的抗干扰性,使得该方法对形变严重运动目标的跟踪具有较高的准确性、稳定性和很好的鲁棒性能;采用前趋冲击强度对目标前趋进行预测,可以很好的解决目标受到遮挡而导致丢失的问题;由于缩小了目标检测范围,软特征数据量较小,不需要存储目标多种姿态模型,其计算复杂度和空间复杂度较低,跟踪实时性较高。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于软特征理论的目标跟踪方法。
背景技术
运动目标跟踪是目前国内外在计算机视觉领域的一项重要且传统的研究问题,近几十年来得到了广泛研究,根据过去的研究历史以及目前的研究现状可以看到,目标跟踪虽然得到了长时间的研究,也取得了很大研究进展,但是在复杂背景下的目标跟踪仍然没有得到很好的解决。
目标跟踪技术的研究主要有两大方向,一种是建立在运动信息分析基础之上的跟踪方法,另一种是基于模型分析的目标跟踪方法。利用运动信息分析研究目标跟踪的方法较多,已形成了众多的算法和标准,基于运动分析的目标跟踪方法,原理简单,实现较为方便,但是对于遮挡目标的前景与背景信息难以进行区分,容易粘连和失跟。另一种基于模型的目标跟踪方法可以克服局部遮挡信息的干扰,是目前计算机视觉领域内的主流方法,对于局部遮挡、小范围形状与尺度变化的目标具有很好的跟踪效果,但是在目标发生较大幅度遮挡、形变与尺度伸缩运动时,不能进行长时间的有效跟踪,容易发生漂移和失跟。
目前,虽然目标跟踪技术取得重大进展,但主要还是采用图像/视频处理中的经典技术,多注重当前场景下的目标信息,缺少对目标前趋信息的分析与研究。目标前趋信息作为当前场景下目标运动状态的后续过程,与目标当前运动状态具有十分紧密的联系,如果能根据目标当前的特征信息将这一联系提炼出来,并依此预测出目标前趋信息,提前对目标后续状态进行跟踪,不仅对目标跟踪中遮挡、形变和尺度伸缩等问题的解决起到很好的促进作用,而且是在目标跟踪领域中由“实时”跟踪方式转向“提前”跟踪进行了一个初步的探索。
发明内容
针对现有技术存在的问题,本发明提供一种基于软特征理论的目标跟踪方法。
本发明的技术方案为:
一种基于软特征理论的目标跟踪方法,包括如下步骤:
步骤1:目标区域初始化;
步骤1.1:在视频图像中选取目标区域,在目标区域内,计算各像素的帧间灰度差值,并统计帧间灰度差值递增或者递减的像素点,将所统计的像素点标记为初始像素(x,y,z);
步骤1.2:计算初始像素的梯度;
步骤1.3:在初始像素的相邻时域图像内,即在初始像素邻域内,计算与本初始像素具有相同梯度的像素,则这些像素与本初始像素具有相同的灰度变化强度;
步骤1.4:对初始像素邻域内的像素点进行处理:保留初始像素邻域内与本初始像素具有相同灰度变化强度的像素点,去除与本初始像素具有不同灰度变化强度的像素点;
步骤1.5:检查每个初始像素的邻域,若有3个以上像素点被保留,则将此邻域标记为连通域,否则删除该初始像素及其邻域;
步骤2:提取目标的软特征信息;
步骤2.1:将连通域内的像素点标记为像素群,计算每个像素群以初始像素为质心的相邻两帧图像间的空域向量和频域向量其中1≤i≤N,N为像素群个数;
所述质心是指采样区域的几何中心,质心分为目标边缘处的质心和目标内部的质心,边缘处的质心称为边缘质心,内部的质心称为空间质心,质心的频率在频率域内的映射称为频域内的质心。
所述空域向量是指空间域内两个质心间的向量,记为即空域向量的模为
所述频域向量是指频率域内两个质心间的向量,记为即频域向量的模为频域向量的方向,记为θ,θ的大小为频域向量与水平线的夹角;
步骤2.2:采用最小二乘法对离散的质心进行曲线拟合,得到边缘质心的时域轨迹和空间质心的时域轨迹εt=τ(x,y,z);
步骤2.3:分别对边缘质心的时域轨迹和空间质心的时域轨迹εt进行傅里叶变换,得到空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r);
将目标各质心运动形成的轨迹经傅里叶变换、曲线拟合得到的频率曲线定义为谱线,所有谱线的集合定义为谱带;空间谱带是指目标各空间质心运动形成的周期性谱带,记为ξ,ξ由空间质心的时域轨迹ε采用傅里叶变换得到,记为其中u、v、r为频率变量,2a,2b分别为目标区域的长度和宽度,u∈(0,2a],v∈(0,2b],ξ函数曲线的振幅不相等是指非均匀周期,表示目标在进行随机运动,ξ函数曲线的振幅相等是指均匀周期,表示目标在进行有规律的运动;
边缘谱带是指运动目标各边缘质心运动形成的周期性谱带,记为ψ,ψ由边缘质心的时域轨迹采用傅里叶变换得到,记为其中η为边缘质心的标记,η∈[0,4ab];
步骤2.4:分别计算空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r)的一阶偏导,将偏导不为0且变化强度相同的频率进行合并,得到软特征其中i为软特征编号,1≤i≤N,t为时刻;
将空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r)中具有可微分的相同变化强度的频率变量定义为软特征,记为T,
其中l是边缘谱带中谱线的个数,(u1,1,v1,1,r1,1)ξ~(um,n,vm,n,rm,n)ξ为空间谱带的频率,(u1,1,v1,1,r1,1)ψ~(uq,p,vq,p,rq,p)ψ为边缘谱带的频率,m、n为空间谱带的频率在矩阵T中的位置,q、p为边缘谱带的频率在矩阵T中的位置,符号为软特征频率矩阵T合并操作符,符号Ψ为软特征连续合并操作符,合并过程为分别计算u、v、r最大的频率值,然后进行合并;符号为同频率变化操作符,用于统计频率变化幅度相等的频率信息;
步骤3:对目标的软特征信息进行前趋预测;
步骤3.1:计算目标的前趋冲击强度;
所述前趋冲击强度的物理意义是描述某一质心的频率变化快慢的矢量,前趋冲击强度的值越大,目标向θ方向运动的趋势越大,惯性越大,方向变化越慢;前趋冲击强度的值越小,目标向θ方向运动的趋势越小,惯性也越小,方向变化越快。
在频域向量上一个微小的向量将在Δt'时间内的变化量定义为运动目标的前趋冲击强度,记为ω,即其中Δt'是的变化时间且Δt'<Δt,Δt为目标状态变化的时间;
步骤3.2:计算目标的前趋冲击强度对邻域像素的卷积波动效应并根据卷积波动效应计算邻域像素的频率变化量
目标在运动过程中,其前趋冲击强度ω对邻域像素具有一定干扰冲击,称为波动效应,将目标进行逐个像素移动,在当前时刻t的前时间内,对N个边缘质心的像素进行不同时刻的n次平均离散抽样,抽样过程即为离散像素的卷积变换过程,此时目标的前景信息和时间内的微小频率σ(u,v,r,t)的离散抽样定义为卷积波动的累积效应即
其中为单位前趋冲击强度,为时刻前景信息的空域坐标,κ为ωΘ的系数且κ∈[0.43,0.67],为t-1时刻前趋冲击强度ω减小至|ω|/2且方向偏离至θ/2时所用时间;α,β表示坐标。
步骤3.3:计算变量的空间谱带和边缘谱带的频率,将频率进行合并操作,得到目标的软特征预测值
步骤3.4:将频率变化量加入到目标的软特征预测值中,实现软特征前趋预测;
步骤4:修复目标的软特征信息;
步骤4.1:根据目标的前趋冲击强度,当前趋冲击强度ω减小至|ω|/2且方向偏离至θ/2时,以每帧θ/|ω|的速度将ω方向递增至θ,以此修正ω方向的偏移,实现目标的软特征修复;
步骤4.2:将步骤3得到的目标的软特征预测值与目标的当前修复后的软特征进行合并操作得到目标的新的软特征
步骤5:目标跟踪;
步骤5.1:根据步骤2得到的每个像素群的空域向量和频域向量以及步骤3得到的目标的前趋冲击强度ω,建立目标的软特征约束模型
目标的前趋冲击强度ω对空域坐标轴具有正交投影分量,定义为ω对该轴的依赖特性:ω对空域坐标轴的投影分量较大的定义为全依赖特性,ω对空域坐标轴的投影分量较小的定义为偏依赖特性;则前趋冲击强度在x轴、y轴上共具有四种依赖特性,分别为对x轴的全依赖特性、对x轴的偏依赖特性、对y轴的全依赖特性和对y轴的偏依赖特性;
将前趋冲击强度的三阶微分的全依赖特性和偏依赖特性的效果之和与频域向量的乘积定义为目标的软特征约束模型,即其中,当x=±a时,当y=±b时,ο为比例系数,当x=±a及y=±b时,目标区域在视频图像上为线段状态,此时前趋冲击强度ω及其对坐标轴的依赖效果为0;
步骤5.2:对目标的软特征约束模型进行求解,确定目标当前位置和预测位置;
若求解出比例系数ο满足ο∈[0.9,1.1],则根据软特征及软特征预测值进行谱带的反向变换即可定位出目标当前位置和t~t+Δt之间任一时刻的预测位置,输出跟踪窗口;若求解出比例系数则删除该像素群;
步骤5.3:统计留下来的像素群数量,若小于3个则返回步骤1,在视频图像中重新选取目标区域按照步骤1的方法进行目标区域初始化后,重新执行步骤2至步骤5;否则,以输出跟踪窗口显示的区域作为t+Δt时刻下一帧视频图像的的目标区域进行初始化后,按照步骤2至步骤5的方法继续对目标进行跟踪。
有益效果:本发明的基于软特征理论的目标跟踪方法与现有技术相比较具有以下优势:
1.采用软特征对运动目标进行跟踪,对目标形状变化和尺度伸缩具有很好的抗干扰性,使得该方法对形变严重运动目标的跟踪具有较高的准确性、稳定性和很好的鲁棒性能;
2.采用前趋冲击强度对目标前趋进行预测,可以很好的解决目标受到遮挡而导致丢失的问题;
3.由于缩小了目标检测范围,软特征数据量较小,不需要存储目标多种姿态模型,其计算复杂度和空间复杂度较低,跟踪实时性较高。
附图说明
图1为本发明具体实施方式的基于软特征理论的目标跟踪方法流程图;
图2是本发明具体实施方式的的目标运动模型示意图;
图3是本发明具体实施方式的目标的软特征示例图;
图4是本发明具体实施方式的目标的软特征合并示意图;
图5是本发明具体实施方式的基于软特征理论的目标跟踪方法实施在IBM多目标遮挡数据库的跟踪结果示意图;
图6是本发明具体实施方式的基于软特征理论的目标跟踪方法在Benchmark视频数据库实施的目标初始化结果示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
本实施方式的基于软特征理论的目标跟踪方法实现流程图,如图1所示,主要包括以下步骤:
步骤1:目标区域初始化;
在视频图像中选取待跟踪目标区域;在目标区域内,统计各像素的帧间灰度差值,保留差值递增或者递减的像素点;将统计的像素点标记为初始像素(x,y,z),计算初始像素的梯度;在初始像素的相邻时域图像内,计算与其具有相同梯度的像素,此时,这些像素与初始像素具有相同的变化强度;保留初始像素邻域内与其具有相同变化强度的像素点,去除不同变化强度的像素点;检测每个初始像素的邻域,若有3个及3个以上像素被保留,则将此邻域标记为连通域,否则删除此初始像素及其邻域。
步骤2:提取目标的软特征信息;
将连通域内的像素点标记为像素群,计算每个像素群以初始像素为质心的相邻两帧图像间的空域向量如图2(b)所示,和频域向量如图2(c)所示;采用最小二乘法对离散的质心坐标进行曲线拟合,得到边缘质心的时域轨迹和空间质心的时域轨迹εt=τ(x,y,z);将质心轨迹和εt=τ(x,y,z)进行傅里叶变换,得到空间谱带ξ(u,v,r)如图2(a)所示和边缘谱带ψ(u,v,r)如图2(b)所示;图2(a)在t时刻矩形模板记为Mx,y,z,t,经Δt时间运动后,矩形模板记为Mx,y,z,t+Δt。计算空间谱带和边缘谱带的一阶偏导,将偏导不为0且变化强度相同的的频率进行合并,得到软特征(i为软特征编号,1≤i≤N,t为时刻)。
软特征物理意义如图3所示,图中设置了6个采样区域,包含4个边缘质心和2个空间质心,4个边缘谱带,2个空间谱带。
步骤3:对目标的软特征信息进行前趋预测;
计算运动目标的前趋冲击强度ω;计算前趋冲击强度对邻域像素的卷积波动效应根据计算邻域像素的频率变化量利用边缘谱带和空间普带的计算公式计算变量的空间谱带和边缘谱带的频率,将频率进行合并操作,得到预测软特征 将频率变化量加入到预测特征中,实现软特征前趋预测。
步骤4:修复与合并目标的软特征信息,得到目标的新的软特征;
根据目标的前趋冲击强度,当前趋冲击强度ω减小至|ω|/2且方向偏离至θ/2时,以每帧θ/|ω|的速度将ω方向递增至θ,以此修正ω方向的偏移,实现目标的软特征修复;将上步骤3得到目标的预测特征与当前软特征进行合并操作得到新的软特征
软特征合并过程的仿真效果如图4所示,图中淘汰特征是指已经被删除的特征,融合过度特征是指合并操作中元素值发生改变的特征,淘汰过度特征是指计算下一次前趋冲击强度之前要删除的特征。
步骤5:确定目标当前位置,并对目标未来时刻的位置进行预测
根据步骤2中各像素群信息计算的空域向量和频域向量以及步骤3中的前趋冲击强度ω,建立软特征约束模型求解软特征约束模型,若求解的系数ο满足ο∈[0.9,1.1],则根据软特征及预测特征进行谱带的反向变换即可定位出目标当前位置和t~t+Δt之间任一时刻的预测位置,输出跟踪窗口,若求解的系数则删除该像素群;统计留下来的像素群数量,若小于3个则返回步骤1,在视频图像中重新选取目标区域按照步骤1的方法进行目标区域初始化后,重新执行步骤2至步骤5;否则,以输出跟踪窗口显示的区域作为t+Δt时刻下一帧视频图像的的目标区域进行初始化后,按照步骤2至步骤5的方法继续对目标进行跟踪。
本发明的基于软特征理论的目标跟踪方法可应用于对多目标的相对位置发生连续变化的序列图像进行跟踪,本发明的方法在IBM多目标遮挡数据库(该数据库的网址为http://www.research.ibm.com/peoplevision/performanceevaluation.html,是IBM人类视觉研究中心监视系统性能评价提供的视频,主要针对人员与车辆的运动目标检测与跟踪,现在主要进行以像素和目标为单位的统计评估并且提供在线监控与跟踪算法的性能评估服务)的跟踪效果如图5所示,图5(a)为目标接近时的跟踪效果,图5(b)为目标边缘衔接时的跟踪效果,图5(c)为目标遮挡时的跟踪效果,图5(d)是目标边缘分离时的跟踪效果,图5(e)是目标分离时的跟踪效果。通过在IBM多目标遮挡数据库上进行实例测试,软特征目标跟踪方法具有较高的跟踪性能,漏检概率为0.027,虚警概率平均测试结果为0.074,跟踪准确率平均为0.931,预测错误率平均为0.175,处理速度平均为23帧/秒。
同时,本发明的基于软特征理论的目标跟踪方法还可以在复杂背景、遮挡、形变与尺度伸缩等干扰条件下进行运动目标跟踪,图6显示了本发明方法在Benchmark视频数据库(网址为:http://visualtracking.net,为美国California大学YiWu等人提出的视觉跟踪评估体系)中每个视频序列的第一帧初始化的目标窗口。通过在Benchmark视频数据库上进行实例测试,每组视频均反复测试20次,取均值作为测试结果,本发明软特征理论的目标跟踪方法在Benchmark评估测试中的平均跟踪准确率为91.6%,视频处理速度平均为19帧/秒。
Claims (4)
1.一种基于软特征理论的目标跟踪方法,其特征在于:包括如下步骤:
步骤1:目标区域初始化;
步骤1.1:在视频图像中选取目标区域,在目标区域内,计算各像素的帧间灰度差值,并统计帧间灰度差值递增或者递减的像素点,将所统计的像素点标记为初始像素(x,y,z);
步骤1.2:计算初始像素的梯度;
步骤1.3:在初始像素的相邻时域图像内,即在初始像素邻域内,计算与本初始像素具有相同梯度的像素,则这些像素与本初始像素具有相同的灰度变化强度;
步骤1.4:对初始像素邻域内的像素点进行处理:保留初始像素邻域内与本初始像素具有相同灰度变化强度的像素点,去除与本初始像素具有不同灰度变化强度的像素点;
步骤1.5:检查每个初始像素的邻域,若有3个以上像素点被保留,则将此邻域标记为连通域,否则删除该初始像素及其邻域;
步骤2:提取目标的软特征信息;
步骤2.1:将连通域内的像素点标记为像素群,计算每个像素群以初始像素为质心的相邻两帧图像间的空域向量和频域向量其中1≤i≤N,N为像素群个数;
所述空域向量是指空间域内两个质心间的向量,记为即空域向量的模为
所述频域向量是指频率域内两个质心间的向量,记为即频域向量的模为频域向量的方向,记为θ,θ的大小为频域向量与水平线的夹角;
步骤2.2:对离散的质心进行曲线拟合,得到边缘质心的时域轨迹和空间质心的时域轨迹εt=τ(x,y,z);
步骤2.3:分别对空间质心的时域轨迹εt和边缘质心的时域轨迹进行傅里叶变换,得到空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r);
将目标各质心运动形成的轨迹经傅里叶变换、曲线拟合得到的频率曲线定义为谱线,所有谱线的集合定义为谱带;空间谱带是指目标各空间质心运动形成的周期性谱带,记为ξ,ξ由空间质心的时域轨迹εt采用傅里叶变换得到,记为
其中u、v、r为频率变量,2a,2b分别为目标区域的长度和宽度,u∈(0,2a],v∈(0,2b],ξ函数曲线的振幅不相等是指非均匀周期,表示目标在进行随机运动,ξ函数曲线的振幅相等是指均匀周期,表示目标在进行有规律的运动;
边缘谱带是指运动目标各边缘质心运动形成的周期性谱带,记为ψ,ψ由边缘质心的时域轨迹采用傅里叶变换得到,记为其中η为边缘质心的标记,η∈[0,4ab];
步骤2.4:分别计算空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r)的一阶偏导,将偏导不为0且变化强度相同的频率进行合并,得到软特征Ti t,其中i为软特征编号,1≤i≤N,t为时刻;
将空间谱带ξ(u,v,r)和边缘谱带ψ(u,v,r)中具有可微分的相同变化强度的频率定义为软特征,记为T,
其中l是边缘谱带中谱线的个数,(u1,1,v1,1,r1,1)ξ~(um,n,vm,n,rm,n)ξ为空间谱带的频率,(u1,1,v1,1,r1,1)ψ~(uq,p,vq,p,rq,p)ψ为边缘谱带的频率,m、n为空间谱带的频率在矩阵T中的位置,q、p为边缘谱带的频率在矩阵T中的位置,符号为软特征频率矩阵T合并操作符,符号Ψ为软特征连续合并操作符,合并过程为分别计算u、v、r最大的频率值,然后进行合并;符号 为同频率变化操作符,用于统计频率变化幅度相等的频率信息;
步骤3:对目标的软特征信息进行前趋预测;
步骤3.1:计算目标的前趋冲击强度;
在频域向量上一个微小的向量将在Δt′时间内的变化量定义为运动目标的前趋冲击强度,记为ω,即其中Δt′是的变化时间且Δt′<Δt,Δt为目标状态变化的时间;
步骤3.2:计算目标的前趋冲击强度对邻域像素的卷积波动效应并根据卷积波动效应计算目标邻域像素的频率变化量
目标在运动过程中,其前趋冲击强度ω对邻域像素具有一定干扰冲击,称为波动效应,将目标进行逐个像素移动,在当前时刻t的前时间内,对边缘质心的像素进行不同时刻的n次平均离散抽样,抽样过程即为离散像素的卷积变换过程,此时目标的前景信息和 时间内的微小频率σ(u,v,r,t)的离散抽样定义为卷积波动的累积效应即
其中为单位前趋冲击强度,为时刻前景信息的空域坐标,κ为ωΘ的系数且κ∈[0.43,0.67],为t-1时刻前趋冲击强度ω减小至|ω|/2且方向偏离至θ/2时所用时间;
步骤3.3:分别计算变量的空间谱带的频率和边缘谱带的频率,将频率进行合并操作,得到目标的软特征预测值Ti t+Δt,
步骤3.4:将目标邻域像素的频率变化量加入到目标的软特征预测值Ti t+Δt中,实现软特征前趋预测;
步骤4:修复与合并目标的软特征信息;
步骤4.1:根据目标的前趋冲击强度,当前趋冲击强度ω减小至|ω|/2且方向偏离至θ/2时,以每帧θ/|ω|的速度将ω方向递增至θ,以此修正ω方向的偏移,实现目标的软特征修复;
步骤4.2:将步骤3得到的目标的软特征预测值与目标的当前修复后的软特征进行合并操作得到目标的新的软特征Ti t;
步骤5:确定目标当前位置,并对目标未来时刻的位置进行预测;
步骤5.1:根据步骤2得到的每个像素群的空域向量和频域向量以及步骤3得到的目标的前趋冲击强度ω,建立目标的软特征约束模型
目标的前趋冲击强度ω对空域坐标轴具有正交投影分量,定义为ω对该轴的依赖特性:ω对空域坐标轴的投影分量较大的定义为全依赖特性,ω对空域坐标轴的投影分量较小的定义为偏依赖特性;则前趋冲击强度在x轴、y轴上共具有四种依赖特性,分别为对x轴的全依赖特性、对x轴的偏依赖特性、对y轴的全依赖特性和对y轴的偏依赖特性;
将前趋冲击强度的三阶微分的全依赖特性和偏依赖特性的效果之和与频域向量的乘积定义为目标的软特征约束模型,即其中,当x=±a时, 当y=±b时,o为比例系数,当x=±a及y=±b时,目标区域在视频图像上为线段状态,此时前趋冲击强度ω及其对坐标轴的依赖效果为0;
步骤5.2:对目标的软特征约束模型进行求解,确定目标当前位置和预测位置;
若求解出比例系数o满足o∈[0.9,1.1],则根据软特征Ti t及软特征预测值Tit+Δt进行谱带的反向变换即可定位出目标在当前时刻t的位置和t~t+Δt之间任一时刻的预测位置,输出跟踪窗口;若求解出比例系数则删除该像素群;
步骤5.3:统计留下来的像素群数量,若小于3个则返回步骤1,在视频图像中重新选取目标区域按照步骤1的方法进行目标区域初始化后,重新执行步骤2至步骤5;否则,以输出跟踪窗口显示的区域作为t+Δt时刻下一帧视频图像的目标区域进行初始化后,按照步骤2至步骤5的方法继续对目标进行跟踪。
2.根据权利要求1所述的基于软特征理论的目标跟踪方法,其特征在于:所述质心是指采样区域的几何中心,质心分为目标边缘处的质心和目标内部的质心,边缘处的质心称为边缘质心,内部的质心称为空间质心,质心的频率在频率域内的映射称为频域内的质心。
3.根据权利要求1所述的基于软特征理论的目标跟踪方法,其特征在于:所述前趋冲击强度的物理意义是描述某一质心的频率变化快慢的矢量,前趋冲击强度的值越大,目标向θ方向运动的趋势越大,惯性越大,方向变化越慢;前趋冲击强度的值越小,目标向θ方向运动的趋势越小,惯性也越小,方向变化越快。
4.根据权利要求1所述的基于软特征理论的目标跟踪方法,其特征在于:所述步骤2.2中对离散的质心进行曲线拟合的方法为最小二乘法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410777880.3A CN104392469B (zh) | 2014-12-15 | 2014-12-15 | 一种基于软特征理论的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410777880.3A CN104392469B (zh) | 2014-12-15 | 2014-12-15 | 一种基于软特征理论的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104392469A CN104392469A (zh) | 2015-03-04 |
CN104392469B true CN104392469B (zh) | 2017-05-31 |
Family
ID=52610367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410777880.3A Active CN104392469B (zh) | 2014-12-15 | 2014-12-15 | 一种基于软特征理论的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104392469B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881884B (zh) * | 2015-06-29 | 2017-07-11 | 辽宁工程技术大学 | 一种基于视觉量子的目标跟踪方法 |
CN106204640A (zh) * | 2016-06-29 | 2016-12-07 | 长沙慧联智能科技有限公司 | 一种运动目标检测系统及方法 |
CN108154522B (zh) * | 2016-12-05 | 2022-07-12 | 赛灵思电子科技(北京)有限公司 | 目标追踪系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101394546A (zh) * | 2007-09-17 | 2009-03-25 | 华为技术有限公司 | 视频目标轮廓跟踪方法及装置 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN104200495A (zh) * | 2014-09-25 | 2014-12-10 | 重庆信科设计有限公司 | 一种视频监控中的多目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI420906B (zh) * | 2010-10-13 | 2013-12-21 | Ind Tech Res Inst | 興趣區域之追蹤系統與方法及電腦程式產品 |
-
2014
- 2014-12-15 CN CN201410777880.3A patent/CN104392469B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101394546A (zh) * | 2007-09-17 | 2009-03-25 | 华为技术有限公司 | 视频目标轮廓跟踪方法及装置 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN102881022A (zh) * | 2012-07-20 | 2013-01-16 | 西安电子科技大学 | 基于在线学习的遮挡目标跟踪方法 |
CN104200495A (zh) * | 2014-09-25 | 2014-12-10 | 重庆信科设计有限公司 | 一种视频监控中的多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
Research of object tracking based on soft feature;Wen-Tao Jiang et al.;《Optik-International Journal for Light and Electron Optics》;20130412;第124卷(第20期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN104392469A (zh) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105069413B (zh) | 一种基于深度卷积神经网络的人体姿势识别方法 | |
CN109242884B (zh) | 基于JCFNet网络的遥感视频目标跟踪方法 | |
CN104050681B (zh) | 一种基于视频图像的道路消失点检测方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN105912985A (zh) | 基于能量函数的人体骨架关节点的行为动作表示方法 | |
CN106204638A (zh) | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 | |
CN106462976A (zh) | 在异步传感器观测到的场景中追踪形状的方法 | |
CN105654516B (zh) | 基于目标显著性的卫星图像对地面弱小运动目标检测方法 | |
CN103632382A (zh) | 一种基于压缩感知的实时多尺度目标跟踪方法 | |
CN108280844B (zh) | 一种基于区域候选框跟踪的视频目标定位方法 | |
CN101901354B (zh) | 基于特征点分类的监控录像中实时多目标检测与跟踪方法 | |
CN104392469B (zh) | 一种基于软特征理论的目标跟踪方法 | |
CN102821228B (zh) | 低秩的视频背景重构方法 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 | |
CN101324958A (zh) | 一种目标跟踪方法及装置 | |
CN103679193A (zh) | 一种基于freak的高速高密度封装元器件快速定位方法 | |
CN105761507B (zh) | 一种基于三维轨迹聚类的车辆计数方法 | |
Yang et al. | Visual tracking with long-short term based correlation filter | |
Mo et al. | Background noise filtering and distribution dividing for crowd counting | |
CN102799646A (zh) | 一种面向多视点视频的语义对象分割方法 | |
CN104036528A (zh) | 一种基于全局搜索的实时分布场目标跟踪方法 | |
CN105654061A (zh) | 基于估计补偿的三维人脸动态重建方法 | |
CN105631900B (zh) | 一种车辆跟踪方法及装置 | |
CN112991394B (zh) | 基于三次样条插值和马尔科夫链的kcf目标跟踪方法 | |
CN110070023A (zh) | 一种基于运动顺序性回归的自监督学习方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |