CN103456030B - 基于散射描述子的目标跟踪方法 - Google Patents

基于散射描述子的目标跟踪方法 Download PDF

Info

Publication number
CN103456030B
CN103456030B CN201310405039.7A CN201310405039A CN103456030B CN 103456030 B CN103456030 B CN 103456030B CN 201310405039 A CN201310405039 A CN 201310405039A CN 103456030 B CN103456030 B CN 103456030B
Authority
CN
China
Prior art keywords
target
frame
scattering
descriptor
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310405039.7A
Other languages
English (en)
Other versions
CN103456030A (zh
Inventor
田小林
焦李成
尚小维
王爽
张坤
张小华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201310405039.7A priority Critical patent/CN103456030B/zh
Publication of CN103456030A publication Critical patent/CN103456030A/zh
Application granted granted Critical
Publication of CN103456030B publication Critical patent/CN103456030B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开一种基于散射描述子的目标跟踪方法,主要解决目标发生漂移、遮挡、尺度变小、快速运动变化导致跟踪失败的问题。其实现步骤为:(1)输入一段视频第一帧,人工标记出待跟踪目标;(2)建立跟踪目标模型;(3)计算第一帧待跟踪目标的灰度位置直方图;(4)载入新一帧视频图像,获取候选目标和搜索窗,并提取搜索窗散射描述子;(5)计算候选目标的灰度位置直方图,判断目标是否发生遮挡;(6)若目标没有发生遮挡,利用四邻域搜索方法进行匹配跟踪,更新跟踪目标模型;(7)若目标发生遮挡,考虑目标尺度变小对遮挡的影响进行跟踪;(8)输出跟踪位置,执行下一帧。本发明可用于交通管制、安全监测、医学图像方面。

Description

基于散射描述子的目标跟踪方法
技术领域
本发明属于图像处理技术领域,涉及视频序列的运动目标跟踪方法,可应用于人机交互、目标跟踪、安防监控等方面。
背景技术
视频序列的目标跟踪是图像处理技术领域的重要组成部分,它在机器人视觉导航、安全监测、交通管制、视频压缩以及气象分析等许多方面都有广泛应用。已广泛应用于社区和重要设施的安防监控,智能交通系统中对车辆的实时追踪,检测事故或故障等突发状况。尽管目前已经有大量的算法来处理运动目标跟踪问题,但由于外观噪声、光照变化、遮挡、背景杂乱、视角变化等因素的影响,使得目标被实时地、准备地跟踪变得更加复杂困难。
西安电子科技大学提出的专利申请“基于模糊概念格的视频运动特征提取方法”(专利申请号201110174005.2,公开号CN102289816A),该方法将视频镜头分割,首先,利用模糊概念格生成所有镜头的运动特征关联规则再根据关联规则提取感兴趣镜头;然后,利用模糊概念格生成感兴趣镜头中所有目标帧的运动特征关联规则,再根据关联规则提取感兴趣目标帧;最后,根据感兴趣的目标帧中所有图像块的模糊概念格,提取感兴趣目标帧的运动特征,实现目标跟踪。该方法主要针对背景干扰和运动重影问题,能够快速准确提取视频运动特征,但该方法对视频中常见的目标发生遮挡、尺度变化、快速运动等情况无法实现有效准确跟踪。
浙江工业大学提出的专利申请“一种基于粒子位置调整的粒子滤波视频运动目标跟踪方法”(专利申请号201110204821.3,公开号CN102339381A),该方法是对第一帧初始化粒子并累加直方图,在新的一帧中更新目标范围并计算粒子权重,对权重进行排序,如果权重小于指定的权重阈值,则调整该粒子的坐标,使他们靠近目标中心;得到新的粒子分布后,重新计算粒子权重,得到最终的目标中心点,实现运动目标跟踪。该方法虽说可通过减少粒子数实现较好的目标跟踪,提高运算效率,但对目标发生漂移、遮挡、尺度变化、光亮变化、快速运动等现象不具有良好地鲁棒性,无法实现有效准确跟踪。
发明内容
本发明针对上述现有技术的不足,提出一种基于散射描述子的目标跟踪方法,当目标发生漂移、遮挡、尺度变小、光照变化、快速运动时仍能准确有效的实现目标跟踪。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)输入一段视频的第一帧,人工标记出待跟踪目标,得到跟踪框位置,将标记出的待跟踪目标定义为模板目标;
(2)初始化待跟踪目标的运动位移量,并以跟踪框位置为中心获取搜索窗;
(3)建立第一帧跟踪目标模型Tt(i,j,k):
3a)对搜索窗进行非下采样散射变换,得到搜索窗每个像素点的散射描述子Xt(i,j,k),其中下标t表示当前正在处理的图像帧数,这里,t=1;(i,j)表示像素点的位置坐标;k表示散射描述子的维数,k=1,2,...,12;
3b)从搜索窗的散射描述子Xt(i,j,k)中,提取出模板目标的散射描述子作为第一帧的跟踪目标模型Tt(i,j,k);
(4)计算第一帧模板目标的灰度位置直方图其中下标1表示第一帧图像,上标l表示灰度级数,l=1,2,...,4096;
(5)载入新一帧视频图像,根据上一帧跟踪框位置和运动位移量估计出搜索窗记作本帧的搜索窗,对其进行非下采样散射变换,得到本帧搜索窗的散射描述子Xt(i,j,k);
(6)按照步骤(4)的方法,计算本帧候选目标的灰度位置直方图
(7)判断目标是否发生遮挡:
7a)根据第一帧模板目标的灰度位置直方图和本帧候选目标灰度位置直方图求出遮挡因子Occ
7b)将遮挡因子Occ与阈值Th=0.75进行比较:如果遮挡因子Occ小于阈值Th,表示目标没有发生遮挡,执行步骤(8);如果遮挡因子Occ大于阈值Th,表示目标发生遮挡,执行步骤(9);
(8)对没有发生遮挡的目标进行跟踪:
8a)在本帧搜索窗内按照四邻域搜索方法确定出多个匹配窗,从搜索窗的散射描述子Xt(i,j,k)中提取出这些匹配窗的散射描述子,求这些匹配窗散射描述子与上一帧跟踪目标模型Tt-1(i,j,k)的相关系数,记最大相关系数为αmax,最大相关系数对应的匹配窗即为本帧跟踪到的目标,最大相关系数对应的匹配窗位置即为本帧跟踪目标的位置;
8b)从本帧搜索窗的散射描述子Xt(i,j,k)中,提取出本帧跟踪目标的散射描述子作为本帧的跟踪目标模型St(i,j,k);
8c)根据最大相关系数αmax、上一帧跟踪目标模型Tt-1(i,j,k)和本帧跟踪目标模型St(i,j,k),通过线性加权方法升级跟踪目标模型,记升级后的跟踪目标模型为Tt(i,j,k):
Tt(i,j,k)=αmax·Tt-1(i,j,k)+(1-αmax)·St(i,j,k);
(9)对发生遮挡的目标进行遮挡处理:
9a)对步骤(1)所述的第一帧模板目标,提取其HSI彩色空间的H分量记为K1,并对骤(1)所述的第一帧模板目标进行下采样,提取其HSI彩色空间的H分量记为Q1
9b)在本帧搜索窗内遍历每个像素点得到N个样本目标,N为搜索窗的像素点总个数,提取这N个样本目标HSI彩色空间的H分量并记为Wn,n=1,2,...,N,并对这N个样本目标进行下采样,提取其HSI彩色空间的H分量记为Yn,n=1,2,...,N;
9c)分别求出第一帧模板目标的H分量K1与本帧搜索窗内N个样本目标的N个H分量Wn,n=1,2,...,N的相关系数,记最大相关系数为ρ1,并分别求第一帧下采样的模板目标的H分量Q1与本帧搜索窗内N个下采样样本目标的N个H分量Yn,n=1,2,...,N的相关系数,记最大相关系数为ρ2;如果ρ1和ρ2都小于阈值Tk=0.93,则表示目标发生真正遮挡,执行步骤(11);反之,取ρ1和ρ2两者中最大者对应的样本目标作为本帧的跟踪目标,该样本目标的位置即为本帧跟踪目标的位置,按照步骤8b)和步骤8c)的方法升级跟踪目标模型,执行步骤(10);
(10)输出本帧跟踪目标的位置;
(11)返回步骤(5)执行下一帧。
本发明与现有技术相比有以下优点:
第一,本发明首次在视频跟踪领域中引入非下采样散射变换方法,经过该变换得到的散射描述子携带更丰富、更全面的图像信息,使得提取到的图像特征更典型,从而增强了跟踪性能。
第二,本发明由于使用搜索匹配到的最大相关系数来自适应更新模型的方法,提高了跟踪的稳定性。
第三、本发明由于引入了遮挡判定的思想,当目标发生遮挡时,不更新跟踪目标模型,避免了错误模型的累积,并考虑目标尺度变小时对遮挡的影响,进一步增强遮挡判断的可靠性,提高了目标跟踪的准确性和鲁棒性。
附图说明
图1为本发明的流程图;
图2为输入的第一帧视频图像并人工标记出待跟踪目标的示意图;
图3为输入的当目标未发生尺度变化时的新一帧视频图像;
图4为对图3的跟踪结果图;
图5为输入的当目标发生尺度变化时的新一帧视频图像;
图6为对图5的跟踪结果图。
具体实施方式
参照图1,本发明具体实现步骤如下:
步骤1.输入一段视频的第一帧,并人工标记出待跟踪的目标,得到跟踪框的位置。
本实例输入的一段视频图像如图2,它为一段女孩滑滑板视频的第一帧,图2中矩形框框定的区域为要跟踪的目标。
步骤2.初始化待跟踪目标的运动位移量,并以跟踪框位置为中心获取搜索窗。
步骤3.建立第一帧的跟踪目标模型Tt(i,j,k):
3a)对搜索窗进行非下采样散射变换,得到搜索窗每个像素点的散射描述子Xt(i,j,k):
3a1)对搜索窗利用方向小波进行分解,得到12个方向的高频分量;
3a2)对上述这12个高频分量分别进行不同尺度平滑,得到12维含有低频信息的矩阵,即为搜索窗的散射描述子Xt(i,j,k),k=1,2,...,12;
其中,下标t表示当前正在处理的图像帧数,本实例取t=1;(i,j)表示像素点的位置坐标;
3b)从搜索窗的散射描述子Xt(i,j,k)中,根据模板目标在搜索窗中对应的位置,提取出模板目标的散射描述子作为第一帧的跟踪目标模型Tt(i,j,k)。
步骤4.计算第一帧模板目标的灰度位置直方图
4a)计算模板目标每个像素的归一化位置权值D(i,j):
D ( i , j ) = 1 - ( i - M ) 2 + ( j - N ) 2 M 2 + N 2 ,
其中,M、N分别表示模板目标的高和宽;
4b)将模板目标三原色颜色空间RGB的像素值转化到灰度空间,得到灰度空间像素点的灰度值C1(i,j):
C1(i,j)=256·(R(i,j)/16)+16·(G(i,j)/16)+B(i,j)/16,
其中,下标1表示第一帧图像,R(i,j)、G(i,j)、B(i,j)分别表示像素点(i,j)在RGB颜色空间的红色通道(R)、绿色通道(G)、蓝色通道(B)的像素值;
4c)根据像素点灰度值C1(i,j)和归一化位置权值D(i,j),计算得到第一帧模板目标的第l级的灰度位置直方图
H 1 l = Σ i = 1 M Σ j N D ( i , j ) · δ ( l , C 1 ( i , j ) ) ,
其中,上标l表示灰度级数,l=1,2,...,4096,δ是Kroneckerdelta函数。
步骤5.载入新一帧视频图像,根据上一帧跟踪框位置和运动位移量估计出候选目标,并记作本帧的候选目标。
步骤6.以候选目标的位置为中心,获取出50*50邻域涵盖的范围,将该范围区域定义为搜索窗,并记作本帧的搜索窗,对本帧搜索窗进行非下采样散射变换,得到本帧搜索窗的散射描述子Xt(i,j,k)。
步骤7.按照步骤4的方法,计算本帧候选目标的灰度位置直方图
步骤8.判断目标是否发生遮挡:
8a)根据第一帧模板目标的灰度位置直方图和本帧候选目标灰度位置直方图求遮挡因子Occ
8a1)计算本帧候选目标第l级的遮挡量Zl
Z l = H 1 l - H t l , H 1 l / H t l > ζ H 1 l , H t l = 0 0 , others ,
其中,ζ表示遮挡程度,取值为1.2;
8a2)对所有l级的遮挡量Zl求和,得到遮挡因子Occ
O cc = Σ l = 1 V H l ,
其中,V表示最大灰度级级数,取值为4096。
8b)将遮挡因子Occ与阈值Th=0.75进行比较:如果遮挡因子Occ小于阈值Th,表示目标没有发生遮挡,执行步骤9;如果遮挡因子Occ大于阈值Th,表示目标发生遮挡,执行步骤10。
步骤9.对没有发生遮挡的目标进行跟踪:
9a)记上一帧跟踪目标位置为起始点P0,以起始点P0为中心,在其上下左右4个方向,分别记录距离P0一个像素的点的位置,根据这4个点,获取出与模板目标大小相等的4个匹配窗;
9b)从搜索窗的散射描述子Xt(i,j,k)中提取出这4个匹配窗的散射描述子Vm(i,j,k),m=1,2,...,4;
9c)分别计算这4个匹配窗散射描述子Vm(i,j,k)与上一帧跟踪目标模型Tt-1(i,j,k)的相关系数βm:
β m = Σ i = 1 M Σ j = 1 N Σ k = 1 D T t - 1 ( i , j , k ) · V m ( i , j , k ) Σ i = 1 M Σ j = 1 N Σ d = 1 D T t - 1 ( i , j , k ) · T t - 1 ( i , j , k ) Σ i = 1 M Σ j = 1 N Σ d = 1 D V m ( i , j , k ) · V m ( i , j , k ) ,
其中,D表示散射描述子的维数,取值为12;
9d)从4个βm中选取出最大的一个,并记作最大相关系数α1,记最大相关系数对应的匹配窗位置为新的起始点P1
9e)以新的起始点P1为中心,按照步骤9a)~步骤9d)的方法迭代下去;当迭代到第g次时计算出的4个相关系数均小于αg-1时,迭代结束,并认为αg-1即为本帧求出的最大相关系数,记最大相关系数为αmax
9f)将最大相关系数对应的匹配窗作为本帧跟踪到的目标,将最大相关系数对应的匹配窗位置作为本帧跟踪目标的位置;
9g)从本帧搜索窗的散射描述子Xt(i,j,k)中,提取出本帧跟踪目标的散射描述子作为本帧的跟踪目标模型St(i,j,k);
9h)根据最大相关系数αmax、上一帧跟踪目标模型Tt-1(i,j,k)和本帧跟踪目标模型St(i,j,k),通过线性加权方法升级跟踪目标模型,记升级后的跟踪目标模型为Tt(i,j,k):
Tt(i,j,k)=αmax·Tt-1(i,j,k)+(1-αmax)·St(i,j,k)。
步骤10.对发生遮挡的目标进行遮挡处理:
10a)对步骤1所述的第一帧模板目标,提取其HSI彩色空间的H分量记为K1,其中,HSI彩色空间中的H分量表示图像的色调,S分量表示图像的饱和度,I分量表示图像的强度;
10b)对步骤1所述的第一帧模板目标进行下采样,提取其HSI彩色空间的H分量记为Q1
10c)在本帧搜索窗内遍历每个像素点得到U个样本目标,提取这U个样本目标HSI彩色空间的H分量并记为Wu,u=1,2,...,U,U为搜索窗的像素点总个数;
10d)对这U个样本目标进行下采样,提取其HSI彩色空间的H分量,记为Yu
10e)分别求出第一帧模板目标的H分量K1与本帧搜索窗内U个样本目标的U个H分量Wu的相关系数ρu
ρ u = Σ i = 1 M Σ j = 1 N K 1 ( i , j ) · W u ( i , j ) Σ i = 1 M Σ j = 1 N K 1 2 ( i , j ) Σ i = 1 M Σ j = 1 N W u 2 ( i , j ) ,
10f)从U个ρu中选取出的最大的一个相关系数,并记作最大相关系数η1
10g)按照步骤10e)的方法,分别求第一帧下采样的模板目标的H分量Q1与本帧搜索窗内U个下采样样本目标的U个H分量Yu的相关系数,记最大相关系数为η2
10h)将η1和η2与阈值Tk=0.93进行比较:
如果η1和η2都小于阈值Tk=0.93,则表示目标发生真正遮挡,执行步骤12;反之,将η1和η2两者中最大者对应的样本目标作为本帧的跟踪目标,该样本目标的位置即为本帧跟踪目标的位置,按照步骤9g)和步骤9h)的方法升级跟踪目标模型,执行步骤11。
步骤11.输出本帧跟踪目标的位置。
步骤12.循环执行步骤5~步骤11,直到视频结束。
本发明的效果可通过以下仿真进一步说明:
仿真1,载入新一帧视频图像,如图3。该图像中目标没有发生遮挡现象,首先获取搜索窗并提取其散射描述子,在搜索窗内按照四邻域搜索方法确定出多个匹配窗,并计算选取出这些匹配窗与上一帧跟踪目标模型的最大相关系数,最大相关系数对应的匹配窗即为本帧跟踪到的目标,跟踪结果如图4所示。
仿真2,载入新一帧视频图像,如图5。该图像中目标发生尺度变小现象,分别计算第一帧模板目标H分量与U个样本目标H分量的最大相关系数、第一帧下采样模板目标H分量与U个下采样样本目标H分量的最大相关系数,通过这两个最大相关系数判断是否发生真正遮挡,如果目标发生真正遮挡,执行下一帧,如果没有发生遮挡,更新跟踪模型,执行下一帧。本实例中目标只是尺度变小而未真正发生遮挡,其跟踪结果如图6所示。
从图4和图6的跟踪结果可见,本发明能够在目标发生漂移、遮挡、尺度变小、光照变化以及快速运动的情况下,实现准确、有效的跟踪。

Claims (5)

1.一种基于散射描述子的目标跟踪方法,包括以下步骤:
(1)输入一段视频的第一帧,人工标记出待跟踪目标,得到跟踪框位置,将标记出的待跟踪目标定义为模板目标;
(2)初始化待跟踪目标的运动位移量,并以跟踪框位置为中心获取搜索窗;
(3)建立第一帧跟踪目标模型Tt(i,j,k):
3a)对搜索窗进行非下采样散射变换,得到搜索窗每个像素点的散射描述子Xt(i,j,k),其中下标t表示当前正在处理的图像帧数,这里,t=1;(i,j)表示像素点的位置坐标;k表示散射描述子的维数,k=1,2,...,12;
3b)从搜索窗的散射描述子Xt(i,j,k)中,提取出模板目标的散射描述子作为第一帧的跟踪目标模型Tt(i,j,k);
(4)计算第一帧模板目标的灰度位置直方图其中下标1表示第一帧图像,上标l表示灰度级数,l=1,2,...,4096;
(5)载入新一帧视频图像,根据上一帧跟踪框位置和运动位移量估计出候选目标,并记作本帧的候选目标;
(6)以候选目标的位置为中心获取搜索窗,并记作本帧的搜索窗,对其进行非下采样散射变换,得到本帧搜索窗的散射描述子Xt(i,j,k);
(7)按照步骤(4)的方法,计算本帧候选目标的灰度位置直方图
(8)判断目标是否发生遮挡:
8a)根据第一帧模板目标的灰度位置直方图和本帧候选目标灰度位置直方图求出遮挡因子Occ
8b)将遮挡因子Occ与阈值Th=0.75进行比较:如果遮挡因子Occ小于阈值Th,表示目标没有发生遮挡,执行步骤(9);如果遮挡因子Occ大于阈值Th,表示目标发生遮挡,执行步骤(10);
(9)对没有发生遮挡的目标进行跟踪:
9a)在本帧搜索窗内按照四邻域搜索方法确定出多个匹配窗,从搜索窗的散射描述子Xt(i,j,k)中提取出这些匹配窗的散射描述子,求这些匹配窗散射描述子与上一帧跟踪目标模型Tt-1(i,j,k)的相关系数,记最大相关系数为αmax,最大相关系数对应的匹配窗即为本帧跟踪到的目标,最大相关系数对应的匹配窗位置即为本帧跟踪目标的位置;
9b)从本帧搜索窗的散射描述子Xt(i,j,k)中,提取出本帧跟踪目标的散射描述子作为本帧的跟踪目标模型St(i,j,k);
9c)根据最大相关系数αmax、上一帧跟踪目标模型Tt-1(i,j,k)和本帧跟踪目标模型St(i,j,k),通过线性加权方法升级跟踪目标模型,记升级后的跟踪目标模型为Tt(i,j,k):
Tt(i,j,k)=αmax·Tt-1(i,j,k)+(1-αmax)·St(i,j,k);
(10)对发生遮挡的目标进行遮挡处理:
10a)对步骤(1)所述的第一帧模板目标,提取其HSI彩色空间的H分量记为K1,并对步骤(1)所述的第一帧模板目标进行下采样,提取其HSI彩色空间的H分量记为Q1
10b)在本帧搜索窗内遍历每个像素点得到U个样本目标,提取这U个样本目标HSI彩色空间的H分量并记为Wu,u=1,2,...,U,U为搜索窗的像素点总个数;并对这U个样本目标进行下采样,提取其HSI彩色空间的H分量记为Yu
10c)分别求出第一帧模板目标的H分量K1与本帧搜索窗内U个样本目标的U个H分量Wu的相关系数ρu,从U个ρu中选取出最大的一个相关系数,并记作最大相关系数η1
10d)按照步骤10c)的方法,分别求第一帧下采样的模板目标的H分量Q1与本帧搜索窗内U个下采样样本目标的U个H分量Yu的相关系数,记最大相关系数为η2
10e)将η1和η2与阈值Tk=0.93进行比较:
如果η1和η2都小于阈值Tk=0.93,则表示目标发生真正遮挡,执行步骤(12);反之,取η1和η2两者中最大者对应的样本目标作为本帧的跟踪目标,该样本目标的位置即为本帧跟踪目标的位置,按照步骤9b)和步骤9c)的方法升级跟踪目标模型,执行步骤(11);
(11)输出本帧跟踪目标的位置;
(12)返回步骤(5)执行下一帧。
2.根据权利要求1所述的基于散射描述子的目标跟踪方法,其中步骤(4)所述的计算第一帧模板目标的灰度位置直方图按如下步骤:
2a)计算模板目标每个像素的归一化位置权值D(i,j):
D ( i , j ) = 1 - ( i - M ) 2 + ( j - N ) 2 M 2 + N 2 ,
其中,(i,j)表示像素点的位置坐标,M、N分别表示模板目标的高和宽;
2b)根据下式,将模板目标三原色颜色空间RGB的像素值转化到灰度空间,得到灰度空间像素点的灰度值C1(i,j):
C1(i,j)=256·(R(i,j)/16)+16·(G(i,j)/16)+B(i,j)/16,
其中,R(i,j)、G(i,j)、B(i,j)分别为像素点(i,j)在RGB颜色空间的红色通道(R)、绿色通道(G)、蓝色通道(B)的像素值;
2c)根据像素点灰度值C1(i,j)和归一化位置权值D(i,j),计算得到第一帧模板目标的第l级的灰度位置直方图
H 1 l = Σ i = 1 M Σ j N D ( i , j ) · δ ( l , C 1 ( i , j ) ) ,
其中,下标1表示第一帧图像,上标l表示灰度级级数,l=1,2,...,4096;δ是Kroneckerdelta函数。
3.根据权利要求1所述的基于散射描述子的目标跟踪方法,其中步骤9a)所述的根据四邻域搜索方法,计算匹配窗与目标模型的最大相关系数αmax,按如下步骤:
9a1)记上一帧跟踪目标位置为起始点P0,以起始点P0为中心,在其上下左右4个方向,分别记录距离P0一个像素的点的位置,根据这4个点,获取出与模板目标大小相等的4个匹配窗;
9a2)从搜索窗的散射描述子Xt(i,j,k)中提取出这4个匹配窗的散射描述子Vm(i,j,k),m=1,2,...,4:
9a3)分别计算这4个匹配窗散射描述子Vm(i,j,k)与上一帧跟踪目标模型Tt-1(i,j,k)的相关系数βm
β m = Σ i = 1 M Σ j = 1 N Σ k = 1 D T t - 1 ( i , j , k ) · V m ( i , j , k ) Σ i = 1 M Σ j = 1 N Σ d = 1 D T t - 1 ( i , j , k ) · T t - 1 ( i , j , k ) Σ i = 1 M Σ j = 1 N Σ d = 1 D V m ( i , j , k ) · V m ( i , j , k ) ,
其中,D表示散射描述子的维数,取值为12;
9a4)从4个βm中选取出最大的一个,并记作最大相关系数α1,记最大相关系数对应的匹配窗位置为新的起始点P1
9a5)以新的起始点P1为中心,按照步骤9a1)-步骤9a4))的方法迭代下去;当迭代到第g次时计算出的4个相关系数均小于αg-1,迭代结束,并认为αg-1即为本帧求出的最大相关系数,记最大相关系数为αmax
4.根据权利要求1所述的基于散射描述子的目标跟踪方法,其中步骤8a)所述的根据第一帧模板目标的灰度位置直方图和本帧候选目标灰度位置直方图求遮挡因子Occ,按如下步骤:
4a)计算本帧候选目标第l级的遮挡量Zl
Z l = H 1 l - H t l , H 1 l / H t l > ζ H 1 l , H t l = 0 0 , o t h e r s ,
其中,ζ表示遮挡程度,取值为1.2;
4b)对所有l级的遮挡量Zl求和,得到遮挡因子Occ
O c c = Σ l = 1 V H l ,
其中,V表示最大灰度级级数,取值为4096。
5.根据权利要求1所述的基于散射描述子的目标跟踪方法,其中步骤10c)所述的计算第一帧模板目标的H分量K1与本帧搜索窗内样本目标的H分量Wu,的相关系数ρu,按如下公式计算:
ρ u = Σ i = 1 M Σ j = 1 N K 1 ( i , j ) · W u ( i , j ) Σ i = 1 M Σ j = 1 N K 1 2 ( i , j ) Σ i = 1 M Σ j = 1 N W u 2 ( i , j ) ,
其中,u=1,2,...,U,U为搜索窗的像素点总个数。
CN201310405039.7A 2013-09-08 2013-09-08 基于散射描述子的目标跟踪方法 Expired - Fee Related CN103456030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310405039.7A CN103456030B (zh) 2013-09-08 2013-09-08 基于散射描述子的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310405039.7A CN103456030B (zh) 2013-09-08 2013-09-08 基于散射描述子的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN103456030A CN103456030A (zh) 2013-12-18
CN103456030B true CN103456030B (zh) 2016-04-13

Family

ID=49738357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310405039.7A Expired - Fee Related CN103456030B (zh) 2013-09-08 2013-09-08 基于散射描述子的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103456030B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780555A (zh) * 2016-12-01 2017-05-31 中科唯实科技(北京)有限公司 一种高速稳健的运动目标跟踪方法
CN108875547B (zh) * 2018-04-16 2022-06-17 中国科学院信息工程研究所 一种面向资源受限环境的目标跟踪方法及装置
CN109271865B (zh) * 2018-08-17 2021-11-09 西安电子科技大学 基于散射变换多层相关滤波的运动目标跟踪方法
CN109543610B (zh) * 2018-11-22 2022-11-11 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
CN109743497B (zh) * 2018-12-21 2020-06-30 创新奇智(重庆)科技有限公司 一种数据集采集方法、系统及电子装置
CN109919068B (zh) * 2019-02-27 2021-03-23 中国民用航空总局第二研究所 基于视频分析适应密集场景人流实时监测方法
CN110659566B (zh) * 2019-08-15 2020-12-18 重庆特斯联智慧科技股份有限公司 一种遮挡状态下的目标跟踪方法及系统
CN111191555B (zh) * 2019-12-24 2022-05-03 重庆邮电大学 一种结合高低空间频率特征的目标跟踪方法、介质及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110111106A (ko) * 2010-04-02 2011-10-10 삼성테크윈 주식회사 객체추적 및 로이터링 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A wavelet subspace method for real-time face tracking;Rogerio S. Feris 等;《Real-Time Imaging》;20040917;339–350 *
Classification with Scattering Operators;Joan Bruna 等;《Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2011 IEEE Conference on》;20110625;第10卷(第6期);1561-1566 *

Also Published As

Publication number Publication date
CN103456030A (zh) 2013-12-18

Similar Documents

Publication Publication Date Title
CN103456030B (zh) 基于散射描述子的目标跟踪方法
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN102881022B (zh) 基于在线学习的遮挡目标跟踪方法
CN102298781B (zh) 基于颜色和梯度特征的运动阴影检测方法
CN102831618B (zh) 基于霍夫森林的视频目标跟踪方法
CN104820997B (zh) 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
CN107689052B (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN107403175A (zh) 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN102609720B (zh) 一种基于位置校正模型的行人检测方法
CN101976504B (zh) 一种基于颜色空间信息的多车辆视频跟踪方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN110738690A (zh) 一种基于多目标追踪框架的无人机视频中车速校正方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN103488993A (zh) 一种基于fast的人群异常行为识别方法
CN109886079A (zh) 一种车辆检测与跟踪方法
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN103150577A (zh) 基于粒子群优化的高光谱遥感影像自适应波段选择方法
CN104683802A (zh) 一种基于h.264/avc压缩域的运动目标跟踪的方法
Wang et al. MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection
CN109345559B (zh) 基于样本扩充和深度分类网络的运动目标跟踪方法
CN103226825B (zh) 基于低秩稀疏模型的遥感图像变化检测方法
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN111667461B (zh) 一种输电线路异常目标检测方法
CN104200226B (zh) 基于机器学习的粒子滤波目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160413

Termination date: 20210908

CF01 Termination of patent right due to non-payment of annual fee