CN107644430A - 基于自适应特征融合的目标跟踪 - Google Patents
基于自适应特征融合的目标跟踪 Download PDFInfo
- Publication number
- CN107644430A CN107644430A CN201710622389.7A CN201710622389A CN107644430A CN 107644430 A CN107644430 A CN 107644430A CN 201710622389 A CN201710622389 A CN 201710622389A CN 107644430 A CN107644430 A CN 107644430A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msup
- target
- mfrac
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
本发明提出了一种自适应特征融合的目标跟踪方法,包括:在第一帧图像中,初始化目标区域,构造位置滤波器和尺度滤波器;在目标周围提取检测样本,分别计算方向梯度直方图(Histogram of Oriented Gradient,HOG)特征以及颜色(Color Name,CN)特征,通过位置滤波器获得响应值;根据响应值计算特征权重,归一化权重系数,融合特征响应值,选取响应值最大的点作为目标的中心位置;根据目标响应判断是否出现遮挡,遮挡情况下,只更新尺度滤波器,不更新目标位置滤波器,循环处理,获取每一帧的目标位置。本发明的优点在于:提出了一种自适应特征融合的方法,并且设计了一种基于平均峰相关能量(Average Peak‑to‑Correlation Energy,APCE)的模型更新策略,显著提高了遮挡情况下目标的跟踪精度和鲁棒性。
Description
技术领域
本发明属于图像处理和计算机视觉领域,具体涉及一种自适应特征融合的目标跟踪方法。
技术背景
在计算机视觉中,目标跟踪是一个热门的研究领域,可以应用到视频监控、自动监测等多个人机交互领域。虽然近几年研究人员提出了许多跟踪算法,但面临目标外观变化、快速运动、尺度变换、遮挡等问题,很难达到实时高效稳定的跟踪。
传统的跟踪方法通过构建复杂的外观模型,抽取大量的学习样本,产生庞大的计算量,很难达到实时跟踪。相关滤波类方法绕过构建复杂的外观模型与大量学习样本,仅通过前一帧的跟踪结果作为学习样本就可以跟踪,不仅可以达到实时跟踪,也能保证跟踪精度。
相关滤波类方法如果利用有效的样本特征可以显著的提高跟踪精度,近些年不断涌现大量优秀的特征(HOG特征、CN特征、深度特征等)使跟踪效果不断提高,不同优秀特征的融合也能形成优势互补,提高跟踪精度。
发明内容
本发明提出了一种自适应特征融合的跟踪方法,可以显著提高跟踪精度。并且融入了遮挡判断机制,对遮挡的目标达到准确跟踪。
本发明技术解决方案如下:
基于自适应特征融合的目标跟踪,其特征在于:包括如下步骤:
步骤1:初始化目标并选取目标区域;
步骤2:在目标区域选取样本,计算HOG特征以及CN特征,构造位置高斯滤波器、尺度滤波器;
步骤3:计算检测样本的HOG特征以及CN特征,并进行加余弦窗处理;
步骤4:多通道特征求和,分别得到不同特征的高斯响应值;
步骤5:分别根据响应值计算特征权重。归一化权重系数,融合特征响应值;
步骤6:对求得响应值进行排序,选取最大值对应的样本区域作即为目标位置;
步骤7:在目标周围提取尺度样本,计算特征后,通过尺度滤波器,获取尺度响应;
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
步骤9:更新尺度滤波器模型;
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
步骤11:更新位置滤波器模型;
步骤12:重复步骤3至11直至跟踪结束。
所述步骤1为:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h]。
其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高。
目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt。
所述步骤2为:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F。
其中M和N表示目标区域Pt的大小,L表示特征通道的个数。
第一帧选取标准偏差构造位置滤波器输出,即
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
选取标准差作为尺度滤波器输出,即:
其中s表示目标当前的尺度,s'表示样本尺度:
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数。
作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度。
d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母。
完成滤波器的构造。
所述步骤3为:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28。
CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10。
对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
处理后得到目标区域特征
所述步骤4为:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数。
求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2。
所述步骤5为:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面。
我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
得到特征融合后的响应值。
所述步骤6为:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的目标位置,经过坐标变换,得到目标在整幅图像中的位置。
所述步骤7为:
以新目标位置为中心按照权利要求书3所述公式:
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N。
按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征。
每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs。
所述步骤8为:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
所述步骤9为:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
所述步骤10为:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ1(θ1=0.2)
APCE<θ2(θ2=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
所述步骤11为:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
相应的Bt-1表示前一帧的滤波器参数。
所述步骤12为:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。
附图说明
图1是本发明基于自适应特征融合的目标跟踪方法的流程图。
图2是在重叠阈值条件下对50个测试视频的时间鲁棒性评估。
图3是在重叠阈值条件下对50个测试视频的空间鲁棒性评估。
图4是在位置误差阈值条件下对50个测试视频的时间鲁棒性评估。
图5是在位置误差阈值条件下对50个测试视频的空间鲁棒性评估。
图6是测试比较算法明细。
具体实施方法
为了使本发明的目的、技术路线和有益效果更加清楚,下面将结合附图和具体实施方式,进一步阐述本发明。
基于自适应特征融合的目标跟踪方法实施过程如图1所示,包括如下步骤:
步骤1:初始化目标并选取目标区域;
具体步骤:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h]。
其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高。
目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt。
步骤2:在目标区域选取样本计算HOG特征以及CN特征,构造高斯滤波器1和高斯滤波器2以及尺度滤波器;
具体步骤:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F。
其中M和N表示目标区域Pt的大小,L表示特征通道的个数。
第一帧选取标准偏差构造位置滤波器输出,即
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
选取标准差作为尺度滤波器输出,即:
其中s表示目标当前的尺度,s'表示样本尺度:
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数。
作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度。
d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母。
完成滤波器的构造。
步骤3:计算检测样本的HOG特征以及CN特征,加余弦窗处理;
具体步骤:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28。
CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10。
对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
处理后得到目标区域特征
步骤4:多通道特征求和,分别得到高斯响应值1、高斯响应值2;
具体步骤:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数。
求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2。
步骤5:分别根据响应值计算特征权重。归一化权重系数,融合特征响应值;
具体步骤:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面。
我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
得到特征融合后的响应值。
步骤6:求得响应值最大即为目标位置;
具体步骤:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的目标位置,经过坐标变换,得到目标在整幅图像中的位置。
步骤7:在目标周围提取尺度样本,计算特征后通过尺度滤波器;
具体步骤:
以新目标位置为中心按照权利要求书3所述公式:
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N。
按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征。
每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs。
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
具体步骤:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
步骤9:更新尺度滤波器模型;
具体步骤:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
具体步骤:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ1(θ1=0.2)
APCE<θ2(θ2=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
步骤11:更新位置滤波器模型;
具体步骤:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
相应的Bt-1表示前一帧的滤波器参数。
步骤12:重复步骤3至11直至跟踪结束。
具体步骤:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。
Claims (13)
1.基于自适应特征融合的目标跟踪,其特征在于:包括如下步骤:
步骤1:初始化目标并选取目标区域;
步骤2:在目标区域选取样本,计算HOG特征以及CN特征,构造位置高斯滤波器、尺度滤波器;
步骤3:计算检测样本的HOG特征以及CN特征,并进行加余弦窗处理;
步骤4:多通道特征求和,分别得到不同特征的高斯响应值;
步骤5:根据响应值计算特征权重,归一化权重系数,融合特征响应值;
步骤6:对响应值进行排序,选取最大值对应的样本区域作为目标位置;
步骤7:在目标周围提取尺度样本,计算特征后,通过尺度滤波器,获取尺度响应;
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
步骤9:更新尺度滤波器模型;
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
步骤11:更新位置滤波器模型;
步骤12:重复步骤3至11直至跟踪结束。
2.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤1具体为:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h],其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高,目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt。
3.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤2具体包括:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F,其中M和N表示目标区域Pt的大小,L表示特征通道的个数。第一帧选取标准偏差构造位置滤波器输出,即:
<mrow>
<mi>g</mi>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>-</mo>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。选取标准差构造尺度滤波器输出,即:
<mrow>
<msup>
<mi>g</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<msup>
<mi>s</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中s表示目标当前的尺度,s'表示样本尺度:
<mrow>
<msup>
<mi>s</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>P</mi>
<mo>&times;</mo>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>R</mi>
<mo>,</mo>
<mi>n</mi>
<mo>&Element;</mo>
<mo>{</mo>
<mo>&lsqb;</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>}</mo>
<mo>,</mo>
</mrow>
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
<mrow>
<mi>&epsiv;</mi>
<mo>=</mo>
<mo>|</mo>
<mo>|</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</munderover>
<msup>
<mi>h</mi>
<mi>l</mi>
</msup>
<mo>*</mo>
<msup>
<mi>f</mi>
<mi>l</mi>
</msup>
<mo>-</mo>
<mi>g</mi>
<mo>|</mo>
<mo>|</mo>
<mo>+</mo>
<mi>&lambda;</mi>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msup>
<mi>h</mi>
<mi>l</mi>
</msup>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数,作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
<mrow>
<msup>
<mi>H</mi>
<mi>l</mi>
</msup>
<mo>=</mo>
<mfrac>
<mrow>
<mover>
<mi>G</mi>
<mo>&OverBar;</mo>
</mover>
<msup>
<mi>F</mi>
<mi>l</mi>
</msup>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</msubsup>
<mover>
<msup>
<mi>F</mi>
<mi>k</mi>
</msup>
<mo>&OverBar;</mo>
</mover>
<msup>
<mi>F</mi>
<mi>k</mi>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<msup>
<mi>A</mi>
<mi>l</mi>
</msup>
<mi>B</mi>
</mfrac>
</mrow>
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度,d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母,完成滤波器的构造。
4.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤3具体为:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本为M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28,CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10,对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置,处理后得到目标区域特征
5.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤4具体为:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
<mrow>
<mi>y</mi>
<mo>=</mo>
<msup>
<mi>F</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>{</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</msubsup>
<mover>
<msup>
<mi>A</mi>
<mi>l</mi>
</msup>
<mo>&OverBar;</mo>
</mover>
<msup>
<mi>Z</mi>
<mi>l</mi>
</msup>
</mrow>
<mrow>
<mi>B</mi>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mfrac>
<mo>}</mo>
</mrow>
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数,求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2。
6.根据权利要求1基于自适应特征融合的目标跟踪,其特征在于:所述步骤5为:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面,我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
<mrow>
<msub>
<mi>w</mi>
<mi>d</mi>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&rho;</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mn>2</mn>
</mrow>
</msub>
<mo>/</mo>
<msub>
<mi>&rho;</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
<mrow>
<mi>y</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mn>1</mn>
<mi>max</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mn>1</mn>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>y</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>2</mn>
</mrow>
</msub>
</mrow>
</mfrac>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>2</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mn>1</mn>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>y</mi>
<mrow>
<mn>2</mn>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>d</mi>
<mn>2</mn>
</mrow>
</msub>
</mrow>
</mfrac>
<msub>
<mi>y</mi>
<mn>2</mn>
</msub>
</mrow>
其中wd1表示HOG特征的通道权重;wd2表示CN特征通道的权重,得到特征融合后的响应值。
7.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤6为:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的标位置,经过坐标变换,得到目标在整幅图像中的位置。
8.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤7为:
以新目标位置为中心按照权利要求书3所述公式:
<mrow>
<msup>
<mi>s</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>P</mi>
<mo>&times;</mo>
<msup>
<mi>a</mi>
<mi>n</mi>
</msup>
<mi>R</mi>
<mo>,</mo>
<mi>n</mi>
<mo>&Element;</mo>
<mo>{</mo>
<mo>&lsqb;</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</mfrac>
<mo>&rsqb;</mo>
<mo>}</mo>
</mrow>
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N,按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征,每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs。
9.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤8为:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
<mrow>
<msub>
<mi>y</mi>
<mi>s</mi>
</msub>
<mo>=</mo>
<msup>
<mi>F</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>{</mo>
<mfrac>
<mrow>
<mover>
<mi>A</mi>
<mo>&OverBar;</mo>
</mover>
<msub>
<mi>Z</mi>
<mi>s</mi>
</msub>
</mrow>
<mrow>
<mi>B</mi>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mfrac>
<mo>}</mo>
</mrow>
</mrow>
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
10.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤9为:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
<mrow>
<msubsup>
<mi>A</mi>
<mi>t</mi>
<mi>s</mi>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&eta;</mi>
<mo>)</mo>
</mrow>
<msubsup>
<mi>A</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</msubsup>
<mo>+</mo>
<mi>&eta;</mi>
<mover>
<msub>
<mi>G</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
</mrow>
<mrow>
<msubsup>
<mi>B</mi>
<mi>t</mi>
<mi>s</mi>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&eta;</mi>
<mo>)</mo>
</mrow>
<msubsup>
<mi>B</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</msubsup>
<mo>+</mo>
<mi>&eta;</mi>
<mover>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
</mrow>
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
11.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤10为:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
<mrow>
<mi>A</mi>
<mi>P</mi>
<mi>C</mi>
<mi>E</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<mi>m</mi>
<mi>e</mi>
<mi>a</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
</mrow>
</munder>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ1(θ1=0.2)
APCE<θ2(θ2=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
12.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤11为:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
<mrow>
<msubsup>
<mi>A</mi>
<mi>t</mi>
<mi>l</mi>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&eta;</mi>
<mo>)</mo>
</mrow>
<msubsup>
<mi>A</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mi>l</mi>
</msubsup>
<mo>+</mo>
<mi>&eta;</mi>
<mover>
<msub>
<mi>G</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<msubsup>
<mi>F</mi>
<mi>t</mi>
<mi>l</mi>
</msubsup>
</mrow>
<mrow>
<msub>
<mi>B</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&eta;</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>B</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<mi>&eta;</mi>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</munderover>
<mover>
<msubsup>
<mi>F</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mo>&OverBar;</mo>
</mover>
<msubsup>
<mi>F</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
相应的Bt-1表示前一帧的滤波器参数。
13.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤12为:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710622389.7A CN107644430A (zh) | 2017-07-27 | 2017-07-27 | 基于自适应特征融合的目标跟踪 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710622389.7A CN107644430A (zh) | 2017-07-27 | 2017-07-27 | 基于自适应特征融合的目标跟踪 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107644430A true CN107644430A (zh) | 2018-01-30 |
Family
ID=61110675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710622389.7A Pending CN107644430A (zh) | 2017-07-27 | 2017-07-27 | 基于自适应特征融合的目标跟踪 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107644430A (zh) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108229432A (zh) * | 2018-01-31 | 2018-06-29 | 广州市动景计算机科技有限公司 | 人脸标定方法及装置 |
CN108364305A (zh) * | 2018-02-07 | 2018-08-03 | 福州大学 | 基于改进型dsst的车载摄像视频目标跟踪方法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108596951A (zh) * | 2018-03-30 | 2018-09-28 | 西安电子科技大学 | 一种融合特征的目标跟踪方法 |
CN108665482A (zh) * | 2018-04-18 | 2018-10-16 | 南京邮电大学 | 一种基于vgg深度网络的视觉目标跟踪方法 |
CN108665481A (zh) * | 2018-03-27 | 2018-10-16 | 西安电子科技大学 | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108734139A (zh) * | 2018-05-24 | 2018-11-02 | 辽宁工程技术大学 | 基于特征融合及svd自适应模型更新的相关滤波跟踪方法 |
CN108830879A (zh) * | 2018-05-29 | 2018-11-16 | 上海大学 | 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法 |
CN108958296A (zh) * | 2018-06-05 | 2018-12-07 | 西安工业大学 | 一种无人机自主跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109255799A (zh) * | 2018-07-26 | 2019-01-22 | 华中科技大学 | 一种基于空间自适应相关滤波器的目标跟踪方法及系统 |
CN109255800A (zh) * | 2018-08-03 | 2019-01-22 | 浙江工业大学 | 一种震动检测和参数自适应的对冲方法 |
CN109285179A (zh) * | 2018-07-26 | 2019-01-29 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
CN109410247A (zh) * | 2018-10-16 | 2019-03-01 | 中国石油大学(华东) | 一种多模板和自适应特征选择的视频跟踪算法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN109671102A (zh) * | 2018-12-03 | 2019-04-23 | 华中科技大学 | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 |
CN109685832A (zh) * | 2018-12-26 | 2019-04-26 | 山东创科自动化科技有限公司 | 一种运动目标跟踪方法、装置及计算机设备 |
CN109740448A (zh) * | 2018-12-17 | 2019-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN109816689A (zh) * | 2018-12-18 | 2019-05-28 | 昆明理工大学 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
CN109887001A (zh) * | 2019-01-31 | 2019-06-14 | 中国科学院深圳先进技术研究院 | 目标跟踪方法、装置、计算机设备及存储介质 |
CN110147768A (zh) * | 2019-05-22 | 2019-08-20 | 云南大学 | 一种目标跟踪方法及装置 |
CN110276782A (zh) * | 2018-07-09 | 2019-09-24 | 西北工业大学 | 一种结合空谱特征和相关滤波的高光谱目标跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110544267A (zh) * | 2019-07-24 | 2019-12-06 | 中国地质大学(武汉) | 一种自适应选择特征的相关滤波跟踪方法 |
CN110660077A (zh) * | 2019-09-12 | 2020-01-07 | 昆明理工大学 | 一种融合多个特征的多尺度目标跟踪方法 |
CN110766723A (zh) * | 2019-10-22 | 2020-02-07 | 湖南大学 | 一种基于颜色直方图相似性的无人机目标跟踪方法及系统 |
CN110968107A (zh) * | 2019-10-25 | 2020-04-07 | 深圳市道通智能航空技术有限公司 | 一种降落控制方法、飞行器及存储介质 |
CN111105444A (zh) * | 2019-12-31 | 2020-05-05 | 哈尔滨工程大学 | 一种适用于水下机器人目标抓取的连续跟踪方法 |
CN111260738A (zh) * | 2020-01-08 | 2020-06-09 | 天津大学 | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 |
CN111292358A (zh) * | 2020-03-10 | 2020-06-16 | 南京理工大学 | 基于判别式尺度空间跟踪算法的相关滤波自适应方法 |
CN111507999A (zh) * | 2019-01-30 | 2020-08-07 | 北京四维图新科技股份有限公司 | 一种基于fdsst算法的目标追踪方法及装置 |
CN111968153A (zh) * | 2020-07-16 | 2020-11-20 | 新疆大学 | 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统 |
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112767437A (zh) * | 2020-12-30 | 2021-05-07 | 大连海事大学 | 基于kcf自适应多特征融合滤波水面无人船跟踪方法、系统及存储介质 |
CN112785622A (zh) * | 2020-12-30 | 2021-05-11 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113537253A (zh) * | 2021-08-23 | 2021-10-22 | 北京环境特性研究所 | 一种红外图像目标检测方法、装置、计算设备及存储介质 |
CN113643327A (zh) * | 2021-08-18 | 2021-11-12 | 江西理工大学 | 一种响应置信度多特征融合的核相关滤波目标跟踪方法 |
CN115018885A (zh) * | 2022-08-05 | 2022-09-06 | 四川迪晟新达类脑智能技术有限公司 | 一种适用于边缘设备的多尺度目标跟踪算法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952288A (zh) * | 2017-03-31 | 2017-07-14 | 西北工业大学 | 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 |
-
2017
- 2017-07-27 CN CN201710622389.7A patent/CN107644430A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952288A (zh) * | 2017-03-31 | 2017-07-14 | 西北工业大学 | 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 |
Non-Patent Citations (3)
Title |
---|
DANELLJAN MARTIN等: "《Accurate Scale Estimation for Robust Visual Tracking》", 《BRITISH MACHINE VISION CONFERENCE》 * |
LUKEZIC ALAN等: "《Discriminative Correlation Filter With Channel and Spatial Reliability》", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
WANG MENGMENG等: "《Large Margin Object Tracking With Circulant Feature Maps》", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578423B (zh) * | 2017-09-15 | 2020-04-28 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108229432A (zh) * | 2018-01-31 | 2018-06-29 | 广州市动景计算机科技有限公司 | 人脸标定方法及装置 |
CN108364305A (zh) * | 2018-02-07 | 2018-08-03 | 福州大学 | 基于改进型dsst的车载摄像视频目标跟踪方法 |
CN108364305B (zh) * | 2018-02-07 | 2021-05-18 | 福州大学 | 基于改进型dsst的车载摄像视频目标跟踪方法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108549839B (zh) * | 2018-03-13 | 2021-09-28 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108665481A (zh) * | 2018-03-27 | 2018-10-16 | 西安电子科技大学 | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 |
CN108596951A (zh) * | 2018-03-30 | 2018-09-28 | 西安电子科技大学 | 一种融合特征的目标跟踪方法 |
CN108665482A (zh) * | 2018-04-18 | 2018-10-16 | 南京邮电大学 | 一种基于vgg深度网络的视觉目标跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108734139B (zh) * | 2018-05-24 | 2021-12-14 | 辽宁工程技术大学 | 基于特征融合及svd自适应模型更新的相关滤波跟踪方法 |
CN108734139A (zh) * | 2018-05-24 | 2018-11-02 | 辽宁工程技术大学 | 基于特征融合及svd自适应模型更新的相关滤波跟踪方法 |
CN108830879A (zh) * | 2018-05-29 | 2018-11-16 | 上海大学 | 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法 |
CN108958296A (zh) * | 2018-06-05 | 2018-12-07 | 西安工业大学 | 一种无人机自主跟踪方法 |
CN108986140B (zh) * | 2018-06-26 | 2022-02-01 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN110276782A (zh) * | 2018-07-09 | 2019-09-24 | 西北工业大学 | 一种结合空谱特征和相关滤波的高光谱目标跟踪方法 |
CN110276782B (zh) * | 2018-07-09 | 2022-03-11 | 西北工业大学 | 一种结合空谱特征和相关滤波的高光谱目标跟踪方法 |
CN109166139B (zh) * | 2018-07-18 | 2022-03-22 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109285179A (zh) * | 2018-07-26 | 2019-01-29 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
CN109255799B (zh) * | 2018-07-26 | 2021-07-27 | 华中科技大学 | 一种基于空间自适应相关滤波器的目标跟踪方法及系统 |
CN109285179B (zh) * | 2018-07-26 | 2021-05-14 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
CN109255799A (zh) * | 2018-07-26 | 2019-01-22 | 华中科技大学 | 一种基于空间自适应相关滤波器的目标跟踪方法及系统 |
CN109255800B (zh) * | 2018-08-03 | 2021-08-03 | 浙江工业大学 | 一种震动检测和参数自适应的对冲方法 |
CN109255800A (zh) * | 2018-08-03 | 2019-01-22 | 浙江工业大学 | 一种震动检测和参数自适应的对冲方法 |
CN109410247A (zh) * | 2018-10-16 | 2019-03-01 | 中国石油大学(华东) | 一种多模板和自适应特征选择的视频跟踪算法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN109671102A (zh) * | 2018-12-03 | 2019-04-23 | 华中科技大学 | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 |
CN109671102B (zh) * | 2018-12-03 | 2021-02-05 | 华中科技大学 | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 |
CN109740448B (zh) * | 2018-12-17 | 2022-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN109740448A (zh) * | 2018-12-17 | 2019-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN109816689A (zh) * | 2018-12-18 | 2019-05-28 | 昆明理工大学 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
CN109685832A (zh) * | 2018-12-26 | 2019-04-26 | 山东创科自动化科技有限公司 | 一种运动目标跟踪方法、装置及计算机设备 |
CN111507999B (zh) * | 2019-01-30 | 2023-07-18 | 北京四维图新科技股份有限公司 | 一种基于fdsst算法的目标追踪方法及装置 |
CN111507999A (zh) * | 2019-01-30 | 2020-08-07 | 北京四维图新科技股份有限公司 | 一种基于fdsst算法的目标追踪方法及装置 |
CN109887001A (zh) * | 2019-01-31 | 2019-06-14 | 中国科学院深圳先进技术研究院 | 目标跟踪方法、装置、计算机设备及存储介质 |
CN110147768A (zh) * | 2019-05-22 | 2019-08-20 | 云南大学 | 一种目标跟踪方法及装置 |
CN110147768B (zh) * | 2019-05-22 | 2021-05-28 | 云南大学 | 一种目标跟踪方法及装置 |
CN110544267B (zh) * | 2019-07-24 | 2022-03-15 | 中国地质大学(武汉) | 一种自适应选择特征的相关滤波跟踪方法 |
CN110544267A (zh) * | 2019-07-24 | 2019-12-06 | 中国地质大学(武汉) | 一种自适应选择特征的相关滤波跟踪方法 |
CN110428450B (zh) * | 2019-08-01 | 2021-11-16 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110660077A (zh) * | 2019-09-12 | 2020-01-07 | 昆明理工大学 | 一种融合多个特征的多尺度目标跟踪方法 |
CN110766723A (zh) * | 2019-10-22 | 2020-02-07 | 湖南大学 | 一种基于颜色直方图相似性的无人机目标跟踪方法及系统 |
CN110968107A (zh) * | 2019-10-25 | 2020-04-07 | 深圳市道通智能航空技术有限公司 | 一种降落控制方法、飞行器及存储介质 |
CN111105444A (zh) * | 2019-12-31 | 2020-05-05 | 哈尔滨工程大学 | 一种适用于水下机器人目标抓取的连续跟踪方法 |
CN111260738A (zh) * | 2020-01-08 | 2020-06-09 | 天津大学 | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 |
CN111292358A (zh) * | 2020-03-10 | 2020-06-16 | 南京理工大学 | 基于判别式尺度空间跟踪算法的相关滤波自适应方法 |
CN111968153A (zh) * | 2020-07-16 | 2020-11-20 | 新疆大学 | 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统 |
CN112132855B (zh) * | 2020-09-22 | 2022-05-20 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112767437A (zh) * | 2020-12-30 | 2021-05-07 | 大连海事大学 | 基于kcf自适应多特征融合滤波水面无人船跟踪方法、系统及存储介质 |
CN112785622A (zh) * | 2020-12-30 | 2021-05-11 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN112785622B (zh) * | 2020-12-30 | 2024-04-05 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113269809B (zh) * | 2021-05-07 | 2022-06-21 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113643327A (zh) * | 2021-08-18 | 2021-11-12 | 江西理工大学 | 一种响应置信度多特征融合的核相关滤波目标跟踪方法 |
CN113643327B (zh) * | 2021-08-18 | 2023-10-20 | 江西理工大学 | 一种响应置信度多特征融合的核相关滤波目标跟踪方法 |
CN113537253A (zh) * | 2021-08-23 | 2021-10-22 | 北京环境特性研究所 | 一种红外图像目标检测方法、装置、计算设备及存储介质 |
CN113537253B (zh) * | 2021-08-23 | 2024-01-23 | 北京环境特性研究所 | 一种红外图像目标检测方法、装置、计算设备及存储介质 |
CN115018885A (zh) * | 2022-08-05 | 2022-09-06 | 四川迪晟新达类脑智能技术有限公司 | 一种适用于边缘设备的多尺度目标跟踪算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107644430A (zh) | 基于自适应特征融合的目标跟踪 | |
Wang et al. | Neuron linear transformation: Modeling the domain shift for crowd counting | |
CN106952288B (zh) | 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 | |
CN107330357A (zh) | 基于深度神经网络的视觉slam闭环检测方法 | |
CN111882580A (zh) | 一种视频多目标跟踪方法及系统 | |
CN110135314A (zh) | 一种基于深度轨迹预测的多目标跟踪方法 | |
CN103310194B (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN108665481A (zh) | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 | |
CN107154024A (zh) | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 | |
CN109344725A (zh) | 一种基于时空关注度机制的多行人在线跟踪方法 | |
CN108053419A (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN107993250A (zh) | 一种快速多目标行人追踪和分析方法及其智能装置 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN107563349A (zh) | 一种基于VGGNet的人数估计方法 | |
CN105844663A (zh) | 一种自适应orb目标跟踪方法 | |
CN109583321A (zh) | 一种基于深度学习的结构化道路中小物体的检测方法 | |
CN110795982A (zh) | 一种基于人体姿态分析的表观视线估计方法 | |
CN109033945A (zh) | 一种基于深度学习的人体轮廓提取方法 | |
CN109191488B (zh) | 一种基于csk与tld融合算法的目标跟踪系统及方法 | |
Qi et al. | FTC-Net: Fusion of transformer and CNN features for infrared small target detection | |
CN107025420A (zh) | 视频中人体行为识别的方法和装置 | |
CN109934224A (zh) | 基于马尔科夫随机场和视觉对比机制的小目标检测方法 | |
CN106023245A (zh) | 基于中智集相似度量测的静态背景下运动目标检测方法 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20180126 Address after: 230601 Hefei Road, Shushan, Anhui, No. 111 Applicant after: Anhui University Address before: 230601 Kowloon Road, Shushan District, Hefei City, Hefei, Anhui Province, No. 111 Applicant before: Sun Zhanli |
|
TA01 | Transfer of patent application right | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180130 |
|
WD01 | Invention patent application deemed withdrawn after publication |