CN111724411A - 一种基于对冲算法的多特征融合跟踪方法 - Google Patents

一种基于对冲算法的多特征融合跟踪方法 Download PDF

Info

Publication number
CN111724411A
CN111724411A CN202010453146.7A CN202010453146A CN111724411A CN 111724411 A CN111724411 A CN 111724411A CN 202010453146 A CN202010453146 A CN 202010453146A CN 111724411 A CN111724411 A CN 111724411A
Authority
CN
China
Prior art keywords
tracking
target
hist
feature
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010453146.7A
Other languages
English (en)
Other versions
CN111724411B (zh
Inventor
产思贤
周小龙
陶健
刘鹏
王平浩
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010453146.7A priority Critical patent/CN111724411B/zh
Publication of CN111724411A publication Critical patent/CN111724411A/zh
Application granted granted Critical
Publication of CN111724411B publication Critical patent/CN111724411B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于对冲算法的多特征融合目标跟踪方法,包括以下步骤:S1用空间正则化矩阵代替等权正则化来生成更精细的相关滤波器;S2在跟踪帧中提取特征生成三张空间置信图:2.1)利用颜色直方图模型生成颜色可置信图;2.2)利用从预训练VGG19中获得特征生成两种深度可置信图;S3获得三个跟踪结果;3.1)用三张空间置信图分别增强被跟踪样本的HOG特征;3.2)对三个增强后HOG分别进行相关滤波;S4利用标准对冲算法对三个滤波结果进行融合,得到最终结果;S5用更新机制对模型进行更新。本发明能够在复杂环境下对视频指定目标进行跟踪标注,并具有良好的跟踪效果。

Description

一种基于对冲算法的多特征融合跟踪方法
技术领域
本发明属于图像处理领域,是一种给定第一帧目标位置的情况下由算法在后续实现跟踪定位的方法。
背景技术
目标跟踪是计算机视觉领域的重要研究方向之一,在机器人、人机交互、军事侦查、智能交通、虚拟现实等军事、民用领域都有广泛的应用。近年来,许多学者在目标跟踪方面开展了大量工作,并取得了一定的进展。但是,在复杂环境中仍存在目标外观变形(目标纹理、形状、姿态变化等)、光照变化、快速运动和运动模糊、背景相似干扰、平面内外旋转、尺度变化、遮挡和出视野等难题,使得复杂环境下稳定实时的目标跟踪仍然是一个具有挑战性的问题。一般的视觉目标跟踪系统主要包括输入图像(视频)、运动模型(均值漂移、滑动窗口、粒子滤波)、特征提取、目标外观模型以及模型更新等几个部分,其中特征的提取与表达对目标跟踪算法的性能起决定性作用。
2006年,Hinton等提出了具有深层次特征表达能力的深度学习算法。深度学习模拟人脑的视觉处理机理,可以从大量的数据中主动学习特征,并成功应用于图像分类、物体检测等领域。深度学习能够主动学习提取底层到高层结构性的特征,具有强大的分类功能,使得将深度学习引入到目标跟踪算法的研究具备了可行性。在2017年之前,大量的跟踪都是在相关滤波算法的基础上做出改进的,经典的算法包括KCF、DSST等.随着深度学习技术的兴起,跟踪领域中的学者们也开始去尝试着将深度神经网络应用该领域中,前期大家更多的是关注预训练的神经网络的使用;而从2017之后,以SINT和Siamese fc为代表的孪生网络跟踪器受到了研究者们的关注,主要的原因还是Siamese fc算法给大家展现了一个超快的跟踪速度,而且跟踪精度也不差.当前,跟踪领域主要分为两条主线,即基于相关滤波和基于孪生网络的跟踪器。
发明内容
为了克服现有目标跟踪方法对相似物体容易误判以及遮挡情况下的跟踪失败,本发明提出了一种基于对冲算法的多特征融合跟踪方法,首先,通过将引入空间正则化分量的方法训练一个判别能力更强的空间正则化核相关滤波器。其次,用颜色直方图和卷积神经网络构建三个具有目标轮廓的空间置信图。然后在当前帧搜索区域提取方向梯度直方图特征,并通过空间可信度图来增强目标特征与相似目标特征之间的差异来增强模型的表达能力,并生成三个子CF跟踪器。最后,用标准对冲算法自适应分配权重,对三个子CF跟踪器的融合,并用模型更新机制更新模型。
本发明解决其技术问题所采用的技术方案是:
一种基于对冲算法的多特征融合目标跟踪方法,所述方法包括以下步骤:
S1.相关滤波器的训练
在图像上裁下一个宽高分别为W和H的图片块,用循环位移的方法来合成许多新的训练样本xh,w(h,w),其中,训练的过程就是通过解决岭回归问题来训练相关滤波器f:
f=minfH,W|fTxh,w-y(h,w)|+‖r⊙f‖2 (1)
其中⊙为内积标志,r和f分别为空间正则矩阵和相关滤波器,y(h,w)是用高斯函数来生成宽高分别为W和H的矩阵,标签y的生成公式为:
Figure BDA0002508385220000021
由于该过程的计算通过傅里叶变换转化到傅里叶空间减少计算,最终学习器L通过下面公式获得:
Figure BDA0002508385220000022
其中,L表示l的傅里叶变换,
Figure BDA0002508385220000023
是x与自身的核相关,选择高斯核作为核函数,同时综合了47个通道的多通道特征来训练相关滤波器,所以核相关公式表示为:
Figure BDA0002508385220000031
其中,
Figure BDA0002508385220000032
表示傅里叶变换的逆操作,
Figure BDA0002508385220000033
Figure BDA0002508385220000034
分别表示x的傅里叶变换和
Figure BDA0002508385220000035
的复共轭,c表示通道层级;
S2.空间置信图的获得,过程如下:
S2.1颜色空间置信图
需要先训练一个颜色直方图模型,同时用正像素样本和负像素样本训练分类器,正像素样本为目标区域F,负像素样本为背景区域B,设像素p的特征φ(p)是矢量eg[p],仅在其g[p]=i,其他位置为0,首先,从帧t裁剪目标位置的图形补丁I;然后,将图像分别分割为目标区域F和背景区域B,最后,将这两个区域的像素信息放入颜色直方图学习器中进行训练,使用以下公式:
Figure BDA0002508385220000036
另外由于向量的内积计算可以由βTφ(p)=βi来得到,所以公式简化为:
Figure BDA0002508385220000037
其中,Φi(Α)=|p∈A∶g[p]=i|表示在区域A中索引特征i不为0的像素个数|A|表示区域A中的像素总数,为了简化公式,设
Figure BDA0002508385220000038
表示索引特征i像素在区域A中的比例,所以公式变形为:
Figure BDA0002508385220000039
其中,β是权重系数图,它逐像素描述了图像中每个位置的可信度,ε是一个无穷小常数;
S2.2深度空间置信图
将搜索区域的图片块I输入预先训练好的卷积神经网络VGG19模型中获得特征张量,然后通过将张量按通道进加权平均就获得合适的深度空间置信图:
Figure BDA00025083852200000310
其中,
Figure BDA0002508385220000041
表示在VGG19中第d层深度获得的特征张量,提取了深度分别为37和28两个深度特征,并生成了两个空间置信图d37和d28;
S3.获得三个跟踪结果
S3.1空间置信图增强被检测样本
在跟踪帧裁切一张适合大小的图片块,裁切的位置和大小根据上一帧目标状态计算获得,通过传统手工方法获得该图片块的方向梯度直方图特征x,然后将之前获得的三张空间置信图分别用内积的方式来增强特征x,并由此获得三个不同特征:
xhist=βhist⊙x,xd28=βd28⊙x,xd37=βd37⊙x (9)
S3.2相关滤波分别获得结果
用之前训练好的相关滤波器L,与之前获得的三个不同特征进行滤波计算:
Figure BDA0002508385220000042
获得三个结果响应图ghist(x)、gd28(x)、gd37(x);
S4.对冲算法融合结果
首先,计算每个子跟踪器的损失l:
Figure BDA0002508385220000043
Figure BDA0002508385220000044
Figure BDA0002508385220000045
设xp为融合后响应图中的最大值位置,然后算法引入粒子在时刻t的烦恼值:
Figure BDA0002508385220000046
值得注意的是这时粒子群的总代价为
Figure BDA0002508385220000047
基于此概念,粒子群的烦恼度定义为:
Rt=(1-η)Rt+ηζt (13)
其中,η是一个动态参数,由历史信息计算得出,设跟踪器在t帧的稳定性为st并由此计算得到η:
Figure BDA0002508385220000048
η=min(σ,exp(-ρst)) (14b)
其中,mt和δt分别为均值和方差,ρ是一个预设参数,σ是预设最大更新率,最终权重w更新为:
Figure BDA0002508385220000051
其中r是尺度参数,定义为:
Figure BDA0002508385220000052
在得到w后通过下面公式对三个结果进行融合
F(x)=(γhist+whist)ghist(x)+(γd28+wd28)gd28(x)+(γd37+wd37)gd37(x) (17)
其中γ表示预设的权重参数,在获得最终的结果响应图后,只需要找到图中响应度最大的点就可以确定跟踪目标的位置和尺度信息;
S4.模型更新
计算获得跟踪目标边界框γt与上一帧之间的欧式距离Dt=‖P(γt)-P(γt-1)‖,这里P(γt)表示边界框γt的定位,同时计算跟踪轨迹的平滑度:
Figure BDA0002508385220000053
这里σ是根据边界框的平均高度和宽度计算得到的,然后需要计算PSR值P:
P=(Rmax-m)/τ (19)
其中,Rmax是响应图R中的最大值,m和τ分别表示均值和标准差,同时还需要计算一个评分Gt=St×Pt来确定跟踪结果的好坏,值得注意的是还需要每Δt=5帧计算一次评分的平均值:
Figure BDA0002508385220000054
这里v∈[t-Δt+1,t]且ωv=θv/(∑vθv),θν是序列{θ01,…,θΔt-1}(θ>1)中的第(ν-t+Δt)个元素;
然后利用上面获得结果可以用下面的公式动态调整学习速率η:
Figure BDA0002508385220000055
其中,ηinit是初始模型学习速率。μ和α分别表示阈值常数和幂指数。
在更新模型学习速率后,分别用下列公式更新模型:
Figure BDA0002508385220000061
Lt=(1-ηcf)Lt-1cfL (22b)
Figure BDA0002508385220000062
Figure BDA0002508385220000063
模型更新完成后如果还有下一帧就将会到S2不断循环直至结束。
本发明的有益效果为:能够在复杂环境下对视频指定目标进行跟踪标注,并具有良好的跟踪效果。
附图说明
图1是上一帧裁切的图片块。
图2是当前帧裁切的图片块。
图3是三张空间置信图,其中,(a)是hist空间置信图,(b)是d28空间置信图,(c)是d37空间置信图。
图4是三张跟踪结果响应图,其中,(a)是ghist结果响应图,(b)是gd28结果响应图,(c)是gd37结果响应图。
图5是融合后的结果响应图。
图6是一种基于对冲算法的多特征融合跟踪方法的跟踪流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图6,一种基于对冲算法的多特征融合跟踪方法,包括以下步骤:
S1.相关滤波器的训练
参照图1,在图像上裁下一个宽高分别为W和H的图片块,用循环位移的方法来合成许多新的训练样本xh,w(h,w),其中,训练的过程就是通过解决岭回归问题来训练相关滤波器f:
f=minfH,W|fTxh,w-y(h,w)|+‖r⊙f‖2 (1)
其中⊙为内积标志,r和f分别为空间正则矩阵和相关滤波器,y(h,w)是用高斯函数来生成宽高分别为W和H的矩阵,标签y的生成公式为:
Figure BDA0002508385220000071
由于该过程的计算通过傅里叶变换转化到傅里叶空间减少计算,最终学习器L通过下面公式获得:
Figure BDA0002508385220000072
其中,L表示l的傅里叶变换,
Figure BDA0002508385220000073
是x与自身的核相关,选择高斯核作为核函数,同时综合了47个通道的多通道特征来训练相关滤波器,所以核相关公式表示为:
Figure BDA0002508385220000074
其中,
Figure BDA0002508385220000075
表示傅里叶变换的逆操作,
Figure BDA0002508385220000076
Figure BDA0002508385220000077
分别表示x的傅里叶变换和
Figure BDA0002508385220000078
的复共轭,c表示通道层级;
S2.空间置信图的获得,过程如下:
S2.1颜色空间置信图
需要先训练一个颜色直方图模型,同时用正像素样本和负像素样本训练分类器,正像素样本为目标区域F,负像素样本为背景区域B,设像素p的特征φ(p)是矢量eg[p],仅在其g[p]=i,其他位置为0,首先,从帧t裁剪目标位置的图形补丁I,如图2所示;然后,将图像分别分割为目标区域F和背景区域B,最后,将这两个区域的像素信息放入颜色直方图学习器中进行训练,使用以下公式:
Figure BDA0002508385220000079
另外由于向量的内积计算可以由βTφ(p)=βi来得到,所以公式简化为:
Figure BDA00025083852200000710
其中,Φi(Α)=|p∈A∶g[p]=i|表示在区域A中索引特征i不为0的像素个数|A|表示区域A中的像素总数。为了简化公式,设
Figure BDA00025083852200000711
表示索引特征i像素在区域A中的比例。所以公式变形为:
Figure BDA00025083852200000712
其中,β是权重系数图,这里获得的图可以在图3的(a)中看到,它逐像素描述了图像中每个位置的可信度,ε是一个无穷小常数;
S2.2深度空间置信图
将搜索区域的图片块I(图2)输入预先训练好的卷积神经网络VGG19模型中获得特征张量,然后通过将张量按通道进加权平均就获得合适的深度空间置信图:
Figure BDA0002508385220000081
其中,
Figure BDA0002508385220000082
表示在VGG19中第d层深度获得的特征张量,提取了深度分别为37和28两个深度特征,并生成了两个空间置信图d37和d28,获得的图像如图3中的(b)和(c);
S3.获得三个跟踪结果
S3.1空间置信图增强被检测样本
在跟踪帧裁切一张适合大小的图片块,如图3所示,裁切的位置和大小根据上一帧目标状态计算获得,通过传统手工方法获得该图片块的方向梯度直方图特征x,然后将之前获得的三张空间置信图分别用内积的方式来增强特征x,并由此获得三个不同特征:
xhist=βhist⊙x,xd28=βd28⊙x,xd37=βd37⊙x (9)
S3.2相关滤波分别获得结果
用之前训练好的相关滤波器L,与之前获得的三个不同特征进行滤波计算:
Figure BDA0002508385220000083
获得三个结果响应图ghist(x)、gd28(x)、gd37(x),这里的结果响应图分别为图4中的(a)、(b)、(c);
S4.对冲算法融合结果
首先,计算每个子跟踪器的损失l:
Figure BDA0002508385220000084
Figure BDA0002508385220000091
Figure BDA0002508385220000092
设xp为融合后响应图中的最大值位置,然后算法引入粒子在时刻t的烦恼值:
Figure BDA0002508385220000093
值得注意的是这时粒子群的总代价为
Figure BDA0002508385220000094
基于此概念,粒子群的烦恼度定义为:
Rt=(1-η)Rt+ηζt (13)
其中,η是一个动态参数,由历史信息计算得出,设跟踪器在t帧的稳定性为st并由此计算得到η:
Figure BDA0002508385220000095
η=min(σ,exp(-ρst)) (14b)
其中,mt和δt分别为均值和方差,ρ是一个预设参数,σ是预设最大更新率,最终权重w更新为:
Figure BDA0002508385220000096
其中r是尺度参数,定义为:
Figure BDA0002508385220000097
在得到w后通过下面公式对三个结果进行融合
F(x)=(γhist+whist)ghist(x)+(γd28+wd28)gd28(x)+(γd37+wd37)gd37(x) (17)
其中γ表示预设的权重参数,在获得最终的结果响应图5后,只需要找到图中响应度最大的点就可以确定跟踪目标的位置和尺度信息;
S4.模型更新
计算获得跟踪目标边界框γt与上一帧之间的欧式距离Dt=‖P(γt)-P(γt-1)‖,这里P(γt)表示边界框γt的定位,同时计算跟踪轨迹的平滑度:
Figure BDA0002508385220000098
这里σ是根据边界框的平均高度和宽度计算得到的,然后需要计算PSR值P:
P=(Rmax-m)/τ (19)
其中,Rmax是响应图R中的最大值,m和τ分别表示均值和标准差,同时还需要计算一个评分Gt=St×Pt来确定跟踪结果的好坏,值得注意的是还需要每Δt=5帧计算一次评分的平均值:
Figure BDA0002508385220000101
这里v∈[t-Δt+1,t]且ωv=θv/(∑vθv),θv是序列{θ01,…,θΔt-1}(θ>1)中的第(ν-t+Δt)个元素;
然后利用上面获得结果可以用下面的公式动态调整学习速率η:
Figure BDA0002508385220000102
其中,ηinit是初始模型学习速率。μ和α分别表示阈值常数和幂指数。
在更新模型学习速率后,分别用下列公式更新模型:
Figure BDA0002508385220000103
Lt=(1-ηcf)Lt-1cfL(22b)
Figure BDA0002508385220000104
Figure BDA0002508385220000105

Claims (1)

1.一种基于对冲算法的多特征融合跟踪方法,其特征在于,所述方法包括以下步骤:
S1.相关滤波器的训练
在图像上裁下一个宽高分别为W和H的图片块,用循环位移的方法来合成许多新的训练样本xh,w(h,w),其中,训练的过程就是通过解决岭回归问题来训练相关滤波器f:
f=minfH,W|fTxh,w-y(h,w)|+‖r⊙f‖2 (1)
其中⊙为内积标志,r和f分别为空间正则矩阵和相关滤波器,y(h,w)是用高斯函数来生成宽高分别为W和H的矩阵,标签y的生成公式为:
Figure FDA0002508385210000011
由于该过程的计算可以通过傅里叶变换转化到傅里叶空间减少计算,最终学习器L通过下面公式获得:
Figure FDA0002508385210000012
其中,L表示l的傅里叶变换,
Figure FDA0002508385210000013
是x与自身的核相关,选择高斯核作为核函数,同时综合了47个通道的多通道特征来训练相关滤波器,所以核相关公式表示为:
Figure FDA0002508385210000014
其中,
Figure FDA0002508385210000015
表示傅里叶变换的逆操作,
Figure FDA0002508385210000016
Figure FDA0002508385210000017
分别表示x的傅里叶变换和
Figure FDA0002508385210000018
的复共轭,c表示通道层级;
S2.空间置信图的获得,过程如下:
S2.1颜色空间置信图
训练一个颜色直方图模型,同时用正像素样本和负像素样本训练分类器,正像素样本为目标区域F,负像素样本为背景区域B,设像素p的特征φ(p)是矢量eg[p],仅在其g[p]=i,其他位置为0,首先,从帧t裁剪目标位置的图形补丁;然后,将图像分别分割为目标区域F和背景区域B,最后,将这两个区域的像素信息放入颜色直方图学习器中进行训练,使用以下公式:
Figure FDA0002508385210000019
另外由于向量的内积计算由βTφ(p)=βi来得到,所以公式简化为:
Figure FDA00025083852100000110
其中,Φi(A)=|p∈A∶g[p]=i|表示在区域A中索引特征i不为0的像素个数|A|表示区域A中的像素总数,为了简化公式,设
Figure FDA00025083852100000111
表示索引特征i像素在区域A中的比例,所以公式变形为:
Figure FDA00025083852100000112
获得颜色空间置信图;
S2.2深度空间置信图
将搜索区域的图片块I输入预先训练好的卷积神经网络VGG19模型中获得特征张量,然后通过将张量按通道进加权平均就获得合适的深度空间置信图:
Figure FDA0002508385210000021
其中,
Figure FDA0002508385210000022
表示在VGG19中第d层深度获得的特征张量,提取了深度分别为37和28两个深度特征,并生成了两个空间置信图d37和d28;
S3.获得三个跟踪结果
S3.1空间置信图增强被检测样本
在跟踪帧裁切一张适合大小的图片块,裁切的位置和大小根据上一帧目标状态计算获得,通过传统手工方法获得该图片块的方向梯度直方图特征x,然后将之前获得的三张空间置信图分别用内积的方式来增强特征x,并由此获得三个不同特征:
xhist=βhist⊙x,xd28=βd28⊙x,xd37=βd37⊙x (9)
S3.2相关滤波分别获得结果
用之前训练好的相关滤波器L,与之前获得的三个不同特征进行滤波计算:
Figure FDA0002508385210000023
获得三个结果响应图ghist(x)、gd28(x)、gd37(x);
S4.对冲算法融合结果
首先,计算每个子跟踪器的损失l:
Figure FDA0002508385210000024
Figure FDA0002508385210000025
Figure FDA0002508385210000026
设xp为融合后响应图中的最大值位置,然后算法引入粒子在时刻t的烦恼值:
Figure FDA0002508385210000027
值得注意的是这时粒子群的总代价为
Figure FDA0002508385210000028
基于此概念,粒子群的烦恼度定义为:
Rt=(1-η)Rt+ηζt (13)
其中,η是一个动态参数,由历史信息计算得出,设跟踪器在t帧的稳定性为st并由此计算得到η:
Figure FDA0002508385210000029
η=min(σ,exp(-ρst)) (14b)
其中,mt和δt分别为均值和方差,ρ是一个预设参数,σ是预设最大更新率,最终权重w更新为:
Figure FDA00025083852100000210
其中r是尺度参数,定义为:
Figure FDA00025083852100000211
在得到w后通过下面公式对三个结果进行融合:
F(x)=(γhist+whist)ghist(x)+(γd28+wd28)gd28(x)+(γd37+wd37)gd37(x) (17)
其中γ表示预设的权重参数,在获得最终的结果响应图后,只需要找到图中响应度最大的点就可以确定跟踪目标的位置和尺度信息;
S5.模型更新
计算获得跟踪目标边界框γt与上一帧之间的欧式距离Dt=‖P(γt)-P(γt-1)‖,这里P(γt)表示边界框γt的定位,同时计算跟踪轨迹的平滑度:
Figure FDA0002508385210000031
这里σ是根据边界框的平均高度和宽度计算得到的,然后需要计算PSR值P:
P=(Rmax-m)/τ (19)
其中,Rmax是响应图R中的最大值,m和τ分别表示均值和标准差,同时还需要计算一个评分Gt=St×Pt来确定跟踪结果的好坏,值得注意的是还需要每Δt=5帧计算一次评分的平均值:
Figure FDA0002508385210000032
这里v∈[t-Δt+1,t]且ωv=θv/(∑vθv),θv是序列{θ01,…,θΔt-1}(θ>1)中的第(ν-t+Δt)个元素;
然后利用上面获得结果用公式(21)动态调整学习速率η:
Figure FDA0002508385210000033
其中,ηinit是初始模型学习速率,μ和α分别表示阈值常数和幂指数;
在更新模型学习速率后,分别用下列公式更新模型:
Figure FDA0002508385210000034
Lt=(1-ηcf)Lt-1cfL (22b)
Figure FDA0002508385210000035
Figure FDA0002508385210000036
CN202010453146.7A 2020-05-26 2020-05-26 一种基于对冲算法的多特征融合跟踪方法 Active CN111724411B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010453146.7A CN111724411B (zh) 2020-05-26 2020-05-26 一种基于对冲算法的多特征融合跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010453146.7A CN111724411B (zh) 2020-05-26 2020-05-26 一种基于对冲算法的多特征融合跟踪方法

Publications (2)

Publication Number Publication Date
CN111724411A true CN111724411A (zh) 2020-09-29
CN111724411B CN111724411B (zh) 2023-07-28

Family

ID=72565076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010453146.7A Active CN111724411B (zh) 2020-05-26 2020-05-26 一种基于对冲算法的多特征融合跟踪方法

Country Status (1)

Country Link
CN (1) CN111724411B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766102A (zh) * 2021-01-07 2021-05-07 武汉大学 一种基于空谱特征融合的无监督高光谱视频目标跟踪方法
CN112762841A (zh) * 2020-12-30 2021-05-07 天津大学 一种基于多分辨率深度特征的桥梁动位移监测系统及方法
CN113240716A (zh) * 2021-05-31 2021-08-10 西安电子科技大学 一种多特征融合的孪生网络目标跟踪方法及系统
CN114529583A (zh) * 2022-02-10 2022-05-24 国网河南省电力公司电力科学研究院 基于残差回归网络的电力设备跟踪方法及跟踪系统
CN115205011A (zh) * 2022-06-15 2022-10-18 海南大学 基于lsf-fc算法的银行用户画像模型生成方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
US20180053307A1 (en) * 2016-08-22 2018-02-22 Ulsee Inc. Image Target Tracking Method and System Thereof
CN108734723A (zh) * 2018-05-11 2018-11-02 江南大学 一种基于自适应权重联合学习的相关滤波目标跟踪方法
CN109255304A (zh) * 2018-08-17 2019-01-22 西安电子科技大学 基于分布场特征的目标跟踪方法
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN110223323A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于深度特征自适应相关滤波的目标跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
US20180053307A1 (en) * 2016-08-22 2018-02-22 Ulsee Inc. Image Target Tracking Method and System Thereof
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
CN108734723A (zh) * 2018-05-11 2018-11-02 江南大学 一种基于自适应权重联合学习的相关滤波目标跟踪方法
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109255304A (zh) * 2018-08-17 2019-01-22 西安电子科技大学 基于分布场特征的目标跟踪方法
CN110223323A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于深度特征自适应相关滤波的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HE YAN等: "Kernel-Correlated Filtering Target Tracking Algorithm Based on Multi-Features Fusion", 《IEEE ACCESS》, pages 96079 - 96084 *
李军伟等: "基于自适应卷积神经网络特征选择的视频目标跟踪方法", 《计算机辅助设计与图形学学报》, pages 273 - 281 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112762841A (zh) * 2020-12-30 2021-05-07 天津大学 一种基于多分辨率深度特征的桥梁动位移监测系统及方法
CN112766102A (zh) * 2021-01-07 2021-05-07 武汉大学 一种基于空谱特征融合的无监督高光谱视频目标跟踪方法
CN112766102B (zh) * 2021-01-07 2024-04-26 武汉大学 一种基于空谱特征融合的无监督高光谱视频目标跟踪方法
CN113240716A (zh) * 2021-05-31 2021-08-10 西安电子科技大学 一种多特征融合的孪生网络目标跟踪方法及系统
CN114529583A (zh) * 2022-02-10 2022-05-24 国网河南省电力公司电力科学研究院 基于残差回归网络的电力设备跟踪方法及跟踪系统
CN114529583B (zh) * 2022-02-10 2024-03-19 国网河南省电力公司电力科学研究院 基于残差回归网络的电力设备跟踪方法及跟踪系统
CN115205011A (zh) * 2022-06-15 2022-10-18 海南大学 基于lsf-fc算法的银行用户画像模型生成方法
CN115205011B (zh) * 2022-06-15 2023-08-08 海南大学 基于lsf-fc算法的银行用户画像模型生成方法

Also Published As

Publication number Publication date
CN111724411B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN111724411B (zh) 一种基于对冲算法的多特征融合跟踪方法
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
Nelson et al. Qualitative recognition of motion using temporal texture
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN111797716A (zh) 一种基于Siamese网络的单目标跟踪方法
CN104463191A (zh) 一种基于注意机制的机器人视觉处理方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN104318221A (zh) 一种基于elm的人脸表情识别方法
CN112686928B (zh) 一种基于多源信息融合的运动目标视觉跟踪方法
CN109472198A (zh) 一种姿态鲁棒的视频笑脸识别方法
CN108830170B (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN111489330A (zh) 基于多源信息融合的弱小目标检测方法
CN108830222A (zh) 一种基于信息性和代表性主动学习的微表情识别方法
CN112686952A (zh) 一种图像光流计算系统、方法及应用
Lim et al. A four dukkha state-space model for hand tracking
Ding et al. Machine learning model for feature recognition of sports competition based on improved TLD algorithm
CN108846344B (zh) 一种融合深度学习的行人姿势多特征智能辨识方法
Feng Mask RCNN-based single shot multibox detector for gesture recognition in physical education
Boukdir et al. 3D gesture segmentation for word-level Arabic sign language using large-scale RGB video sequences and autoencoder convolutional networks
Borji et al. Vanishing point attracts gaze in free-viewing and visual search tasks
CN111583306A (zh) 一种抗遮挡的视觉目标跟踪方法
CN109242885B (zh) 一种基于时空非局部正则的相关滤波视频跟踪方法
Ashfaq et al. 3D shape estimation from RGB data using 2.5 D features and deep learning
Zhang An intelligent and fast dance action recognition model using two-dimensional convolution network method
CN114022918A (zh) 基于多姿态的学习者兴奋状态标签算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant