CN110992402A - 基于特征融合的相关滤波目标跟踪方法 - Google Patents

基于特征融合的相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN110992402A
CN110992402A CN201911289050.5A CN201911289050A CN110992402A CN 110992402 A CN110992402 A CN 110992402A CN 201911289050 A CN201911289050 A CN 201911289050A CN 110992402 A CN110992402 A CN 110992402A
Authority
CN
China
Prior art keywords
hog
feature
response
response output
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911289050.5A
Other languages
English (en)
Other versions
CN110992402B (zh
Inventor
刘晴
韩浩
冯维
姜显扬
姚英彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911289050.5A priority Critical patent/CN110992402B/zh
Publication of CN110992402A publication Critical patent/CN110992402A/zh
Application granted granted Critical
Publication of CN110992402B publication Critical patent/CN110992402B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/80Management or planning
    • Y02P90/82Energy audits or management systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于特征融合的相关滤波目标跟踪方法,包括以下步骤:S10,采用CN特征代替颜色直方图;S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用平均相关峰能量和平滑约束性进行自适应特征融合;S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响因子进行自适应的模型更新。本发明对背景和目标相似,光照变化强烈,目标被遮挡等情况具有较好的鲁棒性。

Description

基于特征融合的相关滤波目标跟踪方法
技术领域
本发明属于图像处理技术领域,涉及一种基于特征融合的相关滤波目标跟 踪方法。
背景技术
目标跟踪是国内外计算机视觉研究的一个重要方向,其在人机交互、视频 监控、自动驾驶等方面都有着极其广泛的应用。近年来,在视频目标跟踪领域, 基于相关滤波的目标跟踪方法得到了快速发展。Bolme等人在2010年提出了 MOSSE方法,首次把相关滤波的方法引入到了目标跟踪中来,MOSSE方法使 用输出结果的最小均方误差来训练滤波器,运行速度超过600帧/s。Danelljan 等人在2014年提出了DSST方法,是一种基于MOSSE方法的尺度自适应变化 的目标跟踪方法,DSST方法分别训练了位置和尺度两个滤波器,分别对目标 进行位置和尺度的预估,然后对目标进行定位,再根据尺度滤波器,对目标进 行尺度变化。YANG Li等人在2014年提出融合颜色特征(CN)和梯度直方图 (HOG)特征的SAMF方法,并且加入了一种新的尺度变化方法。Henriques 等人在2015年提出了核相关滤波目标跟踪方法(KCF),KCF方法中使用了多 通道的HOG特征,将相关滤波方法的单通道特征提升到多通道特征,并且强 化了循环矩阵的方法,将跟踪精度进一步提升。Bertinetto等人在2016年提出 了Staple方法,Staple方法利用HOG和颜色直方图,对HOG和颜色直方图分 别进行相关滤波处理计算出两个响应输出,再由固定权重系数将两个响应图进 行结合,计算出最终的响应,确定目标位置。Danelljan等人在2017年在DSST 方法的基础上,加入PCA降维的方法,提出fDSST(fast DSST)方法,进一 步提升对尺度变化的目标的跟踪效果。
Staple方法中使用的颜色直方图特征易受光照、阴影等因素影响,且采用 固定的权重系数进行特征融合,在复杂颜色场景下的容易跟踪失败,其采用固 定模板更新策略,当目标发生遮挡时跟踪飘移严重。
发明内容
为解决上述问题,本发明的目的在于提供一种基于CN特征和HOG特征相 融合的相关滤波目标跟踪方法,利用HOG特征和CN特征互补特性,在Staple 跟踪框架下实现目标跟踪,即兼顾了方法的实时性又使跟踪结果具有很好的鲁 棒性。
为实现上述目的,本发明的技术方案为基于特征融合的相关滤波目标跟踪 方法,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用 平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可 靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响 因子进行自适应的模型更新。
优选地,所述对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
优选地,所述计算CN特征的响应输出,为通过最小化一个损失函数来训 练其相关滤波器,然后计算CN颜色特征响应输出,损失函数由下式:
Figure BDA0002317887710000021
其中,
Figure BDA0002317887710000022
是在高斯RBF核函数k(f,g)=<φ(f),φ(k)>下的希尔伯特空 间的映射,λ为正则化系数,yj(m,n)为标准高斯响应输出,
Figure BDA0002317887710000031
a为滤波器系数;
通过将式(1)最小化,得到相应滤波器系数,由下式计算出最终响应输出:
Figure BDA0002317887710000032
其中,
Figure BDA0002317887710000033
Φ为离散傅里叶变换,Yj为标准高斯输出的傅里叶变换。
优选地,所述对HOG特征进行相关滤波处理产生响应输出,为采用岭回 归的框架,针对HOG特征训练一个相关滤波器,再进行计算得出响应输出, 训练由下式:
Figure BDA0002317887710000034
其中,t为帧数,h为HOG特征滤波器的模型参数,φi为对应特征通道的 特征图,y为理想高斯输出,λtmpl为滤波器的正则项系数;利用式(3)训练完 毕滤波器,将下一帧图片提取的候选区域进行计算,得到HOG特征的响应输 出,由下式:
Figure BDA0002317887710000035
其中ftmpl(·)为候选区域在滤波器计算下的响应输出,ht-1为式(3)计算 得到的HOG特征滤波器模型参数,
Figure BDA0002317887710000036
为本帧HOG特征图。
优选地,所述利用平均相关峰能量和平滑约束性进行自适应特征融合包括 以下步骤:
S24,计算响应图平滑约束性Sp
S25,计算平均相关峰能量Ep
S26,自适应特征融合确定目标位置。
优选地,所述自适应特征融合确定目标位置中,融合权重的计算由下式:
Figure BDA0002317887710000037
其中,vi为平均相关峰能量置信指标控制权重,μi为响应图平滑约束性控 制权重,i=1,2,α12分别为HOG特征和CN特征的平滑约束性和平均相关 峰能量影响因子;
融合权重的自适应方式由下式:
Figure BDA0002317887710000041
其中,i=1,2,Φ1,Φ2分别为HOG特征和CN特征的融合权重;
最终融合响应输出ftot由下式:
ftot=Φ1×fHOG2×fCN (8)
其中,fHOG为HOG特征响应输出,fCN为CN颜色特征响应输出。
优选地,所述S30包括以下步骤:
S31,采用平均相关峰能量置信评价指标,分别对HOG特征和CN特征的 响应输出进行跟踪质量置信评价,只有两个特征的响应输出分别大于其历史均 值时,进行模型更新,判决条件由下式:
Figure BDA0002317887710000042
其中,当计算HOG特征的
Figure BDA0002317887710000043
时,τ=0.8,当计算CN特征的
Figure BDA0002317887710000044
时,τ=0.65;
S31,自适应的模型更新,
Figure BDA0002317887710000045
时,即当前帧的平均相关峰能量值
Figure BDA0002317887710000046
大于其历史均值,进行模型的 更新,更新由下式:
Figure BDA0002317887710000047
其中,
Figure BDA0002317887710000048
为当前帧的模型更新学习率,
Figure BDA0002317887710000049
为本帧计算出的相关 滤波器模型参数,h为控制参数,设为0.01;
Figure BDA00023178877100000410
即响应输出的置信度过低,则不进行模型的更新,
Figure BDA00023178877100000411
本发明至少具有以下有益效果:
1、使用具有一定光学不变性的Color Names(CN)颜色特征和梯度直方图(HOG)特征结合的目标跟踪方法,HOG特征和CN特征互补,使跟踪更有鲁 棒性,同时兼顾了方法的实时性;
2、在特征融合方面,将响应图平滑约束性(SCCM)方法和平均相关峰能 量(APCE)方法结合,计算出基于置信度的特征融合系数,使特征融合从原来 的固定系数变为自适应特征融合;
3、利用APCE的置信指标来控制模板的更新,分别衡量HOG特征和CN 特征的响应输出的置信度,进行高置信度的模板更新,进一步提升在复杂环境 下的跟踪效果。
附图说明
图1为本发明实施例的基于特征融合的相关滤波目标跟踪方法的步骤流程 图;
图2为本发明实施例的基于特征融合的相关滤波目标跟踪方法的流程示意 图;
图3为现有技术中颜色直方图特征响应输出图;
图4为本发明实施例的基于特征融合的相关滤波目标跟踪方法的CN特征 响应输出图;
图5为本发明实施例的基于特征融合的相关滤波目标跟踪方法的HOG特 征响应输出图;
图6为现有技术中Staple方法的最终响应输出图;
图7为本发明实施例的基于特征融合的相关滤波目标跟踪方法的最终响应 输出图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实 施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅 仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替 代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解, 在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技 术人员来说没有这些细节部分的描述也可以完全理解本发明。
方法实施例1
参见图1,为本发明实施例的本发明的技术方案为基于特征融合的相关滤 波目标跟踪方法的步骤流程图,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用 平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可 靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响 因子进行自适应的模型更新。
采用CN特征代替颜色直方图,增强了颜色特征对光照、阴影、形变的鲁 棒性。CN特征包括11种基本的颜色:black,blue,brown,grey,green,orange, pink,purple,red,white,yellow。计算机视觉中颜色属性一般分为RGB三色, CN则是把RGB三色细分映射到11维的颜色空间去,CN颜色特征在应用的时 候有两种标准化的方法:抽取每种颜色的1/11,这样就可以将11维映射变成 10维或者直接将11维的颜色特征映射到标准正交基的10维子空间。
具体实施例中
S20中对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
其中,S22中,PCA方法是在降维的同时选择出有用信息剔除干扰信息, 本发明通过最小化损失函数,来选择一个最适合每帧的颜色特征降维映射:
Figure BDA0002317887710000071
其中,
Figure BDA0002317887710000072
为本帧影响因子由式(11)得到,
Figure BDA0002317887710000073
为前面i帧的平滑影响 因子由式(12)得到,
Figure BDA0002317887710000074
为总的影响因子,αp为当前帧权重系数,αi为前 面第i帧图像权重系数;
Figure BDA0002317887710000075
其中,Bp为D1×D2的当前帧映射矩阵,[M,N]当前帧搜索区域的大小,(m,n) 为上一帧确定的目标位置,
Figure BDA0002317887710000076
为当前帧D1维的特征图;在最小化式(11), 求取当前帧的降维矩阵Bp,就是对本帧目标D1维特征图采用PCA降维方法进 行高效计算。
如果仅仅根据式(12)来确定每帧的映射矩阵,不考虑前面帧的影响因素, 遮挡、形变等跟踪环境突变会引起特征选择不当等问题,严重影响跟踪的准确 性和鲁棒性。因此,加入如式(12)所示的前面帧的平滑影响因子,防止跟踪 环境突变,提高方法的鲁棒性,且式(12)所示平滑影响因子,仅在新的映射 矩阵Bp和前面帧的映射矩阵Bj在特征子空间跨度不一样时才会加入到总的 影响因素计算中去:
Figure BDA0002317887710000077
其中,
Figure BDA0002317887710000078
为前面帧映射矩阵Bj的基向量,
Figure BDA0002317887710000079
为基向量
Figure BDA00023178877100000710
的权重系数。
S23,计算CN特征的响应输出,为通过最小化一个损失函数来训练其相关 滤波器,然后计算CN颜色特征响应输出,损失函数由下式:
Figure BDA0002317887710000081
其中,
Figure BDA0002317887710000082
是在高斯RBF核函数k(f,g)=<φ(f),φ(k)>下的希尔伯特空 间的映射,λ为正则化系数,yj(m,n)为标准高斯响应输出,
Figure BDA0002317887710000083
a为滤波器系数;
通过将式(1)最小化,得到相应滤波器系数,由下式计算出最终响应输出:
Figure BDA0002317887710000084
其中,
Figure BDA0002317887710000085
Φ为离散傅里叶变换,Yj为标准高斯输出的傅里叶变换。
现有技术中颜色直方图特征的响应输出图参见图3,本发明CN特征的响 应输出图参见图4。图3和图4均是对同一幅背景颜色干扰信息严重的图的响 应输出,可以看出当背景颜色干扰信息较为严重时,颜色直方图特征响应输出 所受影响较大,目标区域的判定较为模糊,CN颜色特征在次复杂背景环境下 经滤波器处理后,依然保持明显峰值,相比于颜色直方图,有着更强的抗干扰 能力。在本发明在处理的过程中,CN颜色特征由10维降到2维后,来训练滤 波器
本发明方法的流程示意图参见图2,首先,对输入视频序列第一帧提取训 练集,分别训练HOG和CN特征的相关滤波器,计算跟踪目标模型。当跟踪进 入下一帧图片时,利用训练好的滤波器和模型对搜索区域进行计算,分别得出 HOG和CN特征的响应输出,并计算各自的APCE值和SCCM值,进行置信 度评价。利用APCE和SCCM的值,计算特征融合权重,进行自适应特征融合, 得到最终响应输出来确定跟踪目标位置。并且在高置信度下,进行模型更新。
具体实施步骤中所涉及的参数设置如下:
(1)在跟踪视频序列的第一帧,提取目标的CN特征和HOG特征,HOG 特征基本单元尺寸设置为4,CN颜色特征经PCA维降到2维。
(2)利用提取的特征作为训练集,分别训练HOG和CN特征的相关滤波 器,计算跟踪目标的模型。最小化CN特征损失函数时,学习率βj为0.075, CN颜色特征正则项系数λ为10-2。最小化HOG特征损失函数时,正则项系数 λtmpl为10-3
(3)提取新的一帧图片特征图,并对CN颜色特征进行PCA降维处理。 在最小化影响因子时,当前帧的权重参数αp和前面i帧参数αi分别为0.85和 0.15。
(4)利用训练好的滤波器和跟踪目标模型,对新一帧图片的特征图进行处 理,计算得出HOG和CN各自的响应输出。
(5)计算HOG和CN响应输出的APCE和SCCM值,评价其响应输出的 置信度,计算特征融合权重。在融合权重计算时,HOG特征置信度影响参数μ1和ν1分别为0.5、1,CN特征置信度影响参数μ2和ν2分别为0.6、0.8。
(6)将HOG和CN特征响应输出依据自适应融合权重结合,计算得出最 终响应输出,确定目标位置。并在高置信度下,进行模型更新,模型更新判决 参数τ在HOG特征和CN特征中分别为0.8和0.65,模型更新学习率控制参数 h为0.01。
S20中对HOG特征进行相关滤波处理产生响应输出,为采用岭回归的框架, 针对HOG特征训练一个相关滤波器,再进行计算得出响应输出,训练由下式:
Figure BDA0002317887710000091
其中,t为帧数,h为HOG特征滤波器的模型参数,φi为对应特征通道的 特征图,y为理想高斯输出,λtmpl为滤波器的正则项系数;利用式(3)训练完 毕滤波器,将下一帧图片提取的候选区域进行计算,得到HOG特征的响应输 出,由下式:
Figure BDA0002317887710000101
其中ftmpl(·)为候选区域在滤波器计算下的响应输出,ht-1为式(3)计算 得到的HOG特征滤波器模型参数,
Figure BDA0002317887710000102
为本帧HOG特征图。
图5所示为HOG特征响应输出,处理的对象为目标发生运动模糊时的图 片,HOG特征响应输出受到一定的影响,此时需要颜色特征在跟踪过程中发挥 主要作用。本发明使用的自适应特征融合系数,在HOG特征受到明显干扰时, 会自适应降低HOG响应输出在总响应中的占比,会显著提高跟踪的鲁棒性。
S20中,利用平均相关峰能量和平滑约束性进行自适应特征融合包括以下 步骤:
S24,计算响应图平滑约束性Sp
S25,计算平均相关峰能量Ep
S26,自适应特征融合确定目标位置。
其中,S24,计算响应图平滑约束性(SCCM):
响应图平滑约束性(SCCM)的定义为:
Figure RE-GDA0002363624720000103
其中,Sp表示当前帧的SCCM值,φt和φt-1表示相邻两帧的相关滤波输 出,
Figure BDA0002317887710000104
表示移位操作,Δ表示两个相关滤波最大峰值的位置的相对位移。
S25,平均相关峰能量(APCE):
平均相关峰能量(APCE),是一种评价相关滤波器的置信程度的指标,当 可靠程度越高,则APCE的值越大:
Figure BDA0002317887710000105
其中Ep为本帧APCE值,Fw,h表示特征图的第ω行,第h列,Fmax,Fmin分 别为响应输出的最大值和最小值。
S26,自适应特征融合确定目标位置中,融合权重的计算由下式:
Figure BDA0002317887710000111
其中,vi为平均相关峰能量置信指标控制权重,μi为响应图平滑约束性控 制权重,i=1,2,α12分别为HOG特征和CN特征的平滑约束性和平均相关 峰能量影响因子;
融合权重的自适应方式由下式:
Figure BDA0002317887710000112
其中,i=1,2,Φ1,Φ2分别为HOG特征和CN特征的融合权重;
最终融合响应输出ftot由下式:
ftot=Φ1×fHOG2×fCN (7)
其中,fHOG为HOG特征响应输出,fCN为CN颜色特征响应输出。
S30包括以下步骤:
S31,采用平均相关峰能量置信评价指标,分别对HOG特征和CN特征的 响应输出进行跟踪质量置信评价,只有两个特征的响应输出分别大于其历史均 值时,进行模型更新,判决条件由下式:
Figure BDA0002317887710000113
其中,当计算HOG特征的
Figure BDA0002317887710000114
时,τ=0.8,当计算CN特征的
Figure BDA0002317887710000115
时,τ=0.65;
S32,自适应的模型更新,
Figure BDA0002317887710000116
时,即当前帧的平均相关峰能量值
Figure BDA0002317887710000117
大于其历史均值,进行模型的 更新,更新由下式:
Figure BDA0002317887710000118
其中,
Figure BDA0002317887710000121
为当前帧的模型更新学习率,
Figure BDA0002317887710000122
为本帧计算出的相关 滤波器模型参数,h为控制参数,设为0.01;
Figure BDA0002317887710000123
即响应输出的置信度过低,则不进行模型的更新,
Figure BDA0002317887710000124
图6所示分别为HOG特征与颜色直方图、CN颜色特征进行特征融合后的 响应输出,可以看到在HOG特征响应输出一样且不是很理想的情况下,本发 明采用的CN特征很好的和HOG特征形成互补,且较颜色直方图,有更强的抗 干扰能力,具体跟踪效果提升如图7所示。
与现有技术的方法相比,跟踪成功率和跟踪精度对比:
表1:跟踪成功率和跟踪精度(%)
Figure BDA0002317887710000125
从表1可以看出,本发明方法在OTB—2013和OTB—2015两个数据集上 的跟踪成功率和跟踪精度都是四种方法中最好的。
表2:四种属性下跟踪成功率
Figure BDA0002317887710000126
Figure BDA0002317887710000131
由表2可以看出,在背景干扰、遮挡、光照变化、旋转等跟踪干扰因素发 生后,本发明方法在四项属性上均为第一,表现优秀。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发 明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明 的保护范围之内。

Claims (7)

1.基于特征融合的相关滤波目标跟踪方法,其特征在于,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响因子进行自适应的模型更新。
2.根据权利要求1所述的方法,其特征在于,所述对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
3.根据权利要求2所述的方法,其特征在于,所述计算CN特征的响应输出,为通过最小化一个损失函数来训练其相关滤波器,然后计算CN颜色特征响应输出,损失函数由下式:
Figure FDA0002317887700000011
其中,
Figure FDA0002317887700000012
是在高斯RBF核函数k(f,g)=<φ(f),φ(k)>下的希尔伯特空间的映射,λ为正则化系数,yj(m,n)为标准高斯响应输出,
Figure FDA0002317887700000013
a为滤波器系数;
通过将式(1)最小化,得到相应滤波器系数,由下式计算出最终响应输出:
Figure FDA0002317887700000014
其中,
Figure FDA0002317887700000015
Φ为离散傅里叶变换,Yj为标准高斯输出的傅里叶变换。
4.根据权利要求1所述的方法,其特征在于,所述对HOG特征进行相关滤波处理产生响应输出,为采用岭回归的框架,针对HOG特征训练一个相关滤波器,再进行计算得出响应输出,训练由下式:
Figure FDA0002317887700000021
其中,t为帧数,h为HOG特征滤波器的模型参数,φi为对应特征通道的特征图,y为理想高斯输出,λtmpl为滤波器的正则项系数;利用式(3)训练完毕滤波器,将下一帧图片提取的候选区域进行计算,得到HOG特征的响应输出,由下式:
Figure FDA0002317887700000022
其中ftmpl(·)为候选区域在滤波器计算下的响应输出,ht-1为式(3)计算得到的HOG特征滤波器模型参数,
Figure FDA0002317887700000025
为本帧HOG特征图。
5.根据权利要求4所述的方法,其特征在于,所述利用平均相关峰能量和平滑约束性进行自适应特征融合包括以下步骤:
S24,计算响应图平滑约束性Sp
S25,计算平均相关峰能量Ep
S26,自适应特征融合确定目标位置。
6.根据权利要求5所述的方法,其特征在于,所述自适应特征融合确定目标位置中,融合权重的计算由下式:
Figure FDA0002317887700000023
其中,vi为平均相关峰能量置信指标控制权重,μi为响应图平滑约束性控制权重,i=1,2,α1,α2分别为HOG特征和CN特征的平滑约束性和平均相关峰能量影响因子;
融合权重的自适应方式由下式:
Figure FDA0002317887700000024
其中,i=1,2,Φ1,Φ2分别为HOG特征和CN特征的融合权重;
最终融合响应输出ftot由下式:
ftot=Φ1×fHOG2×fCN (7)
其中,fHOG为HOG特征响应输出,fCN为CN颜色特征响应输出。
7.根据权利要求1所述的方法,其特征在于,所述S30包括以下步骤:
S31,采用平均相关峰能量置信评价指标,分别对HOG特征和CN特征的响应输出进行跟踪质量置信评价,只有两个特征的响应输出分别大于其历史均值时,进行模型更新,判决条件由下式:
Figure FDA0002317887700000031
其中,当计算HOG特征的
Figure FDA0002317887700000032
时,τ=0.8,当计算CN特征的
Figure FDA0002317887700000033
时,τ=0.65;
S31,自适应的模型更新,
Figure FDA0002317887700000034
时,即当前帧的平均相关峰能量值
Figure FDA0002317887700000035
大于其历史均值,进行模型的更新,更新由下式:
Figure FDA0002317887700000036
其中,
Figure FDA0002317887700000037
为当前帧的模型更新学习率,
Figure FDA0002317887700000038
为本帧计算出的相关滤波器模型参数,h为控制参数,设为0.01;
Figure FDA0002317887700000039
即响应输出的置信度过低,则不进行模型的更新,
Figure FDA00023178877000000310
CN201911289050.5A 2019-12-13 2019-12-13 基于特征融合的相关滤波目标跟踪方法 Active CN110992402B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911289050.5A CN110992402B (zh) 2019-12-13 2019-12-13 基于特征融合的相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911289050.5A CN110992402B (zh) 2019-12-13 2019-12-13 基于特征融合的相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110992402A true CN110992402A (zh) 2020-04-10
CN110992402B CN110992402B (zh) 2023-05-30

Family

ID=70093762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911289050.5A Active CN110992402B (zh) 2019-12-13 2019-12-13 基于特征融合的相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110992402B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598011A (zh) * 2020-12-14 2021-04-02 沈阳化工大学 一种基于多特征融合的相关滤波跟踪方法
CN112598710A (zh) * 2020-12-25 2021-04-02 杭州电子科技大学 基于特征在线选择的时空相关滤波目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130241764A1 (en) * 2010-12-06 2013-09-19 The University Of Memphis Surveillance and Tracking System and Method
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN109035300A (zh) * 2018-07-05 2018-12-18 桂林电子科技大学 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN109584271A (zh) * 2018-11-15 2019-04-05 西北工业大学 基于高置信度更新策略的高速相关滤波跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130241764A1 (en) * 2010-12-06 2013-09-19 The University Of Memphis Surveillance and Tracking System and Method
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN109035300A (zh) * 2018-07-05 2018-12-18 桂林电子科技大学 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN109584271A (zh) * 2018-11-15 2019-04-05 西北工业大学 基于高置信度更新策略的高速相关滤波跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
潘迪夫等: "一种基于多相关滤波器组合的目标跟踪方法" *
鲁国智;彭冬亮;谷雨;: "多特征分层融合的相关滤波鲁棒跟踪" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598011A (zh) * 2020-12-14 2021-04-02 沈阳化工大学 一种基于多特征融合的相关滤波跟踪方法
CN112598011B (zh) * 2020-12-14 2024-07-02 沈阳化工大学 一种基于多特征融合的相关滤波跟踪方法
CN112598710A (zh) * 2020-12-25 2021-04-02 杭州电子科技大学 基于特征在线选择的时空相关滤波目标跟踪方法
CN112598710B (zh) * 2020-12-25 2024-03-12 杭州电子科技大学 基于特征在线选择的时空相关滤波目标跟踪方法

Also Published As

Publication number Publication date
CN110992402B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN109285179B (zh) 一种基于多特征融合的运动目标跟踪方法
CN109782414B (zh) 一种基于无参考结构清晰度的自动调焦方法
CN109993775B (zh) 基于特征补偿的单目标跟踪方法
CN111340842B (zh) 一种基于联合模型的相关滤波目标跟踪方法
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN110782477A (zh) 基于序列图像的运动目标快速检测方法、计算机视觉系统
CN110472577B (zh) 一种基于自适应相关滤波的长时视频跟踪方法
CN110992402A (zh) 基于特征融合的相关滤波目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN111612817A (zh) 基于深浅特征自适应融合与上下文信息的目标跟踪方法
CN111583294B (zh) 一种结合尺度自适应与模型更新的目标跟踪方法
CN109448019B (zh) 一种变分光流模型平滑参数的自适应方法
CN102074000B (zh) 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN107527370A (zh) 一种基于camshift的目标跟踪方法
CN112465844A (zh) 一种用于图像语义分割的多类别损失函数及其设计方法
CN112819096A (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN116310420A (zh) 一种基于邻域差值的图像相似度度量方法及装置
CN109993772B (zh) 基于时空采样的实例级别特征聚合方法
CN109949344B (zh) 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法
CN114973071A (zh) 基于长短期时序特征的无监督视频目标分割方法及系统
CN110544267A (zh) 一种自适应选择特征的相关滤波跟踪方法
CN110706254B (zh) 一种目标跟踪模板自适应更新方法
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN112598710B (zh) 基于特征在线选择的时空相关滤波目标跟踪方法
CN113538509B (zh) 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant