CN110992402A - 基于特征融合的相关滤波目标跟踪方法 - Google Patents
基于特征融合的相关滤波目标跟踪方法 Download PDFInfo
- Publication number
- CN110992402A CN110992402A CN201911289050.5A CN201911289050A CN110992402A CN 110992402 A CN110992402 A CN 110992402A CN 201911289050 A CN201911289050 A CN 201911289050A CN 110992402 A CN110992402 A CN 110992402A
- Authority
- CN
- China
- Prior art keywords
- hog
- feature
- response
- response output
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000004927 fusion Effects 0.000 title claims abstract description 44
- 238000001914 filtration Methods 0.000 title claims abstract description 26
- 230000004044 response Effects 0.000 claims abstract description 94
- 230000003044 adaptive effect Effects 0.000 claims abstract description 20
- 238000011156 evaluation Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000013507 mapping Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 abstract description 4
- 102400000832 Antiplasmin-cleaving enzyme FAP, soluble form Human genes 0.000 description 8
- 101800000492 Antiplasmin-cleaving enzyme FAP, soluble form Proteins 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 241000195940 Bryophyta Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000028306 hyperosmotic response Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/80—Management or planning
- Y02P90/82—Energy audits or management systems therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于特征融合的相关滤波目标跟踪方法,包括以下步骤:S10,采用CN特征代替颜色直方图;S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用平均相关峰能量和平滑约束性进行自适应特征融合;S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响因子进行自适应的模型更新。本发明对背景和目标相似,光照变化强烈,目标被遮挡等情况具有较好的鲁棒性。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于特征融合的相关滤波目标跟 踪方法。
背景技术
目标跟踪是国内外计算机视觉研究的一个重要方向,其在人机交互、视频 监控、自动驾驶等方面都有着极其广泛的应用。近年来,在视频目标跟踪领域, 基于相关滤波的目标跟踪方法得到了快速发展。Bolme等人在2010年提出了 MOSSE方法,首次把相关滤波的方法引入到了目标跟踪中来,MOSSE方法使 用输出结果的最小均方误差来训练滤波器,运行速度超过600帧/s。Danelljan 等人在2014年提出了DSST方法,是一种基于MOSSE方法的尺度自适应变化 的目标跟踪方法,DSST方法分别训练了位置和尺度两个滤波器,分别对目标 进行位置和尺度的预估,然后对目标进行定位,再根据尺度滤波器,对目标进 行尺度变化。YANG Li等人在2014年提出融合颜色特征(CN)和梯度直方图 (HOG)特征的SAMF方法,并且加入了一种新的尺度变化方法。Henriques 等人在2015年提出了核相关滤波目标跟踪方法(KCF),KCF方法中使用了多 通道的HOG特征,将相关滤波方法的单通道特征提升到多通道特征,并且强 化了循环矩阵的方法,将跟踪精度进一步提升。Bertinetto等人在2016年提出 了Staple方法,Staple方法利用HOG和颜色直方图,对HOG和颜色直方图分 别进行相关滤波处理计算出两个响应输出,再由固定权重系数将两个响应图进 行结合,计算出最终的响应,确定目标位置。Danelljan等人在2017年在DSST 方法的基础上,加入PCA降维的方法,提出fDSST(fast DSST)方法,进一 步提升对尺度变化的目标的跟踪效果。
Staple方法中使用的颜色直方图特征易受光照、阴影等因素影响,且采用 固定的权重系数进行特征融合,在复杂颜色场景下的容易跟踪失败,其采用固 定模板更新策略,当目标发生遮挡时跟踪飘移严重。
发明内容
为解决上述问题,本发明的目的在于提供一种基于CN特征和HOG特征相 融合的相关滤波目标跟踪方法,利用HOG特征和CN特征互补特性,在Staple 跟踪框架下实现目标跟踪,即兼顾了方法的实时性又使跟踪结果具有很好的鲁 棒性。
为实现上述目的,本发明的技术方案为基于特征融合的相关滤波目标跟踪 方法,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用 平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可 靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响 因子进行自适应的模型更新。
优选地,所述对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
优选地,所述计算CN特征的响应输出,为通过最小化一个损失函数来训 练其相关滤波器,然后计算CN颜色特征响应输出,损失函数由下式:
通过将式(1)最小化,得到相应滤波器系数,由下式计算出最终响应输出:
优选地,所述对HOG特征进行相关滤波处理产生响应输出,为采用岭回 归的框架,针对HOG特征训练一个相关滤波器,再进行计算得出响应输出, 训练由下式:
其中,t为帧数,h为HOG特征滤波器的模型参数,φi为对应特征通道的 特征图,y为理想高斯输出,λtmpl为滤波器的正则项系数;利用式(3)训练完 毕滤波器,将下一帧图片提取的候选区域进行计算,得到HOG特征的响应输 出,由下式:
优选地,所述利用平均相关峰能量和平滑约束性进行自适应特征融合包括 以下步骤:
S24,计算响应图平滑约束性Sp;
S25,计算平均相关峰能量Ep;
S26,自适应特征融合确定目标位置。
优选地,所述自适应特征融合确定目标位置中,融合权重的计算由下式:
其中,vi为平均相关峰能量置信指标控制权重,μi为响应图平滑约束性控 制权重,i=1,2,α1,α2分别为HOG特征和CN特征的平滑约束性和平均相关 峰能量影响因子;
融合权重的自适应方式由下式:
其中,i=1,2,Φ1,Φ2分别为HOG特征和CN特征的融合权重;
最终融合响应输出ftot由下式:
ftot=Φ1×fHOG+Φ2×fCN (8)
其中,fHOG为HOG特征响应输出,fCN为CN颜色特征响应输出。
优选地,所述S30包括以下步骤:
S31,采用平均相关峰能量置信评价指标,分别对HOG特征和CN特征的 响应输出进行跟踪质量置信评价,只有两个特征的响应输出分别大于其历史均 值时,进行模型更新,判决条件由下式:
S31,自适应的模型更新,
本发明至少具有以下有益效果:
1、使用具有一定光学不变性的Color Names(CN)颜色特征和梯度直方图(HOG)特征结合的目标跟踪方法,HOG特征和CN特征互补,使跟踪更有鲁 棒性,同时兼顾了方法的实时性;
2、在特征融合方面,将响应图平滑约束性(SCCM)方法和平均相关峰能 量(APCE)方法结合,计算出基于置信度的特征融合系数,使特征融合从原来 的固定系数变为自适应特征融合;
3、利用APCE的置信指标来控制模板的更新,分别衡量HOG特征和CN 特征的响应输出的置信度,进行高置信度的模板更新,进一步提升在复杂环境 下的跟踪效果。
附图说明
图1为本发明实施例的基于特征融合的相关滤波目标跟踪方法的步骤流程 图;
图2为本发明实施例的基于特征融合的相关滤波目标跟踪方法的流程示意 图;
图3为现有技术中颜色直方图特征响应输出图;
图4为本发明实施例的基于特征融合的相关滤波目标跟踪方法的CN特征 响应输出图;
图5为本发明实施例的基于特征融合的相关滤波目标跟踪方法的HOG特 征响应输出图;
图6为现有技术中Staple方法的最终响应输出图;
图7为本发明实施例的基于特征融合的相关滤波目标跟踪方法的最终响应 输出图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实 施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅 仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替 代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解, 在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技 术人员来说没有这些细节部分的描述也可以完全理解本发明。
方法实施例1
参见图1,为本发明实施例的本发明的技术方案为基于特征融合的相关滤 波目标跟踪方法的步骤流程图,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用 平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可 靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响 因子进行自适应的模型更新。
采用CN特征代替颜色直方图,增强了颜色特征对光照、阴影、形变的鲁 棒性。CN特征包括11种基本的颜色:black,blue,brown,grey,green,orange, pink,purple,red,white,yellow。计算机视觉中颜色属性一般分为RGB三色, CN则是把RGB三色细分映射到11维的颜色空间去,CN颜色特征在应用的时 候有两种标准化的方法:抽取每种颜色的1/11,这样就可以将11维映射变成 10维或者直接将11维的颜色特征映射到标准正交基的10维子空间。
具体实施例中
S20中对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
其中,S22中,PCA方法是在降维的同时选择出有用信息剔除干扰信息, 本发明通过最小化损失函数,来选择一个最适合每帧的颜色特征降维映射:
其中,Bp为D1×D2的当前帧映射矩阵,[M,N]当前帧搜索区域的大小,(m,n) 为上一帧确定的目标位置,为当前帧D1维的特征图;在最小化式(11), 求取当前帧的降维矩阵Bp,就是对本帧目标D1维特征图采用PCA降维方法进 行高效计算。
如果仅仅根据式(12)来确定每帧的映射矩阵,不考虑前面帧的影响因素, 遮挡、形变等跟踪环境突变会引起特征选择不当等问题,严重影响跟踪的准确 性和鲁棒性。因此,加入如式(12)所示的前面帧的平滑影响因子,防止跟踪 环境突变,提高方法的鲁棒性,且式(12)所示平滑影响因子,仅在新的映射 矩阵Bp和前面帧的映射矩阵Bj在特征子空间跨度不一样时才会加入到总的 影响因素计算中去:
S23,计算CN特征的响应输出,为通过最小化一个损失函数来训练其相关 滤波器,然后计算CN颜色特征响应输出,损失函数由下式:
通过将式(1)最小化,得到相应滤波器系数,由下式计算出最终响应输出:
现有技术中颜色直方图特征的响应输出图参见图3,本发明CN特征的响 应输出图参见图4。图3和图4均是对同一幅背景颜色干扰信息严重的图的响 应输出,可以看出当背景颜色干扰信息较为严重时,颜色直方图特征响应输出 所受影响较大,目标区域的判定较为模糊,CN颜色特征在次复杂背景环境下 经滤波器处理后,依然保持明显峰值,相比于颜色直方图,有着更强的抗干扰 能力。在本发明在处理的过程中,CN颜色特征由10维降到2维后,来训练滤 波器
本发明方法的流程示意图参见图2,首先,对输入视频序列第一帧提取训 练集,分别训练HOG和CN特征的相关滤波器,计算跟踪目标模型。当跟踪进 入下一帧图片时,利用训练好的滤波器和模型对搜索区域进行计算,分别得出 HOG和CN特征的响应输出,并计算各自的APCE值和SCCM值,进行置信 度评价。利用APCE和SCCM的值,计算特征融合权重,进行自适应特征融合, 得到最终响应输出来确定跟踪目标位置。并且在高置信度下,进行模型更新。
具体实施步骤中所涉及的参数设置如下:
(1)在跟踪视频序列的第一帧,提取目标的CN特征和HOG特征,HOG 特征基本单元尺寸设置为4,CN颜色特征经PCA维降到2维。
(2)利用提取的特征作为训练集,分别训练HOG和CN特征的相关滤波 器,计算跟踪目标的模型。最小化CN特征损失函数时,学习率βj为0.075, CN颜色特征正则项系数λ为10-2。最小化HOG特征损失函数时,正则项系数 λtmpl为10-3。
(3)提取新的一帧图片特征图,并对CN颜色特征进行PCA降维处理。 在最小化影响因子时,当前帧的权重参数αp和前面i帧参数αi分别为0.85和 0.15。
(4)利用训练好的滤波器和跟踪目标模型,对新一帧图片的特征图进行处 理,计算得出HOG和CN各自的响应输出。
(5)计算HOG和CN响应输出的APCE和SCCM值,评价其响应输出的 置信度,计算特征融合权重。在融合权重计算时,HOG特征置信度影响参数μ1和ν1分别为0.5、1,CN特征置信度影响参数μ2和ν2分别为0.6、0.8。
(6)将HOG和CN特征响应输出依据自适应融合权重结合,计算得出最 终响应输出,确定目标位置。并在高置信度下,进行模型更新,模型更新判决 参数τ在HOG特征和CN特征中分别为0.8和0.65,模型更新学习率控制参数 h为0.01。
S20中对HOG特征进行相关滤波处理产生响应输出,为采用岭回归的框架, 针对HOG特征训练一个相关滤波器,再进行计算得出响应输出,训练由下式:
其中,t为帧数,h为HOG特征滤波器的模型参数,φi为对应特征通道的 特征图,y为理想高斯输出,λtmpl为滤波器的正则项系数;利用式(3)训练完 毕滤波器,将下一帧图片提取的候选区域进行计算,得到HOG特征的响应输 出,由下式:
图5所示为HOG特征响应输出,处理的对象为目标发生运动模糊时的图 片,HOG特征响应输出受到一定的影响,此时需要颜色特征在跟踪过程中发挥 主要作用。本发明使用的自适应特征融合系数,在HOG特征受到明显干扰时, 会自适应降低HOG响应输出在总响应中的占比,会显著提高跟踪的鲁棒性。
S20中,利用平均相关峰能量和平滑约束性进行自适应特征融合包括以下 步骤:
S24,计算响应图平滑约束性Sp;
S25,计算平均相关峰能量Ep;
S26,自适应特征融合确定目标位置。
其中,S24,计算响应图平滑约束性(SCCM):
响应图平滑约束性(SCCM)的定义为:
S25,平均相关峰能量(APCE):
平均相关峰能量(APCE),是一种评价相关滤波器的置信程度的指标,当 可靠程度越高,则APCE的值越大:
其中Ep为本帧APCE值,Fw,h表示特征图的第ω行,第h列,Fmax,Fmin分 别为响应输出的最大值和最小值。
S26,自适应特征融合确定目标位置中,融合权重的计算由下式:
其中,vi为平均相关峰能量置信指标控制权重,μi为响应图平滑约束性控 制权重,i=1,2,α1,α2分别为HOG特征和CN特征的平滑约束性和平均相关 峰能量影响因子;
融合权重的自适应方式由下式:
其中,i=1,2,Φ1,Φ2分别为HOG特征和CN特征的融合权重;
最终融合响应输出ftot由下式:
ftot=Φ1×fHOG+Φ2×fCN (7)
其中,fHOG为HOG特征响应输出,fCN为CN颜色特征响应输出。
S30包括以下步骤:
S31,采用平均相关峰能量置信评价指标,分别对HOG特征和CN特征的 响应输出进行跟踪质量置信评价,只有两个特征的响应输出分别大于其历史均 值时,进行模型更新,判决条件由下式:
S32,自适应的模型更新,
图6所示分别为HOG特征与颜色直方图、CN颜色特征进行特征融合后的 响应输出,可以看到在HOG特征响应输出一样且不是很理想的情况下,本发 明采用的CN特征很好的和HOG特征形成互补,且较颜色直方图,有更强的抗 干扰能力,具体跟踪效果提升如图7所示。
与现有技术的方法相比,跟踪成功率和跟踪精度对比:
表1:跟踪成功率和跟踪精度(%)
从表1可以看出,本发明方法在OTB—2013和OTB—2015两个数据集上 的跟踪成功率和跟踪精度都是四种方法中最好的。
表2:四种属性下跟踪成功率
由表2可以看出,在背景干扰、遮挡、光照变化、旋转等跟踪干扰因素发 生后,本发明方法在四项属性上均为第一,表现优秀。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发 明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明 的保护范围之内。
Claims (7)
1.基于特征融合的相关滤波目标跟踪方法,其特征在于,包括以下步骤:
S10,采用CN特征代替颜色直方图;
S20,分别对HOG特征和CN特征进行相关滤波处理产生响应输出;利用平均相关峰能量和平滑约束性进行自适应特征融合;
S30,采用平均相关峰能量置信评价指标分别衡量HOG和CN的响应的可靠度,当判决可靠时,采用平均相关峰能量和平滑约束性共同决定的模板影响因子进行自适应的模型更新。
2.根据权利要求1所述的方法,其特征在于,所述对CN特征进行相关滤波处理产生响应输出包括以下步骤:
S21,将RGB图像映射到CN颜色特征;
S22,采用PCA降维的方法,将D1维CN颜色特征降维到D2维。
S23,计算CN特征的响应输出。
5.根据权利要求4所述的方法,其特征在于,所述利用平均相关峰能量和平滑约束性进行自适应特征融合包括以下步骤:
S24,计算响应图平滑约束性Sp;
S25,计算平均相关峰能量Ep;
S26,自适应特征融合确定目标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911289050.5A CN110992402B (zh) | 2019-12-13 | 2019-12-13 | 基于特征融合的相关滤波目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911289050.5A CN110992402B (zh) | 2019-12-13 | 2019-12-13 | 基于特征融合的相关滤波目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992402A true CN110992402A (zh) | 2020-04-10 |
CN110992402B CN110992402B (zh) | 2023-05-30 |
Family
ID=70093762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911289050.5A Active CN110992402B (zh) | 2019-12-13 | 2019-12-13 | 基于特征融合的相关滤波目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992402B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598011A (zh) * | 2020-12-14 | 2021-04-02 | 沈阳化工大学 | 一种基于多特征融合的相关滤波跟踪方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130241764A1 (en) * | 2010-12-06 | 2013-09-19 | The University Of Memphis | Surveillance and Tracking System and Method |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
-
2019
- 2019-12-13 CN CN201911289050.5A patent/CN110992402B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130241764A1 (en) * | 2010-12-06 | 2013-09-19 | The University Of Memphis | Surveillance and Tracking System and Method |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
Non-Patent Citations (2)
Title |
---|
潘迪夫等: "一种基于多相关滤波器组合的目标跟踪方法" * |
鲁国智;彭冬亮;谷雨;: "多特征分层融合的相关滤波鲁棒跟踪" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598011A (zh) * | 2020-12-14 | 2021-04-02 | 沈阳化工大学 | 一种基于多特征融合的相关滤波跟踪方法 |
CN112598011B (zh) * | 2020-12-14 | 2024-07-02 | 沈阳化工大学 | 一种基于多特征融合的相关滤波跟踪方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112598710B (zh) * | 2020-12-25 | 2024-03-12 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110992402B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109285179B (zh) | 一种基于多特征融合的运动目标跟踪方法 | |
CN109782414B (zh) | 一种基于无参考结构清晰度的自动调焦方法 | |
CN109993775B (zh) | 基于特征补偿的单目标跟踪方法 | |
CN111340842B (zh) | 一种基于联合模型的相关滤波目标跟踪方法 | |
CN111260738A (zh) | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 | |
CN110782477A (zh) | 基于序列图像的运动目标快速检测方法、计算机视觉系统 | |
CN110472577B (zh) | 一种基于自适应相关滤波的长时视频跟踪方法 | |
CN110992402A (zh) | 基于特征融合的相关滤波目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN111612817A (zh) | 基于深浅特征自适应融合与上下文信息的目标跟踪方法 | |
CN111583294B (zh) | 一种结合尺度自适应与模型更新的目标跟踪方法 | |
CN109448019B (zh) | 一种变分光流模型平滑参数的自适应方法 | |
CN102074000B (zh) | 一种利用方差率最优解自适应调整窗宽的跟踪方法 | |
CN107527370A (zh) | 一种基于camshift的目标跟踪方法 | |
CN112465844A (zh) | 一种用于图像语义分割的多类别损失函数及其设计方法 | |
CN112819096A (zh) | 一种基于复合卷积神经网络的化石图像分类模型的构建方法 | |
CN116310420A (zh) | 一种基于邻域差值的图像相似度度量方法及装置 | |
CN109993772B (zh) | 基于时空采样的实例级别特征聚合方法 | |
CN109949344B (zh) | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 | |
CN114973071A (zh) | 基于长短期时序特征的无监督视频目标分割方法及系统 | |
CN110544267A (zh) | 一种自适应选择特征的相关滤波跟踪方法 | |
CN110706254B (zh) | 一种目标跟踪模板自适应更新方法 | |
CN111539985A (zh) | 一种融合多特征的自适应运动目标跟踪方法 | |
CN112598710B (zh) | 基于特征在线选择的时空相关滤波目标跟踪方法 | |
CN113538509B (zh) | 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |