CN109584271B - 基于高置信度更新策略的高速相关滤波跟踪方法 - Google Patents

基于高置信度更新策略的高速相关滤波跟踪方法 Download PDF

Info

Publication number
CN109584271B
CN109584271B CN201811356271.5A CN201811356271A CN109584271B CN 109584271 B CN109584271 B CN 109584271B CN 201811356271 A CN201811356271 A CN 201811356271A CN 109584271 B CN109584271 B CN 109584271B
Authority
CN
China
Prior art keywords
scale
target
frame
confidence
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811356271.5A
Other languages
English (en)
Other versions
CN109584271A (zh
Inventor
李映
林彬
郑清萍
白宗文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201811356271.5A priority Critical patent/CN109584271B/zh
Publication of CN109584271A publication Critical patent/CN109584271A/zh
Application granted granted Critical
Publication of CN109584271B publication Critical patent/CN109584271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明涉及一种基于高置信度更新策略的高速相关滤波跟踪方法,分别设计了目标定位模块和高置信度更新模块。跟踪过程中,目标定位模块通过融合灰度、方向梯度直方图和颜色空间特征,并结合特征降维方法训练相关滤波器,基于相关滤波算法实现对目标中心的快速定位;高置信度更新模块利用目标定位模块得到的响应图设计了一种高置信度更新策略,即计算响应图的最高响应值和平均峰值相关能量(Average Peak‑to‑Correlation Energy,APCE)两个指标值,当两个指标值同时满足条件时才进行尺度估计和模型更新,从而避免了在低置信度情况下进行冗余的尺度估计操作和可能引入噪声并导致跟踪漂移的滤波器模型更新操作,以适应背景繁杂、遮挡等复杂场景。

Description

基于高置信度更新策略的高速相关滤波跟踪方法
技术领域
本发明属计算机视觉领域,涉及一种基于高置信度更新策略的高速相关滤波跟踪方法。
背景技术
近年来,目标跟踪方法的研究从传统的光流法、均值漂移、稀疏表示、粒子滤波等跟踪方法,逐渐转向基于相关滤波和深度学习的方法。其中,基于深度学习的目标跟踪方法虽然能够显著提升跟踪精度,却会极大地影响算法的运算速度;而基于相关滤波的跟踪方法凭借其良好的跟踪性能和极高的计算效率,更加适合于在实时性要求较高的在线跟踪场景中应用。
相关滤波跟踪方法通常需要进行滤波器模型更新和尺度估计,以适应跟踪过程中目标可能发生的形变、旋转、尺度变化等情况。目前大多数跟踪算法在每一帧(或间隔几帧)进行尺度估计,并以一定比例固定地更新滤波器模型。这样的机制在背景单一、目标能够被准确定位时是简单有效的。但是在现实环境下,目标在运动过程中可能较长一段时间内被部分甚至完全遮挡,此时进行尺度估计将可能得到不可靠的尺度估计结果,并带来冗余;而此时进行频繁的模型更新则会持续地引入背景噪声,从而造成滤波器模型的污染和快速退化,最终导致跟踪失败。因此,在应对背景繁杂、长时的遮挡等挑战因素时,现有的相关滤波跟踪方法容易出现由于误差累计而引起的跟踪漂移现象,算法的鲁棒性仍然有待提高。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于高置信度更新策略的高速相关滤波跟踪方法,在现有相关滤波跟踪方法的基础上进一步提高跟踪速度和鲁棒性,解决在线跟踪场景中背景繁杂、目标被遮挡等情况下容易引入冗余,及导致模型退化等问题。
技术方案
一种基于高置信度更新策略的高速相关滤波跟踪方法,其特征在于步骤如下:
步骤1:视频中第一帧图像数据及目标所在的初始位置信息[x,y,w,h],其中x和y表示目标中心的横坐标和纵坐标,w和h表示目标的宽和高;将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为vscale,初始化为vscale=1;
步骤2:以P为中心,确定一个大小为M×N包含目标及背景信息的区域Rbkg,M=3w,N=3h,对Rbkg分别提取1维灰度、31维HOG和10维CN特征的42维;通过主成分分析算法PCA将42维降到28维,将降维后的特征向量记为f1
构建目标定位模块的平移滤波器模型Htrans
Figure GDA0003228063720000021
式中:变量G和F1分别为相应的变量g和f1经过离散傅里叶变换后在频域上的表示,⊙代表对应元素相乘运算,
Figure GDA0003228063720000024
表示F1的复共轭,λ表示正则化参数,设定为λ=0.01;
所述
Figure GDA0003228063720000022
为二维高斯函数,自变量m和n分别在m=0,1,2,…,M-1和n=0,1,2,…,N-1范围内取值,σ为高斯核的带宽,
Figure GDA0003228063720000023
步骤3:以P为中心,提取L个不同尺度的图像子块,L设定为17,每个子块的大小为s(M×N),变量s为图像子块的尺度因子,取值范围是s∈[0.7,1.4];然后分别提取每个图像子块的31维HOG特征,采用主成分分析算法PCA算法降维至17维,再通过上采样或下采样将所有图像子块的特征向量统一恢复到M×N大小,并依次串联从而合并成一个特征向量f1,sc
构建尺度滤波器Hscale
Figure GDA0003228063720000031
式中:变量G'和F1,sc分别为变量g'和f1,sc在频域上的表示,
所述
Figure GDA0003228063720000032
为一维高斯函数,自变量l在l=0,1,2,…,L-1范围内取值,σ'为高斯核的带宽,设定为σ'=2;
步骤4:初始化两个集合
Figure GDA0003228063720000033
Figure GDA0003228063720000034
Sz和SA分别用于保存平移响应图的最高响应值和平均峰值相关能量两个指标的历史值;
步骤5:读取下一帧图像为第t帧,仍然以P为中心,提取一个大小为vscaleRbkg的经过尺度缩放后的目标搜索区域;然后执行步骤2进行特征提取和特征降维,并上采样或下采样恢复到M×N大小,得到对应的特征向量记为ft,转换到频域为Ft,再利用平移滤波器模型计算平移相关响应图zt,trans
Figure GDA0003228063720000035
式中,Ht-1,trans表示第t-1帧(上一帧)的平移滤波器模型,
Figure GDA0003228063720000036
为傅里叶逆变换;
将响应图zt,trans中最大的响应值所对应的坐标位置标记为当前帧新的目标中心,即将P的坐标更新为
Figure GDA0003228063720000037
Figure GDA0003228063720000038
式中,自变量x和y分别在x=0,1,2,…,M-1和y=0,1,2,…,N-1范围内取值;
步骤6:计算平移响应图zt,trans的最高响应值zt,max和平均峰值相关能量Et,APC,并将得到的zt,max和Et,APC分别加入到集合Sz和SA中;
Figure GDA0003228063720000039
式中:zt,min为zt,trans的最低响应值;
步骤7:判断zt,max和Et,APC是否同时满足高置信度条件:
Figure GDA0003228063720000041
若上式成立,转步骤8,否则转步骤10;
式中:
Figure GDA0003228063720000042
分别表示两个历史指标集合Sz和SA中所有元素的均值,α1和α2两个参数用来控制置信度条件的严格程度,分别设定为α1=0.6和α2=0.45;
步骤8:以P为中心,按照步骤3的方式通过对多个图像子块进行特征提取、特征降维和合并后,得到第t帧特征向量ft,sc,转换到频域为Ft,sc,再利用上一帧的尺度滤波器模型Ht-1,scale计算尺度相关响应图zt,scale
Figure GDA0003228063720000043
将zt,scale中最大响应值所对应的尺度因子作为最优的尺度因子
Figure GDA0003228063720000047
Figure GDA0003228063720000044
式中:自变量s'的取值范围是l=0,1,2,…,L-1,然后,将步骤1中vscale更新为
Figure GDA0003228063720000045
步骤9:利用当前第t帧计算得到的Ft、Ft,sc,以及上一帧的平移滤波器Ht-1,trans和尺度滤波器模型Ht-1,scale,分别以加权求和的方式进行模型更新:
Figure GDA0003228063720000046
式中:β为模型更新的学习率,设定为β=0.025;
步骤10:以P为中心,宽和高分别为vscalew、vscaleh的矩形框在图像中标示出新的目标区域为当前帧跟踪结果,最后判断是否处理完视频中所有的图像帧,若处理完则算法结束,否则转步骤5继续执行。
有益效果
本发明提出的一种基于高置信度更新策略的高速相关滤波跟踪方法,分别设计了目标定位模块和高置信度更新模块。跟踪过程中,目标定位模块通过融合灰度、方向梯度直方图(Histogram of Oriented Gradient,HOG)和颜色空间(Color Names,CN)特征,并结合特征降维方法训练相关滤波器,基于相关滤波算法实现对目标中心的快速定位;高置信度更新模块利用目标定位模块得到的响应图设计了一种高置信度更新策略,即计算响应图的最高响应值和平均峰值相关能量(Average Peak-to-Correlation Energy,APCE)两个指标值,当两个指标值同时满足条件时才进行尺度估计和模型更新,从而避免了在低置信度情况下进行冗余的尺度估计操作和可能引入噪声并导致跟踪漂移的滤波器模型更新操作,以适应背景繁杂、遮挡等复杂场景。
本发明有益效果:通过在跟踪模块中使用多特征融合和特征降维的方式,增强了滤波器模型对目标外观的表征能力,从而提高了目标定位的准确性,且能够保持较高的运算效率;又通过引入的高置信度判别机制,将尺度估计和滤波器模型更新捆绑进行,防止当目标处于繁杂的背景中或经历长时遮挡时造成滤波器模型的退化,且通过高置信度更新策略能够去除冗余操作,进一步提高算法的速度。实测中,本发明在通用的PC机硬件条件下,平均跟踪速度能够达到上百帧/秒,具有较强的实际应用价值。
附图说明
图1:基于高置信度更新策略的高速相关滤波跟踪方法流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
步骤1读取视频中第一帧图像数据以及目标所在的初始位置信息[x,y,w,h],其中x和y表示目标中心的横坐标和纵坐标,w和h表示目标的宽和高。将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为vscale,初始化为vscale=1。
步骤2以P为中心,确定一个包含目标及背景信息的区域Rbkg,Rbkg的大小为M×N,M=3w,N=3h。对Rbkg分别提取灰度、HOG和CN特征,共42维(灰度、HOG和CN特征分别为1维、31维和10维)。通过主成分分析(Principal Component Analysis,PCA)算法降维到28维,将降维后的特征向量记为f1。然后构建目标定位模块的平移滤波器模型Htrans,计算方法如下:
Figure GDA0003228063720000061
式中,大写的变量G和F1分别为相应的小写变量g和f1经过离散傅里叶变换(Discrete fourier transform,DFT)后在频域上的表示,g为二维高斯函数,
Figure GDA0003228063720000062
自变量m和n分别在m=0,1,2,…,M-1和n=0,1,2,…,N-1范围内取值,σ为高斯核的带宽,
Figure GDA0003228063720000063
⊙代表对应元素相乘运算,
Figure GDA0003228063720000064
表示F1的复共轭,λ表示正则化参数,设定为λ=0.01。
步骤3以P为中心,提取L个不同尺度的图像子块,L设定为17。每个子块的大小为s(M×N),变量s为图像子块的尺度因子,取值范围是s∈[0.7,1.4]。然后分别提取每个图像子块的31维HOG特征,同样使用PCA算法降维到17维,再通过上采样或下采样将所有图像子块的特征向量统一恢复到M×N大小,并依次串联从而合并成一个特征向量f1,sc。类似于构建平移滤波器Htrans,可以计算出尺度滤波器Hscale
Figure GDA0003228063720000071
式中,大写的变量G'和F1,sc分别为相应的小写变量g'和f1,sc在频域上的表示,g'为一维高斯函数,
Figure GDA0003228063720000072
自变量l在l=0,1,2,…,L-1范围内取值,σ'为高斯核的带宽,设定为σ'=2,λ和式(1)中相同。
步骤4初始化两个集合
Figure GDA0003228063720000073
Figure GDA0003228063720000074
Sz和SA分别用于保存平移响应图的最高响应值和平均峰值相关能量两个指标的历史值。
步骤5读取下一帧图像,假设当前帧为第t帧,仍然以P为中心,提取一个大小为vscaleRbkg的经过尺度缩放后的目标搜索区域。然后按照步骤2中的方式进行特征提取和特征降维,并上采样或下采样恢复到M×N大小,对应的特征向量记为ft,转换到频域为Ft,再利用平移滤波器模型计算平移相关响应图zt,trans,计算方法如下:
Figure GDA0003228063720000075
式中,Ht-1,trans表示第t-1帧(上一帧)的平移滤波器模型,
Figure GDA0003228063720000076
为傅里叶逆变换。将响应图zt,trans中最大的响应值所对应的坐标位置标记为当前帧新的目标中心,即将P的坐标更新为
Figure GDA0003228063720000077
的计算方法如下:
Figure GDA0003228063720000078
式中,自变量x和y分别在x=0,1,2,…,M-1和y=0,1,2,…,N-1范围内取值。
步骤6对步骤5中得到的平移响应图zt,trans,分别计算最高响应值zt,max和平均峰值相关能量Et,APC,计算方法如下:
Figure GDA0003228063720000081
式中,zt,min为zt,trans的最低响应值,自变量x和y同样在x=0,1,2,…,M-1和y=0,1,2,…,N-1范围内取值。
步骤7对步骤6中得到的zt,max和Et,APC,判断是否同时满足高置信度条件,即:
Figure GDA0003228063720000082
式中,
Figure GDA0003228063720000083
Figure GDA0003228063720000084
分别表示两个历史指标集合Sz和SA中所有元素的均值(如Sz和SA为空集,取
Figure GDA0003228063720000085
Figure GDA0003228063720000086
),α1和α2两个参数用来控制置信度条件的严格程度,分别设定为α1=0.6和α2=0.45。当式(6)成立时,转步骤8,否则转步骤10。
步骤8以P为中心,按照步骤3的方式通过对多个图像子块进行特征提取、特征降维和合并后,得到一个第t帧特征向量ft,sc,转换到频域为Ft,sc,再利用上一帧的尺度滤波器模型Ht-1,scale计算尺度相关响应图zt,scale,计算方法如下:
Figure GDA0003228063720000087
将zt,scale中最大响应值所对应的尺度因子作为最优的尺度因子
Figure GDA0003228063720000088
即:
Figure GDA0003228063720000089
式中,自变量s'的取值范围是l=0,1,2,…,L-1,L和步骤3中相同,即L=17。然后,将步骤1中vscale更新为
Figure GDA0003228063720000092
步骤9利用当前第t帧计算得到的Ft、Ft,sc,以及上一帧的平移滤波器Ht-1,trans和尺度滤波器模型Ht-1,scale,分别以加权求和的方式进行模型更新,计算方法如下:
Figure GDA0003228063720000091
式中,β为模型更新的学习率,设定为β=0.025,G、G'、λ等参数和式(1)、式(2)中相同。
步骤10将步骤6中得到的zt,max和Et,APC分别加入到集合Sz和SA中。然后用以P为中心,宽和高分别为vscalew、vscaleh的矩形框在图像中标示出新的目标区域即为当前帧跟踪结果,w和h为步骤1中目标初始的宽和高。最后判断是否处理完视频中所有的图像帧,若处理完则算法结束,否则转步骤5继续执行。

Claims (1)

1.一种基于高置信度更新策略的高速相关滤波跟踪方法,其特征在于步骤如下:
步骤1:视频中第一帧图像数据及目标所在的初始位置信息[x,y,w,h],其中x和y表示目标中心的横坐标和纵坐标,w和h表示目标的宽和高;将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为vscale,初始化为vscale=1;
步骤2:以P为中心,确定一个大小为M×N包含目标及背景信息的区域Rbkg,M=3w,N=3h,对Rbkg分别提取1维灰度、31维HOG和10维CN特征的42维;通过主成分分析算法PCA将42维降到28维,将降维后的特征向量记为f1
构建目标定位模块的平移滤波器模型Htrans
Figure FDA0003242427410000011
式中:变量G和F1分别为相应的变量g和f1经过离散傅里叶变换后在频域上的表示,⊙代表对应元素相乘运算,
Figure FDA0003242427410000012
表示F1的复共轭,λ表示正则化参数,设定为λ=0.01;
所述
Figure FDA0003242427410000013
为二维高斯函数,自变量m和n分别在
Figure FDA0003242427410000016
和n=0,1,2,…,N-1范围内取值,σ为高斯核的带宽,
Figure FDA0003242427410000014
步骤3:以P为中心,提取L个不同尺度的图像子块,L设定为17,每个子块的大小为s(M×N),变量s为图像子块的尺度因子,取值范围是s∈[0.7,1.4];然后分别提取每个图像子块的31维HOG特征,采用主成分分析算法PCA算法降维至17维,再通过上采样或下采样将所有图像子块的特征向量统一恢复到M×N大小,并依次串联从而合并成一个特征向量f1,sc
构建尺度滤波器Hscale
Figure FDA0003242427410000015
式中:变量G'和F1,sc分别为变量g'和f1,sc在频域上的表示,
所述
Figure FDA0003242427410000021
为一维高斯函数,自变量l在l=0,1,2,…,L-1范围内取值,σ'为高斯核的带宽,设定为σ'=2;
步骤4:初始化两个集合
Figure FDA0003242427410000022
Figure FDA0003242427410000023
Sz和SA分别用于保存平移响应图的最高响应值和平均峰值相关能量两个指标的历史值;
步骤5:读取下一帧图像为第t帧,仍然以P为中心,提取一个大小为vscaleRbkg的经过尺度缩放后的目标搜索区域;然后执行步骤2进行特征提取和特征降维,并上采样或下采样恢复到M×N大小,得到对应的特征向量记为ft,转换到频域为Ft,再利用平移滤波器模型计算平移相关响应图zt,trans
Figure FDA0003242427410000024
式中,Ht-1,trans表示第t-1帧的平移滤波器模型,
Figure FDA0003242427410000025
为傅里叶逆变换;
将响应图zt,trans中最大的响应值所对应的坐标位置标记为当前帧新的目标中心,即将P的坐标更新为
Figure FDA0003242427410000026
Figure FDA0003242427410000027
式中,自变量x和y分别在x=0,1,2,…,M-1和y=0,1,2,…,N-1范围内取值;
步骤6:计算平移响应图zt,trans的最高响应值zt,max和平均峰值相关能量Et,APC,并将得到的zt,max和Et,APC分别加入到集合Sz和SA中;
Figure FDA0003242427410000028
式中:zt,min为zt,trans的最低响应值;
步骤7:判断zt,max和Et,APC是否同时满足高置信度条件:
Figure FDA0003242427410000031
若上式成立,转步骤8,否则转步骤10;
式中:
Figure FDA0003242427410000032
Figure FDA0003242427410000033
分别表示两个历史指标集合Sz和SA中所有元素的均值,α1和α2两个参数用来控制置信度条件的严格程度,分别设定为α1=0.6和α2=0.45;
步骤8:以P为中心,按照步骤3的方式通过对多个图像子块进行特征提取、特征降维和合并后,得到第t帧特征向量ft,sc,转换到频域为Ft,sc,再利用上一帧的尺度滤波器模型Ht-1,scale计算尺度相关响应图zt,scale
Figure FDA0003242427410000034
将zt,scale中最大响应值所对应的尺度因子作为最优的尺度因子
Figure FDA0003242427410000035
Figure FDA0003242427410000036
式中:自变量s'的取值范围是l=0,1,2,…,L-1,然后,将步骤1中vscale更新为
Figure FDA0003242427410000037
步骤9:利用当前第t帧计算得到的Ft、Ft,sc,以及上一帧的平移滤波器Ht-1,trans和尺度滤波器模型Ht-1,scale,分别以加权求和的方式进行模型更新:
Figure FDA0003242427410000038
式中:β为模型更新的学习率,设定为β=0.025;
步骤10:以P为中心,宽和高分别为vscalew、vscaleh的矩形框在图像中标示出新的目标区域为当前帧跟踪结果,最后判断是否处理完视频中所有的图像帧,若处理完则算法结束,否则转步骤5继续执行。
CN201811356271.5A 2018-11-15 2018-11-15 基于高置信度更新策略的高速相关滤波跟踪方法 Active CN109584271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811356271.5A CN109584271B (zh) 2018-11-15 2018-11-15 基于高置信度更新策略的高速相关滤波跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811356271.5A CN109584271B (zh) 2018-11-15 2018-11-15 基于高置信度更新策略的高速相关滤波跟踪方法

Publications (2)

Publication Number Publication Date
CN109584271A CN109584271A (zh) 2019-04-05
CN109584271B true CN109584271B (zh) 2021-10-08

Family

ID=65922424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811356271.5A Active CN109584271B (zh) 2018-11-15 2018-11-15 基于高置信度更新策略的高速相关滤波跟踪方法

Country Status (1)

Country Link
CN (1) CN109584271B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147747B (zh) * 2019-05-09 2022-07-12 云南大学 一种基于累积一阶导数高置信度策略的相关滤波跟踪方法
CN110211157B (zh) * 2019-06-04 2023-05-26 重庆邮电大学 一种基于相关滤波的目标长时跟踪方法
CN110738685B (zh) * 2019-09-09 2023-05-05 桂林理工大学 一种融合颜色直方图响应的时空上下文跟踪方法
CN110992402B (zh) * 2019-12-13 2023-05-30 杭州电子科技大学 基于特征融合的相关滤波目标跟踪方法
CN111161323B (zh) * 2019-12-31 2023-11-28 北京理工大学重庆创新中心 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN111260689B (zh) * 2020-01-16 2022-10-11 东华大学 一种基于置信度增强的相关滤波视觉跟踪方法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统
CN111862160B (zh) * 2020-07-23 2023-10-13 中国兵器装备集团自动化研究所有限公司 一种基于arm平台的目标跟踪方法、介质和系统
CN112734806B (zh) * 2021-01-14 2022-09-02 河海大学 基于峰值尖锐指导置信度的视觉目标跟踪方法与装置
CN113743226B (zh) * 2021-08-05 2024-02-02 武汉理工大学 一种日间前车灯语识别及预警方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN108734723A (zh) * 2018-05-11 2018-11-02 江南大学 一种基于自适应权重联合学习的相关滤波目标跟踪方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200237B (zh) * 2014-08-22 2019-01-11 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
US10871551B2 (en) * 2015-12-31 2020-12-22 Herbert U Fluhler Least squares fit classifier for improved sensor performance
CN105741316B (zh) * 2016-01-20 2018-10-16 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN108062764A (zh) * 2017-11-30 2018-05-22 极翼机器人(上海)有限公司 一种基于视觉的物体跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN108734723A (zh) * 2018-05-11 2018-11-02 江南大学 一种基于自适应权重联合学习的相关滤波目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于计算机视觉的目标跟踪算法及其应用研究;王蒙蒙;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180815;第I138-705页 *

Also Published As

Publication number Publication date
CN109584271A (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN109584271B (zh) 基于高置信度更新策略的高速相关滤波跟踪方法
Li et al. Blind image deblurring via deep discriminative priors
CN108776975B (zh) 一种基于半监督特征和滤波器联合学习的视觉跟踪方法
CN108734723B (zh) 一种基于自适应权重联合学习的相关滤波目标跟踪方法
CN107507208B (zh) 一种基于轮廓上曲率估计的图像特征点提取方法
CN109741366B (zh) 一种融合多层卷积特征的相关滤波目标跟踪方法
CN111080675B (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN110175649B (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN111260688A (zh) 一种孪生双路目标跟踪方法
CN110895820B (zh) 一种基于kcf的尺度自适应目标跟踪方法
CN110796616A (zh) 基于分数阶微分算子的l0范数约束和自适应加权梯度的湍流退化图像恢复方法
WO2023115801A1 (zh) 气动光学效应大视场退化图像逐点校正复原方法及系统
CN111340842A (zh) 一种基于联合模型的相关滤波目标跟踪算法
CN111401178B (zh) 一种基于深度特征融合与自适应相关滤波的视频目标实时跟踪方法及系统
CN111931722A (zh) 一种结合颜色比率特征的相关滤波跟踪方法
CN115937254A (zh) 一种基于半监督学习的多空中飞行目标跟踪方法和系统
CN109241981B (zh) 一种基于稀疏编码的特征检测方法
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN108765287B (zh) 一种基于非局部均值的图像超分辨率方法
CN112183675B (zh) 一种基于孪生网络的针对低分辨率目标的跟踪方法
Xu et al. Affine non-local Bayesian image denoising algorithm
CN113313655B (zh) 一种基于显著性映射和梯度倒频谱技术的盲图像去模糊方法
CN110827327A (zh) 一种基于融合的长期目标跟踪方法
CN112686814B (zh) 一种基于仿射低秩的图像去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant