CN109740448A - 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 - Google Patents

基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 Download PDF

Info

Publication number
CN109740448A
CN109740448A CN201811542513.XA CN201811542513A CN109740448A CN 109740448 A CN109740448 A CN 109740448A CN 201811542513 A CN201811542513 A CN 201811542513A CN 109740448 A CN109740448 A CN 109740448A
Authority
CN
China
Prior art keywords
target
scale
image
size
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811542513.XA
Other languages
English (en)
Other versions
CN109740448B (zh
Inventor
李映
薛希哲
董浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201811542513.XA priority Critical patent/CN109740448B/zh
Publication of CN109740448A publication Critical patent/CN109740448A/zh
Application granted granted Critical
Publication of CN109740448B publication Critical patent/CN109740448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,通过使用基于相关滤波和图像分割的跟踪方法,结合方向梯度直方图特征和颜色属性特征,使得跟踪结果对于光照变化、噪声、遮挡等因素具有很强的鲁棒性,尤其是当目标当发生遮挡或者旋转等情况而发生外观变化时,本发明利用图像分割操作周期性地调整目标的外观;另外,本发明利用基于SI的策略实现高置信度的模型更新策略,使相关滤波模型更加鲁棒,而且,本发明能有效地满足航拍视频跟踪对算法实时性的要求。

Description

基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
技术领域
本发明涉及一种目标跟踪方法,属计算机视觉领域。
背景技术
目前,航拍视频跟踪技术已经在军事领域和民事领域得到广泛的应用。相对于固定平台或者手持设备拍摄的视频,航拍视频具有自身特有的性质。首先,摄像机随无人机一同做高速运动,航拍视频序列图像间存在平移、旋转等变换,且视频中场景复杂多变,目标极易受到遮挡、噪声等干扰;另外,无人机的飞行高度对目标的尺寸会造成很大影响,这些都对航拍视频处理带来了巨大的挑战。近年来,基于相关滤波的跟踪方法大量涌现,并展现了良好的跟踪性能,尤其在处理速度方面可以满足航拍视频目标跟踪问题对实时性的要求,但是,当目标发生旋转或者尺度变化时,大部分传统的基于相关滤波的跟踪算法无法改变跟踪结果的长宽比,以及无法自适应地调整目标的外观,且容易导致引入背景杂质,造成相关滤波模型不稳定。
发明内容
要解决的技术问题
针对航拍视频中由于运动目标发生旋转或者遮挡,而导致其外观(长宽比、尺度等)发生变化、模型不稳定的问题,本发明设计一种鲁棒、高效的航拍视频目标跟踪方法。
技术方案
一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤如下:
步骤1:读取视频中第一帧图像数据以及目标所在的初始位置信息[x1,y1,w1,h1],其中(x1,y1)表示第一帧目标中心P1的横坐标和纵坐标,[w1,h1]表示目标初始的宽和高,将Flag置为0;其中,Flag为判断是否要更新目标外观的标志位,将目标的尺度记为scale,初始化为1;
步骤2:以目标初始位置中心点(x1,y1)为中心,M、N为边长,采样一个目标区域R,对R提取d维特征图xtarget,其中,维度d的构成包括31维方向梯度直方图特征加11维颜色属性特征,根据xtarget构造最优相关滤波器 在频域上的表示称为目标模型,计算方法如下:
其中,如果不加特殊说明,各个大写的变量为相应的小写变量在频域上的表示,高斯滤波模板σ为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,Al、B+λ1分别为滤波器Utarget l的分子和分母,等价,λ1为调整参数;在后续操作中,只需要更新Al、B+λ1即可更新目标模型l表示维度的索引,l∈{1,...,d};
步骤3:以目标初始位置中心点x1,y1为中心提取S个不同尺度的图像子块,每个子块的大小为scale×[M,N]×s,变量s为图像子块的尺度因子,s∈[0.7,0.8,0.9,1.0,1.1,1.2,1.3,1.4],然后通过上采样,即当s<1或降采样,即当s>1将图像块缩放到[M,N]的大小,并且按照步骤2的方法分别提取每个子块的特征图,然后将各个特征图矩阵连接之后成为一个S维的特征图,这里将其命名为尺度特征图,记为xscale,再根据xscale构建尺度模型Uscale,计算方法与步骤2中计算的过程类似,用尺度特征图替换掉xtarget,具体如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数;
步骤4:读取第k帧图像,k≥2且起始值为2,若k可以整除20,则转步骤6,即每20帧实施一次更新外观模板的操作;否则,在第k帧图像中以(xk-1,yk-1)为中心,提取大小为[M,N]×scale的目标搜索区域,并缩放为[M,N]大小,然后通过步骤2中的方法提取特征图,命名为Ztarget,再利用目标模型计算目标置信图rptarget,计算方法如下:
其中,为傅里叶逆变换,可以得到rptarget中的最大响应值valtarget,其对应点:
计算最大响应值位置(x″,y″)与rptarget中心的距离,乘以scale,然后与(xk-1,yk-1)相加可以得到新的目标位置(x',y');
步骤5:在第k帧图像中以(x',y')为中心,提取S个不同尺度的图像子块,每个子块的大小为scale×[M,N]×s,并按照步骤3的方法分别提取这些图像子块的尺度特征图Zscale,利用尺度模型Uscale l计算尺度置信图:
更新目标的尺度scale,计算方法如下:
scale'=re_scale×scale
scale=scale' (6)
至此,得到了第k帧图像的目标位置(x',y'),更新了目标的尺度scale,以及利用目标模型计算得到的目标置信图rptarget,并转步骤7;
步骤6:在第k帧图像中以(xk-1,yk-1)为中心,提取大小为(1.2×scale)×[M,N]的目标搜索区域Patch,利用基于Grow Cut的图像分割方法,对Patch进行图像分割处理,并使用3×3的大小的模板块对分割之后得到的二值图进行中值滤波处理得到最终的分割阈值图thre,其中,在Patch中,将以(xk-1,yk-1)为中心的3×3的邻域作为目标种子点,以Patch上、下、左、右最边界的像素作为背景种子点;
步骤7:分析thre中包围目标连通域的最小矩形rect,若rect的面积area大于w1×h1×(0.81×scale)且小于w1×h1×(1.44×scale),将Flag置为1;否则,继续进行;
步骤8:若Flag为1,则将rect的中心在第k帧图像中的位置作为目标的位置,记为(xk,yk),将rect的尺寸作为目标的大小,记为[wk,hk],并将scale置为1;否则,我们将(x',y')作为第k帧的目标位置,记为(xk,yk),并以[w1,h1]×scale作为新的目标大小,记为[wk,hk];
步骤9:在第k帧中第以(xk,yk)为中心,wk、hk为宽和高标示出目标的位置,并提取大小为(2.5×wk)×(2.5×hk)的区域,并将其缩放为M×N大小,按照步骤2中的方法对该区域提取特征图,命名为zntarget,同样,也能够提取到最优目标尺度对应的尺度特征向量,命名为znscale
若Flag为0,则首先按照如下方式计算rptarget的稳定性评价指数:
如果SI的值小于30,则不更新当前模型,否则按照如下的加权平均的方式更新和Uscale
其中,η、β为每个模型的学习率;
若Flag为1,按照下式重新初始化:
步骤10:判断是否处理完所有图像,如果是则结束;否则转回步骤4。
步骤2中的M=2.5×w1,N=2.5×h1
步骤2中的λ1取0.010,步骤3中的λ2设定为0.0001。
步骤3中的S设定为33。
步骤9中的η、β分别取0.025、0.04。
有益效果
本发明通过使用基于相关滤波和图像分割的跟踪方法,结合方向梯度直方图特征和颜色属性特征,使得跟踪结果对于光照变化、噪声、遮挡等因素具有很强的鲁棒性,尤其是当目标当发生遮挡或者旋转等情况而发生外观变化时,本发明利用图像分割操作周期性地调整目标的外观;另外,本发明利用基于SI的策略实现高置信度的模型更新策略,使相关滤波模型更加鲁棒,而且,本发明能有效地满足航拍视频跟踪对算法实时性的要求。
附图说明
图1基于相关滤波和图像分割的航拍视频目标跟踪方法流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
相关滤波的原理是通过傅里叶变换将图像从空间域转换到频域,利用频域的逐像素相乘代替空间域的卷积操作,可以极大地提高运算速度。而图像分割是把图像分成若干个特定的、具有独特性质的区域并提取出感兴趣目标的技术和过程。利用图像分割可以得到目标的轮廓,进而更新目标的外观。本发明采用了基于相关滤波的跟踪方法,并通过使用方向梯度直方图(Histogram of Oriented Gradient,HOG)特征与颜色属性(Color Name,CN)特征构建鲁棒的目标模型来预测目标的中心位置。针对目标因发生遮挡或者旋转外观发生变化的问题,本发明使用图像分割的方法周期性地更新目标的外观;另外,本发明采用稳定性评价指数指标来实现高置信度的模型更新策略,使相关滤波模型更加鲁棒。
具体步骤如下:
步骤1读取视频中第一帧图像数据以及目标所在的初始位置信息[x1,y1,w1,h1],其中(x1,y1)表示第一帧目标中心P1的横坐标和纵坐标,[w1,h1]表示目标初始的宽和高,将Flag置为0;其中,Flag为判断是否要更新目标外观的标志位,将目标的尺度记为scale,初始化为1;
步骤2以目标初始位置中心点(x1,y1)为中心,M,N为边长,采样一个目标区域R,其中M=2.5×w1,N=2.5×h1。对R提取d维特征图xtarget,其中,维度d的构成包括31维方向梯度直方图特征加11维颜色属性特征,因此,d取42,根据xtarget构造最优相关滤波器 在频域上的表示称为目标模型,计算方法如下:
其中,如果不加特殊说明,各个大写的变量为相应的小写变量在频域上的表示,高斯滤波模板σ为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,Al、B+λ1分别为滤波器Utarget l的分子和分母,λ1为调整参数,取0.010,等价,在后续操作中,只需要更新Al、B+λ1即可更新目标模型l表示维度的索引,l∈{1,...,d};
步骤3以目标初始位置中心点x1,y1为中心提取S个不同尺度的图像子块,S设定为33,每个子块的大小为scale×[M,N]×s,变量s为图像子块的尺度因子,s∈[0.7,0.8,0.9,1.0,1.1,1.2,1.3,1.4],然后通过上采样(当s<1)或降采样(当s>1)将图像块缩放到[M,N]的大小,并且按照步骤二的方法分别提取每个子块的特征图,然后将各个特征图矩阵连接之后成为一个S维的特征图,这里将其命名为尺度特征图,记为xscale,再根据xscale构建尺度模型Uscale,计算方法与步骤2中计算的过程类似,用尺度特征图替换掉xtarget,具体如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数,设定为0.0001;
步骤4读取第k帧图像(k≥2且起始值为2),若k可以整除20,则转步骤6,即我们每20帧实施一次更新外观模板的操作;否则,在第k帧图像中以(xk-1,yk-1)为中心,提取大小为[M,N]×scale的目标搜索区域,并缩放为[M,N]大小,然后通过步骤2中的方法提取特征图,命名为Ztarget,再利用目标模型计算目标置信图rptarget,计算方法如下:
其中,为傅里叶逆变换。可以得到rptarget中的最大响应值valtarget,其对应点:
计算最大响应值位置(x″,y″)与rptarget中心的距离,乘以scale,然后与(xk-1,yk-1)相加可以得到新的目标位置(x',y');
步骤5在第k帧图像中以(x',y')为中心,提取S个不同尺度的图像子块,每个子块的大小为scale×[M,N]×s,并按照步骤3的方法分别提取这些图像子块的尺度特征图Zscale,利用尺度模型Uscale l计算尺度置信图:
更新目标的尺度scale,计算方法如下:
至此,我们得到了第k帧图像的目标位置(x',y'),更新了目标的尺度scale,以及利用目标模型计算得到的目标置信图rptarget,并转步骤7;
步骤6在第k帧图像中以(xk-1,yk-1)为中心,提取大小为(1.2×scale)×[M,N]的目标搜索区域Patch,利用基于Grow Cut的图像分割方法,对Patch进行图像分割处理,并使用3×3的大小的模板块对分割之后得到的二值图进行中值滤波处理得到最终的分割阈值图thre,其中,在Patch中,我们将以(xk-1,yk-1)为中心的3×3的邻域作为目标种子点,以Patch上、下、左、右最边界的像素作为背景种子点;
步骤7分析thre中包围目标连通域的最小矩形rect,若rect的面积area大于w1×h1×(0.81×scale)且小于w1×h1×(1.44×scale),将Flag置为1;否则,继续进行;
步骤8若Flag为1,则我们将rect的中心在第k帧图像中的位置作为目标的位置,记为(xk,yk),将rect的尺寸作为目标的大小,记为[wk,hk],并将scale置为1;否则,我们将(x',y')作为第k帧的目标位置,记为(xk,yk),并以[w1,h1]×scale作为新的目标大小,记为[wk,hk];
步骤9在第k帧中第以(xk,yk)为中心,wk、hk为宽和高标示出目标的位置,并提取大小为(2.5×wk)×(2.5×hk)的区域,并将其缩放为M×N大小,按照步骤2中的方法对该区域提取特征图,命名为zntarget,同样,也能够提取到最优目标尺度对应的尺度特征向量,命名为znscale
若Flag为0,则首先按照如下方式计算rptarget的稳定性评价指数(StabilityIndictor,SI):
如果SI的值小于30,则不更新当前模型,否则按照如下的加权平均的方式更新和Uscale
其中,η、β为每个模型的学习率,分别取0.025、0.04;
若Flag为1,按照下式重新初始化:
步骤10判断是否处理完所有图像,如果是则结束;否则转回步骤4。

Claims (5)

1.一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤如下:
步骤1:读取视频中第一帧图像数据以及目标所在的初始位置信息[x1,y1,w1,h1],其中(x1,y1)表示第一帧目标中心P1的横坐标和纵坐标,[w1,h1]表示目标初始的宽和高,将Flag置为0;其中,Flag为判断是否要更新目标外观的标志位,将目标的尺度记为scale,初始化为1;
步骤2:以目标初始位置中心点(x1,y1)为中心,M、N为边长,采样一个目标区域R,对R提取d维特征图xtarget,其中,维度d的构成包括31维方向梯度直方图特征加11维颜色属性特征,根据xtarget构造最优相关滤波器在频域上的表示称为目标模型,计算方法如下:
其中,如果不加特殊说明,各个大写的变量为相应的小写变量在频域上的表示,高斯滤波模板(m,n)∈{0,...,M-1}×{0,...,N-1},σ为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,Al、B+λ1分别为滤波器Utarget l的分子和分母,等价,λ1为调整参数;在后续操作中,只需要更新Al、B+λ1即可更新目标模型l表示维度的索引,l∈{1,...,d};
步骤3:以目标初始位置中心点x1,y1为中心提取S个不同尺度的图像子块,每个子块的大小为scale×[M,N]×s,变量s为图像子块的尺度因子,s∈[0.7,0.8,0.9,1.0,1.1,1.2,1.3,1.4],然后通过上采样,即当s<1或降采样,即当s>1将图像块缩放到[M,N]的大小,并且按照步骤2的方法分别提取每个子块的特征图,然后将各个特征图矩阵连接之后成为一个S维的特征图,这里将其命名为尺度特征图,记为xscale,再根据xscale构建尺度模型Uscale,计算方法与步骤2中计算的过程类似,用尺度特征图替换掉xtarget,具体如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数;
步骤4:读取第k帧图像,k≥2且起始值为2,若k可以整除20,则转步骤6,即每20帧实施一次更新外观模板的操作;否则,在第k帧图像中以(xk-1,yk-1)为中心,提取大小为[M,N]×scale的目标搜索区域,并缩放为[M,N]大小,然后通过步骤2中的方法提取特征图,命名为Ztarget,再利用目标模型计算目标置信图rptarget,计算方法如下:
其中,为傅里叶逆变换,可以得到rptarget中的最大响应值valtarget,其对应点:
计算最大响应值位置(x”,y”)与rptarget中心的距离,乘以scale,然后与(xk-1,yk-1)相加可以得到新的目标位置(x',y');
步骤5:在第k帧图像中以(x',y')为中心,提取S个不同尺度的图像子块,每个子块的大小为scale×[M,N]×s,并按照步骤3的方法分别提取这些图像子块的尺度特征图Zscale,利用尺度模型Uscale l计算尺度置信图:
更新目标的尺度scale,计算方法如下:
scale'=re_scale×scale
scale=scale' (6)
至此,得到了第k帧图像的目标位置(x',y'),更新了目标的尺度scale,以及利用目标模型计算得到的目标置信图rptarget,并转步骤7;
步骤6:在第k帧图像中以(xk-1,yk-1)为中心,提取大小为(1.2×scale)×[M,N]的目标搜索区域Patch,利用基于Grow Cut的图像分割方法,对Patch进行图像分割处理,并使用3×3的大小的模板块对分割之后得到的二值图进行中值滤波处理得到最终的分割阈值图thre,其中,在Patch中,将以(xk-1,yk-1)为中心的3×3的邻域作为目标种子点,以Patch上、下、左、右最边界的像素作为背景种子点;
步骤7:分析thre中包围目标连通域的最小矩形rect,若rect的面积area大于w1×h1×(0.81×scale)且小于w1×h1×(1.44×scale),将Flag置为1;否则,继续进行;
步骤8:若Flag为1,则将rect的中心在第k帧图像中的位置作为目标的位置,记为(xk,yk),将rect的尺寸作为目标的大小,记为[wk,hk],并将scale置为1;否则,我们将(x',y')作为第k帧的目标位置,记为(xk,yk),并以[w1,h1]×scale作为新的目标大小,记为[wk,hk];
步骤9:在第k帧中第以(xk,yk)为中心,wk、hk为宽和高标示出目标的位置,并提取大小为(2.5×wk)×(2.5×hk)的区域,并将其缩放为M×N大小,按照步骤2中的方法对该区域提取特征图,命名为zntarget,同样,也能够提取到最优目标尺度对应的尺度特征向量,命名为znscale
若Flag为0,则首先按照如下方式计算rptarget的稳定性评价指数:
如果SI的值小于30,则不更新当前模型,否则按照如下的加权平均的方式更新和Uscale
其中,η、β为每个模型的学习率;
若Flag为1,按照下式重新初始化:
步骤10:判断是否处理完所有图像,如果是则结束;否则转回步骤4。
2.根据权利要求1所述的一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤2中的M=2.5×w1,N=2.5×h1
3.根据权利要求1所述的一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤2中的λ1取0.010,步骤3中的λ2设定为0.0001。
4.根据权利要求1所述的一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤3中的S设定为33。
5.根据权利要求1所述的一种基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法,其特征在于步骤9中的η、β分别取0.025、0.04。
CN201811542513.XA 2018-12-17 2018-12-17 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 Active CN109740448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811542513.XA CN109740448B (zh) 2018-12-17 2018-12-17 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811542513.XA CN109740448B (zh) 2018-12-17 2018-12-17 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法

Publications (2)

Publication Number Publication Date
CN109740448A true CN109740448A (zh) 2019-05-10
CN109740448B CN109740448B (zh) 2022-05-10

Family

ID=66360396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811542513.XA Active CN109740448B (zh) 2018-12-17 2018-12-17 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法

Country Status (1)

Country Link
CN (1) CN109740448B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260687A (zh) * 2020-01-10 2020-06-09 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN113160058A (zh) * 2021-04-28 2021-07-23 成都东方天呈智能科技有限公司 一种结合分割图的热成像超分辨率重建方法及存储介质
CN113643235A (zh) * 2021-07-07 2021-11-12 青岛高重信息科技有限公司 一种基于深度学习的芯片计数方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831409A (zh) * 2012-08-30 2012-12-19 苏州大学 基于粒子滤波的运动行人视频自动跟踪方法及系统
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108805902A (zh) * 2018-05-17 2018-11-13 重庆邮电大学 一种自适应尺度的时空上下文目标跟踪方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831409A (zh) * 2012-08-30 2012-12-19 苏州大学 基于粒子滤波的运动行人视频自动跟踪方法及系统
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108805902A (zh) * 2018-05-17 2018-11-13 重庆邮电大学 一种自适应尺度的时空上下文目标跟踪方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHANSU KIM等: "Modified particle filtering using foreground separation and confidence for object tracking", 《2015 12TH IEEE INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE (AVSS)》 *
D-N.TRUONG CONG等: "Robust visual tracking via MCMC-based particle filtering", 《2012 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
吴晓光等: "基于自适应颜色特征学习的目标跟踪技术", 《计算机工程与应用》 *
柯俊敏等: "融合颜色特征的核相关滤波器目标长期跟踪算法", 《计算机系统应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260687A (zh) * 2020-01-10 2020-06-09 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN111260687B (zh) * 2020-01-10 2022-09-27 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN113160058A (zh) * 2021-04-28 2021-07-23 成都东方天呈智能科技有限公司 一种结合分割图的热成像超分辨率重建方法及存储介质
CN113160058B (zh) * 2021-04-28 2024-02-09 成都东方天呈智能科技有限公司 一种结合分割图的热成像超分辨率重建方法及存储介质
CN113643235A (zh) * 2021-07-07 2021-11-12 青岛高重信息科技有限公司 一种基于深度学习的芯片计数方法
CN113643235B (zh) * 2021-07-07 2023-12-29 青岛高重信息科技有限公司 一种基于深度学习的芯片计数方法

Also Published As

Publication number Publication date
CN109740448B (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
CN107146240B (zh) 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN111768432B (zh) 基于孪生深度神经网络的动目标分割方法及系统
CN109325484B (zh) 基于背景先验显著性的花卉图像分类方法
US9483709B2 (en) Visual saliency estimation for images and video
CN108510504B (zh) 图像分割方法和装置
WO2022141178A1 (zh) 图像处理方法及装置
CN109740448B (zh) 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN111415316A (zh) 基于生成对抗网络的缺陷数据合成算法
CN109215053B (zh) 一种无人机航拍视频中含暂停状态的运动车辆检测方法
CN104574347A (zh) 基于多源遥感数据的在轨卫星图像几何定位精度评价方法
CN110706239B (zh) 融合全卷积神经网络与改进aspp模块的场景分割方法
CN104616308A (zh) 一种基于核模糊聚类的多尺度水平集图像分割方法
CN110717921B (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
CN111583279A (zh) 一种基于pcba的超像素图像分割方法
CN109102013B (zh) 一种适于隧道环境特性的改进freak特征点匹配稳像方法
CN116091322B (zh) 超分辨率图像重建方法和计算机设备
CN111199245A (zh) 油菜害虫识别方法
CN109635809B (zh) 一种面向视觉退化图像的超像素分割方法
CN110276782B (zh) 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
CN113627481A (zh) 一种面向智慧园林的多模型组合的无人机垃圾分类方法
CN113421210A (zh) 一种基于双目立体视觉的表面点云重建方法
Schulz et al. Object-class segmentation using deep convolutional neural networks
CN109410227A (zh) 一种基于gvf模型的土地利用图斑轮廓提取算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant