CN109034193A - 多特征融合与尺度自适应核相关滤波跟踪方法 - Google Patents
多特征融合与尺度自适应核相关滤波跟踪方法 Download PDFInfo
- Publication number
- CN109034193A CN109034193A CN201810640255.2A CN201810640255A CN109034193A CN 109034193 A CN109034193 A CN 109034193A CN 201810640255 A CN201810640255 A CN 201810640255A CN 109034193 A CN109034193 A CN 109034193A
- Authority
- CN
- China
- Prior art keywords
- dimension
- feature
- target
- fusion
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明涉及一种多特征融合与尺度自适应核相关滤波跟踪方法,获取目标的初始信息;获取目标区域的融合梯度直方图FHOG特征和降维后的颜色属性CN特征;通过线性融合的方式,把获取的31维FHOG特征、降维后的2维CN特征加上1维的灰度特征,融合后总共34特征作为最终的特征图谱;在得到融合特征图谱的基础上,利用核相关滤波器预测目标的平移位置;在预测平移位置后,通过添加尺度滤波器来预测目标的尺度变化;在预测目标平移位置和尺度变化后,通过线性插值方法来更新两个滤波模板,进行跟踪,直到最后一帧。通过这种特征融合与尺度滤波器结合的方式,该方法在目标跟踪过程的外观变形、尺度变化、光照变化、背景相似干扰等情况下有很好的鲁棒性。
Description
技术领域
本发明涉及一种目标跟踪技术,特别涉及一种多特征融合与尺度自适应核相关滤波跟踪方法。
背景技术
目标跟踪被广泛运用到视频监控、智能交通系统和人机交互等领域。但是现有的目标跟踪方法还存在着诸多问题和难点,外观变形、光照变化、快速运动、运动模糊、背景相似干扰等都对跟踪造成较大影响,目前还没有一种跟踪模型能够既好又快地解决这些问题。目前主要跟踪模型可分为两大类:生成模型和判别模型。生成模型是对初始目标区域建模,在下一帧寻找与模型最相似的区域即预测区域。判别模型的重心是区分目标的背景和前景,提取目标特征并训练分类器,利用训练好的分类器寻找下一帧中的最优目标区域,与生成模型的最大区别是在训练和识别中区分了背景和前景信息。
经对现有的文献检索发现近几年相关滤波(correlation filter,CF)在目标跟踪领域取得很大的进展,它属于判别模型。利用复频域计算的快速性,极大提高了目标跟踪的速度。后来一些基于相关滤波改进算法的提出在一定程度上解决了目标跟踪过程中的特征不完善和尺度变化的问题。目前没有文献资料将FHOG特征和CN特征进行线性融合,利用相关滤波器求得目标的平移位置,并在此基础上添加尺度滤波器预测目标的尺度变化。
发明内容
本发明是针对视觉目标跟踪中外观变形、光照变化、快速运动、运动模糊、背景相似干扰的问题,提出了一种多特征融合与尺度自适应核相关滤波跟踪方法,利用在传统核相关滤波器的基础上融合FHOG特征和CN特征,极大丰富了目标的特征图谱,可以较精确的预测目标平移位置的变化,在预测到目标平移位置的基础上通过添加33个尺度的尺度滤波器来预测目标的尺度变化。
本发明的技术方案为:一种多特征融合与尺度自适应核相关滤波跟踪方法,其特征在于,具体包括如下步骤:
1)获取目标的初始信息,包括目标的位置信息和尺度信息;
2)获取目标区域的融合梯度直方图FHOG特征和降维后的颜色属性CN特征,通过Matlab相应工具包获取,最终获取得到的是31维的FHOG特征,通过Matlab工具包获取11维的CN特征,利用主成分分析法获取降维后的CN特征;
3)通过线性融合的方式,把步骤2)获取的31维FHOG特征、降维后的2维CN特征加上1维的灰度特征,融合后总共34特征作为最终的特征图谱;
4)在步骤3)得到融合特征图谱的基础上,利用核相关滤波器预测目标的平移位置;
5)在步骤4)预测平移位置后,通过添加尺度滤波器来预测目标的尺度变化;
6)在预测目标平移位置和尺度变化后,通过线性插值方法来更新两个滤波模板,进行跟踪,直到最后一帧。
所述步骤2)中利用主成分分析法获取降维后的CN特征具体步骤如下:
通过最小化损失函数的方法获得合适的维度降低映射,该损失函数的形式如下:
上式α1,α2,...,αp为常系数项,p为当前图像帧数,为数据项,由当前形式的重建误差组成,其组成形式如下:
上式,M,N代表图像的大小,为当前帧的特征表现形式,Bp是由标准正交向量组成的D1×D2维投影矩阵,D1、D2分别代表当前帧特征维数和降维后的维数;为第j帧的平滑项,定义如下:
上式为第j帧投影矩阵Bj的第k个基向量,为对应的特征值,可知损失函数只有在时才能最小化,其中I为单位矩阵;
Bp由矩阵的特征值分解得到的前D2个最大特征值对应特征向量组成,Cp为的协方差矩阵,Λj为D1×D2维的对角矩阵,其值由组成;上式推导求解得到了一个所需的投影矩阵Bp,通过线性映射得到新的D2维特征图,即降维后的CN特征。
所述步骤5)具体步骤如下:
建立尺度跟踪模型认为是找到一个最优的相关滤波器h,h由每个特征维度对应的相关滤波器hl组成,l∈{1,...,d},d代表目标的特征维数;定义如下损失函数:
上式fl代表第l个维度的特征图,g为二维高斯期望输出,λs为尺度过程正则化系数;通过最小化损失函数就可以得到最优相关滤波器h:
上式大写字母代表其对应小写字母对应的复频域,G代表复频域的期望输出,用一维高斯形状输出表示,Fl代表目标复频域第l维度的特征图,FK代表目标复频域第k维度的特征图,*为复共轭运算符;得到关滤波器H后,我们的尺度预测输出其中zl和Fl都是目标复频域第l维度的特征图,区别是zl是当前帧目标复频域第l维度的特征图,Fl是上一帧目标复频域第l维度的特征图;设共有S个特征尺度,当前帧目标尺度为P×R,每一个特征尺度n为ys最大值所在的索引,尺度变换后的图像块Jn大小为anP×anR,a代表尺度因子。
本发明的有益效果在于:本发明多特征融合与尺度自适应核相关滤波跟踪方法,极大丰富目标的特征图谱,可以较全面反应目标的特征从而极大提高目标的跟踪精度;通过添加尺度滤波器,采用尺度滤波器与平移滤波器单独训练、局部优化的方式可以精确估计目标的尺度变化,同时滤波器的移植性也很好。通过这种特征融合与尺度滤波器结合的方式,该方法在目标跟踪过程的外观变形、尺度变化、光照变化、背景相似干扰等情况下有很好的鲁棒性。
附图说明
图1为本发明多特征融合与尺度自适应核相关滤波跟踪方法流程示意图。
具体实施方式
如图1所示多特征融合与尺度自适应核相关滤波跟踪方法流程示意图,方法包括如下步骤:
第一步:获取目标的初始信息,包括目标的位置信息和尺度信息。本方法是在标准数据集上(benchmark dataset)验证本方法的有效性,所以目标的初始信息在标准数据集上都有标注,通过读取标注的文本文件,我们就可以获取每一帧目标的初始位置信息。
第二步:获取目标区域的FHOG特征(融合梯度直方图特征)和降维后的CN特征(颜色属性特征)。FHOG特征的获取方式可通过Matlab相应工具包获取,最终获取得到的是31维的FHOG特征,通过Matlab工具包可以获取11维的CN特征,包括黑、蓝、棕、灰、绿、橙、粉、紫、白、红和黄共11种属性。为了减少计算量达到颜色自适应的目的,利用主成分分析法获取降维后的CN特征,通过最小化损失函数的方法获得合适的维度降低映射,该损失函数的形式如下:
上式α1,α2,...,αp为常系数项,p为当前图像帧数,为数据项,由当前形式的重建误差组成,其组成形式如下:
上式,M,N代表图像的大小,为当前帧的特征表现形式,Bp是由标准正交向量组成的D1×D2维投影矩阵,D1,D2分别代表当前帧特征维数和降维后的维数。为第j帧的平滑项,定义如下:
上式为第j帧投影矩阵Bj的第k个基向量,为对应的特征值。可知损失函数只有在时才能最小化,其中I为单位矩阵。
Bp由矩阵的特征值分解(EVD)得到的前D2个最大特征值对应特征向量组成,Cp为的协方差矩阵,Λj为D1×D2维的对角矩阵,其值由组成。上式推导求解得到了一个所需的投影矩阵Bp(通过对Rp进行特征值分解,有几个特征值就代表Rp有多少特征向量,Bp就是由这些特征向量组成的矩阵,Bp是可以按照实际需求选取合适数量的特征向量组成这个Bp矩阵,本发明选取了两个特征矩阵组成Bp),通过线性映射可以得到新的D2维特征图,即降维后的CN特征。
第三步:通过线性融合的方式,把第二步获取的31维FHOG特征和降维后的CN特征进行融合。本发明最终提取了2维的CN特征,加上1维的灰度特征,融合后总共34特征作为最终的特征图谱。
第四步:在第三步得到融合特征图谱基础上,利用核相关滤波器预测目标的平移位置。
假设一共有n个训练样本X=[x1,x2,…,xn],期望输出y=[y1,y2,…,yn],本文采用岭回归的方法找到响应函数f(z)=wTz,核相关滤波器是通过求解样本输出f(xi)和期望输出yi的最小均方误差和:
上式λt为平移过程正则化常系数(用来防止过拟合,赋值为0.001)。上式中权重w的封闭解为:
w=(X1 TX1+λtI)-1X1 Ty.
式中上标T表示转置操作。因为需要在傅里叶空间复数求解上述问题,把上式改写成:
w=(X1 HX1+λtI)-1X1 Hy.
X1 H为X1的Hermitian变换,即X1 H=(X1 *)T,X1 *为X1的复共轭。这里引入循环移位矩阵概念,即训练样本X1是基样本循环移位组成,X1的基样本即x1,由此来确定权重w。
为了区分表示后面都用b代替基样本,利用循环移位矩阵的性质解得:
上标^代表对应字母的傅里叶变化,*⊙表示点乘运算,上式是在线性可分情况下求解(线性情况值得是线性可分的情况,非线性指的是非线性可分的情况)。
在非线性情况时,定义核函数κ将输入样本特征图谱映射到高维空间权值w可以用的线性组合表示,其bi表示特征图谱b的第i维特征。对于预测下一目标此时响应函数f(z)=wTz在高维空间的表达形式为其中常规核函数κ的表达形式为<,>为点乘运算符,这里运用最终可以求出:
∧运算符代表傅里叶变换,*代表复共轭运算,在这里等价于κ(b,z),⊙运算符代表点乘,这里z代表预测当前帧的基样本特征图谱。最终对进行傅里叶逆变换得到f(z)并找出f(z)最大值所在的位置(x,y)即为目标预测的位置。
第五步:在第四步预测平移位置后通过添加尺度滤波器来预测目标的尺度变化。建立尺度跟踪模型可认为是找到一个最优的相关滤波器h,h由每个特征维度对应的相关滤波器hl组成,l∈{1,...,d},d代表目标的特征维数。定义如下损失函数:
上式fl代表第l个维度的特征图,g为二维高斯期望输出,λs为尺度过程正则化系数(用来防止过拟合,赋值为0.001)。通过最小化损失函数我们就可以得到最优相关滤波器h:
上式大写字母代表其对应小写字母对应的复频域,G代表复频域的期望输出,本文用一维高斯形状输出表示,Fl代表目标复频域第l维度的特征图,FK代表目标复频域第k维度的特征图,*为复共轭运算符。得到关滤波器H后,我们的尺度预测输出其中zl和Fl都是目标复频域第l维度的特征图,区别是zl是当前帧目标复频域第l维度的特征图,Fl是上一帧目标复频域第l维度的特征图。设共有S个特征尺度,当前帧目标尺度为P×R,每一个特征尺度n为ys最大值所在的索引,尺度变换后的图像块Jn大小为anP×anR,a代表尺度因子。
第六步:在预测目标平移位置和尺度变化后(即第四部完成后),通过线性插值方法来更新两个滤波模板,进行跟踪,直到最后一帧:
在获取目标平移位置后采用线性插值方法更新滤波模板来减少跟踪过程中的计算量:
bt=(1-ηt)bt+ηtbt-1
βt=(1-ηt)βt+ηtβt-1
b、β与第四步的对应,下标t代表帧数即第t帧,ηt为平移过程的模型(这里的模型理解为b、β)更新速率是一个常数,本为ηt=0.1。
在预测目标尺度变化(即第五步完成后)后采用线性插值方法更新滤波模板来减少跟踪过程中的计算量:
代表第t帧的二维高斯输出的共轭傅里叶变化,Fr k为第t帧的第k维特征图谱,代表Ft k的共轭傅里叶变化,ηs为尺度变化过程的模型(这里的模型理解为)更新速率是一个常数,本文选取ηs=0.1。Bt分别是下式中的分子和分母部分:
Claims (3)
1.一种多特征融合与尺度自适应核相关滤波跟踪方法,其特征在于,具体包括如下步骤:
1)获取目标的初始信息,包括目标的位置信息和尺度信息;
2)获取目标区域的融合梯度直方图FHOG特征和降维后的颜色属性CN特征,通过Matlab相应工具包获取,最终获取得到的是31维的FHOG特征,通过Matlab工具包获取11维的CN特征,利用主成分分析法获取降维后的CN特征;
3)通过线性融合的方式,把步骤2)获取的31维FHOG特征、降维后的2维CN特征加上1维的灰度特征,融合后总共34特征作为最终的特征图谱;
4)在步骤3)得到融合特征图谱的基础上,利用核相关滤波器预测目标的平移位置;
5)在步骤4)预测平移位置后,通过添加尺度滤波器来预测目标的尺度变化;
6)在预测目标平移位置和尺度变化后,通过线性插值方法来更新两个滤波模板,进行跟踪,直到最后一帧。
2.根据权利要求1所述多特征融合与尺度自适应核相关滤波跟踪方法,其特征在于,所述步骤2)中利用主成分分析法获取降维后的CN特征具体步骤如下:通过最小化损失函数的方法获得合适的维度降低映射,该损失函数的形式如下:
上式α1,α2,...,αp为常系数项,p为当前图像帧数,为数据项,由当前形式的重建误差组成,其组成形式如下:
上式,M,N代表图像的大小,为当前帧的特征表现形式,Bp是由标准正交向量组成的D1×D2维投影矩阵,D1、D2分别代表当前帧特征维数和降维后的维数;为第j帧的平滑项,定义如下:
上式为第j帧投影矩阵Bj的第k个基向量,为对应的特征值,可知损失函数只有在时才能最小化,其中I为单位矩阵;
Bp由矩阵的特征值分解得到的前D2个最大特征值对应特征向量组成,Cp为的协方差矩阵,Λj为D1×D2维的对角矩阵,其值由组成;上式推导求解得到了一个所需的投影矩阵Bp,通过线性映射得到新的D2维特征图,即降维后的CN特征。
3.根据权利要求1所述多特征融合与尺度自适应核相关滤波跟踪方法,其特征在于,所述步骤5)具体步骤如下:
建立尺度跟踪模型认为是找到一个最优的相关滤波器h,h由每个特征维度对应的相关滤波器hl组成,l∈{1,...,d},d代表目标的特征维数;定义如下损失函数:
上式fl代表第l个维度的特征图,g为二维高斯期望输出,λs为尺度过程正则化系数;通过最小化损失函数就可以得到最优相关滤波器h:
上式大写字母代表其对应小写字母对应的复频域,G代表复频域的期望输出,用一维高斯形状输出表示,Fl代表目标复频域第l维度的特征图,FK代表目标复频域第k维度的特征图,*为复共轭运算符;得到关滤波器H后,我们的尺度预测输出其中zl和Fl都是目标复频域第l维度的特征图,区别是zl是当前帧目标复频域第l维度的特征图,Fl是上一帧目标复频域第l维度的特征图;设共有S个特征尺度,当前帧目标尺度为P×R,每一个特征尺度n为ys最大值所在的索引,尺度变换后的图像块Jn大小为anP×anR,a代表尺度因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810640255.2A CN109034193A (zh) | 2018-06-20 | 2018-06-20 | 多特征融合与尺度自适应核相关滤波跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810640255.2A CN109034193A (zh) | 2018-06-20 | 2018-06-20 | 多特征融合与尺度自适应核相关滤波跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109034193A true CN109034193A (zh) | 2018-12-18 |
Family
ID=64610268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810640255.2A Pending CN109034193A (zh) | 2018-06-20 | 2018-06-20 | 多特征融合与尺度自适应核相关滤波跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109034193A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858493A (zh) * | 2018-12-28 | 2019-06-07 | 上海阅面网络科技有限公司 | 一种基于神经网络的尺度自适应核相关滤波跟踪方法 |
CN110008844A (zh) * | 2019-03-12 | 2019-07-12 | 华南理工大学 | 一种融合slic算法的kcf长期手势跟踪方法 |
CN110033006A (zh) * | 2019-04-04 | 2019-07-19 | 中设设计集团股份有限公司 | 基于颜色特征非线性降维的车辆检测跟踪方法 |
CN110136103A (zh) * | 2019-04-24 | 2019-08-16 | 平安科技(深圳)有限公司 | 医学影像解释方法、装置、计算机设备及存储介质 |
CN110211149A (zh) * | 2018-12-25 | 2019-09-06 | 湖州云通科技有限公司 | 一种基于背景感知的尺度自适应核相关滤波跟踪方法 |
CN110942472A (zh) * | 2019-11-28 | 2020-03-31 | 广西师范大学 | 一种基于特征融合与自适应分块的核相关滤波跟踪方法 |
CN111145121A (zh) * | 2019-12-27 | 2020-05-12 | 安徽工业大学 | 一种强化多特征融合的置信项滤波器目标跟踪方法 |
CN113066102A (zh) * | 2020-01-02 | 2021-07-02 | 四川大学 | 一种结合自适应空间权重和畸变抑制的相关滤波跟踪方法 |
CN110097579B (zh) * | 2019-06-14 | 2021-08-13 | 中国科学院合肥物质科学研究院 | 基于路面纹理上下文信息的多尺度车辆跟踪方法及装置 |
CN115311542A (zh) * | 2022-08-25 | 2022-11-08 | 杭州恒胜电子科技有限公司 | 一种目标检测方法、装置、设备和介质 |
CN117635665A (zh) * | 2024-01-25 | 2024-03-01 | 浙江航天润博测控技术有限公司 | 基于相关滤波的抗遮挡目标跟踪方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080082426A1 (en) * | 2005-05-09 | 2008-04-03 | Gokturk Salih B | System and method for enabling image recognition and searching of remote content on display |
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106991689A (zh) * | 2017-04-05 | 2017-07-28 | 西安电子科技大学 | 基于fhog和颜色特征的目标跟踪方法及gpu加速 |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN107862680A (zh) * | 2017-10-31 | 2018-03-30 | 西安电子科技大学 | 一种基于相关滤波器的目标跟踪优化方法 |
CN107894189A (zh) * | 2017-10-31 | 2018-04-10 | 北京艾克利特光电科技有限公司 | 一种目标点自动追踪的光电瞄准系统及其自动追踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
-
2018
- 2018-06-20 CN CN201810640255.2A patent/CN109034193A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080082426A1 (en) * | 2005-05-09 | 2008-04-03 | Gokturk Salih B | System and method for enabling image recognition and searching of remote content on display |
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106991689A (zh) * | 2017-04-05 | 2017-07-28 | 西安电子科技大学 | 基于fhog和颜色特征的目标跟踪方法及gpu加速 |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN107862680A (zh) * | 2017-10-31 | 2018-03-30 | 西安电子科技大学 | 一种基于相关滤波器的目标跟踪优化方法 |
CN107894189A (zh) * | 2017-10-31 | 2018-04-10 | 北京艾克利特光电科技有限公司 | 一种目标点自动追踪的光电瞄准系统及其自动追踪方法 |
CN108053419A (zh) * | 2017-12-27 | 2018-05-18 | 武汉蛋玩科技有限公司 | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
MARTIN DANELLJAN等: "Accurate Scale Estimation for Robust Visual Tracking", 《BRITISH MACHINE VISION CONFERENCE 2014》 * |
MARTIN DANELLJAN等: "Adaptive Color Attributes for Real-Time Visual Tracking", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211149B (zh) * | 2018-12-25 | 2022-08-12 | 湖州云通科技有限公司 | 一种基于背景感知的尺度自适应核相关滤波跟踪方法 |
CN110211149A (zh) * | 2018-12-25 | 2019-09-06 | 湖州云通科技有限公司 | 一种基于背景感知的尺度自适应核相关滤波跟踪方法 |
CN109858493A (zh) * | 2018-12-28 | 2019-06-07 | 上海阅面网络科技有限公司 | 一种基于神经网络的尺度自适应核相关滤波跟踪方法 |
CN110008844A (zh) * | 2019-03-12 | 2019-07-12 | 华南理工大学 | 一种融合slic算法的kcf长期手势跟踪方法 |
CN110033006A (zh) * | 2019-04-04 | 2019-07-19 | 中设设计集团股份有限公司 | 基于颜色特征非线性降维的车辆检测跟踪方法 |
CN110136103A (zh) * | 2019-04-24 | 2019-08-16 | 平安科技(深圳)有限公司 | 医学影像解释方法、装置、计算机设备及存储介质 |
CN110097579B (zh) * | 2019-06-14 | 2021-08-13 | 中国科学院合肥物质科学研究院 | 基于路面纹理上下文信息的多尺度车辆跟踪方法及装置 |
CN110942472A (zh) * | 2019-11-28 | 2020-03-31 | 广西师范大学 | 一种基于特征融合与自适应分块的核相关滤波跟踪方法 |
CN110942472B (zh) * | 2019-11-28 | 2023-10-13 | 江苏砺行能源科技有限公司 | 一种基于特征融合与自适应分块的核相关滤波跟踪方法 |
CN111145121A (zh) * | 2019-12-27 | 2020-05-12 | 安徽工业大学 | 一种强化多特征融合的置信项滤波器目标跟踪方法 |
CN111145121B (zh) * | 2019-12-27 | 2023-02-28 | 安徽工业大学 | 一种强化多特征融合的置信项滤波器目标跟踪方法 |
CN113066102A (zh) * | 2020-01-02 | 2021-07-02 | 四川大学 | 一种结合自适应空间权重和畸变抑制的相关滤波跟踪方法 |
CN115311542A (zh) * | 2022-08-25 | 2022-11-08 | 杭州恒胜电子科技有限公司 | 一种目标检测方法、装置、设备和介质 |
CN115311542B (zh) * | 2022-08-25 | 2023-06-02 | 杭州恒胜电子科技有限公司 | 一种目标检测方法、装置、设备和介质 |
CN117635665A (zh) * | 2024-01-25 | 2024-03-01 | 浙江航天润博测控技术有限公司 | 基于相关滤波的抗遮挡目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034193A (zh) | 多特征融合与尺度自适应核相关滤波跟踪方法 | |
CN106096557B (zh) | 一种基于模糊训练样本的半监督学习人脸表情识别方法 | |
CN108734723B (zh) | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 | |
CN107748873A (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
Zhao et al. | Human face recognition based on multi-features using neural networks committee | |
CN102609681B (zh) | 基于字典学习模型的人脸识别方法 | |
CN109902590A (zh) | 深度多视图特征距离学习的行人重识别方法 | |
CN108596951A (zh) | 一种融合特征的目标跟踪方法 | |
CN108447078A (zh) | 基于视觉显著性的干扰感知跟踪算法 | |
CN110942472B (zh) | 一种基于特征融合与自适应分块的核相关滤波跟踪方法 | |
CN104573699A (zh) | 基于中等场强磁共振解剖成像的实蝇识别方法 | |
CN102855486A (zh) | 一种广义图像目标检测方法 | |
CN105893971A (zh) | 一种基于Gabor和稀疏表示的交通信号灯识别方法 | |
CN106250925A (zh) | 一种基于改进的典型相关分析的零样本视频分类方法 | |
CN109145971A (zh) | 基于改进匹配网络模型的单样本学习方法 | |
CN110796022A (zh) | 一种基于多流形耦合映射的低分辨人脸识别方法 | |
Zhang et al. | Fusion of multifeature low-rank representation for synthetic aperture radar target configuration recognition | |
CN104200226B (zh) | 基于机器学习的粒子滤波目标跟踪方法 | |
Zhu et al. | Face expression recognition based on equable principal component analysis and linear regression classification | |
CN104268553A (zh) | 基于核模糊Foley-Sammon转换的SAR图像目标识别方法 | |
CN102930292A (zh) | 一种基于p-SIFT特征的物体识别方法 | |
CN104573745A (zh) | 基于磁共振成像的实蝇分类方法 | |
CN110414575A (zh) | 一种融合局部度量的半监督多标记距离度量学习方法 | |
CN103020657A (zh) | 一种车牌汉字识别方法 | |
CN105844605A (zh) | 基于自适应表示的人脸画像合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |
|
RJ01 | Rejection of invention patent application after publication |