CN113487654A - 一种基于多专家决策的多模态视觉目标跟踪方法 - Google Patents

一种基于多专家决策的多模态视觉目标跟踪方法 Download PDF

Info

Publication number
CN113487654A
CN113487654A CN202110768710.9A CN202110768710A CN113487654A CN 113487654 A CN113487654 A CN 113487654A CN 202110768710 A CN202110768710 A CN 202110768710A CN 113487654 A CN113487654 A CN 113487654A
Authority
CN
China
Prior art keywords
expert
correlation
frame
decision
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110768710.9A
Other languages
English (en)
Inventor
罗珊珊
陈波
李成娟
李宝清
袁晓兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Microsystem and Information Technology of CAS
Original Assignee
Shanghai Institute of Microsystem and Information Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Microsystem and Information Technology of CAS filed Critical Shanghai Institute of Microsystem and Information Technology of CAS
Priority to CN202110768710.9A priority Critical patent/CN113487654A/zh
Publication of CN113487654A publication Critical patent/CN113487654A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多专家决策的多模态视觉目标跟踪方法,包括:步骤(1):分别从当前帧的可见光图像和热红外图像中获取多个尺度的搜索窗口,并根据所述多个尺度的搜索窗口提取可见光图像和热红外图像的外观特征;步骤(2):采用若干判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征输入所述若干判别相关滤波器,根据每个专家输出的相关响应得分分别预测当前帧的目标位置;步骤(3):将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置。本发明能够实现对目标的有效跟踪。

Description

一种基于多专家决策的多模态视觉目标跟踪方法
技术领域
本发明涉及视觉目标跟踪技术领域,特别是涉及一种基于多专家决策的多模态视觉目标跟踪方法。
背景技术
可见光传感器获得的可见光图像具有高空间分辨率,同时也包含相当多的纹理细节信息,得到了较为广泛的应用。然而,在实际应用中,可见光图像却很容易受到外界光线及遮挡的影响,导致视觉目标跟踪很容易发生失败。热红外图像是根据辐射差来区分目标和背景,能够抵外界光线及遮挡的干扰,但是其分辨率较低且纹理较差。同时利用可见光和热红外这两种类型图像的优势,实现两者信息的互补,能够进行更稳定的视觉目标跟踪。
传统的视觉目标跟踪算法大多都是基于单一的可见光图像序列,其中,基于判别相关滤波的视觉目标跟踪方法因其具有良好的跟踪性能及极高的计算效率而得到了广泛的应用。然而,在光线昏暗、遮挡等场景中,其跟踪性能受到很大的影响。需要综合考虑图像特点以实现更稳定的视觉目标跟踪。
发明内容
本发明所要解决的技术问题是提供一种基于多专家决策的多模态视觉目标跟踪方法,能够实现对目标的有效跟踪。
本发明解决其技术问题所采用的技术方案是:提供一种基于多专家决策的多模态视觉目标跟踪方法,包括:
步骤(1):分别从当前帧的可见光图像和热红外图像中获取多个尺度的搜索窗口,并根据所述多个尺度的搜索窗口提取可见光图像和热红外图像的外观特征;
步骤(2):采用若干判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征输入所述若干判别相关滤波器,根据每个专家输出的相关响应得分分别预测当前帧的目标位置;
步骤(3):将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置。
所述步骤(1)中可见光图像和热红外图像的外观特征包括:可见光图像的方向梯度直方图特征fHOG_rgb、热红外图像的方向梯度直方图特征fHOG_thermal、可见光图像和热红外图像的级联f{HOG_rgb,HOG_thermal},以及可见光图像和热红外图像的均值fmean{HOG_rgb,HOG_thermal}
所述步骤(2)具体包括:
步骤(21):通过最小化损失函数来生成判别相关滤波器;
步骤(22):采用四个判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征分别输入四个判别相关滤波器;
步骤(23):通过判别相关滤波器的相关响应函数计算每个专家的相关响应得分,并对每个专家的相关响应得分分别进行逆傅里叶变换,得到每个专家预测到的当前帧的目标位置。
所述步骤(21)中的最小化损失函数的公式为:
Figure BDA0003151720940000021
其中,x表示从视频序列图像中提取的训练样本,y表示相关响应预期的结果,hl表示第l个通道的判别相关滤波器参数,xl表示第l个通道的判别相关滤波器的训练样本数据,λ表示正则化参数,K表示目标特征通道数,*表示相关运算符。
所述步骤(23)中的判别相关滤波器的相关响应函数的公式为:
Figure BDA0003151720940000022
其中,hl表示第l个通道的判别相关滤波器参数,zl表示第l个通道的判别相关滤波器输入样本数据。
所述步骤(3)中将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置,公式为:
Figure BDA0003151720940000023
其中,
Figure BDA0003151720940000024
表示第t帧专家n的权值且
Figure BDA0003151720940000025
表示第n个专家在第t帧的目标位置。
所述步骤(2)中的判别相关滤波器还包括自动更新每个专家的权重和滤波器系数,具体为:
采用无参数对冲算法计算每个专家的决策损失,并根据所述决策损失更新每个专家的权重;
更新每个专家的滤波器系数。
所述每个专家的决策损失通过重叠率来表示,公式为:
Figure BDA0003151720940000026
其中,
Figure BDA0003151720940000027
表示第t帧专家n的损失,
Figure BDA0003151720940000028
表示第t帧专家n预测的边界框
Figure BDA0003151720940000029
与最终决策得到边界框
Figure BDA00031517209400000210
的重叠率且
Figure BDA0003151720940000031
Figure BDA0003151720940000032
表示第t帧专家n预测的边界框
Figure BDA0003151720940000033
与最终决策得到边界框
Figure BDA0003151720940000034
交集的面积,
Figure BDA0003151720940000035
表示第t帧专家n预测的边界框
Figure BDA0003151720940000036
与最终决策得到边界框
Figure BDA0003151720940000037
并集的面积。
所述根据所述决策损失更新每个专家的权重,具体为:通过最小化累积遗憾
Figure BDA0003151720940000038
来更新每个专家的权重,所述累积遗憾的公式为:
Figure BDA0003151720940000039
其中,T为当前视频图像帧数,rt n表示遗憾测度且
Figure BDA00031517209400000310
Figure BDA00031517209400000311
表示第t帧专家n的损失,
Figure BDA00031517209400000312
表示第t帧所有专家n的加权平均损失且
Figure BDA00031517209400000313
Figure BDA00031517209400000314
表示第t帧专家n的权值且
Figure BDA00031517209400000315
所述更新每个专家的滤波器系数,公式为:
Figure BDA00031517209400000316
其中,η表示学习率,
Figure BDA00031517209400000317
表示更新后第t帧的判别相关滤波器系数,
Figure BDA00031517209400000318
表示第t-1帧的判别相关滤波器系数,
Figure BDA00031517209400000319
表示更新前第t帧的判别相关滤波器系数。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明是对可见光-热红外图像序列下的多模态视觉目标跟踪,相比于单一的可见光图像序列下的是视觉目标跟踪方法,本发明充分利用了可见光-热红外图像对中的特征信息,考虑了可见光和热红外图像互补的特性,克服了跟踪器很容易受到外界光线及遮挡的问题,提高了跟踪成功率和精确度。本发明通过多专家策略实现了更加稳定的视觉目标跟踪。本发明几乎不受到环境的干扰,即能在环境影响下始终保持目标跟踪的准确性。本发明在公共安防、人机交互等领域都有很好的应用前景。
附图说明
图1是本发明实施方式的原理示意图;
图2是本发明实施方式的流程图;
图3是本发明实施方式和传统的基于判别相关滤波的跟踪算法目标跟踪比较示意图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于多专家决策的多模态视觉目标跟踪方法,请参阅图1和图2,包括:
步骤(1):分别从当前帧的可见光图像和热红外图像中获取多个尺度的搜索窗口,并根据所述多个尺度的搜索窗口提取可见光图像和热红外图像的外观特征;
步骤(2):采用若干判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征输入所述若干判别相关滤波器,根据每个专家输出的相关响应得分分别预测当前帧的目标位置;
步骤(3):将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置;
从视频序列图像的第2帧开始,还包括以下步骤:
步骤(4):采用无参数对冲算法计算每个专家的决策损失,并根据所述决策损失更新每个专家的权重;
步骤(5):更新每个专家的滤波器系数;
步骤(6):获取下一帧图像并循环所述步骤(1)至步骤(3),直至视频序列图像每一帧中的目标均被跟踪。
以下对上述各步骤进行详细描述:
进一步地,所述步骤(1)中可见光图像和热红外图像的外观特征包括:可见光图像的方向梯度直方图(HOG)特征fHOG_rgb、热红外图像的方向梯度直方图(HOG)特征fHOG_thermal、可见光图像和热红外图像的级联f{HOG_rgb,HOG_thermal},以及可见光图像和热红外图像的均值fmean{HOG_rgb,HOG_thermal}
所述步骤(2)具体包括:
步骤(21):判别相关滤波器h可以通过解决脊回归问题得到,具体为:通过最小化损失函数来找出判别相关滤波器h;
所述步骤(21)中的最小化损失函数的公式为:
Figure BDA0003151720940000041
其中,x表示从视频序列图像中提取的训练样本,y表示相关响应预期的结果,hl表示第l个通道的判别相关滤波器参数,xl表示第l个通道的判别相关滤波器的训练样本数据,λ表示正则化参数,K表示目标特征通道数,*表示相关运算符。
由于上述最小化损失函数公式在频域上有个闭式解,根据该闭式解可求得判别相关滤波器,公式如下:
Figure BDA0003151720940000051
其中,∧表示离散傅里叶变换(DFT)运算符,·表示复共轭,Θ表示元素乘,xi表示第i个特征通道的训练样本数据,λ表示正则化参数,I表示单位矩阵。
步骤(22):采用四个判别相关滤波器分别作为专家,将提取的特征数据fHOG_rgb、fHOG_thermal、f{HOG_rgb,HOG_thermal}和fmean{HOG_rgb,HOG_thermal}分别输入四个判别相关滤波器;
步骤(23):通过判别相关滤波器的相关响应函数计算每个专家的相关响应得分,并对每个专家的相关响应得分分别进行逆傅里叶变换,得到每个专家预测到的当前帧的目标位置。
所述步骤(23)中的判别相关滤波器的相关响应函数的公式为:
Figure BDA0003151720940000052
其中,hl表示第l个通道的判别相关滤波器参数,zl表示第l个通道的判别相关滤波器输入样本数据,再求得Y'后,对Y'进行逆向傅里叶变换,得到最大相关滤波响应值的位置即为预测到的当前帧的目标位置。
进一步地,所述步骤(3)中将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置,公式为:
Figure BDA0003151720940000053
其中,
Figure BDA0003151720940000054
表示第t帧专家n的权值且
Figure BDA0003151720940000055
Figure BDA0003151720940000056
表示第n个专家在第t帧的目标位置。
进一步地,所述步骤(4)中选取重叠率来表示每个专家的决策损失,公式为:
Figure BDA0003151720940000061
其中,
Figure BDA0003151720940000062
表示第t帧专家n的损失,
Figure BDA0003151720940000063
表示第t帧专家n预测的边界框
Figure BDA0003151720940000064
与最终决策得到边界框
Figure BDA0003151720940000065
的重叠率且
Figure BDA0003151720940000066
Figure BDA0003151720940000067
表示第t帧专家n预测的边界框
Figure BDA0003151720940000068
与最终决策得到边界框
Figure BDA0003151720940000069
交集的面积,
Figure BDA00031517209400000610
表示第t帧专家n预测的边界框
Figure BDA00031517209400000611
与最终决策得到边界框
Figure BDA00031517209400000612
并集的面积。
所述步骤(4)中根据所述决策损失更新每个专家的权重,具体为:通过最小化累积遗憾
Figure BDA00031517209400000613
来更新每个专家的权重,所述累积遗憾的公式为:
Figure BDA00031517209400000614
其中,T为当前视频图像帧数(例如,求第10帧的累计遗憾时,T取值为10),rt n表示遗憾测度且
Figure BDA00031517209400000615
Figure BDA00031517209400000616
表示第t帧专家n的损失,
Figure BDA00031517209400000617
表示第t帧所有专家n的加权平均损失且
Figure BDA00031517209400000618
Figure BDA00031517209400000619
表示第t帧专家n的权值且
Figure BDA00031517209400000620
进一步地,所述步骤(5)中更新每个专家的滤波器系数,公式为:
Figure BDA00031517209400000621
其中,η表示学习率,
Figure BDA00031517209400000622
表示更新后第t帧的判别相关滤波器系数,
Figure BDA00031517209400000623
表示第t-1帧的判别相关滤波器系数,
Figure BDA00031517209400000624
表示更新前第t帧的判别相关滤波器系数。
请参阅图3,为本发明和传统的基于判别相关滤波的跟踪算法目标跟踪比较示意图,传统算法的跟踪框为数字1,本实施方式的跟踪框为数字2,主要用于跟踪雨中的行人,第一帧图像数字1和数字2几乎重叠,看不出优劣,从第二帧图像开始,本实施方式就能紧跟雨中的行人,而传统算法由于环境干扰而导致丢失了跟踪的目标,无法精准跟踪目标。
由此可见,本发明是对可见光-热红外图像序列下的多模态视觉目标跟踪,相比于单一的可见光图像序列下的是视觉目标跟踪方法,本发明充分利用了可见光-热红外样本图像对中的特征信息,考虑了可见光和热红外图像互补的特性,克服了跟踪器很容易受到外界光线及遮挡的问题,提高了跟踪成功率和精确度。本发明通过多专家策略实现了更加稳定的视觉目标跟踪。

Claims (10)

1.一种基于多专家决策的多模态视觉目标跟踪方法,其特征在于,包括:
步骤(1):分别从当前帧的可见光图像和热红外图像中获取多个尺度的搜索窗口,并根据所述多个尺度的搜索窗口提取可见光图像和热红外图像的外观特征;
步骤(2):采用若干判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征输入所述若干判别相关滤波器,根据每个专家输出的相关响应得分分别预测当前帧的目标位置;
步骤(3):将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置。
2.根据权利要求1所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(1)中可见光图像和热红外图像的外观特征包括:可见光图像的方向梯度直方图特征fHOG_rgb、热红外图像的方向梯度直方图特征fHOG_thermal、可见光图像和热红外图像的级联f{HOG_rgb,HOG_thermal},以及可见光图像和热红外图像的均值fmean{HOG_rgb,HOG_thermal}
3.根据权利要求2所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(2)具体包括:
步骤(21):通过最小化损失函数来生成判别相关滤波器;
步骤(22):采用四个判别相关滤波器分别作为专家,将提取的可见光图像和热红外图像的外观特征分别输入四个判别相关滤波器;
步骤(23):通过判别相关滤波器的相关响应函数计算每个专家的相关响应得分,并对每个专家的相关响应得分分别进行逆傅里叶变换,得到每个专家预测到的当前帧的目标位置。
4.根据权利要求3所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(21)中的最小化损失函数的公式为:
Figure FDA0003151720930000011
其中,x表示从视频序列图像中提取的训练样本,y表示相关响应预期的结果,hl表示第l个通道的判别相关滤波器参数,xl表示第l个通道的判别相关滤波器的训练样本数据,λ表示正则化参数,K表示目标特征通道数,*表示相关运算符。
5.根据权利要求3所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(23)中的判别相关滤波器的相关响应函数的公式为:
Figure FDA0003151720930000021
其中,hl表示第l个通道的判别相关滤波器参数,zl表示第l个通道的判别相关滤波器输入样本数据。
6.根据权利要求1所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(3)中将每个专家预测的当前帧的目标位置乘以每个专家的权重,得到最终目标的位置,公式为:
Figure FDA0003151720930000022
其中,
Figure FDA0003151720930000023
表示第t帧专家n的权值且
Figure FDA0003151720930000024
Figure FDA0003151720930000025
表示第n个专家在第t帧的目标位置。
7.根据权利要求1所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述步骤(2)中的判别相关滤波器还包括自动更新每个专家的权重和滤波器系数,具体为:
采用无参数对冲算法计算每个专家的决策损失,并根据所述决策损失更新每个专家的权重;
更新每个专家的滤波器系数。
8.根据权利要求7所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述每个专家的决策损失通过重叠率来表示,公式为:
Figure FDA0003151720930000026
其中,
Figure FDA0003151720930000027
表示第t帧专家n的损失,
Figure FDA0003151720930000028
表示第t帧专家n预测的边界框
Figure FDA0003151720930000029
与最终决策得到边界框
Figure FDA00031517209300000210
的重叠率且
Figure FDA00031517209300000211
Figure FDA00031517209300000212
表示第t帧专家n预测的边界框
Figure FDA00031517209300000213
与最终决策得到边界框
Figure FDA00031517209300000214
交集的面积,
Figure FDA00031517209300000215
表示第t帧专家n预测的边界框
Figure FDA00031517209300000216
与最终决策得到边界框
Figure FDA00031517209300000217
并集的面积。
9.根据权利要求7所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述根据所述决策损失更新每个专家的权重,具体为:通过最小化累积遗憾
Figure FDA00031517209300000218
来更新每个专家的权重,所述累积遗憾的公式为:
Figure FDA00031517209300000219
其中,T为当前视频图像帧数,rt n表示遗憾测度且
Figure FDA00031517209300000220
Figure FDA00031517209300000221
表示第t帧专家n的损失,
Figure FDA00031517209300000222
表示第t帧所有专家n的加权平均损失且
Figure FDA00031517209300000223
Figure FDA00031517209300000224
表示第t帧专家n的权值且
Figure FDA00031517209300000225
10.根据权利要求7所述的基于多专家决策的多模态视觉目标跟踪方法,其特征在于,所述更新每个专家的滤波器系数,公式为:
Figure FDA0003151720930000031
其中,η表示学习率,
Figure FDA0003151720930000032
表示更新后第t帧的判别相关滤波器系数,
Figure FDA0003151720930000033
表示第t-1帧的判别相关滤波器系数,
Figure FDA0003151720930000034
表示更新前第t帧的判别相关滤波器系数。
CN202110768710.9A 2021-07-07 2021-07-07 一种基于多专家决策的多模态视觉目标跟踪方法 Pending CN113487654A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110768710.9A CN113487654A (zh) 2021-07-07 2021-07-07 一种基于多专家决策的多模态视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110768710.9A CN113487654A (zh) 2021-07-07 2021-07-07 一种基于多专家决策的多模态视觉目标跟踪方法

Publications (1)

Publication Number Publication Date
CN113487654A true CN113487654A (zh) 2021-10-08

Family

ID=77941803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110768710.9A Pending CN113487654A (zh) 2021-07-07 2021-07-07 一种基于多专家决策的多模态视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113487654A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107689052A (zh) * 2017-07-11 2018-02-13 西安电子科技大学 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN110569706A (zh) * 2019-06-25 2019-12-13 南京信息工程大学 一种基于时间和空间网络的深度集成目标跟踪算法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107689052A (zh) * 2017-07-11 2018-02-13 西安电子科技大学 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN110569706A (zh) * 2019-06-25 2019-12-13 南京信息工程大学 一种基于时间和空间网络的深度集成目标跟踪算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
QIXIANG ZOU等: "Multi-Experts with Context Awareness Correlation Filters for Visual Tracking", 《ITAIC 2020 (ISSN 2693-2865)》 *
SHANSHAN LUO等: "An Anti-Drift Background-Aware Correlation Filter for Visual Tracking in Complex Scenes", 《IEEE ACCESS》 *
张伟;温显斌;: "基于多特征和尺度估计的核相关滤波跟踪算法", 天津理工大学学报, no. 03 *

Similar Documents

Publication Publication Date Title
CN109816689B (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110135500B (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN108734723B (zh) 一种基于自适应权重联合学习的相关滤波目标跟踪方法
CN111080675B (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN110175649B (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN109785366B (zh) 一种针对遮挡的相关滤波目标跟踪方法
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN111008991B (zh) 一种背景感知的相关滤波目标跟踪方法
CN111340842B (zh) 一种基于联合模型的相关滤波目标跟踪方法
CN111429485B (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
Guo et al. Multitemporal hyperspectral images change detection based on joint unmixing and information coguidance strategy
CN113449658A (zh) 基于空域、频域、时域的夜间视频序列显著性检测方法
CN115359407A (zh) 一种视频中的多车辆跟踪方法
Touil et al. Hierarchical convolutional features for visual tracking via two combined color spaces with SVM classifier
CN110827327B (zh) 一种基于融合的长期目标跟踪方法
CN110276782B (zh) 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN114758226A (zh) 两阶段决策引导双字典构建的高光谱图像异常检测方法
Huang et al. SVTN: Siamese visual tracking networks with spatially constrained correlation filter and saliency prior context model
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN113487654A (zh) 一种基于多专家决策的多模态视觉目标跟踪方法
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
CN115631211A (zh) 一种基于无监督分割的高光谱图像小目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination