CN111968156A - 一种自适应超特征融合的视觉跟踪方法 - Google Patents

一种自适应超特征融合的视觉跟踪方法 Download PDF

Info

Publication number
CN111968156A
CN111968156A CN202010737552.6A CN202010737552A CN111968156A CN 111968156 A CN111968156 A CN 111968156A CN 202010737552 A CN202010737552 A CN 202010737552A CN 111968156 A CN111968156 A CN 111968156A
Authority
CN
China
Prior art keywords
formula
feature
manual
scale
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010737552.6A
Other languages
English (en)
Inventor
陈智
张坤三
胡志杰
陈辰
颜育奇
曾臻
刘茗蔚
范琳芸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Fujian Electric Power Co Ltd
Zhangzhou Power Supply Co of State Grid Fujian Electric Power Co Ltd
Original Assignee
State Grid Fujian Electric Power Co Ltd
Zhangzhou Power Supply Co of State Grid Fujian Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Fujian Electric Power Co Ltd, Zhangzhou Power Supply Co of State Grid Fujian Electric Power Co Ltd filed Critical State Grid Fujian Electric Power Co Ltd
Priority to CN202010737552.6A priority Critical patent/CN111968156A/zh
Publication of CN111968156A publication Critical patent/CN111968156A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。本发明充分结合不同特征的性能优势以实现鲁棒精准的跟踪。

Description

一种自适应超特征融合的视觉跟踪方法
技术领域
本发明涉及人工智能视频图像处理技术领域,具体涉及一种自适应超特征融合的视觉跟踪方法。
背景技术
当前,随着信息通信技术与云存储设备的不断迭代升级,利用人工智能技术取代人工劳力已成为现代科技发展的主流趋势,不但能够减轻生产劳动成本,而且能够有效提升生产工作效率。视觉目标跟踪技术又是人工智能众多领域中一项重要热门的研究方向,能够被广泛运用于视频监控系统、无人机、自动驾驶、智能机器人、以及虚拟现实等多个领域。
虽然目标跟踪方法取得显著的精确性和鲁棒性,但其仍然面临多种外界因素的干扰和复杂外观变化的挑战,如遮挡、尺度变化、形变以及相似背景干扰等。设计一种能够适应多种外观环境挑战的跟踪方法是以实现准确鲁棒的跟踪是目前视觉跟踪领域重要的研究问题。
一方面传统的手工特征表达不能提取目标的深层次语义信息,进而不能实现精确的目标定位。而高维的深层次卷积特征虽然能够保留完整的空间结构和高清的分辨率,但其对目标的外观变化较为敏感,进而难以适应复杂的外观变化。另一方面,传统的逐帧更新模型的方法容易引起模型的污染问题,长期积累容易引起跟踪漂移问题,最终导致跟踪失败。
发明内容
有鉴于此,本发明的目的在于提供一种
为实现上述目的,本发明采用如下技术方案:
一种自适应超特征融合的视觉跟踪方法,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
进一步的,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
Figure BDA0002605519590000031
其中,F-1为逆傅里叶变换,
Figure BDA0002605519590000036
为卷积运算;
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
Figure BDA0002605519590000032
Figure BDA0002605519590000033
其中,i为当前帧的序号,η为滤波模型学习率。
进一步的,所述步骤A2具体为:
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
Figure BDA0002605519590000034
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
Figure BDA0002605519590000035
进一步的,所述尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_deep1+0.5×f_deep2 (6)
其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;
步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:
Figure BDA0002605519590000041
Figure BDA0002605519590000042
其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。
进一步的,所述步骤S3具体为:
步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:
f_fuse=model_fuse_r1×f_deep+model_fuse_r2×f_hand
model_fuse_r1=fuse_r1;
(9)
步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:
Figure BDA0002605519590000043
Figure BDA0002605519590000044
步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:
Figure BDA0002605519590000051
其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。
进一步的,所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:
Figure BDA0002605519590000052
Figure BDA0002605519590000053
计算最终的峰值旁瓣比为:
Figure BDA0002605519590000054
仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。
进一步的,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:
Figure BDA0002605519590000061
引入||βtt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:
Figure BDA0002605519590000062
求解得到公式(15):
Figure BDA0002605519590000063
Figure BDA0002605519590000064
得到下式:
Figure BDA0002605519590000065
根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。
本发明与现有技术相比具有以下有益效果:
1、本发明通过有效结合传统手工特征和深度卷积特征的性能优势,提升分类器的判别性能。
2、本发明引入一种高斯约束优化方法提高跟踪器对复杂外观变化的适应能力,能够有效提升跟踪器的精确性和成功率
3、本发明所提的更新方法根据平均PSR值与相应图峰值的关系自适应判断模型的更新,能够有效避免模型污染引起的跟踪漂移问题。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中在OTB100数据集中在50个视频序列的精确度曲线和成功率曲线图;
图3是本发明一实施例中在OTB100数据集中在100个视频序列的精确度曲线和成功率曲线图;
图4是本发明一实施例中UAV123数据集中在123个视频序列的精确度曲线和成功率曲线图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种自适应超特征融合的视觉跟踪方法,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
在本实施例中,优选的位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
Figure BDA0002605519590000081
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
Figure BDA0002605519590000082
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
Figure BDA0002605519590000083
其中,F-1为逆傅里叶变换,
Figure BDA0002605519590000086
为卷积运算;
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
Figure BDA0002605519590000084
Figure BDA0002605519590000085
其中,i为当前帧的序号,η为滤波模型学习率。
在本实施例中,优选的,尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_deep1+0.5×f_deep2 (6)
其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;
步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:
Figure BDA0002605519590000091
Figure BDA0002605519590000092
其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;所述步骤S3具体为:
步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:
f_fuse=model_fuse_r1×f_deep+model_fuse_r2×f_hand
model_fuse_r1=fuse_r1;
(9)
步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:
Figure BDA0002605519590000093
Figure BDA0002605519590000094
步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:
Figure BDA0002605519590000101
其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:
Figure BDA0002605519590000102
Figure BDA0002605519590000103
计算最终的峰值旁瓣比为:
Figure BDA0002605519590000104
仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
优选的,在本实施例中,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:
Figure BDA0002605519590000111
引入||βtt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:
Figure BDA0002605519590000112
求解得到公式(15):
Figure BDA0002605519590000113
Figure BDA0002605519590000114
得到下式:
Figure BDA0002605519590000115
根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。
参考图2-4,本实施例从多个方面将本方法与目前先进主流的方法进行对比,其中主要的评价指标为跟踪精确度和成功率。图2至图4方框中的曲线从上到下表示该方法(或算法)的从从优到劣。从图2至图4可以看出,本实施例的方法在UAV123数据集的精确度和成功率处于第一名的位置,而且在OTB50和OTB100数据集中的成功率排在第一名位置,本方法对比其他方法在总体上具有明显的优势。
图2至4的精确度曲线含义为:在评价跟踪精确性方面通常应用的是中心位置误差,中心位置误差定义为跟踪对象的中心位置和手工标定的准确中心位置之间的平均欧式距离。精确度曲线表明目标中心位置误差小于给定阈值的帧数占总视频帧数的百分比,这个阈值通常。
图2至4的成功率曲线含义为:边界框的重叠率大于一个给定的阈值t0的帧数占总视频帧数的百分比。重叠率通常被定为
Figure BDA0002605519590000121
其中∩和∪分别代表两个区域的交集和并集,·表示为区域内像素点的个数。成功率曲线表明了阈值t0到从0至1范围内变化时,跟踪成功的帧数所占的比例。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (7)

1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
2.根据权利要求1所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
Figure FDA0002605519580000021
其中,F-1为逆傅里叶变换,
Figure FDA0002605519580000026
为卷积运算;
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
Figure FDA0002605519580000022
Figure FDA0002605519580000023
其中,i为当前帧的序号,η为滤波模型学习率。
3.根据权利要求2所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述步骤A2具体为:
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
Figure FDA0002605519580000024
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
Figure FDA0002605519580000025
4.根据权利要求3所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_deep1+0.5×f_deep2 (6)
其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;
步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:
Figure FDA0002605519580000031
Figure FDA0002605519580000032
其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。
5.根据权利要求4所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述步骤S3具体为:
步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:
Figure FDA0002605519580000033
步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:
Figure FDA0002605519580000034
Figure FDA0002605519580000035
步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:
Figure FDA0002605519580000041
其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。
6.根据权利要求5所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:
Figure FDA0002605519580000042
Figure FDA0002605519580000043
计算最终的峰值旁瓣比为:
Figure FDA0002605519580000044
仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。
7.根据权利要求6所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:
Figure FDA0002605519580000051
引入||βtt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:
Figure FDA0002605519580000052
求解得到公式(15):
Figure FDA0002605519580000053
Figure FDA0002605519580000054
得到下式:
Figure FDA0002605519580000055
根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。
CN202010737552.6A 2020-07-28 2020-07-28 一种自适应超特征融合的视觉跟踪方法 Pending CN111968156A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010737552.6A CN111968156A (zh) 2020-07-28 2020-07-28 一种自适应超特征融合的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010737552.6A CN111968156A (zh) 2020-07-28 2020-07-28 一种自适应超特征融合的视觉跟踪方法

Publications (1)

Publication Number Publication Date
CN111968156A true CN111968156A (zh) 2020-11-20

Family

ID=73362861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010737552.6A Pending CN111968156A (zh) 2020-07-28 2020-07-28 一种自适应超特征融合的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN111968156A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686929A (zh) * 2021-03-10 2021-04-20 长沙理工大学 一种目标跟踪方法及系统
CN113409357A (zh) * 2021-04-27 2021-09-17 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113723464A (zh) * 2021-08-02 2021-11-30 北京大学 一种遥感影像分类方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090262977A1 (en) * 2008-04-18 2009-10-22 Cheng-Ming Huang Visual tracking system and method thereof
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN109325966A (zh) * 2018-09-05 2019-02-12 华侨大学 一种通过时空上下文进行视觉跟踪的方法
CN109801311A (zh) * 2019-01-31 2019-05-24 长安大学 一种基于深度残差网络特征的视觉目标跟踪方法
CN111008996A (zh) * 2019-12-09 2020-04-14 华侨大学 一种通过分层特征响应融合的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090262977A1 (en) * 2008-04-18 2009-10-22 Cheng-Ming Huang Visual tracking system and method thereof
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN109325966A (zh) * 2018-09-05 2019-02-12 华侨大学 一种通过时空上下文进行视觉跟踪的方法
CN109801311A (zh) * 2019-01-31 2019-05-24 长安大学 一种基于深度残差网络特征的视觉目标跟踪方法
CN111008996A (zh) * 2019-12-09 2020-04-14 华侨大学 一种通过分层特征响应融合的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
陈智: "基于相关滤波的视觉跟踪算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
陈智等: "自适应特征融合的多尺度相关滤波目标跟踪算法", 《计算机辅助设计与图形学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686929A (zh) * 2021-03-10 2021-04-20 长沙理工大学 一种目标跟踪方法及系统
CN112686929B (zh) * 2021-03-10 2021-06-25 长沙理工大学 一种目标跟踪方法及系统
CN113409357A (zh) * 2021-04-27 2021-09-17 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113409357B (zh) * 2021-04-27 2023-10-31 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113723464A (zh) * 2021-08-02 2021-11-30 北京大学 一种遥感影像分类方法及装置
CN113723464B (zh) * 2021-08-02 2023-10-03 北京大学 一种遥感影像分类方法及装置

Similar Documents

Publication Publication Date Title
CN111968156A (zh) 一种自适应超特征融合的视觉跟踪方法
CN108549839B (zh) 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108776975B (zh) 一种基于半监督特征和滤波器联合学习的视觉跟踪方法
CN110580496A (zh) 一种基于熵最小化的深度迁移学习系统及方法
CN110473592B (zh) 一种多视角人类协同致死基因预测方法
CN111310582A (zh) 基于边界感知和对抗学习的湍流退化图像语义分割方法
CN109635763B (zh) 一种人群密度估计方法
CN111583294B (zh) 一种结合尺度自适应与模型更新的目标跟踪方法
EP4211614A1 (en) Battery materials screening
CN103544496A (zh) 基于空间与时间信息融合的机器人场景识别方法
CN108549866B (zh) 基于密集卷积神经网络的遥感飞机识别方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN115494865A (zh) 基于时空图卷积网络的无人机集群态势分析方法及介质
CN109886342A (zh) 基于机器学习的模型训练方法和装置
CN115239760B (zh) 一种目标跟踪方法、系统、设备及存储介质
CN116526473A (zh) 基于粒子群优化lstm的电热负荷预测方法
CN116720620A (zh) 一种基于IPSO算法优化CNN-BiGRU-Attention网络模型的储粮通风温度预测方法
CN113947182A (zh) 基于双阶段堆叠图卷积网络的交通流预测模型构建方法
CN112149896A (zh) 一种基于注意力机制的机械设备多工况故障预测方法
CN116894180B (zh) 一种基于异构图注意力网络的产品制造质量预测方法
CN113486926B (zh) 一种自动化码头设备异常检测系统
CN114330119A (zh) 一种基于深度学习的抽蓄机组调节系统辨识方法
CN110148152A (zh) 基于卷积神经网络的sar目标交互行为识别方法
CN117710689A (zh) 基于粒子滤波的高精度sar图像目标检测方法及系统
CN115816466B (zh) 一种提升视觉观测机器人控制稳定性的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201120

RJ01 Rejection of invention patent application after publication