CN110120064A - 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 - Google Patents

一种基于互强化与多注意机制学习的深度相关目标跟踪算法 Download PDF

Info

Publication number
CN110120064A
CN110120064A CN201910392629.8A CN201910392629A CN110120064A CN 110120064 A CN110120064 A CN 110120064A CN 201910392629 A CN201910392629 A CN 201910392629A CN 110120064 A CN110120064 A CN 110120064A
Authority
CN
China
Prior art keywords
target
feature
next frame
filter template
attention mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910392629.8A
Other languages
English (en)
Other versions
CN110120064B (zh
Inventor
宋慧慧
周双双
张晓露
张开华
汤润发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201910392629.8A priority Critical patent/CN110120064B/zh
Publication of CN110120064A publication Critical patent/CN110120064A/zh
Application granted granted Critical
Publication of CN110120064B publication Critical patent/CN110120064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/238Analysis of motion using block-matching using non-full search, e.g. three-step search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其步骤为:输入上一帧目标区域及下一帧的搜索区域;初始化特征提取器参数,经过均方误差损失通过梯度下降进行学习特征提取器的参数,将搜索区域通过特征提取器进行提取特征;计算特征的自相关性,通过岭回归封闭解学习到滤波器模板;下一帧通过上一帧推测出的目标位置确定搜索区域,通过设计好的特征提取器进行特征提取,计算目标区域和搜索区域特征的互相关;将其特征与滤波器模板进行相关操作,输出值中最大值就是目标跟踪的最新位置;每一帧都对目标滤波器模板进行学习更新。

Description

一种基于互强化与多注意机制学习的深度相关目标跟踪算法
技术领域
本发明属于图像处理领域,具体涉及一种基于互强化与多注意机制学习的深度相关目标跟踪算法。
背景技术
目标跟踪是计算机视觉领域的核心问题之一,具有广泛的应用价值,例如,人体运动分析、视频监控、自动驾驶等。虽然有大量的跟踪算法已被提出来应用于各种场景,但由于诸如形变、遮挡、光照变化、背景杂乱、快速运动等因素的影响,稳健的视觉跟踪系统仍然难以实现。
近年来涌现出很多基于相关和深度特征的目标跟踪算法,能较好的进行视频单目标跟踪,其中具有代表性的是互强化与多注意机制学习的深度相关跟踪算法。但是,基于可判别相关网络的目标跟踪算法(DCFNet)方法没有很好的处理边界效应,使得不可靠的响应值严重影响到训练出来的滤波器模板,进一步的积累误差到一定程度之后将导致跟踪失败。
发明内容
针对目前的跟踪算法存在单一低级特性表达力不足、信息冗余等问题,本发明提出了一种基于互强化与多注意机制学习的深度相关目标跟踪算法。
本发明所采用的技术方案是:一种基于互强化与多注意机制学习的深度相关目标跟踪算法,包括以下步骤:
步骤1:根据上一帧的目标区域,采用特征提取器提取其目标区域特征;
步骤2:通过上一帧的目标位置确定下一帧的搜索区域,并根据下一帧的搜索区域,采用特征提取器提取其搜索区域特征;
步骤3:对上一帧的目标区域特征和下一帧的搜索区域特征进行互相关性操作,得到互相关操作结果;在傅里叶域下将互相关操作结果与用于表达目标区域特征的滤波器模板进行点乘操作,得到响应值;
步骤4:判断是否达到终止条件,若达到,则步骤3中产生响应值最大值的位置为下一帧目标的位置,否则根据下一帧的搜索区域对步骤4中的滤波器模板参数进行更新,执行步骤3。
进一步的,所述特征提取器建立步骤包括:
将DCFNet算法得到的浅层特征一方面作为信息补充,另一方面与包括编码器和解码器的EDNet结构提取的语义信息,进行融合后依次送至通道注意力机制和空间注意力机制,构建得到一个跟踪网络;
基于该跟踪网络,初始化特征提取器参数;
经过均方误差损失通过梯度下降进行特征提取器的参数学习,完成特征提取器的建立。
进一步的,所述用于表达目标区域特征的滤波器模板为根据岭回归封闭解学习得到的滤波器模板,包括:基于孪生网络和相关框架,训练得到一个岭回归分类器,找到一个函数使得在循环样本x上的检测结果和回归目标y之间的平方误差最小:
式中,w表示目标滤波器模板,循环相关,y表示标签矩阵,R表示目标图像的通道数,wl指的是参数为w通道l相关滤波器模板,正则项λ≥0,表示预测目标标签;图像块特征;
利用离散傅立叶变换,计算得到滤波器模板:
其中,表示离散傅里叶变换 表示为复数y的复共轭,⊙表示Hadamard乘积。
进一步的,所述在傅里叶域下将互相关操作结果与预先学习得到的滤波器模板进行点乘操作,得到响应值的步骤包括:
响应值m表示为:
式中,表示离散傅立叶逆变换,同上^、⊙、*分别表示离散傅立叶变换、点乘和共轭,ψ(z)为下一帧的搜索区域特征。
进一步的,所述通过上一帧的目标位置确定下一帧的搜索区域的步骤包括:下一帧的搜索区域由上一帧的目标位置通过尺度放缩得到。
有益效果:本发明提出的互强化与多注意机制学习的深度相关跟踪算法,在可判别相关网络的目标跟踪算法(DCFNet)的基础上加入以强化学习的方式得到高级语义信息,并在原始低级特征上融合了学到的高级语义信息,有效地利用了互强化学习得到高级语义信息,弥补了单一低级特征表达力不足的缺陷,采用了多种注意力机制(通道注意力和空间注意力)残差学习的方法,改善了特征信息的有效分布,避免了信息的冗余,进一步缓解了边界效应,在目标遭受部分遮挡、尺度变化、低分辨率等各种情况时,显著地提高跟踪算法的鲁棒性,使得跟踪算法依然可以有效地跟踪到目标物体。
附图说明
图1为本发明的流程图;
图2为本发明的总体网络框架图;
图3为本发明的特征提取结构图;
图4为本发明的通道注意力机制结构图;
图5为本发明的空间注意力机制结构图;
图6为本发明与其它主流跟踪算法的精度图和成功率对比图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施方式,进一步阐明本发明。
实施例:
本实施例提供的互强化与多注意机制学习的深度相关跟踪算法,流程如图1、图2、图3、图4、图5所示,具体包括以下操作步骤:
S1:输入上一帧得到目标区域;
S2:建立利于跟踪的特征提取器,经过所述特征提取器提取S1的目标区域特征,如图3,该特征提取器由卷积网络、编码器和解码器组成,在原有跟踪算法DCFNet上进行改进,由原有的DCFNet算法仅含有2个卷积得到的浅层特征,加入了含有编码器和解码器的EDNet结构提取高级语义信息,它结合浅层特征,融合后送到通道注意力和空间注意力机制,如图5和图6,分别是通道注意力机制和空间注意力机制,特征经过通道注意力机制,然后经过空间注意力机制,构成了多注意机制,在用原有DCFNet的浅层特征作为多注意机制的信息补充,构建一个互强化和多注意机制的深度相关跟踪网络结构,对于建立的特征提取器,首先,初始化特征提取器参数,其次,经过均方误差损失通过梯度下降进行学习特征提取器的参数;
S3:基于S2得到的上一帧目标区域特征,计算该目标区域特征的自相关性,通过岭回归封闭解而学习到滤波器模板;具体为:
S3-1:基于孪生网络和相关框架,训练得到一个岭回归分类器:图像块特征,目标找到一个函数使得在循环样本x上的检测结果和回归目标y之间的平方误差最小,即:
式中,循环相关,y表示标签矩阵,R表示目标图像的通道数,wl指的是参数为w通道l的相关滤波器模板,正则项λ≥0,表示预测目标标签。
S3-2:利用离散傅立叶变换,计算得到系数矩阵,其中wl指的是参数w通道l的相关滤波器模板,目的是优化
其中,表示离散傅里叶变换 表示为复数y的复共轭,⊙表示Hadamard乘积;
S4:基于上一帧得到的目标位置,通过尺度放缩,得到下一帧搜索区域,将搜索区域通过S2得到的特征提取器进行特征提取;
本实施例引入编码器和解码器、多注意力机制。以互强化学习的方式的编码器和解码器结构得到高级语义信息,如图3,EDNet网络关注更多的高层信息,并还原原图的底层空间结构信息,进一步补充浅层特征的信息,这种相互强化学习的方式有助于目标跟踪的特征稳健性表达。多注意机制的通道注意力机制使自适应通道权重引导信息分布,空间注意力机制使用最大池化和平均池化生成空间的突出信息。图3的特征提取结构图,进行特征的提取。
S5:基于S2得到的目标区域特征和S4得到的搜索区域特征,在傅里叶域中进行目标区域和搜索区域特征的互相关操作;
S6:将S3中的滤波器模板与S5中的互相关操作结果进行点乘,产生响应值最大值的位置就是下一帧目标的位置;
响应值m表示为:
式中,表示离散傅立叶逆变换,同上^、⊙、*分别表示离散傅立叶变换、点乘和共轭,ψ(z)为下一帧的搜索区域特征。
S7:根据下一帧的搜索区域对滤波器模板参数学习更新。
本实施例采用两种评价准则评估跟踪器的性能:成功率图(Success rate plots)和精度图(Precision plots)。
在成功率图中,横坐标表示重叠阈值(Overlap threshold),纵坐标表示成功率(Success rate),重叠率是通过计算跟踪结果目标框与真实结果目标框的重叠率获得的。类似地,在精度图中,横坐标表示位置误差阈值(Location error threshold),单位是像素,纵坐标表示精度(Precision)。
通过上述两种评价方式,分别选取OTB2013和OTB2015公共标准数据集上进行实验,这些数据集含有不同的挑战因素,包括:光照变化、尺寸变化、遮挡、变形、快速运动、运动模糊、面内旋转、超出范围、面外旋转、背景混乱和低分辨率。同时,将本实施例设计的跟踪方法RACFNet与现有的4种主流跟踪方法进行了比较,包括CREST、SiamFC、DeepSRDCF及DCFNet。图4分别为本实施例和其他几种主流跟踪方法的成功率和精度的对比。从图4可以看出本实施例的RACFNet跟踪算法,在100组测试视频上4个跟踪器中表现得鲁棒性能最好,OPE准确率值0.843,成功率值为0.642,排列第二名CREST,在OPE的准确率值为0.838,在OPE的成功率值为0.623,CREST使用了时间和空间残差的学习,表现了本实施例高级语义特征,加入通道和空间残差注意力学习跟踪效果表现得更加显著,针对特征通道信息分布和空间特征的分布分别进行加权,表达出重要信息特征,OPE的准确率值为0.751和成功率值为0.580,本实施例算法在精确率上提高了9.2个百分点,在成功率值上提高了6.2个百分点,本实施例算法在原有的DCFNet上跟踪的效果表现得更加鲁棒。从图4遮挡挑战下,看出本实施例的RACFNet跟踪器算法成功率值达到0.640,而DCFNet跟踪器算法的精确率值为0.573,相当于提高了6.7个百分点。

Claims (5)

1.一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其特征在于:包括以下步骤:
步骤1:根据上一帧的目标区域,采用特征提取器提取其目标区域特征;
步骤2:通过上一帧的目标位置确定下一帧的搜索区域,并根据下一帧的搜索区域,采用特征提取器提取其搜索区域特征;
步骤3:对上一帧的目标区域特征和下一帧的搜索区域特征进行互相关性操作,得到互相关操作结果;在傅里叶域下将互相关操作结果与用于表达目标区域特征的滤波器模板进行点乘操作,得到响应值;
步骤4:判断是否达到终止条件,若达到,则步骤3中产生响应值最大值的位置为下一帧目标的位置,否则根据下一帧的搜索区域对步骤4中的滤波器模板参数进行更新,执行步骤3。
2.根据权利要求1所述的一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其特征在于:所述特征提取器建立步骤包括:
将DCFNet算法得到的浅层特征一方面作为信息补充,另一方面与包括编码器和解码器的EDNet结构提取的语义信息,进行融合后依次送至通道注意力机制和空间注意力机制,构建得到特征提取器;
初始化特征提取器参数;
经过均方误差损失通过梯度下降进行特征提取器的参数学习。
3.根据权利要求1所述的一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其特征在于:所述用于表达目标区域特征的滤波器模板为根据岭回归封闭解学习得到的滤波器模板,包括:基于孪生网络和相关框架,训练得到一个岭回归分类器,找到一个函数yα=w★ψ(x)使得在循环样本x上的检测结果和回归目标y之间的平方误差最小:
式中,w表示目标滤波器模板,★循环相关,y表示标签矩阵,R表示目标图像的通道数,wl指的是参数为w通道l相关滤波器模板,正则项λ≥0,yα=w★ψ(x)表示预测目标标签;图像块特征;
利用离散傅立叶变换,计算得到滤波器模板:
其中,表示离散傅里叶变换 表示为复数y的复共轭,⊙表示Hadamard乘积。
4.根据权利要求3所述的一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其特征在于:所述在傅里叶域下将互相关操作结果与预先学习得到的滤波器模板进行点乘操作,得到响应值的步骤包括:
响应值m表示为:
式中,表示离散傅立叶逆变换,同上^、⊙、*分别表示离散傅立叶变换、点乘和共轭,ψ(z)为下一帧的搜索区域特征。
5.根据权利要求1所述的一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其特征在于:所述通过上一帧的目标位置确定下一帧的搜索区域的步骤包括:下一帧的搜索区域由上一帧的目标位置通过尺度放缩得到。
CN201910392629.8A 2019-05-13 2019-05-13 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 Active CN110120064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910392629.8A CN110120064B (zh) 2019-05-13 2019-05-13 一种基于互强化与多注意机制学习的深度相关目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910392629.8A CN110120064B (zh) 2019-05-13 2019-05-13 一种基于互强化与多注意机制学习的深度相关目标跟踪算法

Publications (2)

Publication Number Publication Date
CN110120064A true CN110120064A (zh) 2019-08-13
CN110120064B CN110120064B (zh) 2023-06-20

Family

ID=67522113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910392629.8A Active CN110120064B (zh) 2019-05-13 2019-05-13 一种基于互强化与多注意机制学习的深度相关目标跟踪算法

Country Status (1)

Country Link
CN (1) CN110120064B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN111462208A (zh) * 2020-04-05 2020-07-28 北京工业大学 一种基于双目视差和外极线约束的无监督深度预测方法
CN111723632A (zh) * 2019-11-08 2020-09-29 珠海达伽马科技有限公司 一种基于孪生网络的船舶跟踪方法及系统
CN112116630A (zh) * 2020-08-19 2020-12-22 上海闪马智能科技有限公司 目标跟踪的方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN113012202A (zh) * 2021-03-31 2021-06-22 开放智能机器(上海)有限公司 目标跟踪方法、装置、设备、介质及程序产品
CN113283407A (zh) * 2021-07-22 2021-08-20 南昌工程学院 一种基于通道与空间注意力机制的孪生网络目标跟踪方法
CN114118140A (zh) * 2021-10-29 2022-03-01 新黎明科技股份有限公司 防爆电机轴承多视角智能故障诊断方法及系统
CN114299111A (zh) * 2021-12-21 2022-04-08 中国矿业大学 一种基于半监督孪生网络的红外弱小目标跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129906A1 (en) * 2016-11-07 2018-05-10 Qualcomm Incorporated Deep cross-correlation learning for object tracking
CN109598684A (zh) * 2018-11-21 2019-04-09 华南理工大学 结合孪生网络的相关滤波跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129906A1 (en) * 2016-11-07 2018-05-10 Qualcomm Incorporated Deep cross-correlation learning for object tracking
CN109598684A (zh) * 2018-11-21 2019-04-09 华南理工大学 结合孪生网络的相关滤波跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SI CHEN等: "Siamese Networks with Discriminant Correlation Filters and Channel Attention", 《HTTPS://IEEEXPLORE.IEEE.ORG/ABSTRACT/DOCUMENT/8564270》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN110555405B (zh) * 2019-08-30 2022-05-06 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN111723632A (zh) * 2019-11-08 2020-09-29 珠海达伽马科技有限公司 一种基于孪生网络的船舶跟踪方法及系统
CN111723632B (zh) * 2019-11-08 2023-09-15 珠海达伽马科技有限公司 一种基于孪生网络的船舶跟踪方法及系统
CN111462208A (zh) * 2020-04-05 2020-07-28 北京工业大学 一种基于双目视差和外极线约束的无监督深度预测方法
CN112116630A (zh) * 2020-08-19 2020-12-22 上海闪马智能科技有限公司 目标跟踪的方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN113012202A (zh) * 2021-03-31 2021-06-22 开放智能机器(上海)有限公司 目标跟踪方法、装置、设备、介质及程序产品
CN113283407A (zh) * 2021-07-22 2021-08-20 南昌工程学院 一种基于通道与空间注意力机制的孪生网络目标跟踪方法
CN114118140A (zh) * 2021-10-29 2022-03-01 新黎明科技股份有限公司 防爆电机轴承多视角智能故障诊断方法及系统
CN114299111A (zh) * 2021-12-21 2022-04-08 中国矿业大学 一种基于半监督孪生网络的红外弱小目标跟踪方法
CN114299111B (zh) * 2021-12-21 2022-11-04 中国矿业大学 一种基于半监督孪生网络的红外弱小目标跟踪方法

Also Published As

Publication number Publication date
CN110120064B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN110120064A (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN110135500B (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN112836639A (zh) 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN109859241B (zh) 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法
CN109543615B (zh) 一种基于多级特征的双学习模型目标跟踪方法
CN111008991B (zh) 一种背景感知的相关滤波目标跟踪方法
CN111598928B (zh) 一种基于具有语义评估和区域建议的突变运动目标跟踪方法
CN113052873B (zh) 一种在线自监督学习场景适应的单目标跟踪方法
CN111931654A (zh) 一种人员跟踪智能监测方法、系统和装置
CN115588030B (zh) 基于孪生网络的视觉目标跟踪方法及设备
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN107368802B (zh) 基于kcf和人脑记忆机制的运动目标跟踪方法
CN110795599B (zh) 基于多尺度图的视频突发事件监测方法及系统
CN112233145A (zh) 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法
CN115375737A (zh) 基于自适应时间与序列化时空特征的目标跟踪方法与系统
CN115761393A (zh) 一种基于模板在线学习的无锚目标跟踪方法
Zhang et al. Residual memory inference network for regression tracking with weighted gradient harmonized loss
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN112767450A (zh) 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN110147876A (zh) 基于视觉特征相似度的神经网络及其动作提案生成方法
CN110428447B (zh) 一种基于策略梯度的目标跟踪方法与系统
CN110598614B (zh) 一种结合粒子滤波的相关滤波目标跟踪方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN116168060A (zh) 结合元学习的深度孪生网络目标跟踪算法
CN104616323A (zh) 一种基于慢特征分析的时空显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant