CN116152298B - 一种基于自适应局部挖掘的目标跟踪方法 - Google Patents
一种基于自适应局部挖掘的目标跟踪方法 Download PDFInfo
- Publication number
- CN116152298B CN116152298B CN202310407649.4A CN202310407649A CN116152298B CN 116152298 B CN116152298 B CN 116152298B CN 202310407649 A CN202310407649 A CN 202310407649A CN 116152298 B CN116152298 B CN 116152298B
- Authority
- CN
- China
- Prior art keywords
- target
- features
- local
- search area
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000005065 mining Methods 0.000 title claims abstract description 21
- 230000004913 activation Effects 0.000 claims abstract description 20
- 230000003044 adaptive effect Effects 0.000 claims abstract description 20
- 238000010586 diagram Methods 0.000 claims abstract description 10
- 230000003213 activating effect Effects 0.000 claims abstract description 7
- 230000002708 enhancing effect Effects 0.000 claims abstract description 7
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000012512 characterization method Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本公开提供一种基于自适应局部挖掘的目标跟踪方法,对图像中的目标进行动态跟踪,包括:确定包含目标的目标模板图像和搜索区域图像并提取得到包含目标特征的模板特征和搜索区域特征;对包含目标特征的模板特征和搜索区域特征进行增强,并得到目标整体表示;通过所述目标整体表示对搜索区域图像中的目标区域进行激活得到目标激活图;将目标激活图和增强后的搜索区域特征输入自适应局部解码器以得到目标的局部特征;以及根据目标的局部特征预测关键点并推导出定位目标的目标框。
Description
技术领域
本公开涉及计算机视觉、人工智能、图像处理技术领域,尤其涉及一种基于自适应局部挖掘的目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉领域中的基础研究课题,目标是在视频序列中自动定位目标。其在智能视频监控、人机交互、机器人与自动驾驶中有着广泛应用。
视觉目标跟踪中存在形变、局部遮挡、运动模糊等关键挑战。现有的大量方法基于目标的整体表示来匹配与定位目标,比如孪生网络跟踪器、相关滤波跟踪器。这种基于整体表示的方法在面对目标外观剧烈变化时表现不佳,这是由于目标整体的表观描述会发生大的偏移导致定位误差。
为了灵活应对目标形变,基于局部的目标跟踪算法应运而生,他们通常将目标手工划分成不同的局部,然后基于这些局部进行目标的定位与跟踪。这些基于局部的方法取得了优秀的性能,说明了目标的局部表示可以为应对目标的形变问题提供灵活、可靠的信息。然而,这种手工设计的规则划分不能够适合于任意的目标与任意的形变,会造成局部不对齐的现象,限制了模型跟踪的性能的进一步提升。
发明内容
基于上述问题,本公开提供了一种基于自适应局部挖掘的目标跟踪方法,以缓解现有技术中的上述技术问题。
(一)技术方案
本公开提供一种基于自适应局部挖掘的目标跟踪方法,对图像中的目标进行动态跟踪,包括:确定包含目标的目标模板图像和搜索区域图像并提取得到包含目标特征的模板特征和搜索区域特征;对包含目标特征的模板特征和搜索区域特征进行增强,并得到目标整体表示;通过所述目标整体表示对搜索区域图像中的目标区域进行激活得到目标激活图;将目标激活图和增强后的搜索区域特征输入自适应局部解码器以得到目标的局部特征;以及根据目标的局部特征预测关键点并推导出定位目标的目标框。
根据本公开实施例,通过共享参数的骨干网络分别对目标模板图像和搜索区域图像进行特征提取得到模板特征和搜索区域特征。
根据本公开实施例,目标模板图像为两倍目标大小,搜索区域图像为四倍目标大小。
根据本公开实施例,将模板特征和搜索区域特征与可学习的目标原型拼接成序列输入到目标表征编码器中,建立模板特征与搜索区域特征的全局交互,增强模板特征和搜索区域特征的全局理解能力,并得到目标整体表示。
根据本公开实施例,通过目标整体表示与搜索区域特征之间的相似性计算得到目标激活图。
根据本公开实施例,所述自适应局部解码器通过互注意力机制挖掘目标局部特征,并对目标局部进行激活得到目标局部特征图。
根据本公开实施例,通过引入多个局部原型,通过互注意力机制来生成并更新目标的多个局部滤波器,以通过所述多个局部滤波器动态地随着跟踪的目标变化而变化。
根据本公开实施例,目标状态估计解码器根据目标的局部特征回归对应的关键点,推导出定位目标的目标框。
根据本公开实施例,基于点的局部回归方法,使得不同的局部关注不同的目标细节来进行精确的状态估计。
根据本公开实施例,目标表征编码器包括6层编码层,每层编码层包括多头自注意力和前馈网络。
(二)有益效果
从上述技术方案可以看出,本公开基于自适应局部挖掘的目标跟踪方法至少具有以下有益效果其中之一或其中一部分:
(1)能够对实现对任意类别目标、任意形变状态下的自适应局部划分;
(2)解决了传统手工设计的局部划分带来的局部不对齐问题,使得目标局部特征可以提供灵活、可靠的表观信息进行高精度目标状态估计,有效处理目标形变问题,显著提高跟踪器在困难场景下的跟踪性能。
附图说明
图1为本公开实施例的目标表征编码器的架构示意图。
图2为本公开实施例的基于自适应局部挖掘的目标跟踪方法的原理架构示意图。
图3为本公开实施例的基于自适应局部挖掘的目标跟踪方法的流程示意图。
具体实施方式
本公开提供了一种基于自适应局部挖掘的目标跟踪方法,能够为不同类别、不同形变下的目标自适应产生局部划分,解决局部不对齐的现象,实现鲁棒的视觉跟踪。可应用于视觉目标跟踪相关的应用系统中,对视频中的目标进行定位。在实施上,可以以软件形式嵌入到移动设备中,提供实时目标定位结果;也可以安装在后台服务器中,提供大批量视频定位结果。
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
在本公开实施例中,提供一种基于自适应局部挖掘的目标跟踪方法,对图像中的目标进行动态跟踪,结合图1至图3所示,所述基于自适应局部挖掘的目标跟踪方法,包括操作S1-S5:
S1:确定包含目标的目标模板图像和搜索区域图像并提取得到包含目标特征的模板特征和搜索区域特征;
S2:对包含目标特征的模板特征和搜索区域特征进行增强,并得到目标整体表示;
S3:通过所述目标整体表示对搜索区域图像中的目标区域进行激活得到目标激活图;
S4:将目标激活图和增强后的搜索区域特征输入自适应局部解码器以得到目标的局部特征;以及
S5:根据目标的局部特征预测关键点并推导出定位目标的目标框。
根据本公开实施例,通过共享参数的骨干网络分别对目标模板图像和搜索区域图像进行特征提取得到模板特征和搜索区域特征。
根据本公开实施例,目标模板图像为两倍目标大小,搜索区域图像为四倍目标大小。
根据本公开实施例,将模板特征和搜索区域特征与可学习的目标原型拼接成序列输入到目标表征编码器中,建立模板特征与搜索区域特征的全局交互,增强模板特征和搜索区域特征的全局理解能力,并得到目标整体表示。
根据本公开实施例,总的原理架构如图2所示:以首帧裁剪的包含目标的目标模板以及根据跟踪过程中上一帧目标位置裁剪的搜索区域图像数据作为输入,其中目标模板图像为两倍目标大小,搜索区域图像为四倍目标大小。本公开目标跟踪方法的目的是根据视频首帧中给定的目标位置,在后续视频序列中自动定位目标。目标模板图像与搜索区域图像通过共享参数的骨干网络提取特征,得到模板特征,/>与搜索区域特征 ,/>。其中,d表示特征维度,(/>)与(/>)分别表示目标模板与搜索区域特征图的大小。/>,/>与可学习的目标原型/>拼接成序列输入到目标表征编码器中。目标表征编码器可以对特征进行长距离的交互,增强特征的全局理解能力。目标原型在全局特征建模中挖掘得到目标整体表示/>。之后,/>通过与搜索区域特征进行相似性计算得到的目标激活图/>。自适应局部解码器通过互注意力机制在激活后的搜索区域中挖掘目标局部特征,并对目标局部进行激活得到目标局部特征图/>。进一步,目标状态解码器利用目标的局部特征回归对应的关键点,并最终推导出目标的精确位置。
根据本公开实施例,如图1所示,目标表征编码器包括6层编码层,它可以建立模板与搜索区域特征的全局交互。编码层由多头自注意力(输入向量包括查询向量Q、一个键向量K和一个值向量V)和前馈网络组成。首先,本方法将骨干网络输出的模板特征与搜索区域特征/>序列化得到/>与/>,并通过可训练的位置编码/>与/>补充模板与搜索区域特征的位置信息。
进一步,本方法引入了可训练的目标原型在全局特征交互中学习当前帧中目标的整体表示/>,用于激活搜索区域中的目标。具体公式如下: 。
其中,是全局增强后的模板特征,/>是全局增强后的搜索区域特征,/>是目标表征编码器,/>是目标原型,/>是目标整体表示。之后,通过计算目标整体表示与搜索区域特征之间的相似性得到目标激活图/>,公式如下:
。
其中,h x w x 为搜索区域特征图的大小,是放缩因子,/>是矩阵转置操作。另外,在大多数情况下,目标只占搜索区域的一小部分,因此,本公开加入了稀疏损失L spa 来指导目标激活图的学习,从而产生更加紧致的目标整体表示来抑制背景,公式如下:
。
其中,表示目标激活图/>中对应位置j的激活分数。
关于自适应局部解码器:传统的局部跟踪方法通过手工设计的局部划分进行跟踪,如此的方式无法适应任意类别目标的形变。为此,本公开提出了自适应局部解码器实现自适应的局部划分,从而提升目标形变情况下的跟踪精度。所述自适应局部解码器通过互注意力机制挖掘目标局部特征,并对目标局部进行激活得到目标局部特征图。通过引入多个局部原型,通过互注意力机制来生成并更新目标的多个局部滤波器,以使得局部划分通过所述多个局部滤波器动态地随着跟踪的目标变化而变化。
首先,本公开引入了多个局部原型(表示实数域以及其矩阵形状),通过互注意力机制来生成目标的局部滤波器/>,其中,K表示用来描述目标的局部数量,给定搜索区域特征/>,/>,由局部原型/>生成查询/>、由搜索区域特征生成键/>与值/>,公式如下:
;
;
。
其中, ,/> ,/>是线性映射参数,R表示实数域,d表示特征维度,/>表示表示键与查询的特征维度。
之后,使用搜索区域中激活的目标特征对局部原型进行更新。这里,定义对应的激活分数大于目标激活阈值/>的搜索区域的特征/>为激活的目标特征。对于每一个局部原型/>,其对应的局部滤波器/>计算如下,
, /> ;
。
其中,表示局部原型/>生成的查询Q i 与搜索区域中目标特征/>生成的键/>的相似性分数,/>为缩放因子,/>表示/>经过Softmax之后的相似性分数。
通过更新所有的局部原型,可以获得K个局部滤波器。通过这样的方式,这些局部滤波器可以动态地随着跟踪的目标变化而变化。局部激活图可以通过据局部滤波器与激活的目标特征计算相似性得到,公式如下:
;
;
。
其中,表示局部滤波器/>与搜索区域中目标特征/>的相似性分数,/>为缩放因子,/>表示/>经过Softmax之后的相似性分数。
最终,搜索区域中目标局部特征图通过下述公式得到:
。
其中,表示矩阵的对应元素相乘操作。在训练阶段,模型趋向于学习相似的局部原型,导致收敛速度慢,为了保证模型的收敛,并且增加局部特征的多样性,本公开使用多样性损失来指导局部的学习。具体来说,对每个局部特征/>计算对应的特征向量/>,通过增加特征向量的余弦距离来保证局部的多样性,公式如下:
;
。
关于目标状态估计解码器:本公开提出了一种新型的基于点的局部回归方法,所述目标状态估计解码器根据目标的局部特征回归对应的关键点,推导出定位目标的目标框,其可以使得不同的局部关注不同的目标细节来进行精确的状态估计。
具体来说,通过局部特征预测一系列的关键点/>,然后通过关键点推导出目标框,公式如下,
, />。
其中,表示第i个关键点在位置j上出现的概率,MLP为输出通道为1的多层感知机层,并且/> ,/>。之后,/>重新排列为二维/>的图/>,目标的关键点通过概率分布图的期望得到,公式如下:
。
其中,表示第i个关键点的坐标。最终的目标框/>由下式得到:
;
。
其中,表示目标中心点坐标,/>表示目标宽与高,/>与/>为可学习参数,用于将关键点的标准差映射到目标真实大小。
至此,已经结合附图对本公开实施例进行了详细描述。需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
依据以上描述,本领域技术人员应当对本公开基于自适应局部挖掘的目标跟踪方法有了清楚的认识。
综上所述,本公开提供了一种基于自适应局部挖掘的目标跟踪方法,实现了对任意类别目标、任意形变状态下的自适应局部划分,解决了传统手工设计的局部划分带来的局部不对齐问题,使得目标局部特征可以提供灵活、可靠的表观信息进行高精度目标状态估计,有效处理目标形变问题,显著提高跟踪器在困难场景下的跟踪性能。
还需要说明的是,以上为本公开提供的不同实施例。这些实施例是用于说明本公开的技术内容,而非用于限制本公开的权利保护范围。一实施例的一特征可通过合适的修饰、置换、组合、分离以应用于其他实施例。
应注意的是,在本文中,除了特别指明的之外,具备“一”元件不限于具备单一的该元件,而可具备一或更多的该元件。
在本文中,除了特别指明的之外,所谓的特征甲“或”(or)或“及/或”(and/or)特征乙,是指甲单独存在、乙单独存在、或甲与乙同时存在;所谓的特征甲“及”(and)或“与”(and)或“且”(and)特征乙,是指甲与乙同时存在;所谓的“包括”、“包含”、“具有”、“含有”,是指包括但不限于此。
此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (8)
1.一种基于自适应局部挖掘的目标跟踪方法,对图像中的目标进行动态跟踪,包括:
确定包含目标的目标模板图像和搜索区域图像并提取得到包含目标特征的模板特征和搜索区域特征;
对包含目标特征的模板特征和搜索区域特征进行增强,并得到目标整体表示;
通过所述目标整体表示对搜索区域图像中的目标区域进行激活得到目标激活图;
将目标激活图和增强后的搜索区域特征输入自适应局部解码器以得到目标的局部特征;以及
根据目标的局部特征预测关键点并推导出定位目标的目标框;
所述对包含目标特征的模板特征和搜索区域特征进行增强,并得到目标整体表示包括:将模板特征和搜索区域特征与目标原型拼接成序列输入到目标表征编码器中,建立模板特征与搜索区域特征的全局交互,增强模板特征和搜索区域特征的全局理解能力,得到目标整体表示;
所述通过所述目标整体表示对搜索区域图像中的目标区域进行激活得到目标激活图包括:引入可训练的目标原型在全局特征交互中学习当前帧中目标的整体表示/>,用于激活搜索区域图像中的目标,具体公式如下:
;
其中,是目标整体表示,/>是全局增强后的模板特征,/>是全局增强后的搜索区域特征,/>是目标原型,模板特征与搜索区域特征序列化得到/>与/>,通过可训练的位置编码/>与/>补充模板特征与搜索区域特征的位置信息,/>是目标表征编码器,通过计算目标整体表示与搜索区域特征之间的相似性得到目标激活图/>,公式如下:
;
是目标整体表示,/>是矩阵转置操作,/>是全局增强后的搜索区域特征,/>为缩放因子。
2.根据权利要求1所述的基于自适应局部挖掘的目标跟踪方法,通过共享参数的骨干网络分别对目标模板图像和搜索区域图像进行特征提取得到模板特征和搜索区域特征。
3.根据权利要求2所述的基于自适应局部挖掘的目标跟踪方法,目标模板图像为两倍目标大小,搜索区域图像为四倍目标大小。
4.根据权利要求1所述的基于自适应局部挖掘的目标跟踪方法,所述自适应局部解码器通过互注意力机制挖掘目标局部特征,并对目标局部进行激活得到目标局部特征图。
5.根据权利要求4所述的基于自适应局部挖掘的目标跟踪方法,通过引入多个局部原型,通过互注意力机制来生成并更新目标的多个局部滤波器,以通过所述多个局部滤波器动态地随着跟踪的目标变化而变化。
6.根据权利要求1所述的基于自适应局部挖掘的目标跟踪方法,目标状态估计解码器根据目标的局部特征回归对应的关键点,推导出定位目标的目标框。
7.根据权利要求6所述的基于自适应局部挖掘的目标跟踪方法,基于点的局部回归方法,使得不同的局部关注不同的目标细节来进行精确的状态估计。
8.根据权利要求1所述的基于自适应局部挖掘的目标跟踪方法,目标表征编码器包括6层编码层,每层编码层包括多头自注意力和前馈网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310407649.4A CN116152298B (zh) | 2023-04-17 | 2023-04-17 | 一种基于自适应局部挖掘的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310407649.4A CN116152298B (zh) | 2023-04-17 | 2023-04-17 | 一种基于自适应局部挖掘的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116152298A CN116152298A (zh) | 2023-05-23 |
CN116152298B true CN116152298B (zh) | 2023-08-29 |
Family
ID=86354552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310407649.4A Active CN116152298B (zh) | 2023-04-17 | 2023-04-17 | 一种基于自适应局部挖掘的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116152298B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
CN113705588A (zh) * | 2021-10-28 | 2021-11-26 | 南昌工程学院 | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 |
CN113888590A (zh) * | 2021-09-13 | 2022-01-04 | 华南理工大学 | 一种基于数据增强和孪生网络的视频目标跟踪方法 |
CN114119669A (zh) * | 2021-11-30 | 2022-03-01 | 南昌工程学院 | 一种基于Shuffle注意力的图匹配目标跟踪方法与系统 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN114596338A (zh) * | 2022-05-09 | 2022-06-07 | 四川大学 | 一种考虑时序关系的孪生网络目标跟踪方法 |
CN114972426A (zh) * | 2022-05-18 | 2022-08-30 | 北京理工大学 | 一种基于注意力和卷积的单目标跟踪方法 |
CN114998601A (zh) * | 2022-06-29 | 2022-09-02 | 齐鲁工业大学 | 基于Transformer的在线更新目标跟踪方法及系统 |
CN115063445A (zh) * | 2022-08-18 | 2022-09-16 | 南昌工程学院 | 基于多尺度层次化特征表示的目标跟踪方法与系统 |
CN115100235A (zh) * | 2022-08-18 | 2022-09-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种目标跟踪方法、系统及存储介质 |
CN115147456A (zh) * | 2022-06-29 | 2022-10-04 | 华东师范大学 | 一种基于时序自适应卷积与注意力机制的目标跟踪方法 |
CN115205336A (zh) * | 2022-07-25 | 2022-10-18 | 浙江工业大学 | 一种基于多层感知机的特征融合目标感知跟踪方法 |
CN115439507A (zh) * | 2022-09-06 | 2022-12-06 | 浙江大学 | 基于多层次互增强与相关金字塔的三维视频目标跟踪方法 |
WO2023273136A1 (zh) * | 2021-06-29 | 2023-01-05 | 常州工学院 | 一种基于目标物表征点估计的视觉跟踪方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5746937B2 (ja) * | 2011-09-01 | 2015-07-08 | ルネサスエレクトロニクス株式会社 | オブジェクト追跡装置 |
CN110033478A (zh) * | 2019-04-12 | 2019-07-19 | 北京影谱科技股份有限公司 | 基于深度对抗训练的视觉目标跟踪方法和装置 |
CN111242973A (zh) * | 2020-01-06 | 2020-06-05 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
US11915432B2 (en) * | 2020-01-16 | 2024-02-27 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking target |
KR20210116966A (ko) * | 2020-03-18 | 2021-09-28 | 삼성전자주식회사 | 타겟 트래킹 방법 및 장치 |
-
2023
- 2023-04-17 CN CN202310407649.4A patent/CN116152298B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
WO2023273136A1 (zh) * | 2021-06-29 | 2023-01-05 | 常州工学院 | 一种基于目标物表征点估计的视觉跟踪方法 |
CN113888590A (zh) * | 2021-09-13 | 2022-01-04 | 华南理工大学 | 一种基于数据增强和孪生网络的视频目标跟踪方法 |
CN113705588A (zh) * | 2021-10-28 | 2021-11-26 | 南昌工程学院 | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 |
CN114119669A (zh) * | 2021-11-30 | 2022-03-01 | 南昌工程学院 | 一种基于Shuffle注意力的图匹配目标跟踪方法与系统 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN114596338A (zh) * | 2022-05-09 | 2022-06-07 | 四川大学 | 一种考虑时序关系的孪生网络目标跟踪方法 |
CN114972426A (zh) * | 2022-05-18 | 2022-08-30 | 北京理工大学 | 一种基于注意力和卷积的单目标跟踪方法 |
CN114998601A (zh) * | 2022-06-29 | 2022-09-02 | 齐鲁工业大学 | 基于Transformer的在线更新目标跟踪方法及系统 |
CN115147456A (zh) * | 2022-06-29 | 2022-10-04 | 华东师范大学 | 一种基于时序自适应卷积与注意力机制的目标跟踪方法 |
CN115205336A (zh) * | 2022-07-25 | 2022-10-18 | 浙江工业大学 | 一种基于多层感知机的特征融合目标感知跟踪方法 |
CN115063445A (zh) * | 2022-08-18 | 2022-09-16 | 南昌工程学院 | 基于多尺度层次化特征表示的目标跟踪方法与系统 |
CN115100235A (zh) * | 2022-08-18 | 2022-09-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种目标跟踪方法、系统及存储介质 |
CN115439507A (zh) * | 2022-09-06 | 2022-12-06 | 浙江大学 | 基于多层次互增强与相关金字塔的三维视频目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
基于多分支注意力孪生网络的目标跟踪算法;余陆斌等;《华南理工大学学报(自然科学版)》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116152298A (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | A survey on deep learning for localization and mapping: Towards the age of spatial machine intelligence | |
CN111144364B (zh) | 一种基于通道注意更新机制的孪生网络目标跟踪方法 | |
Ball et al. | OpenRatSLAM: an open source brain-based SLAM system | |
Chiu et al. | Robust vision-aided navigation using sliding-window factor graphs | |
US20230260255A1 (en) | Three-dimensional object detection framework based on multi-source data knowledge transfer | |
CN114236552A (zh) | 基于激光雷达的重定位方法及系统 | |
CN113628244A (zh) | 基于无标注视频训练的目标跟踪方法、系统、终端及介质 | |
CN115439507A (zh) | 基于多层次互增强与相关金字塔的三维视频目标跟踪方法 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
CN114565668A (zh) | 即时定位与建图方法及装置 | |
CN115205336A (zh) | 一种基于多层感知机的特征融合目标感知跟踪方法 | |
Sun et al. | Pseudo-LiDAR-based road detection | |
Zeng et al. | NCT: noise-control multi-object tracking | |
CN116152298B (zh) | 一种基于自适应局部挖掘的目标跟踪方法 | |
CN117252904A (zh) | 基于长程空间感知与通道增强的目标跟踪方法与系统 | |
CN116739940A (zh) | 一种点云补全的方法、装置、设备及介质 | |
Mathew et al. | Review on room layout estimation from a single image | |
CN115187614A (zh) | 一种基于stdc语义分割网络的实时同时定位与建图方法 | |
CN114255616A (zh) | 一种无动力船舶轨迹预测方法、装置、设备及存储介质 | |
Qin et al. | Larger receptive field based RGB visual relocalization method using convolutional network | |
Chen et al. | Exploiting spatial relationships for visual tracking | |
Liu et al. | Reinforced attention method for real-time traffic line detection | |
Marques et al. | Visual inertial system for rov positioning | |
CN116433727B (zh) | 一种基于阶段性持续学习的可伸缩单流追踪方法 | |
Amarasinghe et al. | U-VIP-SLAM: Underwater Visual-Inertial-Pressure SLAM for Navigation of Turbid and Dynamic Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |