CN112258554B - 基于注意力机制的双流层次孪生网络目标跟踪方法 - Google Patents

基于注意力机制的双流层次孪生网络目标跟踪方法 Download PDF

Info

Publication number
CN112258554B
CN112258554B CN202011067770.XA CN202011067770A CN112258554B CN 112258554 B CN112258554 B CN 112258554B CN 202011067770 A CN202011067770 A CN 202011067770A CN 112258554 B CN112258554 B CN 112258554B
Authority
CN
China
Prior art keywords
network
subnet
semantic
feature
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011067770.XA
Other languages
English (en)
Other versions
CN112258554A (zh
Inventor
杨博
胡小鹏
王凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202011067770.XA priority Critical patent/CN112258554B/zh
Publication of CN112258554A publication Critical patent/CN112258554A/zh
Application granted granted Critical
Publication of CN112258554B publication Critical patent/CN112258554B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了基于注意力机制的双流层次孪生网络目标跟踪方法,属于图像处理技术领域。第一步构建定位子网与语义子网,每个子网均为一个孪生网络,在定位子网中,利用孪生网络提取前一帧目标模板特征和搜索区域特征,在语义子网中,利用孪生网络提取第一帧目标模板特征和搜索区域特征。第二步构建空间注意力模块增强定位子网中提取的空间特征。第三步构建通道注意力模块激活语义子网中与目标信息相关性强的通道特征。第四步对两个子网的输出响应图进行加权融合以实现目标跟踪。本发明能够提高跟踪器在相似干扰或背景杂乱等复杂场景的特征判别能力,有效提高目标跟踪的准确性与鲁棒性。

Description

基于注意力机制的双流层次孪生网络目标跟踪方法
技术领域
本发明涉及基于注意力机制的双流层次孪生网络目标跟踪方法,属于图像处理技术领域。
背景技术
随着计算机硬件性能和软件技术的迅猛发展,目标跟踪技术在计算机视觉应用领域受到越来越多的关注,并在军事和民用等许多领域都表现出非常广泛的应用前景。近年来,随着深度学习技术的兴起,越来越多跟踪领域的学者也开始尝试将深度神经网络应用在目标跟踪领域。基于深度学习的目标跟踪算法大致可以分为两类。第一类遵循学习分类器并进行在线更新的策略,但是,由于需要更新大量的网络参数,这些跟踪器具有昂贵的计算代价。这一问题促使了第二类基于相似性学习的跟踪器的出现,这类跟踪器在跟踪效率和精度之间实现了权衡。深度孪生神经网络结构通常被用于解决相似性学习问题,通过计算模板图像和搜索图像之间的相似度,将得分最高的位置作为目标位置的预测结果。全卷积孪生网络在目标跟踪中具有着非常优秀表现,但是一些特殊场景下,比如相似干扰或背景杂乱等情况下,跟踪器不能体现良好的泛化能力。这是因为这种跟踪器在跟踪时仅仅使用高层语义特征进行目标识别,在遇到相似干扰时,单一特征很容易导致跟踪器的漂移。并且由于当前帧的候选框位置严重依赖于前一帧的预测位置信息,一旦某一帧目标定位发生较大的偏差,将严重阻碍跟踪器的性能。因此,在某些复杂的场景下,特别是在存在类似干扰物或背景杂乱的情况下,跟踪器的跟踪能力受到极大的限制。
发明内容
本发明旨在克服现有技术存在的不足,针对孪生网络的特征判别能力在相似干扰和杂乱背景等特定场景下较弱的问题,提出了一种基于注意力机制的双流层次孪生网络目标跟踪方法。
本发明所采用的技术方案是:构建基于注意力机制的双流层次孪生网络进行目标跟踪。神经网络中来自高层的特征包含了更强的语义信息,而低层特征关注轮廓、边缘、纹理等特征信息,包含更精确的位置信息。这些语义信息和位置信息在目标特征表达上具有互补性。本发明能够充分利用层次特征来获取视觉跟踪所需的空间信息和语义信息,利用其互补的优势,以此提高跟踪器将目标从相似干扰物或杂乱无章的背景中区分出来的辨别能力,提高跟踪器的可靠性和鲁棒性。
基于注意力机制的双流层次孪生网络目标跟踪方法,包括以下步骤:
第一步,构建定位子网与语义子网,每个子网均为一个孪生网络,在定位子网中,利用孪生网络提取前一帧目标模板特征和搜索区域特征,在语义子网中,利用孪生网络提取第一帧目标模板特征和搜索区域特征;
第二步,构建空间注意力模块增强定位子网中提取的空间特征;
第三步,构建通道注意力模块激活语义子网中与目标信息相关性强的通道特征;
第四步,对两个子网的输出响应图进行加权融合以实现跟踪。
本发明的效果和益处:针对孪生网络的特征判别能力在相似干扰和杂乱背景等特定场景下较弱的问题,提出了一种基于注意力机制的双流层次孪生网络目标跟踪方法。该方法充分挖掘层次特征互补的优势,同时结合基于注意力机制提取目标显著特征,定位子网通过空间注意力模块激活与目标相关性强的空间特征,语义子网通过通道注意力模块对跟踪特定目标方面发挥更重要作用的语义通道赋予更高的权重。本发明能够提高跟踪器在相似干扰或背景杂乱等复杂场景的特征判别能力,有效提高目标跟踪的准确性与鲁棒性。
附图说明
图1是基于注意力机制的双流层次孪生网络结构示意图;
图2是本发明与经典算法在OTB数据集上的精确曲线对比图。
图3是本发明与经典算法在OTB数据集上的成功率曲线对比图。
图4是本发明与经典算法在VOT数据集上的准确性和鲁棒性得分对比图。
图5是本发明与经典算法在VOT数据集上的EAO分数排名对比图。
具体实施方式
以下对本发明做进一步说明。
基于注意力机制的双流层次孪生网络目标跟踪方法,包括以下步骤:
第一步,构建定位子网与语义子网,每个子网均为一个孪生网络,在定位子网中,利用孪生网络提取前一帧目标模板特征和搜索区域特征,在语义子网中,利用孪生网络提取第一帧目标模板特征和搜索区域特征。
针对第一步子网构建,基于注意力机制的双流层次孪生网络网络结构如图1所示。本发明由定位子网和语义子网两个子网络组成,每一个子网络都是一个深度孪生神经网络。在孪生网中,模板分支和搜索分支的相同结构共享网络权值,学习一个用于计算目标模板区域和搜索区域之间的相似性得分的相似性匹配函数。在定位子网中,将前一帧作为模板图像,使用低层特征来获取连续帧间的空间位置信息,此外,应用空间注意模块进一步突出目标的重要空间信息。在语义子网中,将第一帧为模板图像,使用高层特征来计算搜索图像与目标的语义相似度,此外,应用通道注意模块对不同的通道赋予不同的权重,进一步突出目标更重要的语义特征。每个子网通过相关操作都可以得到一个响应图作为输出。定位子网的响应图蕴含着连续帧间的空间位置信息,语义子网的响应图则反映了当前帧与第一帧之间的语义相似度。通过融合两个子网的响应图可以集成目标的空间信息与语义信息,利用互补优势从而得到最终的响应输出。
第二步,构建空间注意力模块增强定位子网中提取的空间特征。
空间注意力模块可以用来关注输入图像中的重要空间信息,激活与目标相关性高的空间特征。首先在通道维度上分别做一个最大池化操作和平均池化操作,获得两个不同的特征描述。然后通过串联合并两个特征描述获得具有两个通道的特征图。之后经过一个卷积操作,将其降维为1个通道。再理由Sigmoid激活函数将权值图元素限制在0至1之间,使得加权处理后得到的特征图不会发生显著变化,而且能够在一定程度上增强空间信息。具体方法如下:
Ms(F)=σ(f7*7([AvgPool(F);MaxPool(F)])) (1)
Figure BDA0002714291460000041
其中,F代表输入特征,Ms(F)代表最终得到的空间权值图,σ代表Sigmoid激活函数,f7*7代表卷积核为7×7的卷积操作,AvgPool和MaxPool分别代表平均池化操作和最大池化操作。
Figure BDA0002714291460000042
Figure BDA0002714291460000043
分别代表F经过最大池化操作和平均池化操作后得到的两个特征描述。将输入特征与权值进行元素级乘法完成空间特征选择,然后利用相似性度量函数计算得到来自定位子网的响应映射:
Figure BDA0002714291460000044
其中,RL(z;x)代表定位子网的响应映射,g代表相似性度量函数,Ms(F)为空间权值图,
Figure BDA0002714291460000045
代表原始图像经过卷积层进行特征提取,
Figure BDA0002714291460000046
Figure BDA0002714291460000047
分别代表模板分支和搜索分支经过卷积层后得到的特征。
第三步,构建通道注意力模块激活语义子网中与目标信息相关性强的通道特征。
通道注意力模块可以对跟踪特定目标方面发挥更重要作用的通道赋予更高的权重,提高目标信息的敏感性,抑制背景信息所带来的负面影响。通道注意力网络的设计原理在于利用深度网络获取的特征图各通道对目标特征表达的贡献程度存在差异,不同目标激活不同特征通道。为了有效地计算通道注意力,将输入的特征映射分别经过基于宽度和高度的最大池化操作和平均池化操作得到特征向量,然后经过一个双层感知器(MLP)。将MLP输出的特征进行元素级的加和操作,再经过Sigmoid激活操作生成最终的通道注意力权值图。具体方法如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))) (4)
Figure BDA0002714291460000051
其中,F代表输入特征,Mc(F)代表最终得到的通道权值图,σ代表Sigmoid激活函数,MLP代表多层感知机模型,AvgPool和MaxPool分别代表平均池化操作和最大池化操作。
Figure BDA0002714291460000052
Figure BDA0002714291460000053
分别代表F经过最大池化操作和平均池化操作后得到的两个特征描述。W0和W1代表多层感知器模型中的参数。将输入特征与权值进行元素级乘法完成通道特征选择,然后利用相似性度量函数计算得到来自语义子网的响应映射:
Figure BDA0002714291460000054
其中,RS(z;x)代表语义子网的响应映射,g代表相似性度量函数,Mc(F)为通道权值图,
Figure BDA0002714291460000055
代表原始图像经过卷积层进行特征提取,
Figure BDA0002714291460000056
Figure BDA0002714291460000057
分别代表模板分支和搜索分支经过卷积层后得到的特征。
第四步,对两个子网的输出响应图进行加权融合以实现跟踪。
定位子网通过提取低层特征来表示当前帧与前一帧之间的空间位置信息,语义子网则使用高层特征来计算当前帧与第一帧之间的语义相似度。经过计算,每个子网都可以得到一个输出响应图,对于不同的场景,定位子网和语义子网扮演着不同的角色。定位子网所得到的响应图中包含详细的空间信息,语义子网所得到的响应图中包含丰富的语义信息。为了提高跟踪器的鲁棒性,通过将两个网络的响应图进行加权融合来定位目标。融合方法定义如下:
R=ωLRLsRs (7)
R代表最终的响应输出,RL和Rs分别是定位子网和语义子网的响应输出图,ωL和ωs代表相应的权重系数。
本发明利用目标跟踪标准数据集OTB与VOT,将基于注意力机制的双流层次孪生网络目标跟踪方法与经典跟踪方法以及孪生网络基准方法进行实验对比,通过绘制是本发明与经典算法在OTB数据集上的精确曲线对比图、成功率曲线对比图以及本发明与经典算法在VOT数据集上的实验结果验证其准确性和鲁棒性。
在OTB数据集中,利用精确率和成功率进行跟踪方法评估。精确率是指满足跟踪结果的中心与真值边界框之间的欧氏距离小于某个阈值的帧的数量与所有帧数量的百分比,通过绘制精度率曲线图可以评估跟踪器的准确性。各跟踪方法的精确率曲线对比结果如图2所示。由图可知,基于注意力机制的双流层次孪生网络目标跟踪方法相较其他经典跟踪方法和孪生网络基准方法有着更高的精确率,显示了本发明在目标跟踪任务中的准确性。
成功率是指满足跟踪结果的边界框与真值边界框之间的重叠率大于某个阈值帧的数量与所有帧数量的百分比。成功率曲线图将曲线下面积(AUC)作为典型值来对结果进行排名。各跟踪方法的成功率曲线对比结果如图3所示。由图可知,基于注意力机制的双流层次孪生网络目标跟踪方法相较其他经典跟踪方法和孪生网络基准方法有着更高的成功率,显示了本发明在目标跟踪任务中的鲁棒性。
在VOT数据集中,从鲁棒性和准确性两个方面评估跟踪器。准确性的衡量标准是单个测试序列中的预测结果与真值边界框之间的平均重叠率。鲁棒性的衡量标准是单个测试序列中跟踪器的故障时间(失败次数)。当预测结果与真值边界框之间的重叠率为0时,则判断为失败。图4是本发明与经典算法在VOT数据集上的准确性和鲁棒性得分对比图。由图可知,基于注意力机制的双流层次孪生网络目标跟踪方法相较其他经典跟踪方法和孪生网络基准方法有着更高的鲁棒性和准确性得分,显示了本发明在目标跟踪任务中的优越性。平均重叠期望(EAO)同时考虑了鲁棒性与准确性,因此,使用EAO得分进行跟踪器的排名比较,如图5所示,图5显示了本发明与经典算法在VOT数据集上的EAO分数排名对比图。由图可知,基于注意力机制的双流层次孪生网络目标跟踪方法相较其他经典跟踪方法和孪生网络基准方法有着最高的EAO得分,显示了本发明在目标跟踪任务中有着良好的性能,兼具鲁棒性和准确性。

Claims (1)

1.一种基于注意力机制的双流层次孪生网络目标跟踪方法,其特征在于,步骤如下:
第一步,构建定位子网与语义子网,每个子网均为一个孪生网络,在定位子网中,利用孪生网络提取前一帧目标模板特征和搜索区域特征,在语义子网中,利用孪生网络提取第一帧目标模板特征和搜索区域特征;
由定位子网和语义子网两个子网络组成,每一个子网络都是一个深度孪生神经网络;在孪生网络中,模板分支和搜索分支的相同结构共享网络权值,学习一个用于计算目标模板区域和搜索区域之间的相似性得分的相似性匹配函数;在定位子网中,将前一帧作为模板图像,使用低层特征来获取连续帧间的空间位置信息,此外,应用空间注意模块进一步突出目标的重要空间信息;在语义子网中,将第一帧为模板图像,使用高层特征来计算搜索图像与目标的语义相似度,此外,应用通道注意模块对不同的通道赋予不同的权重,进一步突出目标更重要的语义特征;每个子网通过相关操作都可得到一个响应图作为输出;定位子网的响应图蕴含着连续帧间的空间位置信息,语义子网的响应图则反映了当前帧与第一帧之间的语义相似度;通过融合两个子网的响应图可集成目标的空间信息与语义信息,利用互补优势从而得到最终的响应输出;
第二步,构建空间注意力模块增强定位子网中提取的空间特征;
在定位子网中构建空间注意力模块,空间注意力模块用来关注输入图像中的重要空间信息,激活与目标相关性高的空间特征;首先在通道维度上分别做一个最大池化操作和平均池化操作,获得两个不同的特征描述;然后通过串联合并两个特征描述获得具有两个通道的特征图;之后经过一个卷积操作,将其降维为1个通道;再利用Sigmoid激活函数将权值图元素限制在0至1之间,使得加权处理后得到的特征图不会发生显著变化,而且在一定程度上增强空间信息;具体方法如下:
Ms(F)=σ(f7*7([AvgPool(F);MaxPool(F)])) (1)
Figure FDA0002714291450000021
其中,
F代表输入特征,Ms(F)代表最终得到的空间权值图,σ代表Sigmoid激活函数,f7*7代表卷积核为7×7的卷积操作,AvgPool和MaxPool分别代表平均池化操作和最大池化操作;
Figure FDA0002714291450000022
Figure FDA0002714291450000023
分别代表F经过最大池化操作和平均池化操作后得到的两个特征描述;将输入特征与权值进行元素级乘法完成空间特征选择,然后利用相似性度量函数计算得到来自定位子网的响应映射:
Figure FDA0002714291450000024
其中,RL(z;x)代表定位子网的响应映射,g代表相似性度量函数,Ms(F)为空间权值图,
Figure FDA0002714291450000025
代表原始图像经过卷积层进行特征提取,
Figure FDA0002714291450000026
Figure FDA0002714291450000027
分别代表模板分支和搜索分支经过卷积层后得到的特征;
第三步,构建通道注意力模块激活语义子网中与目标信息相关性强的通道特征;
在语义子网中构建通道注意力模块,对跟踪特定目标方面发挥更重要作用的通道赋予更高的权重,提高目标信息的敏感性,抑制背景信息所带来的负面影响;通道注意力网络的设计原理在于利用深度网络获取的特征图各通道对目标特征表达的贡献程度存在差异,不同目标激活不同特征通道;为了有效地计算通道注意力,将输入的特征映射分别经过基于宽度和高度的最大池化操作和平均池化操作得到特征向量,然后经过一个双层感知器MLP;将MLP输出的特征进行元素级的加和操作,再经过Sigmoid激活操作生成最终的通道注意力权值图;具体方法如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))) (4)
Figure FDA0002714291450000031
其中,
F代表输入特征,Mc(F)代表最终得到的通道
权值图,σ代表Sigmoid激活函数,
MLP代表多层感知机模型,AvgPool和MaxPool分别代表平均池化操作和最大池化操作;
Figure FDA0002714291450000032
Figure FDA0002714291450000033
分别代表F经过最大池化操作和平均池化操作后得到的两个特征描述;W0和W1代表多层感知器模型中的参数;将输入特征与权值进行元素级乘法完成通道特征选择,然后利用相似性度量函数计算得到来自语义子网的响应映射:
Figure FDA0002714291450000034
其中,RS(z;x)代表语义子网的响应映射,g代表相似性度量函数,Mc(F)为通道权值图,
Figure FDA0002714291450000035
代表原始图像经过卷积层进行特征提取,
Figure FDA0002714291450000036
Figure FDA0002714291450000037
分别代表模板分支和搜索分支经过卷积层后得到的特征;
第四步,对两个子网的输出响应图进行加权融合以实现跟踪
对两个子网的输出响应图进行加权融合实现目标跟踪;定位子网通过提取低层特征来表示当前帧与前一帧之间的空间位置信息,语义子网则使用高层特征来计算当前帧与第一帧之间的语义相似度;经过计算,每个子网都可得到一个输出响应图,对于不同的场景,定位子网和语义子网扮演着不同的角色;定位子网所得到的响应图中包含详细的空间信息,语义子网所得到的响应图中包含丰富的语义信息;为了提高跟踪器的鲁棒性,通过将两个网络的响应图进行加权融合来定位目标;融合方法定义如下:
R=ωLRLsRs (7)
其中,R代表最终的响应输出,RL和Rs分别是定位子网和语义子网的响应输出图,ωL和ωs代表相应的权重系数。
CN202011067770.XA 2020-10-07 2020-10-07 基于注意力机制的双流层次孪生网络目标跟踪方法 Active CN112258554B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011067770.XA CN112258554B (zh) 2020-10-07 2020-10-07 基于注意力机制的双流层次孪生网络目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011067770.XA CN112258554B (zh) 2020-10-07 2020-10-07 基于注意力机制的双流层次孪生网络目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112258554A CN112258554A (zh) 2021-01-22
CN112258554B true CN112258554B (zh) 2022-11-18

Family

ID=74233586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011067770.XA Active CN112258554B (zh) 2020-10-07 2020-10-07 基于注意力机制的双流层次孪生网络目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112258554B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949656B (zh) * 2021-03-03 2022-09-13 哈尔滨工程大学 水下地形匹配定位方法、设备及计算机存储介质
CN113192124B (zh) * 2021-03-15 2024-07-02 大连海事大学 一种基于孪生网络的图像目标定位方法
CN113205544B (zh) * 2021-04-27 2022-04-29 武汉大学 基于交并比估计的空间注意力强化学习跟踪方法
CN113298850B (zh) * 2021-06-11 2023-04-21 安徽大学 一种基于注意力机制与特征融合的目标跟踪方法及系统
CN113658218B (zh) * 2021-07-19 2023-10-13 南京邮电大学 一种双模板密集孪生网络跟踪方法、装置及存储介质
CN113643329B (zh) * 2021-09-01 2022-04-19 北京航空航天大学 一种基于孪生注意力网络的在线更新目标跟踪方法和系统
CN113744311A (zh) * 2021-09-02 2021-12-03 北京理工大学 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN113920171B (zh) * 2021-12-09 2022-10-25 南京理工大学 基于特征级和决策级融合的双模态目标跟踪方法
CN114332843B (zh) * 2022-03-14 2022-07-08 浙商银行股份有限公司 基于双流孪生卷积网络的点选验证码识别方法及装置
CN114782488A (zh) * 2022-04-01 2022-07-22 燕山大学 一种基于通道感知的水下目标跟踪方法
CN117689692A (zh) * 2023-12-20 2024-03-12 中国人民解放军海军航空大学 注意力机制引导匹配关联的高光谱和rgb视频融合跟踪方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335290B (zh) * 2019-06-04 2021-02-26 大连理工大学 基于注意力机制的孪生候选区域生成网络目标跟踪方法
CN111179314B (zh) * 2019-12-30 2023-05-02 北京工业大学 一种基于残差密集孪生网络的目标跟踪方法
CN111144364B (zh) * 2019-12-31 2022-07-26 北京理工大学重庆创新中心 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN111354017B (zh) * 2020-03-04 2023-05-05 江南大学 一种基于孪生神经网络及平行注意力模块的目标跟踪方法

Also Published As

Publication number Publication date
CN112258554A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN112258554B (zh) 基于注意力机制的双流层次孪生网络目标跟踪方法
CN108154118B (zh) 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN110335290B (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN110473231B (zh) 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN112215080B (zh) 一种利用时序信息的目标跟踪方法
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN113947636B (zh) 一种基于深度学习的激光slam定位系统及方法
CN115761393B (zh) 一种基于模板在线学习的无锚目标跟踪方法
CN117252904B (zh) 基于长程空间感知与通道增强的目标跟踪方法与系统
Yang et al. Real-time detection of aircraft objects in remote sensing images based on improved YOLOv4
CN113920159A (zh) 一种基于全卷积孪生网络的红外空中小目标跟踪方法
Zhang et al. Residual memory inference network for regression tracking with weighted gradient harmonized loss
CN114066844A (zh) 一种基于注意力叠加与特征融合的肺炎x光片图像分析模型及分析方法
CN115731517B (zh) 一种基于Crowd-RetinaNet网络的拥挤人群检测方法
CN116958057A (zh) 一种策略引导的视觉回环检测的方法
CN113052875A (zh) 一种基于状态感知模板更新的目标跟踪算法
CN113112522A (zh) 基于可变形卷积和模板更新的孪生网络目标跟踪的方法
Han et al. BASL-AD SLAM: A Robust Deep-Learning Feature-Based Visual SLAM System With Adaptive Motion Model
CN117809054B (zh) 一种基于特征解耦融合网络的多目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant