CN113744314B - 一种基于目标-干扰感知的目标跟踪方法 - Google Patents
一种基于目标-干扰感知的目标跟踪方法 Download PDFInfo
- Publication number
- CN113744314B CN113744314B CN202111037034.4A CN202111037034A CN113744314B CN 113744314 B CN113744314 B CN 113744314B CN 202111037034 A CN202111037034 A CN 202111037034A CN 113744314 B CN113744314 B CN 113744314B
- Authority
- CN
- China
- Prior art keywords
- target
- interference
- image
- feature
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于目标‑干扰感知的目标跟踪方法,用以解决现有目标感知由于忽略背景干扰物的影响,造成目标跟踪出现漂移的技术问题。其步骤为:给定第一帧图像的目标坐标信息并截取目标模板,并获取重要性权重;其次,根据重要性权重分别计算目标模板和第n帧搜索图像对应的目标‑干扰感知特征;最后,将两个目标‑干扰感知特征进行相关操作得到响应图,响应值最大处即为第n帧搜索图像的目标位置;重复上述操作,直至跟踪结束。本发明将目标感知与干扰感知整合在同一个框架,使得跟踪器同时从背景干扰与目标信息中受益,有效的防止了背景干扰带来的跟踪漂移问题,提高了目标跟踪的鲁棒性。
Description
技术领域
本发明涉及目标跟踪的技术领域,特别是指一种基于目标-干扰感知的目标跟踪方法。
背景技术
视觉跟踪是在后续序列中定位指定目标的过程,是图像处理和计算机视觉的基本问题之一。它在运动分析、自动驾驶、智能监控、人机交互等领域有着广泛的应用。跟踪的一个关键问题是如何学习一种强大的目标表示,以便在具有挑战性的场景中准确有效地定位目标。很多方法都希望利用卷积神经网络(Convolutional neural networks,CNNs)获得具有强大表示能力的目标特征。然而,预训练的泛域和特定目标域之间的特征空间往往不同,这就导致了在面对背景干扰时容易漂移的问题。
在只提供第一帧真实信息的情况下,如何充分利用目标信息一直是人们关注的问题。基于目标感知的跟踪方法应运而生。目标感知是利用目标信息引导跟踪器聚焦于前景。尽管这些方法尽力从目标中获益,但它们在具有挑战性的情况下识别目标的能力仍然有限。相比之下,人类在跟踪一个物体时,会在场景中利用更丰富的线索。许多学者都在研究基于背景感知的跟踪方法,试图在提供更多上下文信息的情况下提供鉴别信息。事实上,跟踪失败往往是由类目标区域引起的,因此纯背景不足以支持跟踪器在背景杂波下的高分辨能力。基于干扰物感知的跟踪方法应运而生。值得注意的是,目标感知往往忽略了对背景干扰物的探索,而干扰物感知往往忽略了对目标信息的进一步挖掘,因此背景干扰物的存在仍然有很大的影响。因此如何充分利用有限的目标信息,同时考虑背景干扰提供的线索,是一个重要的研究课题。
发明内容
针对上述背景技术中存在的不足,本发明提出了一种基于目标-干扰感知的目标跟踪方法,充分利用目标信息的同时挖掘背景干扰提供的线索获得鲁棒的目标外观模型,解决了现有目标感知由于忽略背景干扰物的影响,造成目标跟踪出现漂移的技术问题。
本发明的技术方案是这样实现的:
一种基于目标-干扰感知的目标跟踪方法,其步骤如下:
S1:针对视频序列中的第一帧图像,给定第一帧图像的目标坐标信息并截取目标模板,并根据第一帧图像、目标坐标信息和目标模板获取重要性权重;
S2:根据重要性权重计算目标模板对应的目标-干扰感知特征I;
S3:针对第n帧搜索图像,根据重要性权重计算第n帧搜索图像对应的目标-干扰感知特征II,其中,n≥2;
S4:将目标-干扰感知特征I与目标-干扰感知特征II进行相关操作得到响应图,响应值最大处即为第n帧搜索图像的目标位置;
S5:循环执行步骤三至步骤四,直至遍历视频序列,完成目标跟踪。
在步骤S1中,具体步骤为:
S1.1、利用VGG-16网络分别提取目标模板的深度特征I和第一帧图像的深度特征II;
目标模板的深度特征I的获得方法为:将第一帧图像输入VGG-16网络,分别输出VGG-16网络中的conv4-3层的第一特征图和conv4-1层的第二特征图,将第一特征图和第二特征图进行拼接,得到第一帧图像的搜索特征,然后根据目标坐标信息从第一帧图像的搜索特征中截取目标图像的深度特征图,即为目标模板的深度特征I;
S1.2、将深度特征I与深度特征II进行相关操作,得到候选目标与目标的相似度得分,并将相似度得分大于阈值的区域作为干扰物,标记干扰物的坐标信息;
S1.3、构建单层网络,将第一帧图像、目标坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于目标表征的重要性参数Δti;
S1.4、将第一帧图像、干扰物坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于干扰物表征的重要性参数Δdi;
S1.5、将目标表征的重要性参数Δti和干扰物表征的重要性参数Δdi进行综合决策,得到每个通道的重要性权重。
在步骤S2中,将目标模板的深度特征I与每个通道的重要性权重相乘得到目标-干扰感知特征I。
在步骤S3中,利用VGG-16网络提取第n帧搜索图像的深度特征III,并将深度特征III与每个通道的重要性权重相乘得到目标-干扰感知特征II。
所述候选目标与目标的相似度得分的计算方法为:
其中,x目标模板的图像,z为第一帧图像,*为互相关操作,为从VGG-16网络中提取图像特征图的操作。
每个通道的对于目标、干扰物表征的重要性参数的计算方法为:
其中,Δi∈{Δti,Δdi}是第i个通道的重要性参数,i是通道索引,GAP(·)为全局平均池化函数,L为设计的损失函数,zi表示为第i个通道的特征。
根据前述的基于目标-干扰感知的目标跟踪方法,还包括,单层卷积网络训练时的损失函数为:
其中,W是网络权重,X是输入样本,Y是软标签,λ为正则化参数,T(·)是设计调节损失大小的函数:
其中,a是一个超参数。
所述每个通道的重要性权重的计算方法为:
其中,Δti与Δdi为二值化后的量,Δfi为第i个通道的重要性权重。
所述目标-干扰感知特征I和目标-干扰感知特征II的计算方法为:
θ′=κ(θ;Δfi);
其中,θ∈{深度特征I,深度特征III},θ′∈{目标-干扰感知特征I,目标-干扰感知特征II},κ是最重要通道特征的选择函数。
所述响应图的计算方法为:
其中,n是帧索引,x1目标模板图像,θ′(x1)为目标模板对应的目标-干扰感知特征I,zn为第n帧搜索图像,θ′(zn)为第n帧搜索图像对应的目标-干扰感知特征II,*为相关操作,为第n帧估计的目标位置。
与现有技术相比,本发明产生的有益效果为:本发明将目标感知与干扰感知整合在同一个框架,使得跟踪器同时从背景干扰与目标信息中受益,有效的防止了背景干扰带来的跟踪漂移问题,提高了目标跟踪的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图。
图2为原始深度特征与目标-干扰感知特征的可视化比较图;其中(a)搜索窗口,(b)为原始深度特征可视化图,(c)为目标-干扰感知特征的可视化比较图。
图3为本发明与其他算法在TC-128数据集上的比较图;其中,(a)跟踪精度对比结果,(b)为跟踪成功率对比结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种基于目标-干扰感知的目标跟踪方法,其步骤如下:
S1:针对视频序列中的第一帧图像,给定第一帧图像的目标坐标信息并截取目标模板,并根据第一帧图像、目标坐标信息和目标模板获取重要性权重;
在步骤S1中,具体步骤为:
S1.1、利用VGG-16网络分别提取目标模板的深度特征I和第一帧图像的深度特征II;
目标模板的深度特征I的获得方法为:将第一帧图像输入VGG-16网络,分别输出VGG-16网络中的conv4-3层的第一特征图和conv4-1层的第二特征图,将第一特征图和第二特征图进行拼接,也即将第二特征图按深度方向拼接在第一特征图之后,得到第一帧图像的搜索特征,然后根据目标坐标信息从第一帧图像的搜索特征中截取目标图像的深度特征图,即为目标模板的深度特征I。
S1.2、将深度特征I与深度特征II进行相关操作,得到候选目标与目标的相似度得分,并将相似度得分大于阈值的区域作为干扰物,标记干扰物的坐标信息;
所述候选目标与目标的相似度得分的计算方法为:
其中,x目标模板的图像,z为第一帧图像,*为互相关操作,为从VGG-16网络中提取图像特征图的操作。
S1.3、构建单层网络,将第一帧图像、目标坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于目标表征的重要性参数Δti;
单层卷积网络训练时的损失函数为:
其中,W是网络权重,X是输入样本,Y是软标签,λ为正则化参数,T(·)是设计调节损失大小的函数:
其中,a是一个超参数。
S1.4、将第一帧图像、干扰物坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于干扰物表征的重要性参数Δdi;
每个通道的对于目标、干扰物表征的重要性参数的计算方法为:
其中,Δi∈{Δti,Δdi}是第i个通道的重要性参数,i是通道索引,GAP(·)为全局平均池化函数,L为设计的损失函数,zi表示为第i个通道的特征。
S1.5、将目标表征的重要性参数Δti和干扰物表征的重要性参数Δdi进行综合决策,得到每个通道的重要性权重。
所述每个通道的重要性权重的计算方法为:
其中,Δti与Δdi为二值化后的量,Δfi为第i个通道的重要性权重。
S2:根据重要性权重计算目标模板对应的目标-干扰感知特征I;在步骤S2中,将目标模板的深度特征I与每个通道的重要性权重相乘得到目标-干扰感知特征I。
S3:针对第n帧搜索图像,根据重要性权重计算第n帧搜索图像对应的目标-干扰感知特征II,其中,n≥2;在步骤S3中,利用VGG-16网络提取第n帧搜索图像的深度特征III,并将深度特征III与每个通道的重要性权重相乘得到目标-干扰感知特征II。
所述目标-干扰感知特征I和目标-干扰感知特征II的计算方法为:
θ′=κ(θ;Δfi);
其中,θ∈{深度特征I,深度特征III},θ′∈{目标-干扰感知特征I,目标-干扰感知特征II},κ是最重要通道特征的选择函数。
S4:将目标-干扰感知特征I与目标-干扰感知特征II进行相关操作得到响应图,响应值最大处即为第n帧搜索图像的目标位置;
所述响应图的计算方法为:
其中,n是帧索引,x1目标模板图像,θ′(x1)为目标模板对应的目标-干扰感知特征I,zn为第n帧搜索图像,θ′(zn)为第n帧搜索图像对应的目标-干扰感知特征II,*为相关操作,为第n帧估计的目标位置。
S5:循环执行步骤三至步骤四,直至遍历视频序列,完成目标跟踪。
本发明实例是在Intel i7-9700CPU(3.00GHZ),16GB RAM和NVDIA GeForce RTX2060的计算机上使用MATLAB R2019a实现的。如图2所示,相对于原始深度特征,目标-干扰感知特征能更好的的区分目标与干扰。如图3所示,本发明实例所提供的一种基于目标-干扰感知的目标跟踪算法(OURS)与其他经典的目标跟踪算法(ECO、CREST、CF2、CACF、KCF、CSK)在TC-128数据集上的比较,在成功率和精度上都取得了优秀的表现,这表明表明,本发明的目标-干扰感知用于表征目标可以有效提高跟踪的鲁棒性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于目标-干扰感知的目标跟踪方法,其特征在于,其步骤如下:
S1:针对视频序列中的第一帧图像,给定第一帧图像的目标坐标信息并截取目标模板,并根据第一帧图像、目标坐标信息和目标模板获取重要性权重;
在步骤S1中,具体步骤为:
S1.1、利用VGG-16网络分别提取目标模板的深度特征I和第一帧图像的深度特征II;
目标模板的深度特征I的获得方法为:将第一帧图像输入VGG-16网络,分别输出VGG-16网络中的conv4-3层的第一特征图和conv4-1层的第二特征图,将第一特征图和第二特征图进行拼接,得到第一帧图像的搜索特征,然后根据目标坐标信息从第一帧图像的搜索特征中截取目标图像的深度特征图,即为目标模板的深度特征I;
S1.2、将深度特征I与深度特征II进行相关操作,得到候选目标与目标的相似度得分,并将相似度得分大于阈值的区域作为干扰物,标记干扰物的坐标信息;
S1.3、构建单层网络,将第一帧图像、目标坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于目标表征的重要性参数△ti;
S1.4、将第一帧图像、干扰物坐标信息和深度特征II均输入单层网络中,利用梯度下降法训练单层网络直至收敛,然后使用全局平均池化函数得到单层网络中每个通道的对于干扰物表征的重要性参数△di;
S1.5、将目标表征的重要性参数△ti和干扰物表征的重要性参数△di进行综合决策,得到每个通道的重要性权重;
S2:根据重要性权重计算目标模板对应的目标-干扰感知特征I;
S3:针对第n帧搜索图像,根据重要性权重计算第n帧搜索图像对应的目标-干扰感知特征II,其中,n≥2;
S4:将目标-干扰感知特征I与目标-干扰感知特征II进行相关操作得到响应图,响应值最大处即为第n帧搜索图像的目标位置;
S5:循环执行步骤三至步骤四,直至遍历视频序列,完成目标跟踪。
2.根据权利要求1所述的基于目标-干扰感知的目标跟踪方法,其特征在于,在步骤S2中,将目标模板的深度特征I与每个通道的重要性权重相乘得到目标-干扰感知特征I。
3.根据权利要求2所述的基于目标-干扰感知的目标跟踪方法,其特征在于,在步骤S3中,利用VGG-16网络提取第n帧搜索图像的深度特征III,并将深度特征III与每个通道的重要性权重相乘得到目标-干扰感知特征II。
4.根据权利要求1所述的基于目标-干扰感知的目标跟踪方法,其特征在于,所述候选目标与目标的相似度得分的计算方法为:
其中,x目标模板的图像,z为第一帧图像,*为互相关操作,为从VGG-16网络中提取图像特征图的操作。
5.根据权利要求3所述的基于目标-干扰感知的目标跟踪方法,其特征在于,每个通道的对于目标、干扰物表征的重要性参数的计算方法为:
其中,△i∈{△ti,△di}是第i个通道的重要性参数,i是通道索引,GAP(·)为全局平均池化函数,L为设计的损失函数,zi表示为第i个通道的特征。
6.根据权利要求1所述的基于目标-干扰感知的目标跟踪方法,其特征在于,单层卷积网络训练时的损失函数为:
其中,W是网络权重,X是输入样本,Y是软标签,λ为正则化参数,T(·)是设计调节损失大小的函数:
其中,a是一个超参数。
7.根据权利要求5所述的基于目标-干扰感知的目标跟踪方法,其特征在于,所述每个通道的重要性权重的计算方法为:
其中,△ti与△di为二值化后的量,△fi为第i个通道的重要性权重。
8.根据权利要求7所述的基于目标-干扰感知的目标跟踪方法,其特征在于,所述目标-干扰感知特征I和目标-干扰感知特征II的计算方法为:
θ′=κ(θ;△fi);
其中,θ∈{深度特征I,深度特征III},θ′∈{目标-干扰感知特征I,目标-干扰感知特征II},κ是最重要通道特征的选择函数。
9.根据权利要求8所述的基于目标-干扰感知的目标跟踪方法,其特征在于,所述响应图的计算方法为:
其中,n是帧索引,x1目标模板图像,θ′(x1)为目标模板对应的目标-干扰感知特征I,zn为第n帧搜索图像,θ′(zn)为第n帧搜索图像对应的目标-干扰感知特征II,*为相关操作,为第n帧估计的目标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111037034.4A CN113744314B (zh) | 2021-09-06 | 2021-09-06 | 一种基于目标-干扰感知的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111037034.4A CN113744314B (zh) | 2021-09-06 | 2021-09-06 | 一种基于目标-干扰感知的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744314A CN113744314A (zh) | 2021-12-03 |
CN113744314B true CN113744314B (zh) | 2023-09-22 |
Family
ID=78735837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111037034.4A Active CN113744314B (zh) | 2021-09-06 | 2021-09-06 | 一种基于目标-干扰感知的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113744314B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960407A (zh) * | 2018-06-05 | 2018-12-07 | 出门问问信息科技有限公司 | 递归神经网路语言模型训练方法、装置、设备及介质 |
CN109658436A (zh) * | 2018-12-04 | 2019-04-19 | 郑州轻工业学院 | 一种混合goa和tlbo搜索的快速运动目标跟踪方法 |
CN109784333A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及系统 |
CN110619655A (zh) * | 2019-08-23 | 2019-12-27 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111598928A (zh) * | 2020-05-22 | 2020-08-28 | 郑州轻工业大学 | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 |
CN111951297A (zh) * | 2020-08-31 | 2020-11-17 | 郑州轻工业大学 | 一种基于结构化逐像素目标注意机制的目标跟踪方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112801182A (zh) * | 2021-01-27 | 2021-05-14 | 安徽大学 | 一种基于困难样本感知的rgbt目标跟踪方法 |
CN113192124A (zh) * | 2021-03-15 | 2021-07-30 | 大连海事大学 | 一种基于孪生网络的图像目标定位方法 |
-
2021
- 2021-09-06 CN CN202111037034.4A patent/CN113744314B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960407A (zh) * | 2018-06-05 | 2018-12-07 | 出门问问信息科技有限公司 | 递归神经网路语言模型训练方法、装置、设备及介质 |
CN109658436A (zh) * | 2018-12-04 | 2019-04-19 | 郑州轻工业学院 | 一种混合goa和tlbo搜索的快速运动目标跟踪方法 |
CN109784333A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及系统 |
CN110619655A (zh) * | 2019-08-23 | 2019-12-27 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111598928A (zh) * | 2020-05-22 | 2020-08-28 | 郑州轻工业大学 | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 |
CN111951297A (zh) * | 2020-08-31 | 2020-11-17 | 郑州轻工业大学 | 一种基于结构化逐像素目标注意机制的目标跟踪方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112801182A (zh) * | 2021-01-27 | 2021-05-14 | 安徽大学 | 一种基于困难样本感知的rgbt目标跟踪方法 |
CN113192124A (zh) * | 2021-03-15 | 2021-07-30 | 大连海事大学 | 一种基于孪生网络的图像目标定位方法 |
Non-Patent Citations (3)
Title |
---|
Channel Positive and Negative Feedback Network for Target Tracking;Yue Chen;《IEEE Xplore》;全文 * |
基于孪生网络的目标跟踪算法研究;朱倍莹;《CNKI中国知网》;全文 * |
基于深度学习的单目标视频跟踪算法研究;成磊;《CNKI中国知网》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113744314A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563313B (zh) | 基于深度学习的多目标行人检测与跟踪方法 | |
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN108764085B (zh) | 基于生成对抗网络的人群计数方法 | |
CN111898504B (zh) | 一种基于孪生循环神经网络的目标跟踪方法及系统 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN111915644B (zh) | 孪生导向锚框rpn网络的实时目标跟踪方法 | |
CN111008991B (zh) | 一种背景感知的相关滤波目标跟踪方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
Zhao et al. | Multiresolution airport detection via hierarchical reinforcement learning saliency model | |
US11887303B2 (en) | Image processing model generation method, image processing method and device, and electronic device | |
CN112766218B (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
CN105279772A (zh) | 一种红外序列图像的可跟踪性判别方法 | |
CN115761534A (zh) | 一种空中背景下红外无人机小目标检测及跟踪方法 | |
CN114708300A (zh) | 一种可抗遮挡的自适应目标跟踪方法及系统 | |
CN109492537B (zh) | 一种物体识别方法及装置 | |
CN112288778B (zh) | 一种基于多帧回归深度网络的红外小目标检测方法 | |
CN117975267A (zh) | 一种基于孪生多尺度交叉注意的遥感影像变化检测方法 | |
CN110503663B (zh) | 一种基于抽帧检测的随机多目标自动检测跟踪方法 | |
US20210256717A1 (en) | Edge-guided ranking loss for monocular depth prediction | |
US20230281843A1 (en) | Generating depth images for image data | |
CN115527269A (zh) | 一种人体姿态图像智能识别方法及系统 | |
CN115761393A (zh) | 一种基于模板在线学习的无锚目标跟踪方法 | |
CN113129332A (zh) | 执行目标对象跟踪的方法和装置 | |
CN113744314B (zh) | 一种基于目标-干扰感知的目标跟踪方法 | |
Wang et al. | Hausdorff iou and context maximum selection nms: Improving object detection in remote sensing images with a novel metric and postprocessing module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |