CN116030095A - 一种基于双分支孪生网络结构的视觉目标跟踪方法 - Google Patents
一种基于双分支孪生网络结构的视觉目标跟踪方法 Download PDFInfo
- Publication number
- CN116030095A CN116030095A CN202310049832.1A CN202310049832A CN116030095A CN 116030095 A CN116030095 A CN 116030095A CN 202310049832 A CN202310049832 A CN 202310049832A CN 116030095 A CN116030095 A CN 116030095A
- Authority
- CN
- China
- Prior art keywords
- branch
- image
- response
- target
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000000007 visual effect Effects 0.000 title claims abstract description 11
- 230000004044 response Effects 0.000 claims abstract description 78
- 238000010586 diagram Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000008859 change Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 22
- 238000007781 pre-processing Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000001914 filtration Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于双分支孪生网络结构的视觉目标跟踪方法,属于图形图像处理领域;它解决了目前目标跟踪方法中遮挡、形变、模糊运动以及相似物干扰等常见的问题;其技术方案是:向双分支孪生网络结构同时输入模板帧和搜索帧图像,然后将经过双分支孪生网络结构的模板帧和搜索帧图像进行互相关操作,得到一张响应图,取出响应图中值最大的点即为待跟踪目标的中心位置;本发明具有以下有益效果:通过双分支网络结构中的浅层分支能精确捕捉目标位置信息;深层分支通过提取目标抽象的语义信息,能很好的应对跟踪过程中目标出现的遮挡、尺度变化等问题;将经过两个分支的结果进行自适应融合,能够达到很好的综合效果。
Description
技术领域
本发明涉及一种基于双分支孪生网络结构的视觉目标跟踪方法,属于图形图像处理领域。
背景技术
视觉目标跟踪一直是人工智能和计算机视觉领域一项基本而富有挑战性的任务,在视频监控、智能交通、无人驾驶等方面具有广泛的应用。然而,由于各种挑战,例如目标被遮挡、尺度变化及背景杂乱等,目标跟踪算法在实时性和准确性方面难以做到较好的平衡,因此如何实现实时、准确的目标跟踪算法具有很大的研究价值。目前的目标跟踪方法主要分为:基于相关滤波类的方法,如KCF、DSST;基于孪生网络类的方法,如SiamFC、SiamRPN、SiamDW;而随着计算机计算能力的大幅提升,基于深度学习的孪生网络类算法逐渐成为主流。
基于相关滤波类的目标跟踪算法通过提取目标特征训练滤波器,并对下一帧图像作滤波运算,以结果响应峰值所在位置作为目标位置。在特征构建方面,早期的相关滤波方法主要使用手工特征构建目标模型,而手工特征的构建方法相对简单,仅由统计计算完成,虽然使用此类特征的跟踪器的跟踪速度较快,但对目标特征的建模能力较弱,从而使得跟踪器鲁棒性不强,难以应对复杂场景下的跟踪任务。基于深度学习的孪生网络类目标跟踪算法,以SiamFC为代表,其在初始离线阶段训练一个全卷积网络以解决更一般的相似性学习问题,然后在推理期间对学习到的匹配函数进行简单的在线评估,该方法在具有极强的实时性的同时达到了极具竞争力的性能。但是该算法使用较浅的特征提取网络AlexNet,提取到的仅仅是目标的浅层特征,在应对遮挡、尺度变化等复杂场景时精度不高。而近两年来基于孪生网络类的跟踪算法如SiamDW探索出如何将深层网络作为骨干网络应用于目标跟踪任务中;但深层网络随着层数的加深会抑制浅层特征的利用,而浅层特征对于跟踪过程中目标位置的定位能力较强,因此浅层特征的利用也十分重要。
总体而言,目前基于孪生网络类的目标跟踪算法大致只利用目标的浅层特征或只利用目标深层的语义特征进行跟踪,亦或者在骨干网络后面嵌入一系列模块,虽然性能有所提升,但实时性却大幅下降。
发明内容
本发明目的是:为了解决现如今孪生网络类目标跟踪算法在精度与实时性之间难以平衡的问题,同时使得整个算法的结构简单明了,实现在满足实时性的前提下获得较好的跟踪准确率和精度。
为实现上述目的,本发明设计出一种基于双分支孪生网络结构的视觉目标跟踪方法。该方法包括以下步骤:
S100、训练阶段,获取原始模板图像z和原始搜索图像x;对所述原始模板图像和原始搜索图像进行预处理,得到模板图像z_sz和搜索图像x_sz,并将所述模板图像z_sz和搜索图像x_sz作为训练数据并构建训练数据集;训练时,所有图像的Bounding Box均已知;
S101、所述对原始模板图像进行预处理,包括以下步骤:以目标为中心,构建出对应的模板区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
S102、所述对原始搜索图像进行预处理,包括以下步骤:在构建之前已知其上一帧Bounding box的信息,以上一帧Bounding box的中心为中心,构建出对应的搜索区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
S200、将所述模板图像z_sz和搜索图像x_sz输入到双分支孪生网络结构进行特征提取,具体为:将所述模板图像z_sz通过浅层分支进行特征提取,得到浅层分支提取出的模板图像特征图;将所述模板图像z_sz通过深层分支进行特征提取,得到深层分支提取出的模板图像特征图;将所述搜索图像x_sz通过浅层分支进行特征提取,得到浅层分支提取出的搜索图像特征图;将所述搜索图像x_sz通过深层分支进行特征提取,得到深层分支提取出的搜索图像特征图;
S300、将分别经过深浅两个分支得到的特征图进行互相关操作,即经过所述浅层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,经过所述深层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,得到对应的两个分支响应图;得到分支响应图的表达公式为:
总响应图的计算公式为:
其中代表S200的特征提取操作,f(z,x)为最终的响应图,fi(z,x)为分支响应图,z和x分别代表模板图像和搜索图像,i=1,2分别代表浅层和深层分支,m和n代表权重系数,在训练过程中通过不断学习自适应的调整比重,b为偏置;
S400、通过分数矩阵进行训练,通过损失函数计算的损失不断优化模型;
S401、首先构建正负样本对,其构建公式表示为:
其中, c为物体在响应图的中心,u为响应图中任意一点,y为该点在响应图中构建出的样本值,y∈{+1,-1},‖u-c‖是u与c的欧氏距离,k是网络总步长,R是定义的一个阈值;
S402、使用交叉熵作为损失函数,对于响应图中每个点,损失函数为:
S403、通过计算损失值,使用随机梯度下降方法不断更新模型参数,对模型进行优化;参数的初始化使用一个高斯分布,范围遵循Xavier方法;
S404、最终将响应图中数值最高的点作为预测的下一帧的目标位置的中心;
S500、跟踪阶段,准备两路输入图像,已知第一帧模板图像的Bounding Box,后续搜索图像的Bounding Box未知;按照要求构建出模板图像和搜索图像;
S600、将模板图像和第二帧搜索图像输入到双分支孪生网络结构中,分别得到对应的四种特征图;
S700、分别将经过浅层分支提取到的模板图像和搜索图像的特征图进行互相关,将深层分支提取到的模板图像和搜索图像的特征图进行互相关,得到两个分支响应图;得到分支响应图的表达公式为:
S800、将分支响应图通过训练阶段学习到的最优权重比进行融合,得到最终响应图;融合公式为:
f(z,x)为最终的响应图,m和n代表权重系数,范围为(0,1),b为偏置;
S900、针对搜索图像,为了应对跟踪过程中的尺度变化,将在三种尺度上对搜索图像进行处理,三种尺度分别为1.0375{[-2,-0.5,1]},因此最终会生成这三种尺度的响应图;
S1000、使用双三次线性插值将响应图映射为搜索图像的尺寸,取出三种尺度中数值最高点的位置(x,y),并将其作为预测目标的中心;同时根据数值最高点的位置(x,y)所在尺度的响应图更新目标的尺寸,具体为:target×scale,其中
target表示待跟踪物体的原始尺寸。
上述的一种基于双分支孪生网络结构的视觉目标跟踪方法,其主要优势在于:该方法能够在兼顾跟踪实时性的同时很好的应对跟踪过程中出现的各种挑战,在面对背景杂乱、尺度变化、遮挡等复杂场景也能使得跟踪成功率和精度有所保障。同时整个方法的流程简洁明了。
与现有发明相比,本发明具有以下有益效果:(1)通过双分支孪生网络结构充分结合深浅层特征,最大限度的挖掘并利用了目标的特征信息,使其能够很好的应对遮挡、尺度变化以及背景杂乱等复杂情况;(2)将设计出的多尺度特征融合模块嵌入浅层分支,使得浅层分支对于定位目标位置的能力更强;(3)整个跟踪流程简洁明了;(4)跟踪实时性很强。
附图说明
图1是本发明的技术流程图。
图2是深层分支的两种主要结构图。
图3是多尺度特征融合模块图。
图4(a)和图4(b)分别是本发明在OTB数据集下与其他方法的精度与成功率对比图。
实施方式
为使本发明的目的、技术方案和优势更加清楚明白,下面结合实施方式和附图,对本发明进一步详细说明。在此,本发明的示意性实施方式以及其说明用于解释本发明,但并不作为本发明的限定。
如图1所示,是一种基于双分支孪生网络结构的视觉目标跟踪方法的技术流程图,该方法包括以下步骤:
S100、训练阶段,获取原始模板图像z和原始搜索图像x;对所述原始模板图像和原始搜索图像进行预处理,得到模板图像z_sz和搜索图像x_sz,并将所述模板图像z_sz和搜索图像x_sz作为训练数据并构建训练数据集;训练时,所有图像的Bounding Box均已知;
S101、所述对原始模板图像进行预处理,包括以下步骤:以目标为中心,构建出对应的模板区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
S102、所述对原始搜索图像进行预处理,包括以下步骤:在构建之前已知其上一帧Bounding box的信息,以上一帧Bounding box的中心为中心,构建出对应的搜索区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
S200、将所述模板图像z_sz和搜索图像x_sz输入到双分支孪生网络结构进行特征提取,具体为:将所述模板图像z_sz通过浅层分支进行特征提取,得到浅层分支提取出的模板图像特征图;将所述模板图像z_sz通过深层分支进行特征提取,得到深层分支提取出的模板图像特征图;将所述搜索图像x_sz通过浅层分支进行特征提取,得到浅层分支提取出的搜索图像特征图;将所述搜索图像x_sz通过深层分支进行特征提取,得到深层分支提取出的搜索图像特征图;
S300、将分别经过深浅两个分支得到的特征图进行互相关操作,即经过所述浅层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,经过所述深层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,得到对应的两个分支响应图;得到分支响应图的表达公式为:
总响应图的计算公式为:
其中代表S200的特征提取操作,f(z,x)为最终的响应图,fi(z,x)为分支响应图,z和x分别代表模板图像和搜索图像,i=1,2分别代表浅层和深层分支,m和n代表权重系数,在训练过程中通过不断学习自适应的调整比重,b为偏置;
S400、通过分数矩阵进行训练,通过损失函数计算的损失不断优化模型;
S401、首先构建正负样本对,其构建公式表示为:
其中, c为物体在响应图的中心,u为响应图中任意一点,y为该点在响应图中构建出的样本值,y∈{+1,-1},‖u-c‖是u与c的欧氏距离,k是网络总步长,R是定义的一个阈值;
S402、使用交叉熵作为损失函数,对于响应图中每个点,损失函数为:
其中v是响应图中任一点的真实值,y∈{+1,-1}是这个点所对应的样本值,即S401中得到的样本值;将响应图的损失定义为所有单点损失的平均值,表示为:
S403、通过计算损失值,使用随机梯度下降方法不断更新模型参数,对模型进行优化;参数的初始化使用一个高斯分布,范围遵循Xavier方法;
S404、最终将响应图中数值最高的点作为预测的下一帧的目标位置的中心;
S500、跟踪阶段,准备两路输入图像,已知第一帧模板图像的Bounding Box,后续搜索图像的Bounding Box未知;按照要求构建出模板图像和搜索图像;
S600、将模板图像和第二帧搜索图像输入到双分支孪生网络结构中,分别得到对应的四种特征图;
S700、分别将经过浅层分支提取到的模板图像和搜索图像的特征图进行互相关,将深层分支提取到的模板图像和搜索图像的特征图进行互相关,得到两个分支响应图;得到分支响应图的表达公式为:
S800、将分支响应图通过训练阶段学习到的最优权重比进行融合,得到最终响应图;融合公式为:
f(z,x)为最终的响应图,m和n代表权重系数,范围为(0,1),b为偏置;
S900、针对搜索图像,为了应对跟踪过程中的尺度变化,将在三种尺度上对搜索图像进行处理,三种尺度分别为1.0375{[-2,-0.5,1]},因此最终会生成这三种尺度的响应图;
S1000、使用双三次线性插值将响应图映射为搜索图像的尺寸,取出三种尺度中数值最高点的位置(x,y),并将其作为预测目标的中心;同时根据数值最高点的位置(x,y)所在尺度的响应图更新目标的尺寸,具体为:target×scale,其中
target表示待跟踪物体的原始尺寸。
进一步的对比其他算法与本方法在大型基准测试数据集OTB下的表现,选取以下八种常见的算法:SiamFC、CFNet、Staple、SRDCF、SiamDW、SiamRPN、DeepSRDCF、GradNet,本方法与这八种算法的精度和成功率对比如图4(a)和图4(b)所示。由图可知,本发明所公开方法相比于其他算法,在应对实际跟踪环境出现的各种挑战方面效果更显著。
最后所应说明的是:以上实施例仅用以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应该理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.一种基于双分支孪生网络结构的视觉目标跟踪方法,其特征在于,所述方法包括以下步骤:
S100、训练阶段,获取原始模板图像z和原始搜索图像x;对所述原始模板图像和原始搜索图像进行预处理,得到模板图像z_sz和搜索图像x_sz,并将所述模板图像z_sz和搜索图像x_sz作为训练数据并构建训练数据集;训练时,所有图像的Bounding Box均已知;
S200、将所述模板图像z_sz和搜索图像x_sz输入到双分支孪生网络结构进行特征提取,具体为:将所述模板图像z_sz通过浅层分支进行特征提取,得到浅层分支提取出的模板图像特征图;将所述模板图像z_sz通过深层分支进行特征提取,得到深层分支提取出的模板图像特征图;将所述搜索图像x_sz通过浅层分支进行特征提取,得到浅层分支提取出的搜索图像特征图;将所述搜索图像x_sz通过深层分支进行特征提取,得到深层分支提取出的搜索图像特征图;
所述双分支孪生网络结构由一个深层分支和一个浅层分支构成,所述浅层分支用于定位目标的位置信息;所述浅层分支由一个AlexNet网络构成,同时使用多尺度特征融合模块进一步精确定位目标的位置信息;所述深层分支能够提取到目标的行为特征、运动轨迹特征等语义信息;所述深层分支由一个去掉全连接层的VGG网络构成;在该VGG网络中,在涉及填充操作的卷积层后嵌入一个边缘裁剪单元,同时在通道数发生变化的卷积层后嵌入ECA模块,学习通道特征;在所述深层分支提取模板图像的一侧,加入双重注意力模块;
S300、将分别经过深浅两个分支得到的特征图进行互相关操作,即经过所述浅层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,经过所述深层分支的模板图像z_sz和搜索图像x_sz的特征图进行互相关操作,得到对应的两个分支响应图;得到分支响应图的表达公式为:
总响应图的计算公式为:
其中代表S200的特征提取操作,f(z,x)为最终的响应图,fi(z,x)为分支响应图,z和x分别代表模板图像和搜索图像,i=1,2分别代表浅层和深层分支,m和n代表权重系数,在训练过程中通过不断学习自适应的调整比重,b为偏置;
S400、通过分数矩阵进行训练,通过损失函数计算的损失不断优化模型;
S500、跟踪阶段,准备两路输入图像,已知第一帧模板图像的Bounding Box,后续搜索图像的Bounding Box未知;按照要求构建出模板图像和搜索图像;
S600、将模板图像和第二帧搜索图像输入到双分支孪生网络结构中,分别得到对应的四种特征图;
S700、分别将经过浅层分支提取到的模板图像和搜索图像的特征图进行互相关,将深层分支提取到的模板图像和搜索图像的特征图进行互相关,得到两个分支响应图;得到分支响应图的表达公式为:
S800、将分支响应图通过训练阶段学习到的最优权重比进行融合,得到最终响应图;融合公式为:
f(z,x)为最终的响应图,m和n代表权重系数,范围为(0,1),b为偏置;
S900、针对搜索图像,为了应对跟踪过程中的尺度变化,将在三种尺度上对搜索图像进行处理,三种尺度分别为1.0375{[-2,-0.5,1]},因此最终会生成这三种尺度的响应图;
S1000、使用双三次线性插值将响应图映射为搜索图像的尺寸,取出三种尺度中数值最高点的位置(x,y),并将其作为预测目标的中心;同时根据数值最高点的位置(x,y)所在尺度的响应图更新目标的尺寸,具体为:target×scale,其中
target表示待跟踪物体的原始尺寸。
2.根据权利要求1所述的一种基于双分支孪生网络结构的视觉目标跟踪方法,其特征在于:其中,所述S100中对原始模板图像的预处理具体包含以下步骤:
S101、所述对原始模板图像进行预处理,包括以下步骤:以目标为中心,构建出对应的模板区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
S102、所述对原始搜索图像进行预处理,包括以下步骤:在构建之前已知其上一帧Bounding box的信息,以上一帧Bounding box的中心为中心,构建出对应的搜索区域,如果超出范围则使用RGB均值进行填充;构建方式如下:
3.根据权利要求1所述的一种基于双分支孪生网络结构的视觉目标跟踪方法,其特征在于:所述S400中的通过分数矩阵进行训练具体包含以下步骤:
S401、首先构建正负样本对,其构建公式表示为:
其中, c为物体在响应图的中心,u为响应图中任意一点,y为该点在响应图中构建出的样本值,y∈{+1,-1},‖u-c‖是u与c的欧氏距离,k是网络总步长,R是定义的一个阈值;
S402、使用交叉熵作为损失函数,对于响应图中每个点,损失函数为:
S403、通过计算损失值,使用随机梯度下降方法不断更新模型参数,对模型进行优化;参数的初始化使用一个高斯分布,范围遵循Xavier方法;
S404、最终将响应图中数值最高的点作为预测的下一帧的目标位置的中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310049832.1A CN116030095B (zh) | 2023-02-01 | 2023-02-01 | 一种基于双分支孪生网络结构的视觉目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310049832.1A CN116030095B (zh) | 2023-02-01 | 2023-02-01 | 一种基于双分支孪生网络结构的视觉目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116030095A true CN116030095A (zh) | 2023-04-28 |
CN116030095B CN116030095B (zh) | 2023-06-20 |
Family
ID=86075668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310049832.1A Active CN116030095B (zh) | 2023-02-01 | 2023-02-01 | 一种基于双分支孪生网络结构的视觉目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116030095B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118210321A (zh) * | 2024-05-21 | 2024-06-18 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头的无人机行人跟踪系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112164094A (zh) * | 2020-09-22 | 2021-01-01 | 江南大学 | 一种基于孪生网络的快速视频目标跟踪方法 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112233147A (zh) * | 2020-12-21 | 2021-01-15 | 江苏移动信息系统集成有限公司 | 一种基于双路孪生网络的视频运动目标跟踪方法及装置 |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112927264A (zh) * | 2021-02-25 | 2021-06-08 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
CN113962281A (zh) * | 2021-08-20 | 2022-01-21 | 北京工业大学 | 基于Siamese-RFB的无人机目标跟踪方法 |
CN114049381A (zh) * | 2021-12-21 | 2022-02-15 | 重庆大学 | 一种融合多层语义信息的孪生交叉目标跟踪方法 |
US20220108169A1 (en) * | 2020-10-02 | 2022-04-07 | Salesforce.Com, Inc. | Systems and methods for numerical reasoning by a partially supervised numeric reasoning module network |
CN114820712A (zh) * | 2022-05-16 | 2022-07-29 | 太原科技大学 | 一种自适应目标框优化的无人机跟踪方法 |
CN114898403A (zh) * | 2022-05-16 | 2022-08-12 | 北京联合大学 | 一种基于Attention-JDE网络的行人多目标跟踪方法 |
CN114897884A (zh) * | 2022-06-17 | 2022-08-12 | 福州大学 | 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法 |
CN115035452A (zh) * | 2022-06-15 | 2022-09-09 | 辽宁工程技术大学 | 一种定位质量信息增强的孪生网络目标跟踪算法 |
CN115272405A (zh) * | 2022-06-17 | 2022-11-01 | 温州大学 | 一种基于孪生网络的鲁棒在线学习船舶跟踪方法 |
CN115311524A (zh) * | 2022-08-16 | 2022-11-08 | 盐城工学院 | 一种融合注意力和多尺度双金字塔的小目标检测算法 |
CN115457395A (zh) * | 2022-09-22 | 2022-12-09 | 南京信息工程大学 | 基于通道注意力与多尺度特征融合的轻量级遥感目标检测方法 |
WO2023280221A1 (en) * | 2021-07-07 | 2023-01-12 | Versitech Limited | Multi-scale 3d convolutional classification model for cross-sectional volumetric image recognition |
-
2023
- 2023-02-01 CN CN202310049832.1A patent/CN116030095B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112164094A (zh) * | 2020-09-22 | 2021-01-01 | 江南大学 | 一种基于孪生网络的快速视频目标跟踪方法 |
US20220108169A1 (en) * | 2020-10-02 | 2022-04-07 | Salesforce.Com, Inc. | Systems and methods for numerical reasoning by a partially supervised numeric reasoning module network |
CN112560695A (zh) * | 2020-12-17 | 2021-03-26 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112233147A (zh) * | 2020-12-21 | 2021-01-15 | 江苏移动信息系统集成有限公司 | 一种基于双路孪生网络的视频运动目标跟踪方法及装置 |
CN112927264A (zh) * | 2021-02-25 | 2021-06-08 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
WO2023280221A1 (en) * | 2021-07-07 | 2023-01-12 | Versitech Limited | Multi-scale 3d convolutional classification model for cross-sectional volumetric image recognition |
CN113962281A (zh) * | 2021-08-20 | 2022-01-21 | 北京工业大学 | 基于Siamese-RFB的无人机目标跟踪方法 |
CN114049381A (zh) * | 2021-12-21 | 2022-02-15 | 重庆大学 | 一种融合多层语义信息的孪生交叉目标跟踪方法 |
CN114820712A (zh) * | 2022-05-16 | 2022-07-29 | 太原科技大学 | 一种自适应目标框优化的无人机跟踪方法 |
CN114898403A (zh) * | 2022-05-16 | 2022-08-12 | 北京联合大学 | 一种基于Attention-JDE网络的行人多目标跟踪方法 |
CN115035452A (zh) * | 2022-06-15 | 2022-09-09 | 辽宁工程技术大学 | 一种定位质量信息增强的孪生网络目标跟踪算法 |
CN114897884A (zh) * | 2022-06-17 | 2022-08-12 | 福州大学 | 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法 |
CN115272405A (zh) * | 2022-06-17 | 2022-11-01 | 温州大学 | 一种基于孪生网络的鲁棒在线学习船舶跟踪方法 |
CN115311524A (zh) * | 2022-08-16 | 2022-11-08 | 盐城工学院 | 一种融合注意力和多尺度双金字塔的小目标检测算法 |
CN115457395A (zh) * | 2022-09-22 | 2022-12-09 | 南京信息工程大学 | 基于通道注意力与多尺度特征融合的轻量级遥感目标检测方法 |
Non-Patent Citations (7)
Title |
---|
JIANGNAN SHAO 等: "Siamese Object Tracking Algorithm Combining Residual Connection and Channel Attention Mechanism", 《JOURNAL OF COMPUTER-AIDED DESIGN & COMPUTER GRAPHICS》, vol. 33, no. 2, pages 260 - 269 * |
JUN WANG 等: "Siamese Network with Multi-scale Feature Fusion and Dual Attention Mechanism for Template Matching", 《PLOS ONE》, pages 1 - 18 * |
LUCA BERTINETTO 等: "Fully-Convolutional Siamese Networks for Object Tracking", 《ARXIV:1606.09549V3》, pages 1 - 16 * |
为了写博客要取一个好的名字: "SiamFC完整的跟踪过程", pages 1 - 2, Retrieved from the Internet <URL:《https://blog.csdn.net/cxkyxx/article/details/108042176》> * |
周文豪 等: "增强特征信息的孪生网络无人机目标跟踪方法", 《计算机工程与设计》, vol. 43, no. 8, pages 2325 - 2333 * |
王淑贤 等: "多尺度通道注意与孪生网络的目标跟踪算法", 《计算机工程与应用》, pages 1 - 13 * |
田朗 等: "SA-Siam++: 基于双分支孪生网络的目标跟踪算法", 《北京邮电大学学报》, vol. 42, no. 6, pages 105 - 110 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118210321A (zh) * | 2024-05-21 | 2024-06-18 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头的无人机行人跟踪系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116030095B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462175B (zh) | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 | |
CN111968217B (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN108647577A (zh) | 一种自适应难例挖掘的行人重识别模型、方法与系统 | |
CN112560656A (zh) | 一种联合注意力机制端到端训练的行人多目标跟踪方法 | |
CN110728694B (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN113034545A (zh) | 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 | |
CN112183675B (zh) | 一种基于孪生网络的针对低分辨率目标的跟踪方法 | |
CN112330718B (zh) | 一种基于cnn的三级信息融合视觉目标跟踪方法 | |
CN116030095B (zh) | 一种基于双分支孪生网络结构的视觉目标跟踪方法 | |
CN111882581B (zh) | 一种深度特征关联的多目标跟踪方法 | |
CN114549863B (zh) | 一种基于像素级噪声标签监督的光场显著性目标检测方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN112329662A (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
CN117523194A (zh) | 一种基于稀疏标注的图像分割方法 | |
CN113870312B (zh) | 基于孪生网络的单目标跟踪方法 | |
CN117611925A (zh) | 基于图神经网络与卷积网络的多源遥感图像分类方法 | |
CN112200831B (zh) | 一种基于动态模板的密集连接孪生神经网络目标跟踪方法 | |
CN111339342B (zh) | 一种基于角度三元中心损失的三维模型检索方法 | |
CN117475134A (zh) | 基于多尺度跨层特征融合网络的伪装目标检测算法 | |
CN110211150B (zh) | 一种具有尺度协调机制的实时视觉目标识别方法 | |
CN112115786A (zh) | 基于注意力U-net的单目视觉里程计方法 | |
CN115050010B (zh) | 一种针对三维物体检测器的迁移学习方法 | |
CN108921852B (zh) | 基于视差与平面拟合的双分支室外非结构化地形分割网络 | |
CN114022520B (zh) | 一种基于卡尔曼滤波与孪生网络的机器人目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |