CN113112522A - 基于可变形卷积和模板更新的孪生网络目标跟踪的方法 - Google Patents
基于可变形卷积和模板更新的孪生网络目标跟踪的方法 Download PDFInfo
- Publication number
- CN113112522A CN113112522A CN202110311341.0A CN202110311341A CN113112522A CN 113112522 A CN113112522 A CN 113112522A CN 202110311341 A CN202110311341 A CN 202110311341A CN 113112522 A CN113112522 A CN 113112522A
- Authority
- CN
- China
- Prior art keywords
- template
- data
- offset
- search
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004044 response Effects 0.000 claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 3
- 230000010339 dilation Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 208000006440 Open Bite Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,首次将可变形卷积网络和模板更新策略结合。采用可变形卷积学习特征数据在不同方向上的自适应偏移量,以增强骨干网络的特征提取能力。此外,深层特征虽语义信息丰富,但缺少位置信息,通过多层可变形互相关融合以提高定位精度。最后,提出了一种高置信度模板更新策略,即每隔固定帧计算一次响应图的峰值旁瓣比和最大值,以此为依据,采用加权的方式融合特征以更新模板。既保证了有效更新,也防止遮挡等特殊情况下更新模板。本发明提出了一种全新的端到端的深度模型,有效提升了方案跟踪性能。
Description
技术领域
本发明涉及一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,属于计算机视觉的目标跟踪技术领域。
背景技术
目标跟踪广泛应用在视频分析、智能交通、虚拟现实等领域,其核心任务是给定目标在视频第一帧初始位置后,自动估计后续帧中目标的位置。但跟踪过程中容易受到遮挡、模糊、形变、光照变化等一系列复杂因素的干扰,因此,设计一个可以在现实复杂场景下稳定高效运行的跟踪方法是十分具有研究与实用价值的。
目前,现有的跟踪算法大致可以分为两大类。一类将相关滤波的思想应用到跟踪领域,提出了误差最小平方和滤波器目标跟踪算法:将跟踪器模板的求解由时域复杂运算转换为傅里叶域点乘计算,计算量大大减少,跟踪器速度得到飞跃性提升。虽然这种算法在速度上很快,但是精度并不理想。另一类,为了取得精度与速度之间的平衡,基于深度学习的孪生网络跟踪算法逐渐流行。孪生网络主要由特征提取过程中共享参数的模板分支与搜索分支组成。利用相似性学习的方法,提出了全卷积孪生网络跟踪算法,通过计算目标模板与搜索区域深度特征之间的相似值,将跟踪问题转化为相似匹配问题。该算法可以使用大量数据进行端到端的离线训练,既可以获得较高的精度,也无需在线调整。通过在全卷积孪生网络目标跟踪算法中引入检测领域的区域建议网络,使用区分前景与背景、回归边界框的方法,实现了对目标尺度的灵活应对,同时得到了更为精确的边界框。实验结果表明,这种组合模型的跟踪效果要明显优于相关滤波算法和全卷积孪生网络算法。
但是,基于孪生网络的大部分目标跟踪算法中存在两大不足:
(1)基于孪生网络的跟踪算法的识别能力,在很大程度上受限于全卷积孪生网络跟踪算法中骨干网络较弱的特征提取能力。
(2)没有考虑有效在线模板更新策略。当跟踪过程中目标发生较大变化,会造成原模板有用信息减少,跟踪器出现漂移得不到及时调整。
因此,本发明针对上述的痛点,提出了一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法。
发明内容
目的:为了克服现有技术中存在的不足,本发明提供一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,能够更够准确的跟踪目标;而且,本发明能够有效解决孪生骨干网络特征提取能力弱、跟踪过程模板不更新造成模型漂移等问题,提出了一种全新的端到端的深度模型,有效提升了方案跟踪性能。
技术方案:为解决上述技术问题,本发明采用的技术方案为:
一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,包括如下步骤:
步骤S1,将数据集或摄像头捕捉画面的第一帧图像以目标为中心裁剪出127×127×3大小的图像作为模板图像,在跟踪过程中第i+1帧以第i帧目标位置为中心裁剪出255×255×3大小的图像作为搜索图像,将模板图像数据与搜索图像数据分别输入到模板分支与搜索分支中,分别得到模板特征数据w1与搜索特征数据x。
步骤S2,将模板特征数据w1与搜索特征数据x输入到可变形卷积网络中,学习各个特征数据在不同方向上的自适应偏移量,输出模板偏移核与搜索偏移特征,将模板偏移核和搜索偏移特征分别进行互相关得到偏移图c。
步骤S3,将模板特征数据w1与搜索特征数据x与偏移图c经过可变形互相关得到最终响应图。
步骤S4,每隔固定帧计算第i帧最终响应图的旁瓣峰值比和第1到i帧最终响应图旁瓣峰值比的最大值,将旁瓣峰值比、旁瓣峰值比的最大值均与历史旁瓣峰值比进行比较,如果前两者均大于历史旁瓣峰值比,则进行模板更新。
步骤S5,当模板被判定更新时,第i+1帧以第i帧图像获取目标为中心截取127×127×3大小的图像,图像通过模板分支模板提取出的新的特征数据,将新的特征数据与第一帧模板特征数据进行加权融合取代原模板特征数据,成为新的模板用于目标跟踪。
作为优选方案,步骤S1中模板分支和搜索分支在分别提取特征数据的过程中共享参数,其中特征提取过程,如公式(1)所示:
其中,I是输入图像矩阵,I((xa,ya),(xb,yb))为I的子矩阵,以(xa,ya)和(xb,yb)为子矩阵的左上角与右下角的直角坐标系的坐标,k为提取特征数据的步长,f(·)为特征提取函数。
作为优选方案,步骤S2的具体步骤如下:
2-2:将模板数据特征w1作为卷积核w加权采样值总和,得到偏移图c。
定义了一个膨胀为1,填充为0的k×k大小内核来充当规则网格。
互相关操作中,对于输出偏移图c上的每个位置a,计算公式如下:
作为优选方案,步骤S3的具体步骤如下:
3-2:利用模板特征数据w1,搜索特征数据x与偏移集,计算输出最终响应图上的每个位置a,计算公式如下:
其中,y1(*)是最终响应图上的数据。
在公式(4)中,采样在不规则且偏移的位置pn+Δpn,偏移Δpn通常为小数,公式(4)可通过双线性插值实现:
其中,p′表示a+pn+Δpn,q*枚举搜索特征数据x中所有空间位置,G(*)是双线性插值核,这里G是一个二维核,它可以分为两个一维核:
作为优选方案,计算最终响应图的峰值旁瓣值比F计算如下:
其中,Amax,Amin分别代表最终响应图上数据最大值、最小值,Ai,j代表最终响应图(i,j)上的数据,mean(*)代表求取均值。
最终响应图的峰值旁瓣值比最大值为所有最终响应图的峰值旁瓣值比中最大值记为M1。
历史旁瓣峰值比所有最终响应图旁瓣峰值比的平均值。
作为优选方案,模板更新的计算公式为:
fi=(1-η)f1(z)+ηfi(z) (10)
其中,η为超参数,f1(z)为第一帧模板特征数据,fi(z)为第i帧图像提取的新的特征数据。
有益效果:本发明提供的基于可变形卷积和模板更新的孪生网络目标跟踪的方法,该方法使用可变形卷积网络有效强化骨干网络的特征提取能力,使用高置信度的模板更新策略保障有效更新。首次将可变形卷积网络和模板更新策略结合。采用可变形卷积学习特征数据在不同方向上的自适应偏移量,以增强骨干网络的特征提取能力。此外,深层特征虽语义信息丰富,但缺少位置信息,通过多层可变形互相关融合以提高定位精度。最后,提出了一种高置信度模板更新策略,即每隔固定帧计算一次响应图的峰值旁瓣比和最大值,以此为依据,采用加权的方式融合特征以更新模板。既保证了有效更新,也防止遮挡等特殊情况下更新模板。
其有益效果如下:
(1)使用可变形卷积可以有效增强孪生骨干网络的特征提取能力,可以提取到更为丰富的深层语义特征。
(2)通过学习多层数据自适应偏移量,经过可变形互相关融合可有效提高目标的定位精度。
(3)使用有效的模板更新策略,可以预防在长时间的跟踪过程中因为目标发生较大形变,原模板逐渐失去作用出现模型漂移现象。
附图说明
图1为方法的流程图。
图2为模型的模型框架图。
具体实施方式
下面结合具体实施例对本发明作更进一步的说明。
如图1-2所示,一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,包括如下步骤:
步骤S1,孪生网络主要分为模板分支与搜索分支,其作用是用于提取图像数据的深层特征,将数据集或摄像头捕捉画面的第一帧图像以目标为中心裁剪出127×127×3大小的图像作为模板图像,在跟踪过程中第i+1帧以第i帧目标位置为中心裁剪出255×255×3大小的图像作为搜索图像,继而将模板图像数据与搜索图像数据分别输入到模板分支与搜索分支中,分别得到模板特征数据w1与搜索特征数据x。
步骤S1中将模板图像数据与搜索图像数据输入到模板分支和搜索分支中,分别得到模板特征数据w1与搜索特征数据x,两个分支在分别提取特征数据的过程中共享参数。其中特征提取过程,如公式(1)所示:
其中,I是输入图像矩阵,I((xa,ya),(xb,yb))为I的子矩阵,以(xa,ya)和(xb,yb)为子矩阵的左上角与右下角的直角坐标系的坐标,k为提取特征数据的步长,f(·)为特征提取函数。
步骤S2,将模板特征数据w1与搜索特征数据x输入到可变形卷积网络中,学习各个特征数据在不同方向上的自适应偏移量,输出模板偏移核与搜索偏移特征,将模板偏移核和搜索偏移特征分别进行互相关得到偏移图c。
步骤S2的具体步骤如下:
2-2:将模板数据特征w1作为卷积核w加权采样值总和,得到偏移图c。
定义了一个膨胀为1,填充为0的k×k大小内核来充当规则网格。
互相关操作中,对于输出偏移图c上的每个位置a,计算如下:
步骤S3,将模板特征数据w1与搜索特征数据x与偏移图c经过可变形互相关得到最终响应图。
步骤S3的具体步骤如下:
3-2:利用模板特征数据w1,搜索特征数据x与偏移集,计算输出最终响应图上的每个位置a,计算公式如下:
其中,y1(*)是最终响应图上的数据。
在公式(4)中,采样在不规则且偏移的位置pn+Δpn,偏移Δpn通常为小数,公式(4)可通过双线性插值实现:
其中,p′表示a+pn+Δpn,q*枚举搜索特征数据x中所有空间位置,G(*)是双线性插值核,这里G是一个二维核,它可以分为两个一维核:
步骤S4,每隔固定帧计算第i帧最终响应图的旁瓣峰值比和第1到i帧最终响应图旁瓣峰值比的最大值,将旁瓣峰值比、旁瓣峰值比的最大值均与历史旁瓣峰值比进行比较,如果前两者均大于历史旁瓣峰值比,则进行模板更新。
步骤S4的具体步骤如下:
4-1:计算最终响应图的峰值旁瓣比和峰值旁瓣比最大值,峰值旁瓣比F计算如下:
其中,Amax,Amin分别代表最终响应图上数据最大值、最小值,Ai,j代表最终响应图(i,j)上的数据,mean(*)代表求取均值。
峰值旁瓣值比最大值为所有最终响应图的峰值旁瓣值比中最大值记为M1。
历史旁瓣峰值比所有最终响应图旁瓣峰值比的平均值。
步骤S5,当模板被判定更新时,第i+1帧以第i帧图像获取目标为中心截取127×127×3大小的图像,图像通过模板分支模板提取出的新的特征数据,将新的特征数据与第一帧模板特征数据进行加权融合取代原模板特征数据,成为新的模板用于目标跟踪,以应对目标发生较大变化造成跟踪失败。
模板更新的计算公式为:
fi=(1-η)f1(z)+ηfi(z) (10)
其中,η为超参数,f1(z)为第一帧模板特征数据,fi(z)为第i帧图像提取的新的特征数据。
之所以使用第一帧模板特征,是因为第一帧模板处于非遮挡情况下,其语义信息最为完整丰富。由于相邻帧信息差距很小,频繁的更新操作会造成时间代价过大,继而选择上述的高置信度更新策略,只需要花费较少的时间资源,同时使得模板信息得到及时准确更新,在后续互相关运算中得到的响应图更为精确。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种基于可变形卷积和模板更新的孪生网络目标跟踪的方法,其特征在于:包括如下步骤:
步骤S1,将数据集或摄像头捕捉画面的第一帧图像以目标为中心裁剪出127×127×3大小的图像作为模板图像,在跟踪过程中第i+1帧以第i帧目标位置为中心裁剪出255×255×3大小的图像作为搜索图像,将模板图像数据与搜索图像数据分别输入到模板分支与搜索分支中,分别得到模板特征数据w1与搜索特征数据x;
步骤S2,将模板特征数据w1与搜索特征数据x输入到可变形卷积网络中,学习各个特征数据在不同方向上的自适应偏移量,输出模板偏移核与搜索偏移特征,将模板偏移核和搜索偏移特征分别进行互相关得到偏移图c;
步骤S3,将模板特征数据w1与搜索特征数据x与偏移图c经过可变形互相关得到最终响应图;
步骤S4,每隔固定帧计算第i帧最终响应图的旁瓣峰值比和第1到i帧最终响应图旁瓣峰值比的最大值,将旁瓣峰值比、旁瓣峰值比的最大值均与历史旁瓣峰值比进行比较,如果前两者均大于历史旁瓣峰值比,则进行模板更新;
步骤S5,当模板被判定更新时,第i+1帧以第i帧图像获取目标为中心截取127×127×3大小的图像,图像通过模板分支模板提取出的新的特征数据,将新的特征数据与第一帧模板特征数据进行加权融合取代原模板特征数据,成为新的模板用于目标跟踪。
7.根据权利要求1所述的基于可变形卷积和模板更新的孪生网络目标跟踪的方法,其特征在于:模板更新的计算公式为:
fi=(1-η)f1(z)+ηfi(z) (10)
其中,η为超参数,f1(z)为第一帧模板特征数据,fi(z)为第i帧图像提取的新的特征数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311341.0A CN113112522A (zh) | 2021-03-23 | 2021-03-23 | 基于可变形卷积和模板更新的孪生网络目标跟踪的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311341.0A CN113112522A (zh) | 2021-03-23 | 2021-03-23 | 基于可变形卷积和模板更新的孪生网络目标跟踪的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113112522A true CN113112522A (zh) | 2021-07-13 |
Family
ID=76710540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110311341.0A Pending CN113112522A (zh) | 2021-03-23 | 2021-03-23 | 基于可变形卷积和模板更新的孪生网络目标跟踪的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113112522A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152207A (zh) * | 2023-02-27 | 2023-05-23 | 上海福柯斯智能科技有限公司 | 一种图像剪影自适应学习方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200051250A1 (en) * | 2018-08-08 | 2020-02-13 | Beihang University | Target tracking method and device oriented to airborne-based monitoring scenarios |
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
US20200265591A1 (en) * | 2019-04-23 | 2020-08-20 | Jiangnan University | Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection |
CN112132856A (zh) * | 2020-09-30 | 2020-12-25 | 北京工业大学 | 一种基于自适应模板更新的孪生网络跟踪方法 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
-
2021
- 2021-03-23 CN CN202110311341.0A patent/CN113112522A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200051250A1 (en) * | 2018-08-08 | 2020-02-13 | Beihang University | Target tracking method and device oriented to airborne-based monitoring scenarios |
US20200265591A1 (en) * | 2019-04-23 | 2020-08-20 | Jiangnan University | Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection |
CN111291679A (zh) * | 2020-02-06 | 2020-06-16 | 厦门大学 | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112132856A (zh) * | 2020-09-30 | 2020-12-25 | 北京工业大学 | 一种基于自适应模板更新的孪生网络跟踪方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152207A (zh) * | 2023-02-27 | 2023-05-23 | 上海福柯斯智能科技有限公司 | 一种图像剪影自适应学习方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN109816689B (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN108665481B (zh) | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 | |
CN111354017A (zh) | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN111179307A (zh) | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 | |
CN111160407B (zh) | 一种深度学习目标检测方法及系统 | |
CN111311647B (zh) | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 | |
CN110659664B (zh) | 一种基于ssd的高精度识别小物体的方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN113436227A (zh) | 一种基于倒残差的孪生网络目标跟踪方法 | |
CN107730536B (zh) | 一种基于深度特征的高速相关滤波物体追踪方法 | |
CN112183675B (zh) | 一种基于孪生网络的针对低分辨率目标的跟踪方法 | |
CN112364865B (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN113724379B (zh) | 融合图像与激光点云的三维重建方法及装置 | |
CN111797841A (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN111260687B (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN113129345A (zh) | 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法 | |
CN111640138A (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |