CN112150511A - 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 - Google Patents
一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 Download PDFInfo
- Publication number
- CN112150511A CN112150511A CN202011201207.7A CN202011201207A CN112150511A CN 112150511 A CN112150511 A CN 112150511A CN 202011201207 A CN202011201207 A CN 202011201207A CN 112150511 A CN112150511 A CN 112150511A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- image matching
- correlation filter
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法,获取待跟踪视频序列与目标图片,利用改进的SIFT算法对跟踪视频序列第一帧与目标图片进行图像匹配以对相关滤波器进行初始化;利用相关滤波器对待跟踪视频序列进行目标跟踪。本发明即使在目标初始位置信息未知的情况下仍能进行跟踪,拓宽了目标跟踪的应用范围,提升了跟踪算法的精度与鲁棒性并最大程度上保证了速度。
Description
技术领域
本发明涉及一种目标跟踪算法。
背景技术
目标跟踪是目前计算机视觉领域的热点研究方向之一,在军事、智慧城市等实际应用中有着重要的作用。随着人工智能技术的发展,在近十年里,目标跟踪算法也有着极大的进步。但仍存在一个巨大的挑战就是当面临复杂场景下的跟踪如严重遮挡、剧烈运动时,跟踪精度还是会受到一定的影响,目前并不存在一个方法能够完全应对这一挑战。目前主流跟踪算法以神经网络、CNN、相关滤波为主,通过提取CNN特征或者加入人工制作的特征并进行多种特征的融合再借助训练神经网络来进行目标定位与跟踪,这些算法都达到了较高的跟踪精度,但由于过程繁琐,需要合适的数据集且训练量较大也造成了实时性与跟踪速度上的不足。
发明内容
为了克服现有技术的不足,本发明提供一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法,使用SIFT算法进行图像匹配从而进行核相关滤波器的初始化,通过引入APCE置信度与改进核相关滤波器相应的学习机制提升了核相关滤波器在复杂的跟踪场景如遮挡下的跟踪性能。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1,获取待跟踪视频序列与目标图片;
步骤2,利用改进的SIFT算法对跟踪视频序列第一帧与目标图片进行图像匹配以对相关滤波器进行初始化;
步骤3,利用相关滤波器对待跟踪视频序列进行目标跟踪。
所述的步骤1选取与视频序列中待跟踪目标满足设定相似度的一张目标图片。
所述的设定相似度是指目标图片与待跟踪视频序列第一帧的PSNR值大于30。
所述的步骤2使用SIFT算子将目标图片和待跟踪视频序列进行图像匹配,确定目标在第一帧中的位置,并将位置信息传入核相关滤波器中进行目标位置的初初始化。
所述的步骤3包括以下步骤:
(1)利用待跟踪视频序列中前一帧目标的位置以及特征信息来确定下一帧中目标的位置,并根据算法生成的响应图计算每一帧的APCE值,其中Fmax是当前帧的响应最大值,Fmin是当前帧的响应最小值,Fw,h为当前帧的响应图中任意位置处的响应值;
(2)计算从第一帧到当前帧的平均APCE值和平均响应最大值,分别记作mean_apce和mean_Fmax;通过将判断当前帧的APCE值与当前帧中的响应最大值是否同时满足设定条件来判断目标此时跟踪是否发生丢失,设定条件公式为
(apce>=beta1×mean_acpe)&&(Fmax>=beta2×mean_Fmax)
其中apce为当前帧的APCE值,beta1与beta2为设定阈值;
(3)对满足条件的视频帧按KCF原始算法的更新策略进行模型的更新,更新策略为其中a代表岭回归系数,x代表目标的特征信息,ap代表目标当前的岭回归系数,ax代表当前帧要更新的岭回归系数,β为学习因子,在满足条件公式时取0.02,xp代表目标当前的特征信息,xx为当前帧要更新的特征信息;
所述的设定阈值beta1与beta2分别设为0.5和0.6。
本发明的有益效果是:使用图像匹配来初始化目标位置,克服了现有算法必须通过人工标注目标的初始位置的缺陷,达到了即使在目标初始位置信息未知的情况下仍能进行跟踪的效果,从而拓宽了目标跟踪的应用范围。并且本发明通过对经典核相关滤波算法引入置信度并修改模型更新策略的方法克服了现有算法跟踪精度高但速度慢或者跟踪速度快但精度低的缺陷,提升了跟踪算法的精度与鲁棒性并最大程度上保证了速度。
附图说明
图1为4个样例视频下4种算法的跟踪效果对比;其中,第一行分别为box视频序列在第236帧,489,783帧的运行情况。第二行分别为Sylvester视频序列在第666帧,1116帧,1345帧的运行情况。第三行分别为basketball视频序列在第155帧,277帧,725帧的运行情况。第四行分别为Kitesurf视频序列在第13帧,48帧,80帧的运行情况;其中加粗线条的跟踪框为本文算法,其他分别为其他三种算法。
图2为本发明流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
本发明将改进的核相关滤波器与图像匹配结合以得到精度更高、应用更广泛的目标跟踪算法。由于KCF核相关滤波算法具有很高的运行速度,本发明将其进行改进引入置信度以及对应的调整跟踪策略机制,提高了跟踪精度,并保持了跟踪速度。此外加入了图像匹配作为滤波器初始化的方法则拓宽了目标跟踪的应用领域,从而克服了传统目标跟踪算法的不足。
本发明使用了来自OTB-2015数据集的视频序列进行跟踪结果的测试。该数据集包括100个标注的视频序列,其中26个灰度序列,74个彩色序列,整个数据集总共58897帧,包括长期跟踪和短期跟踪。这些视频涉及光照变化、尺度变化、遮挡等多种跟踪场景。
1)获取输入图片并完成核相关滤波器的初始化
将满足前述条件的目标图片与视频第一帧进行SIFT图像匹配从而完成核相关滤波器初始化。
2)完成目标跟踪并获取结果评价,并与其它算法进行对比,其中本文算法称KCFAPCE。
3)算法分析
本文采取的评价指标如下所述:
(1)精度图:跟踪算法估计的目标位置(bounding box)的中心点与人工标注(ground-truth)的目标的中心点,这两者的距离小于给定阈值的视频帧的百分比。不同的阈值,得到的百分比不一样,因此可以获得一条曲线。
(2)成功率:定义重合率得分(overlap score,OS),跟踪算法得到的目标位置(bounding box)记为a,目标的实际位置(ground-truth)记为b,重合率定义为:OS=a∩b|/|a∪b|,|·|表示区域的像素数目。当某一帧的OS大于设定的阈值时,则该帧被视为成功的(Success),成功的帧数占所有帧的百分比即为成功率(Success rate)。OS的取值范围为0~1,因此可以绘制出一条曲线。
鲁棒性评估(SRE):通过从空间(Spatially,不同的bounding box)上打乱,然后进行评估。SRE(Spatial Robustness Evaluation)将第一帧经过图像匹配得到的boundingbox轻微的平移和尺度的扩大与缩小来评估跟踪算法是否对初始化敏感。平移的大小为目标物体大小的10%,尺度变化范围为ground-truth的80%到120%,每10%依次增加。最后取这些结果的平均值作为SRE score。
对整个OTB-2015数据集采用了4种跟踪算法进行测试,最后获取的运行速度、精度、及鲁棒性如下表所示:
表1OTB-2015数据上不同算法的运行帧率、精确度及鲁棒性(SRE)对比
从表1可以看出,本文算法在精确度上高于其他三种算法,由于对每一帧跟踪情况的判断以及对相关滤波器学习因子的动态调整从而导致本文算法较KCF算法的运行速度下降了一部分,且引入了判断目标是否丢失的机制使得跟踪的鲁棒性也得到了提高,总的来说各方面较其他算法都有一定的优势。
(1)对于box视频序列,主要考察算法在较严重遮挡下的跟踪性能。第489帧中发生了目标的较严重的遮挡和干扰,此时APCE值为46.5790,Fmax值为0.4143,代入公式2与公式4中后令学习因子β=0,停止当前帧核相关滤波器的更新,从而减少错误信息的累积,当目标后续跟踪情况良好时才恢复核相关滤波器的实时更新。而到了第783帧原始的KCF算法和DSST随着误差的累计和模板的错误更新导致模型已经漂移而不能跟踪,本文算法仍然保持着良好的跟踪,SAMF算法由于结合了CN(Color Name)特征和HOG特征的检测使得检测目标的特征信息增多故也能保持良好的跟踪但运行速率远不如本文算法,帧率大约为本文算法的1/5,故本文算法还是具有精度和速度上的优势。
(2)对于Sylvester视频序列,主要考察算法在目标存在干扰和剧烈晃动情况下的跟踪性能,测试序列中目标受到背景比较强的干扰且在1345帧中目标角度发生了较大幅度翻转此时APCE值为62.5684,Fmax值为0.5304,代入公式2和公式4中令此时令学习因子β=β/2,保留部分当前帧的目标信息,从而减少模型的误差累积并对核相关滤波器进行一定程度的更新方便后续的跟踪,而其他三种算法缺少在目标跟踪情况不良下的应对机制故之后发生目标跟丢的情况只有本算法保持了不错的跟踪效果。
(3)对于basketball视频序列,主要考察算法在拍摄角度变换和目标形变情况下的跟踪性能。但由于整个视频序列中目标受到的干扰较小,故四种算法都能保持不错的跟踪效果,但只有本文算法和KCF算法可以有较快的跟踪速度。
(4)对于Kitesurf视频序列,主要考察算法在目标旋转和快速运动情况下的跟踪性能,测试序列目标整体都是快速运动尤其在第48帧发生了剧烈的旋转和角度变化,此时APCE值为5.8333,Fmax值为0.1776带入判定公式(2)中可知目标信息此时急剧下降可能已经丢失,继续将信息带入公式(4)中可知此时的学习因子β=0故将不会保存当前帧中有关目标的位置特征信息并不对核相关滤波器进行更新直到跟踪情况好转满足判定公式。虽然此时本算法跟踪框发生了一定的偏移但在后续中借助已有的目标已知的特征信息又能快速的找回目标并进行跟踪,相比其他的算法有比较好的跟踪效果。
综上所述,在核相关滤波器的基础上加入了以图像匹配来初始化KCF滤波器的机制省去了人工标定目标这一步骤从而使目标跟踪具有更广泛的应用性。并改进了KCF核相关滤波器,在对提取的HOG特征响应图上进行APCE置信度的评估,并根据置信度的不同采取动态调整学习因子的机制,提升了目标的鲁棒性与精确度。本文在OTB-2015数据集下进行了测试,结果表示本文算法传统算法有一定程度上的提升。
本发明实验流程如图2所示,包括以下步骤:
步骤1:获取待跟踪视频序列与目标的图片;
步骤2:利用改进的SIFT算法对跟踪视频序列第一帧与目标图片进行图像匹配以对相关滤波器进行初始化;
步骤3:对跟踪视频序列进行目标跟踪;
进一步的,所述步骤1的具体方法为:选取与视频序列中目标具有一定相似度的一张图片作为输入,这里的相似度指标建议选取PSNR大于30。
进一步的,所述步骤2中的具体方法为:
(1)使用SIFT算子将输入图片和视频序列进行图像匹配确定目标在第一帧中的位置并将位置信息传入核相关滤波器中进行初始化。
进一步的,所述步骤3的具体方法为:
(1)利用前一帧目标的位置以及特征信息(相关滤波器自动提取得到)来确定下一帧中目标的位置,并根据算法生成的响应图计算每一帧的APCE值,APCE置信度的计算公式如下:
其中Fmax是当前帧的响应图中的最大值,Fmin是当前帧的响应图中的最小值,Fw,h为当前帧的响应图中任意位置处的响应值。
(2)并同时计算从第一帧到当前帧的平均APCE值记作mean_apce与平均响应最大值记作mean_Fmax。
通过将判断当前帧的APCE值与当前帧中的响应最大值是否同时满足设定条件来判断目标此时跟踪是否发生丢失,设定条件公式如下:
(apce>=beta1×mean_acpe)&&(Fmax>=beta2×mean_Fmax) (2)
其中apce为当前帧的APCE值,beta1与beta2为阈值建议分别设为0.5和0.6。
(3)对满足条件的视频帧按KCF原始算法的更新策略进行模型的更新,更新策略如下公式:
公式中a代表岭回归系数,x代表模板的特征信息,ap代表模型当前的岭回归系数,ax当前帧要更新的岭回归系数,β为学习因子在满足公式2时取0.02,xp
代表模型当前的特征信息,xx为当前帧要更新的特征信息。
(4)而对不满足条件的视频帧,根据APCE值的大小动态调节模型更新策略中的学习因子β,对应关系如下:
从而抑制模型的漂移并保留部分有用的特征信息。
Claims (6)
1.一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于包括以下步骤:
步骤1,获取待跟踪视频序列与目标图片;
步骤2,利用改进的SIFT算法对跟踪视频序列第一帧与目标图片进行图像匹配以对相关滤波器进行初始化;
步骤3,利用相关滤波器对待跟踪视频序列进行目标跟踪。
2.根据权利要求1所述的基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于,所述的步骤1选取与视频序列中待跟踪目标满足设定相似度的一张目标图片。
3.根据权利要求2所述的基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于,所述的设定相似度是指目标图片与待跟踪视频序列第一帧的PSNR值大于30。
4.根据权利要求1所述的基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于,所述的步骤2使用SIFT算子将目标图片和待跟踪视频序列进行图像匹配,确定目标在第一帧中的位置,并将位置信息传入核相关滤波器中进行目标位置的初初始化。
5.根据权利要求1所述的基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于,所述的步骤3包括以下步骤:
(1)利用待跟踪视频序列中前一帧目标的位置以及特征信息来确定下一帧中目标的位置,并根据算法生成的响应图计算每一帧的APCE值,其中Fmax是当前帧的响应最大值,Fmin是当前帧的响应最小值,Fw,h为当前帧的响应图中任意位置处的响应值;
(2)计算从第一帧到当前帧的平均APCE值和平均响应最大值,分别记作mean_apce和mean_Fmax;通过将判断当前帧的APCE值与当前帧中的响应最大值是否同时满足设定条件来判断目标此时跟踪是否发生丢失,设定条件公式为(apce>=beta1×mean_acpe)&&(Fmax>=beta2×mean_Fmax)
其中apce为当前帧的APCE值,beta1与beta2为设定阈值;
(3)对满足条件的视频帧按KCF原始算法的更新策略进行模型的更新,更新策略为其中α代表岭回归系数,x代表目标的特征信息,ap代表目标当前的岭回归系数,ax代表当前帧要更新的岭回归系数,β为学习因子,在满足条件公式时取0.02,xp代表目标当前的特征信息,xx为当前帧要更新的特征信息;
6.根据权利要求5所述的基于图像匹配与改进核相关滤波器结合的目标跟踪算法,其特征在于,所述的设定阈值beta1与beta2分别设为0.5和0.6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011201207.7A CN112150511A (zh) | 2020-11-02 | 2020-11-02 | 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011201207.7A CN112150511A (zh) | 2020-11-02 | 2020-11-02 | 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112150511A true CN112150511A (zh) | 2020-12-29 |
Family
ID=73955149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011201207.7A Pending CN112150511A (zh) | 2020-11-02 | 2020-11-02 | 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150511A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222776A (zh) * | 2022-09-19 | 2022-10-21 | 中国人民解放军国防科技大学 | 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2858008A2 (en) * | 2013-09-27 | 2015-04-08 | Ricoh Company, Ltd. | Target detecting method and system |
CN106338733A (zh) * | 2016-09-09 | 2017-01-18 | 河海大学常州校区 | 基于蛙眼视觉特性的前视声呐目标跟踪方法 |
CN106559605A (zh) * | 2016-11-17 | 2017-04-05 | 天津大学 | 基于改进的块匹配算法的数字视频稳像方法 |
CN107368802A (zh) * | 2017-07-14 | 2017-11-21 | 北京理工大学 | 基于kcf和人脑记忆机制的运动目标跟踪方法 |
CN107657630A (zh) * | 2017-07-21 | 2018-02-02 | 南京邮电大学 | 一种基于kcf的改进型抗遮挡目标跟踪方法 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN109360224A (zh) * | 2018-09-29 | 2019-02-19 | 吉林大学 | 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法 |
CN110035329A (zh) * | 2018-01-11 | 2019-07-19 | 腾讯科技(北京)有限公司 | 图像处理方法、装置及存储介质 |
CN110796676A (zh) * | 2019-10-10 | 2020-02-14 | 太原理工大学 | 高置信度更新策略结合svm再检测技术的目标跟踪方法 |
-
2020
- 2020-11-02 CN CN202011201207.7A patent/CN112150511A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2858008A2 (en) * | 2013-09-27 | 2015-04-08 | Ricoh Company, Ltd. | Target detecting method and system |
CN106338733A (zh) * | 2016-09-09 | 2017-01-18 | 河海大学常州校区 | 基于蛙眼视觉特性的前视声呐目标跟踪方法 |
CN106559605A (zh) * | 2016-11-17 | 2017-04-05 | 天津大学 | 基于改进的块匹配算法的数字视频稳像方法 |
CN107368802A (zh) * | 2017-07-14 | 2017-11-21 | 北京理工大学 | 基于kcf和人脑记忆机制的运动目标跟踪方法 |
CN107657630A (zh) * | 2017-07-21 | 2018-02-02 | 南京邮电大学 | 一种基于kcf的改进型抗遮挡目标跟踪方法 |
CN110035329A (zh) * | 2018-01-11 | 2019-07-19 | 腾讯科技(北京)有限公司 | 图像处理方法、装置及存储介质 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN109360224A (zh) * | 2018-09-29 | 2019-02-19 | 吉林大学 | 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法 |
CN110796676A (zh) * | 2019-10-10 | 2020-02-14 | 太原理工大学 | 高置信度更新策略结合svm再检测技术的目标跟踪方法 |
Non-Patent Citations (4)
Title |
---|
BING ZHONG等: "Image Feature Point Matching Based on Improved SIFT Algorithm", 《2019 IEEE 4TH INTERNATIONAL CONFERENCE ON IMAGE, VISION AND COMPUTING (ICIVC)》 * |
WANG YANGPING等: "Augmented Reality Tracking Registration Based on Improved KCF Tracking and ORB Feature Detection", 《2019 7TH INTERNATIONAL CONFERENCE ON INFORMATION, COMMUNICATION AND NETWORKS (ICICN)》 * |
孙健等: "改进的核相关滤波跟踪算法", 《计算机工程与应用》 * |
李凯峰: "基于KCF的目标跟踪算法研究及嵌入式系统实现", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222776A (zh) * | 2022-09-19 | 2022-10-21 | 中国人民解放军国防科技大学 | 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598196B (zh) | 一种多形变多姿态人脸序列的特征点定位方法 | |
CN110490907B (zh) | 基于多目标特征和改进相关滤波器的运动目标跟踪方法 | |
CN110473231B (zh) | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 | |
CN110009060B (zh) | 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法 | |
CN110796678B (zh) | 一种基于IoU的水下多目标跟踪方法 | |
Chu et al. | Color invariant surf in discriminative object tracking | |
CN107563323A (zh) | 一种视频人脸特征点定位方法 | |
CN107609571B (zh) | 一种基于lark特征的自适应目标跟踪方法 | |
CN109448019B (zh) | 一种变分光流模型平滑参数的自适应方法 | |
Bouachir et al. | Structure-aware keypoint tracking for partial occlusion handling | |
CN111199245A (zh) | 油菜害虫识别方法 | |
Noman et al. | Avist: A benchmark for visual object tracking in adverse visibility | |
CN111429485A (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN112233145A (zh) | 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法 | |
CN106250878B (zh) | 一种结合可见光和红外图像的多模态目标跟踪方法 | |
Li et al. | Robust visual tracking with occlusion judgment and re-detection | |
CN112150511A (zh) | 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法 | |
CN114973071A (zh) | 基于长短期时序特征的无监督视频目标分割方法及系统 | |
CN108280845B (zh) | 一种针对复杂背景的尺度自适应目标跟踪方法 | |
JP6600288B2 (ja) | 統合装置及びプログラム | |
Rodríguez et al. | SD-DefSLAM: semi-direct monocular SLAM for deformable and intracorporeal scenes | |
CN109242885B (zh) | 一种基于时空非局部正则的相关滤波视频跟踪方法 | |
CN113763432B (zh) | 基于图像清晰度与跟踪稳定性条件的目标检测跟踪方法 | |
CN115311327A (zh) | 融合共现统计与fhog梯度特征的目标跟踪方法及系统 | |
CN112862860B (zh) | 一种用于多模态目标跟踪的对象感知图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201229 |