CN111860532B - 基于两种互补跟踪算法的自适应目标跟踪方法 - Google Patents
基于两种互补跟踪算法的自适应目标跟踪方法 Download PDFInfo
- Publication number
- CN111860532B CN111860532B CN201910336366.9A CN201910336366A CN111860532B CN 111860532 B CN111860532 B CN 111860532B CN 201910336366 A CN201910336366 A CN 201910336366A CN 111860532 B CN111860532 B CN 111860532B
- Authority
- CN
- China
- Prior art keywords
- tracking
- hog
- filter
- color
- updating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000295 complement effect Effects 0.000 title claims abstract description 11
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 230000003044 adaptive effect Effects 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 3
- 230000004044 response Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims 2
- 230000008859 change Effects 0.000 abstract description 12
- 238000002474 experimental method Methods 0.000 abstract description 3
- 238000012360 testing method Methods 0.000 abstract description 3
- 238000005728 strengthening Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000208140 Acer Species 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Abstract
本文提出了一种基于两种互补跟踪算法的自适应目标跟踪方法。首先,以拉普拉斯滤波模块锐化图像做图像预处理,加强图像边缘信息,获取更好的方向梯度直方图特征。然后,针对核相关滤波用于目标遮挡、快速运动变形、“渐变”目标等情况的目标跟踪时很容易发生模型漂移,后续也难以再跟踪到目标,提出利用两种互补的跟踪算法的预测框面积的交并比自适应控制位置滤波器的更新。通过在标准测试集上与其他算法的对比实验,说明了本发明具有良好的跟踪准确性。
Description
技术领域
本发明涉及机器视觉当中的视频序列跟踪问题,尤其是涉及一种基于两种互补跟踪算法的自适应目标跟踪方法。
背景技术
视频目标跟踪是机器视觉中的一个重要问题,广泛应用于机器人、智能控制和自动化等领域。视频目标跟踪的实质可以理解为:在第一幅图像里获取目标的基础信息后,如何能够在以后的图像帧当中精确地找到目标位置。人类跟踪目标是通过眼睛获取目标信息,经过大脑处理,找到目标的一些固定特征,继而当目标运动时,能够根据这些固定特征跟踪上目标。但是在计算机利用摄像头跟踪时,会遇到一些问题,首先是计算机该通过图像获取哪些特征,且获取的这些特征最好是当目标运动时改变也比较小,这样有利于计算机在后续图像提取特征之后进行比较;接下来就是提取特征的时计算量不能太大,否则就达不到实时的要求。因此目标跟踪领域最重要的就是能实时获取良好的特征,比如方向梯度直方图特征,颜色特征等。以获取特征为出发点,目标跟踪方法有两大类:只关注目标信息的生成式跟踪方法和同时考虑背景与目标的判别式跟踪方法。判别式跟踪方法生成的跟踪模板可以获得更多的特征,但是跟踪速度上有所不足。随着计算机的快速更新,计算机的计算速率大幅度提升,判别式方法的实时性得到提高,随后相关滤波方法引入,利用傅里叶变换将时域运算转移到了频域,计算量又进一步下降,这样基于相关滤波的判别式方法就获得了广泛的关注。
在2010年由Bolme提出的基于相关滤波的判别式方法—误差最小平方和滤波器MOSSE,证实了相关滤波的潜在能力,实时性极强。牛津大学Joao F.Henriques等提出了CSK,之后加入了核函数(Kernel-trick),便演变为经典的KCF(Kernelized CorrelationFilter,即核相关滤波器)。但是由于实际应用环境的各种干扰,如何提取目标更加不易变化的特征仍然是难点。
在特征提取方面,KCF使用的是HOG(Histogram of Oriented Gradient)方向梯度直方图特征,DAT使用的是颜色特征。HOG特征值对于光照变化、局部遮挡等效果较好,但是不适应快速运动、快速变形,而颜色特征对于快速运动、快速变形效果较好,但是不适应光照变化和局部遮挡,因此这两种方法互补。针对目标尺寸变换,有两个经典方法:一个是SAMF,滤波器同时更新位置与尺度,速度较快;另一个是DSST,多尺度方法是先平移滤波找到最佳位置,再尺度滤波,找到最佳尺度大小。上述各类基于相关滤波的方法的本质都是获得更加可靠的特征,其中HOG特征作为相关滤波类方法最常用的特征,对于图像轮廓和边缘有很强的描述能力,但是对于快速运动,低分辨率等造成的边缘模糊跟踪性能较差,因此若能改进HOG特征适应边缘模糊问题,就能更加稳定地跟踪目标。
发明内容
本发明考虑对图像进行锐化预处理来获取更好的HOG特征,在获取改进的HOG特征值后,为了实现核相关滤波能够用于各类复杂情况,如目标遮挡、快速运动变形、“渐变”目标等情况,提出一种利用两个互补跟踪器的预测框的交并比的方法自适应改变模型更新系数,以适应复杂的实际情况。
本发明通过以下技术方案来实现上述目的:
(1)图像预处理,提取改进的HOG特征,训练HOG相关滤波器,再利用滤波器进行位置预测记为PHOG,并记录此时的响应峰值旁瓣比(PSR);
(2)提取颜色特征,训练颜色相关滤波器,再利用滤波器进行位置预测记为PColor,并记录此时的响应峰值旁瓣比(PSR);
(3)根据(1)和(2)中的两个位置滤波器的PSR来自适应控制位置滤波器的更新;
(4)根据(1)中预处理的图像和(3)中更新的位置,提取多尺度图像块训练尺度滤波器并更新;
(5)将(4)中得到的结果矩阵储存起来,方便之后做精确度和成功率的分析。
附图说明
图1基于两种互补跟踪算法的自适应目标跟踪方法框架;
具体实施方式
基于改进的HOG特征的自适应目标跟踪方法具体如下:
对于图像而言,利用图像边缘梯度的方向,就能很好的描述目标的轮廓以及形状,而HOG特征就是对图像当中像素点的梯度描述。其流程是:(1)获取图像后进行灰度化和归一化;(2)图像分小块后获取每个像素点的梯度,再统计每个块内的直方图;(3)合并所有小块的直方图进行归一化,得到图像的HOG特征。
图像中任意一个位置为(x,y)的像素点的方向梯度可以表达为:
式中,Gx(x,y)、Gy(x,y)表示像素点(x,y)处的水平方向和垂直方向的梯度,H(x,y)表示像素值。
如前文所述,HOG特征值被广泛使用于基于相关滤波的判别式方法当中,所以加强HOG特征值提取,获得更好的HOG特征值是十分必要的。特别地,对于快速形变、遮挡等造成的图像边缘模糊,HOG特征值提取的效果较差,基于以上情况我们可以考虑增强目标边缘的信息或加强目标的纹理。本发明利用拉普拉斯滤波来获得边缘信息增强的图像,即锐化图像。为了方便说明原理,假定取图像中一个3×3的块,那么其对应的拉普拉斯滤波模块也就是取一个3×3的块,中心点取-8,其余点取1,将两个块进行时域的点乘就可以获得中心点新的像素值。假设中心点原始的像素值表示为H0(x,y),中心点新的像素值表示为H(x,y),其余8个点的像素值和表示为H1(x,y),那么这三个值之间的关系表示如下:
H(x,y)=H1(x,y)-8×H0(x,y) (2)
对于图像边界上像素点可以进行拓展,拓展区域的值是其对应的另一个边界。在所有像素点更新之后,把像素值进行归一化处理,就可以得到最后的结果。其表达式如下:
式中max、min分别表示图像一个颜色通道内的最大值和最小值。处理之后的图像能够提供更好的HOG特征值,可以在不同的目标与场景下获得较好的跟踪效果。
由于核相关滤波使用的是滤波窗口固定的余弦窗口,所以在处理“渐变”目标时存在很大的不足。这是因为余弦窗口的窗口大小固定,当目标尺寸变小时,会将非目标的冗余信息包含进来;而当目标尺寸变大时,则会丢弃目标的有用信息。为此,文献在KCF的基础上加入了自适应高斯窗口函数和基于关键点的尺度估计,提出了sKCF,能够自适应目标尺度的变化以及摈弃冗余特征,在运行速度上也有了一定的改进,但是当目标运动的尺寸变化较大时,容易丢失目标。因此本发明采用DSST的思想,单独训练一个尺度滤波器,当位置滤波器确定目标位置之后,在该位置使用尺度滤波器,找到最佳的滤波窗口尺寸。
核相关滤波中除了“渐变”目标不好跟踪以外,还有当目标运动姿态变化较大或者有轻微遮挡时,跟踪的目标也容易丢失,其根本原因是目标模型更新速率是固定的,这种更新方式仅能适应运动姿态的微弱变化。其中目标模型更新就是根据以前的观测数据和目标模型估计下一时刻的目标模型。模型更新存在一个主要的问题就是“模型漂移”,这会导致跟踪结果准确性降低。传统相关滤波更新方法会将错误的背景信息加入到目标模型中,造成目标模型的更新错误,这样的错误积累会导致模型偏离正确的跟踪目标。因此,为了避免目标模型更新过程中出现“模型漂移”,需要采取合适的模型更新策略。
KCF以固定更新速率对当前模型进行更新,更新公式为:
Modlenext=α*Modleresult+(1-α)*Modlecurrent (4)
式中,α为固定值,Modleresult为根据当前跟踪结果训练出的预测模型,Modlecurrent为当前模型,Modlenext为下一帧图像进行跟踪时所采用的模型。使用式(7)更新模型,对于一些运动姿态变化不大的目标效果尚可,但是对于一些在跟踪过程中姿态变化较大的目标并不适用,因为上式进行模型更新并不能反映被跟踪目标的真实运动姿态,极易导致跟踪失败。
为了使当前模型更能够反映被跟踪目标的最新变化,本发明以HOG特征模块和颜色特征分别进行跟踪,以两个互补的跟踪器预测框的交并比来确定模型更新系数。两个跟踪器的跟踪结果可通过相关滤波的峰值来判定,具体有三种情况:
(1)两个跟踪器均能跟踪,此时采用交并比的方式来进行模板更新,此时更新公式如下:
式中,Siou(HOG,Color)表示两种跟踪模板预测框面积重叠部分所占的比例,Aera(HOG)和Aera(Color)分别表示基于HOG特征和颜色特征的滤波器的预测框的面积,分子是两个面积的交集,分母是两个面积的并集,β是自适应变化因子,β=c*Siou(HOG,Color),c是常数。
(2)一个跟踪器正确,另一个不能正确跟踪,此时采用正确模板跟踪结果与第一帧目标模型的相似系数来更新模板,为了实时性更高,相似性使用直方图相交来衡量,更新公式如下:
式中,Hfirst和Hresult分别是第一帧目标模型的直方图和预测模板图像块的直方图Dinteraction(Hfirst,Hresult)是直方图的相交系数,取值范围是[0,1],匹配程度与值的大小成正比,。β=c*Dinteraction(Hfirst,Hresult),c是常数。
(3)两个跟踪器均跟踪失败,停止模板更新,扩大搜索检测范围。
在上述三种情况中,使用自适应因子进行模型更新可以对模型的更新速进行有效的控制,可以真实反映出被跟踪目标的姿态变化情况。对于如何评判是否跟踪到目标,本发明使用PSR(峰值旁瓣比)来衡量相应的质量,其中PSR的公式如下:
式中,max表示响应的最大值,μ、σ分别表示响应的均值和标准差。PSR的阈值设置为P,若当前跟踪器的跟踪结果的PSR大于P,则当前模板能够正确跟踪,否则就不能正确跟踪。
本发明采用数据集OTB2015,来验证有效性,并与近几年流行的方法进行对比。文中测试了OTB2015上全部的100个视频序列,同时选取Staple,SRDCF、SAMF,KCF,DAT五种方法做实验对比。
为了更加精确的分析本发明跟踪的准确性,同时也方便与其他方法对比,实验的衡量标准采用OPE(One-Pass Evaluation),其中包括精确度曲线(precision plots)和成功率曲线(success plots),其中精确图描述的是给定的中心位置误差阈值之内跟踪正确的帧数占总帧数的比例,成功率描述的是大于给定的重叠率跟踪正确的帧数占总帧数的比例,精确度和成功率的取值范围都是[0,1]。重叠率是目标预测框与目标实际框的面积重叠比,设预测框为S1,实际框是S2,那么重叠率可以表示为R=|S1∩S2|÷|S1∪S2|,当R小于某个阈值时,认为跟踪正确。实验中,对于精确度曲线,我们采用阈值为20像素时的精确度来评价跟踪器的表现;对于成功率曲线,我们用曲线下面积AUC(the Area Under Curve)来评价跟踪器的表现。本发明与Staple,SRDCF,SAMF,KCF,DAT在OTB2015上的实验对比如表1所示。
表1 OTB2015测试集上本发明与其他5种优秀方法在精确度和成功率上的OPE指标对比
Tab.1 Comparison of OPE indicators between the invention and theother five excellent methods in accuracy and success rate on the OTB2015 testset
从表1中可以看出,DAT和KCF的跟踪精确度和跟踪成功率都不高,这是由于DAT只考虑颜色特征,而KCF只考虑HOG特征,没有发挥出颜色特征与HOG特征的互补性,再加上没有尺度滤波器,所以跟踪误差较大,而本发明充分发挥出了颜色特征与HOG特征的互补性,并且采用了尺度滤波和自适应模型更新,因此本发明的精确度和成功率比KCF和DAT提高了很多。本发明相比于DAT,精确度提高了38.2%,成功率提高了29.1%;相比于KCF,精确度提高了30.2%,成功率提高了24.5%;相比于SAMF,精确度提高了8.3%,成功率提高了9.1%;相比于Staple,精确度提高了5.3%,成功率提高了5.8%;相比于SRDCF,精确度提高了3.7%,成功率提高了3.7%。虽然本发明较SRDCF在精确度和成功率上提升不大,但是SRDCF的平均速率只有3.6FPS,本发明平均速率15FPS,实时效果更好。
Claims (3)
1.基于两种互补跟踪算法的自适应目标跟踪方法,其特征在于包括以下步骤:
(1)图像预处理,提取改进的HOG特征,训练HOG相关滤波器,再利用滤波器进行位置预测记为PHOG,并记录此时的响应峰值旁瓣比PSR;
(2)提取颜色特征,训练颜色相关滤波器,再利用滤波器进行位置预测记为PColor,并记录此时的响应峰值旁瓣比PSR;
(3)根据(1)和(2)中的两个位置滤波器的PSR来自适应控制位置滤波器的更新,其更新方法如下:
分别以基于HOG特征和颜色特征的滤波器预测框的交并比来确定模型更新系数,两个跟踪器的跟踪结果通过相关滤波的峰值来判定,具体有三种情况:
第一种情况:两个跟踪器均能跟踪,此时采用交并比的方式来进行模板更新,此时更新公式如下:
式中,Siou(HOG,Color)表示两种跟踪模板预测框面积重叠部分所占比例,Aera(HOG)和Aera(Color)分别表示基于HOG特征和颜色特征的滤波器的预测框的面积,分子是两个面积的交集,分母是两个面积的并集,β是自适应变化因子,β=c*Siou(HOG,Color),c是常数;
第二种情况:一个跟踪器正确,另一个不能正确跟踪,此时采用正确模板跟踪结果与第一帧目标模型的相似系数来更新模板,为了实时性更高,相似性使用直方图相交来衡量,更新公式如下:
式中,Hfirst和Hresult分别是第一帧目标模型和预测模板图像块的直方图,Dinteraction(Hfirst,Hresult)是直方图相交系数,取值范围是[0,1],匹配程度与值的大小成正比,β=c*Dinteraction(Hfirst,Hresult),c是常数;
第三种情况:两个跟踪器均跟踪失败,停止模板更新,扩大搜索检测范围;
(4)根据(1)中预处理的图像和(3)中更新的位置,提取多尺度图像块训练尺度滤波器并更新;
(5)将(4)中得到的结果矩阵储存起来,方便之后做精确度和成功率的分析。
2.根据权利要求1所述的方法,其特征在于步骤(1)和(4)中使用的图像是经过预处理的,其处理方法是利用拉普拉斯模块进行锐化。
3.根据权利要求1所述的方法,其特征在于改进了HOG特征值,并利用两个互补的跟踪器自适应控制位置滤波器的更新,提高了跟踪的精确度与成功率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910336366.9A CN111860532B (zh) | 2019-04-25 | 2019-04-25 | 基于两种互补跟踪算法的自适应目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910336366.9A CN111860532B (zh) | 2019-04-25 | 2019-04-25 | 基于两种互补跟踪算法的自适应目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111860532A CN111860532A (zh) | 2020-10-30 |
CN111860532B true CN111860532B (zh) | 2022-11-25 |
Family
ID=72951423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910336366.9A Active CN111860532B (zh) | 2019-04-25 | 2019-04-25 | 基于两种互补跟踪算法的自适应目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860532B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240122A (zh) * | 2017-06-15 | 2017-10-10 | 国家新闻出版广电总局广播科学研究院 | 基于时空连续相关滤波的视频目标跟踪方法 |
CN107862680A (zh) * | 2017-10-31 | 2018-03-30 | 西安电子科技大学 | 一种基于相关滤波器的目标跟踪优化方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101500711B1 (ko) * | 2012-01-19 | 2015-03-10 | 한국전자통신연구원 | 컬러 히스토그램을 이용한 사람 추적 방법 |
CN103366370B (zh) * | 2013-07-03 | 2016-04-20 | 深圳市智美达科技股份有限公司 | 视频监控中的目标跟踪方法和装置 |
CN107662874B (zh) * | 2016-07-29 | 2021-04-16 | 奥的斯电梯公司 | 乘客运输机的扶手入口监测系统及其监测方法 |
CN106951841B (zh) * | 2017-03-09 | 2020-05-12 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于颜色和距离聚类的多目标跟踪方法 |
CN107578423B (zh) * | 2017-09-15 | 2020-04-28 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108921880B (zh) * | 2018-06-11 | 2022-05-03 | 西安电子科技大学 | 一种基于多个单跟踪器的视觉多目标跟踪方法 |
CN109285179B (zh) * | 2018-07-26 | 2021-05-14 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
-
2019
- 2019-04-25 CN CN201910336366.9A patent/CN111860532B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240122A (zh) * | 2017-06-15 | 2017-10-10 | 国家新闻出版广电总局广播科学研究院 | 基于时空连续相关滤波的视频目标跟踪方法 |
CN107862680A (zh) * | 2017-10-31 | 2018-03-30 | 西安电子科技大学 | 一种基于相关滤波器的目标跟踪优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111860532A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8520956B2 (en) | Optimized correlation filters for signal processing | |
CN111260689B (zh) | 一种基于置信度增强的相关滤波视觉跟踪方法 | |
CN109146911B (zh) | 一种目标跟踪的方法及装置 | |
CN106127145B (zh) | 瞳孔定位及跟踪方法 | |
CN110837768B (zh) | 一种面向珍稀动物保护的在线检测与识别方法 | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN110021029B (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN104036523A (zh) | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 | |
CN111754548B (zh) | 一种基于响应判别的多尺度相关滤波目标跟踪方法和装置 | |
CN110246154B (zh) | 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法 | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
CN104036528A (zh) | 一种基于全局搜索的实时分布场目标跟踪方法 | |
CN109712134B (zh) | 虹膜图像质量评价方法、装置及电子设备 | |
CN114020155A (zh) | 一种基于眼动仪的高精度视线定位方法 | |
CN113763274A (zh) | 一种联合局部相位锐度定向描述的多源图像匹配方法 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN116342653A (zh) | 一种基于相关滤波器的目标跟踪方法、系统、设备及介质 | |
CN110827327B (zh) | 一种基于融合的长期目标跟踪方法 | |
Dou et al. | Robust visual tracking based on joint multi-feature histogram by integrating particle filter and mean shift | |
CN111860532B (zh) | 基于两种互补跟踪算法的自适应目标跟踪方法 | |
CN113470074B (zh) | 一种基于分块判别的自适应时空正则化目标跟踪方法 | |
CN111899284B (zh) | 一种基于参数化esm网络的平面目标跟踪方法 | |
CN115345902A (zh) | 基于机器学习的红外图像弱小目标检测跟踪方法及系统 | |
CN114429593A (zh) | 基于快速导向滤波的红外小目标检测方法及其应用 | |
CN108734139B (zh) | 基于特征融合及svd自适应模型更新的相关滤波跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |