CN110827327A - 一种基于融合的长期目标跟踪方法 - Google Patents
一种基于融合的长期目标跟踪方法 Download PDFInfo
- Publication number
- CN110827327A CN110827327A CN201810917390.7A CN201810917390A CN110827327A CN 110827327 A CN110827327 A CN 110827327A CN 201810917390 A CN201810917390 A CN 201810917390A CN 110827327 A CN110827327 A CN 110827327A
- Authority
- CN
- China
- Prior art keywords
- response
- target
- tracking method
- term
- kernel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 110
- 230000007774 longterm Effects 0.000 title claims abstract description 43
- 230000004927 fusion Effects 0.000 title claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 146
- 238000010586 diagram Methods 0.000 claims abstract description 36
- 238000012706 support-vector machine Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 16
- 102400000832 Antiplasmin-cleaving enzyme FAP, soluble form Human genes 0.000 claims description 39
- 101800000492 Antiplasmin-cleaving enzyme FAP, soluble form Proteins 0.000 claims description 39
- 238000001914 filtration Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 14
- 230000001419 dependent effect Effects 0.000 claims description 8
- 238000012847 principal component analysis method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 23
- 239000000523 sample Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种基于融合的长期目标跟踪方法。该基于融合的长期目标跟踪方法首先给定初始帧中目标的位置及尺寸信息,通过提取特征分别训练核相关滤波器与贝叶斯分类器,融合两个分类器获得短期跟踪方法,并使用短期跟踪方法和支持向量机构成重检测模块;根据短期跟踪方法响应图的平均峰值相关能量与最大响应值与对应的历史均值的关系,控制重检测模块的工作和模型的更新。本发明实施例的基于融合的长期目标跟踪方法利用响应峰值以及平均峰值相关能量对更新模板进行优化,自适应选择是否更新模型;并且提出一种重检测方法,解决了目标跟踪检测范围被贝叶斯分类器限制与目标丢失的问题,增强了目标跟踪的鲁棒性。
Description
技术领域
本发明涉及计算机图像处理的技术领域,具体涉及一种基于融合的长期 目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域中一个基础的研究问题,目标跟踪在机器人、 视频监控、无人机等领域内广泛应用。目标跟踪主要是根据目标在视频中第 一帧的位置,估计目标在后续视频序列帧中出现的轨迹。
目前,目标跟踪的方法主要包括两大类:判别类与生成类。生成类的目 标跟踪方法主要是运用生成模型描述目标的表观特征,在后序序列中找到与 目标外观最相似的特征,从而完成目标跟踪。由于生成类的目标跟踪方法的 性能较差,已经逐步被淘汰使用了。判别类的目标跟踪方法主要是运用机器 学习在线训练一个二分类器,然后在后序序列视频帧中运用该分类器进行目 标检测,从而完成目标跟踪。由于判别类的目标跟踪方法需要大量的训练样 本以增强判别能力,因此,判别类的目标跟踪方法无法同时兼顾实时性和准确性。
近年来,核相关滤波器的引入有效地解决判决类的目标跟踪方法的实时 性问题。2010年科罗拉多州立大学的Bolme等提出了MOSSE方法,首先在 目标跟踪领域应用核相关滤波器。2012年科英布拉大学的Henriques等人提的 CSK方法通过循环矩阵进行密集采样,并采用傅里叶变换进行快速计算。为 了增强相关滤波器的判别能力,2014年Henriques等人将CSK的单通道灰度 特征扩展到KCF/DCF的多通道方向梯度直方图特征(HOG)。考虑到颜色信 息在视频图像中的重要性,林雪平大学的Denelljan等人使用颜色属性(CN) 作为特征提出CN方法。同年,Danelljan等人通过训练一个尺度相关滤波器 以检测目标的尺度变化提出了DSST方法。2016年,毛宁等人通过结合多尺 度多模板核相关滤波与在线CUR滤波器提出多特征融合的多模板协同相关滤 波跟踪方法。2017年李雪晴等人在多模板核相关滤波器的基础上,使用深度 图分割方法处理尺度变化,并通过重叠率处理目标被遮挡的情形,提出了基 于多模板的深度核相关滤波跟踪方法。2017年,Mueller等人在相关滤波器DCF的基础上,引入背景信息,提出背景感知的相关滤波器,一定程度上缓 解了相关滤波的边界效应。目前虽然已经存在上述较多优秀的目标跟踪方法, 但是上述方法在面对一些特殊情况时仍然难以准确地跟踪目标,如目标发生 严重遮挡的情况、目标快速变形的情况、目标快速运动的情况、图像出现运 动模糊的情况、目标移出视野的情况、目标发生平面外旋转的情况。
因此,针对现有的采用核相关滤波器的目标跟踪方法存在无法跟踪特殊 情况下目标的问题,需要提供一种在特殊情况下也能够有效地长期跟踪目标 的长期目标跟踪方法。
发明内容
针对现有采用核相关滤波器的目标跟踪方法存在的问题,本发明实施例 提出一种基于融合的长期目标跟踪方法。本发明实施例所提供的长期目标跟 踪方法根据给定初始帧中目标的位置及尺寸信息,提取特征分别训练核相关 滤波器与贝叶斯分类器,融合两个分类器获得短期跟踪方法,并使用短期跟 踪方法和支持向量机构成重检测模块;根据短期跟踪方法响应图的平均峰值 相关能量与最大响应值与对应的历史均值的关系,控制重检测模块的工作和 模型的更新。进一步地,本发明实施例所提供的长期目标跟踪方法利用响应 峰值以及平均峰值相关能量对更新模板进行优化,自适应选择是否更新模型。 进一步地,本发明实施例所提供的长期目标跟踪方法提出一种辅助定位重检 测方法,该方法通过利用重检测分类器获得目标初步位置,在初步位置调用 短期跟踪方法进行二次检测来获得精确位置。本发明实施例所提供的长期目 标跟踪方法解决了目标跟踪方法检测范围被贝叶斯分类器限制的问题,以及 通过重检测增强了目标跟踪方法的鲁棒性,从而有效地适应特殊情况下的目 标跟踪。
该基于融合的长期目标跟踪方法的具体方案如下:一种基于融合的长期 目标跟踪方法,其特征在于,所述方法包括步骤:步骤S1:根据初始图像帧, 获取目标初始信息;步骤S2:在贝叶斯分类器区域提取颜色直方图,并且训 练贝叶斯分类器;步骤S3:在核相关滤波区域提取前第一阈值维数的梯度直 方图特征,并采用所述贝叶斯分类器计算所述核相关滤波区域中像素级的颜 色概率图,再从所述像素级的颜色概率图中提取前第二阈值维数的梯度直方 图特征;步骤S4:初始化尺度滤波器,提取梯度直方图特征并将所提取的梯度直方图特征作为目标特征,采用主成份分析法压缩所述目标特征的维数; 步骤S5:从所述图像帧中提取LAB颜色直方图作为特征,初始化支持向量机; 步骤S6:采用所述贝叶斯分类器检测目标,获得贝叶斯分类器的响应图;步 骤S7:在核相关区域内检测目标,获得核相关滤波的响应图,并将所述核相 关滤波的响应图的大小调整至与贝叶斯分类器的响应图的大小一致;步骤S8: 融合所述贝叶斯分类器的响应图和所述核相关滤波的响应图,获得最终响应 图,在所述最终响应图中响应最大值处为所述目标的新位置;步骤S9:判断 核相关滤波的平均峰值相关能量与平均峰值相关能量的历史均值是否满足第 一预设关系且最终响应的响应峰值与响应峰值的历史平均值是否满足第二预 设关系,若都满足,则采用支持向量机进行重检测,获得目标的初步位置, 再进入步骤S10;否则,进入步骤S11;步骤S10:在所述目标的初步位置处, 重复步骤S6、S7、S8,获得重检测的响应图和重检测的目标位置;判断最终 响应的平均峰值相关能量与平均峰值相关能量的历史均值是否满足第三预设 关系且最终响应的响应峰值与响应峰值的历史平均值是否满足第四预设关系, 若都满足,则将所述重检测的目标位置定义为目标的新位置;否则,仍然采 用步骤S8中的目标的新位置;步骤S11:在所述目标的新位置处,调用尺度 滤波器,并选取响应最大的尺度作为新的尺度,更新目标尺寸、前景区域和 背景区域,更新所述尺度滤波器;步骤S12:判断是否满足更新模型的条件, 若满足,则采用Sigmoid函数作为更新模型,更新所述核相关滤波器、所述颜 色直方图;若不满足,则进入步骤S13;步骤S13:判断是否满足更新支持向 量机的条件,若满足,则采用样本更新支持向量机;若不满足,则进入步骤 S14;步骤S14:获得下一帧图像,重复步骤S6、S7、S8、S9、S10、S11、 S12、S13,直至视频结束。
优选地,所述第一阈值维数为28维,第二阈值维数为28维。
优选地,在步骤S8中采用加权平均的方法融合所述贝叶斯分类器的响应 图和所述核相关滤波的响应图,具体的表达式如下所示:
response=(1-αmerge)response_cf+αmerge·response_pwp,
其中,response_cf为核相关滤波器的响应,response_pwp为贝叶斯分类器的 响应,αmerge为加权系数。
优选地,所述核相关滤波的表达式为:
minw∑i(f(xi)-yi)2+λ||w||2,
其中,f(x)=wTx,x为样本特征,w为核相关滤波器,y为样本的回归值,λ是正 则化系数。
优选地,所述贝叶斯分类器的具体实现过程表达式如下所示:
其中,F表示围绕目标的矩形前景区域,B表示包含目标的矩形背景区域,cx表 示像素x属于RGB颜色直方图的第c条柱。
优选地,对所述P(x∈O|F,B,cx)进行积分,获得贝叶斯分类器的响应图。
优选地,所述第一预设条件为APCE<β1*MAPCE,第二预设条件为 Rmax<β2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为 所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应 峰值的历史平均值,β1=β2=0.4。
优选地,第三预设条件为APCE>γ1*MAPCE,第四预设条件为 Rmax>γ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为 所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应 峰值的历史平均值,γ1=γ2=0.6。
优选地,所述更新模型的条件为APCE>θ1*MAPCE且Rmax>θ2*Rmean, 其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史 平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值, θ1=θ2=0.4。
优选地,所述更新支持向量机的条件为APCE>ρ1*MAPCE与Rmax> ρ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值 的历史平均值,ρ1=ρ2=0.8。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例所提供的长期目标跟踪方法根据给定初始帧中目标的位置 及尺寸信息,提取特征分别训练核相关滤波器与贝叶斯分类器,融合两个分 类器获得短期跟踪方法,并使用短期跟踪方法和支持向量机构成重检测模块; 根据短期跟踪方法响应图的平均峰值相关能量与最大响应值与对应的历史均 值的关系,控制重检测模块的工作和模型的更新。进一步地,本发明实施例 所提供的长期目标跟踪方法利用响应峰值以及平均峰值相关能量对更新模板 进行优化,自适应选择是否更新模型。进一步地,本发明实施例所提供的长 期目标跟踪方法提出一种辅助定位重检测方法,该方法通过利用重检测分类 器获得目标初步位置,在初步位置调用短期跟踪方法进行二次检测来获得精 确位置。本发明实施例所提供的长期目标跟踪方法解决了目标跟踪方法检测 范围被贝叶斯分类器限制的问题,以及通过重检测增强了目标跟踪方法的鲁 棒性,从而有效地适应特殊情况下的目标跟踪。
附图说明
图1为本发明实施例提供的基于融合的长期目标跟踪方法的流程示意图;
图2为图1所示实施例的一种简化流程示意图;
图3(a)为本发明实施例所提出的基于融合的长期目标跟踪方法的跟踪性 能在OTB100测试集上的结果示意图;
图3(b)为本发明实施例所提出的基于融合的长期目标跟踪方法的跟踪性 能在TC128测试集上的结果示意图;
图4(a)为本发明实施例所提出的基于融合的长期目标跟踪方法(LCAT, 点划线所示)与Staple(实线所示)、KCF(虚线所示)在jogging1序列中的 比较示意图;
图4(b)为本发明实施例所提出的基于融合的长期目标跟踪方法(LCAT, 点划线所示)与Staple(实线所示)、KCF(虚线所示)在jumping序列中的 比较示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实 施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然, 所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于 本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获 得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第 三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺 序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里 描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外, 术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如, 包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地 列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方 法、产品或设备固有的其它步骤或单元。
如图1所示,本发明实施例基于融合的目标跟踪方法包括十个步骤。具 体如下所示:
步骤S1:根据初始图像帧,获取目标初始信息。在该实施例中,目标初 始信息包括目标位置、目标长度和目标宽度。进一步地,在步骤S1中,还包 括一些初始化参数、初始化区域的常规初始化操作。
步骤S2:在贝叶斯分类器区域提取颜色直方图,并且训练贝叶斯分类器。 在该实施例中,贝叶斯分类器区域具体包括前景区域和背景区域。步骤S2的 具体过程为:从前景区域与背景区域计算初始前景与背景颜色直方图fhist,bhist。 计算颜色直方图的具体过程包括:将颜色空间的像素值[0,255]均分为若干个 颜色区间,每个小区间称为直方图的一个直方柱(bin),统计落在每一个组(bin) 中的像素点的个数。在该实施例中,颜色直方图的直方柱宽度的优选值为8。 在其他实施例中,颜色直方图的直方柱宽度也可以为其他数值,如5,7,9, 10等。
步骤S3:在核相关滤波区域提取前第一阈值维数的梯度直方图特征,并 采用所述贝叶斯分类器计算所述核相关滤波区域中像素级的颜色概率图,再 从所述像素级的颜色概率图中提取前第二阈值维数的梯度直方图特征。在该 实施例中,第一阈值维数为28维,第二阈值维数为28维。在其他实施例中, 第一阈值维数、第二阈值维数也可以取其他数值,可根据目标的不同或跟踪 精度的要求不同而自行设定。步骤S3的具体执行过程为:初始化核相关滤波 器,根据目标中心提取样本模板x,对其进行循环移位构造大量的训练样本xi;提取前28维梯度直方图特征(HOG特征),使用贝叶斯分类器计算区域中每 个像素的颜色概率图并提取前梯度直方图特征(HOG特征)。
在该实施例中,核相关滤波器的滤波模板可以通过求解如公式1所示的 岭回归方程来获得:
minw∑i(f(xi)-yi)2+λ||w||2 (公式1)
其中,f(x)=wTx,x为样本特征,w为核相关滤波器,λ是正则化系数。y为 样本的回归值,在[0,1]之间,y的大小由循环样本与原始样本的距离决定。w 表示为一系列训练样本的加权和,具体的表达式如公式2所示:
岭回归方程的闭合解如公式3所示:
α=(K+λI)-1y (公式3)
由于核矩阵K是循环矩阵,对公式3做傅里叶变换,以在频域简化计算 可得公式4
其中,kxx是核矩阵K=C(kxx)的第一行元素,∧表示傅里叶变换。在本发明实 施例中,核采用高斯核。
步骤S4:初始化尺度滤波器,提取梯度直方图特征并将所提取的梯度直方图 特征作为目标特征,采用主成份分析法压缩所述目标特征的维数。在该实施 例中,在目标位置附近提取大小为anH×anW的图像块,其中, S代表尺度滤波器的尺寸,a表示着尺度因子,H与W是前 一帧目标高和宽。在该实施例中,令S=17,a=1.02。再将所有图像块调整到 同一大小,提取梯度直方图特征(HOG特征)作为特征,并且通过主成分分 析法将近特征压缩至17维,最终生成尺度相关滤波器。
步骤S5:从图像帧中提取LAB颜色直方图作为特征,初始化支持向量机。 在该实施例中,支持向量机使用LAB颜色直方图作为特征,并提取目标尺寸 1.5倍的区域进行采样训练。当样本与目标重叠率大于0.9时为正样本,当样 本与目标重叠率小于0.5时为负样本。对于一个包含N个样本的训练集 {(vi,ci)|i=1,2,...,N},其中vi为样本的特征向量,ci∈{+1,-1}为样本的分类 标签。支持向量机的超平面h可通过求解公式5获得:
其中,l(h;(vi,ci))=max{0,1-c<,v>},<,v>表示h与v间的内积。
步骤S6:采用所述贝叶斯分类器检测目标,获得贝叶斯分类器的响应图。 在该实施例中,通过贝叶斯法则构造一个判别式模型去跟踪目标。为了使分 类器能将物体O从图像I中分辨出,我们在位置x构造一个基于RGB颜色直 方图的贝叶斯分类器以获得x处像素的属于目标的概率。贝叶斯分类器的具 体实现过程表达式如公式6所示:
其中,F表示围绕目标的矩形前景区域,B表示包含目标的矩形背景区域,cx表 示像素x属于RGB颜色直方图的第c条柱(bins)。表示在区域A∈I中 属于RGB颜色直方图的第c条直方柱(bin)中的像素总数。
为了简化计算,本文从RGB颜色直方图中估计颜色概率的具体表达式如 公式7所示:
P(x∈F)≈|F|/(|B|+|F|)
公式7可以改写成公式8:
对P(x∈O|F,B,cx)使用积分图可计算获得贝叶斯分类器的响应图 response_pwp。如果视频为灰度视频序列,则将颜色直方图设置为一维。
步骤S7:在核相关区域内检测目标,获得核相关滤波的响应图,并将所 述核相关滤波的响应图的大小调整至与贝叶斯分类器的响应图的大小一致。 该步骤的详细过程为:在核相关区域检测目标,以前一帧目标中心为初始中 心提取图像块z,循环移位获得候选样本集zi,使用滤波模板检测获得核相关 滤波响应图,并且将核相关滤波响应响应图调整到与贝叶斯分类器响应图的 大小一致。对输入图像块z,贝叶斯分类器的响应表达式如公式9所示:
由于训练样本由基准样本x循环移位构成,候选图像块由基准图像块z 循环移位构成,利用酉不变核函数定理,可知为Kz循环矩阵的表达式如公式 10所示:
Kz=C(kxz) (公式10)
其中,Kz表示训练样本和所有候选图像块之间的核矩阵,kxz表示x和z之间的 核相关。
结合公式9和公式10,所有候选图像块的响应如表达式11所示:
f(z)=Kzα (公式11)
对公式10进行离散傅里叶变换,以在频域简化计算。频域的表达式如公 式12所示:
在该实施例中,核采用高斯核,进行傅里叶逆变换即可获得核相关滤波 响应。
步骤S8:融合所述贝叶斯分类器的响应图和所述核相关滤波的响应图, 获得最终响应图,在所述最终响应图中响应最大值处为所述目标的新位置。 在该实施例中,采用加权平均的方法融合所述贝叶斯分类器的响应图和所述 核相关滤波的响应图,具体的表达式如公式13所示:
response=(1-αmerge)response_cf+αmerge·response_pwp (公式13)
其中,response_cf为核相关滤波器的响应,response_pwp为贝叶斯分类器的 响应,αmerge为加权系数。αmerge的优选值为0.25。
步骤S9:判断最终响应的平均峰值相关能量与平均峰值相关能量的历史 均值是否满足第一预设关系且最终响应的响应峰值与响应峰值的历史平均值 是否满足第二预设关系,若都满足,则采用支持向量机进行重检测,获得目 标的初步位置,再进入步骤S10;否则,进入步骤S11。在该实施例中,所述 第一预设条件为APCE<β1*MAPCE,第二预设条件为Rmax<β2*Rmean,其 中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值, β1=β2=0.4。APCE的具体表达式如公式14所示:
APCE是最终响应图的平均峰值相关能量,可以反映最终响应图的振荡程 度,APCE越小则表示结果越不可信。
步骤S10:在所述目标的初步位置处,重复步骤S6、S7、S8,获得重检 测的响应图和重检测的目标位置Pos_rf;判断最终响应的平均峰值相关能量 与平均峰值相关能量的历史均值是否满足第三预设关系且最终响应的响应峰 值与响应峰值的历史平均值是否满足第四预设关系,若都满足,则将所述重 检测的目标位置Pos_rf定义为目标的新位置;否则,仍然采用步骤S8中的目 标的新位置。在该实施例中,第三预设条件为APCE>γ1*MAPCE,第四预设 条件为Rmax>γ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量, MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是 所述响应峰值的历史平均值,γ1=γ2=0.6。
步骤S11:在所述目标的新位置处,调用尺度滤波器,并选取响应最大的尺度 作为新的尺度,更新目标尺寸、更新前景区域、更新背景区域和更新所述尺 度滤波器。在目标的新位置处,提取17个不同的尺度的图像块,并调整到同 一大小,循环移位产生候选尺度图像;再调用尺度相关滤波器对候选尺度图 像进行检测;并且将17个尺度响应通过三角多项式插值为33个尺度响应; 最后选取响应最大的尺度为新的尺度;更新目标大小,同时更新目标的前景 区域与背景区域,更新尺度滤波器。
步骤S12:判断是否满足更新模型的条件,若满足,则采用Sigmoid函数 作为更新模型,更新所述核相关滤波器、所述颜色直方图;若不满足,则进 入步骤S13。在该实施例中,更新模型的条件为APCE>θ1*MAPCE且 Rmax>θ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为 所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应 峰值的历史平均值,θ1=θ2=0.4。若APCE与最大响应值小于阈值的当前 跟踪结果,则表示仅样本包含少量甚至不包含有用信息,因此不更新模型。
本发明实施例,从神经网络的激活函数Sigmoid函数获得灵感,提出 sigmoid更新模型用以更新核相关滤波器与颜色直方图。当样本质量极差时, 学习率接近于0,并且随响应增加,样本质量快速提高,学习率开始快速提高, 当响应达到平均响应值时,本发明实施例假定当样本质量已经足够优秀,随 响应增加,样本间的差别不大,学习率增加速度变小,学习率接近某一常数。
更新核相关滤波模型的公式如公式15至公式17所示:
更新贝叶斯分类器的颜色直方图的公式如公式18至公式19所示:
其中,Mean_cf是核相关滤波的历史响应峰值的均值,max_cf是当前帧的核相 关滤波的响应峰值,Mean_pwp是贝叶斯分类器响应图的历史响应峰值的均值, max_pwp是当前帧的贝叶斯分类器响应图的响应峰值。在前n帧使用线性插 值更新核相关滤波器和颜色直方图。在本发明实施例中,采用优选值n=30, 学习率分别使用优选值b=0.02与c=0.04。
步骤S13:判断是否满足更新支持向量机的条件,若满足,则采用样本更 新支持向量机;若不满足,则进入步骤S14。在该实施例中,更新支持向量机 的条件为APCE>ρ1*MAPCE与Rmax>ρ2*Rmean,其中,APCE是最终响应 图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应 图的响应峰值,Rmean是所述响应峰值的历史平均值,ρ1=ρ2=0.8。在目标 跟踪过程中,支持向量机以公式21更新超平面:
步骤S14:获得下一帧图像,重复步骤S6、S7、S8、S9、S10、S11、S12、 S13,直至视频结束。
在该实施例中,有关核相关滤波器、贝叶斯分类器、支持向量机及尺度 相关滤波器等操作步骤可以进行顺序互换或者并列执行,因为这些步骤执行 并未有结果依赖关系。
如图2所示,为图1所示实施例的一种简化流程示意图。开始跟踪后,首 先进行初始化,再分别训练贝叶斯分类器、训练尺度滤波器、训练核相关滤 波器,再分别检测目标,再将贝叶斯分类器的响应和核相关滤波的响应进行 融合以获得目标的新位置,再判断融合的目标是否准确,进而确定是否需要 进行支持向量机进行目标重检测,再检测新尺度,再分别更新核相关滤波器、 更新贝叶斯分类器、更新尺度滤波器,再判断是否需要更新支持向量机,再 判断是否需要继续跟踪,若需要继续跟踪,则重复上述步骤,直至视频结束。
在该实施例中,根据给定初始帧中目标的位置及尺寸信息,通过提取特 征分别训练核相关滤波器与贝叶斯分类器,融合两个分类器获得短期跟踪方 法,并使用短期跟踪方法和支持向量机构成重检测模块;根据响应图的平均 峰值相关能量与最大响应值与对应的历史均值的关系,控制重检测模块的工 作和模型的更新。进一步地,本发明实施例所提供的长期目标跟踪方法利用 响应峰值以及平均峰值相关能量对更新模板进行优化,自适应选择是否更新 模型。进一步地,本发明实施例所提供的长期目标跟踪方法提出一种辅助定 位重检测方法,该方法通过利用重检测分类器获得目标初步位置,在初步位 置调用短期跟踪方法进行二次检测来获得精确位置。本发明实施例所提供的 长期目标跟踪方法解决了目标跟踪方法检测范围被贝叶斯分类器限制的问题, 以及通过重检测增强了目标跟踪方法的鲁棒性,从而有效地适应特殊情况下 的目标跟踪。
如图3所示,本发明实施例所提出的基于融合的长期目标跟踪方法的跟 踪性能在OTB100测试集(图3a)及TC128测试集(图3b)上的结果。OTB100 测试集及TC128测试集是近几年中提出的最权威的目标跟踪测试集,其评价 标准有精度(precision)和成功率(success rate)。其中,OPE意味着一次通过实验, precision是中心误差在20个像素内的帧数与总帧数之比;Success rate是方法 给出success曲线下的面积,success曲线的评价标准是由人工标注的跟踪框与 方法的跟踪框间的交叠比。如图3所示,本发明实施例所提出的跟踪方法 (LCAT曲线)在成功率和精度上都优于现有的目标跟踪方法。
如表1所示,本发明实施例所提供的基于融合的长期目标跟踪方法(LCAT) 与其他目标跟踪方法(Staple、KCF、SRDCF)在OTB100测试集上各个属性 的定量比较。用于定量比较的属性包括:快速移动、背景斑杂、运动模糊、 变形、光照变化、低分辨率、遮挡、平面外旋转、移出视野、尺度变化和平 面内旋转。从表1中的数值比较可得,本发明实施例所提供的基于融合的长 期目标跟踪方法(LCAT)在上述属性方面都有优异的表现。
表1各种属性下本发明实施例所提供的基于融合的长期目标跟踪方法 (LCAT)与其他先进目标跟踪方法在OTB100测试集上的对比表
属性 | LCAT | KCF | Staple | SRDCF |
快速移动 | 0.602 | 0.459 | 0.541 | 0.597 |
背景斑杂 | 0.631 | 0.498 | 0.561 | 0.583 |
运动模糊 | 0.626 | 0.458 | 0.540 | 0.594 |
变形 | 0.621 | 0.436 | 0.550 | 0.544 |
光照变化 | 0.666 | 0.479 | 0.595 | 0.609 |
低分辨率 | 0.536 | 0.290 | 0.399 | 0.526 |
遮挡 | 0.632 | 0.443 | 0.543 | 0.557 |
平面外旋转 | 0.621 | 0.453 | 0.534 | 0.549 |
移出视野 | 0.579 | 0.393 | 0.476 | 0.461 |
尺度变化 | 0.600 | 0.394 | 0.520 | 0.563 |
平面内旋转 | 0.608 | 0.469 | 0.549 | 0.543 |
如图4(a)所示,本发明实施例所提出的基于算法融合的长期目标跟踪方法(LCAT)与Staple、KCF在jogging1序列中的比较示意图;如图4(b)所示, 本发明实施例所提出的基于算法融合的长期目标跟踪方法(LCAT)与Staple、 KCF在jumping序列中的比较示意图。从图4(a)和图4(b)的比较中发现,本发 明提出的LCAT目标跟踪方法,在目标遭遇遮挡或者运动模糊等情况,目标 丢失后算法可以有效寻回目标以实现长期跟踪。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、 “具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、 结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书 中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且, 描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中 以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以 将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结 合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施 例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发 明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于融合的长期目标跟踪方法,其特征在于,所述方法包括步骤:
步骤S1:根据初始图像帧,获取目标初始信息;
步骤S2:在贝叶斯分类器区域提取颜色直方图,并且训练贝叶斯分类器;
步骤S3:在核相关滤波区域提取前第一阈值维数的梯度直方图特征,并采用所述贝叶斯分类器计算所述核相关滤波区域中像素级的颜色概率图,再从所述像素级的颜色概率图中提取前第二阈值维数的梯度直方图特征;
步骤S4:初始化尺度滤波器,提取梯度直方图特征并将所提取的梯度直方图特征作为目标特征,采用主成份分析法压缩所述目标特征的维数;
步骤S5:从所述图像帧中提取LAB颜色直方图作为特征,初始化支持向量机;
步骤S6:采用所述贝叶斯分类器检测目标,获得贝叶斯分类器的响应图;
步骤S7:在核相关区域内检测目标,获得核相关滤波的响应图,并将所述核相关滤波的响应图的大小调整至与贝叶斯分类器的响应图的大小一致;
步骤S8:融合所述贝叶斯分类器的响应图和所述核相关滤波的响应图,获得最终响应图,在所述最终响应图中响应最大值处为所述目标的新位置;
步骤S9:判断最终响应的平均峰值相关能量与平均峰值相关能量的历史均值是否满足第一预设关系且最终响应的响应峰值与响应峰值的历史平均值是否满足第二预设关系,若都满足,则采用支持向量机进行重检测,获得目标的初步位置,再进入步骤S10;否则,进入步骤S11;
步骤S10:在所述目标的初步位置处,重复步骤S6、S7、S8,获得重检测的响应图和重检测的目标位置;判断最终响应的平均峰值相关能量与平均峰值相关能量的历史均值是否满足第三预设关系且最终响应的响应峰值与响应峰值的历史平均值是否满足第四预设关系,若都满足,则将所述重检测的目标位置定义为目标的新位置;否则,仍然采用步骤S8中的目标的新位置;
步骤S11:在所述目标的新位置处,调用尺度滤波器,并选取响应最大的尺度作为新的尺度,更新目标尺寸,更新前景区域,更新背景区域和更新所述尺度滤波器;
步骤S12:判断是否满足更新模型的条件,若满足,则采用Sigmoid函数作为更新模型,更新所述核相关滤波器、所述颜色直方图;若不满足,则进入步骤S13;
步骤S13:判断是否满足更新支持向量机的条件,若满足,则采用样本更新支持向量机;若不满足,则进入步骤S14;
步骤S14:获得下一帧图像,重复步骤S6、S7、S8、S9、S10、S11、S12、S13,直至视频结束。
2.根据权利要求1所述的融合的长期目标跟踪方法,其特征在于,所述第一阈值维数为28维,第二阈值维数为28维。
3.根据权利要求1所述的基于融合的长期目标跟踪方法,其特征在于,在步骤S8中采用加权平均的方法融合所述贝叶斯分类器的响应图和所述核相关滤波的响应图,具体的表达式如下所示:
response=(1-αmerge)response_cf+αmerge·response_pwp,
其中,response_cf为核相关滤波器的响应,response_pwp为贝叶斯分类器的响应,αmerge为加权系数。
4.根据权利要求1所述的基于融合的长期目标跟踪方法,其特征在于,所述核相关滤波的表达式为:
minw∑i(f(xi)-yi)2+λ‖w‖2,
其中,f(x)=wTx,x为样本特征,w为核相关滤波器,y为样本的回归值,λ是正则化系数。
6.根据权利要求5所述的基于融合的长期目标跟踪方法,其特征在于,对所述P(x∈O|F,B,cx)进行积分,获得贝叶斯分类器的响应图。
7.根据权利要求1所述的基于融合的目标跟踪方法,其特征在于,所述第一预设条件为APCE<β1*MAPCE,第二预设条件为Rmax<β2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值,β1=β2=0.4。
8.根据权利要求1所述的基于融合的长期目标跟踪方法,其特征在于,第三预设条件为APCE>γ1*MAPCE,第四预设条件为Rmax>γ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值,γ1=γ2=0.6。
9.根据权利要求1所述的基于融合的长期目标跟踪方法,其特征在于,所述更新模型的条件为APCE>θ1*MAPCE且Rmax>θ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值,θ1=θ2=0.4。
10.根据权利要求1所述的基于融合的长期目标跟踪方法,其特征在于,所述更新支持向量机的条件为APCE>ρ1*MAPCE与Rmax>ρ2*Rmean,其中,APCE是最终响应图的平均峰值相关能量,MAPCE为所述APCE的历史平均值,Rmax为最终响应图的响应峰值,Rmean是所述响应峰值的历史平均值,ρ1=ρ2=0.8。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917390.7A CN110827327B (zh) | 2018-08-13 | 2018-08-13 | 一种基于融合的长期目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917390.7A CN110827327B (zh) | 2018-08-13 | 2018-08-13 | 一种基于融合的长期目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110827327A true CN110827327A (zh) | 2020-02-21 |
CN110827327B CN110827327B (zh) | 2023-04-18 |
Family
ID=69546882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810917390.7A Active CN110827327B (zh) | 2018-08-13 | 2018-08-13 | 一种基于融合的长期目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110827327B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968153A (zh) * | 2020-07-16 | 2020-11-20 | 新疆大学 | 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统 |
CN112541468A (zh) * | 2020-12-22 | 2021-03-23 | 中国人民解放军国防科技大学 | 一种基于双模板响应融合的目标跟踪方法 |
CN114362839A (zh) * | 2021-12-07 | 2022-04-15 | 北京四季豆信息技术有限公司 | 基于hplc双模无线系统的信号检测方法、装置和电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1601549A (zh) * | 2003-09-26 | 2005-03-30 | 中国科学院自动化研究所 | 基于多特征融合的人脸定位与头部姿势识别方法 |
CN104751492A (zh) * | 2015-04-17 | 2015-07-01 | 中国科学院自动化研究所 | 基于动态耦合条件随机场的目标区域跟踪方法 |
US20160342837A1 (en) * | 2015-05-19 | 2016-11-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Apparatus and method for object tracking |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
WO2017088050A1 (en) * | 2015-11-26 | 2017-06-01 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
JP2018077807A (ja) * | 2016-11-11 | 2018-05-17 | Kddi株式会社 | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 |
CN108053424A (zh) * | 2017-12-15 | 2018-05-18 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN108090922A (zh) * | 2016-11-21 | 2018-05-29 | 中国科学院沈阳计算技术研究所有限公司 | 智能目标跟踪轨迹记录方法 |
-
2018
- 2018-08-13 CN CN201810917390.7A patent/CN110827327B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1601549A (zh) * | 2003-09-26 | 2005-03-30 | 中国科学院自动化研究所 | 基于多特征融合的人脸定位与头部姿势识别方法 |
CN104751492A (zh) * | 2015-04-17 | 2015-07-01 | 中国科学院自动化研究所 | 基于动态耦合条件随机场的目标区域跟踪方法 |
US20160342837A1 (en) * | 2015-05-19 | 2016-11-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Apparatus and method for object tracking |
WO2017088050A1 (en) * | 2015-11-26 | 2017-06-01 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
JP2018077807A (ja) * | 2016-11-11 | 2018-05-17 | Kddi株式会社 | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 |
CN108090922A (zh) * | 2016-11-21 | 2018-05-29 | 中国科学院沈阳计算技术研究所有限公司 | 智能目标跟踪轨迹记录方法 |
CN108053424A (zh) * | 2017-12-15 | 2018-05-18 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
张微: "相关滤波目标跟踪进展综述" * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968153A (zh) * | 2020-07-16 | 2020-11-20 | 新疆大学 | 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统 |
CN112541468A (zh) * | 2020-12-22 | 2021-03-23 | 中国人民解放军国防科技大学 | 一种基于双模板响应融合的目标跟踪方法 |
CN112541468B (zh) * | 2020-12-22 | 2022-09-06 | 中国人民解放军国防科技大学 | 一种基于双模板响应融合的目标跟踪方法 |
CN114362839A (zh) * | 2021-12-07 | 2022-04-15 | 北京四季豆信息技术有限公司 | 基于hplc双模无线系统的信号检测方法、装置和电子设备 |
CN114362839B (zh) * | 2021-12-07 | 2024-05-03 | 芯象半导体科技(北京)有限公司 | 基于hplc双模无线系统的信号检测方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110827327B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543837B (zh) | 一种基于潜在目标点的可见光机场飞机检测方法 | |
CN109670429B (zh) | 一种基于实例分割的监控视频多目标人脸检测方法及系统 | |
CN110135500B (zh) | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
Jia et al. | Visual tracking via adaptive structural local sparse appearance model | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN108537102B (zh) | 基于稀疏特征与条件随机场的高分辨sar图像分类方法 | |
CN109034245B (zh) | 一种利用特征图融合的目标检测方法 | |
CN106682696A (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
CN113592911B (zh) | 表观增强深度目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN106570439B (zh) | 一种车辆检测方法及装置 | |
CN110827327B (zh) | 一种基于融合的长期目标跟踪方法 | |
CN110276784B (zh) | 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN110751670B (zh) | 一种基于融合的目标跟踪方法 | |
US11821986B1 (en) | Target tracking method, system, device and storage medium | |
CN112785622A (zh) | 一种水面无人船长时跟踪方法、装置及存储介质 | |
US11367206B2 (en) | Edge-guided ranking loss for monocular depth prediction | |
CN114219936A (zh) | 目标检测方法、电子设备、存储介质和计算机程序产品 | |
Kim et al. | Robust facial landmark extraction scheme using multiple convolutional neural networks | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN113033356B (zh) | 一种尺度自适应的长期相关性目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |