CN111563915B - 一种融合运动信息检测和Radon变换的KCF目标跟踪方法 - Google Patents

一种融合运动信息检测和Radon变换的KCF目标跟踪方法 Download PDF

Info

Publication number
CN111563915B
CN111563915B CN202010375269.3A CN202010375269A CN111563915B CN 111563915 B CN111563915 B CN 111563915B CN 202010375269 A CN202010375269 A CN 202010375269A CN 111563915 B CN111563915 B CN 111563915B
Authority
CN
China
Prior art keywords
target
scale
kcf
frame
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010375269.3A
Other languages
English (en)
Other versions
CN111563915A (zh
Inventor
丁勇
汪常建
卢盼成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202010375269.3A priority Critical patent/CN111563915B/zh
Publication of CN111563915A publication Critical patent/CN111563915A/zh
Application granted granted Critical
Publication of CN111563915B publication Critical patent/CN111563915B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公布了一种融合运动信息检测和Radon变换的KCF目标跟踪方法,所述方法对输入的当前帧图像分别提取HOG特征和经Radon变换提取矩特征;采用光流法和帧间差分法相结合,预测运动目标大致的范围;输入HOG特征并训练KCF位置滤波器,预测目标区域中心点位置;输入矩特征并训练KCF尺度滤波器,预测目标的尺度;结合目标区域中心点位置和目标的尺度,确定出目标的准确位置;对模型进行自适应策略更新;重复上述步骤,直至视频帧跟踪结束,确定出待跟踪的目标。本发明将光流法、帧间差分法、Radon变换和相关滤波器相结合,解决了KCF算法在目标发生遮挡、尺度变化和环境光照发生变化时,实时性差、跟踪精度和成功率下降的问题。

Description

一种融合运动信息检测和Radon变换的KCF目标跟踪方法
技术领域
本发明属于视觉目标跟踪技术领域,特别是融合运动信息检测和Radon变换的KCF目标跟踪方法。
技术背景
目标跟踪作为计算机视觉领域重要研究内容,在视频监控、智能交通、人机交互和无人机协同合作领域得到广泛应用。国内外学者对此进行了大量研究,并取得了很大进展。但对于诸如目标在发生尺度变化、遮挡和环境出现光照变化等复杂问题时,如何保证算法的实时性、准确性和鲁棒性,依然是视觉目标跟踪研究的难点。
视觉目标跟踪根据目标的外观模型表达可分为生成式和判别式两类算法。生成式跟踪算法主要通过对目标外观模型进行建模,然后根据目标和图像之间的最佳匹配度确定目标的位置。典型的生成式算法有Mean Shift算法和粒子滤波算法等。Mean Shift算法采用核函数直方图进行建模,通过迭代搜索与目标相似度最大的候选区域实现对目标的跟踪。粒子滤波算法主要基于序贯重要性采样,通过蒙特卡罗仿真方法实现递推贝叶斯滤波预测目标新时刻的位置。但该类算法存在部分目标描述模型的构建困难,环境中复杂的背景信息未得到有效利用等问题。判别式算法通过提取有效特征对分类器进行训练,然后将跟踪划分为目标和背景的二分问题得到目标模型估计从而完成跟踪。支持向量机(SupportVector Machine,SVM)为典型的判别式跟踪算法,Zhang Shunli等提出了一种新型的模糊跟踪框架为训练样本分配权重,将跟踪问题转换为模糊分类问题,训练模糊最小二乘支持向量机分类器成功提高了跟踪的鲁棒性。自2010年基于判别式跟踪方法框架下的相关滤波(Correlation Filters,CF)算法被用于视觉跟踪以来,由于具有跟踪效果优异,运算速度快的优点,成为图像目标跟踪领域的研究热点。相关学者在相关滤波算法基础上采用HOG(Histogram of Oriented Gradients)、SIFT(Scale Invariant Feature Transform)和CN(Color Name)特征来提高特征的表征能力和算法的迭代速度,跟踪速度快,在简单环境下跟踪精度较好,但对于目标出现尺度变化、遮挡和环境出现光照变化等情况下的复杂跟踪问题,由于提取到的目标外观信息不完整等原因,导致跟踪效果不理想。M Danelljan等人通过建立尺度金字塔和训练尺度滤波器来实现尺度自适应,但因为其本质上是利用穷尽式搜索策略,增加了尺度估计环节,计算量增大,故跟踪速度和性能并不十分理想。
发明内容
本发明的目的在于提供一种融合运动信息检测和Radon变换的KCF目标跟踪方法,该方法针对目标发生尺度变化、遮挡和环境出现光照变化等复杂情况,将光流法、帧间差分法、Radon变化和相关滤波器相融合,在保证实时性的前提下能有效提高目标跟踪的实时性,精度和成功率。
为实现上述目的,本发明采用以下技术方案:
一种融合运动信息检测和Radon变换的KCF目标跟踪方法,包括:
第一步,输入待处理的第一帧图像,标记待跟踪的目标。
第二步,对当前帧图像分别提取HOG特征和经Radon变换提取k阶矩特征。
第三步,采用光流法预测出目标运动的大致区域,采用帧间差分法确定前景区域,通过这两种方法的结合,保证预测的目标运动大致范围的准确性。
第四步,输入HOG特征并训练KCF位置滤波器,预测目标区域中心点位置;
第五步,输入矩特征并训练KCF尺度滤波器,预测目标的尺度。
第六步,结合预测的目标区域中心点位置和目标的尺度,确定出目标的准确位置。
第七步,采用改进的模型更新策略进行模型更新。
第八步,判断是否为最后一帧,是则确定出待跟踪的目标,跟踪结束;否则视频帧数加一并返回第二步。
本发明具有以下优点:
1.本发明针对目标存在尺度变换、遮挡和环境光照变化时目标跟踪性能下降的问题,利用光流法和帧间差分法提前预测目标所在区域,以缩小KCF的搜索范围,提高了算法的速度。在传统KCF算法的基础上,根据模型更新策略中学习率与响应图峰值的非线性关系,构造抛物型学习率曲线实现对模型的自适应更新,保证了算法的实时性、跟踪精度和成功率。
2.本发明针对目标存在尺度变化的情况,对当前帧图像经Radon变换提取矩特征来训练KCF尺度滤波器。由于Radon变换具有对噪声不敏感及矩平移伸缩不变性,当目标存在尺度变化或受到强光照干扰时,仍能快速找到最优的尺度,有效解决了传统KCF算法存在的跟踪丢失问题。
附图表说明
图1为算法流程图。
图2为目标发生遮挡和光照变化情况下本发明方法与传统KCF的性能比较。
图3为光照变化和目标存在遮挡情况下,本发明方法与排在前十名的传统经典跟踪方法成功率的排序结果。
图4为光照变化和目标存在遮挡情况下,本发明方法与排在前十名的传统经典跟踪方法精度的排序结果。
图5为目标发生尺度变化情况下本发明方法与传统KCF的性能比较。
图6在目标存在尺度变化情况下,本发明方法与排在前十名的传统经典跟踪方法精度和成功率的排序结果。
具体实施方式
结合所附图表,对本发明的技术方案作具体说明。
如图1所示,本发明的一种融合运动信息检测和Radon变换的KCF目标跟踪方法,具体包括以下步骤:
步骤1选取包括目标发生尺度变化、遮挡和光照变化等复杂情况下的视频图像,输入待处理的第一帧图像,标记待跟踪的目标。
步骤2对当前帧图像分别提取HOG特征和经Radon变换提取矩特征,具体过程为:
(2.1)对输入的图像提取HOG特征,具体步骤为:
(1)对图像灰度化处理,并采用Gamma法进行归一化。
(2)计算图像上点(x,y)处的梯度值和梯度方向。
(3)将图像化为四个单元,并采用直方图统计每个单元的梯度信息。
(4)将这些单元化为一个图像块,并将这些单元的特征串联成一行,得到图像块的HOG特征。
(2.2)对输入的图像经Radon变换提取矩特征,具体的k阶矩特征ηk(θ)表达式为:
Figure BSA0000208015340000041
式中,μ0为初始矩,μk(θ)由下式计算:
Figure BSA0000208015340000042
其中,r为幅值,表示坐标原点到目标的距离,二维图像经Radon变换得到Rθ(r)满足:
Rθ(r)=∫∫f(x,y)δ(r-xcosθ-ysinθ)dxdy (2)
这里,f(x,y)为二维图像点(x,y)的强度,δ为dirac-delta函数,θ∈[0,π)为幅角。
Figure BSA0000208015340000043
满足:
Figure BSA0000208015340000044
特别地,当k=0时,μ0为初始矩。
步骤3根据图像上点(x,y)的光流迭代公式(3)求出光流(u,v,x,y),预测出前一帧图像中目标框的中心在下一帧的位置,即可预测出目标运动的大致区域。
Figure BSA0000208015340000045
式中,u(k+1)和v(k+1)分别是点(x,y)在水平和垂直方向上的运动分量,
Figure BSA0000208015340000046
Figure BSA0000208015340000047
为局部平均,
Figure BSA0000208015340000048
为t时点(x,y)处的灰度值I(x,y,t)相对于x,y,t的偏导,λ为权重系数。
考虑到运动场景可能受到其他诸如摇动的树木、变化的光线等干扰,会导致运动区域的误差较大。作为补偿,这里利用帧间差分法确定出前景区域。通过这两种方法的结合,保证了提取的检测区域的高准确率。
设相邻两帧图像的灰度函数差分为Dk(x,y)=|fk(x,y)-fk-1(x,y)|,这里,fk(x,y)表示第k帧图像的灰度函数,fk-1(x,y)为第k-1帧图像的灰度函数。定义Rk(x,y)具体表达式为:
Figure BSA0000208015340000051
式中,T0为给定的阈值。
Rk(x,y)为二值函数,当Rk(x,y)取0时,则表示该像素的灰度没有发生变化,或变化很小,说明没有运动物体,于是,取0的区域可近似认为背景区域;当Rk(x,y)取1时,说明该像素在前后两帧的灰度发生了较大的变化,可认为有运动物体,于是,取1的区域可近似认为前景区域。
步骤4输入HOG特征并训练KCF位置滤波器,预测目标区域中心点位置,具体步骤为:
(4.1)令x=[x1 x2 x3 … xn]为目标图像块的HOG特征向量,对其进行循环移位得到循环矩阵X为:
Figure BSA0000208015340000052
式中,X第一个行向量x=[x1 x2 x3 … xn]为基础样本,其它每个行向量通过对第一个行向量进行位移作为训练样本。
(4.2)对X采用矩阵F进行对角化,具体表达式为:
Figure BSA0000208015340000053
式中,F为常量矩阵,
Figure BSA0000208015340000054
为x经过离散傅里叶变换后的向量,diag表示以
Figure BSA0000208015340000055
各分量为主对角线元素的对角阵,FH为F的Hermitian转置矩阵。
(4.3)构建岭回归模型训练分类器,模型的目标优化函数为:
Figure BSA0000208015340000056
式中,Xj为循环矩阵X第j个行向量,y为标签向量,yj为其分量,由X对应的高斯函数得到,λ为正则化参数,w为分类器参数。
(4.4)设f(z)为z循环移位得到的所有样本对应的回归值向量,借助核函数K(·,·)进行内积运算,在傅里叶变换域上得到其最优解
Figure BSA0000208015340000057
为:
Figure BSA0000208015340000058
式中,kxz为训练样本集和候选样本集构成的核函数矩阵的第一行向量,
Figure BSA0000208015340000061
为其离散傅里叶变换,
Figure BSA0000208015340000062
的第i个分量满足:
Figure BSA0000208015340000063
这里,
Figure BSA0000208015340000064
为训练样本核函数矩阵K第一行向量的离散傅里叶变换的分量,
Figure BSA0000208015340000065
为标签向量y的离散傅里叶变换的分量。
(4.5)对最优解
Figure BSA0000208015340000066
进行傅里叶反变化即可得到f(z)。由于f(z)是待测样本z循环移位得到的所有样本对应的回归值向量,在所有候选样本中回归值最大的位置就是这一帧图像检测到的目标区域中心点位置。
步骤5输入矩特征并训练KCF尺度滤波器,预测目标的尺度,具体步骤为:
(5.1)将步骤2中(2.2)提取到的k阶矩特征ηk(θ)构成矩特征向量
Figure BSA0000208015340000068
训练KCF滤波器。
(5.2)利用DSST尺度估计的尺度金字塔方法建立尺度池。
(5.3)对由位置滤波器预测出来的目标,通过尺度池获得不同尺度的目标窗口,经Radon变换后提取其检测特征样本,计算滤波器的相应输出,其最大响应值就是尺度估计的结果。
由于矩特征向量的维数与窗口尺度大小无关,所以无需经双线性插值把图像块的尺寸统一到滤波器的尺度上,这在减少了计算量的同时还提高了算法的精度。
步骤6结合位置滤波器预测的目标区域中心点位置和尺度滤波器预测的目标尺度,确定出目标的准确位置,完成本帧图像的检测。
步骤7采用改进的模型更新策略进行模型更新,具体的模型更新公式为:
xnew=(1-μ(F))xold+μ(F)x′ (9)
式中,xold与xnew分别为前一帧和当前帧的训练基础样本,x′为前一帧图像中输出值最高的检测样本,μ(F)为自适应学习率,满足:
Figure BSA0000208015340000067
这里,定义M=Ef,表示滤波器扫描一帧图像得出的输出值f的数学期望,M取0.2,F为一帧图像的输出值f的峰值,μ0为调节参数。
步骤8判断是否为最后一帧,是则确定出待跟踪的目标,跟踪结束;否则视频帧数加一并返回第二步。
为了验证方法的可行性和有效性,下面结合实例对本发明做进一步详细的描述。
本实验的硬件平台为Intel(R)Core(TM)i5-3337,1.80Ghz CPU,4.00GB RAM的台式计算机,软件平台为Matlab 2014b,采用OTB 50中的视频测试序列进行实验,测试本发明方法的性能。
下表为本发明中融合运动信息检测和Radon变换的KCF仿真参数。
Figure BSA0000208015340000071
图2为目标发生遮挡和光照变化情况下本发明方法与传统KCF的性能比较。图中,黑色框为本发明方法,白色框为传统KCF方法。图2(a)为目标发生遮挡变化的情况,本发明方法与传统KCF对不同帧图像的跟踪性能的比较。可以看出,CarScale序列在91帧时,两种方法虽然都保持了对目标的跟踪,但随着车辆前行,目标逐渐被树木遮挡,传统KCF方法的成功率逐渐降低,本发明方法的跟踪效果更好;图2(b)为环境存在光照变化情况下,本发明方法与传统KCF对不同帧图像的跟踪性能的比较。可以看出,Trellis序列在第231帧时,两种方法跟踪效果相差不大,但随着时间的推移,目标所处环境的光线逐渐变暗时,传统KCF的精度逐渐降低,在第477帧时,本发明方法仍然可以实现较高精度的跟踪。
此外,通过对本发明方法与传统KCF跟踪性能指标每秒帧数的计算,本发明为78FPS,传统KCF为121FPS,本发明方法的实时性得到了明显提高。
图3为光照变化和目标存在遮挡下,本发明方法与传统KCF以及TLD、Struck、VTD和ASLA等23种经典跟踪方法中排在前十名的方法成功率的排序结果。由图3(a)可以看出,环境光照发生变化的情况下,覆盖阈值处于[0.2,0.8]时,本发明方法跟踪效果最好,对比传统KCF跟踪的成功率提高了7.4%;由图3(b)可以看出,当目标存在遮挡且覆盖阈值处于[0.3,0.9]时,本发明方法的效果最好,对比传统KCF跟踪的成功率提高了2.2%。
图4为光照变化和目标存在遮挡下,本发明方法与传统KCF以及TLD、Struck、VTD和ASLA等23种经典跟踪方法中排在前十名的方法精度的排序结果。由图4(a)可以看出,当环境存在光照变化时,误差阈值取20像素,本发明方法的精度较排名第二的传统KCF提高了0.7%。由图4(b)可以看出,当目标存在遮挡时,误差阈值取20像素,本发明方法的精度均高于其他方法,较排名第二的传统KCF精度提高了5.0%。
综上所述,本发明方法有效提高了目标存在遮挡和环境存在光照变化情况时跟踪的成功率和精度,且实时性得到明显提高。
图5为目标发生尺度变化情况下本发明方法与传统KCF的性能比较。图中,黑色框为本发明方法,白色框为传统KCF方法。由图中可以看出,在目标发生尺度变化的情况,Car序列从42帧至147帧时,两种方法都保持了对目标的跟踪,当小车继续前进,从第三幅图第231帧开始,随着小车尺度不断变化,传统方法的精度逐渐下降,而本发明方法依然保持较好的跟踪精度。
图6在目标存在尺度变化情况下,本发明方法与传统KCF以及TLD、Struck、VTD和ASLA等23种经典跟踪方法,排名前十名的跟踪算法的精度和成功率的排序结果。由图6(a)和图6(b)分别可以看出,排在前三名的依次是本发明方法、传统KCF及Struck算法。本发明方法相比传统KCF和Struck算法,跟踪精度分别提高了3.3%和9.5%,平均跟踪成功率分别提高了3.6%和12.1%,整体跟踪效果有所提升。

Claims (5)

1.一种融合运动信息检测和Radon变换的KCF目标跟踪方法,其特征在于,包括以下步骤:
第一步,输入待处理的第一帧图像,标记待跟踪的目标;
第二步,对当前帧图像分别提取HOG特征和经Radon变换提取k阶矩特征;
第三步,采用光流法预测出目标运动的大致区域,采用帧间差分法确定前景区域,通过这两种方法的结合,保证预测的目标运动大致范围的准确性;
第四步,输入HOG特征并训练KCF位置滤波器,预测目标区域中心点位置;
第五步,输入矩特征并训练KCF尺度滤波器,预测目标的尺度;
第六步,结合预测的目标区域中心点位置和目标的尺度,确定出目标的准确位置;
第七步,采用改进的模型更新策略进行模型更新;
第八步,判断是否为最后一帧,是则确定出待跟踪的目标,跟踪结束;否则视频帧数加一并返回第二步。
2.如权利要求1所述的一种融合运动信息检测和Radon变换的KCF目标跟踪方法,其特征在于,所述第二步中对当前帧图像经Radon变换提取k阶矩特征,具体的k阶矩特征ηk(θ)表达式为:
式中,μ0为初始矩,μk(θ)由下式计算:
其中,r为幅值,表示坐标原点到目标的距离,二维图像经Radon变换得到Rθ(r)满足:
Rθ(r)=∫∫f(x,y)δ(r-x cosθ-y sinθ)dxdy (2)
这里,f(x,y)为二维图像点(x,y)的强度,δ为dirac-delta函数,θ∈[0,π)为幅角;
满足:
3.如权利要求1所述的一种融合运动信息检测和Radon变换的KCF目标跟踪方法,其特征在于,所述第三步中采用光流法预测出目标运动的大致区域,采用帧间差分法确定前景区域,具体步骤为:
(3.1)根据图像上点(x,y)的光流迭代公式(3)求出光流(u,v,x,y),预测出前一帧图像中目标框的中心在下一帧的位置,即可预测出目标运动的大致区域;
式中,u(k+1)和v(k+1)分别是点(x,y)在水平和垂直方向上的运动分量,为局部平均,为t时点(x,y)处的灰度值I(x,y,t)相对于x,y,t的偏导,λ为权重系数;
(3.2)设相邻两帧图像的灰度函数差分为Dk(x,y)=|fk(x,y)-fk-1(x,y)|,这里,fk(x,y)表示第k帧图像的灰度函数,fk-1(x,y)为第k-1帧图像的灰度函数;定义Rk(x,y)具体表达式为:
式中,T0为给定的阈值;
Rk(x,y)为二值函数,当Rk(x,y)取0时,表示取0的区域为背景区域;当Rk(x,y)取1时,表示取1的区域可近似认为前景区域。
4.如权利要求1所述的一种融合运动信息检测和Radon变换的KCF目标跟踪方法,其特征在于,所述第五步中输入矩特征并训练KCF尺度滤波器,预测目标的尺度,具体步骤为:
(4.1)将提取到的k阶矩特征构成矩特征向量训练KCF滤波器;
(4.2)利用DSST尺度估计的尺度金字塔方法建立尺度池;
(4.3)对由位置滤波器预测出来的目标,通过尺度池获得不同尺度的目标窗口,经Radon变换后提取其检测特征样本,计算滤波器的相应输出,其最大响应值就是尺度估计的结果。
5.如权利要求1所述的一种融合运动信息检测和Radon变换的KCF目标跟踪方法,其特征在于,所述第七步中采用改进的模型更新策略进行模型更新,具体的模型更新公式为:
xnew=(1-μ(F))xold+μ(F)x′ (5)
式中,xold与xnew分别为前一帧和当前帧的训练基础样本,x′为前一帧图像中输出值最高的检测样本,μ(F)为自适应学习率,满足:
这里,定义M=Ef,表示滤波器扫描一帧图像得出的输出值f的数学期望,F为一帧图像的输出值f的峰值,μ0为调节参数。
CN202010375269.3A 2020-05-06 2020-05-06 一种融合运动信息检测和Radon变换的KCF目标跟踪方法 Active CN111563915B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010375269.3A CN111563915B (zh) 2020-05-06 2020-05-06 一种融合运动信息检测和Radon变换的KCF目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010375269.3A CN111563915B (zh) 2020-05-06 2020-05-06 一种融合运动信息检测和Radon变换的KCF目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111563915A CN111563915A (zh) 2020-08-21
CN111563915B true CN111563915B (zh) 2023-04-14

Family

ID=72070808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010375269.3A Active CN111563915B (zh) 2020-05-06 2020-05-06 一种融合运动信息检测和Radon变换的KCF目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111563915B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435280A (zh) * 2020-11-13 2021-03-02 桂林电子科技大学 一种无人机视频的运动目标检测与跟踪方法
CN112862854A (zh) * 2021-02-08 2021-05-28 桂林电子科技大学 一种改进kcf算法的多无人机跟踪方法
CN112966629B (zh) * 2021-03-18 2023-03-24 东华理工大学 基于图像变换和BoF模型的遥感图像场景分类方法
CN112926693A (zh) * 2021-04-12 2021-06-08 辽宁工程技术大学 针对快速运动和运动模糊的核化相关滤波算法
CN112991394B (zh) * 2021-04-16 2024-01-19 北京京航计算通讯研究所 基于三次样条插值和马尔科夫链的kcf目标跟踪方法
CN113177970B (zh) * 2021-04-29 2022-07-19 燕山大学 基于自适应特征融合的多尺度滤波目标跟踪方法
CN113362280B (zh) * 2021-05-14 2022-07-05 同济大学 一种基于医学造影的动态目标跟踪方法
CN113297982A (zh) * 2021-05-27 2021-08-24 南京航空航天大学 一种面向航拍改进kcf和dsst相结合的目标检测方法
CN113793361A (zh) * 2021-09-16 2021-12-14 南京航空航天大学 一种结合轻量级ssd的改进kcf目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108550161A (zh) * 2018-03-20 2018-09-18 南京邮电大学 一种尺度自适应核相关滤波快速目标跟踪方法
CN109146911A (zh) * 2018-07-23 2019-01-04 北京航空航天大学 一种目标跟踪的方法及装置
CN109685073A (zh) * 2018-12-28 2019-04-26 南京工程学院 一种基于核相关滤波的尺度自适应目标跟踪算法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628961B2 (en) * 2017-10-13 2020-04-21 Qualcomm Incorporated Object tracking for neural network systems
US10699126B2 (en) * 2018-01-09 2020-06-30 Qualcomm Incorporated Adaptive object detection and recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108550161A (zh) * 2018-03-20 2018-09-18 南京邮电大学 一种尺度自适应核相关滤波快速目标跟踪方法
CN109146911A (zh) * 2018-07-23 2019-01-04 北京航空航天大学 一种目标跟踪的方法及装置
CN109685073A (zh) * 2018-12-28 2019-04-26 南京工程学院 一种基于核相关滤波的尺度自适应目标跟踪算法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法

Also Published As

Publication number Publication date
CN111563915A (zh) 2020-08-21

Similar Documents

Publication Publication Date Title
CN111563915B (zh) 一种融合运动信息检测和Radon变换的KCF目标跟踪方法
Zheng et al. A novel background subtraction algorithm based on parallel vision and Bayesian GANs
Wang et al. Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching
CN106845478B (zh) 一种字符置信度的二次车牌识别方法及装置
CN108447078B (zh) 基于视觉显著性的干扰感知跟踪算法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
Yang et al. Fast vehicle logo detection in complex scenes
CN104484890B (zh) 基于复合稀疏模型的视频目标跟踪方法
CN107833239B (zh) 一种基于加权模型约束的寻优匹配目标跟踪方法
CN108021889A (zh) 一种基于姿态外形和运动信息的双通道红外行为识别方法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
Li et al. YOLOSR-IST: A deep learning method for small target detection in infrared remote sensing images based on super-resolution and YOLO
CN107844739B (zh) 基于自适应同时稀疏表示的鲁棒性目标追踪方法
CN115661622A (zh) 一种基于图像增强和改进YOLOv5的陨石坑检测方法
CN113344973A (zh) 一种基于时空正则化和特征可靠性评估的目标跟踪方法
CN114399533B (zh) 一种基于多层次注意力机制的单目标追踪方法
CN104778670A (zh) 一种基于多元统计模型的分形小波自适应图像去噪方法
CN116704273A (zh) 一种自适应红外可见光双模融合检测方法
CN110135435B (zh) 一种基于广度学习系统的显著性检测方法及装置
Xing et al. The Improved Framework for Traffic Sign Recognition Using Guided Image Filtering
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN107045726A (zh) 一种改良的基于时空上下文模型的目标跟踪方法
Li et al. Grain depot image dehazing via quadtree decomposition and convolutional neural networks
CN111462180B (zh) 基于与或图aog的目标跟踪方法
CN110097579B (zh) 基于路面纹理上下文信息的多尺度车辆跟踪方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant