CN107368802B - 基于kcf和人脑记忆机制的运动目标跟踪方法 - Google Patents

基于kcf和人脑记忆机制的运动目标跟踪方法 Download PDF

Info

Publication number
CN107368802B
CN107368802B CN201710574285.3A CN201710574285A CN107368802B CN 107368802 B CN107368802 B CN 107368802B CN 201710574285 A CN201710574285 A CN 201710574285A CN 107368802 B CN107368802 B CN 107368802B
Authority
CN
China
Prior art keywords
template
target
memory space
matching
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710574285.3A
Other languages
English (en)
Other versions
CN107368802A (zh
Inventor
宋勇
赵尚男
赵宇飞
李云
李旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201710574285.3A priority Critical patent/CN107368802B/zh
Publication of CN107368802A publication Critical patent/CN107368802A/zh
Application granted granted Critical
Publication of CN107368802B publication Critical patent/CN107368802B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2453Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nonlinear Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于KCF和人脑记忆机制的一种运动目标跟踪方法。将基于人脑记忆机制的视觉信息处理认知模型引入到KCF算法的目标模板更新过程,基于记忆的模板更新(Memory‑based Template Updating,MTU)的方法形成一种全新的模型更新策略,使得每个模板都要经过瞬时记忆、短时记忆和长时记忆三个空间的传输和处理。目标跟踪过程中,根据当前帧目标模板与记忆空间中目标模板的匹配程度按照不同的更新策略对目标模板进行更新。通过有效记忆先前出现的场景,使得该方法在当前目标发生姿态突变、短暂消失后重现以或发生遮挡等问题时依然能持续鲁棒的跟踪。

Description

基于KCF和人脑记忆机制的运动目标跟踪方法
技术领域
本发明涉及一种图像序列中运动目标的跟踪方法,具体涉及一种基于核相关滤波算法(KCF,Kernelized Correlation Filter)和人脑记忆机制的运动目标跟踪方法,属于计算机视觉技术领域。
背景技术
运动目标跟踪是计算机视觉领域的重要研究方向,广泛应用于智能安防、视觉监控、人机交互等领域。近年来,目标跟踪技术虽然取得了较大进展,但仍然难以实现光照变化、目标几何变形、目标遮挡、快速运动等复杂条件下的准确目标跟踪。
目前,基于判别的目标跟踪方法已成为主流,包括:基于核结构化输出(Structured output tracking with kernel,Struck)跟踪方法、跟踪-学习-检测(Tracking-Learning-Detection,TLD)跟踪方法、多样例学习(MultipleInstanceLearning,MIL)跟踪算法等。此类方法的基本思想为:通过已有的样本训练二值分类器,然后利用二值分类器对搜索区域进行分类,使分类器置信值最大的点即目标位置,从而区分目标和背景。基于判别的目标跟踪方法采用稀疏采样方式,即在目标周围采集若干个子窗口信息来训练分类器。然而,随着采样窗口的增加,计算量也随之增加,从而延长了计算时间,难以满足目标跟踪的实时性要求。
KCF算法(Henriques J F,Rui C,Martins P,et al.“High-Speed Tracking withKernelized Correlation Filters”.IEEE Transactions on Pattern Analysis&MachineIntelligence,2014,37(3):583-596)的出现在一定程度上解决了上述问题, Henriques等提出当训练样本为循环平移矩阵时,核岭回归算法等价于一种相关滤波器。同时,根据循环平移矩阵在傅里叶域可以对角化的特点,进一步提出一种快速核相关算子的计算公式,该算法不仅具有较高的运算效率,而且能够很好地处理非线性条件下的运动目标跟踪问题。
另一方面,KCF算法虽具有上优势,但也存在一定的局限性:一是无法应对目标完全遮挡问题;二是缺乏适应性较强的模型更新策略。因此,当运动目标出现姿态突变、目标短暂消失后重现以及目标遮挡等问题时,KCF算法的跟踪精度会明显下降,甚至跟踪失败。
发明内容
为了解决KCF算法在目标姿态突变、目标短暂消失后重现以及目标遮挡等条件下的准确跟踪问题,本发明在的基础上,利用人脑记忆机制模型对KCF算法进行了改进,提出一种基于KCF和人脑记忆机制的运动目标跟踪方法,旨在获得一种精度高、鲁棒性强的运动目标跟踪方法。
本发明是通过下述技术方案实现的。
本发明公开的一种基于KCF和人脑记忆机制的一种运动目标跟踪方法。将基于人脑记忆机制的视觉信息处理认知模型引入到KCF算法的目标模板更新过程,基于记忆的模板更新(Memory-based Template Updating,MTU)的方法形成一种全新的模型更新策略,使得每个模板都要经过瞬时记忆、短时记忆和长时记忆三个空间的传输和处理。目标跟踪过程中,根据当前帧目标模板与记忆空间中目标模板的匹配程度按照不同的更新策略对目标模板进行更新。若匹配成功,则同时更新记忆空间匹配模板参数和分类器参数,为下一帧目标的预测和跟踪做好准备;若匹配不成功,当前的目标模板若满足一定的条件即可存储到记忆空间中作为新的目标模板。通过有效记忆先前出现的场景,使得该方法在当前目标发生姿态突变、短暂消失后重现以或发生遮挡等问题时依然能持续鲁棒的跟踪。
本发明公开的一种基于KCF和人脑记忆机制的运动目标跟踪方法,包括如下步骤:
步骤1:初始化记忆空间和跟踪窗口。
初始化记忆空间,以用来保存目标匹配模板的特征qt、分类器的参数αt和分类器目标模板xt。输入视频第一帧,确定初始目标跟踪窗口(可手动框选目标或根据目标初始位置数据确定)。
步骤2:计算跟踪窗口的特征。
分别计算出当前跟踪窗口的梯度方向直方图(Histogram of OrientedGradients,HOG)特征和灰度直方图特征。
步骤3:分类器训练。
利用循环样本学习一个分类器f(x),通过最小化代数函数以求得w:
Figure BDA0001350516180000031
其中,λ是正则化参数,防止过拟合。
所述的f(x)为非线性分类器,首先将x映射到高维空间,设为
Figure BDA0001350516180000032
再在高维空间进行分类。由表示理论,解w可以由映射后的样本的线性组合表示
Figure BDA0001350516180000033
核函数κ表示x与x’映射到高维空间后的点积
Figure BDA0001350516180000034
给定单个测试样本z,分类器的响应为:
Figure BDA0001350516180000035
其中,α为分类器参数,α=[α01,…,αn-1]T,设K为核矩阵,Kij=κ(xi,xj),K为循环矩阵,
Figure BDA0001350516180000036
Figure BDA0001350516180000037
为K的第一行,这样将求ω转化为α。
步骤4:计算响应度。
利用非线性分类器进行检测,即样本通过核函数进行了映射,分类器响应如下所示:
Figure RE-GDA0001386578460000038
定义Kz矩阵:
Figure BDA0001350516180000039
此也为循环矩阵。f(z)=(Kz)Tα,其中f(z)=[f1,f2,…,fn]T
Figure BDA00013505161800000310
其中
Figure BDA00013505161800000311
为Kz的第一行。
步骤5:目标定位。
将公式(3)所得的
Figure BDA00013505161800000312
变换回时域,响应最大的值所对应的区域被认为是目标的检测位置。
步骤6:记忆空间与分类器更新。
步骤6.1瞬时记忆空间存储。
图像序列的输入为当前估计模板,将当前帧的目标估计模板即其灰度直方图特征存储在瞬时记忆空间中。
步骤6.2短时记忆空间匹配。
当前模板存储于短时记忆空间的第一个位置,将瞬时记忆空间存储的灰度直方图与短时记忆空间中的当前模板与其它模板进行匹配,计算出相似度,并根据相似度与匹配阈值的比较结果确定是否匹配成功。
若在短时记忆空间中匹配成功,则根据当前样本对目标模板进行更新,如下式所示:
qt=(1-ε)qt-1+εp (4)
其中,qt为当前模板,p是瞬时空间的估计模板,ε是更新速率。
如果短时记忆空间中不存在匹配分布,记短时空间中最后一个分布为DK,同时进入长时记忆空间中进行匹配。
步骤6.3长时记忆空间匹配。
将瞬时记忆空间存储的灰度直方图和长时记忆空间中的模板进行匹配,计算出相似度,并根据相似度与匹配阈值的比较结果确定是否匹配成功。
若在长时记忆空间中匹配成功,记忆的同时提取匹配的样本取代DK,同时,根据公式(4)对目标模板进行更新。
如果长时记忆空间中也不存在匹配分布,将估计模板存储在短时记忆空间的第一个位置作为当前模板,记忆行为之后,DK会被当前样本的特征取代。记忆行为可以使短时没有匹配的可记忆分布作为先验知识存储到长时记忆空间;而提取行为可以激活先验知识。在它们的共同作用下,样本模型能够快速地适应场景的变化。
此外,当记忆空间匹配模板参数qt进行更新时,分类器参数αt和分类器目标模板xt也同时进行更新,xt和αt的更新过程为:
Figure BDA0001350516180000041
其中,β为更新系数,αt与αt-1分别为当前帧与上一帧的分类器更新系数; xt与xt-1分别为当前帧与上一帧的分类器目标更新模板。
有益效果:
1、鲁棒性强。本发明公开的一种基于KCF和人脑记忆机制的一种运动目标跟踪方法,将基于人脑记忆机制模型引入到KCF算法的目标模板更新过程,使得算法在跟踪时记忆先前出现的场景,从而在当前目标发生姿态突变、短暂消失后重现以或发生遮挡等问题时依然能持续稳定的跟踪,有效提高了算法的鲁棒性。
2、抗遮挡能力强。本发明公开的一种基于KCF和人脑记忆机制的一种运动目标跟踪方法,结合人脑记忆机制模型形成了一种全新的模型更新策略。当目标发生遮挡时,该方法通过记忆、提取遮挡前和遮挡后的目标模板防止目标跟踪失败,可有效对抗目标跟踪时目标发生遮挡或短暂消失等问题。
3、跟踪速度快。本发明公开的一种基于KCF和人脑记忆机制的一种运动目标跟踪方法,由于KCF算法通过循环偏移构建出了分类器的训练样本,使得数据矩阵变成了一个循环矩阵。并且,基于循环矩阵的特性把问题的求解变换到了傅里叶变换域,避免了矩阵求逆的过程,从而大大降低了算法的复杂度。另一方面,记忆机制的引入仅仅增加了目标模板的更新过程的复杂度,对于方法速度的影响并不显著,从而该方法可实现对目标的快速跟踪。
附图说明
图1本发明的基于KCF和人脑记忆机制的跟踪方法流程图;
图2本发明方法中记忆空间与分类器更新的具体过程;
图3本发明方法与常规KCF方法的跟踪结果;
图4本发明方法与常规KCF方法的跟踪精度曲线。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合附图和实例对发明内容做进一步说明。
实施例1:
本实施例公开的一种基于KCF和人脑记忆机制的目标跟踪方法,其整体过程如附图1所示,具体包括如下步骤:
步骤1:初始化记忆空间和跟踪窗口。
初始化记忆空间,首先,建立3个记忆空间分别保存目标匹配模板的特征 qt、分类器的参数αt和分类器目标模板xt,并且每个记忆空间分别包括短时记忆空间和长时记忆空间。而后,建立1个瞬时空间以用来保存当前帧目标数据即估计模板。
输入视频第一帧,确定初始目标跟踪窗口,确定初始目标可手动框选或根据目标初始位置数据确定。
步骤2:计算跟踪窗口的特征。
计算出当前帧跟踪窗口的HOG特征,首先将图像分成小的细胞单元,然后采集细胞单元中各像素点的梯度的或边缘的方向直方图,最后把这些直方图组合起来即可构成HOG特征描述器。
同时计算出前帧跟踪窗口的灰度直方图特征,灰度直方图特征用于计算估计模板与记忆空间中目标模板的匹配程度(相似度系数)。
步骤3:分类器训练。
利用循环样本学习一个分类器f(x),通过最小化代数函数以求得w:
Figure BDA0001350516180000061
其中,λ是正则化参数,防止过拟合。
所述的f(x)为非线性分类器,首先将x映射到高维空间,设为
Figure BDA0001350516180000062
再在高维空间进行分类。由表示理论,解w可以由映射后的样本的线性组合表示
Figure BDA0001350516180000063
核函数κ表示x与x’映射到高维空间后的点积
Figure BDA0001350516180000064
给定单个测试样本z,分类器的响应为:
Figure BDA0001350516180000065
其中α=[α01,…,αn-1]T,设K为核矩阵,Kij=κ(xi,xj),K为循环矩阵,
Figure BDA0001350516180000066
Figure BDA0001350516180000067
为K的第一行,这样将求ω转化为α。
随着视频序列的输入,所述的分类器参数αt和分类器目标模板xt需要不断更新。
步骤4:计算响应度。
利用非线性分类器进行检测,即样本通过核函数进行了映射,分类器响应如下所示:
Figure RE-GDA0001386578460000068
定义Kz矩阵:
Figure BDA0001350516180000069
此也为循环矩阵。f(z)=(Kz)Tα,其中f(z)=[f1,f2,…,fn]T
Figure BDA00013505161800000610
其中
Figure BDA00013505161800000611
为Kz的第一行。
步骤5:目标定位。
将公式(8)所得的
Figure BDA00013505161800000612
变换回时域,响应最大的值所对应的区域被认为是目标的检测位置。
步骤6:记忆空间与分类器更新。
本实施例公开的步骤6中的记忆空间与分类器更新过程如附图2所示,具体包括如下步骤:
步骤6.1瞬时记忆空间存储。
视频的输入为当前估计模板,将当前帧的目标估计模板即其灰度直方图特征存储在瞬时记忆空间中。
步骤6.2短时记忆空间匹配。
当前模板存储与短时记忆空间的第一个位置,将瞬时记忆空间存储的灰度直方图与短时记忆空间中的当前模板进行匹配,计算出相似度ρ,预定义当前模板的匹配阈值为Tdc,若ρ>Tdc,则匹配成功;若ρ<Tdc,则匹配失败。
而后,将瞬时记忆空间存储的灰度直方图与短时记忆空间中的其他模板进行匹配,预定义短时记忆空间的匹配阈值为Tds,若ρ>Tds,则匹配成功,而后根据当前样本对目标模板进行更新,如下式所示:
qt=(1-ε)qt-1+εp (9)
其中,qt为当前模板,p是瞬时空间的估计模板,ε是更新速率,取值为0.1。
如果短时记忆空间中不存在匹配分布,记短时空间中最后一个分布为DK,同时进入长时记忆空间中进行匹配。
步骤6.3长时记忆空间匹配。
将瞬时记忆空间存储的灰度直方图和长时记忆空间中的模板进行匹配,计算出相似度ρ,预定义长时记忆空间的匹配阈值为Tdl,若ρ>Tdl,则匹配成功,记忆的同时提取匹配的样本取代DK,同时,根据公式(4)对目标模板进行更新;若ρ<Tdl,则匹配失败,将估计模板存储在短时记忆空间的第一个位置作为当前模板,记忆行为之后,DK会被当前样本的特征取代。
此外,当记忆空间匹配模板参数qt进行更新时,分类器参数αt和分类器目标模板xt也同时进行更新,xt和αt的更新过程为:
Figure BDA0001350516180000071
其中,β为更新系数(取值为0.02),αt与αt-1分别为当前帧与上一帧的分类器更新系数;xt与xt-1分别为当前帧与上一帧的分类器更新模板。
本实施例中,步骤1所述的短时记忆空间和长时记忆空间均设置为3个并列的空间分别用来存储目标匹配模板的特征qt、分类器的参数αt和分类器目标模板xt,同时,每个空间的大小设置为5。
本实施例中,步骤6所述的Tdc,Tds,Tdl分别是预定义的当前模板的匹配阈值、短时记忆空间的匹配阈值和长时记忆空间的匹配阈值,其值越大,说明估计模板在短时记忆空间或长时记忆空间寻找到匹配的难度越高,Tdc,Tds,Tdl分别取值为0.9、0.85和0.8。
本发明的仿真效果可以通过下述仿真实验说明:
1.仿真条件:
本发明在Intel(R)Pentium(R)CPU 2.7GHz,4.00G的PC机上,使用MATLAB 2012b平台,对Visual Tracker Benchmark视频测试集中的视频序列 (http:// cvlab.hanyang.ac.kr/tracker_benchmark/datasets.html)完成仿真。
2.仿真结果:
图3(a)是对目标存在明显遮挡的视频序列跟踪结果图,分别是第415、 433、451和469帧,图中的矩形方框表示常规方法和本发明方法跟踪到的结果。从图3(a)可以看出,在运动目标存在明显遮挡后又重新出现的过程中,本发明可以对目标进行准确跟踪。图3(b)是对目标存在姿态突变的视频序列跟踪结果图,分别是第70、140、170和200帧,从图3(b)可以看出,在运动目标发生姿态变换的过程中,本发明所提出的方法可以对目标进行准确跟踪。
图4是本发明方法与常规KCF算法跟踪精度曲线对比图。跟踪精度曲线的横坐标是指仿真跟踪结果的目标中心和groundtruth中标注的真实中心的欧氏距离,纵坐标是指该欧式距离小于某一阈值的帧数占整个测试视频序列长度的比例。经评估统计,对于图4(a)和(b)的序列,本发明方法在距离阈值为20 像素处的精确性上比常规KCF算法分别提高了14%和60%,同时分别以每秒123 帧和197帧的处理速度实现对目标的快速跟踪。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于KCF和人脑记忆机制的运动目标跟踪方法,其特征在于:
步骤1:初始化记忆空间和跟踪窗口
初始化记忆空间,以用来保存目标匹配模板的特征qt、分类器的参数αt和分类器目标模板xt,输入视频第一帧,确定初始目标跟踪窗口,可手动框选目标或根据目标初始位置数据确定;
步骤2:计算跟踪窗口的特征
分别计算出当前跟踪窗口的梯度方向直方图(Histogram of Oriented Gradients,HOG)特征和灰度直方图特征;
步骤3:分类器训练
利用循环样本学习一个分类器w,w为非线性分类器,分类器的响应为:
Figure FDA0002927464450000011
其中α为分类器参数,α=[α01,…,αn-1]T,K为核矩阵,Kij=κ(xi,xj),K为循环矩阵,
Figure FDA0002927464450000012
Figure FDA0002927464450000013
为K的第一行;
步骤4:计算响应度
利用非线性分类器进行检测,即样本通过核函数进行了映射,分类器响应如下所示:
Figure FDA0002927464450000014
定义Kz矩阵:
Figure FDA0002927464450000015
此为循环矩阵,f(z)=(Kz)Tα,其中f(z)=[f1,f2,…,fn]T
Figure FDA0002927464450000016
其中
Figure FDA0002927464450000017
为Kz的第一行;
步骤5:目标定位
将公式(2)所得的
Figure FDA0002927464450000018
变换回时域,响应最大的值所对应的区域被认为是目标的检测位置;
步骤6:记忆空间与分类器更新
初始化记忆空间后,输入的每个目标模板都要经过瞬时记忆、短时记忆和长时记忆三个空间的传输和处理;目标跟踪过程中,根据当前帧目标模板与记忆空间中目标模板的匹配程度按照不同的更新策略对目标模板进行更新;若匹配成功,则同时更新匹配模板参数和分类器参数,为下一帧目标的预测和跟踪做好准备,若匹配不成功,若当前的目标模板满足一定的条件即可存储到记忆空间中作为新的目标模板;
其中,步骤6所述的记忆空间与分类器更新过程具体包括如下步骤:
步骤6.1瞬时记忆空间存储
视频的输入为当前帧图像,将当前帧图像中的目标估计模板即其灰度直方图特征存储在瞬时记忆空间中;
步骤6.2短时记忆空间匹配
当前模板存储于短时记忆空间的第一个位置,将瞬时记忆空间存储的灰度直方图与短时记忆空间中的当前模板进行匹配,计算出相似度ρ,预定义当前模板的匹配阈值为Tdc,若ρ>Tdc,则匹配成功,若ρ<Tdc,则匹配失败;
而后,将瞬时记忆空间存储的灰度直方图与短时记忆空间中的其他模板进行匹配,预定义短时记忆空间的匹配阈值为Tds,若ρ>Tds,则匹配成功,而后根据当前模板对目标模板进行更新,如下式所示:
qt=(1-ε)qt-1+εp (3)
其中,qt为当前模板,p是瞬时空间的估计模板,ε是更新速率;
如果短时记忆空间中不存在匹配模板,记短时空间中最后一个模板为DK,同时进入长时记忆空间中进行匹配;
步骤6.3长时记忆空间匹配
将瞬时记忆空间存储的灰度直方图和长时记忆空间中的模板进行匹配,计算出相似度ρ,预定义长时记忆空间的匹配阈值为Tdl,若ρ>Tdl,则匹配成功,记忆的同时提取匹配的模板取代DK,同时,根据公式(3)对目标模板进行更新,若ρ<Tdl,则匹配失败,将估计模板存储在短时记忆空间的第一个位置作为当前模板,记忆行为之后,DK会被当前模板的特征取代;
另外,当记忆空间匹配模板参数qt进行更新时,分类器参数αt和分类器目标模板xt也同时进行更新,xt和αt的更新过程为:
Figure FDA0002927464450000021
其中,β为更新系数,αt与αt-1分别为当前帧与上一帧的分类器系数;xt与xt-1分别为当前帧与上一帧的分类器目标模板;
步骤6所述的记忆空间包括瞬时记忆空间、短时记忆空间和长时记忆空间,其中,瞬时记忆空间用来存储当前帧的目标估计模板,短时记忆空间和长时记忆空间均设置为3个并列的空间,分别来存储目标匹配模板的特征qt、分类器参数αt和分类器目标模板xt,同时,每个空间的大小设置为5。
2.如权利要求1所述的一种基于KCF和人脑记忆机制的运动目标跟踪方法,其特征在于:
步骤6所述的Tdc,Tds,Tdl分别是预定义的当前模板的匹配阈值、短时记忆空间的匹配阈值和长时记忆空间的匹配阈值,其值越大,说明估计模板在短时记忆空间或长时记忆空间寻找到匹配的难度越高,Tdc,Tds,Tdl分别取值为0.9、0.85和0.8。
CN201710574285.3A 2017-07-14 2017-07-14 基于kcf和人脑记忆机制的运动目标跟踪方法 Active CN107368802B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710574285.3A CN107368802B (zh) 2017-07-14 2017-07-14 基于kcf和人脑记忆机制的运动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710574285.3A CN107368802B (zh) 2017-07-14 2017-07-14 基于kcf和人脑记忆机制的运动目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107368802A CN107368802A (zh) 2017-11-21
CN107368802B true CN107368802B (zh) 2021-06-01

Family

ID=60308449

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710574285.3A Active CN107368802B (zh) 2017-07-14 2017-07-14 基于kcf和人脑记忆机制的运动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107368802B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108492318B (zh) * 2018-03-01 2022-04-26 西北工业大学 一种基于仿生技术的目标跟踪的方法
CN111223050A (zh) * 2018-11-27 2020-06-02 南京邮电大学 一种实时图像边缘检测算法
CN110276383B (zh) * 2019-05-31 2021-05-14 北京理工大学 一种基于多通道记忆模型的核相关滤波目标定位方法
CN112150511A (zh) * 2020-11-02 2020-12-29 电子科技大学 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408592A (zh) * 2016-09-09 2017-02-15 南京航空航天大学 一种基于目标模板更新的目标跟踪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582895B2 (en) * 2015-05-22 2017-02-28 International Business Machines Corporation Real-time object analysis with occlusion handling
CN105844665B (zh) * 2016-03-21 2018-11-27 清华大学 视频对象追踪方法及装置
CN106204638B (zh) * 2016-06-29 2019-04-19 西安电子科技大学 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408592A (zh) * 2016-09-09 2017-02-15 南京航空航天大学 一种基于目标模板更新的目标跟踪方法

Also Published As

Publication number Publication date
CN107368802A (zh) 2017-11-21

Similar Documents

Publication Publication Date Title
CN113012203B (zh) 一种复杂背景下高精度多目标跟踪方法
CN107358623B (zh) 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪方法
CN107368802B (zh) 基于kcf和人脑记忆机制的运动目标跟踪方法
CN107423702B (zh) 基于tld跟踪系统的视频目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN109934849B (zh) 基于轨迹度量学习的在线多目标跟踪方法
CN112085765A (zh) 结合粒子滤波及度量学习的视频目标跟踪方法
CN107657627B (zh) 基于人脑记忆机制的时空上下文目标跟踪方法
CN111524164A (zh) 一种目标跟踪方法、装置及电子设备
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN111223126B (zh) 一种基于迁移学习的跨视角轨迹模型构建方法
CN113158904A (zh) 一种基于双掩膜模板更新的孪生网络目标跟踪方法及装置
CN110751670A (zh) 一种基于融合的目标跟踪方法
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN113706580B (zh) 一种基于相关滤波跟踪器的目标跟踪方法、系统、设备及介质
CN110751673B (zh) 一种基于集成学习的目标跟踪方法
Chen et al. Low-rank representation with contextual regularization for moving object detection in big surveillance video data
CN110751671A (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN114743257A (zh) 图像目标行为的检测识别方法
Huang et al. An anti-occlusion and scale adaptive kernel correlation filter for visual object tracking
Bai et al. Research on Object Tracking Algorithm Based on KCF
CN110660079A (zh) 一种基于时空上下文的单目标跟踪方法
Chen et al. Target tracking algorithm based on kernel correlation filter with anti-occlusion mechanisms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant