CN106570486A - 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 - Google Patents

基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN106570486A
CN106570486A CN201610987111.5A CN201610987111A CN106570486A CN 106570486 A CN106570486 A CN 106570486A CN 201610987111 A CN201610987111 A CN 201610987111A CN 106570486 A CN106570486 A CN 106570486A
Authority
CN
China
Prior art keywords
target
model
tracking
region
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610987111.5A
Other languages
English (en)
Other versions
CN106570486B (zh
Inventor
康文雄
施睿
吴桂乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201610987111.5A priority Critical patent/CN106570486B/zh
Publication of CN106570486A publication Critical patent/CN106570486A/zh
Application granted granted Critical
Publication of CN106570486B publication Critical patent/CN106570486B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Abstract

本发明提供了一种基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:首先,给定初始帧目标的位置及尺度信息;然后,建立或更新标准目标外观模型、标准相关滤波器及标准颜色贝叶斯模型;之后,基于前一帧的目标中心点,提取搜索区域;利用高斯核的相关滤波器实现目标位移估计,利用颜色贝叶斯模型实现目标尺度估计,进而得到当前帧的跟踪结果。通过依次对各帧视频图像进行处理,实现对视频中运动目标的跟踪。该目标跟踪方法不仅可以有效解决视频中运动目标的精确定位问题,而且能够实现目标尺度估计。在多种具有挑战性的环境中,依然能够有效的对目标进行跟踪,具有一定的鲁棒性,提高了跟踪算法的精度。

Description

基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
技术领域
本发明涉及目标跟踪技术领域,更具体地说,涉及一种基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法。
背景技术
目标跟踪算法是目前计算机视觉领域的热门研究方向,其主要任务是在给定的视频序列中,对感兴趣的目标进行在线持续的跟踪,从而获得目标在每帧图像中的位置等信息。近年来,目标跟踪技术被广泛应用于视频监控、人机交互、视频内容分析等多个领域。虽然到目前为止,研究人员已经提出了很多解决思路。但是,由于需要考虑目标在运动过程中的各种干扰因素,比如:自身形变、光照变化、背景嘈杂、遮挡等,实现一个稳定而鲁棒的跟踪算法仍然是一项具有相当大的挑战性的工作。
近年来,核相关滤波器被成功应用到目标跟踪的领域中。很多基于该原理的跟踪算法都在标准测试集上取得了良好的跟踪效果。这种技术的共同思路是:
(1)初始化训练阶段,提取待跟踪的目标区域,并给其分配连续的高斯分布形式的标签,然后提取该区域特征,并通过核映射及傅里叶变换,获取目标外观模型,通过求解岭回归问题,训练得到一个相关滤波器模型;
(2)跟踪阶段,首先获得搜索区域,并对该区域进行特征提取。然后基于核映射和傅里叶变换,计算外观模型。最后,将训练好的相关滤波器与外观模型进行相关运算,并把输出响应峰值的位置作为目标的跟踪与定位结果;
(3)更新阶段,逐帧对外观模型和相关滤波器进行更新。
这类方法即考虑了目标及其邻域的信息,并且能够利用傅里叶变换,将矩阵运算转化为频域的元素对操作,从而既保证了算法的性能,同时极大的降低了计算量。
然而,基于相关滤波的方法存在两个不足;第一,该类算法采用的特征较为简单,对目标外观的描述往往不够充分;当目标外观受到干扰时,单一的特征容易发生改变,从而导致了算法整体性能的降低;第二,很多基于相关滤波器的跟踪算法固定目标的大小,因此不能够处理目标尺度变化的问题;实际上,目标由于运动,或者与镜头的距离改变,都会导致目标尺度的变化,采用固定尺度的算法显然不利于目标的精确估计。
发明内容
本发明的目的在于克服现有技术中的缺点与不足,提供一种基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法;该目标跟踪方法不仅可以有效解决视频中运动目标的精确定位问题,而且能够实现目标尺度估计。在多种具有挑战性的环境中,依然能够有效的对目标进行跟踪,具有一定的鲁棒性,提高了跟踪方法的精度。
为了达到上述目的,本发明通过下述技术方案予以实现:一种基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:包括以下步骤:
第1步,设定t=1,捕获第一帧视频图像,选择待跟踪目标的矩形区域,得到目标中心位置和目标尺度;
第2步,以第t帧视频图像的目标中心位置为中心,提取两倍于目标尺度的子窗口;对子窗口图像建立目标外观模型x;训练相关滤波器A和颜色贝叶斯模型Rb
第3步,判断t值大小:若t=1,则将目标外观模型x作为标准外观模型训练相关滤波器A作为标准相关滤波器颜色贝叶斯模型Rb作为标准颜色贝叶斯模型若t>1,则更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型
第4步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值;
第5步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度;
第6步,判断第t帧视频图像是否为视频最后一帧图像:若是则结束跟踪,否则跳至第2步。
优选地,在第2步中,所述对子窗口图像建立目标外观模型x,是指包括如下步骤:
第2.1步,将子窗口图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
第2.2步,将子窗口图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
第2.3步,对子窗口图像进行灰度化处理,得到一维灰度属性信息;
第2.4步,将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型x,x=[x1,x2,...,xc],c=34。
优选地,在第2步中,所述训练相关滤波器A是指,包括如下步骤:
第2.5步,设定子窗口图像中的样本xm,n,(m,n)∈{0,...,M-1}×{0,...N-1},M和N分别为子窗口图像的横向尺寸和纵向尺寸;
第2.6步,对子窗口图像中的样本分配连续的、以目标中心位置为中心的高斯分布形式的标签y(m,n);
第2.7步,对子窗口图像的外观模型x自身进行核空间映射:
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,F是指傅里叶变换;
采用岭回归方式进行训练,对核空间映射和标签进行傅里叶变换,得出相关滤波器模型A:
其中,λ为正则项系数。
优选地,在第2步中,训练颜色贝叶斯模型Rb是指,包括如下步骤:
第2.8步,将跟踪目标划分跟踪目标区域O,其余子窗口图像区域划分为目标邻域S;
第2.9步,基于原始的三维RGB格式子窗口图像,分别计算跟踪目标区域O和目标邻域S的十六维统计直方图,得到16*16*16的统计直方图H(O)和H(S);
第2.10步,利用贝叶斯准则,计算用于表征各个像素属于目标的概率置信情况的概率模型,即得到颜色贝叶斯模型:
其中,i是指各个像素位置。
优选地,在第3步中,所述更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型是指,
设置学习因子ρ,更新标准外观模型和标准相关滤波器
设置学习因子β,根据判断条件,更新标准颜色贝叶斯模型
其中,τ为PSR阈值。
优选地,在第4步中,所述t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值,是指包括如下步骤:
第4.1步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;
第4.2步,将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,F是指傅里叶变换;
第4.3步,将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到搜索区域中各个像素点的输出响应
第4.4步,找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;
第4.5步,根据所有像素点输出响应,计算PSR值:
其中,μy和σy分别是输出响应的均值和标准差。
优选地,在第4.1步中,对搜索区域图像建立目标外观模型z是指,
将搜索区域图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
将搜索区域图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
对搜索区域图像进行灰度化处理,得到一维灰度属性信息;
将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型z,z=[z1,z2,...,zc],c=34。
优选地,在第5步中,所述利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度,是指包括如下步骤:
第5.1步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;
第5.2步,建立空间先验分布模型:
其中,cx表示搜索区域内每个位置,c0表示第t-1帧视频图像的目标中心位置,σ0表示先验分布的参数;
将先验分布模型分别与各个像素点的置信图相乘以对各个像素点的置信图进行约束处理;
第5.3步,采用自适应阈值分割法进行分割处理;然后进行形态学处理的闭操作和开操作,以填充分割导致的孔洞并排除孤立噪点;之后进行最大连通域分析得到尺寸为color_seg_sz的分割矩形;
第5.4步,利用平滑性约束方程得到第t帧视频图像的目标尺度:
target_sz=(1-γ)·target_szt-1+γ·color_seg_szt
其中,γ表示尺度更新参数。
与现有技术相比,本发明具有如下优点与有益效果:
1、本发明目标跟踪方法采用具有互补性质的多属性融合特征来建立目标外观模型,充分表征目标特征,降低了干扰对算法性能的影响;
2、本发明目标跟踪方法将提出的融合特征应用于高斯核相关滤波器中,以得到更为精确的目标中心位置估计;
3、本发明目标跟踪方法利用颜色贝叶斯模型与空间分析,估计目标尺度的变化,从而解决了相关滤波器无法估计目标尺寸大小的局限性;
4、本发明目标跟踪方法针对贝叶斯模型容易受到背景等噪声干扰的缺点,采用置信概率检测的策略对其进行自适应的更新。
附图说明
图1是本发明目标跟踪方法的流程图;
图2是本发明目标跟踪方法基于多属性融合特征建立外观模型的示意图;
图3是本发明目标跟踪方法第5步目标尺度估计的流程与效果示意图;
图4是本发明目标跟踪方法与其他方法在测试集上的性能比较图;
图5是本发明目标跟踪方法的实际效果示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例
本实施基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其流程如图1所示;包括以下步骤:
第1步,设定t=1,捕获第一帧视频图像,选择待跟踪目标的矩形区域,得到目标中心位置和目标尺度;
第2步,以第t帧视频图像的目标中心位置为中心,提取两倍于目标尺度的子窗口;对子窗口图像建立目标外观模型x;训练相关滤波器A和颜色贝叶斯模型Rb
第3步,判断t值大小:若t=1,则将目标外观模型x作为标准外观模型训练相关滤波器A作为标准相关滤波器颜色贝叶斯模型Rb作为标准颜色贝叶斯模型若t>1,则更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型
第4步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值;
第5步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度;
第6步,判断第t帧视频图像是否为视频最后一帧图像:若是则结束跟踪,否则跳至第2步。
优选地,在第2步中,所述对子窗口图像建立目标外观模型x,是指包括如下步骤,如图2所示:
第2.1步,将子窗口图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
第2.2步,将子窗口图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
第2.3步,对子窗口图像进行灰度化处理,得到一维灰度属性信息;
第2.4步,将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型x,x=[x1,x2,...,xc],c=34。
考虑到单一属性的特征容易随着目标变化而发生改变,因此,本发明跟踪方法提出一种互补的多属性融合特征,能够从多个方面对目标进行描述,从而具有更强的稳定性。梯度属性信息能够反映目标的空间结构信息,因此对于目标的描述与表达效果显著。
颜色属性信息反映了目标本身的固有信息,具有很强的判别能力。CN(colorname)空间格式图像把传统的RGB格式图像转化到日常语言中定义的颜色属性空间,从而更贴近于现实生活中的人类的视觉感知系统。一般来说,在英语中,人们定义了十一种基本的颜色属性,分别是:黑、蓝、棕、灰、绿、橙、粉、紫、红、白以及黄。本发明采用了这种颜色表达形式,对目标的颜色信息进行特征提取。值得注意的是,并非所有的颜色属性都有助于区分目标。现实中,人们总能够通过目标的某种较为醒目的颜色属性来区分目标。基于这个观点,本发明采用主成分分析法,提取这十一维颜色属性中较为关键的二维属性,作为目标的颜色表达。
在第2步中,所述训练相关滤波器A是指,包括如下步骤:
第2.5步,设定子窗口图像中的样本xm,n,(m,n)∈{0,...,M-1}×{0,...N-1},M和N分别为子窗口图像的横向尺寸和纵向尺寸;
第2.6步,对子窗口图像中的样本分配连续的、以目标中心位置为中心的高斯分布形式的标签y(m,n);
第2.7步,对子窗口图像的外观模型x自身进行核空间映射:
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,由用户设定,F是指傅里叶变换;
采用岭回归方式进行训练,对核空间映射和标签进行傅里叶变换,得出相关滤波器模型A:
其中,λ为正则项系数,由用户设定。
利用傅里叶变换,两个多属性融合特征向量作内积,可以容易地转化为先对每一维中的矩阵对应位置元素对之间进行运算,然后再将所有维的结果进行累加。通过这种转化方式,避免了直接求解面临的矩阵求逆等大量耗时运算,转而使用元素对之间的运算,极大的降低了计算量,也使得本发明提出的高维融合特征能够成功应用于实际跟踪算法。
在第2步中,训练颜色贝叶斯模型Rb是指,包括如下步骤:
第2.8步,将跟踪目标划分跟踪目标区域O,其余子窗口图像区域划分为目标邻域S;
第2.9步,基于原始的三维RGB格式子窗口图像,分别计算跟踪目标区域O和目标邻域S的十六维统计直方图,得到16*16*16的统计直方图H(O)和H(S);
第2.10步,利用贝叶斯准则,计算用于表征各个像素属于目标的概率置信情况的概率模型,即得到颜色贝叶斯模型:
其中,i是指各个像素位置。
为了得到概率模型,首先将跟踪目标区域O和目标邻域S分别投影至十六维统计直方图;对于其他位置,由于目标出现的概率很小,因此将这些位置的概率设置为固定值。
在第3步中,所述更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型是指,
设置学习因子ρ,更新标准外观模型和标准相关滤波器
设置学习因子β,根据判断条件,更新标准颜色贝叶斯模型
其中,τ为PSR阈值,由用户设定。
在跟踪过程中,及时更新标准颜色贝叶斯模型以适应目标外观变化是比较关键的环节。在位移估计时,为了保证空间与时间的连续性,主要采用了逐帧更新的策略。但是,在尺度估计中,由于采用了颜色信息,这样的更新策略可能会引入误差,并且由于误差会不断累积,从而造成潜在的跟踪失败。因此,除非跟踪结果是可靠的,否则不应该更新标准颜色贝叶斯模型。为了解决这个问题,本发明采用PSR(Peak-to-Side lobe Ratio)作为置信度度量,用于衡量跟踪结果是否可靠。PSR表征了滤波输出响应峰值的锐利程度,PSR值越大,说明基于相关滤波器得到的位置越可靠,也即跟踪结果能够用于颜色模型的更新。通过与预设的阈值比较,如果PSR超过设定阈值τ,则对标准颜色贝叶斯模型进行更新,否则不更新。
在第4步中,所述t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值,是指包括如下步骤:
第4.1步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;
第4.2步,将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,由用户设定,F是指傅里叶变换;
第4.3步,将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到搜索区域中各个像素点的输出响应
第4.4步,找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;
第4.5步,根据所有像素点输出响应,计算PSR值:
其中,μy和σy分别是输出响应的均值和标准差。
优选地,在第4.1步中,对搜索区域图像建立目标外观模型z是指,
将搜索区域图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
将搜索区域图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
对搜索区域图像进行灰度化处理,得到一维灰度属性信息;
将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型z,z=[z1,z2,...,zc],c=34。
在第5步中,所述利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度,是指包括如下步骤,如图3所示:
第5.1步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;
第5.2步,建立空间先验分布模型:
其中,cx表示搜索区域内每个位置,c0表示第t-1帧视频图像的目标中心位置,σ0表示先验分布的参数;
将先验分布模型分别与各个像素点的置信图相乘以对各个像素点的置信图进行约束处理;
第5.3步,采用自适应阈值分割法进行分割处理;然后进行形态学处理的闭操作和开操作,以填充分割导致的孔洞并排除孤立噪点;之后进行最大连通域分析得到尺寸为color_seg_sz的分割矩形;
第5.4步,利用平滑性约束方程得到第t帧视频图像的目标尺度:
target_sz=(1-γ)·target_szt-1+γ·color_seg_szt
其中,γ表示尺度更新参数,由用户设定,其取值范围为0~1。该值接近1时,表征最终的尺度估计更依赖于当前帧的分割结果。反之,依赖前一帧的历史结果。
颜色贝叶斯模型统计了某个像素出现在跟踪目标区域的次数占出现在整个搜索区域内次数的比例,也即某个像素属于跟踪目标区域的概率。颜色贝叶斯模型可以视为一个概率查询表。当处理新的搜索区域时,对于每个像素点,通过查询概率查询表,则可以容易的得到整个搜索区域内像素的概率分布。
随着目标的运动,颜色模型容易漂移到目标邻域内的其他相似目标上,从而造成跟踪失败。而本发明中这种风险显著降低。最关键的因素是本发明对目标的精确定位主要取决于目标中心位置估计环节,颜色模型仅用于目标尺度分析。
为了进一步降低风险,本发明还利用了空间先验分布模型进一步约束颜色贝叶斯模型。利用概率决策和空间先验分布,能够获得置信图,该置信图反映了每个像素属于目标的确信概率。为了估计目标尺度,需要对置信图进行空间分析。首先,对置信图进行自适应阈值分割,然后利用闭操作来填充分割导致的孔洞,开操作排除孤立的噪点;最后,通过最大连通域分析,得到一个分割矩形,该矩形用color_seg_sz来表征。
显然,这种单纯依赖形态学分割的方法会导致目标尺度估计不稳定。举例来说,相邻两帧的估计结果在尺寸和纵横比上可能会表现非常大的差异性。对于跟踪问题而言,相邻两帧中的目标明显在空间和时间上都应该具有很强的平滑性关系。这种平滑性反映在不管是目标位置还是尺度变化上面。考虑到这种约束性,本发明充分利用两帧之间的强关联性,得到最终的目标尺度估计。
本发明具有如下优点与有益效果:
1、本发明目标跟踪方法采用具有互补性质的多属性融合特征来建立目标外观模型,充分表征目标特征,降低了干扰对算法性能的影响;
2、本发明目标跟踪方法将提出的融合特征应用于高斯核相关滤波器中,以得到更为精确的目标中心位置估计;
3、本发明目标跟踪方法利用颜色贝叶斯模型与空间分析,估计目标尺度的变化,从而解决了相关滤波器无法估计目标尺寸大小的局限性;
4、本发明目标跟踪方法针对贝叶斯模型容易受到背景等噪声干扰的缺点,采用置信概率检测的策略对其进行自适应的更新。
下面对本发明跟踪方法进行试验。从OTB2013测试集中选择了25个具有挑战性的视频序列进行性能测试。这组测试序列包含了多种测试属性,比如:光照变化、尺度变化、目标遮挡、目标形变、运动模糊等。为了保证实验的公平性和准确性,整个测试过程遵循跟踪领域中公开的测试评价方法。对于性能评估,绘制了精度曲线和成功率曲线,如图4所示,其中:
(1)精度曲线:计算跟踪结果与真值的位置误差(以像素为单位),统计不同误差阈值时成功跟踪的帧数占视频序列总帧数的比例。
(2)成功率曲线:计算跟踪结果与真值的重合度,统计不同重合度阈值时成功跟踪的帧数占视频序列总帧数的比例。
可以看出,本发明提出的方法相比于以往的方法,在距离精度和重合度成功率上均有显著的提高。实验结果说明,本发明方法能够进一步提升跟踪算法的性能,达到更为精确的跟踪效果。
图5展示了部分测试视频的跟踪结果。每个序列选择了四帧图像作为代表,其中左上角为视频帧序数,图中矩形框为本发明的跟踪结果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:包括以下步骤:
第1步,设定t=1,捕获第一帧视频图像,选择待跟踪目标的矩形区域,得到目标中心位置和目标尺度;
第2步,以第t帧视频图像的目标中心位置为中心,提取两倍于目标尺度的子窗口;对子窗口图像建立目标外观模型x;训练相关滤波器A和颜色贝叶斯模型Rb
第3步,判断t值大小:若t=1,则将目标外观模型x作为标准外观模型训练相关滤波器A作为标准相关滤波器颜色贝叶斯模型Rb作为标准颜色贝叶斯模型若t>1,则更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型
第4步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值;
第5步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度;
第6步,判断第t帧视频图像是否为视频最后一帧图像:若是则结束跟踪,否则跳至第2步。
2.根据权利要求1所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第2步中,所述对子窗口图像建立目标外观模型x,是指包括如下步骤:
第2.1步,将子窗口图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
第2.2步,将子窗口图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
第2.3步,对子窗口图像进行灰度化处理,得到一维灰度属性信息;
第2.4步,将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型x,x=[x1,x2,...,xc],c=34。
3.根据权利要求2所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第2步中,所述训练相关滤波器A是指,包括如下步骤:
第2.5步,设定子窗口图像中的样本xm,n,(m,n)∈{0,...,M-1}×{0,...N-1},M和N分别为子窗口图像的横向尺寸和纵向尺寸;
第2.6步,对子窗口图像中的样本分配连续的、以目标中心位置为中心的高斯分布形式的标签y(m,n);
第2.7步,对子窗口图像的外观模型x自身进行核空间映射:
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,F是指傅里叶变换;
采用岭回归方式进行训练,对核空间映射和标签进行傅里叶变换,得出相关滤波器模型A:
F - 1 ( A ) = F - 1 ( F ( y ) F ( φ ( x ) · φ ( x ) ) + λ ) ;
其中,λ为正则项系数。
4.根据权利要求3所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第2步中,训练颜色贝叶斯模型Rb是指,包括如下步骤:
第2.8步,将跟踪目标划分跟踪目标区域O,其余子窗口图像区域划分为目标邻域S;
第2.9步,基于原始的三维RGB格式子窗口图像,分别计算跟踪目标区域O和目标邻域S的十六维统计直方图,得到16*16*16的统计直方图H(O)和H(S);
第2.10步,利用贝叶斯准则,计算用于表征各个像素属于目标的概率置信情况的概率模型,即得到颜色贝叶斯模型:
R b t = P ( i ) = H ( O ) H ( O ) + H ( S ) , i f i ∈ { O ∪ S } 0.5 , o t h e r w i s e ;
其中,i是指各个像素位置。
5.根据权利要求4所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第3步中,所述更新标准外观模型和标准相关滤波器根据判断条件,更新标准颜色贝叶斯模型是指,
设置学习因子ρ,更新标准外观模型和标准相关滤波器
x ^ t = ( 1 - ρ ) x ^ t - 1 + ρx t
A ^ t = ( 1 - ρ ) A ^ t - 1 + ρA t ;
设置学习因子β,根据判断条件,更新标准颜色贝叶斯模型
R ^ b t = β * R ^ b t - 1 + ( 1 - β ) * R b t i f P S R > τ R ^ b t - 1 e l s e
其中,τ为PSR阈值。
6.根据权利要求1所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第4步中,所述t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到各个像素点输出响应找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;根据所有像素点输出响应,计算PSR值,是指包括如下步骤:
第4.1步,t自加1,捕获第t帧视频图像,以第t-1帧视频图像的目标中心位置为中心,提取搜索区域;对搜索区域图像建立目标外观模型z;
第4.2步,将目标外观模型z与当前的标准目标外观模型进行核空间映射得到映射结果
其中,*是指复数共轭,⊙是指矩阵中的元素对运算,σ2是高斯函数中的方差,F是指傅里叶变换;
第4.3步,将映射结果进行傅里叶变换,并利用当前的标准相关滤波器进行滤波处理,得到搜索区域中各个像素点的输出响应
第4.4步,找出最大的输出响应并将输出响应对应的像素点设定为第t帧视频图像的目标中心位置;
第4.5步,根据所有像素点输出响应,计算PSR值:
P S R = m a x ( y ^ ) - μ y σ y ;
其中,μy和σy分别是输出响应的均值和标准差。
7.根据权利要求6所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第4.1步中,对搜索区域图像建立目标外观模型z是指,将搜索区域图像从原始的三维RGB格式转化为十一维CN空间格式;利用主成分分析法,将十一维CN空间格式映射为二维颜色属性信息;
将搜索区域图像进行梯度特征计算,提取三十二维HOG特征,并剔除梯度值为全零的一维冗余HOG特征,得到三十一维梯度属性信息;
对搜索区域图像进行灰度化处理,得到一维灰度属性信息;
将颜色属性信息、梯度属性信息和灰度属性信息进行串联融合,得到三十四维多属性融合特征;将该三十四维多属性融合特征作为目标外观模型z,z=[z1,z2,...,zc],c=34。
8.根据权利要求1所述的基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法,其特征在于:在第5步中,所述利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;将置信图依次进行空间先验分布模型处理、自适应阈值分割处理和形态学处理、最大连通域分析得到分割矩形;利用平滑性约束方程得到第t帧视频图像的目标尺度,是指包括如下步骤:
第5.1步,利用当前的标准颜色贝叶斯模型,计算出搜索区域内各个像素点属于跟踪目标的置信概率,进而得到搜索区域的置信图;
第5.2步,建立空间先验分布模型:
s p a t i a l _ p r i o r = exp ( - | | c x - c 0 | | 2 2 σ 0 2 ) ;
其中,cx表示搜索区域内每个位置,c0表示第t-1帧视频图像的目标中心位置,σ0表示先验分布的参数;
将先验分布模型分别与各个像素点的置信图相乘以对各个像素点的置信图进行约束处理;
第5.3步,采用自适应阈值分割法进行分割处理;然后进行形态学处理的闭操作和开操作,以填充分割导致的孔洞并排除孤立噪点;之后进行最大连通域分析得到尺寸为color_seg_sz的分割矩形;
第5.4步,利用平滑性约束方程得到第t帧视频图像的目标尺度:
target_sz=(1-γ)·target_szt-1+γ·color_seg_szt
其中,γ表示尺度更新参数。
CN201610987111.5A 2016-11-09 2016-11-09 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 Active CN106570486B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610987111.5A CN106570486B (zh) 2016-11-09 2016-11-09 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610987111.5A CN106570486B (zh) 2016-11-09 2016-11-09 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106570486A true CN106570486A (zh) 2017-04-19
CN106570486B CN106570486B (zh) 2019-05-14

Family

ID=58540866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610987111.5A Active CN106570486B (zh) 2016-11-09 2016-11-09 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106570486B (zh)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107341820A (zh) * 2017-07-03 2017-11-10 郑州轻工业学院 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法
CN107346548A (zh) * 2017-07-06 2017-11-14 电子科技大学 一种用于输电线路绝缘子的跟踪方法
CN107358623A (zh) * 2017-07-12 2017-11-17 武汉大学 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法
CN107452015A (zh) * 2017-07-28 2017-12-08 南京工业职业技术学院 一种具有重检测机制的目标跟踪系统
CN107590820A (zh) * 2017-08-25 2018-01-16 北京飞搜科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN107798686A (zh) * 2017-09-04 2018-03-13 华南理工大学 一种基于多特征判别学习的实时目标跟踪方法
CN107862680A (zh) * 2017-10-31 2018-03-30 西安电子科技大学 一种基于相关滤波器的目标跟踪优化方法
CN108280808A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于结构化输出相关滤波器的目标跟踪方法
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN108596048A (zh) * 2018-03-30 2018-09-28 西安电子科技大学 一种基于相关滤波器的目标跟踪检测方法
CN108629327A (zh) * 2018-05-15 2018-10-09 北京环境特性研究所 一种基于图像处理的人数统计方法及装置
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN109064490A (zh) * 2018-04-12 2018-12-21 江苏省基础地理信息中心 一种基于MeanShift的运动目标跟踪方法
CN109255799A (zh) * 2018-07-26 2019-01-22 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109285179A (zh) * 2018-07-26 2019-01-29 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109308713A (zh) * 2018-08-02 2019-02-05 哈尔滨工程大学 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
CN109325961A (zh) * 2018-08-27 2019-02-12 北京悦图遥感科技发展有限公司 无人机视频多目标跟踪方法及装置
CN109410249A (zh) * 2018-11-13 2019-03-01 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应目标的追踪方法
CN109461172A (zh) * 2018-10-25 2019-03-12 南京理工大学 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN109558769A (zh) * 2017-09-26 2019-04-02 纵目科技(上海)股份有限公司 真值标注系统
CN109753883A (zh) * 2018-12-13 2019-05-14 北京字节跳动网络技术有限公司 视频定位方法、装置、存储介质和电子设备
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109934098A (zh) * 2019-01-24 2019-06-25 西北工业大学 一种带隐私保护的摄像机智能系统及其实现方法
CN109992008A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 一种机器人的目标跟随方法及装置
CN110009664A (zh) * 2019-04-11 2019-07-12 南京航空航天大学金城学院 一种基于响应图融合的红外目标跟踪方法及装置
CN110335289A (zh) * 2019-06-13 2019-10-15 河海大学 一种基于在线学习的目标跟踪方法
CN110751673A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于集成学习的目标跟踪方法
CN110751671A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于核相关滤波与运动估计的目标跟踪方法
CN110751670A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于融合的目标跟踪方法
CN110827327A (zh) * 2018-08-13 2020-02-21 中国科学院长春光学精密机械与物理研究所 一种基于融合的长期目标跟踪方法
CN111145121A (zh) * 2019-12-27 2020-05-12 安徽工业大学 一种强化多特征融合的置信项滤波器目标跟踪方法
CN111415370A (zh) * 2020-04-13 2020-07-14 中山大学 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统
CN111476819A (zh) * 2020-03-19 2020-07-31 重庆邮电大学 一种基于多相关滤波模型的长时目标跟踪方法
CN111724411A (zh) * 2020-05-26 2020-09-29 浙江工业大学 一种基于对冲算法的多特征融合跟踪方法
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN112183493A (zh) * 2020-11-05 2021-01-05 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN112329784A (zh) * 2020-11-23 2021-02-05 桂林电子科技大学 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN113298851A (zh) * 2021-07-07 2021-08-24 沈阳航空航天大学 一种基于多尺度多特征的目标图像跟踪方法
CN113569905A (zh) * 2021-06-10 2021-10-29 西安电子科技大学 基于多尺度特征提取和全变分的异源图像融合方法
CN114359337A (zh) * 2021-12-07 2022-04-15 中国人民解放军国防科技大学 Rgbt视觉目标跟踪方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236626B2 (en) * 2000-11-22 2007-06-26 Microsoft Corporation Pattern detection
CN101252677A (zh) * 2007-10-19 2008-08-27 西安交通大学 一种基于多光谱图像传感器的目标跟踪方法
CN103985139A (zh) * 2014-05-20 2014-08-13 重庆大学 基于颜色模型与预测向量簇模型信息融合的粒子滤波目标跟踪方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236626B2 (en) * 2000-11-22 2007-06-26 Microsoft Corporation Pattern detection
CN101252677A (zh) * 2007-10-19 2008-08-27 西安交通大学 一种基于多光谱图像传感器的目标跟踪方法
CN103985139A (zh) * 2014-05-20 2014-08-13 重庆大学 基于颜色模型与预测向量簇模型信息融合的粒子滤波目标跟踪方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PEI MENGXIN ETC.: "Improved Kernelized Correlation Filters Tracking Algorithm with", 《PROCEEDINGS OF THE 35TH CHINESE CONTROL CONFERENCE》 *
刘士荣等: "基于多特征融合的粒子滤波目标跟踪算法", 《信 息 与 控 制》 *
邢运龙: "改进核相关滤波的运动目标跟踪算法", 《红外与激光工程》 *

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169994B (zh) * 2017-05-15 2021-03-23 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107341820A (zh) * 2017-07-03 2017-11-10 郑州轻工业学院 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法
CN107346548A (zh) * 2017-07-06 2017-11-14 电子科技大学 一种用于输电线路绝缘子的跟踪方法
CN107358623A (zh) * 2017-07-12 2017-11-17 武汉大学 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法
CN107358623B (zh) * 2017-07-12 2020-01-07 武汉大学 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪方法
CN107452015A (zh) * 2017-07-28 2017-12-08 南京工业职业技术学院 一种具有重检测机制的目标跟踪系统
CN107452015B (zh) * 2017-07-28 2020-09-25 南京工业职业技术学院 一种具有重检测机制的目标跟踪系统
CN107590820A (zh) * 2017-08-25 2018-01-16 北京飞搜科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN107590820B (zh) * 2017-08-25 2020-06-02 兰州飞搜信息科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN107798686A (zh) * 2017-09-04 2018-03-13 华南理工大学 一种基于多特征判别学习的实时目标跟踪方法
CN109558769B (zh) * 2017-09-26 2024-03-26 纵目科技(上海)股份有限公司 真值标注系统
CN109558769A (zh) * 2017-09-26 2019-04-02 纵目科技(上海)股份有限公司 真值标注系统
CN107862680A (zh) * 2017-10-31 2018-03-30 西安电子科技大学 一种基于相关滤波器的目标跟踪优化方法
CN108280808A (zh) * 2017-12-15 2018-07-13 西安电子科技大学 基于结构化输出相关滤波器的目标跟踪方法
CN109992008A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 一种机器人的目标跟随方法及装置
CN108447078B (zh) * 2018-02-28 2022-06-10 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN108447078A (zh) * 2018-02-28 2018-08-24 长沙师范学院 基于视觉显著性的干扰感知跟踪算法
CN108596048B (zh) * 2018-03-30 2020-05-19 西安电子科技大学 一种基于相关滤波器的目标跟踪检测方法
CN108596048A (zh) * 2018-03-30 2018-09-28 西安电子科技大学 一种基于相关滤波器的目标跟踪检测方法
CN109064490A (zh) * 2018-04-12 2018-12-21 江苏省基础地理信息中心 一种基于MeanShift的运动目标跟踪方法
CN109064490B (zh) * 2018-04-12 2021-09-28 江苏省基础地理信息中心 一种基于MeanShift的运动目标跟踪方法
CN108629327A (zh) * 2018-05-15 2018-10-09 北京环境特性研究所 一种基于图像处理的人数统计方法及装置
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN108986140B (zh) * 2018-06-26 2022-02-01 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN110751671A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于核相关滤波与运动估计的目标跟踪方法
CN110751673A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于集成学习的目标跟踪方法
CN110751670A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于融合的目标跟踪方法
CN110751670B (zh) * 2018-07-23 2022-10-25 中国科学院长春光学精密机械与物理研究所 一种基于融合的目标跟踪方法
CN109285179B (zh) * 2018-07-26 2021-05-14 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109255799A (zh) * 2018-07-26 2019-01-22 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109285179A (zh) * 2018-07-26 2019-01-29 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109255799B (zh) * 2018-07-26 2021-07-27 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109308713A (zh) * 2018-08-02 2019-02-05 哈尔滨工程大学 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
CN110827327B (zh) * 2018-08-13 2023-04-18 中国科学院长春光学精密机械与物理研究所 一种基于融合的长期目标跟踪方法
CN110827327A (zh) * 2018-08-13 2020-02-21 中国科学院长春光学精密机械与物理研究所 一种基于融合的长期目标跟踪方法
CN109325961B (zh) * 2018-08-27 2021-07-09 北京悦图数据科技发展有限公司 无人机视频多目标跟踪方法及装置
CN109325961A (zh) * 2018-08-27 2019-02-12 北京悦图遥感科技发展有限公司 无人机视频多目标跟踪方法及装置
CN109461172A (zh) * 2018-10-25 2019-03-12 南京理工大学 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN109410249A (zh) * 2018-11-13 2019-03-01 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应目标的追踪方法
CN109410249B (zh) * 2018-11-13 2021-09-28 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应的目标追踪方法
CN109753883A (zh) * 2018-12-13 2019-05-14 北京字节跳动网络技术有限公司 视频定位方法、装置、存储介质和电子设备
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109754424B (zh) * 2018-12-17 2022-11-04 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109934098A (zh) * 2019-01-24 2019-06-25 西北工业大学 一种带隐私保护的摄像机智能系统及其实现方法
CN110009664A (zh) * 2019-04-11 2019-07-12 南京航空航天大学金城学院 一种基于响应图融合的红外目标跟踪方法及装置
CN110335289B (zh) * 2019-06-13 2022-08-05 河海大学 一种基于在线学习的目标跟踪方法
CN110335289A (zh) * 2019-06-13 2019-10-15 河海大学 一种基于在线学习的目标跟踪方法
CN111145121A (zh) * 2019-12-27 2020-05-12 安徽工业大学 一种强化多特征融合的置信项滤波器目标跟踪方法
CN111145121B (zh) * 2019-12-27 2023-02-28 安徽工业大学 一种强化多特征融合的置信项滤波器目标跟踪方法
CN111476819A (zh) * 2020-03-19 2020-07-31 重庆邮电大学 一种基于多相关滤波模型的长时目标跟踪方法
CN111415370A (zh) * 2020-04-13 2020-07-14 中山大学 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统
CN111724411A (zh) * 2020-05-26 2020-09-29 浙江工业大学 一种基于对冲算法的多特征融合跟踪方法
CN111951297B (zh) * 2020-08-31 2022-04-19 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN112183493A (zh) * 2020-11-05 2021-01-05 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN112329784A (zh) * 2020-11-23 2021-02-05 桂林电子科技大学 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN113569905A (zh) * 2021-06-10 2021-10-29 西安电子科技大学 基于多尺度特征提取和全变分的异源图像融合方法
CN113569905B (zh) * 2021-06-10 2024-03-26 西安电子科技大学 基于多尺度特征提取和全变分的异源图像融合方法
CN113298851A (zh) * 2021-07-07 2021-08-24 沈阳航空航天大学 一种基于多尺度多特征的目标图像跟踪方法
CN113298851B (zh) * 2021-07-07 2023-09-26 沈阳航空航天大学 一种基于多尺度多特征的目标图像跟踪方法
CN114359337A (zh) * 2021-12-07 2022-04-15 中国人民解放军国防科技大学 Rgbt视觉目标跟踪方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN106570486B (zh) 2019-05-14

Similar Documents

Publication Publication Date Title
CN106570486A (zh) 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN109829443B (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
CN107578035B (zh) 基于超像素-多色彩空间的人体轮廓提取方法
WO2021208275A1 (zh) 一种交通视频背景建模方法及系统
CN107644429B (zh) 一种基于强目标约束视频显著性的视频分割方法
CN104008370B (zh) 一种视频人脸识别方法
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN104268583B (zh) 基于颜色区域特征的行人重识别方法及系统
CN106682601B (zh) 一种基于多维信息特征融合的驾驶员违规通话检测方法
CN102270346B (zh) 一种交互式视频中的目标对象的提取方法
Luengo-Oroz et al. Robust iris segmentation on uncalibrated noisy images using mathematical morphology
CN105740945A (zh) 一种基于视频分析的人群计数方法
CN109741366A (zh) 一种融合多层卷积特征的相关滤波目标跟踪方法
CN108647625A (zh) 一种表情识别方法及装置
CN107886507B (zh) 一种基于图像背景和空间位置的显著区域检测方法
CN108573499A (zh) 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN106845328A (zh) 一种基于双摄像头的智能人脸识别方法及系统
CN107123130A (zh) 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN109255326A (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN106056078B (zh) 一种基于多特征回归式集成学习的人群密度估计方法
CN109146925A (zh) 一种动态场景下显著性目标检测方法
Zhu et al. Fast detection of moving object based on improved frame-difference method
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN105631405A (zh) 基于多级分块的交通视频智能识别背景建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant