CN109271865A - 基于散射变换多层相关滤波的运动目标跟踪方法 - Google Patents

基于散射变换多层相关滤波的运动目标跟踪方法 Download PDF

Info

Publication number
CN109271865A
CN109271865A CN201810943111.4A CN201810943111A CN109271865A CN 109271865 A CN109271865 A CN 109271865A CN 201810943111 A CN201810943111 A CN 201810943111A CN 109271865 A CN109271865 A CN 109271865A
Authority
CN
China
Prior art keywords
indicate
target
frame
scattering
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810943111.4A
Other languages
English (en)
Other versions
CN109271865B (zh
Inventor
赵启明
田小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810943111.4A priority Critical patent/CN109271865B/zh
Publication of CN109271865A publication Critical patent/CN109271865A/zh
Application granted granted Critical
Publication of CN109271865B publication Critical patent/CN109271865B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于散射变换多层相关滤波的运动目标跟踪方法,其步骤如下:(1)确定待跟踪目标初始位置(2)计算相关滤波器权值;(3)对下一帧图像的搜索窗区域进行非下采样散射变换;(4)计算相关滤波器最大响应值;(5)计算各层的权值损失并求得每一层的权值;(6)更新相关滤波器参数;(7)判断当前帧图像是否为待跟踪视频序列的最后一帧图像,若是,则执行步骤(8),否则,执行步骤(3);(8)结束跟踪。本发明通过基于散射变换多层相关滤波的运动目标跟踪方法,能够利用目标的散射描述子提取目标信息,使用多层相关滤波器获得最优结果,从而预测待跟踪目标位置。

Description

基于散射变换多层相关滤波的运动目标跟踪方法
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视觉技术领域中的一种基于散射变换多层相关滤波的运动目标跟踪方法。本发明可用于对视频监控、机器人导航和定位、无人驾驶机获取的视频序列中的运动目标进行跟踪。
背景技术
运动目标跟踪的主要任务是,从连续的视频图像序列中检测出运动目标,进而在每一帧图像中确定出运动目标的位置。随着人们对计算机视觉领域的不断深入认识,运动目标跟踪在该领域得到广泛应用和发展,目前已经存在大量的跟踪算法来实现运动目标跟踪。但是,由于遮挡、背景杂乱、外观形变、光照变化、视角变化等客观因素的影响,使得准确地跟踪目标仍然面临极大挑战。
天津工业大学在其拥有的专利技术“一种改进的Camshift目标跟踪方法”(专利申请号201410826824.4,授权公告号104463914B)中公开了一种Camshift目标跟踪方法。该方法实现的具体步骤是,(1)利用色度微分二维联合特征建立目标模型,将每个像素8邻域的色度最大差分值作为该像素的微分值,用以描述像素的相对位置信息和图像的细节信息。(2)根据目标模型的色度微分二维特征联合直方图,利用反向投影获得跟踪图像的色度微分二维特征联合概率分布图。(3)利用均值平移方法在跟踪窗内实现目标的定位,并对目标尺寸和方向的过大调整加以限制。该方法虽然当目标的光照环境平缓变化时,可以实现准确跟踪,但是,该方法仍然存在的不足之处是,由于该方法是以像素邻域的色度最大差分值描述目标信息,当目标的光照环境剧烈变化时,无法有效提取目标的梯度信息,难以实现准确跟踪。
郑州轻工业学院在其拥有的专利技术“一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法”(专利申请号201710531498.8,授权公告号107341820B)中公开了一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法。该方法实现的具体步骤是,(1)初始化运动目标状态参数、Cuckoo搜索机制和KCF跟踪方法的初始参数。(2)利用KCF跟踪方法获得前k帧的k个最大响应值,计算置信度阈值的初始阈值。(3)依据当前帧最大响应值与置信度阈值的关系,确定不同的基图像样本产生方式:当大于置信度阈值,随机选取基图像样本,执行KCF方法跟踪运动目标;当小于置信度阈值,采用Cuckoo搜索机制获取全局最优的目标预测状态,产生新的基图像样本,执行KCF方法跟踪目标。(4)采用新的最大响应值动态更新置信度阈值,重复(1)至(3)实现突变运动目标的有效跟踪。该方法存在的不足之处是,当被跟踪目标在运动过程中被遮挡时,将可能丢失被跟踪目标的尺度、颜色以及轮廓等信息。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于自适应目标响应的目标跟踪方法,以实现当目标快速移动、目标发生遮挡、光照变化时对目标进行准确、有效地跟踪。
实现本发明目的的思路是,通过非下采样散射变换来获取待跟踪目标信息,构建待跟踪目标模型,训练多层相关滤波器,根据相关滤波器的最大响应值来确定待跟踪目标位置,最后更新相关滤波器模型与目标模型每一层的权值,实现稳定、准确的跟踪。
本发明的具体步骤如下:
(1)输入第一帧的待跟踪目标:
输入待跟踪视频的第一帧,人工标记出待跟踪的目标,得到跟踪框的大小与待跟踪目标位置;
(2)确定搜索窗:
判断跟踪框的长宽之比是否大于2,若是,则将跟踪框的长不变、宽扩大一倍作为搜索窗,否则,将跟踪框长和宽各扩大一倍作为搜索窗,搜索窗的中心位置与待跟踪目标位置相同;
(3)构建第一帧图像的目标模型:
(3a)利用目标模型构建方法,构建第一帧图像的目标模型,该目标模型共有12层,每一层为一个三维矩阵,该矩阵中的一二维大小与搜索窗大小相同,第三维大小为13;
(3b)将目标模型每一层的初始权值均设为0.833;
(4)生成相关滤波器模型:
利用相关滤波公式,计算相关滤波器参数,将该相关滤波器参数存储到与目标模型大小相同的空矩阵中,生成相关滤波器模型;
(5)构建其余帧的目标模型:
输入除第一帧之后的待跟踪视频的下一帧图像,利用目标模型构建方法,构建一个与第一帧图像的目标模型相同的当前帧的目标模型;
(6)确定当前帧待跟踪目标的位置:
(6a)将当前帧的目标模型与相关滤波器参数,在目标模型的每一层分别进行循环卷积,从卷积结果中找出每一层的最大响应值;
(6b)将每一层的最大响应值所对应位置的横纵坐标分别进行加权求和,将加权求和之后的横纵坐标值作为当前帧待跟踪目标的位置;
(6c)用当前帧待跟踪目标位置替换搜索窗的中心位置;
(7)更新当前帧目标模型权值:
(7a)利用权值损失公式,计算当前帧每一层的权值损失;
(7b)利用当前帧每一层的权值损失,计算当前帧待跟踪目标的遮挡系数;
(7c)利用权值计算公式,计算下一帧目标模型每一层的权值;
(8)判断当前帧待跟踪目标的遮挡系数是否小于0.7,若是,则判定当前帧待跟踪目标未发生遮挡,执行步骤(9),否则,判定当前帧待跟踪目标发生遮挡,执行步骤(10);
(9)更新当前帧的相关滤波器参数:
利用滤波器模型更新公式,计算相关滤波器参数,用该参数更新当前帧的相关滤波器参数;
(10)判断是否输入完待跟踪视频的所有帧图像,若是,则执行步骤(11),否则,执行步骤(5);
(11)结束跟踪过程。
本发明与现有的技术相比具有以下优点:
第一,由于本发明使用散射描述子来提取目标信息,使得目标在发生平移,光照变化的情况下,与原始目标相比,经过非下采样散射变换得到的散射描述子变化不大,从而克服了现有技术目标特征信息丢失的问题,使得本发明增强了运动目标跟踪的稳定性。
第二,由于本发明构建了多层相关滤波器,根据权值更新策略,将不同层之间进行权值分配,使得跟踪效果好的层所得权值更大,在多层的跟踪结果中取最优,从而克服了现有技术当目标发生遮挡、形变时无法跟踪的问题,使得本发明增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明做进一步的描述。
结合附图1,对本发明的具体步骤进一步的描述。
步骤1,输入第一帧的待跟踪目标。
输入待跟踪视频的第一帧,人工标记出待跟踪的目标,得到跟踪框的大小与目标位置。
步骤2,确定搜索窗。
判断跟踪框的长宽之比是否大于2,若是,则将跟踪框的长不变、宽扩大一倍作为搜索窗,否则,将跟踪框长和宽各扩大一倍作为搜索窗,搜索窗的中心位置与待跟踪目标位置相同。
步骤3,构建第一帧图像的目标模型。
利用目标模型构建方法,构建第一帧图像的目标模型,该目标模型共有12层,每一层为一个三维矩阵,该矩阵中的一二维大小与搜索窗大小相同,第三维大小为13。
所述构建目标模型方法的具体步骤如下:
第1步,构建一个12层的目标模型,每一层为一个三维矩阵,该矩阵中的一二维大小与搜索窗大小相同,第三维大小为13。
第2步,对搜索窗区域进行非下采样散射变换得到散射变换第一阶12个方向的散射描述子。
所述的非下采样散射变换是指,利用方向小波方法,对搜索窗区域单幅图像在[0。,360。]等分的12个方向进行分解,此12个方向分别为,对分解到的12个高频分量进行平滑滤波,得到12个方向的散射描述子。
第3步,对第一阶12个方向的散射描述子进行非下采样散射变换,得到散射变化第二阶144个方向的散射描述子。
所述的非下采样散射变换是指,利用方向小波方法,对搜索窗区域单幅图像在[0。,360。]等分的12个方向进行分解,此12个方向分别为,对分解到的12个高频分量进行平滑滤波,得到12个方向的散射描述子。
第4步,从第一阶的散射描述子中随机提取一个,从第二阶的散射描述子中随机提取12个散射描述子,将这13个散射描述子组成目标模型的一层。
所述的非下采样散射变换是指,利用方向小波方法,对搜索窗区域单幅图像在[0。,360。]等分的12个方向进行分解,此12个方向分别为,对分解到的12个高频分量进行平滑滤波,得到12个方向的散射描述子。
第5步,重复执行第四步12次,得到目标模型的12层。
第6步,用余弦窗函数分别点乘目标模型的每一层,得到目标模型。
所述的余弦窗函数如下:
C=(0.5-0.5cos(2πx))T(0.5-0.5cos(2πy))
其中,C表示余弦窗函数,cos表示余弦操作,π表示圆周率,x表示搜索窗的长,T表示转置操作,y表示搜索窗的宽。
将目标模型每一层的初始权值均设为0.833。
步骤4,生成相关滤波器模型。
利用相关滤波公式,计算相关滤波器参数,将该相关滤波器参数存储到与目标模型大小相同的空矩阵中,生成相关滤波器模型
所述的相关滤波公式如下:
其中,Wk表示第k层相关滤波器参数,表示最小化算法,Y表示傅里叶变换后的高斯模型标签矩阵,Xk表示第k层的目标模型,表示F范数的平方计算,λ为相关系数,其值取0.01,∑表示求和操作,D表示每一层目标模型的第三维大小,⊙表示矩阵之间对应元素相乘。
步骤5,构建其余帧的目标模型。
输入除第一帧之后的待跟踪视频的下一帧图像,利用目标模型构建方法,构建一个与第一帧图像的目标模型相同的当前帧的目标模型。
步骤6,确定目标位置。
将当前帧的目标模型与相关滤波器参数,在目标模型的每一层分别进行循环卷积,从卷积结果中找出每一层的最大响应值。
将每一层的最大响应值所对应位置的横纵坐标分别进行加权求和,将加权求和之后的横纵坐标值作为当前帧待跟踪目标位置。
用当前帧待跟踪目标位置替换当前搜索框的中心位置。
步骤7,更新目标模型权值。
利用权值损失公式,计算当前帧每一层的权值损失。
所述权值损失公式如下:
其中,lk表示第k层中的最大响应值与目标位置处的响应值之间的差值,|·|表示取绝对值操作,Sk表示第k层中的最大响值,表示第k层当前目标位置处的响应值,表示所有层中最大响应值的平均值,表示第t帧第k层的权值损失,表示第t-1帧第k层的权值损失。
利用当前帧每一层的权值损失,计算当前帧待跟踪目标的遮挡系数。
所述的遮挡系数计算公式为:
其中,θ表示遮挡系数,Sk表示第k层中的最大响应值,表示第k层目标位置处的响应值,表示第t帧第k层的权值损失,表示第t-1帧第k层的权值损失。
利用权值计算公式,计算下一帧每一层的权值。
所述的权值计算公式如下:
其中,表示第t-1帧第k层的权值,表示第t帧第k层权值损失函数,K表示相关滤波器层数,∑表示求和操作,此次公式可以保证所有权值之和为1,权值损失越大,权值越小。
步骤8,判断当前帧待跟踪目标的遮挡系数是否小于0.7,若是,则判定当前帧待跟踪目标未发生遮挡,执行步骤9,否则,判定当前帧待跟踪目标发生遮挡,执行步骤10。
步骤9,更新当前帧的相关滤波器参数。
利用滤波器模型更新公式,计算相关滤波器参数,用该参数更新当前帧的相关滤波器参数。
所述的滤波器模型更新公式为:
其中,表示第t帧第k层没有更新的相关滤波器参数,Y表示傅里叶变换后的高斯模型标签矩阵,表示目标位置处第k层的目标模型,λ表示相关系数,其值取0.01,表示第t帧第k层更新之后的滤波器模型参数,表示第t-1帧第k层的滤波器模型参数,η表示更新参数,其值取0.01。
步骤10,判断是否输入完待跟踪视频的所有帧图像,若是,则执行步骤11,否则,执行步骤5。
步骤11,结束跟踪过程。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPU intel Core i5-6500,主频为3.2GHz,内存4GB;软件平台为:Windows 7旗舰版,64位操作系统,MATLAB R2013a。
2.仿真内容及其仿真结果分析:
本发明仿真实验是对一段一名男子在室内走动的视频图像序列进行跟踪。仿真实验中该名男子在室内走动的视频图像序列数据来自Object tracking benchmark 2015数据库,该视频图像序列共有537帧视频图像。
图2(a)为本发明仿真实验中从所述视频序列中输入的人工标注的第一帧图像。图2(a)中实线矩形框标注的是待跟踪目标的位置。
图2(b)为本发明仿真实验中从所述视频序列中输入的待跟踪目标发生外观形变时的一帧视频图像的跟踪结果示意图。所述视频图像中男子的头部为待跟踪目标,待跟踪目标发生了外观形变。从所述视频图像中对搜索窗区域进行非下采样散射变换,使用相关滤波器计算搜索窗区域最大响应值,基于最大响应值对待跟踪目标的位置和大小进行预测,将预测后的位置作为当前帧视频图像中待跟踪目标的位置。图2(b)中实线矩形框标注的是待跟踪目标的位置。
图2(c)为本发明仿真实验中从所述视频序列中输入的待跟踪目标发生外观形变和光照变化时的一帧视频图像的跟踪结果示意图。所述视频图像中男子的头部为待跟踪目标,待跟踪目标发生了外观形变和光照变化。从所述视频图像中对搜索窗区域进行非下采样散射变换,使用相关滤波器计算搜索窗区域最大响应值,基于最大响应值对待跟踪目标的位置和大小进行预测,将预测后的位置作为当前帧视频图像中待跟踪目标的位置。图2(c)中实线矩形框标注的是待跟踪目标的位置。
在图2(b)和图2(c)中,实线矩形框标注的位置表示本发明跟踪到的待跟踪视频图像序列中待跟踪目标的位置。
由图2(b)和图2(c)可以看出,实线矩形框准确地框定了目标,说明本发明能够在视频图像序列中目标发生外观形变、光照变化的情况下实现准确、有效地目标跟踪。

Claims (8)

1.一种基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,提取待跟踪目标的散射描述子,构建散射变换矩阵,构建多层相关滤波器;该方法的具体步骤包括如下:
(1)输入第一帧的待跟踪目标:
输入待跟踪视频的第一帧,人工标记出待跟踪的目标,得到跟踪框的大小与待跟踪目标位置;
(2)确定搜索窗:
判断跟踪框的长宽之比是否大于2,若是,则将跟踪框的长不变、宽扩大一倍作为搜索窗,否则,将跟踪框长和宽各扩大一倍作为搜索窗,搜索窗的中心位置与待跟踪目标位置相同;
(3)构建第一帧图像的目标模型:
(3a)利用目标模型构建方法,构建第一帧图像的目标模型,该目标模型共有12层,每一层为一个三维矩阵,该矩阵中的一二维大小与搜索窗大小相同,第三维大小为13;
(3b)将目标模型每一层的初始权值均设为0.833;
(4)生成相关滤波器模型:
利用相关滤波公式,计算相关滤波器参数,将该相关滤波器参数存储到与目标模型大小相同的空矩阵中,生成相关滤波器模型;
(5)构建其余帧的目标模型:
输入除第一帧之后的待跟踪视频的下一帧图像,利用目标模型构建方法,构建一个与第一帧图像的目标模型相同的当前帧的目标模型;
(6)确定当前帧待跟踪目标的位置:
(6a)将当前帧的目标模型与相关滤波器参数,在目标模型的每一层分别进行循环卷积,从卷积结果中找出每一层的最大响应值;
(6b)将每一层的最大响应值所对应位置的横纵坐标分别进行加权求和,将加权求和之后的横纵坐标值作为当前帧待跟踪目标的位置;
(6c)用当前帧待跟踪目标位置替换搜索窗的中心位置;
(7)更新当前帧目标模型权值:
(7a)利用权值损失公式,计算当前帧每一层的权值损失;
(7b)利用当前帧每一层的权值损失,计算当前帧待跟踪目标的遮挡系数;
(7c)利用权值计算公式,计算下一帧目标模型每一层的权值;
(8)判断当前帧待跟踪目标的遮挡系数是否小于0.7,若是,则判定当前帧待跟踪目标未发生遮挡,执行步骤(9),否则,判定当前帧待跟踪目标发生遮挡,执行步骤(10);
(9)更新当前帧的相关滤波器参数:
利用滤波器模型更新公式,计算相关滤波器参数,用该参数更新当前帧的相关滤波器参数;
(10)判断是否输入完待跟踪视频的所有帧图像,若是,则执行步骤(11),否则,执行步骤(5);
(11)结束跟踪过程。
2.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(3a)、步骤(5)中所述构建目标模型方法的具体步骤如下:
第一步,构建一个12层的目标模型,每一层为一个三维矩阵,该矩阵中的一二维大小与搜索窗大小相同,第三维大小为13;
第二步,对搜索窗区域进行非下采样散射变换得到散射变换第一阶12个方向的散射描述子;
第三步,对第一阶12个方向的散射描述子进行非下采样散射变换,得到散射变化第二阶144个方向的散射描述子;
第四步,从第一阶的散射描述子中随机提取一个,从第二阶的散射描述子中随机提取12个散射描述子,将这13个散射描述子组成目标模型的一层;
第五步,重复执行第四步12次,得到目标模型的12层;
第六步,用余弦窗函数分别点乘目标模型的每一层,得到目标模型;
所述的余弦窗函数如下:
C=(0.5-0.5cos(2πx))T(0.5-0.5cos(2πy))
其中,C表示余弦窗函数,cos表示余弦操作,π表示圆周率,x表示搜索窗的长,T表示转置操作,y表示搜索窗的宽。
3.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(4)中所述的相关滤波公式如下:
其中,Wk表示第k层相关滤波器参数,表示最小化算法,Y表示傅里叶变换后的高斯模型标签矩阵,Xk表示第k层的目标模型,表示F范数的平方计算,λ为相关系数,其值取0.01,∑表示求和操作,D表示每一层目标模型的第三维大小,⊙表示矩阵之间对应元素相乘。
4.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(7a)中所述权值损失公式如下:
其中,lk表示第k层中的最大响应值与目标位置处的响应值之间的差值,|·|表示取绝对值操作,Sk表示第k层中的最大响应值,表示第k层目标位置处的响应值,表示所有层中最大响应值的平均值,表示第t帧第k层的权值损失,表示第t-1帧第k层的权值损失。
5.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(7b)中所述的遮挡系数计算公式为:
其中,θ表示遮挡系数,Sk表示第k层中的最大响应值,表示第k层目标位置处的响应值,表示第t帧第k层的权值损失,表示第t-1帧第k层的权值损失。
6.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(7c)中所述的权值计算公式如下:
其中,表示第t-1帧第k层的权值,表示第t帧第k层权值损失函数,K表示相关滤波器层数,∑表示求和操作,此次公式可以保证所有权值之和为1,权值损失越大,权值越小。
7.根据权利要求1所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,步骤(9)中所述的滤波器模型更新公式为:
其中,表示第t帧第k层没有更新的相关滤波器参数,Y表示傅里叶变换后的高斯模型标签矩阵,表示目标位置处第k层的目标模型,λ表示相关系数,其值取0.01,表示第t帧第k层更新之后的滤波器模型参数,表示第t-1帧第k层的滤波器模型参数,η表示更新参数,其值取0.01。
8.根据权利要求2所述的基于散射变换多层相关滤波的运动目标跟踪方法,其特征在于,第二步、第三步、第四步中所述的非下采样散射变换是指,利用方向小波方法,对搜索窗区域单幅图像在[0°,360°]等分的12个方向进行分解,此12个方向分别为,对分解到的12个高频分量进行平滑滤波,得到12个方向的散射描述子。
CN201810943111.4A 2018-08-17 2018-08-17 基于散射变换多层相关滤波的运动目标跟踪方法 Active CN109271865B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810943111.4A CN109271865B (zh) 2018-08-17 2018-08-17 基于散射变换多层相关滤波的运动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810943111.4A CN109271865B (zh) 2018-08-17 2018-08-17 基于散射变换多层相关滤波的运动目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109271865A true CN109271865A (zh) 2019-01-25
CN109271865B CN109271865B (zh) 2021-11-09

Family

ID=65154028

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810943111.4A Active CN109271865B (zh) 2018-08-17 2018-08-17 基于散射变换多层相关滤波的运动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109271865B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191555A (zh) * 2019-12-24 2020-05-22 重庆邮电大学 一种结合高低空间频率特征的目标跟踪方法、介质及系统
CN112053384A (zh) * 2020-08-28 2020-12-08 西安电子科技大学 基于边界框回归模型的目标跟踪方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1292095A (zh) * 1998-12-31 2001-04-18 通用电气公司 干涉成象的方法和装置
US6248487B1 (en) * 1996-10-31 2001-06-19 The United States Of America As Represented By The Secretary Of The Air Force Extensions and improvements of method of producing an optical wave with a predetermined function
EA007857B1 (ru) * 2005-07-19 2007-02-27 Федеральное Государственное Унитарное Предприятие "Нижегородский Научно-Исследовательский Институт Радиотехники" Многозвенный радиолокационный комплекс с обнаружением "на просвет"
CN102129072A (zh) * 2010-01-20 2011-07-20 中国科学院电子学研究所 基于逆边界散射变换的超宽带雷达人体运动目标成像方法
CN103456030A (zh) * 2013-09-08 2013-12-18 西安电子科技大学 基于散射描述子的目标跟踪方法
CN105974430A (zh) * 2016-05-04 2016-09-28 西安电子科技大学 基于随机介质表面散射光的运动目标跟踪系统及跟踪方法
CN106772352A (zh) * 2016-12-01 2017-05-31 中国人民解放军海军航空工程学院 一种基于Hough和粒子滤波的PD雷达扩展微弱目标检测方法
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN108133489A (zh) * 2017-12-21 2018-06-08 燕山大学 一种增强的多层卷积视觉跟踪方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6248487B1 (en) * 1996-10-31 2001-06-19 The United States Of America As Represented By The Secretary Of The Air Force Extensions and improvements of method of producing an optical wave with a predetermined function
CN1292095A (zh) * 1998-12-31 2001-04-18 通用电气公司 干涉成象的方法和装置
EA007857B1 (ru) * 2005-07-19 2007-02-27 Федеральное Государственное Унитарное Предприятие "Нижегородский Научно-Исследовательский Институт Радиотехники" Многозвенный радиолокационный комплекс с обнаружением "на просвет"
CN102129072A (zh) * 2010-01-20 2011-07-20 中国科学院电子学研究所 基于逆边界散射变换的超宽带雷达人体运动目标成像方法
CN103456030A (zh) * 2013-09-08 2013-12-18 西安电子科技大学 基于散射描述子的目标跟踪方法
CN105974430A (zh) * 2016-05-04 2016-09-28 西安电子科技大学 基于随机介质表面散射光的运动目标跟踪系统及跟踪方法
CN106772352A (zh) * 2016-12-01 2017-05-31 中国人民解放军海军航空工程学院 一种基于Hough和粒子滤波的PD雷达扩展微弱目标检测方法
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN108133489A (zh) * 2017-12-21 2018-06-08 燕山大学 一种增强的多层卷积视觉跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MING TANG等: "《Multi-kernel Correlation Filter for Visual Tracking》", 《 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *
XIAOLIN TIAN等: "《Nonnegative coding based ensemble tracking》", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》 *
刘吉伟 等: "《采用相关滤波的水下海参目标跟踪》", 《HTTPS://KNS.CNKI.NET/KCMS/DETAIL/23.1538.TP.20180426.1510.009.HTML》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191555A (zh) * 2019-12-24 2020-05-22 重庆邮电大学 一种结合高低空间频率特征的目标跟踪方法、介质及系统
CN111191555B (zh) * 2019-12-24 2022-05-03 重庆邮电大学 一种结合高低空间频率特征的目标跟踪方法、介质及系统
CN112053384A (zh) * 2020-08-28 2020-12-08 西安电子科技大学 基于边界框回归模型的目标跟踪方法
CN112053384B (zh) * 2020-08-28 2022-12-02 西安电子科技大学 基于边界框回归模型的目标跟踪方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统

Also Published As

Publication number Publication date
CN109271865B (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
CN105654492B (zh) 基于消费级摄像头的鲁棒实时三维重建方法
CN107424177B (zh) 基于连续相关滤波器的定位修正长程跟踪方法
Black et al. Robust dynamic motion estimation over time.
CN101216941B (zh) 剧烈光照变化下基于角点匹配与光流法的运动估计方法
CN101477690B (zh) 一种视频帧序列中物体轮廓跟踪的方法和装置
US20120045091A1 (en) System and Method for 3D Wireframe Reconstruction from Video
CN108230361A (zh) 用无人机探测器和追踪器融合来增强目标追踪方法及系统
CN109271865A (zh) 基于散射变换多层相关滤波的运动目标跟踪方法
CN103310188A (zh) 用于姿态识别的方法和设备
CN103106667A (zh) 一种面向遮挡和场景变换的运动对象追踪方法
CN109255304A (zh) 基于分布场特征的目标跟踪方法
CN103714556A (zh) 一种基于金字塔表观模型的运动目标跟踪方法
Chen et al. A stereo visual-inertial SLAM approach for indoor mobile robots in unknown environments without occlusions
CN114429555A (zh) 由粗到细的图像稠密匹配方法、系统、设备及存储介质
Huang et al. Network algorithm real-time depth image 3D human recognition for augmented reality
CN105654061A (zh) 基于估计补偿的三维人脸动态重建方法
Jia et al. Depth measurement based on a convolutional neural network and structured light
US20220215620A1 (en) Geospatial modeling system providing 3d geospatial model update based upon predictively registered image and related methods
CN108876807A (zh) 一种实时星载卫星图像运动对象检测跟踪方法
CN112184767A (zh) 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质
Yang et al. Cost-Efficient Image Semantic Segmentation for Indoor Scene Understanding Using Weakly Supervised Learning and BIM
US11816793B2 (en) Geospatial modeling system providing 3D geospatial model update based upon iterative predictive image registration and related methods
Wang et al. Multi-modal Human pose estimation based on probability distribution perception on a depth convolution neural network
CN114004865A (zh) 结合dsst尺度估计的孪生网络增强现实目标跟踪注册方法
Li et al. Moving object tracking based on multi-independent features distribution fields with comprehensive spatial feature similarity

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant