CN112037272A - 一种基于相关滤波的快速区域搜索的目标跟踪方法 - Google Patents

一种基于相关滤波的快速区域搜索的目标跟踪方法 Download PDF

Info

Publication number
CN112037272A
CN112037272A CN202010891350.7A CN202010891350A CN112037272A CN 112037272 A CN112037272 A CN 112037272A CN 202010891350 A CN202010891350 A CN 202010891350A CN 112037272 A CN112037272 A CN 112037272A
Authority
CN
China
Prior art keywords
target
frame
tracking
search area
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010891350.7A
Other languages
English (en)
Other versions
CN112037272B (zh
Inventor
管凤旭
丛浩东
杜雪
张旭
王梓琦
胡秀武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202010891350.7A priority Critical patent/CN112037272B/zh
Publication of CN112037272A publication Critical patent/CN112037272A/zh
Application granted granted Critical
Publication of CN112037272B publication Critical patent/CN112037272B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于相关滤波的快速区域搜索的目标跟踪方法,通过对跟踪过程中前一帧的目标位置及大小进行确定,以前一帧确定的目标中心位置作为中心点,并以目标高度和宽度按照一定公式求取下一帧的目标搜索区域。通过相邻帧目标在图像中移动的距离,求取当前状态下目标的移动速度及其加速度,得到模型更新率与速度的关系式,从而依据加速度对目标运动的预测作用进行更新率调整。本发明设计改进的确定目标搜索区域的方法,使得搜索区域均匀分布于目标周围,缩小了搜索区域,加快目标跟踪速度;通过设计的自适应目标速度与加速度的模型更新方式,使得滤波器模型能够更好的表示目标,提高了跟踪精度。

Description

一种基于相关滤波的快速区域搜索的目标跟踪方法
技术领域
本发明涉及一种基于相关滤波的快速区域搜索的目标跟踪方法,属于目标检测跟踪领域,适用于无人机追踪、视频监控等目标跟踪方面的对不同运动速度目标跟踪的问题。
背景技术
目标跟踪技术是近些年才发展并投入应用的一项技术,也是当前一个重要的课题和研究热点,目标跟踪通过在连续的视频图像序列中估计跟踪目标的位置、形状所占区域,确定目标的运动速度、方向及轨迹等运动信息,实现对运动目标行为的分析和理解,以便完成更高级的任务,像导弹制导、军用无人机侦察、道路交通监控、智能监控等技术都离不开目标跟踪,并且目标跟踪对跟踪的实时性要求越来越高。
基于相关滤波跟踪思想的目标跟踪算法,由于使用的特征复杂,以及在一个跟踪循环内要进行搜索、匹配、更新模型等多个过程,在跟踪精度提高的情形下,是以牺牲一定跟踪速度为前提,所以设计一个能够快速准确反映目标状态的滤波器模型是设计方法的关键所在。李大湘在文章《改进的SAMF目标跟踪算法》中提到利用图像分块的方法来改善跟踪效果,一般搜索目标是在一定搜索的区域内(这个区域一般大于目标尺寸,一般为2~3倍关系)依像素点密集搜索,该方法对搜索区域进行分块搜索,当分块数量越多时,跟踪精度越高,同样受到分块时运算成本时间也会越高,这在一定程度上降低了目标跟踪的速度。文献《自适应尺度的快速相关滤波跟踪算法》引入对数极坐标变换,把目标的尺度变化转化为位移信号,并对对目标模板变换前后分别提取HOG特征,在相关滤波框架下将跟踪目标的位移与尺度因子融合得到目标跟踪框,该方法以牺牲部分精度的条件将跟踪速度提升两倍以上,但是目标一旦出现旋转、严重遮挡和较大形变时,该算法无法达到预期效果。2012年Henriques等人发表的文章《High-Speed Tracking with Kernelized CorrelationFilters》中提到,采用核函数的思想,对高维复杂的目标进行降维,保留特征的关键信息,以减少算法的计算量,提升算法的跟踪速度,但是该方法由于只保留了特征的关键信息,所以对目标的跟踪效果不理想。文献《Interacting Acceleration Compensation AlgorithmFor Tracking Maneuvering Targets》对机动提出使用两个并行降阶解耦的滤波器来实现目标跟踪,然而由于该方法的加速度不是基于实际目标模型计算的,因而对高机动目标的跟踪性能并不理想,并且滤波器的增益不会因为目标运动状态变化而立即发生变化,也使得该时刻的跟踪误差增大。在文章《一种基于加速度预估计的机动目标跟踪算法》中,宋振宇提出了一种加速度预估计模型,首先要通过位置量测值对加速度进行预估计,然后用卡尔曼滤波算法进行跟踪滤波,该方法中对位置和速度的修正存在一定延迟,存在一定的跟踪误差。
目前,对于目标跟踪方法中速度的改进大多是通过对目标特征进行处理或者是多区域并行搜索来提升目标跟踪精度;而在对目标模型的建立方面则大多数通过每一帧单独建立或者按照固定更新速率把目标特征加入到模型中去,从而得到准确的目标模型。因此,本发明在提升目标跟踪速度的过程中通过缩减搜索目标时的区域,去除无关的背景区域部分,从而减少运算量,提升目标跟踪速度;并对目标跟踪过程中不同状态下的目标采用合适的模型更新率,把能够准确地反映目标形态的特征要以较大的更新率加入到模型中,保证目标模型对目标准确的表示,在进行相关滤波计算时才能得到较大的置信度,获得目标的准确位置。
发明内容
针对上述现有技术,本发明要解决的技术问题是改进目标搜索区域,将目标搜索区域改为能适应不同形状的目标,并将搜索区域的背景信息均匀分布在目标周围,减少一部分不必要的背景区域,减少计算量,提升目标跟踪速度;同时提供一种能够适应不同运动速度目标的滤波器模型更新方法,保证滤波器模型对目标准确的表示。
本发明的目的是这样实现的:步骤如下:
步骤一:读取图像序列,对第一帧图像手动选定目标,提取初始目标区域特征并建立最初的滤波器模型;
步骤二:对于后续图像序列,需要对目标搜索区域进行改进,通过对跟踪过程中前一帧的目标位置及大小进行确定,以前一帧确定的目标中心位置作为中心点,并以目标高度和宽度按照一定公式求取下一帧的目标搜索区域,同时提取搜索区域的目标特征;
步骤三:通过滤波器模型求取目标区域响应图,确定最大响应值以及最佳尺度,估计目标中心点的最佳位置;
步骤四:根据相邻帧目标在图像中移动的距离,求取当前状态下目标的移动速度及其加速度,得到模型更新率与速度的关系式,依据加速度对目标运动的预测作用求取模板更新率,更新相关滤波器模型;
步骤五:判断视频帧是否到达最后一帧,如果是,则结束跟踪过程,否则跳转到下一帧的目标跟踪过程中,重复步骤二~步骤五。
本发明还包括这样一些结构特征:
1.步骤二是改进目标搜索区域的方法包括:
步骤2.1:确定当前跟踪过程中目标的大小,设目标的高度和宽度分别为h和w,下一帧的搜索区域高度和宽度分别为H和W,其中搜索区域的中心位置与目标中心位置重合,而H、W由下式计算得到:
Figure BDA0002657100730000031
步骤2.2:对通过上一步骤得到目标搜索区域进行修正,定义目标高度与宽度之比k,k按下式确定:
Figure BDA0002657100730000032
k越大表示目标越狭长,当k≥2时,认为目标比例失衡,需对搜索区域进行再调整,当h=max(h,w)时,调整方法如下:
Figure BDA0002657100730000033
其中,H′为修正后目标搜索区域的高度,W′为修正后目标搜索区域的宽度,为调整系数,显然
Figure BDA0002657100730000035
当高度比宽度长时,目标上下可搜索的区域应该增大,通过乘以
Figure BDA0002657100730000036
来进行;同样,目标左右区域可搜索面积应该缩小,通过除以
Figure BDA0002657100730000037
来实现;反之,当w=max(h,w)时,调整方法如下:
Figure BDA0002657100730000038
此时宽度比高度长,目标左右可搜索的区域应该增大,通过乘以
Figure BDA0002657100730000039
来进行;同样,目标上下区域可搜索面积应该缩小,通过除以
Figure BDA00026571007300000310
来实现;当k<2时,则无需修正。
2.步骤四是改进的更新滤波器模型的方法,具体包括:
步骤4.1:定义目标跟踪过程中目标速度为相邻帧预测框中心像素点在图像中的欧式距离,即速度v的计算公式为:
Figure BDA00026571007300000311
其中,点(xn,yn)为当前帧预测目标位置的中心在图像中像素点位置,点(xn-1,yn-1)为前一帧目标位置的中心在图像中像素点位置;
步骤4.2:根据上一步得到的目标速度,依据研究得到的滤波器模型的更新率η与v的关系式,对η进行自适应调整,调整的方法如下:
Figure BDA0002657100730000041
步骤4.3:计算目标跟踪过程中的加速度a,依据加速度对更新率进行预测调整,速度变化与图像帧间隔相关,假设某个视频序列帧速率为fr,即一秒钟内包含多少幅图像,则目标加速度为:
Figure BDA0002657100730000042
其中,vn为当前帧目标速度,vn-1为前一帧目标速度,Δt为相邻帧时间差,为fr的倒数,此时求得的加速度相邻帧之间的平均加速度;当目标速度减小时,即a<0,模型更新率不仅要按照之前的关系式进行调整,还要根据a的值进行修正,提前减小模板更新率,适应目标减速过程;因此得到如下模型更新率的修正公式:
η′=η+δa
其中,δ为修正系数,η′为修正后滤波器模型实际更新速率,δa为滤波器模型更新速率的修正值,最后将修正后的更新率再代入该方法中,改善跟踪效果。
3.修正值的量级一般要比η小一个量级,通过对不同序列的跟踪实验,确定δ的值以获取最佳跟踪效果,对于一般帧速率在24~30fps的视频序列,δ取值范围为3×10-4~4×10-4,帧速率越大则δ取值应越小。
与现有技术相比,本发明的有益效果是:本发明设计了一种能随着目标改变而不断自适应调整目标搜索区域的方法,通过对不同形状大小的目标进行修正目标搜索区域的高度和宽度,使得搜索区域对目标高度与宽度之比有了一定适应性,对各种尺寸、狭长、矮胖的目标都能确定更适宜的搜索区域,减少不必要的背景区域,优化对目标的跟踪速度;本发明设计了依据目标速度和加速度进行自适应调整更新率的模型更新方法,预先把目标将发生速度变化的这一趋势修正到模型更新率中去,对目标速度和特征变化有一个更迅速的自适应,使得整个跟踪过程中滤波器模型能够很好的将目标特征的变化融入到模型中去,从而优化滤波结构,达到改善跟踪效果的目的。
附图说明
图1目标跟踪方法流程图;
图2(a)是k≥2时改进前目标搜索区域,图2(b)是k<2时改进前目标搜索区域;
图3(a)是k≥2时改进后目标搜索区域,图3(b)是k<2时改进后目标搜索区域;
图4为模型更新率与目标速度的关系式。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
本发明具体实施步骤为:
结合图1,本发明提供的一种基于相关滤波的快速区域搜索的目标跟踪方法,其流程包括:
步骤一:在读取图像序列后,对第一帧图像手动选定目标,提取初始目标区域特征并建立最初的滤波器模型;
步骤二:对于后续图像序列,需要对目标搜索区域进行改进,通过对跟踪过程中前一帧的目标位置及大小进行确定,以前一帧确定的目标中心位置作为中心点,并以目标高度和宽度按照一定公式求取下一帧的目标搜索区域,同时提取搜索区域的目标特征;
步骤三:通过滤波器模型求取目标区域响应图,从而确定最大响应值以及最佳尺度,估计目标中心点的最佳位置;
步骤五:判断视频帧是否到达最后一帧,如果是,则结束跟踪,否则跳转到下一帧的目标跟踪过程中去,重复步骤二~步骤五。
具体的,本发明的第一个改进之处为:步骤二中提到的改进目标搜索区域的方法,其步骤包括:
步骤2.1:在相关滤波算法中,算法在图像中跟踪目标并不是对图像全图进行搜索,而是在前一帧确定的目标位置周围一定范围进行搜索,通常这个范围被设定为2倍于目标的大小,搜索区域中心与目标中心重合。搜索区域越小,计算量越小,跟踪速度快,但包含的背景信息少,目标有可能跑出搜索范围导致跟踪失败;搜索区域越大,则会拖慢跟踪速度。且不同形状尺寸的目标对搜索区域的范围要求也是不同的,不能以固定的方式来确定目标的搜索区域。
为了适应不同图像序列目标自身尺寸大小以及高度与宽度之比的不同,本文提出一种新的确定搜索区域的方法,首先确定当前跟踪过程中目标的大小,设目标的高度和宽度分别为h和w,下一帧方法的搜索区域高度和宽度分别为H和W,其中搜索区域的中心位置与目标中心位置重合,而H、W由下式计算得到:
Figure BDA0002657100730000061
步骤2.2:为了适应不同形状的目标,需对通过上一步骤得到目标搜索区域进行修正,定义目标高度与宽度之比k,k按下式确定:
Figure BDA0002657100730000062
k越大表示目标越狭长,当k≥2时,认为目标比例失衡,需对搜索区域进行再调整,当h=max(h,w)时,调整方法如下:
Figure BDA0002657100730000063
其中,H′为修正后目标搜索区域的高度,W′为修正后目标搜索区域的宽度,
Figure BDA0002657100730000064
为调整系数,显然
Figure BDA0002657100730000065
当高度比宽度长时,目标上下可搜索的区域应该增大,通过乘以
Figure BDA0002657100730000066
来进行;同样,目标左右区域可搜索面积应该缩小,通过除以
Figure BDA0002657100730000067
来实现。反之,当w=max(h,w)时,调整方法如下:
Figure BDA0002657100730000068
此时宽度比高度长,目标左右可搜索的区域应该增大,通过乘以
Figure BDA0002657100730000069
来进行;同样,目标上下区域可搜索面积应该缩小,通过除以
Figure BDA00026571007300000610
来实现。当k<2时,则无需修正。通过这一步的改进,使得搜索区域对目标高度与宽度有了一定适应性,对各种尺寸、狭长、矮胖的目标都能确定更适宜的搜索区域,减少不必要的背景区域,减少跟踪过程中的计算量,加快跟踪速度。
图2(a)与图2(b)的右侧图像是通过对图2(a)与图2(b)的左侧图像采用SAMF算法提取到的,首先通过滤波器找到目标最可能出现的位置,再以这个位置为中心,将目标搜索区域设定为目标区域的2倍大小(常规方法,例如文献《改进的SAMF目标跟踪算法》),提取候选框目标,然后使用预测目标框对每个比例的目标特征执行相关运算,并找到响应值最大的对应的比例,得到目标的最佳位置及最佳尺度,从而确定目标搜索区域。图3(a)与图3(b)的右侧图像是通过对图3(a)与图3(b)的左侧图像采用改进目标搜索的区域的方法(本专利的方法)提取到的,该方法在提取候选框目标时不再是按图2所示那样,仅将目标搜索区域设定为目标区域的2倍大小,而是如图3所示能适应不同形状的目标,将搜索区域的背景信息均匀分布在目标周围,从而减少一部分不必要的背景区域。
当目标高度与宽度之比k≥2时,通过对比图3(a)与图2(a)中的目标搜索区域,可以发现对于目标上下方向区域明显减少,而左右方向区域依旧提供较多的区域进行搜索;当目标高度与宽度之比k<2时,通过对比图3(b)与图2(b)中的目标搜索区域,可以发现目标四周区域均衡,但整体搜索区域对比改进前出现明显缩小。通过这一步的改进,使得搜索区域对目标高度与宽度之比有了一定适应性,对各种尺寸、狭长、矮胖的目标都能确定更适宜的搜索区域,减少不必要的背景区域,减少跟踪过程中计算量,加快跟踪速度。
具体的,本发明中的第二个改进之处为:步骤四中提到的一种滤波器模型更新的方法,其步骤包括:
步骤4.1:在相关滤波算法中,滤波器模型按照模板更新的方式进行,即:
Yi=(1-η)Yi-1+ηXi
其中,Yi为第i帧滤波器模型,Xi为第i帧提取的目标特征,且
Figure BDA0002657100730000071
即使用第一帧图像的目标特征生成滤波器模型,η是模板更新率。
如果使用较低的更新率,则它会缓慢更新模板,跟踪器与目标差别会越来越大,且更新率低会限制跟踪器随着目标改变而改变的特性。但是,选择较大的学习率可以使模板快速更新,跟踪器更倾向于对在背景中快速移动的目标的跟踪,因此设计自适应目标速度的滤波器模型更新方法,使η随着目标速度变化进行自适应调整。首先,定义目标跟踪过程中目标速度为相邻帧预测框中心像素点在图像中的欧式距离,即速度v的计算公式为:
Figure BDA0002657100730000072
其中,点(xn,yn)为当前帧预测目标位置的中心在图像中像素点位置,点(xn-1,yn-1)为前一帧目标位置的中心在图像中像素点位置。
步骤4.2:根据上一步得到的目标速度,通过大量实验,不断对不同运动快慢的目标进行更新率调整,使得跟踪效果最佳,最终得到的滤波器模型的更新率η与v的近似拟合关系式,即v越小,η也应该越小,随着v增大,η出现一个增长率先增后减的过程,最终收敛于1,拟合曲线如图4所示,其大致拟合的关系式如下:
Figure BDA0002657100730000081
步骤4.3:计算目标跟踪过程中的加速度a,依据加速度对更新率进行预测调整。根据本文速度的定义,速度变化与图像帧间隔相关,假设某个视频序列帧速率为fr,即一秒钟内包含多少幅图像,那么目标加速度按下式求得:
Figure BDA0002657100730000082
其中,vn为当前帧目标速度,vn-1为前一帧目标速度,Δt为相邻帧时间差,为fr的倒数,此时求得的加速度相邻帧之间的平均加速度。当目标速度减小时,即a<0,模型更新率不仅要按照之前的关系式进行调整,还要根据a的值进行修正,提前减小模板更新率,适应目标减速过程。因此得到如下模型更新率的修正公式:
η′=η+δa
其中,δ为修正系数,η′为修正后滤波器模型实际更新速率,δa为滤波器模型更新速率的修正值。此外,对更新率进行修正要不影响原本更新率与目标速度的整体变化趋势,因此修正值的量级一般要比η小一个量级,通过对不同序列的跟踪实验,确定δ的值以获取最佳跟踪效果,对于一般帧速率在24~30fps的视频序列,δ取值范围为3×10-4~4×10-4,帧速率越大则δ取值应越小。
通过添加这一步改进,当目标速度增加时,vn>vn-1,a>0,目标处于加速过程,修正后的η′应当大于η;当目标速度减小时,vn<vn-1,a<0,目标处于减速过程,修正后的η′应当小于于η;当目标速度不变时,vn=vn-1,a=0,目标处于匀速过程,修正后的η′应当等于η。总之应当预先把目标将发生速度变化的这一趋势修正到模型更新率中去,这样该方法能对目标速度和特征变化有一个更迅速的自适应。最后将修正后的更新率再代入到方法中,改善目标的跟踪效果。
综上,本发明公开了一种基于相关滤波的快速区域搜索的目标跟踪方法。通过对跟踪过程中前一帧的目标位置及大小进行确定,以前一帧确定的目标中心位置作为中心点,并以目标高度和宽度按照一定公式求取下一帧的目标搜索区域。通过相邻帧目标在图像中移动的距离,求取当前状态下目标的移动速度及其加速度,得到模型更新率与速度的关系式,从而依据加速度对目标运动的预测作用进行更新率调整。本发明设计改进的确定目标搜索区域的方法,使得搜索区域均匀分布于目标周围,缩小了搜索区域,加快目标跟踪速度;通过设计的自适应目标速度与加速度的模型更新方式,使得滤波器模型能够更好的表示目标,提高了跟踪精度。

Claims (4)

1.一种基于相关滤波的快速区域搜索的目标跟踪方法,其特征在于:步骤如下:
步骤一:读取图像序列,对第一帧图像手动选定目标,提取初始目标区域特征并建立最初的滤波器模型;
步骤二:对于后续图像序列,需要对目标搜索区域进行改进,通过对跟踪过程中前一帧的目标位置及大小进行确定,以前一帧确定的目标中心位置作为中心点,并以目标高度和宽度按照一定公式求取下一帧的目标搜索区域,同时提取搜索区域的目标特征;
步骤三:通过滤波器模型求取目标区域响应图,确定最大响应值以及最佳尺度,估计目标中心点的最佳位置;
步骤四:根据相邻帧目标在图像中移动的距离,求取当前状态下目标的移动速度及其加速度,得到模型更新率与速度的关系式,依据加速度对目标运动的预测作用求取模板更新率,更新相关滤波器模型;
步骤五:判断视频帧是否到达最后一帧,如果是,则结束跟踪过程,否则跳转到下一帧的目标跟踪过程中,重复步骤二~步骤五。
2.根据权利要求1所述的一种基于相关滤波的快速区域搜索的目标跟踪方法,其特征在于:步骤二是改进目标搜索区域的方法包括:
步骤2.1:确定当前跟踪过程中目标的大小,设目标的高度和宽度分别为h和w,下一帧的搜索区域高度和宽度分别为H和W,其中搜索区域的中心位置与目标中心位置重合,而H、W由下式计算得到:
Figure FDA0002657100720000011
步骤2.2:对通过上一步骤得到目标搜索区域进行修正,定义目标高度与宽度之比k,k按下式确定:
Figure FDA0002657100720000012
k越大表示目标越狭长,当k≥2时,认为目标比例失衡,需对搜索区域进行再调整,当h=max(h,w)时,调整方法如下:
Figure FDA0002657100720000013
其中,H′为修正后目标搜索区域的高度,W′为修正后目标搜索区域的宽度,
Figure FDA0002657100720000021
为调整系数,显然
Figure FDA0002657100720000022
当高度比宽度长时,目标上下可搜索的区域应该增大,通过乘以
Figure FDA0002657100720000023
来进行;同样,目标左右区域可搜索面积应该缩小,通过除以
Figure FDA0002657100720000024
来实现;反之,当w=max(h,w)时,调整方法如下:
Figure FDA0002657100720000025
此时宽度比高度长,目标左右可搜索的区域应该增大,通过乘以
Figure FDA0002657100720000026
来进行;同样,目标上下区域可搜索面积应该缩小,通过除以
Figure FDA0002657100720000027
来实现;当k<2时,则无需修正。
3.根据权利要求1或2所述的一种基于相关滤波的快速区域搜索的目标跟踪方法,其特征在于:步骤四是改进的更新滤波器模型的方法,具体包括:
步骤4.1:定义目标跟踪过程中目标速度为相邻帧预测框中心像素点在图像中的欧式距离,即速度v的计算公式为:
Figure FDA0002657100720000028
其中,点(xn,yn)为当前帧预测目标位置的中心在图像中像素点位置,点(xn-1,yn-1)为前一帧目标位置的中心在图像中像素点位置;
步骤4.2:根据上一步得到的目标速度,依据研究得到的滤波器模型的更新率η与v的关系式,对η进行自适应调整,调整的方法如下:
Figure FDA0002657100720000029
步骤4.3:计算目标跟踪过程中的加速度a,依据加速度对更新率进行预测调整,速度变化与图像帧间隔相关,假设某个视频序列帧速率为fr,即一秒钟内包含多少幅图像,则目标加速度为:
Figure FDA00026571007200000210
其中,vn为当前帧目标速度,vn-1为前一帧目标速度,Δt为相邻帧时间差,为fr的倒数,此时求得的加速度相邻帧之间的平均加速度;当目标速度减小时,即a<0,模型更新率不仅要按照之前的关系式进行调整,还要根据a的值进行修正,提前减小模板更新率,适应目标减速过程;因此得到如下模型更新率的修正公式:
η′=η+δa
其中,δ为修正系数,η′为修正后滤波器模型实际更新速率,δa为滤波器模型更新速率的修正值,最后将修正后的更新率再代入该方法中,改善跟踪效果。
4.根据权利要求3所述的一种基于相关滤波的快速区域搜索的目标跟踪方法,其特征在于:修正值的量级一般要比η小一个量级,通过对不同序列的跟踪实验,确定δ的值以获取最佳跟踪效果,对于一般帧速率在24~30fps的视频序列,δ取值范围为3×10-4~4×10-4,帧速率越大则δ取值应越小。
CN202010891350.7A 2020-08-30 2020-08-30 一种基于相关滤波的快速区域搜索的目标跟踪方法 Active CN112037272B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010891350.7A CN112037272B (zh) 2020-08-30 2020-08-30 一种基于相关滤波的快速区域搜索的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010891350.7A CN112037272B (zh) 2020-08-30 2020-08-30 一种基于相关滤波的快速区域搜索的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112037272A true CN112037272A (zh) 2020-12-04
CN112037272B CN112037272B (zh) 2023-11-17

Family

ID=73587387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010891350.7A Active CN112037272B (zh) 2020-08-30 2020-08-30 一种基于相关滤波的快速区域搜索的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112037272B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111890A (zh) * 2021-04-08 2021-07-13 哈尔滨工程大学 一种基于水天线的远距离水面红外目标快速跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100067741A1 (en) * 2007-12-28 2010-03-18 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
CN106530340A (zh) * 2016-10-24 2017-03-22 深圳市商汤科技有限公司 一种指定物体跟踪方法
CN108765458A (zh) * 2018-04-16 2018-11-06 上海大学 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110889863A (zh) * 2019-09-03 2020-03-17 河南理工大学 一种基于目标感知相关滤波的目标跟踪方法
CN111583294A (zh) * 2020-04-22 2020-08-25 西安工业大学 一种结合尺度自适应与模型更新的目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100067741A1 (en) * 2007-12-28 2010-03-18 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
CN106530340A (zh) * 2016-10-24 2017-03-22 深圳市商汤科技有限公司 一种指定物体跟踪方法
CN108765458A (zh) * 2018-04-16 2018-11-06 上海大学 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110889863A (zh) * 2019-09-03 2020-03-17 河南理工大学 一种基于目标感知相关滤波的目标跟踪方法
CN111583294A (zh) * 2020-04-22 2020-08-25 西安工业大学 一种结合尺度自适应与模型更新的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郑江滨, 张艳宁, 冯大淦, 赵荣椿: "视频监视中运动目标的检测与跟踪算法", 系统工程与电子技术, no. 10 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111890A (zh) * 2021-04-08 2021-07-13 哈尔滨工程大学 一种基于水天线的远距离水面红外目标快速跟踪方法
CN113111890B (zh) * 2021-04-08 2022-09-27 哈尔滨工程大学 一种基于水天线的远距离水面红外目标快速跟踪方法

Also Published As

Publication number Publication date
CN112037272B (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
CN110675435B (zh) 基于卡尔曼滤波和χ2检测平滑处理的车辆轨迹跟踪方法
CN109633589A (zh) 目标跟踪中基于多模型优化多假设的多目标数据关联方法
CN112257569B (zh) 一种基于实时视频流的目标检测和识别方法
CN107564034A (zh) 一种监控视频中多目标的行人检测与跟踪方法
CN110796676A (zh) 高置信度更新策略结合svm再检测技术的目标跟踪方法
CN111583294B (zh) 一种结合尺度自适应与模型更新的目标跟踪方法
CN107301657B (zh) 一种考虑目标运动信息的视频目标跟踪方法
CN111274917B (zh) 一种基于深度检测的长时目标跟踪方法
CN110211160B (zh) 一种基于改进Camshift算法的人脸跟踪方法
CN111192296A (zh) 一种基于视频监控的行人多目标检测与跟踪方法
CN111008991B (zh) 一种背景感知的相关滤波目标跟踪方法
CN111161309B (zh) 一种车载视频动态目标的搜索与定位方法
CN113327272A (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN114708300B (zh) 一种可抗遮挡的自适应目标跟踪方法及系统
CN106952294A (zh) 一种基于rgb‑d数据的视频跟踪方法
CN111782871A (zh) 基于时空强化学习的跨模态视频时刻定位方法
CN111091582A (zh) 一种基于深度神经网络的单视觉目标跟踪算法及系统
CN111242985A (zh) 基于马尔科夫模型的视频多行人追踪方法
CN111639570B (zh) 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN113538509A (zh) 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置
CN112037272A (zh) 一种基于相关滤波的快速区域搜索的目标跟踪方法
He et al. Intelligent vehicle pedestrian tracking based on YOLOv3 and DASiamRPN
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
CN111161323A (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN113111890B (zh) 一种基于水天线的远距离水面红外目标快速跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant