CN116228817A - 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法 - Google Patents

一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法 Download PDF

Info

Publication number
CN116228817A
CN116228817A CN202310226137.8A CN202310226137A CN116228817A CN 116228817 A CN116228817 A CN 116228817A CN 202310226137 A CN202310226137 A CN 202310226137A CN 116228817 A CN116228817 A CN 116228817A
Authority
CN
China
Prior art keywords
target
frame
main peak
value
occlusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310226137.8A
Other languages
English (en)
Other versions
CN116228817B (zh
Inventor
王俊波
周鹏
朱伟
常传文
王刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202310226137.8A priority Critical patent/CN116228817B/zh
Publication of CN116228817A publication Critical patent/CN116228817A/zh
Application granted granted Critical
Publication of CN116228817B publication Critical patent/CN116228817B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,包括:读取视频流初始帧确定目标位置坐标以及目标框尺寸;提取目标HOG特征与CN特征对检测器进行初始化;读取后续帧图像,对相邻帧抖动情况与目标状态进行评估;根据评估结果判断是否需要对目标位置进行预测以及是否需要对检测器模型进行更新;判断目标是否消失进而是否需要对检测进行脱锁重新初始化。本发明有效提升基于相关滤波单目标跟踪方法的实时性和稳定性。在目标被遮挡或者跟踪镜头出现抖动时通过对目标一段时间内的运动轨迹的记录结果进行轨迹预测,并根据抖动幅度实时更新目标重搜索范围,从而提升了跟踪器的抗遮挡与抗抖动能力,进而提升了跟踪器的鲁棒性。

Description

一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
技术领域
本发明属于计算机视觉领域中的目标检测和跟踪技术领域,尤其涉及一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法。
背景技术
随着计算机视觉领域技术的不断突破,越来越多的功能得以实现。单目标跟踪是目前计算机视觉领域的热门研究方向,旨在实现最为简单的给定一个目标,追踪这个目标的位置的功能,在跟踪过程中,需要保证跟踪器的实时性和稳定性,以确保跟踪的性能。单目标跟踪在军事制导、视频监控、机器人视觉导航、人机交互、以及医疗诊断等许多方面有着广泛的应用前景,尤其在无人平台下的单目标跟踪,能够减少人力资源的浪费,自动进行目标运动轨迹的跟踪和预测,具有很强的实际应用潜力。因此,对在无人平台下的单目标跟踪的研究意义非凡。
单目标跟踪这部分的方法主要有两大类:生成类和判别类。生成类方法如光流法、粒子滤波、meanshift跟踪算法等,特点是针对目标建模或提取目标特征,在后续帧中进行相似特征搜索,逐步迭代实现目标定位。但这类方法缺点也很明显,一是图像的背景信息未得到很好的利用,二是搜索速度不够,无法达到实时性要求。
判别式方法是将目标和背景同时考虑,通过对比目标和背景的差异,将目标提取出来,从而得到当前帧中目标位置。将匹配问题转化为了分类问题。2010年,MOSSE首次将通信领域的相关滤波方法引入到目标跟踪中。作为鉴别式方法的一种,相关滤波无论在速度上还是准确率上,都显示出更优越的性能。由于其优越的性能,由此诞生了一大批基于相关滤波的跟踪算法。由于神经网络的快速发展,AlexNet、GoogleNet、ResNet等end-to-end方法已经越来越受重视,神经网络优势在于不再需要明确知道目标的确定特征,能够融合更多的特征,通过训练,网络自己去搜索出最合适的特征。怎样去设计和提取目标的特定特征转变为了怎样去设计网络结构使其能发现和利用更丰富的特征。但由于平台算力的限制,大多基于神经网络的单目标跟踪算法在实时性上有着较差的表现,因此,在实际使用中,基于相关滤波的单目标跟踪算法仍占据着主流地位。
在一些复杂场景中,由于目标存在着遮挡、形变、尺度变换、运动模糊、光照不均匀等问题,基于相关滤波的单目标跟踪算法由于其固有的在线特性,容易出现模型被污染,丢失目标的问题,极大地影响了算法的鲁棒性。因此需要设计算法具有一定的抗遮挡、抗抖动能力,并能够在确认丢失目标后对目标运动轨迹进行简单的预测,并能够重新找回目标。同时,由于平台算力的限制,设计的算法需要具有复杂度低,简单有效的特点,以保证算法具有实时性,从而具备落实应用的实际意义。
发明内容
本发明目的在于提供一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,在相关滤波的基础上,在遮挡判断、抖动评估、轨迹预测、模型更新、丢失脱锁等方面对跟踪策略进行补全与改进,提升了跟踪算法的鲁棒性与实时性,以解决在一些复杂场景中,由于目标存在着遮挡、形变、尺度变换、运动模糊、光照不均匀等问题,基于相关滤波的单目标跟踪算法由于其固有的在线特性,容易出现模型被污染,丢失目标的问题,极大地影响了算法的鲁棒性以及实时性的技术问题。
为解决上述技术问题,本发明的具体技术方案如下:
一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,包括以下步骤:
步骤1:读取视频流初始帧信息,选定目标,确定目标位置坐标以及目标框尺寸,分别提取目标方向梯度直方图(HOG)特征与颜色(CN)特征信息,采用循环矩阵法获取初始帧目标的多个样本,对检测器进行初始化;
步骤2:读取下一帧图像信息,采用Lucas-Kanade(LK)光流算法对前一帧与当前帧图像抖动程度计算,对当前帧的抖动情况进行评估,从而确定搜索范围的大小;
步骤3:采用当前检测器对下一帧图像进行处理,围绕前一帧的目标位置坐标进行搜索,搜索范围设定为步骤2中确定的值,得到最符合结果的相关滤波响应图;根据响应图主峰与第二旁瓣比以及主峰大小判断目标状态,若目标被遮挡,则转到步骤4,若目标未被遮挡,根据相关滤波响应图峰值坐标确定目标当前帧的位置,并记录当前帧目标位置对比前一帧的变化值,然后转到步骤6;
步骤4:判断目标是否已经被连续遮挡a1帧,若是,则目标判定为消失,转到步骤8,若否,则转到步骤5;a1取值为50~150;
步骤5:根据跟踪目标的前一帧位置变化值与历史位置变化值预测其移动轨迹,分别采用卡尔曼滤波与灰色预测算法对目标在当前帧的位置变化值进行预测,卡尔曼滤波预测结果为(x1,y1),灰色预测结果为(x2,y2),对两种预测结果进行评估后择优作为预测结果给出目标位置;
步骤6:根据响应图主峰与第一旁瓣比、主峰大小以及当前帧与上次更新模型的那一帧之间间隔是否满足大于帧数b1,判断是否应该跟新检测器模型,若是,则将当前帧的目标框信息存入样本库,并对样本库整理,去掉对跟踪影响小的陈旧样本,进而对模型进行更新,若否,则转到步骤2;b1取值为6~30;
步骤7:判断目标当前帧位置是否超过图像范围,若是,则转到步骤8,若否,则回到步骤2;
步骤8:读取下一帧图像信息,对检测器进行重新初始化,回到步骤1。
进一步的,步骤2中,采用LK光流算法提取相邻帧间的光流,评估相邻帧之间画面抖动程度,具体计算抖动公式为:
Figure BDA0004118510910000031
其中,R为图像边长,Xij(t)为对应t时刻光流场中i行j列的X分量,Yij(t)为对应t时刻光流场中i行j列的的Y分量,共有M行N列光流参量,d为评估图像抖动参数;目标搜索区域尺度为d*5*103+4的值保留一位小数。
进一步的,步骤3中目标遮挡的判定是基于主峰与第二旁瓣比以及主峰大小二个指标,步骤6中目标遮挡的判定是基于主峰与第一旁瓣比以及主峰大小二个指标,从而能够对目标遮挡程度进行精确的程度判断;设定阈值c1,c2,若主峰与第二旁瓣比小于c1,则判定为严重遮挡,同时停止目标位置检测与模型更新,采用根据跟踪目标的前一帧位置变化值与历史位置变化值预测其移动轨迹;若主峰与第一旁瓣比小于c1,则判定为轻微遮挡,停止模型更新,但仍可使用现有检测器模型对目标进行跟踪;若主峰与第一旁瓣比大于等于c1,再对主峰能量集中域进行判断,若主峰能量集中域大于总响应图区域的c2,则判断目标进行了形变、模糊或亮度变化的情况;主峰能量集中域为响应图中能量值在峰值的0.8倍以上的元素个数;c1,c2取值分别为1.5~2.5,0.08%~0.13%。
进一步的,步骤5中,采用卡尔曼滤波与灰色预测算法对目标在当前帧的位置变化值进行预测,而非直接对目标位置进行预测,减小了由于预测而带来的目标位置变化的不稳定性;其中,卡尔曼滤波状态转移矩阵为:
Figure BDA0004118510910000041
其中dt为帧更新时间,为帧率的倒数。更新矩阵为:
Figure BDA0004118510910000042
观察噪声方差矩阵为:
Figure BDA0004118510910000043
运动估计误差矩阵为:
Figure BDA0004118510910000044
h为初始帧目标框高度。
灰色预测算法采用一阶模型,即GM(1,1)算法,其中参与预测的数据量参数为e1,e1取值为1~150。
5、根据权利要求1所述的基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,在所述步骤5中,比较卡尔曼滤波预测与灰色预测结果,进行比对,择优选择预测结果;判断依据为:判断灰色预测结果的绝对值与卡尔曼滤波预测结果的绝对值之比是否大于阈值f1,f1取值为1.5~2.5。
本发明的一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,具有以下优点:
1、本发明对目标遮挡的判定是基于主峰与第一、第二旁瓣比以及主峰大小三个指标,从而能够对目标状态进行精确的程度判断。首先通过主峰与第一、第二旁瓣比这一指标评估目标被遮挡的状况,从而对目标跟踪的状态进行实时调整,然后再通过主峰能量集中域指标来评估目标的形变等状况,进而对模型更新状态进行实时调整。通过对目标当前状态进行精确的程度判断,使得跟踪器的目标定位与模型更新都更准确,更稳定,同时不消耗过多的计算资源;
2、本发明对视频流的抖动状况进行了评估,采用LK光流算法对两帧图像抖动程度计算,从而能够实时改变搜索范围的大小,从而达到了提高跟踪准确性与减少算力的动态平衡;
3、本发明采用卡尔曼滤波和灰色预测两种预测方法对目标的位置变化值进行预测,通过对位置变化值而非直接对目标位置进行预测,减小了由于预测而带来的目标位置变化的不稳定性。同时,由于卡尔曼滤波适用于对线性运动的预测,而灰色预测适用于非线性运动的拟合,综合运用这两种方法,有效提高了对目标运动轨迹预测的准确性;
4、本发明有别于传统相关滤波算法逐帧跟新模型,考虑到实时目标跟踪过程中,每秒视频流帧数可达25~50帧,调整更新策略为每隔b1帧更新一次模型。同时,为了提高跟踪过程中的鲁棒性,减少由于目标形变等对跟踪带来的影响,设立样本库,及时存入新样本,删除过时的旧样本,提高跟踪的准确性和鲁棒性;
5、本发明为避免由于目标长期被遮挡或由于超过画面范围带来跟踪器失效的情况,设立了脱锁机制,当出现上述情况时,可以准确判断并对跟踪器进行初始化,重新跟踪新目标,从而解决了这一问题。
本发明基于相关滤波算法,对相关滤波算法运行过程中容易出现的模型被污染以及跟踪丢失的情况进行了解决,提高了算法的准确性以及鲁棒性,并降低了对设备算力的需求,为实际工程应用提供了一种足够优秀的单目标跟踪解决方案。
附图说明
图1为本发明实施方式中基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法的流程图。
具体实施方式
为了更好地了解本发明的目的、结构及功能,下面结合附图,对本发明一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法做进一步详细的描述。
图1为方案的流程图,包括以下步骤:
步骤1:读取视频流初始帧信息,选定目标,确定目标位置坐标以及目标框尺寸,分别提取目标方向梯度直方图HOG特征与颜色CN特征信息,采用循环矩阵法获取初始帧目标的多个样本,对检测器进行初始化;
具体包括以下步骤:
步骤1.1、读取视频初始帧,框选出所需跟踪的目标,获取目标初始位置(x0,y0)以及目标框大小(w0,h0),转到步骤1.2;
步骤1.2:提取目标HOG特征与CN特征信息,转到步骤1.3;
步骤1.3:采用循环矩阵法获取初始帧目标的多个样本,对检测器进行初始化,转到步骤2。
步骤2:读取下一帧图像信息,采用Lucas-Kanade(LK)光流算法对前一帧与当前帧图像抖动程度计算,对当前帧的抖动情况进行评估,从而确定搜索范围的大小。
具体包括以下步骤:
步骤2.1:判断是否能获取下一帧图像信息;
1)能获取下一帧图像信息,获取图像,转到步骤2.2;
2)不能获取下一帧图像信息,跟踪结束。
步骤2.2:根据LM光流算法结果,计算相邻帧之间画面抖动程度d,目标搜索区域尺度为d*5*103+4的值保留一位小数,转到步骤3;
步骤3、采用当前检测器对下一帧图像进行处理,围绕前一帧的目标位置坐标进行搜索,搜索范围设定为步骤2中确定的值,得到最符合结果的相关滤波响应图;根据响应图主峰与第二旁瓣比以及主峰大小判断目标状态,若目标被遮挡,则转到步骤4,若目标未被遮挡,根据相关滤波响应图峰值坐标确定目标当前帧的位置,并记录当前帧目标位置对比前一帧的变化值,然后转到步骤6。
具体包括以下步骤:
步骤3.1:提取目标搜索区域HOG特征与CN特征信息,目标检测器获取响应图,转到步骤3.2;
步骤3.2:根据响应图主峰与第二旁瓣比k2判断目标是否被遮挡,设定阈值c1取值为2,
具体判定方法如下:
1)当响应图主峰与第二旁瓣比k2小于c1时,表示目标被严重遮挡,转到步骤4;
2)当响应图主峰与第二旁瓣比k2大于或等于c1时,表示目标未发生遮挡或遮挡不严重,转到步骤6.3;
步骤4:根据保留历史数据,判断遮挡持续时间是否超过设定帧数门限a1
1)遮挡持续时间未超过设定帧数门限a1,转到步骤5;
2)遮挡持续时间超过设定帧数门限a1,转到步骤8;
步骤5:根据跟踪目标的前一帧位置变化值与历史位置变化值预测其移动轨迹,分别采用卡尔曼滤波与灰色预测算法对目标在当前帧的位置变化值进行预测,卡尔曼滤波预测结果为(x1,y1),灰色预测结果为(x2,y2),对两种预测结果进行评估后择优作为预测结果给出目标位置,具体包括以下步骤:
根据卡尔曼滤波和灰色预测两种预测方法对目标的位置变化值进行预测,两种预测方法如下:
步骤5.1、卡尔曼滤波预测公式如下:
x'=F·x
x=[x y w h vx vy vw vh]T
P'=FPFT+Q
y=x'(1:4)-Hx'
S=HP'HT+R
K=P'HTS-1
xnew=x'+Ky
P=P'-KSKT
其中F为状态转移矩阵,P为当前帧的协方差,Q为卡尔曼滤波器的运动估计误差,代表不确定度,H为更新矩阵,R为观察噪声方差矩阵,x,y,w,h,vx,vy,vw,vh分别为目标位置横坐标,目标位置纵坐标,目标框宽度,目标框高度,目标位置横坐标相较于前一帧变化值,目标位置纵坐标相较于前一帧变化值,目标框宽度相较于前一帧变化值和目标框高度相较于前一帧变化值;
步骤5.2、灰色预测采用GM(1,1)模型,预测数据为历史帧的位置变化值,参与预测的数据量参数为e1
预测出目标位置变化值分别为(vx1,vy1),(vx2,vy2),其中,vx1为卡尔曼滤波预测目标位置横坐标相较于前一帧变化值,vy1为卡尔曼滤波预测目标位置纵坐标相较于前一帧变化值,vx2为灰色预测目标位置横坐标相较于前一帧变化值,vy2为灰色预测目标位置横坐标相较于前一帧变化值,转到步骤5.3;
步骤5.3:比较卡尔曼滤波预测与灰色预测结果,进行比对,判断灰色预测结果的绝对值是否大于卡尔曼滤波预测结果的绝对值的两倍,若是,转到步骤6.1;若否,转到步骤6.2;
步骤6、根据响应图主峰与第一旁瓣比、主峰大小以及当前帧与上次更新模型的那一帧之间间隔是否满足大于帧数b1,判断是否应该跟新检测器模型,若是,则将当前帧的目标框信息存入样本库,并对样本库整理,去掉对跟踪影响小的陈旧样本,进而对模型进行更新,若否,则转到步骤2;b1取值为6~30。
具体包括以下步骤:
步骤6.1:采用卡尔曼滤波预测结果为目标预测偏移值,目标位置更新为(xn-1+vx1,yn-1+vy1),其中xn-1为上一帧目标所在位置的横坐标,yn-1为上一帧目标所在位置的纵坐标,转到步骤7;
步骤6.2:采用灰色预测结果为目标预测偏移值,目标位置更新为(xn-1+vx2,yn-1+vy2),其中xn-1为上一帧目标所在位置的横坐标,yn-1为上一帧目标所在位置的纵坐标,转到步骤7;
步骤6.3:根据响应图主峰与第一旁瓣比k1以及主峰能量集中域k3判断跟踪器模型是否需要更新,设定阈值c1,c2取值分别为2,0.1%,具体判定方法如下:
1)当响应图主峰与第一旁瓣比k2小于c1时,说明目标被略微遮挡,不对跟踪器模型进行更新,转到步骤7;
2)当响应图主峰与第一旁瓣比k2大于或等于c1且主峰能量集中域k3大于响应图面积×c2时,说明目标未被明显遮挡但状态发生了部分变化,需要将当前帧目标样本计入样本库,对样本库进行跟新,转到步骤6.4;
3)当响应图主峰与第一旁瓣比k2大于或等于c1且主峰能量集中域k3小于或等于响应图面积×c2时,说明目标未出现明显变化,判断距上次更新是否超过设定帧数门限b1,若是,则进行更新,转到步骤6.4,若否,则不更新,转到步骤15。
步骤6.4:将当前帧目标框定样本计入样本库,并删去最陈旧样本,转到步骤7;
步骤7:判断当前目标位置(xn+1,yn+1)是否超过图像边界范围,若是,转到步骤8,若否,转到步骤2;
步骤8:当前追踪目标消失,需要重新框选新的跟踪目标,并对跟踪器进行重新初始化,转到步骤1。
本发明公开了一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,可以有效提升基于相关滤波单目标跟踪方法的实时性和稳定性。在目标被遮挡或者跟踪镜头出现抖动时可以通过对目标一段时间内的运动轨迹的记录结果进行轨迹预测,并根据抖动幅度实时更新目标重搜索范围,从而有效提升了跟踪器的抗遮挡与抗抖动能力,进而提升了跟踪器的鲁棒性。本发明可以与任何一种基于相关滤波方法的目标跟踪方法相适配,有着广阔的应用前景。
可以理解,本发明是通过一些实施例进行描述的,本领域技术人员知悉的,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明所保护的范围内。

Claims (5)

1.一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,包括以下步骤:
步骤1:读取视频流初始帧信息,选定目标,确定目标位置坐标以及目标框尺寸,分别提取目标方向梯度直方图HOG特征与颜色CN特征信息,采用循环矩阵法获取初始帧目标的多个样本,对检测器进行初始化;
步骤2:读取下一帧图像信息,采用LK光流算法对前一帧与当前帧图像抖动程度计算,对当前帧的抖动情况进行评估,从而确定搜索范围的大小;
步骤3:采用当前检测器对下一帧图像进行处理,围绕前一帧的目标位置坐标进行搜索,搜索范围设定为步骤2中确定的值,得到最符合结果的相关滤波响应图;根据响应图主峰与第二旁瓣比以及主峰大小判断目标状态,若目标被遮挡,则转到步骤4,若目标未被遮挡,根据相关滤波响应图峰值坐标确定目标当前帧的位置,并记录当前帧目标位置对比前一帧的变化值,然后转到步骤6;
步骤4:判断目标是否已经被连续遮挡a1帧,若是,则目标判定为消失,转到步骤8,若否,则转到步骤5;a1取值为50~150;
步骤5:根据跟踪目标的前一帧位置变化值与历史位置变化值预测其移动轨迹,分别采用卡尔曼滤波与灰色预测算法对目标在当前帧的位置变化值进行预测,卡尔曼滤波预测结果为(x1,y1),灰色预测结果为(x2,y2),对两种预测结果进行评估后择优作为预测结果给出目标位置;
步骤6:根据响应图主峰与第一旁瓣比、主峰大小以及当前帧与上次更新模型的那一帧之间间隔是否满足大于帧数b1,判断是否应该跟新检测器模型,若是,则将当前帧的目标框信息存入样本库,并对样本库整理,去掉对跟踪影响小的陈旧样本,进而对模型进行更新,若否,则转到步骤2;b1取值为6~30;
步骤7:判断目标当前帧位置是否超过图像范围,若是,则转到步骤8,若否,则回到步骤2;
步骤8:读取下一帧图像信息,对检测器进行重新初始化,回到步骤1。
2.根据权利要求1所述的基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,所述步骤2中,采用LK光流算法提取相邻帧间的光流,评估相邻帧之间画面抖动程度,具体计算抖动公式为:
Figure FDA0004118510900000021
其中,R为图像边长,Xij(t)为对应t时刻光流场中i行j列的X分量,Yij(t)为对应t时刻光流场中i行j列的的Y分量,共有M行N列光流参量,d为评估图像抖动参数;目标搜索区域尺度为d*5*103+4的值,保留一位小数。
3.根据权利要求1所述的基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,所述步骤3中目标遮挡的判定是基于主峰与第二旁瓣比以及主峰大小二个指标,步骤6中目标遮挡的判定是基于主峰与第一旁瓣比以及主峰大小二个指标,从而对目标遮挡程度进行精确的程度判断;设定阈值c1,c2,若主峰与第二旁瓣比小于c1,则判定为严重遮挡,同时停止目标位置检测与模型更新,采用根据跟踪目标的前一帧位置变化值与历史位置变化值预测其移动轨迹;若主峰与第一旁瓣比小于c1,则判定为轻微遮挡,停止模型更新,但仍可使用现有检测器模型对目标进行跟踪;若主峰与第一旁瓣比大于等于c1,再对主峰能量集中域进行判断,若主峰能量集中域大于总响应图区域的c2,则判断目标进行了形变、模糊或亮度变化的情况;主峰能量集中域为响应图中能量值在峰值的0.8倍以上的元素个数;c1取值为1.5~2.5,c2取值为0.08%~0.13%。
4.根据权利要求1所述的基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,在所述步骤5中,采用卡尔曼滤波与灰色预测算法对目标在当前帧的位置变化值进行预测,而非直接对目标位置进行预测,减小了由于预测而带来的目标位置变化的不稳定性;其中,卡尔曼滤波状态转移矩阵为:
Figure FDA0004118510900000022
其中dt为帧更新时间,为帧率的倒数;更新矩阵为:
Figure FDA0004118510900000031
观察噪声方差矩阵为:
Figure FDA0004118510900000032
运动估计误差矩阵为:
Figure FDA0004118510900000033
h为初始帧目标框高度。
灰色预测算法采用一阶模型,即GM(1,1)算法,其中参与预测的数据量参数为e1,e1取值为1~150。
5.根据权利要求1所述的基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法,其特征在于,在所述步骤5中,比较卡尔曼滤波预测与灰色预测结果,进行比对,择优选择预测结果;判断依据为:判断灰色预测结果的绝对值与卡尔曼滤波预测结果的绝对值之比是否大于阈值f1,f1取值为1.5~2.5。
CN202310226137.8A 2023-03-10 2023-03-10 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法 Active CN116228817B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310226137.8A CN116228817B (zh) 2023-03-10 2023-03-10 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310226137.8A CN116228817B (zh) 2023-03-10 2023-03-10 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法

Publications (2)

Publication Number Publication Date
CN116228817A true CN116228817A (zh) 2023-06-06
CN116228817B CN116228817B (zh) 2023-10-03

Family

ID=86584273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310226137.8A Active CN116228817B (zh) 2023-03-10 2023-03-10 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法

Country Status (1)

Country Link
CN (1) CN116228817B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036740A (zh) * 2023-08-04 2023-11-10 上海第二工业大学 一种用于运动目标的抗遮挡性跟踪方法
CN117392179A (zh) * 2023-12-11 2024-01-12 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040041076A1 (en) * 2002-08-29 2004-03-04 The Boeing Company Optical tracking system, feed-forward augmentation assembly and method for controlling an optical imaging system with reduced residual jitter
CN107346538A (zh) * 2016-05-06 2017-11-14 株式会社理光 对象跟踪方法及设备
KR101837407B1 (ko) * 2017-11-03 2018-03-12 국방과학연구소 영상 기반 표적 추적 장치 및 추적 방법
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN108765470A (zh) * 2018-06-17 2018-11-06 天津理工大学 一种针对目标遮挡改进的kcf跟踪算法
CN108986142A (zh) * 2018-07-14 2018-12-11 李军 基于置信图峰值旁瓣比优化的遮挡目标跟踪方法
CN109858415A (zh) * 2019-01-21 2019-06-07 东南大学 适用于移动机器人行人跟随的核相关滤波目标跟踪方法
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110717934A (zh) * 2019-10-17 2020-01-21 湖南大学 一种基于strcf的抗遮挡目标跟踪方法
CN111681266A (zh) * 2020-06-08 2020-09-18 青岛科技大学 船舶跟踪方法、系统、设备及存储介质
CN111862155A (zh) * 2020-07-14 2020-10-30 中国电子科技集团公司第五十四研究所 一种针对目标遮挡的无人机单视觉目标跟踪方法
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
US20200380274A1 (en) * 2019-06-03 2020-12-03 Nvidia Corporation Multi-object tracking using correlation filters in video analytics applications
US20210099737A1 (en) * 2018-05-31 2021-04-01 Guangzhou Huya Information Technology Co., Ltd. Object positioning method, video display method, apparatus, device, and storage medium
US20210227132A1 (en) * 2018-05-30 2021-07-22 Arashi Vision Inc. Method for tracking target in panoramic video, and panoramic camera
CN114241004A (zh) * 2021-12-15 2022-03-25 辽宁工程技术大学 一种基于长短期模型的抗遮挡视觉目标跟踪方法
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN115170621A (zh) * 2022-08-02 2022-10-11 西安奇维科技有限公司 一种基于相关滤波框架的动态背景下目标跟踪方法及系统
CN115439777A (zh) * 2022-08-12 2022-12-06 中国人民解放军战略支援部队航天工程大学 一种基于多特征融合与运动估计的视频卫星目标跟踪方法
CN115631216A (zh) * 2022-12-21 2023-01-20 中航金城无人系统有限公司 一种基于多特征滤波器融合的云台目标跟踪系统和方法
US20230036905A1 (en) * 2020-01-09 2023-02-02 Arashi Vision Inc. Target tracking method for panorama video,readable storage medium and computer equipment
CN115705651A (zh) * 2021-08-06 2023-02-17 武汉Tcl集团工业研究院有限公司 视频运动估计方法、装置、设备和计算机可读存储介质

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040041076A1 (en) * 2002-08-29 2004-03-04 The Boeing Company Optical tracking system, feed-forward augmentation assembly and method for controlling an optical imaging system with reduced residual jitter
CN107346538A (zh) * 2016-05-06 2017-11-14 株式会社理光 对象跟踪方法及设备
KR101837407B1 (ko) * 2017-11-03 2018-03-12 국방과학연구소 영상 기반 표적 추적 장치 및 추적 방법
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
US20210227132A1 (en) * 2018-05-30 2021-07-22 Arashi Vision Inc. Method for tracking target in panoramic video, and panoramic camera
US20210099737A1 (en) * 2018-05-31 2021-04-01 Guangzhou Huya Information Technology Co., Ltd. Object positioning method, video display method, apparatus, device, and storage medium
CN108765470A (zh) * 2018-06-17 2018-11-06 天津理工大学 一种针对目标遮挡改进的kcf跟踪算法
CN108986142A (zh) * 2018-07-14 2018-12-11 李军 基于置信图峰值旁瓣比优化的遮挡目标跟踪方法
CN109858415A (zh) * 2019-01-21 2019-06-07 东南大学 适用于移动机器人行人跟随的核相关滤波目标跟踪方法
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
US20200380274A1 (en) * 2019-06-03 2020-12-03 Nvidia Corporation Multi-object tracking using correlation filters in video analytics applications
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110717934A (zh) * 2019-10-17 2020-01-21 湖南大学 一种基于strcf的抗遮挡目标跟踪方法
US20230036905A1 (en) * 2020-01-09 2023-02-02 Arashi Vision Inc. Target tracking method for panorama video,readable storage medium and computer equipment
CN111681266A (zh) * 2020-06-08 2020-09-18 青岛科技大学 船舶跟踪方法、系统、设备及存储介质
CN111862155A (zh) * 2020-07-14 2020-10-30 中国电子科技集团公司第五十四研究所 一种针对目标遮挡的无人机单视觉目标跟踪方法
CN115705651A (zh) * 2021-08-06 2023-02-17 武汉Tcl集团工业研究院有限公司 视频运动估计方法、装置、设备和计算机可读存储介质
CN114241004A (zh) * 2021-12-15 2022-03-25 辽宁工程技术大学 一种基于长短期模型的抗遮挡视觉目标跟踪方法
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN115170621A (zh) * 2022-08-02 2022-10-11 西安奇维科技有限公司 一种基于相关滤波框架的动态背景下目标跟踪方法及系统
CN115439777A (zh) * 2022-08-12 2022-12-06 中国人民解放军战略支援部队航天工程大学 一种基于多特征融合与运动估计的视频卫星目标跟踪方法
CN115631216A (zh) * 2022-12-21 2023-01-20 中航金城无人系统有限公司 一种基于多特征滤波器融合的云台目标跟踪系统和方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HAO SHENG 等: "Robust visual tracking using correlation response map", 《2016 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), pages 1689 - 1693 *
WEI ZHANG 等: "Occlusion detection via correlation filters for robust object tracking", 《J. ENG》, no. 07, pages 375 *
张方方 等: "基于多特征自适应融合的抗遮挡目标跟踪算法", 《红外技术》, vol. 45, no. 02, pages 150 - 160 *
袁振寰 等: "基于高置信度综合判据的抗遮挡核相关滤波跟踪方法", 《军事交通学报》, vol. 1, no. 07, pages 80 - 88 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036740A (zh) * 2023-08-04 2023-11-10 上海第二工业大学 一种用于运动目标的抗遮挡性跟踪方法
CN117392179A (zh) * 2023-12-11 2024-01-12 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法
CN117392179B (zh) * 2023-12-11 2024-02-27 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法

Also Published As

Publication number Publication date
CN116228817B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
CN116228817B (zh) 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
Zhang et al. Sequential particle swarm optimization for visual tracking
CN101120382B (zh) 跟踪用相机获得的场景视频中的移动物体的方法
JP4208898B2 (ja) 対象物追跡装置および対象物追跡方法
Gao et al. Firefly algorithm (FA) based particle filter method for visual tracking
KR100985805B1 (ko) 적응적인 칼만필터를 이용한 영상 안정화 장치 및 방법
CN110728697A (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN110580713A (zh) 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
Mikami et al. Memory-based particle filter for face pose tracking robust under complex dynamics
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
CN115131420A (zh) 基于关键帧优化的视觉slam方法及装置
CN106780567B (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
CN112184767A (zh) 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质
CN116385493A (zh) 野外环境下多运动目标检测与轨迹预测方法
CN111210458A (zh) 一种基于预检测置信度的运动目标检测前跟踪方法
CN110660084A (zh) 一种多目标跟踪的方法及装置
CN110598614B (zh) 一种结合粒子滤波的相关滤波目标跟踪方法
CN111161323B (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN110503663B (zh) 一种基于抽帧检测的随机多目标自动检测跟踪方法
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN109410254B (zh) 一种基于目标和相机运动建模的目标跟踪方法
CN117036238A (zh) 基于视频目标跟踪的田间水果计数方法及系统
CN111161304B (zh) 一种快速背景估计的遥感视频目标轨迹跟踪方法
CN111461995B (zh) 基于近似稠密光流法和基准帧更新的视频消旋方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant