CN116563348A - 基于双特征模板的红外弱小目标多模态跟踪方法及系统 - Google Patents

基于双特征模板的红外弱小目标多模态跟踪方法及系统 Download PDF

Info

Publication number
CN116563348A
CN116563348A CN202310820773.3A CN202310820773A CN116563348A CN 116563348 A CN116563348 A CN 116563348A CN 202310820773 A CN202310820773 A CN 202310820773A CN 116563348 A CN116563348 A CN 116563348A
Authority
CN
China
Prior art keywords
target
tracking
response
template
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310820773.3A
Other languages
English (en)
Other versions
CN116563348B (zh
Inventor
陈方家
卞春江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Space Science Center of CAS
Original Assignee
National Space Science Center of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Space Science Center of CAS filed Critical National Space Science Center of CAS
Priority to CN202310820773.3A priority Critical patent/CN116563348B/zh
Publication of CN116563348A publication Critical patent/CN116563348A/zh
Application granted granted Critical
Publication of CN116563348B publication Critical patent/CN116563348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及红外视频处理技术领域,特别涉及一种基于双特征模板的红外弱小目标多模态跟踪方法及系统。本发明方法包括:提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;利用目标跟踪响应修正判断目标是否满足平稳跟踪条件:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;并在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。

Description

基于双特征模板的红外弱小目标多模态跟踪方法及系统
技术领域
本发明涉及红外视频处理技术领域,特别涉及一种基于双特征模板的红外弱小目标多模态跟踪方法及系统。
背景技术
目标跟踪在信号处理分析中,通常指对连续时间顺序的观测输入信号中的特定信号成分,进行建模、预测和更新的过程,以提取分析目标信号成分的时空特征与时间演化规律。而视觉目标跟踪多特指以视频图像信号为输入的目标跟踪任务。作为计算机视觉中重要的视频图像处理技术手段,视觉目标跟踪能够从离散的单帧图像中提取时空演化信息,从而分析和预测特定观测场景与兴趣目标的状态行为,是动作捕捉、行为分析、交通监测、视频理解等诸多应用领域的支柱技术。
传统视觉目标跟踪主要集中在可见光波段(即传感器响应波长在360~830nm之间的电磁波辐射)的常规尺寸目标(传感器对应成像结果尺寸在以上的成像源),但是在实际应用中,还存在针对非可见光波段的非常规尺寸目标的跟踪需求。如在国防、生物医学、工业等领域,由于红外波段相较可见光具有更好的穿透能力,可以在全天时条件下不受光照环境等因素的影响,因而针对红外目标的搜索域跟踪技术在先导预警、细胞追踪、特种仪表等方面被广泛应用。
但是由于成像源固有尺寸过小、观测距离过远、传输过程退化等因素,红外光学传感器的输入图像中,许多真实地物产生的成像结果多表现为集中于极少有限像元的亮斑,即红外弱小目标:尺寸小(少于个像素)、信噪比低(低于2)、缺乏纹理细节与面形特征等显著的个体信息。红外弱小目标的这些特性,使其特征相对可见光波段的常规尺寸目标更加稀少匮乏,并且不易同周围背景和杂波干扰进行分辨,此种“弱特征”性质,这使得红外弱小目标的跟踪面临着高虚警、易漂移、难分辨的问题挑战。另一方面,实际红外视频输入中的背景成分,大多灰度分布各向异性强且包含复杂的干扰成分(即成为复杂背景)。实际应用中,同一传感器的视场中在同一时刻往往存在多个红外弱小目标,面向红外弱小多目标的实时可靠的跟踪技术,具有重要的实用价值和意义。
主要的技术缺陷不足:
鉴于红外弱小目标不稳定的跟踪特性,主流的跟踪方法大致分为产生式方法和判别式方法两大类,两者的区别在于目标建模和跟踪预测的方式。产生式方法尝试建立输入信号的参数模型来表示目标与非目标在状态空间中的概率密度分布,从而生成目标在将来的状态分布估计,结合后续实际的单帧图像输入,选择预测结果中满足贝叶斯后验概率最大化的预测结果更新为目标的状态,以实现跟踪。而判别式方法则将目标跟踪视为帧间检测结果分类匹配问题,即基于当前已知目标特征构建目标分类模板,在后续的单帧中搜索与目标分类模板相似度最高的检测结果,与已知的目标关联起来从而实现跟踪。
然而,红外弱小目标的弱特征性质,使得红外弱小目标的状态分布缺乏足够的特征维度与非目标成分进行显著的区分,也难以构建区分度高、特异性强的目标模板。另一方面,红外视频图像中大多包含亮度和对比度分布迥异的多种背景成分,图像表现出局部连续而整体各向异的多模态性质,这使得非目标成分的状态分布稀疏杂乱,难以进行参数化建模,并且容易包含与红外弱小目标模板高度相似的虚警。这两重因素之下,单纯的产生式方法和判别式方法在红外弱小目标跟踪上的可靠性与健壮性不佳:目标信号减弱时容易出现跟踪丢失;目标附近出现高度相似的非目标成分(如高反射噪声或背景界面)时,容易将这些虚警误认为目标导致跟踪漂移;当同时存在多个像平面位置近邻的跟踪目标时,跟踪器之间容易互相交换跟踪对象导致实际的跟踪航迹发生混淆错配。
由于目标的弱特征和复杂的非目标成分干扰,同一视频相邻两帧之间的检测结果难以通过简单的最大相似性匹配得到正确可靠的时间关联,这引申出了目标跟踪关联的问题。常见的目标跟踪关联方法大多为联合概率密度分配或者多假设跟踪,联合概率密度分配解决了相邻帧间多个检测结果的关联匹配,但是无法保留关联匹配的不确定性,容易产生累积漂移且无法修正;多假设跟踪保留了相邻两帧检测结果之间的若干匹配关联可能性,通过连续时间序列中后验概率密度最大化的剪枝策略分段地记忆和优化历史航迹的跟踪关联,但是这种方法需要保存的关联匹配假设会随着历史航迹长度的增加和关联对象数量的增加而发生“指数爆炸”,占据巨大的存储和处理资源。在这两类基于“静态目标集合假设”(即在跟踪观测时间段内,全体跟踪对象始终可见,且跟踪对象成员不会发生变化)的关联方法之外,基于贝叶斯的关联方法对跟踪对象集合与跟踪对象个体状态分别建立了概率分布估计,实现了更加稳定可靠的跟踪效果,并且能够对目标的数量进行估计,可以更好地适应目标遮蔽、消失、混淆等复杂情形。但是由于实际视频图像中的背景成分复杂,视场范围会随时间逐渐变化,这使得贝叶斯关联方法对目标状态的拟合与概率关联容易出现累积偏差,导致跟踪漂移。
发明内容
本发明的目的在于针对红外视频输入中弱小目标,提出一种基于双特征模板的多模态跟踪方法,实现连续稳定的视频红外弱小目标跟踪需求。本方法通过区域背景特征和红外弱小目标特征的双重模板,实现了一种由粗到精渐进的红外弱小目标跟踪模式,增强了红外弱小目标的定位精度;并且提出了一种跟踪响应到量测强度分布的信号转换模块,提高了目标跟踪中的关联可靠性。
为达到上述目的,本发明通过下述技术方案实现。
本发明提出了一种基于双特征模板的红外弱小目标多模态跟踪方法,所述方法包括:
通过背景模板提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;
以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;
通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;
利用目标跟踪响应修正判断目标是否满足平稳跟踪条件:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;其中,平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值;所述判别式模型指基于相关滤波器的跟踪模型,所述产生式模型指基于贝叶斯后验概率密度估计的跟踪模型;
在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。
作为上述技术方案的改进之一,所述方法还包括待跟踪目标所处的局部邻域图像的获取步骤,具体包括:
从拍摄的视频中获取当前帧的图像,以当前帧中当前目标的位置为中心,截取尺寸的图像切片获得对应待跟踪目标嵌入的局部图像;或
通过外源的先验跟踪目标位置尺寸或锚框信息,分别得到待跟踪目标的位置信息,并设定待跟踪目标的局部背景尺寸S,获得待跟踪目标嵌入的局部图像。
作为上述技术方案的改进之一,所述通过背景模板提取待跟踪目标嵌入的局部图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计,具体包括:
通过背景模板提取待跟踪目标所处的局部邻域图像在t时刻的背景特征/>和在t+1时刻的背景特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布,取响应分布图中最大的位置,作为背景模板新的中心位置/>,获得目标的位置粗略估计。
作为上述技术方案的改进之一,所述通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正,具体包括:
通过目标模板计算待跟踪目标所处的局部邻域图像t时刻的目标特征/>和在t+1时刻的目标特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布,将该响应分布与该目标的位置权重掩模/>作哈达玛积,得到目标跟踪响应修正
作为上述技术方案的改进之一,所述提取目标特征,具体包括:通过二维拉普拉斯滤波获取锐化灰度特征,通过方向Sobel算子组提取方向梯度信息。
作为上述技术方案的改进之一,所述平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值,具体表达式为:
k A
k G
其中,与/>分别表示t+1时刻的平均峰值旁瓣比和最大跟踪响应修正;和/>分别表示平均峰值旁瓣比APCE和目标跟踪响应修正最大值从起始时刻1到最近时刻t的历史均值;/>和/>分别为两个非负实数的临界阈值。(/>表示“目标跟踪响应修正”中的“最大值”,/>表示t+1时刻具体“目标跟踪响应修正”中的“最大值”的实际数值。)
作为上述技术方案的改进之一,所述利用目标跟踪响应修正判断目标是否满足平稳跟踪条件,其中平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正的显著程度要求:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标,具体包括:
步骤1.获取目标跟踪响应修正中的最大值/>和最小值/>,并计算平均峰值旁瓣比APCE;
步骤2.进行平稳跟踪条件的判别:如果平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值,则稳定跟踪条件成立,则接受对应的位置作为目标新的跟踪位置,并转至步骤6;否则稳定跟踪条件不成立,转至步骤3;
步骤3.如果目标不满足平稳跟踪条件即混叠目标,则将目标跟踪响应修正/>进行归一化,之后对其中的每簇响应信号/>,以簇的最大幅值所处位置为中心,生成覆盖该簇空间位置的高斯分布,将该簇响应转换为一个量测分布,并取归一化后的最大幅值为该簇的所对应量测分布关于当前目标的强度权重偏置/>
步骤4.重复步骤3将所有不满足平稳跟踪条件的目标整合到当前帧图像对应的等尺寸像平面位置空间中,获得当前所有混叠目标在t+1时刻所对应的全局候选位置估计,从而完成产生式跟踪模型的初始化;
步骤5.对每个混叠目标,取其t时刻的状态信息/>,通过卡尔曼滤波生成其在t+1时刻的状态估计/>,使用/>调整每个全局候选位置估计/>相对当前目标状态估计的权重,之后计算每个全局候选位置估计/>关于目标状态估计/>联合分布的后验概率/>,以同时考虑目标的运动学状态分布与特征响应特征,对每个目标的所有可能状态预测的后验概率求归一化权重:
其中,表示当前所有混叠目标在t+1时刻所对应的全局候选位置估计/>的总数量;
对应的预测结果,更新为当前目标的跟踪位置/>
步骤6.以当前目标的跟踪位置矫正当前目标所对应背景模板的中心/>,之后利用/>和/>提取新的目标特征和背景特征,分别以目标学习率/>和背景学习率/>更新对应的目标模板和背景模板:/>=/>+(1-/>)/>,/>=/>+(1-/>)/>
作为上述技术方案的改进之一,所述步骤1中计算平均峰值旁瓣比的公式为:
其中,表示t+1时刻跟踪响应修正中的成员值,而/>表示取t+1时刻跟踪响应修正中的各成员值关于/>的误差平方/>的平均值。
本发明还提出了一种基于双特征模板的红外弱小目标多模态跟踪系统,所述系统包括:粗略位置估计模块、精确位置跟踪模块和信号转换模块,其中,
所述粗略位置估计模块,用于通过背景模板提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;
所述精确位置跟踪模块,用于以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;用于通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;还用于利用目标跟踪响应修正判断目标是否满足平稳跟踪条件,其中平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正的显著程度:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;其中,判别式模型指基于相关滤波器的跟踪模型,产生式模型指基于贝叶斯后验概率密度估计的跟踪模型;
所述信号转换模块,用于在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。
本发明与现有技术相比优点在于:
(1)本发明提出一种“局部区域特征+像素特征”的双模板跟踪器:针对红外弱小目标个体信息匮乏,辨识特征不稳定,在跟踪过程中搜索范围大、干扰虚警难以剔除、目标个体易混淆的问题,本发明提出分别使用两种不同的学习率进行更新的局部区域模板和目标模板(本文中的模板是目标跟踪领域的常识性术语,即“对跟踪目标的信息进行加工处理后,所得到的特异性特征,能够将跟踪目标同其他非目标成分区分开来”),局部区域模板提取红外弱小目标嵌入的局部图像块的区域特征信息,通过区域特征的相关滤波获取目标的粗略位置估计,再通过目标模板提取像素尺度的特征,进一步进行像素级的目标精确位置;这种双模板跟踪器克服了单一模板难以协调局部区域特征和目标细节特征变化速率差异而导致跟踪精度受限的缺陷,克服了单一区域级特征定位精度不足引起跟踪误差和漂变的缺陷,同时利用局部区域信息间接增强了红外弱小目标的跟踪特征,提高了跟踪精度和可靠性;
(2)本发明提出一种多目标条件下的平稳跟踪条件,该条件结合了目标跟踪响应的时空强度特征,用于判断特定跟踪目标所处跟踪器的响应可靠性程度,以自主决策判别式模型和产生式模型的工作状态;
(3)本发明设计了一种组合判别式模型与产生式模型的多模态跟踪框架:该框架通过目标平稳跟踪条件实时判断跟踪目标的跟踪响应可靠性程度,当平稳跟踪条件满足时,使用判别式模型跟踪相应目标,当平稳跟踪条件不满足时,则切换为产生式模型;这种多模态跟踪框架整合了判别式模型对目标个体跟踪的高效率,以及产生式模型应对目标遮挡、消失、混淆等非理想情形的健壮性,能够更好地胜任复杂背景下的红外弱小多目标跟踪任务;
(4)本发明设计了一种跟踪响应到量测强度分布的信号转换模块:此模块能够将对应多个跟踪目标的双模板跟踪器所得的跟踪响应,整合并转换为对应传感器空间响应范围的状态空间中的量测信号点,并且将跟踪响应的强度信息转换为相应量测点的初始权重偏置;相比直接基于视频信号输入的产生式跟踪模型,该模块为产生式跟踪模型提供了关键的先验目标信息,并削弱了非目标成分的干扰,从而提高了产生式模型的求解效率和结果精度。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
如图1所示,为本发明提出的基于双特征模板的红外弱小目标多模态跟踪方法的流程图,具体步骤包括:
(1)跟踪初始化:从输入视频中获取当前帧(设为第t帧)的图像,如果跟踪初始化尚未进行,则并通过外源的先验跟踪目标位置尺寸或锚框信息,分别得到跟踪目标的位置信息,并设定该目标的局部背景尺寸S;
(2)截取局部邻域:从当前帧中,以当前目标的位置为中心,截取尺寸的图像切片获得对应跟踪目标所处的局部邻域(以下简称“局部邻域切片”)/>
(3)提取背景特征:以当前目标的“局部邻域切片”为输入,计算该切片的快速方向梯度直方图(Fast Histogram of Gradient,FHOG)特征(此部分内容为公开技术);
(4)提取目标特征:以当前目标的“局部邻域切片”为输入,计算相应的目标特征,各通道计算方式依次为,通过二维拉普拉斯滤波获取锐化灰度特征,通过方向Sobel算子组提取方向梯度信息;
(5)帧间跟踪初始化:如果视频已经到达最后一帧,则结束跟踪,否则从输入视频中获取相邻的下一帧(t+1)图像,对每一个已知的跟踪目标,取其前一时刻(t)的先验位置信息,以(2)中截取“局部邻域切片”相同的方式,截取该目标的局部邻域估计
(6)背景模板跟踪滤波:按照(3)的方式,提取的背景特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布,取响应分布图中最大的位置,作为背景模板新的中心位置/>,获得目标的位置粗略估计;
(7)生成局域目标响应权重掩模:以当前目标的粗略位置估计为中心,生成一个尺寸为/>的二维高斯分布的位置权重掩模/>
(8)目标模板跟踪滤波:按照(4)的方式,提取的目标特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布/>,将该响应分布与该目标的位置权重掩模/>作哈达玛积,得到目标跟踪响应修正/>
(9)判别平稳跟踪条件:获取目标跟踪响应修正中的最大值/>和最小值/>,并计算平均峰值旁瓣比(Average Peak-to-correlation Energy,APCE ),(APCE为已公开技术)
如果目标当前的和APCE相对其历史均值的比例皆高于相应的临界阈值,则稳定跟踪条件成立,则接受/>对应的位置作为目标新的跟踪位置/>,并直接转至步骤(13),否则稳定跟踪条件不成立,转至步骤(10);
k A , />k G
其中,与/>分别表示t+1时刻的平均峰值旁瓣比和最大跟踪响应修正;和/>则分别表示两个数值从起始时刻1到最近时刻t的历史均值;/>和/>分别为两个非负实数的临界阈值,用于确保当前目标/>中的/>相对非主极大响应具有足够大的优势,也就是不存在难以分辨的多个位置估计。
(10)量测强度分布转换:如果目标不满足平稳跟踪条件(以下称“混叠目标”),则将目标跟踪响应修正/>按/>进行归一化,之后对其中的每簇响应信号/>,以簇的最大幅值所处位置为中心,生成覆盖该簇空间位置的高斯分布,将该簇响应转换为一个量测分布,并取归一化后的最大幅值为该簇的所对应量测分布关于当前目标的强度权重偏置/>
(11)整合全局量测分布:将所有不满足(9)中平稳跟踪条件的目标通过(10)所得的局部量测分布,整合到当前帧图像对应的等尺寸像平面位置空间中,获得当前所有混叠目标在t+1时刻所对应的全局候选位置估计,从而完成产生式跟踪模型的初始化;
(12)产生式跟踪滤波:对每个混叠目标,取其最近时刻(t)的状态信息/>,通过卡尔曼滤波生成其在t+1时刻的状态估计/>,使用/>调整每个全局候选位置估计/>相对当前目标状态估计/>的权重,之后计算每个全局候选位置估计/>关于目标状态估计联合分布的后验概率/>,以同时考虑目标的运动学状态分布与特征响应特征,对每个目标的所有可能状态预测的后验概率求归一化权重/>,其中/>表示当前所有混叠目标在t+1时刻所对应的全局候选位置估计/>的总数量。取对应的预测结果,更新为当前目标的跟踪位置/>
(13)跟踪状态更新:以矫正当前目标所对应背景模板的中心/>,之后分别以/>和/>,按照(3)和(4)的方式提取新的目标特征和背景特征,分别以目标学习率/>和背景学习率/>更新对应的跟踪模板/>=/>+(1-/>)/>,/>=/>+(1-/>)/>
实施例2
本发明实施例2给出了一种基于双特征模板的红外弱小目标多模态跟踪系统,所述系统包括:粗略位置估计模块、精确位置跟踪模块和信号转换模块,其中,
粗略位置估计模块,用于通过背景模板提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;
精确位置跟踪模块,用于以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;用于通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;还用于利用目标跟踪响应修正判断目标是否满足平稳跟踪条件,其中平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正的显著程度:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;其中,判别式模型指基于相关滤波器的跟踪模型,产生式模型指基于贝叶斯后验概率密度估计的跟踪模型;
信号转换模块,用于在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (9)

1.一种基于双特征模板的红外弱小目标多模态跟踪方法,所述方法包括:
通过背景模板提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;
以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;
通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;
利用目标跟踪响应修正判断目标是否满足平稳跟踪条件:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;其中,平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值;所述判别式模型指基于相关滤波器的跟踪模型,所述产生式模型指基于贝叶斯后验概率密度估计的跟踪模型;
在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。
2.根据权利要求1所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述方法还包括待跟踪目标所处的局部邻域图像的获取步骤,具体包括:
从拍摄的视频中获取当前帧的图像,以当前帧中当前目标的位置为中心,截取尺寸的图像切片获得对应待跟踪目标嵌入的局部图像;或
通过外源的先验跟踪目标位置尺寸或锚框信息,分别得到待跟踪目标的位置信息,并设定待跟踪目标的局部背景尺寸S,获得待跟踪目标嵌入的局部图像。
3.根据权利要求1所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述通过背景模板提取待跟踪目标嵌入的局部图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计,具体包括:
通过背景模板提取待跟踪目标所处的局部邻域图像在t时刻的背景特征/>和在t+1时刻的背景特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布,取响应分布图中最大的位置,作为背景模板新的中心位置/>,获得目标的位置粗略估计。
4.根据权利要求1所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正,具体包括:
通过目标模板计算待跟踪目标所处的局部邻域图像t时刻的目标特征/>和在t+1时刻的目标特征/>,并使用判别式跟踪滤波器,计算/>与/>之间的相关性响应分布,将该响应分布与该目标的位置权重掩模/>作哈达玛积,得到目标跟踪响应修正/>
5.根据权利要求4所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述提取目标特征,具体包括:通过二维拉普拉斯滤波获取锐化灰度特征,通过方向Sobel算子组提取方向梯度信息。
6.根据权利要求1所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值,具体表达式为:
,/>其中,/>与/>分别表示t+1时刻的平均峰值旁瓣比和最大跟踪响应修正;/>和/>分别表示平均峰值旁瓣比APCE和目标跟踪响应修正最大值/>从起始时刻1到最近时刻t的历史均值;/>和/>分别为两个非负实数的临界阈值。
7.根据权利要求1所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述利用目标跟踪响应修正判断目标是否满足平稳跟踪条件,其中平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正的显著程度要求:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标,具体包括:
步骤1.获取目标跟踪响应修正中的最大值/>和最小值/>,并计算平均峰值旁瓣比/>
步骤2.进行平稳跟踪条件的判别:如果平均峰值旁瓣比和当前最大响应修正皆高于相应的临界阈值,则稳定跟踪条件成立,则接受对应的位置作为目标新的跟踪位置,并转至步骤6;否则稳定跟踪条件不成立,转至步骤3;
步骤3.如果目标不满足平稳跟踪条件即混叠目标,则将目标跟踪响应修正/>进行归一化,之后对其中的每簇响应信号/>,以簇的最大幅值所处位置为中心,生成覆盖该簇空间位置的高斯分布,将该簇响应转换为一个量测分布,并取归一化后的最大幅值为该簇的所对应量测分布关于当前目标的强度权重偏置/>
步骤4.重复步骤3将所有不满足平稳跟踪条件的目标整合到当前帧图像对应的等尺寸像平面位置空间中,获得当前所有混叠目标在t+1时刻所对应的全局候选位置估计,从而完成产生式跟踪模型的初始化;
步骤5.对每个混叠目标,取其t时刻的状态信息/>,通过卡尔曼滤波生成其在t+1时刻的状态估计/>,使用/>调整每个全局候选位置估计/>相对当前目标状态估计的权重,之后计算每个全局候选位置估计/>关于目标状态估计/>联合分布的后验概率/>,以同时考虑目标的运动学状态分布与特征响应特征,对每个目标的所有可能状态预测的后验概率求归一化权重:
其中,/>表示当前所有混叠目标在t+1时刻所对应的全局候选位置估计/>的总数量;
对应的预测结果,更新为当前目标的跟踪位置/>
步骤6.以当前目标的跟踪位置矫正当前目标所对应背景模板的中心/>,之后利用/>和/>提取新的目标特征和背景特征,分别以目标学习率/>和背景学习率更新对应的目标模板和背景模板:/>
8.根据权利要求7所述的基于双特征模板的红外弱小目标多模态跟踪方法,其特征在于,所述步骤1中计算平均峰值旁瓣比的公式为:
其中,/>表示t+1时刻跟踪响应修正中的成员值,而/>表示取t+1时刻跟踪响应修正中的各成员值关于/>的误差平方/>的平均值。
9.一种基于双特征模板的红外弱小目标多模态跟踪系统,所述系统包括:粗略位置估计模块、精确位置跟踪模块和信号转换模块,其中,
所述粗略位置估计模块,用于通过背景模板提取待跟踪目标所处的局部邻域图像的背景特征,通过背景特征的相关滤波获取目标的粗略位置估计;
所述精确位置跟踪模块,用于以粗略位置估计为中心,生成目标的二维高斯分布位置权重掩模;用于通过目标模板提取目标特征,并结合位置权重掩模得到目标跟踪响应修正;还用于利用目标跟踪响应修正判断目标是否满足平稳跟踪条件,其中平稳跟踪条件包括平均峰值旁瓣比和当前最大响应修正的显著程度:当目标满足平稳跟踪条件时,使用判别式模型跟踪目标;当目标不满足平稳跟踪条件时,使用产生式模型跟踪目标;其中,判别式模型指基于相关滤波器的跟踪模型,产生式模型指基于贝叶斯后验概率密度估计的跟踪模型;
所述信号转换模块,用于在使用产生式模型跟踪目标时,利用不满足平稳跟踪条件的目标的判别式跟踪响应信息,初始化针对该目标的产生式模型。
CN202310820773.3A 2023-07-06 2023-07-06 基于双特征模板的红外弱小目标多模态跟踪方法及系统 Active CN116563348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310820773.3A CN116563348B (zh) 2023-07-06 2023-07-06 基于双特征模板的红外弱小目标多模态跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310820773.3A CN116563348B (zh) 2023-07-06 2023-07-06 基于双特征模板的红外弱小目标多模态跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN116563348A true CN116563348A (zh) 2023-08-08
CN116563348B CN116563348B (zh) 2023-11-14

Family

ID=87488238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310820773.3A Active CN116563348B (zh) 2023-07-06 2023-07-06 基于双特征模板的红外弱小目标多模态跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN116563348B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN109978923A (zh) * 2019-04-04 2019-07-05 杭州电子科技大学 一种基于双模板尺度自适应相关滤波目标跟踪方法及系统
CN111583306A (zh) * 2020-05-12 2020-08-25 重庆邮电大学 一种抗遮挡的视觉目标跟踪方法
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
CN112580679A (zh) * 2019-09-30 2021-03-30 中国科学院长春光学精密机械与物理研究所 红外目标跟踪方法、计算机设备及计算机可读存储介质
CN113327272A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 一种基于相关滤波的鲁棒性长时跟踪方法
CN114241008A (zh) * 2021-12-21 2022-03-25 北京航空航天大学 一种适应场景和目标变化的长时区域跟踪方法
WO2022217840A1 (zh) * 2021-04-15 2022-10-20 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN115345902A (zh) * 2022-07-20 2022-11-15 上海卫星工程研究所 基于机器学习的红外图像弱小目标检测跟踪方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163830A1 (en) * 2014-04-22 2015-10-29 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Target localization and size estimation via multiple model learning in visual tracking
CN113470074B (zh) * 2021-07-09 2022-07-29 天津理工大学 一种基于分块判别的自适应时空正则化目标跟踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN109978923A (zh) * 2019-04-04 2019-07-05 杭州电子科技大学 一种基于双模板尺度自适应相关滤波目标跟踪方法及系统
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
CN112580679A (zh) * 2019-09-30 2021-03-30 中国科学院长春光学精密机械与物理研究所 红外目标跟踪方法、计算机设备及计算机可读存储介质
CN111583306A (zh) * 2020-05-12 2020-08-25 重庆邮电大学 一种抗遮挡的视觉目标跟踪方法
WO2022217840A1 (zh) * 2021-04-15 2022-10-20 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN113327272A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 一种基于相关滤波的鲁棒性长时跟踪方法
CN114241008A (zh) * 2021-12-21 2022-03-25 北京航空航天大学 一种适应场景和目标变化的长时区域跟踪方法
CN115345902A (zh) * 2022-07-20 2022-11-15 上海卫星工程研究所 基于机器学习的红外图像弱小目标检测跟踪方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张强;潘卫军;朱新平;王玄;: "基于非线性量化概率模型的弱小目标跟踪", 激光与红外, no. 07, pages 114 - 119 *

Also Published As

Publication number Publication date
CN116563348B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
Tissainayagam et al. Object tracking in image sequences using point features
US7706571B2 (en) Flexible layer tracking with weak online appearance model
CN109917378B (zh) 利用时空关联的VideoSAR运动目标检测方法
EP2360642A2 (en) Video object tracking
US7747106B2 (en) Method and system for filtering, registering, and matching 2.5D normal maps
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN102915545A (zh) 一种基于OpenCV的视频目标跟踪算法
CN110599489A (zh) 一种目标空间定位方法
CN113848545B (zh) 一种基于视觉和毫米波雷达的融合目标检测和跟踪方法
Munoz-Salinas et al. Multi-camera people tracking using evidential filters
CN116266360A (zh) 一种基于多源信息融合的车辆目标检测跟踪方法
CN103577833A (zh) 基于运动模板的异常闯入检测方法
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
CN115144828A (zh) 一种智能汽车多传感器时空融合的自动在线标定方法
El Bouazzaoui et al. Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization
CN117075112A (zh) 一种方位角航迹匹配的无人艇雷达光电融合方法
Karavasilis et al. Visual tracking by adaptive Kalman filtering and mean shift
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
Pece From cluster tracking to people counting
Uzkent et al. Spectral validation of measurements in a vehicle tracking DDDAS
CN116563348B (zh) 基于双特征模板的红外弱小目标多模态跟踪方法及系统
CN117237851A (zh) 基于红外可见光联合探测的视频目标跟踪方法及系统
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
Arnaud et al. Partial linear gaussian models for tracking in image sequences using sequential monte carlo methods
Liu et al. Outdoor camera calibration method for a GPS & camera based surveillance system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant