CN110796687B - 天空背景红外成像多目标跟踪方法 - Google Patents

天空背景红外成像多目标跟踪方法 Download PDF

Info

Publication number
CN110796687B
CN110796687B CN201911045318.0A CN201911045318A CN110796687B CN 110796687 B CN110796687 B CN 110796687B CN 201911045318 A CN201911045318 A CN 201911045318A CN 110796687 B CN110796687 B CN 110796687B
Authority
CN
China
Prior art keywords
target
tracker
current frame
state
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911045318.0A
Other languages
English (en)
Other versions
CN110796687A (zh
Inventor
刘安
彭真明
张天放
刘平
胡峻菘
李宗强
柳杨
黄彪
鲁天舒
廖靖雯
漆强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201911045318.0A priority Critical patent/CN110796687B/zh
Publication of CN110796687A publication Critical patent/CN110796687A/zh
Application granted granted Critical
Publication of CN110796687B publication Critical patent/CN110796687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及天空背景红外成像多目标跟踪方法,包括:A.每隔k帧检测当前帧的状态;为检测状态则得到所有目标的质心坐标;为跟踪状态则更新跟踪器模板得出目标位置;B.检测状态时得到的三种匹配状态;C.目标匹配有跟踪器时初始化跟踪器的位置;D.分配有跟踪器但检测器未检测到目标时通过更新每个滤波器模板,得到当前帧位置,第二变量的值加1,达到阈值删除跟踪器;E.检测到新目标但没分配跟踪器时初始化跟踪器的位置;F.对预测位置校正得到最终的目标跟踪位置;G.显示跟踪结果;H.如果为最后帧则结束,否则返回步骤A执行。本发明能够对天空背景的多目标进行快速检测和捕获,以及对虚假目标剔除及感兴趣目标的识别。

Description

天空背景红外成像多目标跟踪方法
技术领域
本发明涉及计算机视觉目标跟踪的方法,具体讲是天空背景红外成像多目标跟踪方法。
背景技术
随着科技的发展,人们对目标检测及跟踪理论已经进行了广泛、深入的研究,并取得了令人瞩目的成果。然而这些方法大多是针对某些具体应用和特定场景进行研究和开发的专用算法,针对多目标密集场景下的实时目标检测和跟踪,现有方法依然存在很大的局限性。特别是针对复杂背景的多目标、点目标的稳定跟踪,依然缺乏高效、适应性好的通用技术。因此,开发实时性好、鲁棒性高的多目标跟踪检测技术,仍然是计算机视觉领域所面临的巨大挑战。开展多目标密集场景下的实时检测与跟踪技术研究,不仅具有十分重要的理论意义,对提高光电探测系统性能也具有重要的工程应用前景。
目前红外多目标跟踪技术主要是检测算法配合跟踪算法完成的。针对红外小目标检测由于在红外波段中,目标的纹理、结构信息缺乏,同时远距离、复杂背景、各种杂波的影响,红外目标经常呈斑点或点状,甚至淹没在背景中,这就造成了红外弱小目标检测极其困难。红外弱小目标检测技术分为两大类:基于单帧的弱小目标检测技术和基于多帧的弱小目标检测技术。但是由于基于多帧的检测技术需要联合多帧捕获目标的运动轨迹,排除噪声的干扰,因此需要极大的计算量和存储量,对硬件要求高,实际工程中应用很少。目前常用的基于单帧的检测方法分为以下三类:背景抑制、视觉显著性、目标背景分离。
目前的目标跟踪方法主要有(1)基于区域信息,如模板匹配方法,该方法简单、准确、速度快,但不能适应目标剧烈形变等复杂环境,此种情况下易造成目标丢失;(2)基于模型信息,是通过建立目标的几何模型,再对模型进行搜索,这种方法也很难解决遮挡问题,且在红外环境中缺乏颜色信息抗遮挡能力更弱;(3)基于贝叶斯框架,即在捕捉到目标初始状态和通过特征提取的目标特征基础上,进行一种时空结合的目标状态估计,可用于被遮挡情况下的目标位置估计,但算法复杂度较高;(4)基于深度学习类方法,具有良好鲁棒性,但容易出现数据缺失问题,且网络训练速度难以达到实时性要求;(5)基于相关滤波,这类方法普遍速度相对较快,其中,基于核相关滤波(Kernelized Correlation Filters,KCF)的目标跟踪具有快速、精确度高的特点,相比较基于结构化核输出跟踪(Structuredoutput tracking with kernels,STRUCK)的跟踪算法和跟踪-学习-检测(Tracking-Learning-Detection,TLD)框架的跟踪等算法,其跟踪速度提高近10倍,相比较OTB50(Object tracking benchmark,前50个跟踪视频竞赛序列)精确度为43.1%的最小输出均方误差(Minimum Output Sum ofSquared Error,MOSSE)滤波算法,又具有极高的精确度,在使用HOG特征的情况下精确度可达73.2%。
而针对天空背景下的红外成像多目标跟踪主要是受到以下技术影响:多目标检测及快速捕获;虚假目标剔除及感兴趣目标识别;多目标的数据关联及稳定跟踪等;满足实时性要求的算法设计及实现。
发明内容
本发明提供了一种天空背景红外成像多目标跟踪方法,以对天空背景的多目标进行快速检测和捕获,以及对虚假目标剔除及感兴趣目标的识别。
本发明天空背景红外成像多目标跟踪方法,包括:
A.读取红外图像序列,从红外图像序列的初始帧起,记录当前读取的帧数,并且每读取k帧进行一次当前帧的状态是检测状态或跟踪状态的判断,k≥1;如果当前帧处于检测状态,则对当前帧进行一次目标检测,得到所有的N个目标的质心坐标,N>1;
如果当前帧处于跟踪状态,则根据前一帧的位置通过Kalman滤波器预测当前帧的位置,根据当前帧更新对应的跟踪器模板,并根据更新后的跟踪模板得到当前帧的位置,用所述当前帧的位置对所述Kalman滤波器预测的位置进行校正,得出当前帧最终的目标跟踪位置;
B.当前帧处于检测状态时,通过匈牙利(Hungarian)算法将已有的M个跟踪器与所述检测到的N个目标的质心进行关联匹配,得到的三种匹配状态分别为:检测到的目标匹配到了跟踪器、当前帧分配有跟踪器但检测器未检测到目标,以及检测到新的目标但是没分配跟踪器;
C.如果所述的匹配状态为检测到的目标匹配到了跟踪器,则以检测到的目标的质心为初值,重新初始化所匹配的跟踪器的位置,同时校正Kalman滤波器的位置,设置连续帧未检测目标的第一变量,由于此状态为检测到了目标,因此第一变量的值设为0;
D.如果所述的匹配状态为当前帧分配有跟踪器但检测器未检测到目标,则将当前帧所对应跟踪器中的滤波器,从前一帧的滤波器模板更新至当前帧的滤波器模板,并将更新了滤波器的跟踪器与当前帧进行关联,使跟踪器通过更新后的滤波器模板重新计算并得到当前帧中的目标位置;设置连续帧未检测目标的第二变量,如果当前帧为红外图像序列的初始帧,则初始化第二变量的值为0,由于此状态为跟踪器在检测阶段未检测到目标,因此第二变量的值加1;如果第二变量的值达到了设定的阈值t,说明当前帧中的目标已经消失,删除当前帧对应的跟踪器;
E.如果所述的匹配状态为检测到新的目标但是没分配跟踪器,则为每一个此状态的目标新建Kalman滤波器和跟踪器,并用检测到的每个目标的质心坐标初始化给每个目标分配的跟踪器的位置;设置连续帧未检测目标的第三变量,由于此状态属于检测到了目标位置,因此第三变量的值设为0;
F.跟踪状态:根据前一帧的位置通过Kalman滤波器对当前帧的位置进行预测,根据当前帧更新对应的跟踪器模板,并与跟踪器模板进行关联得到目标的响应位置,根据所述的响应位置对Kalman滤波器预测的位置进行校正,得到当前帧最终的目标跟踪位置;
G.显示跟踪结果,根据检测状态和跟踪状态返回的目标位置坐标,显示跟踪框;
H.判断当前帧是否为红外图像序列的最后一帧,如果是则结束目标跟踪,否则返回步骤A重复执行。
具体的,步骤A中,在当前帧的处于检测状态时,得到所有的N个目标的质心坐标的步骤包括:
A1.在对当前帧进行一次目标检测时,通过方向高斯差分(DirectionalDifference of Guassian,DDoG)算子进行滤波;
A2.对所述滤波的输出结果进行二值分割,其中二值分割的阈值为滤波输出结果中的最大像素值和最小像素值之间差值的0.6倍加上最小像素值,然后输出二值分割的结果;
A3.基于所述二值分割的结果进行连通区域分析,输出检测到的N个目标的连通区域的质心坐标,得到目标检测的结果。
进一步的,步骤A1包括:
A11.生成两个长半轴和短半轴分别不同、方差不同的二维高斯滤波器,将这两个二维高斯滤波器做差,生成方向高斯差分算子,公式为:
Figure GDA0003445528440000031
式中,DoG(x,y)为方向高斯差分算子,G1(x,y)为sigma值为σ1的第一高斯滤波器,G2(x,y)为sigma值为σ2的第二高斯滤波器,x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,σ1和σ2分别对应为第一高斯滤波器和第二高斯滤波器的sigma值;
A12.使用4个不同方向的方向高斯差分算子分别对当前帧图像滤波,其中方向通过引入正弦和余弦函数来表示:
Figure GDA0003445528440000032
其中x’,y’为:
Figure GDA0003445528440000041
x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,λ为在二维坐标系中(x,y)点与x轴方向的夹角,4个不同的方向分别为θ取0°、45°、90°和135°;
A13.将所述4个方向的方向高斯差分算子的主轴右侧系数分别赋值为零,生成4个对应的方向高斯差分滤波器;
A14.选取4个滤波器在分别对应的坐标位置上的最小值作为滤波的输出结果。
具体的,步骤B包括:
B1.基于当前帧检测到的N个目标的质心坐标,以及当前帧已有的M个跟踪器返回的质心坐标,构造一个N×M维的代价矩阵,代价矩阵上的每一个元素表示第i个检测目标和该检测目标对应的第j个跟踪器得到的目标质心的距离,其中i的值为0~N,j的值为0~M;
B2.通过匈牙利算法对N×M维的代价矩阵进行计算,根据最优匹配原则完成任务分配,得到使代价矩阵中所有元素和最小的匹配方式,并返回一个T×2矩阵,在T×2矩阵的两列中包含分配的跟踪器和检测到的目标索引;通过匈牙利算法返回未分配的跟踪器和检测到的目标索引;并输出所述的三种匹配状态。
进一步的,步骤B2中所述的任务分配包括:
B21.对所述N×M维的代价矩阵作行变换和列变换;所述的行变换是将代价矩阵的每一行的各个元素分别减去该行的最小元素;所述的列变换是将代价矩阵的每一列的各个元素分别减去该列的最小元素,有0元素的列不作列变换;
B22.在经过行变换和列变换的代价矩阵中通过标记法寻找所有不同行且不同列的0元素;如果找到,则这些不同行且不同列的0元素的位置则为最优指派;否则,进行步骤B23;
依次检查经过行变换和列变换的代价矩阵的各行,找出只有一个没有加标记的0元素的行,并将这个0元素加上标记,并将与这个0元素在同一列的其他0元素全部加上标记;
依次检查经过行变换和列变换的代价矩阵的各列,找出只有一个没有加标记的0元素的列,并将这个0元素加上标记,并将与这个0元素在同一行的其他0元素全部加上标记;
B23.对标记后的代价矩阵进行调整:根据每一行或每一列中加了标记的0元素的数量,比较所述0元素所在的行和列中包含的加了标记的0元素的数量,如果所述行中的0元素数量多于所述列中的0元素数量,则画一条横线经过所述行中的所有0元素,反之则画一条竖线经过所述列中的所有0元素;
在所述横线和竖线没有经过的元素中找出最小元素;
未画横线的各行元素减去所述的最小元素,画竖线的各列元素加上所述的最小元素;
重新在新的代价矩阵中找出所有不同行且不同列的0元素,这些不同行且不同列的0元素的位置则为代价最少的任务分配。
具体的,步骤C包括:
C1.当所述的匹配状态为检测到的目标匹配到了跟踪器时,在所述的重新初始化所匹配的跟踪器的位置后,重新定位跟踪器的初始框,然后当前帧的状态转到跟踪状态;
C2.同时根据检测到的质心坐标来校正当前帧的Kalman滤波器位置;
C3.所述的第一变量用于记录连续未检测到目标的帧数量,因为此状态中跟踪器匹配到了目标,因此当前帧属于检测到目标状态,第一变量的值设为0。
优选的,步骤D中,每个目标对应的跟踪器为核相关滤波(KernelizedCorrelation Filters,KCF)跟踪器。
具体的,步骤E包括:
E1.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建Kalman滤波器:
E11.根据上一帧图像中的目标状态xt-1来预测当前帧的目标状态xt,从预测的目标状态xt中取出目标的中心位置的坐标,设为预测坐标,其中,目标状态包括目标的中心位置和速度,由于跟踪器模板不更新,因此相邻两帧间的跟踪器模板相似,认为目标做匀速运动;预测当前帧的目标状态xt的公式为:
xt=A·xt-1+B·ut-1+wt-1
其中,A为目标状态转移矩阵,B为联系外部控制参数的矩阵,xt-1是(t-1)帧图像中的目标状态,ut-1是(t-1)帧图像中目标的加速度,因为此时为匀速运动,因此ut-1为0,wt-1用于描述过程噪声,且服从高斯分布wt-1~N(0,Qt-1),Qt-1为上一帧图像的过程噪声协方差,得到
Figure GDA0003445528440000051
px和py分别对应为第t帧图像中目标的中心位置的x坐标值和y坐标值,vx和vy分别对应为第t帧图像中目标的中心位置在x轴和y轴上的速度;根据匀速运动模型,状态转移矩阵设为
Figure GDA0003445528440000052
因此预测当前帧的目标状态为:
Figure GDA0003445528440000053
E12.计算当前第t帧图像的先验估计的协方差矩阵:
Figure GDA0003445528440000061
其中,
Figure GDA0003445528440000062
为(t-1)帧图像的后验误差,初始值是给定的值,AT为A的转置,Q为帧图像给定的过程噪声协方差;
E13.计算当前第t帧图像的滤波增益矩阵
Figure GDA0003445528440000063
Figure GDA0003445528440000064
其中,
Figure GDA0003445528440000065
是状态转换矩阵,
Figure GDA0003445528440000066
是状态转换矩阵的转置,Rt是观测噪声协方差,为定值R,(X)-1表示X的逆;
E14.根据当前第t帧图像的滤波增益矩阵
Figure GDA0003445528440000067
与预测的目标状态xt,产生后验状态的最佳估计位置
Figure GDA0003445528440000068
即匹配结果:
Figure GDA0003445528440000069
其中,
Figure GDA00034455284400000610
表示当前第t帧图像实际匹配得到的目标区域的中心位置,即为测量值,
Figure GDA00034455284400000611
Figure GDA00034455284400000612
为测量值
Figure GDA00034455284400000613
与预测坐标
Figure GDA00034455284400000614
之间的误差,用vt表示,vt满足高斯分布,vt~N(0,Pt);
E15.若当前第t帧不是最后一帧,根据滤波增益矩阵
Figure GDA00034455284400000615
状态转换矩阵
Figure GDA00034455284400000616
与先验估计的协方差矩阵Pt,更新当前第t帧图像的后验误差:
Figure GDA00034455284400000617
E16.根据得到的最佳估计位置
Figure GDA00034455284400000618
更新当前第t帧图像中目标的中心位置:
Figure GDA00034455284400000619
其中,posx和posy为更新后的目标的中心位置,px和py为最佳估计位置
Figure GDA00034455284400000620
的坐标;
E2.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建跟踪器,新建的跟踪器为核相关(Kernelized Correlation Filters,KCF)滤波器:
E21.读取红外图像序列,在初始帧图像中框选目标,得到目标的中心位置和大小,将初始帧图像中的目标作为模板,获取第二帧图像作为当前帧图像,将初始帧图像的模板作为当前帧图像的模板;
E22.根据模板的大小和细胞单元尺寸得到二维余弦窗;
E23.基于灰度特征计算得到当前帧的目标回归系数,如果所述的目标回归系数由第二帧图像计算所得,用所述目标回归系数赋值给目标模型中的目标回归系数;如果所述的目标回归系数由最后一帧图像计算所得,则不作处理;如果所述目标回归系数既不是由第二帧图像也不是由最后一帧图像计算所得,则用当前帧得到目标回归系数的值替换目标模型中前一帧的目标回归系数的值;
E24.以当前帧图像的模板中心为搜索框中心位置确定当前帧图像的搜索框;
E25.基于模板大小,在当前帧图像中的搜索框中进行遍历,得到待匹配区域集合,再基于待匹配区域集合得到多个待匹配区域对应的灰度特征,基于灰度特征及对应的目标模型和目标回归系数,计算各待匹配区域对应的核相关滤波响应得到核相关滤波响应集合;
E26.以核相关滤波响应集合中最大响应值的横纵坐标作为当前帧图像的目标的质心位置;
E3.设置连续帧未检测目标的第三变量,由于此状态属于检测到了目标位置,因此第三变量的值设为0。
本发明天空背景红外成像多目标跟踪方法的有益效果包括:
1、采用的目标检测方法为方向高斯差分(Directional Difference ofGuassian,DDoG)算子的滤波方法,一般情况下,真实目标和背景边缘在局部会有不同的方向特征,而此滤波方法对方向敏感,故对真实目标与背景边缘有更好的分辨力,并且速度也较快,可以达到实时性的要求。
2、通过引入匈牙利(Hungarian)算法将多目标的检测器和跟踪器进行关联匹配,并通过对连续未检测到目标帧数进行计数,删除了消失的虚假目标,解决了虚假目标剔除问题;同时通过每隔k帧检测一次,可以重新捕获新的目标,从而解决了感兴趣目标识别的问题。
3、本发明中采用核相关滤波(KCF)算法,其具有与线性相关滤波器完全相同的低复杂性,代码行数少,且与其他跟踪类算法相比速度更快,可以每秒数百帧的速度运行,可以保证多目标跟踪的实时性要求。
以下结合实施例的具体实施方式,对本发明的上述内容再作进一步的详细说明。但不应将此理解为本发明上述主题的范围仅限于以下的实例。在不脱离本发明上述技术思想情况下,根据本领域普通技术知识和惯用手段做出的各种替换或变更,均应包括在本发明的范围内。
附图说明
图1为本发明天空背景红外成像多目标跟踪方法的流程图。
图2为本发明的方法通过红外图像序列第一次捕获到目标的图像。
图3为图2图像的第50帧图像。
图4为本发明方法对图3的图像跟踪效果图。
图5为图2图像的第171帧图像。
图6为本发明方法对图5的图像跟踪效果图。
图7为图2图像的第390帧图像。
图8为本发明方法对图7的图像跟踪效果图。
具体实施方式
如图1所示本发明天空背景红外成像多目标跟踪方法,包括:
A.读取红外图像序列,从红外图像序列的初始帧起,记录当前读取的帧数,并且每读取k帧(k为≥1的自定义数值)进行一次当前帧的状态是检测状态或跟踪状态的判断;如果当前帧处于检测状态,则对当前帧进行一次目标检测,得到所有的N个目标的质心坐标,N>1;
如果当前帧处于跟踪状态,则根据前一帧的位置通过Kalman滤波器预测当前帧的位置,根据当前帧更新对应的跟踪器模板,并根据更新后的跟踪模板得到当前帧的位置,用所述当前帧的位置对所述Kalman滤波器预测的位置进行校正,得出当前帧最终的目标跟踪位置。
其中,当前帧的处于所述的检测状态时,得到所有的N个目标的质心坐标的步骤为:
A1.在对当前帧进行一次目标检测时,通过方向高斯差分(DirectionalDifference of Guassian,DDoG)算子进行滤波:
A11.生成两个长半轴和短半轴分别不同、方差不同的二维高斯滤波器,将这两个二维高斯滤波器做差,生成方向高斯差分算子,公式为:
Figure GDA0003445528440000081
式中,DoG(x,y)为方向高斯差分算子,G1(x,y)为sigma值为σ1的第一高斯滤波器,G2(x,y)为sigma值为σ2的第二高斯滤波器,x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,σ1和σ2分别对应为第一高斯滤波器和第二高斯滤波器的sigma值;
A12.使用4个不同方向的方向高斯差分算子分别对当前帧图像滤波,其中方向通过引入正弦和余弦函数来表示:
Figure GDA0003445528440000082
其中x’,y’为:
Figure GDA0003445528440000083
x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,θ为在二维坐标系中(x,y)点与x轴方向的夹角,4个不同的方向分别为θ取0°、45°、90°和135°;
A13.将所述4个方向的方向高斯差分算子的主轴右侧系数分别赋值为零,生成4个对应的方向高斯差分滤波器;
A14.选取4个滤波器在分别对应的坐标位置上的最小值作为滤波的输出结果。
A2.对所述滤波的输出结果进行二值分割,其中二值分割的阈值为滤波输出结果中的最大像素值和最小像素值之间差值的0.6倍加上最小像素值,然后输出二值分割的结果;
A3.基于所述二值分割的结果进行连通区域分析,输出检测到的N个目标的连通区域的质心坐标,得到目标检测的结果。
B.当前帧处于检测状态时,通过匈牙利(Hungarian)算法将已有的M个跟踪器与所述检测到的N个目标的质心进行关联匹配,具体为:
B1.基于当前帧检测到的N个目标的质心坐标,以及当前帧已有的M个跟踪器返回的质心坐标,构造一个N×M维的代价矩阵,代价矩阵上的每一个元素表示第i个检测目标和该检测目标对应的第j个跟踪器得到的目标质心的距离,其中i的值为0~N,j的值为0~M;
B2.通过匈牙利算法对N×M维的代价矩阵进行计算,根据最优匹配原则进行任务分配,得到使代价矩阵中所有元素和最小的匹配方式,并返回一个T×2矩阵,在T×2矩阵的两列中包含分配的跟踪器和检测到的目标索引,具体为:
B21.对所述N×M维的代价矩阵作行变换和列变换;所述的行变换是将代价矩阵的每一行的各个元素分别减去该行的最小元素;所述的列变换是将代价矩阵的每一列的各个元素分别减去该列的最小元素,有0元素的列不作列变换;
B22.在经过行变换和列变换的代价矩阵中通过标记法寻找所有不同行且不同列的0元素;如果找到,则这些不同行且不同列的0元素的位置则为最优指派;否则,进行步骤B23;
依次检查经过行变换和列变换的代价矩阵的各行,找出只有一个没有加标记的0元素的行,并将这个0元素加上标记,并将与这个0元素在同一列的其他0元素全部加上标记;
依次检查经过行变换和列变换的代价矩阵的各列,找出只有一个没有加标记的0元素的列,并将这个0元素加上标记,并将与这个0元素在同一行的其他0元素全部加上标记;
B23.对标记后的代价矩阵进行调整:根据每一行或每一列中加了标记的0元素的数量,比较所述0元素所在的行和列中包含的加了标记的0元素的数量,如果所述行中的0元素数量多于所述列中的0元素数量,则画一条横线经过所述行中的所有0元素,反之则画一条竖线经过所述列中的所有0元素;
在所述横线和竖线没有经过的元素中找出最小元素;
未画横线的各行元素减去所述的最小元素,画竖线的各列元素加上所述的最小元素;
重新在新的代价矩阵中找出所有不同行且不同列的0元素,这些不同行且不同列的0元素的位置则为代价最少的任务分配。
通过匈牙利算法返回未分配的跟踪器和检测到的目标索引,最终得到的三种匹配状态分别为:检测到的目标匹配到了跟踪器、当前帧分配有跟踪器但检测器未检测到目标,以及检测到新的目标但是没分配跟踪器。
C.如果所述的匹配状态为检测到的目标匹配到了跟踪器,则:
C1.当所述的匹配状态为检测到的目标匹配到了跟踪器时,在重新初始化所匹配的跟踪器的位置后,重新定位跟踪器的初始框,然后当前帧的状态转到跟踪状态;
C2.根据检测到的质心坐标来校正当前帧的Kalman滤波器位置;
C3.设置第一变量,用于记录连续未检测到目标的帧数量,因为此状态中跟踪器匹配到了目标,因此当前帧属于检测到目标状态,第一变量的值设为0。
D.如果所述的匹配状态为当前帧分配有跟踪器但检测器未检测到目标,则将当前帧所对应跟踪器中的滤波器,从前一帧的滤波器模板更新至当前帧的滤波器模板,并将更新了滤波器的跟踪器与当前帧进行关联,使跟踪器通过更新后的滤波器模板重新计算并得到当前帧中的目标位置;设置连续帧未检测目标的第二变量,如果当前帧为红外图像序列的初始帧,则初始化第二变量的值为0,由于此状态为跟踪器在检测阶段未检测到目标,因此第二变量的值加1;如果第二变量的值达到了设定的阈值t,说明当前帧中的目标已经消失,删除当前帧对应的跟踪器。本实施例中阈值t取值为3。其中,每个目标对应的跟踪器为核相关滤波(Kernelized Correlation Filters,KCF)跟踪器。
E.如果所述的匹配状态为检测到新的目标但是没分配跟踪器,则为每一个此状态的目标新建Kalman滤波器和跟踪器,并用检测到的每个目标的质心坐标初始化给每个目标分配的跟踪器的位置,具体为:
E1.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建Kalman滤波器:
E11.根据上一帧图像中的目标状态xt-1来预测当前帧的目标状态xt,从预测的目标状态xt中取出目标的中心位置的坐标,设为预测坐标,其中,目标状态包括目标的中心位置和速度,由于跟踪器模板不更新,因此相邻两帧间的跟踪器模板相似,认为目标做匀速运动;预测当前帧的目标状态xt的公式为:
xt=A·xt-1+B·ut-1+wt-1
其中,A为目标状态转移矩阵,B为联系外部控制参数的矩阵,xt-1是(t-1)帧图像中的目标状态,ut-1是(t-1)帧图像中目标的加速度,因为此时为匀速运动,因此ut-1为0,wt-1用于描述过程噪声,且服从高斯分布wt-1~N(0,Qt-1),Qt-1为上一帧图像的过程噪声协方差,得到
Figure GDA0003445528440000111
px和py分别对应为第t帧图像中目标的中心位置的x坐标值和y坐标值,vx和vy分别对应为第t帧图像中目标的中心位置在x轴和y轴上的速度;根据匀速运动模型,状态转移矩阵设为
Figure GDA0003445528440000112
因此预测当前帧的目标状态为:
Figure GDA0003445528440000113
E12.计算当前第t帧图像的先验估计的协方差矩阵:
Figure GDA0003445528440000114
其中,
Figure GDA0003445528440000115
为(t-1)帧图像的后验误差,初始值是给定的值,AT为A的转置,Q为帧图像给定的过程噪声协方差;
E13.计算当前第t帧图像的滤波增益矩阵
Figure GDA0003445528440000116
Figure GDA0003445528440000117
其中,
Figure GDA0003445528440000118
是状态转换矩阵,
Figure GDA0003445528440000119
是状态转换矩阵的转置,Rt是观测噪声协方差,为定值R,(X)-1表示X的逆;
E14.根据当前第t帧图像的滤波增益矩阵
Figure GDA00034455284400001110
与预测的目标状态xt,产生后验状态的最佳估计位置
Figure GDA00034455284400001111
即匹配结果:
Figure GDA00034455284400001112
其中,
Figure GDA00034455284400001113
表示当前第t帧图像实际匹配得到的目标区域的中心位置,即为测量值,
Figure GDA00034455284400001114
为测量值
Figure GDA00034455284400001115
与预测坐标
Figure GDA00034455284400001116
之间的误差,用vt表示,vt满足高斯分布,vt~N(0,Rt);
E15.若当前第t帧不是最后一帧,根据滤波增益矩阵
Figure GDA00034455284400001117
状态转换矩阵
Figure GDA00034455284400001118
与先验估计的协方差矩阵pt,更新当前第t帧图像的后验误差:
Figure GDA00034455284400001119
E16.根据得到的最佳估计位置
Figure GDA0003445528440000121
更新当前第t帧图像中目标的中心位置:
Figure GDA0003445528440000122
其中,posx和posy为更新后的目标的中心位置,px和py为最佳估计位置
Figure GDA0003445528440000128
的坐标;
E2.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建跟踪器,新建的跟踪器为核相关(Kernelized Correlation Filters,KCF)滤波器:
E21.读取红外图像序列,在初始帧图像中框选目标,得到目标的中心位置和大小,将初始帧图像中的目标作为模板,获取第二帧图像作为当前帧图像,将初始帧图像的模板作为当前帧图像的模板;
E22.根据模板的大小和细胞单元尺寸得到二维余弦窗;
E23.基于灰度特征计算得到当前帧的目标回归系数,如果所述的目标回归系数由第二帧图像计算所得,用所述目标回归系数赋值给目标模型中的目标回归系数;如果所述的目标回归系数由最后一帧图像计算所得,则不作处理;如果所述目标回归系数既不是由第二帧图像也不是由最后一帧图像计算所得,则用当前帧得到目标回归系数的值替换目标模型中前一帧的目标回归系数的值;
E24.以当前帧图像的模板中心为搜索框中心位置确定当前帧图像的搜索框;
E25.基于模板大小,在当前帧图像中的搜索框中进行遍历,得到待匹配区域集合,再基于待匹配区域集合得到多个待匹配区域对应的灰度特征,基于灰度特征及对应的目标模型和目标回归系数,计算各待匹配区域对应的核相关滤波响应得到核相关滤波响应集合;
E26.以核相关滤波响应集合中最大响应值的横纵坐标作为当前帧图像的目标的质心位置;
E3.设置连续帧未检测目标的第三变量,由于此状态属于检测到了目标位置,因此第三变量的值设为0。
F.跟踪状态:根据前一帧的位置通过Kalman滤波器对当前帧的位置进行预测,根据当前帧更新对应的跟踪器模板,并与跟踪器模板进行关联得到目标的响应位置,根据所述的响应位置对Kalman滤波器预测的位置进行校正,其方法与步骤E1类似,通过公式xt=A·xt-1+B·ut-1+wt-1
Figure GDA0003445528440000123
根据前一帧的位置计算得到当前第t帧图像的先验估计的协方差矩阵,进而得到当前帧最佳估计位置
Figure GDA0003445528440000124
然后根据最佳估计位置
Figure GDA0003445528440000125
更新当前第t帧图像中目标的中心位置:
Figure GDA0003445528440000126
posx和posy为更新后的目标的中心位置,px和py为最佳估计位置
Figure GDA0003445528440000127
的坐标,最后得到当前帧最终的目标跟踪位置;
G.显示跟踪结果,根据检测状态和跟踪状态返回的目标位置坐标,显示跟踪框;
H.判断当前帧是否为红外图像序列的最后一帧,如果是则结束目标跟踪,否则返回步骤A重复执行。
如图2所示,通过本发明的方法读取红外图像序列后第一次捕获到目标的图像,图2中被跟踪器框选出的白色亮点即为图像中的目标。
在图3中,展示出了在图像中有新目标(新的白色亮点)刚出现,图4为通过本发明的方法对图3中的新目标立刻就分配了一个初始框进行跟踪和检测。
图5中的帧图像中,目标数量达到最大,由图6可知,本发明的方法依旧可以对这些目标进行稳定跟踪。
在图7的帧图像中,目标逐渐消失,图8展示出来根据图7中目标数量的变化,本发明的方法能够快速的将消失的跟踪器删除。
通过以上测试,说明本发明方法的跟踪效果自始至终都非常稳定,能够对天空等复杂背景的多目标进行快速检测和捕获,以及对虚假目标剔除及感兴趣目标的识别。

Claims (8)

1.天空背景红外成像多目标跟踪方法,其特征包括:
A.读取红外图像序列,从红外图像序列的初始帧起,记录当前读取的帧数,并且每读取k帧进行一次当前帧的状态是检测状态或跟踪状态的判断,k≥1;如果当前帧处于检测状态,则对当前帧进行一次目标检测,得到所有的N个目标的质心坐标,N>1;
如果当前帧处于跟踪状态,则根据前一帧的位置通过Kalman滤波器预测当前帧的位置,根据当前帧更新对应的跟踪器模板,并根据更新后的跟踪模板得到当前帧的位置,用所述当前帧的位置对所述Kalman滤波器预测的位置进行校正,得出当前帧最终的目标跟踪位置;
B.当前帧处于检测状态时,通过匈牙利算法将已有的M个跟踪器与所述检测到的N个目标的质心进行关联匹配,得到的三种匹配状态分别为:检测到的目标匹配到了跟踪器、当前帧分配有跟踪器但检测器未检测到目标,以及检测到新的目标但是没分配跟踪器;
C.如果所述的匹配状态为检测到的目标匹配到了跟踪器,则以检测到的目标的质心为初值,重新初始化所匹配的跟踪器的位置,同时校正Kalman滤波器的位置,设置连续帧未检测目标的第一变量,由于此状态为检测到了目标,因此第一变量的值设为0;
D.如果所述的匹配状态为当前帧分配有跟踪器但检测器未检测到目标,则将当前帧所对应跟踪器中的滤波器,从前一帧的滤波器模板更新至当前帧的滤波器模板,并将更新了滤波器的跟踪器与当前帧进行关联,使跟踪器通过更新后的滤波器模板重新计算并得到当前帧中的目标位置;设置连续帧未检测目标的第二变量,如果当前帧为红外图像序列的初始帧,则初始化第二变量的值为0,由于此状态为跟踪器在检测阶段未检测到目标,因此第二变量的值加1;如果第二变量的值达到了设定的阈值t,说明当前帧中的目标已经消失,删除当前帧对应的跟踪器;
E.如果所述的匹配状态为检测到新的目标但是没分配跟踪器,则为每一个此状态的目标新建Kalman滤波器和跟踪器,并用检测到的每个目标的质心坐标初始化给每个目标分配的跟踪器的位置;设置连续帧未检测目标的第三变量,由于此状态属于检测到了目标位置,因此第三变量的值设为0;
F.跟踪状态:根据前一帧的位置通过Kalman滤波器对当前帧的位置进行预测,根据当前帧更新对应的跟踪器模板,并与跟踪器模板进行关联得到目标的响应位置,根据所述的响应位置对Kalman滤波器预测的位置进行校正,得到当前帧最终的目标跟踪位置;
G.显示跟踪结果,根据检测状态和跟踪状态返回的目标位置坐标,显示跟踪框;
H.判断当前帧是否为红外图像序列的最后一帧,如果是则结束目标跟踪,否则返回步骤A重复执行。
2.如权利要求1所述的天空背景红外成像多目标跟踪方法,其特征为:步骤A中,在当前帧的处于检测状态时,得到所有的N个目标的质心坐标的步骤包括:
A1.在对当前帧进行一次目标检测时,通过方向高斯差分算子进行滤波;
A2.对所述滤波的输出结果进行二值分割,其中二值分割的阈值为滤波输出结果中的最大像素值和最小像素值之间差值的0.6倍加上最小像素值,然后输出二值分割的结果;
A3.基于所述二值分割的结果进行连通区域分析,输出检测到的N个目标的连通区域的质心坐标,得到目标检测的结果。
3.如权利要求2所述的天空背景红外成像多目标跟踪方法,其特征为:步骤A1包括:
A11.生成两个长半轴和短半轴分别不同、方差不同的二维高斯滤波器,将这两个二维高斯滤波器做差,生成方向高斯差分算子,公式为:
Figure FDA0003445528430000021
式中,DoG(x,y)为方向高斯差分算子,G1(x,y)为sigma值为σ1的第一高斯滤波器,G2(x,y)为sigma值为σ2的第二高斯滤波器,x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,σ1和σ2分别对应为第一高斯滤波器和第二高斯滤波器的sigma值;
A12.使用4个不同方向的方向高斯差分算子分别对当前帧图像滤波,其中方向通过引入正弦和余弦函数来表示:
Figure FDA0003445528430000022
其中x’,y’为:
Figure FDA0003445528430000023
x和y分别为当前帧对应的跟踪器模板在二维坐标系中的坐标值,θ是为在二维坐标系中(x,y)点与x轴方向的夹角,4个不同的方向分别为θ取0°、45°、90°和135°;
A13.将所述4个方向的方向高斯差分算子的主轴右侧系数分别赋值为零,生成4个对应的方向高斯差分滤波器;
A14.选取4个滤波器在分别对应的坐标位置上的最小值作为滤波的输出结果。
4.如权利要求1所述的天空背景红外成像多目标跟踪方法,其特征为:步骤B包括:
B1.基于当前帧检测到的N个目标的质心坐标,以及当前帧已有的M个跟踪器返回的质心坐标,构造一个N×M维的代价矩阵,代价矩阵上的每一个元素表示第i个检测目标和该检测目标对应的第j个跟踪器得到的目标质心的距离,其中i的值为0~N,j的值为0~M;
B2.通过匈牙利算法对N×M维的代价矩阵进行计算,根据最优匹配原则完成任务分配,得到使代价矩阵中所有元素和最小的匹配方式,并返回一个T×2矩阵,其中T为返回匹配的跟踪器的数量,T等于N和M中的较小值,在T×2矩阵的两列中包含分配的跟踪器和检测到的目标索引;通过匈牙利算法返回未分配的跟踪器和检测到的目标索引;并输出所述的三种匹配状态。
5.如权利要求4所述的天空背景红外成像多目标跟踪方法,其特征为:步骤B2中所述的任务分配包括:
B21.对所述N×M维的代价矩阵作行变换和列变换;所述的行变换是将代价矩阵的每一行的各个元素分别减去该行的最小元素;所述的列变换是将代价矩阵的每一列的各个元素分别减去该列的最小元素,有0元素的列不作列变换;
B22.在经过行变换和列变换的代价矩阵中通过标记法寻找所有不同行且不同列的0元素;如果找到,则这些不同行且不同列的0元素的位置则为最优指派;否则,进行步骤B23;
依次检查经过行变换和列变换的代价矩阵的各行,找出只有一个没有加标记的0元素的行,并将这个0元素加上标记,并将与这个0元素在同一列的其他0元素全部加上标记;
依次检查经过行变换和列变换的代价矩阵的各列,找出只有一个没有加标记的0元素的列,并将这个0元素加上标记,并将与这个0元素在同一行的其他0元素全部加上标记;
B23.对标记后的代价矩阵进行调整:根据每一行或每一列中加了标记的0元素的数量,比较所述0元素所在的行和列中包含的加了标记的0元素的数量,如果所述行中的0元素数量多于所述列中的0元素数量,则画一条横线经过所述行中的所有0元素,反之则画一条竖线经过所述列中的所有0元素;
在所述横线和竖线没有经过的元素中找出最小元素;
未画横线的各行元素减去所述的最小元素,画竖线的各列元素加上所述的最小元素;
重新在新的代价矩阵中找出所有不同行且不同列的0元素,这些不同行且不同列的0元素的位置则为代价最少的任务分配。
6.如权利要求1所述的天空背景红外成像多目标跟踪方法,其特征为:步骤C包括:
C1.当所述的匹配状态为检测到的目标匹配到了跟踪器时,在所述的重新初始化所匹配的跟踪器的位置后,重新定位跟踪器的初始框,然后当前帧的状态转到跟踪状态;
C2.同时根据检测到的质心坐标来校正当前帧的Kalman滤波器位置;
C3.所述的第一变量用于记录连续未检测到目标的帧数量,因为此状态中跟踪器匹配到了目标,因此当前帧属于检测到目标状态,第一变量的值设为0。
7.如权利要求1所述的天空背景红外成像多目标跟踪方法,其特征为:步骤D中,每个目标对应的跟踪器为核相关滤波跟踪器。
8.如权利要求1所述的天空背景红外成像多目标跟踪方法,其特征为:步骤E包括:
E1.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建Kalman滤波器:
E11.根据上一帧图像中的目标状态xt-1来预测当前帧的目标状态xt,从预测的目标状态xt中取出目标的中心位置的坐标,设为预测坐标,其中,目标状态包括目标的中心位置和速度,由于跟踪器模板不更新,因此相邻两帧间的跟踪器模板相似,认为目标做匀速运动;预测当前帧的目标状态xt的公式为:
xt=A·xt-1+B·ut-1+wt-1
其中,A为目标状态转移矩阵,B为联系外部控制参数的矩阵,xt-1是(t-1)帧图像中的目标状态,ut-1是(t-1)帧图像中目标的加速度,因为此时为匀速运动,因此ut-1为0,wt-1用于描述过程噪声,且服从高斯分布wt-1~N(0,Qt-1),Qt-1为上一帧图像的过程噪声协方差,得到
Figure FDA0003445528430000041
px和py分别对应为第t帧图像中目标的中心位置的x坐标值和y坐标值,vx和vy分别对应为第t帧图像中目标的中心位置在x轴和y轴上的速度;根据匀速运动模型,状态转移矩阵设为
Figure FDA0003445528430000042
因此预测当前帧的目标状态为:
Figure FDA0003445528430000043
E12.计算当前第t帧图像的先验估计的协方差矩阵:
Figure FDA0003445528430000044
其中,
Figure FDA0003445528430000045
为(t-1)帧图像的后验误差,初始值是给定的值,AT为A的转置,Q为帧图像给定的过程噪声协方差;
E13.计算当前第t帧图像的滤波增益矩阵
Figure FDA0003445528430000046
Figure FDA0003445528430000047
其中,
Figure FDA0003445528430000051
是状态转换矩阵,
Figure FDA0003445528430000052
Figure FDA0003445528430000053
是状态转换矩阵的转置,Rt是观测噪声协方差,为定值R,(X)-1表示X的逆;
E14.根据当前第t帧图像的滤波增益矩阵
Figure FDA0003445528430000054
与预测的目标状态xt,产生后验状态的最佳估计位置
Figure FDA0003445528430000055
即匹配结果:
Figure FDA0003445528430000056
其中,
Figure FDA0003445528430000057
表示当前第t帧图像实际匹配得到的目标区域的中心位置,即为测量值,
Figure FDA0003445528430000058
Figure FDA0003445528430000059
为测量值
Figure FDA00034455284300000510
与预测坐标
Figure FDA00034455284300000511
之间的误差,用vt表示,vt满足高斯分布,vt~N(0,Rt);
E15.若当前第t帧不是最后一帧,根据滤波增益矩阵
Figure FDA00034455284300000512
状态转换矩阵
Figure FDA00034455284300000513
与先验估计的协方差矩阵Pt,更新当前第t帧图像的后验误差:
Figure FDA00034455284300000514
E16.根据得到的最佳估计位置
Figure FDA00034455284300000515
更新当前第t帧图像中目标的中心位置:
Figure FDA00034455284300000516
其中,posx和posy为更新后的目标的中心位置,px和py为最佳估计位置
Figure FDA00034455284300000517
的坐标;
E2.为每一个匹配状态为检测到新的目标但是没分配跟踪器的目标新建跟踪器,新建的跟踪器为核相关滤波器:
E21.读取红外图像序列,在初始帧图像中框选目标,得到目标的中心位置和大小,将初始帧图像中的目标作为模板,获取第二帧图像作为当前帧图像,将初始帧图像的模板作为当前帧图像的模板;
E22.根据模板的大小和细胞单元尺寸得到二维余弦窗;
E23.基于灰度特征计算得到当前帧的目标回归系数,如果所述的目标回归系数由第二帧图像计算所得,用所述目标回归系数赋值给目标模型中的目标回归系数;如果所述的目标回归系数由最后一帧图像计算所得,则不作处理;如果所述目标回归系数既不是由第二帧图像也不是由最后一帧图像计算所得,则用当前帧得到目标回归系数的值替换目标模型中前一帧的目标回归系数的值;
E24.以当前帧图像的模板中心为搜索框中心位置确定当前帧图像的搜索框;
E25.基于模板大小,在当前帧图像中的搜索框中进行遍历,得到待匹配区域集合,再基于待匹配区域集合得到多个待匹配区域对应的灰度特征,基于灰度特征及对应的目标模型和目标回归系数,计算各待匹配区域对应的核相关滤波响应得到核相关滤波响应集合;
E26.以核相关滤波响应集合中最大响应值的横纵坐标作为当前帧图像的目标的质心位置;
E3.设置连续帧未检测目标的第三变量,由于此状态属于检测到了目标位置,因此第三变量的值设为0。
CN201911045318.0A 2019-10-30 2019-10-30 天空背景红外成像多目标跟踪方法 Active CN110796687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911045318.0A CN110796687B (zh) 2019-10-30 2019-10-30 天空背景红外成像多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911045318.0A CN110796687B (zh) 2019-10-30 2019-10-30 天空背景红外成像多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110796687A CN110796687A (zh) 2020-02-14
CN110796687B true CN110796687B (zh) 2022-04-01

Family

ID=69442174

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911045318.0A Active CN110796687B (zh) 2019-10-30 2019-10-30 天空背景红外成像多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110796687B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563919B (zh) * 2020-04-03 2023-12-29 深圳市优必选科技股份有限公司 目标跟踪方法、装置、计算机可读存储介质及机器人
CN111415370A (zh) * 2020-04-13 2020-07-14 中山大学 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统
CN111479061B (zh) * 2020-04-15 2021-07-30 上海摩象网络科技有限公司 跟踪状态确定方法、设备及手持相机
CN111523424A (zh) * 2020-04-15 2020-08-11 上海摩象网络科技有限公司 人脸跟踪方法及人脸跟踪设备
CN111768427B (zh) * 2020-05-07 2023-12-26 普联国际有限公司 一种多运动目标跟踪方法、装置及存储介质
CN111862166A (zh) * 2020-07-13 2020-10-30 江苏信息职业技术学院 一种基于机器视觉的无人机协同目标跟踪算法
CN112581507A (zh) * 2020-12-31 2021-03-30 北京澎思科技有限公司 目标跟踪方法、系统及计算机可读存储介质
CN115222758B (zh) * 2022-09-21 2023-01-10 北京九章星图科技有限公司 一种低分辨广域序列遥感影像船动目标实时检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106772417B (zh) * 2016-12-31 2017-11-14 华中科技大学 一种动目标多维度多尺度红外光谱特征测量方法及系统
CN107945215B (zh) * 2017-12-14 2021-07-23 湖南华南光电(集团)有限责任公司 高精度红外图像跟踪器及一种目标快速跟踪方法
CN108986130B (zh) * 2018-07-13 2022-06-10 电子科技大学 一种空中背景下的红外弱小目标检测方法
CN109919981B (zh) * 2019-03-11 2022-08-02 南京邮电大学 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
CN110288627B (zh) * 2019-05-22 2023-03-31 江苏大学 一种基于深度学习和数据关联的在线多目标跟踪方法
CN110276785B (zh) * 2019-06-24 2023-03-31 电子科技大学 一种抗遮挡红外目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于结构张量分析的弱小目标单帧检测;赵高鹏 等;《光子学报》;20181225;全文 *
红外遥感图像舰船目标检测;丁荣莉 等;《红外技术》;20190203;全文 *

Also Published As

Publication number Publication date
CN110796687A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
CN110796687B (zh) 天空背景红外成像多目标跟踪方法
CN113012203B (zh) 一种复杂背景下高精度多目标跟踪方法
CN107527009B (zh) 一种基于yolo目标检测的遗留物检测方法
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
Zulkifley et al. Robust hierarchical multiple hypothesis tracker for multiple-object tracking
Hadi et al. A computationally economic novel approach for real-time moving multi-vehicle detection and tracking toward efficient traffic surveillance
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
AU2020272936B2 (en) Methods and systems for crack detection using a fully convolutional network
CN102346854A (zh) 前景物体检测方法和设备
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN111210458B (zh) 一种基于预检测置信度的运动目标检测前跟踪方法
CN116402852A (zh) 基于事件相机的动态高速目标追踪方法及装置
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
Musa et al. Crowd reckoning towards preventing the repeat of ‘2015 Hajj pilgrims stampede’
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
Shao et al. Research and analysis of video image target tracking algorithm based on significance
Altundogan et al. Multiple object tracking with dynamic fuzzy cognitive maps using deep learning
Yao et al. A novel method for real-time multiple moving targets detection from moving IR camera
JP5419925B2 (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
CN111191524A (zh) 运动人群计数方法
CN108830885B (zh) 一种基于多向差分残差能量相关的检测虚警抑制方法
Ahammed Basketball player identification by jersey and number recognition
CN110084233A (zh) 一种生产线视频序列中快速捕获目标的方法及系统
Ali et al. A fast approach for person detection and tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant