CN109448022B - 用于导引系统的红外抗遮挡跟踪方法 - Google Patents

用于导引系统的红外抗遮挡跟踪方法 Download PDF

Info

Publication number
CN109448022B
CN109448022B CN201811200804.0A CN201811200804A CN109448022B CN 109448022 B CN109448022 B CN 109448022B CN 201811200804 A CN201811200804 A CN 201811200804A CN 109448022 B CN109448022 B CN 109448022B
Authority
CN
China
Prior art keywords
target
tracking
area
detection
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811200804.0A
Other languages
English (en)
Other versions
CN109448022A (zh
Inventor
王悦行
刘国文
李婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Jinhang Institute of Technical Physics
Original Assignee
Tianjin Jinhang Institute of Technical Physics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Jinhang Institute of Technical Physics filed Critical Tianjin Jinhang Institute of Technical Physics
Priority to CN201811200804.0A priority Critical patent/CN109448022B/zh
Publication of CN109448022A publication Critical patent/CN109448022A/zh
Application granted granted Critical
Publication of CN109448022B publication Critical patent/CN109448022B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

本发明涉及一种用于导引系统的红外抗遮挡跟踪方法,属于红外图像的抗遮挡目标跟踪技术领域。本发明对于视场中可能出现的云雾、烟雾、沙尘和高温热源等干扰源,在全部范围进行检测,降低了干扰源对图像的影响,提高了干扰源的检测概率;当干扰源进入到目标区时,采取红外抗干扰目标跟踪方法进行跟踪,在复杂战场环境中提高了自动跟踪算法的抗干扰能力。

Description

用于导引系统的红外抗遮挡跟踪方法
技术领域
本发明属于红外图像的抗遮挡目标跟踪技术领域,具体涉及一种用于导引系统的红外抗遮挡跟踪方法。
背景技术
在复杂战场环境中,导弹飞行末段前下视系统的成像场景有可能受到诸如阳光、云雾,降雨、降雪和沙尘等自然因素干扰,也可能受到红外烟雾、干扰目标、红外定向能和高温热源等人工因素干扰,在干扰过程中会影响目标捕获跟踪,导致捕获跟踪失败。
红外跟踪算法已经采取多种措施解决目标被快速遮挡的情况,设计了目标遮挡检测和目标遮挡处理分支。具体措施包括相关系数阈值控制、目标位置一致性判断和自适应目标特征提取等算法判断是否存在目标遮挡,当检测到目标遮挡后使用遮挡前的目标信息建立丢失目标模板,使用弹上信息实时修正,丢失目标模板在全图中搜索目标,当检测到目标后采取目标确认流程防止定位到重复模式上。
对于没有明显边界的云雾、沙尘遮挡,只降低了目标对比度,通过自适应目标特征提取算法,跟踪算法可以正常跟踪。对于存在边界且遮挡过程较慢的干扰,目前抗遮挡措施不能起到良好效果。
前视红外图像受到自然干扰或人工干扰后,对跟踪的主要影响是对目标部分或全部遮挡,改变目标局部特征或全部特征,对目标跟踪造成的影响主要有以下三类:
1)较少的目标特征被改变,使跟踪点偏离正确的目标位置,即使后续干扰因素消失,也会造成较大跟踪偏差;
2)较多的目标特征被改变,跟踪点更新到干扰源上,当遮挡移走后,跟踪点完全随虚假目标移动,造成跟踪失败;
3)大部分目标特征被改变,使跟踪算法无法搜索到目标,直接导致跟踪失败。
前两种情况,由于跟踪算法没有检测到目标干扰的存在,造成跟踪偏移或跟错目标,将导致制导系统错误导引目标;而第三种结果虽然跟踪失败但检测目标被遮挡,制导系统可以采取其它措施继续导引攻击目标。因此,为解决以上问题,需要解决以下问题:
1)当开始出现目标被遮挡时,能够正确检测到目标遮挡状态,不进行模板的更新过程,继续利用未被遮挡的目标特征继续保持跟踪;
2)当目标特征较大幅度被遮挡后,保持目标模板不变进入目标遮挡流程,向制导系统给出目标遮挡状态,进入到其它导引模式中;
3)当目标进入遮挡状态后,保持1s继续搜索目标,一旦目标重新出现立即转入跟踪。
图1为典型目标遮挡过程。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何针对复杂战场环境中目标跟踪面临的技术难题,在复杂战场环境中提高自动跟踪算法的抗干扰能力,提出一种抗遮挡红外目标跟踪算法。
(二)技术方案
为了解决上述技术问题,本发明提供了一种用于导引系统的红外抗遮挡跟踪方法,包括以下步骤:
第一步、云、烟雾及沙尘区域检测
1)14bit图像复原:在当前帧目标跟踪区域,使用接收到的8bit数据和当前帧拉伸参数,反算出原始的14bit数据,计算公式见公式1);
X=(Y-P)/G 1)
其中,X为原始14bit图像数据;Y为实时8bit图像数据;G为拉伸增益;P为拉伸偏置;
2)计算样本子块特征参数:以14bit初始帧图像目标区域为初始检测样本,将图像划分为若干个16×16的子块,计算每个子块的均值和方差,并假定图像中没有干扰;
3)计算当前帧子块特征参数:当前图像与检测样本图像进行配准对齐,同样划分子块,计算每个子块的方差和均值;
4)遮挡检测:计算当前图像与检测样本图像每个子块方差和均值的差值,二值超过阈值时判定为遮挡区域,输出检测结果;
5)更新样本子块特征参数:更新检测样本子块信息,遮挡区域的方差和均值保持不变,未遮挡区域的均值采用如下公式2)进行更新;
Vn+1=aVn+(1-a)VcurVn+1=aVn+(1-a)Vcur 2)
其中Vn+1为更新后检测样本子块值,Vn为更新后检测样本子块值,Vcur为当前图像子块值,a为更新速率;
第二步、高温热源干扰检测
1)启动高温干扰检测:当14bit原始图像直方图统计结果中Xmax大于上限时启动高温干扰检测;
2)阈值分割:将接收到8bit图像进行二值化分割,分割阈值设为240;
3)去除噪声:对分割结果进行形态滤波处理,进行团块检测,剔除连同像素小于100的区域;
4)干扰检测:统计检测结果,当干扰面积大于1%时输出高温遮挡状态,当干扰出现在目标区域内时,设置遮挡标志,跟踪状态下直接进入到红外目标遮挡处理流程;
第三步、红外抗遮挡目标跟踪
3.1.1分类器训练
得到正负样本集后,采用岭回归思想训练分类器,假设从图像区域提取的特征是d维,则回归函数为:
Figure BDA0001829946050000041
其中,*为卷积运算符,x为训练样本,f为待训练的分类器,每一层都有一个分类器fl,通过分类器投影得到分类结果Sf(x),在得到公式4)的最小值情况下对应的f即为所求:
Figure BDA0001829946050000042
通过分类器f投影得到分类结果Sf(xi),yi为第i个样本xi的分类结果预测值,λ为预设正则化系数;
3.1.2分类器检测
将样本训练得到的分类器fl与候选目标z相乘,得到置信度分布Sf(z):
Figure BDA0001829946050000043
置信度Sf(z)的最大值所在位置就是当前帧目标位置;
3.2执行目标遮挡策略
1)样本提取:在目标被遮挡前建立丢失目标模板;
2)样本分割:将丢失目标模板根据位置关系分成9个子模块,目标中心模块的位置权值a为0.2,周围八邻域目标模块的位置权值a设为0.1;
3)置信度计算:将每个目标子模板在目标点周围的搜索区域进行搜索定位,计算每个网格的置信度;如果该模块的最大置信度小于0.2,则认为该位置区域被遮挡;如果该模块的最大置信度大于0.4,则认为该位置区域没有被遮挡;若认为该位置区域被遮挡,则执行步骤4),否则执行步骤3.3;
4)判断当前跟踪区域是否可跟踪:
如果所有子模块最大置信度都小于0.2,则判断为不可跟踪;
计算跟踪区内对比度,若对比度小于10则判断为不可跟踪,不进行跟踪处理;
5)目标位置确定:除去被遮挡区域,将剩余子模块的最大置信度进行排序,取出置信度最大的4个子模板进行置信度归一化,得到置信度权值b,按照其对应的位置权值a和置信度权值b,对这四个子模块对应的中心点位置进行加权,得到当前帧跟踪目标的位置;
6)模板更新:确定当前帧目标位置后,对当前帧位置的子模板进行更新,如果子模板置信度小于0.4,则认为该网格区域存在遮挡,因此更新模板时不更新该区域;然后执行步骤4;
3.3分类器更新
表示系数更新:
Figure BDA0001829946050000061
样本特征更新:
Figure BDA0001829946050000062
其中,
Figure BDA0001829946050000063
Figure BDA0001829946050000064
分别表示当前帧提取的样本特征和表示系数;
Figure BDA0001829946050000065
Figure BDA0001829946050000066
为之前帧得到的样本特征和表示系数;i为更新系数。
优选地,进入到目标遮挡流程后,当目标区域不存在干扰时需要对原始的目标模板进行确认,确认通过后转入正常跟踪。目标确认流程如下:
1)使用弹上姿态、随动框架角和弹目连线距离信息,对目标模板进行校正;
2)使用校正后的目标模板,在跟踪位置上进行匹配;
3)置信度大于0.3时判定模板确认成功。
优选地,a为经验值,取0.8。
优选地,步骤3.2中第3)步的搜索范围为目标中心128×128区域。
优选地,i为经验值,取0.025。
(三)有益效果
本发明对于视场中可能出现的云雾、烟雾、沙尘和高温热源等干扰源,在全部范围进行检测,降低了干扰源对图像的影响,提高了干扰源的检测概率;当干扰源进入到目标区时,采取红外抗干扰目标跟踪方法进行跟踪,在复杂战场环境中提高了自动跟踪算法的抗干扰能力。
附图说明
图1是典型目标遮挡过程示意图;
图2是本发明的红外抗遮挡跟踪流程图;
图3是地物辐射特性示意图;
图4是云、烟雾及沙尘检测流程图;
图5是图像拉伸原理示意图;
图6是本发明的红外抗遮挡跟踪算法流程图;
图7是目标子模板示意图;
图8是本发明的红外跟踪算法在遮挡情况下跟踪效果图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
现有的红外目标遮挡解决方法属于被动措施,只有目标遮挡已经进入到目标搜索区并对目标跟踪产生了影响时才进行检测和处理,从而加大遮挡算法的难度和不确定性。
因此,本发明采取的抗遮挡方案是:
1、对于视场中可能出现的云雾、烟雾、沙尘和高温热源等干扰源,在全部范围进行检测,降低干扰源对图像的影响,提高干扰源的检测概率;
2、当干扰源进入到目标区时,采取红外抗干扰目标跟踪方法进行跟踪;
算法处理流程主要包括以下分支:
a)计算图像拉伸参数,检测到异常的增益和偏置参数时,使用前帧参数并保持2s,解决高温热源对全图亮度和局部细节的影响;
b)使用原始的14bit图像数据,在全图范围内检测云雾、沙尘干扰;
c)使用实时8bit图像数据,检测全图范围内高温热源干扰;
d)当干扰进入目标区后,启动目标遮挡处理分支,检测目标是否可以继续跟踪,若可以继续跟踪则锁定目标模板使用抗遮挡跟踪算法,否则设置跟踪丢失状态进行目标记忆;
e)当干扰离开目标区后,进行目标重新确认,恢复正常跟踪流程,例如模板匹配。
实现本发明的技术方案流程如图(2)所示,包括以下步骤:第一步、云、烟雾及沙尘区域检测
红外成像系统探测到的能量不仅包含物体自身的辐射能量,还包括反射阳光能量、反射周围物体能量、传输路径的大气辐射、大气阳光散射能量,其中物体的温度以及表面特性是影响辐射能量的主要因素。地物的这种特性称为:地物的光谱特性,见图3所示。
因此基于原始14bit图像数据检测干扰源的理论前提如下:
1)红外成像器输出的图像,反映的是目标区域的能量场分布,受到大气传输的影响和视角变化,能量场会发生变化,但在一定距离内和视线角基本保持不变的条件下,目标区的能量场不会发生较大的变化。
2)若没有遮挡发生,目标场景中的纹理信息保持稳定,并随导弹飞行缓慢变化;
3)云雾、沙尘在能量分布上与目标场景相比存在明显的区别,可以使用局部均值和方差两个特征进行检测分析。
云、烟雾及沙尘检测流程如下(见图4):
1)14bit图像复原:在当前帧目标跟踪区域,使用接收到的8bit数据和当前帧拉伸参数,反算出原始的14bit数据,计算公式见公式1);
X=(Y-P)/G 1)
其中,X为原始14bit图像数据;Y为实时8bit图像数据;G为拉伸增益;P为拉伸偏置。
2)计算样本子块特征参数:以14bit初始帧图像目标区域为初始检测样本,将图像划分为若干个16×16的子块,计算每个子块的均值和方差,并假定图像中没有干扰;
3)计算当前帧子块特征参数:当前图像与检测样本图像进行配准对齐,同样划分子块,计算每个子块的方差和均值;
4)遮挡检测:计算当前图像与检测样本图像每个子块方差和均值的差值,二值超过阈值时判定为遮挡区域,输出检测结果;
5)更新样本子块特征参数:更新检测样本子块信息,遮挡区域的方差和均值保持不变,未遮挡区域的均值采用如下公式2)进行更新;
Vn+1=aVn+(1-a)VcurVn+1=aVn+(1-a)Vcur 2)
其中Vn+1为更新后检测样本子块值(均值、方差),Vn为更新后检测样本子块值(均值、方差),Vcur为当前图像子块值(均值、方差),a为更新速率,为经验值,取0.8。
第二步、高温热源干扰检测
高温热源干扰检测包括两个方面,一个是控制图像拉伸参数,防止局部热源影响全图成像,另一方面需要检测出高温热源干扰的大小和位置,当尺寸较小时应予剔除,当干扰位置在目标区域内时立即进入目标遮挡流程。
图像拉伸通过统计14bit灰度直方图分布,剔除高低1%的像素,采用线性拉伸的方法映射到8bit数据范围内,当图像中出现高温热源时Xmax(直方图统计中高1%像素对应的灰度值)将显著增大,限制Xmax的最大值可以降低高温热源对图像影响。图像拉伸原理见图5。
图像中高温干扰检测流程如下:
1)启动高温干扰检测:当14bit原始图像直方图统计结果中Xmax大于上限时启动高温干扰检测;
2)阈值分割:将接收到8bit图像进行二值化分割,分割阈值设为240;
3)去除噪声:对分割结果进行形态滤波处理,进行团块检测,剔除连同像素小于100的区域;
4)干扰检测:统计检测结果,当干扰面积大于1%时输出高温遮挡状态,当干扰出现在目标区域内时,设置遮挡标志,跟踪状态下直接进入到红外目标遮挡处理流程。
第三步、红外抗遮挡目标跟踪
3.1跟踪算法框架
本发明算法将目标跟踪视为二值分类问题,通过在上一帧图像的目标周围进行足够数量的样本选取并将这些样本划分成正、负样本集来训练得到分类器,然后使用分类器对候选样本进行概率评估,概率最高的候选样本即为目标。
跟踪算法的跟踪过程分为以下步骤:分类器训练——分类器检测——分类器更新。
3.1.1分类器训练
得到正负样本集后,采用岭回归思想训练分类器。假设从图像区域提取的特征是d维,则回归函数为:
Figure BDA0001829946050000111
其中,*为卷积运算符,x为训练样本,f为待训练的分类器,每一层都有一个分类器fl,通过分类器投影得到分类结果Sf(x)。因此,下一步是求出分类器f,在得到公式4)的最小值情况下对应的f即为所求:
Figure BDA0001829946050000112
通过分类器f投影得到分类结果Sf(xi),yi为第i个样本xi的分类结果预测值,λ为正则化系数,是预设值。
3.1.2分类器检测
将样本训练得到的分类器fl与候选目标z相乘,得到置信度分布Sf(z):
Figure BDA0001829946050000121
置信度Sf(z)的最大值所在位置就是当前帧目标位置。
3.2目标遮挡策略
目标被遮挡后,造成跟踪失败的主要因素是目标的局部特征改变,由于无法准确检测目标遮挡状态,造成目标模板被污染,从而造成跟踪失败。本发明提出抗遮挡目标跟踪方法,采用基于目标局部特征的检测方法,检测目标的遮挡状态,并在目标部分遮挡状态下保持跟踪。红外抗遮挡目标跟踪方法流程如下(见图6):
1)样本提取:在目标被遮挡前建立丢失目标模板;
2)样本分割:将丢失目标模板根据位置关系分成9个子模块,目标中心模块的位置权值a为0.2,周围八邻域目标模块的位置权值a设为0.1(见图7);
3)置信度计算:将每个目标子模板在目标点周围的搜索区域进行搜索定位,计算每个网格的置信度;如果该模块的最大置信度小于0.2,则认为该位置区域被遮挡;如果该模块的最大置信度大于0.4,则认为该位置区域没有被遮挡(搜索范围为目标中心128×128区域);若认为该位置区域被遮挡,则执行步骤4),否则执行步骤3.3;
4)判断当前跟踪区域是否可跟踪:
1、如果所有子模块最大置信度都小于0.2,则判断为不可跟踪;
2、计算跟踪区内对比度,若对比度小于10则判断为不可跟踪,不进行跟踪处理;
5)目标位置确定:除去被遮挡区域,将剩余子模块的最大置信度进行排序,取出置信度最大的4个子模板进行置信度归一化,得到置信度权值b,按照其对应的位置权值a和置信度权值b,对这四个子模块对应的中心点位置进行加权,得到当前帧跟踪目标的位置;
6)模板更新:确定当前帧目标位置后,对当前帧位置的子模板进行更新,如果子模板置信度小于0.4,则认为该网格区域存在遮挡,因此更新模板时不更新该区域;然后执行步骤4.
3.3分类器更新
表示系数更新:
Figure BDA0001829946050000131
样本特征更新:
Figure BDA0001829946050000132
其中,
Figure BDA0001829946050000133
Figure BDA0001829946050000134
分别表示当前帧提取的样本特征和表示系数;
Figure BDA0001829946050000135
Figure BDA0001829946050000136
为之前帧得到的样本特征和表示系数;i为更新系数,为经验值,0.025。
该更新策略使得之前帧训练的样本都参与更新,越接近初始帧的样本权重越大,而当前帧的权重始终保持在固定值,这样可以突出初始帧的作用,使算法对遮挡等有较好的鲁棒性。
图6红外抗遮挡跟踪算法流程图,图7为目标子模板示意图;
进入到目标遮挡流程后,当目标区域不存在干扰时需要对原始的目标模板进行确认,确认通过后转入正常跟踪。目标确认流程如下:
1)使用弹上姿态、随动框架角和弹目连线距离信息,对目标模板进行校正;
2)使用校正后的目标模板,在跟踪位置上进行匹配;
3)置信度大于0.3时判定模板确认成功。
根据上述本发明提出的方案,对存在云雾遮挡的图像进行仿真实验,实验结果如图8所示:
由图8可见,当云雾进入图像,可以通过云、烟雾及沙尘区域检测方法准确检测出云雾;当云雾进入目标区域时,启动红外抗遮挡目标跟踪算法,算法能够准确跟踪目标,而且可以准确判断已遮挡区域并对未遮挡区域进行模板更新;当目标被完全遮挡时,启动目标重新确认方法,当遮挡消失后重新检测到目标并继续跟踪。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (5)

1.一种用于导引系统的红外抗遮挡跟踪方法,其特征在于,包括以下步骤:
第一步、云、烟雾及沙尘区域检测
1)14bit图像复原:在当前帧目标跟踪区域,使用接收到的8bit数据和当前帧拉伸参数,反算出原始的14bit数据,计算公式见公式1);
X=(Y-P)/G 1)
其中,X为原始14bit图像数据;Y为实时8bit图像数据;G为拉伸增益;P为拉伸偏置;
2)计算样本子块特征参数:以14bit初始帧图像目标区域为初始检测样本,将图像划分为若干个16×16的子块,计算每个子块的均值和方差,并假定图像中没有干扰;
3)计算当前帧子块特征参数:当前图像与检测样本图像进行配准对齐,同样划分子块,计算每个子块的方差和均值;
4)遮挡检测:计算当前图像与检测样本图像每个子块方差和均值的差值,二值超过阈值时判定为遮挡区域,输出检测结果;
5)更新样本子块特征参数:更新检测样本子块信息,遮挡区域的方差和均值保持不变,未遮挡区域的均值采用如下公式2)进行更新;
Vn+1=aVn+(1-a)VcurVn+1=aVn+(1-a)Vcur 2)
其中Vn+1为更新后检测样本子块值,Vn为更新后检测样本子块值, Vcur为当前图像子块值,a为更新速率;
第二步、高温热源干扰检测
1)启动高温干扰检测:当14bit原始图像直方图统计结果中Xmax大于上限时启动高温干扰检测;
2)阈值分割:将接收到8bit图像进行二值化分割,分割阈值设为240;
3)去除噪声:对分割结果进行形态滤波处理,进行团块检测,剔除连同像素小于100的区域;
4)干扰检测:统计检测结果,当干扰面积大于1%时输出高温遮挡状态,当干扰出现在目标区域内时,设置遮挡标志,跟踪状态下直接进入到红外目标遮挡处理流程;
第三步、红外抗遮挡目标跟踪
3.1.1分类器训练
得到正负样本集后,采用岭回归思想训练分类器,假设从图像区域提取的特征是d维,则回归函数为:
Figure FDA0001829946040000021
其中,*为卷积运算符,x为训练样本,f为待训练的分类器,每一层都有一个分类器fl,通过分类器投影得到分类结果Sf(x),因此,在得到公式4)的最小值情况下对应的f即为所求:
Figure FDA0001829946040000022
通过分类器f投影得到分类结果Sf(xi),yi为第i个样本xi的分类结果预测值,λ为正则化系数;
3.1.2分类器检测
将样本训练得到的分类器fl与候选目标z相乘,得到置信度分布Sf(z):
Figure FDA0001829946040000031
置信度Sf(z)的最大值所在位置就是当前帧目标位置;
3.2执行目标遮挡策略
1)样本提取:在目标被遮挡前建立丢失目标模板;
2)样本分割:将丢失目标模板根据位置关系分成9个子模块,目标中心模块的位置权值a为0.2,周围八邻域目标模块的位置权值a设为0.1;
3)置信度计算:将每个目标子模板在目标点周围的搜索区域进行搜索定位,计算每个网格的置信度;如果该模块的最大置信度小于0.2,则认为该位置区域被遮挡;如果该模块的最大置信度大于0.4,则认为该位置区域没有被遮挡;若认为该位置区域被遮挡,则执行步骤4),否则执行步骤3.3;
4)判断当前跟踪区域是否可跟踪:
如果所有子模块最大置信度都小于0.2,则判断为不可跟踪;
计算跟踪区内对比度,若对比度小于10则判断为不可跟踪,不进行跟踪处理;
5)目标位置确定:除去被遮挡区域,将剩余子模块的最大置信度进行排序,取出置信度最大的4个子模板进行置信度归一化,得到置信度权值b,按照其对应的位置权值a和置信度权值b,对这四个子模块对应的中心点位置进行加权,得到当前帧跟踪目标的位置;
6)模板更新:确定当前帧目标位置后,对当前帧位置的子模板进行更新,如果子模板置信度小于0.4,则认为该网格区域存在遮挡,因此更新模板时不更新该区域;然后执行步骤4;
3.3分类器更新
表示系数更新:
Figure FDA0001829946040000041
样本特征更新:
Figure FDA0001829946040000042
其中,
Figure FDA0001829946040000043
Figure FDA0001829946040000044
分别表示当前帧提取的样本特征和表示系数;
Figure FDA0001829946040000045
Figure FDA0001829946040000046
为之前帧得到的样本特征和表示系数;i为更新系数。
2.如权利要求1所述的方法,其特征在于,进入到目标遮挡流程后,当目标区域不存在干扰时需要对原始的目标模板进行确认,确认通过后转入正常跟踪, 目标确认流程如下:
1)使用弹上姿态、随动框架角和弹目连线距离信息,对目标模板进行校正;
2)使用校正后的目标模板,在跟踪位置上进行匹配;
3)置信度大于0.3时判定模板确认成功。
3.如权利要求1所述的方法,其特征在于,a为经验值,取0.8。
4.如权利要求1所述的方法,其特征在于,步骤3.2中第3)步的搜索范围为目标中心128×128区域。
5.如权利要求1至4中任一项所述的方法,其特征在于,i为经验值,取0.025。
CN201811200804.0A 2018-10-16 2018-10-16 用于导引系统的红外抗遮挡跟踪方法 Active CN109448022B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811200804.0A CN109448022B (zh) 2018-10-16 2018-10-16 用于导引系统的红外抗遮挡跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811200804.0A CN109448022B (zh) 2018-10-16 2018-10-16 用于导引系统的红外抗遮挡跟踪方法

Publications (2)

Publication Number Publication Date
CN109448022A CN109448022A (zh) 2019-03-08
CN109448022B true CN109448022B (zh) 2021-08-06

Family

ID=65545197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811200804.0A Active CN109448022B (zh) 2018-10-16 2018-10-16 用于导引系统的红外抗遮挡跟踪方法

Country Status (1)

Country Link
CN (1) CN109448022B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211153A (zh) * 2019-05-28 2019-09-06 浙江大华技术股份有限公司 目标跟踪方法、目标跟踪装置以及计算机存储介质
CN111461160B (zh) * 2019-11-11 2023-07-14 天津津航技术物理研究所 抗云雾、烟雾干扰红外成像导引头目标跟踪方法
CN111598925B (zh) * 2020-05-15 2023-10-17 武汉卓目科技有限公司 基于eco算法和区域生长分割的视觉目标跟踪方法及装置
CN111986236A (zh) * 2020-09-01 2020-11-24 安徽炬视科技有限公司 一种基于在线学习的抗遮挡目标跟踪算法
CN113793365B (zh) * 2021-11-17 2022-04-29 第六镜科技(成都)有限公司 目标跟踪方法、装置、计算机设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764231B1 (en) * 1996-09-09 2010-07-27 Tracbeam Llc Wireless location using multiple mobile station location techniques
CN102622769A (zh) * 2012-03-19 2012-08-01 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN106331602A (zh) * 2016-08-17 2017-01-11 西安交通大学 一种基于红外热成像技术的家居监控系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177447B2 (en) * 1999-02-23 2007-02-13 Lockheed Martin Corporation Real-time multi-stage infrared image-based tracking system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764231B1 (en) * 1996-09-09 2010-07-27 Tracbeam Llc Wireless location using multiple mobile station location techniques
CN102622769A (zh) * 2012-03-19 2012-08-01 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN106331602A (zh) * 2016-08-17 2017-01-11 西安交通大学 一种基于红外热成像技术的家居监控系统

Also Published As

Publication number Publication date
CN109448022A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN109448022B (zh) 用于导引系统的红外抗遮挡跟踪方法
CN106960446B (zh) 一种面向无人艇应用的水面目标检测跟踪一体化方法
US10580161B2 (en) Imaging system, object detection device and method of operating same
JP5551595B2 (ja) 滑走路監視システムおよび方法
US8243991B2 (en) Method and apparatus for detecting targets through temporal scene changes
CN109859247B (zh) 近地面场景红外小目标检测方法
CN107766801B (zh) 一种基于红外热点追踪的绝缘子识别方法及装置
CN110189375B (zh) 一种基于单目视觉测量的图像目标识别方法
CN112541396A (zh) 一种车道线检测方法、装置、设备及计算机存储介质
CN109993052B (zh) 一种复杂场景下尺度自适应的目标跟踪方法和系统
Tang et al. Research on infrared ship detection method in sea-sky background
CN111428573B (zh) 一种复杂背景下的红外弱小目标检测虚警抑制方法
US20210286970A1 (en) Cloud detection method based on landsat 8 snow-containing image
CN115100104A (zh) 玻璃油墨区的缺陷检测方法、装置、设备及可读存储介质
CN115346155A (zh) 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法
CN108520255B (zh) 一种红外弱小目标检测方法及装置
CN116665080A (zh) 基于目标识别的无人机劣化绝缘子检测方法及系统
CN116883446B (zh) 一种车载摄像头镜片碾磨程度实时监测系统
JPH09282452A (ja) 監視装置
CN104408432B (zh) 一种基于直方图修正的红外图像目标检测方法
CN112926516A (zh) 一种鲁棒的手指静脉图像感兴趣区域提取方法
CN112465867B (zh) 一种基于卷积神经网络的红外点目标实时检测跟踪方法
WO2003003311A2 (en) Probability weighted centroid tracker
CN111353350A (zh) 一种基于组合传感器图像融和技术的火焰检测与定位方法
Fan et al. Double-threshold image segmentation method based on gray gradient

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Wang Yuexing

Inventor after: Liu Guowen

Inventor after: Li Ting

Inventor before: Wang Yuexing

Inventor before: Liu Guowen

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant