CN111461160A - 抗云雾、烟雾干扰红外成像导引头目标跟踪方法 - Google Patents

抗云雾、烟雾干扰红外成像导引头目标跟踪方法 Download PDF

Info

Publication number
CN111461160A
CN111461160A CN201911094923.7A CN201911094923A CN111461160A CN 111461160 A CN111461160 A CN 111461160A CN 201911094923 A CN201911094923 A CN 201911094923A CN 111461160 A CN111461160 A CN 111461160A
Authority
CN
China
Prior art keywords
cloud
tracking
smoke
infrared
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911094923.7A
Other languages
English (en)
Other versions
CN111461160B (zh
Inventor
王悦行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Jinhang Institute of Technical Physics
Original Assignee
Tianjin Jinhang Institute of Technical Physics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Jinhang Institute of Technical Physics filed Critical Tianjin Jinhang Institute of Technical Physics
Priority to CN201911094923.7A priority Critical patent/CN111461160B/zh
Publication of CN111461160A publication Critical patent/CN111461160A/zh
Application granted granted Critical
Publication of CN111461160B publication Critical patent/CN111461160B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种抗云雾、烟雾干扰红外成像导引头目标跟踪方法,属于红外图像抗云雾、烟雾干扰目标跟踪技术领域。本发明基于红外云雾、烟雾检测方法,红外抗云雾、烟雾干扰跟踪方法设计进行红外抗干扰跟踪,实现了在云雾、烟雾遮挡条件下能够准确跟踪目标。

Description

抗云雾、烟雾干扰红外成像导引头目标跟踪方法
技术领域
本发明属于红外图像抗云雾、烟雾干扰目标跟踪技术领域,具体涉及一种抗云雾、烟雾干扰红外成像导引头目标跟踪方法。
背景技术
云雾和烟雾等自然和非自然干扰,对红外目标跟踪造成了较大影响。主要包括:云层遮挡和云团背景干扰,沙尘暴干扰图像对比度降低,多弹攻击前一发导弹爆炸火光、烟雾干扰等。
例如,烟幕干扰通过降低目标红外辐射特性、减小目标/背景红外辐射对比度,实现干扰红外成像产品的目的。红外烟幕干扰施放后的爆炸初始阶段,亮度等级较高,能够起到压制目标红外辐射特性的效果;红外烟幕干扰扩散后,如果舰船目标进入烟幕墙区域,则能够实现对舰船目标的遮挡。
在烟幕干扰生效时,如果产品处于目标跟踪阶段:烟幕干扰弹爆炸初始时刻,由于烟幕干扰弹具亮度较强,可能会导致真实目标跟踪错误;而烟幕扩散后,烟幕灰度层次降低会对目标造成遮挡,从而导致目标跟踪失败。云层遮挡图像如图1所示。
由图1可以看出,当云层逐渐加厚时,目标图像变得模糊不清,这种低对比度图像对目标跟踪过程提取目标特征造成了很大的困难,目前的跟踪方法很难在此情况下保持稳定的跟踪状态。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何实现在云雾、烟雾遮挡条件下能够准确跟踪目标。
(二)技术方案
为了解决上述技术问题,本发明提供了一种抗云雾、烟雾干扰红外成像导引头目标跟踪方法,包括以下步骤:
S1)红外云雾、烟雾检测方法设计;
S2)红外抗云雾、烟雾干扰跟踪方法设计;
S3)基于步骤S1和步骤S2进行红外抗干扰跟踪。
优选地,步骤S1中,设计基于SSD网络的迁移学习模型TLSSD,通过迁移学习方式,调整SSD网络预训练模型的参数,实现对云雾、烟雾干扰状态的检测。
优选地,步骤S2中,采用时空规划的在线学习跟踪算法STOT,实现红外成像导引头抗干扰跟踪。
优选地,步骤S3中,将TLSSD检测算法与STOT跟踪算法结合,在跟踪的同时利用TLSSD方法检测烟雾、云雾,根据检测结果调整 STOT跟踪策略,进一步提升跟踪的抗干扰能力。
优选地,步骤S1具体为:首先建立红外云雾、烟雾图像特征表达模型;然后设计基于迁移学习的模型优化方法;最后利用SSD网络学习云雾、烟雾红外特征并训练分类器,将迁移学习与SSD网络结合得到TLSSD,实现对红外云雾、烟雾目标的检测功能。
优选地,其中设计基于迁移学习的模型优化方法时,建立红外图像中场景和目标的红外图像特征表达模型,通过深度学习方法建立红外弱目标图像特征表达模型,利用卷积神经网络特征模型分层表达的特点,通过高层特征反映语义特性,低层特征保存细节特性;采用在 ImageNet数据集上预先训练的检测云雾的成熟CNN特征,对提取出的特征在有限数据量的红外图像数据集上进行二次训练;将迁移学习应用到神经网络中,即将一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里;采用迁移学习的思路识别云雾,利用在可见光云雾干扰数据集预训练的深度学习网络,通过调整其最后的分类层参数,实现对红外烟雾、云雾的检测功能。
优选地,步骤S2中,时空规划的在线学习跟踪算法STOT的设计思路为:将跟踪视为分类问题,在上一帧图像的目标周围选取足够数量的样本并将这些样本划分成不同置信度的样本集来训练得到分类器,然后使用分类器对候选样本进行概率评估,概率最高的候选样本即为目标;
STOT算法采用时间正则化和空间规划思想,通过公式(1)训练分类器:
Figure RE-GDA0002465348670000031
设置当前帧为第t帧,*为卷积运算符,x为训练样本,f为当前帧待训练的分类器,提取目标的特征维度共有D维,每一特征维度d 都有一个分类器fd,y是训练样本对应的分类预测值;w表示分类器的空间惩罚因子,将目标中心区域设置惩罚因子较小,边缘区域设置惩罚因子较大;ft-1是第t-1帧的分类器,μ为时间项的最小二乘因子。
优选地,在步骤S3中,在搜索区域用TLSSD方法检测云雾、烟雾,然后将检测结果反馈给STOT跟踪过程,当在跟踪区域内检测到云雾、烟雾,则启动STOT抗干扰跟踪模式,在该模式下,提高STOT分类器更新的限制因子μ,从而限制分类器的更新;当在跟踪区域内没有检测到云雾、烟雾,则保持之前STOT分类器更新,从而使分类器根据目标的特征变化及时更新分类器。
(三)有益效果
本发明基于红外云雾、烟雾检测方法,红外抗云雾、烟雾干扰跟踪方法设计进行红外抗干扰跟踪,实现了在云雾、烟雾遮挡条件下能够准确跟踪目标。
附图说明
图1为红外云层遮挡图像;
图2为本发明的方法原理图;
图3为基于预训练模型的迁移学习原理图;
图4为SSD网络结构图;
图5为SSD网络模型图;
图6为云雾图像训练集图示;
图7为图像检测结果图示;
图8为本发明的红外抗云雾、烟雾干扰跟踪策略流程图;
图9为云雾干扰前检测与跟踪图像;
图10为云雾干扰时检测与跟踪图像;
图11为云雾干扰后检测与跟踪图像;
图12为云雾遮挡情况下不同灰度等级目标的STOT跟踪效果,其中a为对于灰度值高的目标:遮挡率60%,透过率20%,跟踪准确; b为遮挡率为90%,透过率为30%,跟踪准确;c为目标遮挡率为90%,透过率为30%,跟踪准确;d为遮挡率70%,透过率20%以下准确跟踪;全部遮挡后跟踪丢失;e为细长的道路,遮挡率在70%以上,透过率在20%以下,仍能准确跟踪后全部遮挡后跟踪丢失;f为对于灰度低目标:遮挡率在80%,透过率在40%,仍能准确跟踪;g为遮挡率在80%,透过率在20%以下,仍能准确跟踪;遮挡率100%,透过率5%,跟踪丢失。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
在复杂战场环境中,导弹飞行末段成像场景可能受到云雾等自然因素干扰和烟雾等人为因素干扰,本发明用于实现在该情况下进行抗云雾、烟雾干扰红外目标跟踪。
参考图2,本发明的抗云雾、烟雾干扰红外成像导引头目标跟踪方法包括以下步骤:
S1)红外云雾、烟雾检测方法设计:设计基于SSD网络的迁移学习模型TLSSD,通过迁移学习方式,调整SSD网络预训练模型的参数,实现对云雾、烟雾干扰状态的准确检测;
S2)红外抗云雾、烟雾干扰跟踪方法设计:采用时空规划的在线学习跟踪算法STOT(Spatial-Temporal Regularized Online Tracking,简称STOT),实现红外成像导引头抗干扰跟踪。该方法利用空间规划理论和时间正则化,使跟踪算法能够适应目标形态和尺寸等变化,并且对一定程度的遮挡有较好的鲁棒性;
S3)基于步骤S1和步骤S2进行红外抗干扰跟踪:将TLSSD检测算法与STOT跟踪算法结合,在跟踪的同时利用TLSSD方法检测烟雾、云雾,根据检测结果调整STOT跟踪策略,进一步提升跟踪的抗干扰能力;
步骤S1中,对于红外云雾、烟雾检测方法的设计,采用迁移学习和SSD结合的检测方法;对于云雾、烟雾遮挡场景,如果能够准确地识别云雾、烟雾干扰状态,则对实现抗干扰跟踪算法有重要意义,因此本步骤首先建立红外云雾、烟雾图像特征表达模型;然后为了降低深度学习对红外干扰数据量的需求,设计基于迁移学习的模型优化方法;最后利用SSD网络学习云雾、烟雾红外特征并训练分类器,将迁移学习与SSD方法结合得到TLSSD方法,实现对红外云雾、烟雾目标的检测功能;
其中基于迁移学习的模型优化方法的设计思路如下:
由于云雾、烟雾遮挡等会造成目标和场景的结构信息有限,从而很难获得目标和场景中易辨识的特征,这为跟踪任务带来了很大的挑战。然而,面对同样的跟踪任务,人脑却可以快速地判断图像中是否有目标,并且判断目标受到何种程度的干扰。
因此,如何从受干扰图像中提取出高辨识性特征是本课题的关键。类比人视觉神经的感知模式,通过研究目标、场景的几何形态、纹理规律、统计分布、变化过程等特征,建立红外图像中场景和目标的红外图像特征表达模型,通过深度学习方法建立红外弱目标图像特征表达模型,利用卷积神经网络(Convolution Neural Networks,以下简称CNN)特征模型分层表达的特点,通过高层特征反映语义特性,低层特征保存细节特性。
CNN在图像分类、人脸识别等领域的巨大成功是依赖于大规模数据集的训练。研究和实践表明:CNN在图像识别任务中,当训练数据集达到千万量级时,可以接近甚至超过人眼的识别能力。但是在导引头跟踪任务中,受客观条件的限制,干扰条件下目标图像数据量有限,无法按传统方法对算法进行训练。所以必须开展基于迁移学习的CNN训练方法研究,将其它领域成熟的CNN模型迁移到用于识别烟雾、云雾特征的CNN模型。
迁移学习可以从现有的数据中迁移知识,用来帮助将来的学习,而且迁移学习不像传统机器学习方法那样作同分布假设,因此本方案主要研究基于预训练模型的迁移学习方法。如图3所示,采用在 ImageNet数据集上预先训练的检测云雾的成熟CNN特征,对提取出的特征在有限数据量的红外图像数据集上进行二次训练。
将迁移学习应用到神经网络中,就是将一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里,而不是从头开始,为每一个特定的任务训练神经网络。迁移学习相当于让神经网络有了语言,新一代的神经网络可以站在前人的基础上更进一步,使用一个由他人预先训练好,可以作为训练模型的起点。本发明识别云雾就是采用迁移学习的思路,利用在可见光云雾干扰数据集预训练的深度学习网络,通过调整其最后的分类层参数,实现对红外烟雾、云雾的检测功能。
其中,SSD网络的设计思路为:
本发明采用SSD深度神经网络作为检测算法框架。SSD网络是在YOLO检测算法的基础上进行改进,SSD网络基于回归的检测思路,结合多层卷积特征,使得目标的特征分辨率更高,提高了对目标的检测能力。
SSD网络结构如图4所示,SSD只需要输入一幅图像以及训练过程中每一个目标的真实矩形框。在卷积操作中,对于不同尺度的特征图像(如(b)和(c)),分别计算每个位置上若干不同空间比例的窗口。对于每个窗口,预测所有可能目标类型的外观差异值和置信度。在训练时,将所有窗口匹配到真实目标框处,例如,将默认窗口匹配到(a)中的猫和狗上,这些被认为是正样本,而其他位置被认为是负样本。而损失模型是位置损失值和置信度值的加权和。
SSD网络模型如图5所示,SSD整体框架是一个前向传播的卷积神经网络,网络生成一系列固定大小的矩形框,并且每个框中包含目标的概率大小,之后经过非极大值抑制处理得到最终检测结果。
SSD将VGG-16作为基础网络,之后在其基础上进行扩展,图5 中矩形框部分为SSD在VGG-16上增加的特征提取层,SSD不仅在最后的特征图上进行目标检测,而且还选取前面的卷积层进行多尺度预测,保证了对目标有较好的检测效果。SSD结合了YOLO中的回归思想和Faster R-CNN中的锚机制,使用全图各个位置的多尺度区域特征进行回归,既保持了YOLO速度快的特性,也继承了Faster R-CNN的窗口精准预测能力。
其中,将迁移学习与SSD方法结合得到TLSSD方法,实现对红外云雾、烟雾目标的检测功能的思路为:
本发明将TLSSD作为检测烟雾、云雾的方法,采用该方法进行烟雾、云雾检测试验。算法所选训练样本为我所机载挂飞实验采集的云雾红外图像序列。实验选取500张标记好的云雾图像作为训练集在 TLSSD算法中进行训练,如图6所示,另选取50张作为测试集进行测试,如图7为测试结果,从测试结果中可以看出云雾的检测结果以矩形框的形式给出,具有较高的检测率和较低的误检率。
步骤S2中,采用时空规划的在线学习跟踪算法(STOT),实现红外成像导引头抗干扰跟踪。在目标的跟踪过程中,目标的形态和尺寸等都在不断变化,传统的质心跟踪和相关跟踪算法等对于目标变化的适应能力差,容易导致跟踪点漂移甚至跟踪丢失。采用基于在线学习的跟踪算法,可以使跟踪适应目标外观等的变化,并且对一定程度的遮挡具有良好的鲁棒性,而且该方法能够利用目标信息更新其尺度,可有效地适应目标尺寸变化。
其中时空规划的在线学习跟踪算法(STOT)的设计思路为:
本发明将跟踪视为分类问题,在上一帧图像的目标周围选取足够数量的样本并将这些样本划分成不同置信度的样本集来训练得到分类器,然后使用分类器对候选样本进行概率评估,概率最高的候选样本即为目标。
STOT算法采用时间正则化和空间规划思想,利用分类器在前后帧变化不大以及目标的中心区域较边缘区域特征更加重要的思想,通过公式(1)训练分类器:
Figure RE-GDA0002465348670000091
设置当前帧为第t帧,*为卷积运算符,x为训练样本,f为当前帧待训练的分类器,提取目标的特征维度共有D维,每一特征维度d 都有一个分类器fd,y是训练样本对应的分类预测值;w表示分类器的空间惩罚因子,本文将目标中心区域设置惩罚因子较小,边缘区域设置惩罚因子较大;ft-1是上一帧(第t-1帧)的分类器,μ为时间项的最小二乘因子。
STOT的分类器训练可以通过乘数的交替方向法(ADMM)有效地求解。STOT不仅能对于部分云雾、烟雾干扰有较好的鲁棒性,而且可以适应目标较大地外观变化。
步骤S2中,实现红外成像导引头抗干扰跟踪具体是在不同云雾遮挡情况下进行STOT跟踪仿真试验:
云雾遮挡程度主要是由遮挡面积和透过率决定的。遮挡面积指的是在跟踪搜索区域内,存在云雾遮挡的面积占整个搜索区域面积的百分比;透过率指的是在云雾遮挡区域,云雾遮挡后图像对比度与云雾遮挡前图像对比度的比值。在不同遮挡面积,不同透过率的云雾遮挡情况下,采用STOT跟踪算法分别对不同灰度的目标进行实验,实验结果见图12;其中a示出了对于灰度值高的目标:遮挡率60%,透过率20%,跟踪准确;b示出了遮挡率为90%,透过率为30%,跟踪准确;c示出了目标遮挡率为90%,透过率为30%,跟踪准确;d示出了遮挡率70%,透过率20%以下准确跟踪;全部遮挡后跟踪丢失; e示出了细长的道路,遮挡率在70%以上,透过率在20%以下,仍能准确跟踪后全部遮挡后跟踪丢失;f示出了对于灰度低目标:遮挡率在80%,透过率在40%,仍能准确跟踪;g示出了遮挡率在80%,透过率在20%以下,仍能准确跟踪;遮挡率100%,透过率5%,跟踪丢失。
对不同遮挡面积、不同透过率的云雾遮挡场景进行实验。实验结果表明,STOT跟踪算法对于云雾部分遮挡场景具有很好的鲁棒性,在部分云雾遮挡情况下,STOT可以准确地跟踪不同灰度的目标。
在步骤S3中,在搜索区域用TLSSD算法检测云雾、烟雾,然后将检测结果反馈给STOT跟踪过程。如果在跟踪区域内检测到云雾、烟雾,启动STOT抗干扰跟踪模式,在该模式下,提高STOT分类器更新的限制因子μ,从而限制分类器的更新。当TLSSD在跟踪区域内没有检测到云雾、烟雾,则保持之前STOT分类器更新,从而使分类器根据目标的特征变化及时更新分类器,抗干扰跟踪策略流程如图 8所示。
采用红外抗云雾、烟雾干扰跟踪策略,对云雾干扰图像序列的实验结果如图9-图11所示。
通过云雾干扰实验可以得出,TLSSD算法可以准确检测云雾干扰,并且将其检测结果反馈给STOT跟踪算法,STOT根据TLSSD检测结果实时调整更新分类器策略,保证分类器不受云雾遮挡的干扰,从而保证算法在云雾、烟雾遮挡条件下能够准确跟踪目标。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (8)

1.一种抗云雾、烟雾干扰红外成像导引头目标跟踪方法,其特征在于,包括以下步骤:
S1)红外云雾、烟雾检测方法设计;
S2)红外抗云雾、烟雾干扰跟踪方法设计;
S3)基于步骤S1和步骤S2进行红外抗干扰跟踪。
2.如权利要求1所述的方法,其特征在于,步骤S1中,设计基于SSD网络的迁移学习模型TLSSD,通过迁移学习方式,调整SSD网络预训练模型的参数,实现对云雾、烟雾干扰状态的检测。
3.如权利要求1所述的方法,其特征在于,步骤S2中,采用时空规划的在线学习跟踪算法STOT,实现红外成像导引头抗干扰跟踪。
4.如权利要求1所述的方法,其特征在于,步骤S3中,将TLSSD检测算法与STOT跟踪算法结合,在跟踪的同时利用TLSSD方法检测烟雾、云雾,根据检测结果调整STOT跟踪策略,进一步提升跟踪的抗干扰能力。
5.如权利要求2所述的方法,其特征在于,步骤S1具体为:首先建立红外云雾、烟雾图像特征表达模型;然后设计基于迁移学习的模型优化方法;最后利用SSD网络学习云雾、烟雾红外特征并训练分类器,将迁移学习与SSD网络结合得到TLSSD,实现对红外云雾、烟雾目标的检测功能。
6.如权利要求5所述的方法,其特征在于,其中设计基于迁移学习的模型优化方法时,建立红外图像中场景和目标的红外图像特征表达模型,通过深度学习方法建立红外弱目标图像特征表达模型,利用卷积神经网络特征模型分层表达的特点,通过高层特征反映语义特性,低层特征保存细节特性;采用在ImageNet数据集上预先训练的检测云雾的成熟CNN特征,对提取出的特征在有限数据量的红外图像数据集上进行二次训练;将迁移学习应用到神经网络中,即将一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里;采用迁移学习的思路识别云雾,利用在可见光云雾干扰数据集预训练的深度学习网络,通过调整其最后的分类层参数,实现对红外烟雾、云雾的检测功能。
7.如权利要求3所述的方法,其特征在于,步骤S2中,时空规划的在线学习跟踪算法STOT的设计思路为:将跟踪视为分类问题,在上一帧图像的目标周围选取足够数量的样本并将这些样本划分成不同置信度的样本集来训练得到分类器,然后使用分类器对候选样本进行概率评估,概率最高的候选样本即为目标;
STOT算法采用时间正则化和空间规划思想,通过公式(1)训练分类器:
Figure FDA0002268024820000021
设置当前帧为第t帧,*为卷积运算符,x为训练样本,f为当前帧待训练的分类器,提取目标的特征维度共有D维,每一特征维度d都有一个分类器fd,y是训练样本对应的分类预测值;w表示分类器的空间惩罚因子,将目标中心区域设置惩罚因子较小,边缘区域设置惩罚因子较大;ft-1是第t-1帧的分类器,μ为时间项的最小二乘因子。
8.如权利要求7所述的方法,其特征在于,在步骤S3中,在搜索区域用TLSSD方法检测云雾、烟雾,然后将检测结果反馈给STOT跟踪过程,当在跟踪区域内检测到云雾、烟雾,则启动STOT抗干扰跟踪模式,在该模式下,提高STOT分类器更新的限制因子μ,从而限制分类器的更新;当在跟踪区域内没有检测到云雾、烟雾,则保持之前STOT分类器更新,从而使分类器根据目标的特征变化及时更新分类器。
CN201911094923.7A 2019-11-11 2019-11-11 抗云雾、烟雾干扰红外成像导引头目标跟踪方法 Active CN111461160B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911094923.7A CN111461160B (zh) 2019-11-11 2019-11-11 抗云雾、烟雾干扰红外成像导引头目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911094923.7A CN111461160B (zh) 2019-11-11 2019-11-11 抗云雾、烟雾干扰红外成像导引头目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111461160A true CN111461160A (zh) 2020-07-28
CN111461160B CN111461160B (zh) 2023-07-14

Family

ID=71682230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911094923.7A Active CN111461160B (zh) 2019-11-11 2019-11-11 抗云雾、烟雾干扰红外成像导引头目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111461160B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010009735A2 (en) * 2008-07-23 2010-01-28 Dako Denmark A/S Combinatorial analysis and repair
US20130185503A1 (en) * 2012-01-12 2013-07-18 Vigneshwara Bhatta Method for metadata persistence
JP2017001522A (ja) * 2015-06-10 2017-01-05 株式会社日立製作所 振動源検知装置、検知システム、および方法
CN107392173A (zh) * 2017-08-04 2017-11-24 成都云擎科技有限公司 一种基于光电搜索的反无人机系统
CN109448022A (zh) * 2018-10-16 2019-03-08 天津津航技术物理研究所 用于导引系统的红外抗遮挡跟踪方法
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110276788A (zh) * 2019-06-12 2019-09-24 北京轩宇空间科技有限公司 用于红外成像式导引头目标跟踪的方法和装置
JP2019164521A (ja) * 2018-03-19 2019-09-26 三菱電機株式会社 追尾装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010009735A2 (en) * 2008-07-23 2010-01-28 Dako Denmark A/S Combinatorial analysis and repair
US20130185503A1 (en) * 2012-01-12 2013-07-18 Vigneshwara Bhatta Method for metadata persistence
JP2017001522A (ja) * 2015-06-10 2017-01-05 株式会社日立製作所 振動源検知装置、検知システム、および方法
CN107392173A (zh) * 2017-08-04 2017-11-24 成都云擎科技有限公司 一种基于光电搜索的反无人机系统
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
JP2019164521A (ja) * 2018-03-19 2019-09-26 三菱電機株式会社 追尾装置
CN109448022A (zh) * 2018-10-16 2019-03-08 天津津航技术物理研究所 用于导引系统的红外抗遮挡跟踪方法
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法
CN110276788A (zh) * 2019-06-12 2019-09-24 北京轩宇空间科技有限公司 用于红外成像式导引头目标跟踪的方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丁一;毛征;雷加印;卢青山;: "一种自适应双波门电视跟踪算法", 火炮发射与控制学报, no. 01 *
邓可;胡凯;胡建平;路学荣;: "一种通用红外成像跟踪实验装置的设计", 北京航空航天大学学报, no. 05 *
钟锦;吴昊;: "雾天视频图像增强与运动目标跟踪模型及方法", 计算机仿真, no. 08 *

Also Published As

Publication number Publication date
CN111461160B (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN109241982A (zh) 基于深浅层卷积神经网络的目标检测方法
CN111445488B (zh) 一种弱监督学习自动识别和分割盐体的方法
CN110378997A (zh) 一种基于orb-slam2的动态场景建图与定位方法
CN110245587B (zh) 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法
Pavel et al. Recurrent convolutional neural networks for object-class segmentation of RGB-D video
CN110991257A (zh) 基于特征融合与svm的极化sar溢油检测方法
US11367206B2 (en) Edge-guided ranking loss for monocular depth prediction
CN108805907A (zh) 一种行人姿势多特征智能辨识方法
CN112184762A (zh) 一种基于特征融合的灰狼优化粒子滤波目标跟踪算法
CN103778644B (zh) 基于多尺度码本模型的红外运动目标检测方法
Du et al. Spatio-temporal self-organizing map deep network for dynamic object detection from videos
CN110084834A (zh) 一种基于快速张量奇异值分解特征降维的目标跟踪方法
CN113378638A (zh) 基于人体关节点检测和d-gru网络的轮机员异常行为识别方法
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN111461160B (zh) 抗云雾、烟雾干扰红外成像导引头目标跟踪方法
Goenka et al. Weapon detection from surveillance images using deep learning
CN115984439A (zh) 一种伪装目标的三维对抗纹理生成方法和装置
CN109460485A (zh) 一种图像库建立方法、装置和存储介质
Chen et al. Object-oriented state abstraction in reinforcement learning for video games
CN114694261A (zh) 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统
Han et al. Rapid cigarette detection based on faster R-CNN
Chen et al. Summary about detection and tracking of infrared small targets
Yuanying et al. A camouflage target detection method based on local minimum difference constraints
Seo et al. Domain adaptive generation of aircraft on satellite imagery via simulated and unsupervised learning
Yang Sports Video Athlete Detection Based on Associative Memory Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant