CN114972869B - 一种基于反事实因果学习的红外微弱目标检测方法 - Google Patents

一种基于反事实因果学习的红外微弱目标检测方法 Download PDF

Info

Publication number
CN114972869B
CN114972869B CN202210605568.0A CN202210605568A CN114972869B CN 114972869 B CN114972869 B CN 114972869B CN 202210605568 A CN202210605568 A CN 202210605568A CN 114972869 B CN114972869 B CN 114972869B
Authority
CN
China
Prior art keywords
target
infrared
causal
data
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210605568.0A
Other languages
English (en)
Other versions
CN114972869A (zh
Inventor
张兆祥
许悦雷
周清
马林华
加尔肯别克
回天
袁超峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210605568.0A priority Critical patent/CN114972869B/zh
Publication of CN114972869A publication Critical patent/CN114972869A/zh
Application granted granted Critical
Publication of CN114972869B publication Critical patent/CN114972869B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

本发明公开了一种基于反事实因果学习的红外微弱目标检测方法,首先获取红外图像;再进行数据增强,得到红外数据集;利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络。本发明方法提高了红外微弱目标的特征提取泛化性,进一步提高了模型的检测精度和鲁棒性。

Description

一种基于反事实因果学习的红外微弱目标检测方法
技术领域
本发明属于模式识别技术领域,具体涉及一种红外微弱目标检测方法。
背景技术
目前空天无人平台广泛应用于监视侦察等军事任务,以及国土勘测,自然灾害预测等民用领域。红外传感器能够获取更丰富、更全面、包含更多细节的目标信息和环境信息,利用红外信息化实现微弱目标有效检测是无人化智能化感知任务的重要环节。鉴于红外观测通常存在距离远、分辨率低等固有特性,导致红外图像采集到的目标普遍存在目标面积小、目标特征不显著、目标分布稀疏等“弱小目标”特点。利用现有的深度学习模型对红外弱小目标的检测与识别性能始终无法突破,迫切需要提升复杂环境下红外弱小目标的检测准确率。
红外图像和可见光图像的成像原理相差较大,红外图像不受光照条件变化的影响,成像具有精度高、隐蔽性好、抗干扰能力强、效费比高等优点。但其图像分辨率一般较低;随着隐身技术、干扰技术(水雾、烟幕、诱饵弹等)的发展以及在复杂背景干扰、恶劣天气等情况下,基于红外传感器的成像探测系统对目标的有效探测会受到严重影响,这都导致红外传感器采集到的目标普遍存在目标面积小、目标特征不显著、目标分布稀疏等“弱小目标”特点。综上所述,围绕微弱红外目标检测,需要解决的问题如下:
(1)针对弱小红外目标的上下文背景不显著问题,充分挖掘复杂下红外目标的泛化性特征,提高深度学习目标识别模型的准确度和泛化能力;
(2)针对红外图像的目标类别稀疏、目标类别分布不一致问题,提取红外图像的目标精细特征,降低不同目标类别的耦合程度,提高细粒度红外目标辨识和目标类型识别的准确度和鲁棒性。
发明内容
为了克服现有技术的不足,本发明提供了一种基于反事实因果学习的红外微弱目标检测方法,首先获取红外图像;再进行数据增强,得到红外数据集;利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络。本发明方法提高了红外微弱目标的特征提取泛化性,进一步提高了模型的检测精度和鲁棒性。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数Φ:同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
其中,fpt代表了即h和Φ的结合;Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分;
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强;
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
本发明的有益效果如下:
本发明采用反事实因果模型对红外微弱目标进行特征提取和检测识别,能够实现红外微弱目标的自动化检测,构建反事实因果结构模型,输出目标和背景的反事实因果关系,提高了红外微弱目标的特征提取泛化性,之后利用泛化特征对目标检测模型进行有监督训练,同时构建上下文和类标签之间的因果关系,对训练好的模型参数进行前馈调整,进一步提高了模型的检测精度和鲁棒性。
附图说明
图1为本发明方法示意图。
图2为本发明方法的结构因果模型示意图,(a)典型分类器中的结构因果图;(b)跨领域模型中的因果结果图。
图3为本发明方法的泛化特征提取示意图。
图4为本发明方法的上下文融合特征干预细粒度目标辨识模型流程图。
图5为本发明实施例测试融合结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出一种基于反事实因果学习模型的端到端红外图像模型,构建红外微弱目标的因果结构模型,开展红外图像泛化特征提取方法,有效去除图像背景信息对微弱目标的干扰,突出微弱红外目标的显著特征;开展基于上下文融合特征干预的细粒度目标辨识方法,降低红外目标类别占比差异,进一步提升模型的检测效率。
采取的方案如下:
(1)提出一种基于的因果结构框架,引入因果推理手段对模型特征提取过程进行约束,并且去除无效和虚假的特征信息,提高红外特征提取能力;
(2)提出一种上下文融合特征干预的细粒度目标辨识方法,利用图像、上下文和类标签之间的因果关系,消除不同类别中的混淆偏差,使模型在不显著背景下目标检测性能得到进一步提升。
一种基于反事实因果学习的红外微弱目标检测方法,包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数Φ:同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
具体实施例:
由于红外微弱目标图像的数据集数量有限,为了使数据特征分布的更加全面,因此使用随机对比度、随机亮度、随机翻转、随机旋转等操作对数据集进行增强,以提升模型在多种情况下的鲁棒性,在对数据集进行增强后将其随机分为训练集、验证集和测试集。
图1为本发明的基于因果学习的红外图像微小目标检测方法,首先构建因果结构模型,利用红外图像的目标特征,构建对应的因果结构图。在图像特征提取阶段,本发明为提高红外特征的泛化提取能力,引入了一种基于伪相关增强和非线性变换的图像特征提取模块,该模块解耦了图像特征和背景之间的反事实关联,提高了目标特征在复杂背景下的泛化提取能力。之后,利用生成的泛化特征对模型进行监督训练,并且生成检测框。这时考虑数据中目标类别的不同占比会对检测框的生成产生影响,因而需要进一步构筑不同类别的因果关系并施以因果干预,利用监督训练得到类间独立的网络模型,从而不断提高模型生成的准确度,达成良性闭环结果。
图2为本发明的针对红外目标检测的结构化因果模型,由图2(a)中可以看出,在一个特定的数据域D下,目标的特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象。当采集到一幅图片,数据生成过程的第一批样本和数据域很可能具有相关性,如图中虚线连接所示。考虑多个数据域,多个对象会对应多个像素特征X,而所对应的Xc则对应目标在数据域内的相关特征,不同像素特征都有相同的对象,在人工标注中,目标以Xc为准被标注为类别Y。
针对红外目标检测问题,对应的结构因果模型如图2(b)所示。与因果特征Xc类似,将目标对象的跨域不变特征XA作为一个节点引入;跨域可以看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象(因此共享同一组Xc)。考虑模型的完备性,同时考虑了目标域下对象所对应的真实标签YTrue与数据域也存在一定的相关性,可以得出对象节点的关系是跨域不变特征提取的关键。
从图2(b)中可以看出,Xc是形成类别Y的节点。利用D分离法则可以得出,类别标签和数据域在Xc的条件下相互独立,即Y⊥D|XC。因此,目标是将标签Y学习为h(XC),其中h:C→Y。理想条件下最小损失函数f*可重写为:
考虑到Xc不能之间获取,这意味着需要引入一个特征表达函数同时,h(Φ(x))即为所要求的检测器/>
利用结构因果图中的条件独立性,可以实现Xc的求取。利用D分离法则,可以得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象,而D代表数据域。第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变。为了加强这一点,规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
然而,仅利用不变性条件不够,也需要表示包含对象目标O的信息,否则,即使是常数Φ也能够将上述损失最小化。因此,第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息。我们加入标准的分类损失,作为约束损失函数。
其中,
这里fpt代表了即h和Φ的结合。在本发明中,Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分。利用公式(3)所给出的约束损失函数,可以在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合。
图3表示本发明的泛化特征提取流程图。本发明结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强。非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换。该函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像。在每次迭代中,都会对函数进行重新赋值,从而生成各种变换结果。同时,对网络的输入和输出之间执行线性插值,用以对函数输出进行约束。
而伪相关干预增强则主要针对目标和背景之间的联系,尽力消除目标和背景之间的“虚假关联”。在利用仿真数据集进行模型训练过程中,仿真生成的目标和背景会存在某种特定关联,从而造成模型学习到这种联系。于是模型会这种联系作为目标域的线索进行预测,从而造成模型域适应之后的泛化性下降。因为真实的数据中可能不存在有利于仿真数据检测的背景混淆。
从模型的角度来看,背景混淆以两种方式影响目标检测:1)背景特征影响归一化层的全局特征统计,因为通常计算特征统计覆盖全部像素空间。2)大的感受野使得目标和临域背景同时进行感知和处理。
为了较低背景混淆对目标检测的影响,需要在训练过程中消除目标和某种背景之间产生的虚假相关性,同时保留真实背景和目标之间的真实相关性(如机场和飞机)。本发明采用伪相关干预增强算法以消除背景混淆对目标检测的影响。首先利用高斯函数随机生成一些控制点,然后对这些控制点插值,生成低频率的二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和。为了消除未知的虚假相关性,在每次迭代中对随机参数进行更换。这种利用随机控制点进行干预增强的方法有两点优势。
①.它可以实现图像灰度的空间变换,同时低频保证了图像不会发生严重的扭曲变形;
②.它通过在多个特征之间的插值进一步增加了特征多样性,降低了特征和背景之间的虚假相关。
利用生成的Φ(x)特征,对少样本红外数据集,按照特点方向增强特征泛化性,从而进一步提高模型在监督训练和无监督过程中的解译性能。
图4使用本发明提出的上下文融合特征干预细粒度目标辨识模型流程图。为提高光学红外特征目标辨识模型的精度和鲁棒性,必须考虑不同数据集不同目标和背景类别的分布差异。本发明从两个方面解决类别分布差异带来的目标辨识模型类别耦合问题。一方面研究如何根据类别占比差异,进行目标类别的对齐调优,确保得到的网络重构最优;另一方面研究如何利用图像、上下文和类标签之间的因果关系,消除不同类别中的混淆偏差,为后续的检测模型自学习提供更好的伪标签,使模型在不显著背景下目标检测性能得到进一步提升。本发明的类间去耦合方法是通过因果干预方法实现的。利用改进的结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型。同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度。
与标准的结构因果图不同,类间去耦合方法充分利用类间上下文信息,同时考虑不同数据集相同类别的上下文信息的迁移问题,通过因果推理方法去除混淆因子对分类的干扰。类间去耦合的方法步骤如图四所示。可以看到,类间去耦合方法主要包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤。利用图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标辨识模型在推理集中的准确性和鲁棒性。
图5和表1使用本发明提出的方法在无人机拍摄的数据集上进行了验证,结果表明提出的因果学习手段和上下文特征融合机制对红外微弱目标检测的提升是显著的。另外实验表明该方法可以很好的应用在空天无人平台上,对于完成监视与侦察任务有很大的提升。
表1红外微弱目标检测实验结果

Claims (1)

1.一种基于反事实因果学习的红外微弱目标检测方法,其特征在于,包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
其中,fpt代表了即h和Φ的结合;Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分;
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强;
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
CN202210605568.0A 2022-05-30 2022-05-30 一种基于反事实因果学习的红外微弱目标检测方法 Active CN114972869B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210605568.0A CN114972869B (zh) 2022-05-30 2022-05-30 一种基于反事实因果学习的红外微弱目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210605568.0A CN114972869B (zh) 2022-05-30 2022-05-30 一种基于反事实因果学习的红外微弱目标检测方法

Publications (2)

Publication Number Publication Date
CN114972869A CN114972869A (zh) 2022-08-30
CN114972869B true CN114972869B (zh) 2024-02-20

Family

ID=82957955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210605568.0A Active CN114972869B (zh) 2022-05-30 2022-05-30 一种基于反事实因果学习的红外微弱目标检测方法

Country Status (1)

Country Link
CN (1) CN114972869B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228623B (zh) * 2022-09-08 2024-05-03 上海贝特威自动化科技有限公司 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781671A (zh) * 2019-10-29 2020-02-11 西安科技大学 一种智能ietm故障维修记录文本的知识挖掘方法
WO2021244079A1 (zh) * 2020-06-02 2021-12-09 苏州科技大学 智能家居环境中图像目标检测方法
CN114170531A (zh) * 2021-11-23 2022-03-11 北京航天自动控制研究所 基于困难样本迁移学习的红外图像目标检测方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781671A (zh) * 2019-10-29 2020-02-11 西安科技大学 一种智能ietm故障维修记录文本的知识挖掘方法
WO2021244079A1 (zh) * 2020-06-02 2021-12-09 苏州科技大学 智能家居环境中图像目标检测方法
CN114170531A (zh) * 2021-11-23 2022-03-11 北京航天自动控制研究所 基于困难样本迁移学习的红外图像目标检测方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
重构迁移学习的红外目标分类;毛远宏;贺占庄;马钟;;电子科技大学学报;20200730(第04期);全文 *

Also Published As

Publication number Publication date
CN114972869A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN110956185B (zh) 一种图像显著目标的检测方法
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN110910391B (zh) 一种双模块神经网络结构视频对象分割方法
CN115690479A (zh) 一种基于卷积Transformer的遥感图像分类方法及系统
Zuo et al. HF-FCN: Hierarchically fused fully convolutional network for robust building extraction
CN115439442A (zh) 基于共性和差异的工业品表面缺陷检测与定位方法及系统
CN114972869B (zh) 一种基于反事实因果学习的红外微弱目标检测方法
Lei et al. Spectral mapping with adversarial learning for unsupervised hyperspectral change detection
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
Koziarski et al. Marine snow removal using a fully convolutional 3d neural network combined with an adaptive median filter
Lou et al. Generative knowledge transfer for ship detection in SAR images
CN114596480A (zh) 一种基于yolov5优化的海底生物目标检测方法和系统
Anilkumar et al. Research contribution and comprehensive review towards the semantic segmentation of aerial images using deep learning techniques
CN116935240A (zh) 多尺度感知金字塔的地表覆盖分类系统和方法
CN116630637A (zh) 基于多模态对比学习的光学-sar图像联合解译方法
CN115965968A (zh) 基于知识引导的小样本目标检测识别方法
Li et al. Deep Learning-based Model for Automatic Salt Rock Segmentation
Capece et al. Converting night-time images to day-time images through a deep learning approach
CN113313185B (zh) 一种基于自适应空谱特征提取的高光谱图像分类方法
Nam et al. A novel unsupervised domain adaption method for depth-guided semantic segmentation using coarse-to-fine alignment
Wang et al. Dunhuang mural line drawing based on multi-scale feature fusion and sharp edge learning
Lee et al. Boundary-aware camouflaged object detection via deformable point sampling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant