CN116363518A - 一种基于分焦平面偏振成像的伪装目标检测方法 - Google Patents

一种基于分焦平面偏振成像的伪装目标检测方法 Download PDF

Info

Publication number
CN116363518A
CN116363518A CN202310367545.5A CN202310367545A CN116363518A CN 116363518 A CN116363518 A CN 116363518A CN 202310367545 A CN202310367545 A CN 202310367545A CN 116363518 A CN116363518 A CN 116363518A
Authority
CN
China
Prior art keywords
feature
camouflage
image
convolution
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310367545.5A
Other languages
English (en)
Inventor
王昕�
许俊峰
张钊
高隽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202310367545.5A priority Critical patent/CN116363518A/zh
Publication of CN116363518A publication Critical patent/CN116363518A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于分焦平面偏振成像的伪装目标检测方法,包括:1、数据采集与处理,获得分焦平面图像用于后续操作;2、构建使用偏振图像为输入的深度卷积神经网络,以分焦平面图像作为输入,利用深度卷积神经网络提取并归纳伪装目标的特征分布,进而得到伪装目标检测模型;3、利用训练好的模型对待检测的伪装场景进行伪装目标检测。本发明在合理的数据模型条件下,通过引入场景偏振信息,从而能有效提高复杂多变环境下伪装目标检测的准确性。

Description

一种基于分焦平面偏振成像的伪装目标检测方法
技术领域
本发明属于计算机视觉、图像处理和分析领域,具体来说是一种基于分焦平面偏振成像的伪装目标检测方法。
背景技术
伪装作为自然选择进化的一个重要例子,被野外的猎物广泛采用以减少被捕食者发现的可能性。伪装目标检测即对被伪装目标的整个范围进行分割的技术。在军事(如军事伪装图案设计)、农业(如害虫鉴定识别与防护)、医学(如息肉分割)和生态防护(如野生动物保护)等领域都有着广泛的应用。由于兼具科学价值和实际应用价值,伪装目标检测任务越来越受到研究者的重视。由于前景目标通常与其周围的物体具有非常相似的外观,用于目标检测的视觉线索如纹理、对比度、边缘、颜色和目标大小容易受到背景匹配与破坏性着色等基本伪装策略的攻击,相比一般的视觉任务,伪装目标检测任务更具有挑战性与研究性。
目前,伪装目标检测方法可简单分为传统的基于手工设计特征的方法以及基于学习的方法。传统的伪装目标检测方法主要面向军事场景应用,主要关注不同材料下的目标与环境光的光谱特性差异,再通过高光谱探测技术进行光谱分析,且传统基于手工设计特征的方法高度依赖视觉特征(如边缘、颜色、亮度、梯度、纹理等),泛化能力有限,当环境发生重大变化造成部分视觉特征的改变,则需要对视觉特征进行重新设计、重新标记与设计模型,故而传统伪装目标检测方法不能应用于过于复杂多变的环境。基于学习的伪装目标检测方法主要通过构建规模化、标准化的数据集,利用神经网络来你和数据集中的伪装目标所体现出来的特征,最后对输入进行预测。基于学习的方法主要关注利用深度神经网络提取高层语义特征,从复杂场景中区分出隐藏对象。目前基于深度学习的伪装目标检测方法在大部分场景下都能兼顾检测精度与检测效率,拓宽了伪装目标检测的应用场景,提高其泛化能力。
但目前基于学习的方法所针对的数据几乎都是传统的强度图像,只能利用场景中的外部特征信息。在目标与背景的外部特征差异较小的挑战性场景中,这些方法难以精确分割目标。而传统方法往往通过挖掘目标与环境的内在特征差异来凸显伪装区域,但检测效率和精度都有待提高。
发明内容
本发明为解决现有技术中的不足之处,提供了一种基于分焦平面偏振成像的的伪装目标检测方法,以期得到在复杂场景下有效检测出伪装目标的泛化模型,从而能提高在复杂多变环境下伪装目标检测的精度和准确性。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种基于分焦平面偏振成像的伪装目标检测方法的特点在于,是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像
Figure BDA0004167355880000021
从而获得N个场景下的N组原始偏振图像;其中,/>
Figure BDA0004167355880000022
表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、所述编码器用于对第n个场景的分焦平面图像DoFPn进行处理,并得到第n个场景的H个增强后特征;
步骤2.2、所述解码模块对H个增强后特征进行处理,并输出第n个场景的伪装预测图rn
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
基于N个场景的分焦平面图像及其对应的真实伪装图,利用自适应运动量随机优化方法对所述偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为模型的损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新模型参数,直到模型的损失函数收敛为止,从而得到最优双输入网络使用偏振图像的伪装目标检测模型,用于实现对任意待预测的强度图像和偏振图像进行伪装目标检测。
本发明所述的一种基于分焦平面偏振成像的伪装目标检测方法的特点也在于,所述步骤2.1中的编码器,包括:偏振信息提取模块、Res2Net50骨干网络以及H个感受野模块,并按照如下步骤进行处理:
步骤2.1.1、所述偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
第n个场景的分焦平面图像DoFPn经过所述偏振信息提取模块的处理后,得到第n个场景的浅层特征图
Figure BDA0004167355880000023
xh,yh,ch分别表示浅层特征图的高度、宽度和通道数;
步骤2.1.2、所述Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
当h=1时,将
Figure BDA0004167355880000031
输入第h级残差卷积模块的X层卷积层Dconv2dh中进行处理,输出第f级图像特征图/>
Figure BDA0004167355880000032
当f=2,3,…,H时,将第f-1级图像特征图
Figure BDA0004167355880000033
输入第h级残差卷积模块中进行处理,并得到第f级图像特征图/>
Figure BDA0004167355880000034
从而由第H级残差卷积模块输出第H级图像特征图/>
Figure BDA0004167355880000035
步骤2.1.3、构建H个感受野模块,所述感受野模块包括K个分支、一个标准卷积层和ReLU层;
将H级残差卷积块输出的H级图像特征图
Figure BDA0004167355880000036
分别作为H个感受野模块的输入;
当k≤2时,第h级图像特征图
Figure BDA0004167355880000037
输入第h个感受野模块中第k个分支的一个标准2D卷积进行处理,得到第h个感受野模块的第k个分支输出的特征/>
Figure BDA0004167355880000038
当k>2时,第h级图像特征图
Figure BDA0004167355880000039
输入第h个感受野模块中第k个分支的若干个标准卷积层进行处理,得到第h个感受野模块的第h个分支输出的特征/>
Figure BDA00041673558800000332
将第h个感受野模块的K个分支输出的特征
Figure BDA00041673558800000310
进行级联后通过一个标准卷积层的处理后,输出特征/>
Figure BDA00041673558800000311
将第h个感受野模块的第2个分支输出的特征/>
Figure BDA00041673558800000312
与/>
Figure BDA00041673558800000331
相加后,再输入一个ReLU层中进行处理后,最终得到第h个感受野模块输出第n个场景的一个增强后的特征/>
Figure BDA00041673558800000313
从而由H个感受野模块输出第n个场景的H个增强后特征,h=1,2,…,H。
所述步骤2.2中的解码模块包括:H个解码分支;将H个增强后的特征
Figure BDA00041673558800000314
输入至所述解码模块,并按照如下过程进行处理:
当h=1,2时,第h个解码分支直接将第h个增强后的特征
Figure BDA00041673558800000315
输出,记为第h个特征
Figure BDA00041673558800000316
当h=3时,第h个解码分支直接将h个增强后的特征
Figure BDA00041673558800000317
输出,记为第h个特征/>
Figure BDA00041673558800000318
同时第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000319
进行上采处理后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000320
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征
Figure BDA00041673558800000321
进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000322
同时第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000323
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000324
且第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000325
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000326
从而由第H个解码分支对第H个增强后的特征/>
Figure BDA00041673558800000333
进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA00041673558800000327
同时第H个解码分支对第H个增强后的特征/>
Figure BDA00041673558800000328
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA00041673558800000329
且第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000330
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA0004167355880000041
对特征
Figure BDA0004167355880000042
进行相乘后,得到新的特征/>
Figure BDA0004167355880000043
对特征
Figure BDA0004167355880000044
进行相乘操作后,得到新的特征/>
Figure BDA0004167355880000045
将特征
Figure BDA0004167355880000046
和/>
Figure BDA0004167355880000047
特征级联先进行标准卷积操作后,再依次进行a倍的上采样和标准卷积操作,得到级联特征/>
Figure BDA0004167355880000048
将特征
Figure BDA0004167355880000049
与/>
Figure BDA00041673558800000410
及特征/>
Figure BDA00041673558800000411
进行级联操作后再进行若干次卷积操作后,得到解码器模块输出第n个场景的伪装预测图/>
Figure BDA00041673558800000412
本发明一种电子设备,包括存储器以及处理器的特点在于,所述存储器用于存储支持处理器执行任一所述伪装目标检测方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
本发明一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序的特点在于,所述计算机程序被处理器运行时执行所述伪装目标检测方法的步骤。
与已有技术相比,本发明的有益效果在于:
1、本发明通过构建基于分焦平面偏振成像的伪装目标检测深度神经网络,使用标签数据监督深度神经网络进行学习,从而获得鲁棒的偏振伪装目标检测特征模型,解决了基于统计模型中使用色彩、深度、背景先验等线索进行模型设计,忽略了场景内在特征信息,且在外部差异较小的场景中检测精度不高的问题。
2、因不同材料、表面粗糙度以及结构对光的折射和反射特性存在相对差异,会导致光的偏振态发生变化,因而可以通过偏振态的变化来区分场景中的反射源。故偏振特性可以为场景理解提供更丰富的信息,为区分目标提供更多依据。本发明所构建的基于分焦平面偏振成像的伪装目标检测模型,通过引入场景中的内在偏振信息特性,利用这个特性,可以很好的分割伪装目标与背景。
3、本发明所构建的基于分焦平面偏振成像的深度神经网络,将DoFP图像作为网络输入,使用偏振信息提取模块对DoFP图像进行特征提取,充分利用了场景中的偏振信息以及强度信息;从而解决了大多数基于深度学习的伪装目标方法在目标与背景的外部特征差异较小的场景中难以精确分割出目标的问题。
4、本发明通过权重重组以及宏像素内权重共享的思想,解决了偏振信息提取模块的权重初始化问题,提高了偏振信息提取模块对于场景特征提取的针对性,从而有效提高了低对比度以及复杂场景下伪装目标检测的鲁棒性。
附图说明
图1为基于分焦平面偏振成像的伪装目标模型进行伪装目标检测的流程图;
图2为分焦平面偏振成像的偏振图像深度神经网络结构示意图;
图3为单个感受野模块的示意图;
图4为本设计方法和其他伪装目标检测方法在偏振数据集上的伪装目标预测结果图。
具体实施方式
本实施例中,一种基于分焦平面偏振成像的伪装目标检测方法,旨在定位于背景高度相似的“不可分辨目标”通过引入偏振信息来扩大伪装目标检测任务中物体与其周围环境之间的差异,并构建了一个基于CNN的深度神经网络用于处理偏振图像。通过构建基于分焦平面偏振成像的伪装目标检测模型,从而能充分利用目标与背景的内在特征差异,更好完成伪装目标检测任务,具体的说,如图1所示,该方法是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像
Figure BDA0004167355880000051
从而获得N个场景下的N组原始偏振图像;其中,/>
Figure BDA0004167355880000052
表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
本实施例中,利用LucidTriton分焦平面偏振相机拍摄偏振伪装目标检测数据集,该数据集共包含N=639个场景,每张图像的原始分辨率为1224×1024。
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
本实施例中,通过Labelme软件进行标注,标注图像是对偏振图像中每个像素点赋予类别标签V,V∈(0,1),分别表示该像素点的色彩为:black、white;其中black表示该像素点的背景,white则表示的是目标。并对偏振伪装目标检测数据集划分训练和测试,其中训练集包含511个场景,测试集包含128个场景。
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
本实施例中,为了平衡模型的训练效率与精度,将0°,45°,90°,135°四幅原始偏振图像的尺寸下采样到352×352,再合成为一张704×704的DoFP图像,并以此作为网络输入。
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、构建编码器是由偏振信息提取模块、Res2Net50骨干网络以及感受野模块构成。
步骤2.1.1、偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
第n个场景的分焦平面图像DoFPn经过偏振信息提取模块的处理后,得到第n个场景的浅层特征图
Figure BDA0004167355880000061
xh,yh,ch分别表示浅层特征图的高度、宽度和通道数。
本实施例中,设置批处理的样本数量为25,每个样本的通道为3,高度与宽度均为704,即每一批次训练输入为25张尺寸704×704的分焦平面图,相当于25组尺寸为352×352的原始偏振图。最终每一批次训练输入至偏振信息提取模块的DoFP图像尺寸为25×3×708×708,由偏振信息提取模块输出的特征尺寸为25×64×88×88。
偏振信息提取模块由一个6×6卷积层、两个3×3卷积层依次组成,在每一层卷积后都有对应的BN层和ReLU激活层来加速收敛以及增加网络的非线性程度。同时将Res2Net首层的预训练权重拷贝四份并拓展到6×6大小,以相同的权重参数对不同偏振方向的信息进行处理。
步骤2.1.2、Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
本实施例中,H=4,残差卷积块分别记为Rblock1,…,Rblockh,...,Rblock4;其中,Rblockh表示第h级残差卷积块,h=1,2,....,4,图2中的Layer1、Layer、Layer3、Layer4分别对应4个残差卷积模块Rblock1,Rblock2,Rblock3,Rblock4
第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成,其中,第x层的卷积层的卷积核大小为kx;x=1,2,...,X;
本实施例中,X=3,kx分别等于1,3,1;h=1时,Rblock1包含9个Dconv2d1、h=2时,Rblock2包含12个Dconv2d2、h=3时,Rblock3包含18个Dconv2d3、h=4时,Rblock4包含9个Dconv2d4.、
当h=1时,将
Figure BDA0004167355880000062
输入第h级残差卷积模块的X层卷积层Dconv2dh中进行处理,输出第h级图像特征图/>
Figure BDA0004167355880000063
本实施例中,第1级图像特征图
Figure BDA0004167355880000064
的宽度、高度、通道数为88,88,256。
当h=2,3,…,H时,将第h-1级图像特征图
Figure BDA0004167355880000065
输入第h级残差卷积模块中进行处理,并得到第h级图像特征图/>
Figure BDA0004167355880000066
从而由第H级残差卷积模块输出第H级图像特征图/>
Figure BDA0004167355880000067
本实施例中,第2级多层二维卷积层的输出特征
Figure BDA0004167355880000068
的宽度、高度、通道数为44,44,512;第3级多层二维卷积层的输出特征/>
Figure BDA0004167355880000069
的宽度、高度、通道数为22,22,1024;第4级多层二维卷积层的输出特征/>
Figure BDA00041673558800000610
的宽度、高度、通道数为11,11,2048。
步骤2.1.3、构建H个感受野模块,感受野模块包括K个分支、一个标准卷积层和ReLU层;
将H级残差卷积块输出的H级图像特征图
Figure BDA0004167355880000071
分别作为H个感受野模块的输入;
当k≤2时,第h级图像特征图
Figure BDA0004167355880000072
输入第h个感受野模块中第k个分支的一个标准2D卷积进行处理,得到第h个感受野模块的第k个分支输出的特征/>
Figure BDA0004167355880000073
当k>2时,第h级图像特征图
Figure BDA0004167355880000074
输入第h个感受野模块中第k个分支的若干个标准卷积层进行处理,得到第h个感受野模块的第k个分支输出的特征/>
Figure BDA0004167355880000075
将第h个感受野模块的K个分支输出的特征
Figure BDA0004167355880000076
进行级联后通过一个标准卷积层的处理后,输出特征/>
Figure BDA0004167355880000077
将第h个感受野模块的第2个分支输出的特征/>
Figure BDA0004167355880000078
Figure BDA0004167355880000079
相加后,再输入一个ReLU层中进行处理后,最终得到第h个感受野模块输出第n个场景的一个增强后的特征/>
Figure BDA00041673558800000710
从而由H个感受野模块输出第n个场景的H个增强后特征,h=1,2,…,H。
本实例中,K=5。第h个感受野模块的输入为第h级图像特征图
Figure BDA00041673558800000711
如图3所示,当k=1,2时第h级图像特征图
Figure BDA00041673558800000712
输入第h个感受野模块中第k个分支的一个尺寸为1×1标准2D卷积(一个2D卷积层和一个BN层组成)进行处理。分别记第h个感受野模块的第1个分支与第2个分支的输出特征为/>
Figure BDA00041673558800000713
和/>
Figure BDA00041673558800000714
当k=3,4,5时,第h级图像特征图
Figure BDA00041673558800000715
输入第h个感受野模块中第k个分支的若干个标准卷积层进行处理,得到第h个感受野模块的第k个分支输出的特征/>
Figure BDA00041673558800000716
第k个分支由一个卷积核尺寸为(2k-1)×(2k-1)的标准卷积层和一个膨胀率为(2k-1)的3×3标准卷积层组成。并且,利用1×(2k-1)卷积层和(2k-1)×1卷积层的组合代替(2k-1)×(2k-1)卷积层,降低计算开销。分别记输出特征为/>
Figure BDA00041673558800000717
Figure BDA00041673558800000718
进行级联后通过一个尺寸为3×3的标准卷积层,输出特征/>
Figure BDA00041673558800000719
将第h个感受野模块的第2个分支的输出/>
Figure BDA00041673558800000720
与/>
Figure BDA00041673558800000721
进行相加后,再输入一个ReLU层进行处理后,最终第h个感受野模块输出第n个场景的一个增强后的特征/>
Figure BDA00041673558800000722
h=1,2,…,4;
第1个感受野模块的输入为由偏振信息提取模块输出的特征
Figure BDA00041673558800000723
与由骨干网络第一层输出的特征/>
Figure BDA00041673558800000724
经2倍下采样后,二者级联得到,最终输出尺寸为88×88×32的增强特征/>
Figure BDA00041673558800000725
第2个感受野模块的输入为骨干网络第二层的输出特征/>
Figure BDA00041673558800000726
Figure BDA00041673558800000727
最终输出尺寸为44×44×32的增强特征/>
Figure BDA00041673558800000728
第3个感受野模块的输入为骨干网络第三层的输出特征/>
Figure BDA00041673558800000729
最终输出尺寸为22×22×32的增强特征/>
Figure BDA00041673558800000730
Figure BDA00041673558800000731
第4个感受野模块的输入为骨干网络第四层的输出特征/>
Figure BDA00041673558800000732
最终输出尺寸为11×11×32的增强特征/>
Figure BDA00041673558800000733
步骤2.2、构建解码模块包括H个解码分支;将H个增强后的特征
Figure BDA0004167355880000081
输入至解码模块中;
当h=1,2时,第h个解码分支直接将第h个增强后的特征
Figure BDA0004167355880000082
输出,记为第h个特征
Figure BDA0004167355880000083
当h=3时,第h个解码分支直接将h个增强后的特征
Figure BDA0004167355880000084
输出,记为第h个特征/>
Figure BDA0004167355880000085
同时第h个解码分支对第h个增强后的特征/>
Figure BDA0004167355880000086
进行上采处理后再进行标准卷积操作,得到第h个特征/>
Figure BDA0004167355880000087
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征
Figure BDA0004167355880000088
进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA0004167355880000089
同时第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000810
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000811
且第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000812
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure BDA00041673558800000813
从而由第H个解码分支对第H个增强后的特征/>
Figure BDA00041673558800000814
进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA00041673558800000815
同时第H个解码分支对第H个增强后的特征/>
Figure BDA00041673558800000816
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA00041673558800000817
且第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000818
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure BDA00041673558800000819
对特征
Figure BDA00041673558800000820
进行相乘后,得到新的特征/>
Figure BDA00041673558800000821
对特征
Figure BDA00041673558800000822
进行相乘操作后,得到新的特征/>
Figure BDA00041673558800000823
将特征
Figure BDA00041673558800000824
和/>
Figure BDA00041673558800000825
特征级联先进行标准卷积操作后,再依次进行a倍的上采样和标准卷积操作,得到级联特征/>
Figure BDA00041673558800000826
将特征
Figure BDA00041673558800000827
与/>
Figure BDA00041673558800000828
及特征/>
Figure BDA00041673558800000829
进行级联操作后再进行若干次卷积操作后,得到解码器模块输出第n个场景的伪装预测图/>
Figure BDA00041673558800000830
本实施例中,当h=1,2时,第h个解码分支直接将第h个增强后的特征
Figure BDA00041673558800000846
输出,记为第h个特征/>
Figure BDA00041673558800000831
当h=3时,第h个解码分支直接将h个增强后的特征
Figure BDA00041673558800000832
输出,记为第h个特征/>
Figure BDA00041673558800000833
同时第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000834
进行2倍上采处理后再进行3×3卷积操作,得到第h个特征/>
Figure BDA00041673558800000835
当h=4时,第h个解码分支对第h个增强后的特征
Figure BDA00041673558800000836
进行4倍上采样操作后再进行3×3卷积操作,得到第h个特征/>
Figure BDA00041673558800000837
同时第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000838
进行2倍的上采样操作后再进行3×3卷积操作,得到第h个特征/>
Figure BDA00041673558800000839
且第h个解码分支对第h个增强后的特征/>
Figure BDA00041673558800000840
进行2倍的上采样操作后再进行3×3卷积操作,得到第h个特征/>
Figure BDA00041673558800000841
对特征
Figure BDA00041673558800000842
进行特征相乘,得到新的特征记为/>
Figure BDA00041673558800000843
对特征
Figure BDA00041673558800000844
进行特征相乘,得到新的特征记为/>
Figure BDA00041673558800000845
将特征
Figure BDA0004167355880000091
和特征/>
Figure BDA0004167355880000092
级联先进行3×3卷积操作后,再依次进行2倍的上采样和3×3卷积操作,得到级联特征/>
Figure BDA0004167355880000093
将特征
Figure BDA0004167355880000094
与/>
Figure BDA0004167355880000095
及特征/>
Figure BDA0004167355880000096
进行级联操作后进行两次3×3标准卷积操作后再进行一次1×1卷积操作,得到解码器模块输出第n个场景的伪装预测图/>
Figure BDA0004167355880000097
为提高预测效果,将由解码器模块得到预测结果rn输入一个优化模块。优化模块共9个操作块blockl,l=1,2,…,9。每个块对输入所实现的操作基本一致,区别仅在于每个操作块输出前的最后一步操作,分别为最大池化下采样、上采样以及卷积操作。由优化模块输出细化后的最终预测结果outputn
记输入为x,先将x做一次3×3卷积操作,记此时的输出为hx;当l=1,2,…,5时,以hx作为输入,进入由一个3×3卷积层、一个BN层、一个ReLU层依次组成的操作块,得到输出特征hxl,同时每进入一次操作块,对hx进行一次更新,即l=1,…4时,对hxl做一次最大池化下采样处理;l=5时,对hxl做一次2倍上采样处理。且上一个块的输出将作为下一个块的输入。
l=6时,将hx5、hx4进行级联作为block6的输入,输出结果后进行2倍上采样操作,此时输出特征记为d4;l=7时,将d4、hx3进行级联作为block7的输入,输出结果后进行2倍上采样操作,此时输出特征记为d3;l=8时,将d3、hx2进行级联作为block8的输入,输出结果后进行2倍上采样操作,此时输出特征记为d2;l=9时,将d2、hx1进行级联作为block9的输入,此时输出特征记为d1;最后,将d1输入一个3×3卷积模块恢复初始输入为x时的通道数,并与初始输入x相加,得到细化后的最终预测结果outputn。细化后的最终预测结果outputn尺寸为352×352×1。
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
步骤3.1、N个场景的DoFP图像及其对应的真实伪装图,利用自适应运动量随机优化方法对偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新网络参数,直到损失函数收敛为止,从而得到最优基于分焦平面偏振成像的伪装目标检测模型;
步骤3.2、以最优基于分焦平面成像的偏振图像伪装目标检测模型对任意待预测的强度图像和偏振度图像进行伪装目标检测。
本实施例中,使用偏振伪装目标检测数据集的128个测试场景的DoFP图像作为输入,经过基于分焦平面偏振成像的伪装目标监测模型模型计算得到预测的伪装目标图,然后与对应场景的真实伪装目标图进行比较,计算检测精度。
本实施例中,一种电子设备,包括存储器以及处理器,该存储器用于存储支持处理器执行上述方法的程序,该处理器被配置为用于执行该存储器中存储的程序。
本实施例中,一种计算机可读存储介质,是在计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法的步骤。
表1为本发明基于分焦平面偏振成像的的伪装目标检测方法分别以“S-measure”、“E-measure”、“MAE”、“F-measure”为评价指标,并利用偏振伪装目标检测数据集的测试集,与当前其他伪装目标检测方法的比较结果,“S-measure”可以用来反应结构特性,可用于评估预测结果与真实伪装目标的结构相似性,其值越接近1表明伪装目标检测效果越好。“E-measure”通过像素级匹配与图像级统计相结合的方式来评估二值化分割任务中预测结果的整体和局部精度与质量,其值越接近于1表明伪装目标检测的效果越好。“F-measure”是基于查准率和查全率的加权调和平均值,其值越接近于1,表明伪装目标检测的效果越好。“MAE”是显著性目标检测中广泛使用的评价指标,用于二值化预测结果与真值图的逐像素差异,其值越接近于0,表明伪装目标检测的效果越好。根据表1的定量分析,可以看到,本设计中提出的方法在各评价指标上都取得了较好的效果。
表1
Methods S-measure E-measure F-measure MAE
BASNet 0.830 0.868 0.722 0.020
PraNet 0.855 0.908 0.756 0.019
LSR 0.863 0.910 0.793 0.014
SINet-V1 0.789 0.811 0.042 0.646
PFNet 0.849 0.910 0.769 0.017
C2FNet 0.860 0.913 0.774 0.018
SINet-V2 0.865 0.925 0.784 0.015
Ours 0.864 0.928 0.793 0.014
图4为本设计的基于分焦平面偏振成像的伪装目标检测方法与当前其他伪装目标检测方法的结果。其中,Ours表示本发明的基于双输入网络的偏振图像伪装目标检测方法;BASNet表示按顺序来堆叠两个U形网络,以预测-细化的方式生成显著性图,还提出了一种混合训练损失来监督训练过程;SINet-V1表示基于模仿猎人的行为过程,设计并利用搜索模块和识别模块来定位和识别伪装对象;LSR表示构建了伪装目标预测过程中的多任务学习框架,并引入了分类等辅助任务,提出了一种同时定位、分割和排序伪装对象的模型,其中Rank模块可以对伪装目标检测的难易程度进行排序;RraNet表示提出了一个并行反向注意网络,首先使用并行区域解码器对高层级网络特征进行聚合,基于聚合特征生成一个全局map,并作为后续组件的初始指导区域,此外使用了反向注意力模块挖掘边界线索;PFNet表示基于上下文特征学习,提出了一种新的分心挖掘策略,并开发了一个精确伪装目标检测的框架,该框架通过探索长期相关性来定位潜在目标,并通过分心发现和移除来细化分割效果;C2Net表示也是基于上下文特征,设计了一个双分支全局上下文模块(DGCM),以挖掘丰富的上下文信息,此外,还引入了注意力诱导的跨层融合模块(ACFM)来聚合多级特征;SINet-V2表示其检测机制类似于SINet-V1,也是分为搜索和识别两个步骤,同时,为了更好的实现层间信息融合,防止信息丢失或特征冗余,采用了反向制导方法获得最终的伪装预测图。

Claims (5)

1.一种基于分焦平面偏振成像的伪装目标检测方法,其特征在于,是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像
Figure FDA0004167355870000011
从而获得N个场景下的N组原始偏振图像;其中,/>
Figure FDA0004167355870000013
表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、所述编码器用于对第n个场景的分焦平面图像DoFPn进行处理,并得到第n个场景的H个增强后特征;
步骤2.2、所述解码模块对H个增强后特征进行处理,并输出第n个场景的伪装预测图rn
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
基于N个场景的分焦平面图像及其对应的真实伪装图,利用自适应运动量随机优化方法对所述偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为模型的损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新模型参数,直到模型的损失函数收敛为止,从而得到最优双输入网络使用偏振图像的伪装目标检测模型,用于实现对任意待预测的强度图像和偏振图像进行伪装目标检测。
2.根据权利要求1所述的一种基于分焦平面偏振成像的伪装目标检测方法,其特征在于,所述步骤2.1中的编码器,包括:偏振信息提取模块、Res2Net50骨干网络以及H个感受野模块,并按照如下步骤进行处理:
步骤2.1.1、所述偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
第n个场景的分焦平面图像DoFPn经过所述偏振信息提取模块的处理后,得到第n个场景的浅层特征图
Figure FDA0004167355870000012
xh,yh,ch分别表示浅层特征图的高度、宽度和通道数;
步骤2.1.2、所述Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
当h=1时,将
Figure FDA0004167355870000021
输入第h级残差卷积模块的X层卷积层Dconv2dh中进行处理,输出第f级图像特征图/>
Figure FDA0004167355870000022
当f=2,3,…,H时,将第f-1级图像特征图
Figure FDA0004167355870000023
输入第h级残差卷积模块中进行处理,并得到第f级图像特征图/>
Figure FDA0004167355870000024
从而由第H级残差卷积模块输出第H级图像特征图/>
Figure FDA00041673558700000227
步骤2.1.3、构建H个感受野模块,所述感受野模块包括K个分支、一个标准卷积层和ReLU层;
将H级残差卷积块输出的H级图像特征图
Figure FDA0004167355870000025
分别作为H个感受野模块的输入;
当k≤2时,第h级图像特征图
Figure FDA0004167355870000026
输入第h个感受野模块中第k个分支的一个标准2D卷积进行处理,得到第h个感受野模块的第k个分支输出的特征/>
Figure FDA0004167355870000027
当k>2时,第h级图像特征图
Figure FDA00041673558700000228
输入第h个感受野模块中第k个分支的若干个标准卷积层进行处理,得到第h个感受野模块的第h个分支输出的特征/>
Figure FDA0004167355870000028
将第h个感受野模块的K个分支输出的特征
Figure FDA0004167355870000029
进行级联后通过一个标准卷积层的处理后,输出特征/>
Figure FDA00041673558700000229
将第h个感受野模块的第2个分支输出的特征/>
Figure FDA00041673558700000210
与/>
Figure FDA00041673558700000211
相加后,再输入一个ReLU层中进行处理后,最终得到第h个感受野模块输出第n个场景的一个增强后的特征/>
Figure FDA00041673558700000212
从而由H个感受野模块输出第n个场景的H个增强后特征,h=1,2,…,H。
3.根据权利要求2所述的一种基于分焦平面偏振成像的伪装目标检测方法,其特征在于,所述步骤2.2中的解码模块包括:H个解码分支;将H个增强后的特征
Figure FDA00041673558700000213
输入至所述解码模块,并按照如下过程进行处理:
当h=1,2时,第h个解码分支直接将第h个增强后的特征
Figure FDA00041673558700000214
输出,记为第h个特征/>
Figure FDA00041673558700000215
当h=3时,第h个解码分支直接将h个增强后的特征
Figure FDA00041673558700000216
输出,记为第h个特征/>
Figure FDA00041673558700000217
同时第h个解码分支对第h个增强后的特征/>
Figure FDA00041673558700000218
进行上采处理后再进行标准卷积操作,得到第h个特征
Figure FDA00041673558700000219
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征
Figure FDA00041673558700000220
进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure FDA00041673558700000221
同时第h个解码分支对第h个增强后的特征/>
Figure FDA00041673558700000222
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure FDA00041673558700000223
且第h个解码分支对第h个增强后的特征/>
Figure FDA00041673558700000224
进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>
Figure FDA00041673558700000225
从而由第H个解码分支对第H个增强后的特征/>
Figure FDA00041673558700000226
进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure FDA0004167355870000031
同时第H个解码分支对第H个增强后的特征/>
Figure FDA0004167355870000032
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure FDA0004167355870000033
且第h个解码分支对第h个增强后的特征/>
Figure FDA0004167355870000034
进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
Figure FDA0004167355870000035
对特征
Figure FDA0004167355870000036
进行相乘后,得到新的特征/>
Figure FDA0004167355870000037
对特征
Figure FDA0004167355870000038
进行相乘操作后,得到新的特征/>
Figure FDA0004167355870000039
将特征
Figure FDA00041673558700000310
和/>
Figure FDA00041673558700000311
特征级联先进行标准卷积操作后,再依次进行a倍的上采样和标准卷积操作,得到级联特征/>
Figure FDA00041673558700000312
将特征
Figure FDA00041673558700000313
与/>
Figure FDA00041673558700000314
及特征/>
Figure FDA00041673558700000315
进行级联操作后再进行若干次卷积操作后,得到解码器模块输出第n个场景的伪装预测图/>
Figure FDA00041673558700000316
4.一种电子设备,包括存储器以及处理器,其特征在于,所述存储器用于存储支持处理器执行权利要求1-3中任一所述伪装目标检测方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
5.一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行权利要求1-3中所述伪装目标检测方法的步骤。
CN202310367545.5A 2023-04-07 2023-04-07 一种基于分焦平面偏振成像的伪装目标检测方法 Pending CN116363518A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310367545.5A CN116363518A (zh) 2023-04-07 2023-04-07 一种基于分焦平面偏振成像的伪装目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310367545.5A CN116363518A (zh) 2023-04-07 2023-04-07 一种基于分焦平面偏振成像的伪装目标检测方法

Publications (1)

Publication Number Publication Date
CN116363518A true CN116363518A (zh) 2023-06-30

Family

ID=86907207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310367545.5A Pending CN116363518A (zh) 2023-04-07 2023-04-07 一种基于分焦平面偏振成像的伪装目标检测方法

Country Status (1)

Country Link
CN (1) CN116363518A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036613A (zh) * 2023-08-18 2023-11-10 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036613A (zh) * 2023-08-18 2023-11-10 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统
CN117036613B (zh) * 2023-08-18 2024-04-02 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统

Similar Documents

Publication Publication Date Title
Mou et al. Relation matters: Relational context-aware fully convolutional network for semantic segmentation of high-resolution aerial images
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
Jiang et al. Self-supervised relative depth learning for urban scene understanding
CN109829391B (zh) 基于级联卷积网络和对抗学习的显著性目标检测方法
CN108537824B (zh) 基于交替反卷积与卷积的特征图增强的网络结构优化方法
CN115331087B (zh) 融合区域语义与像素特征的遥感影像变化检测方法及系统
Tian et al. Multiscale building extraction with refined attention pyramid networks
CN111027576B (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
CN113516012A (zh) 一种基于多层级特征融合的行人重识别方法及系统
CN112862774B (zh) 一种遥感影像建筑物精确分割方法
Erdem et al. Comparison of different U-net models for building extraction from high-resolution aerial imagery
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
Cai et al. Arbitrarily shaped scene text detection with dynamic convolution
CN115439442A (zh) 基于共性和差异的工业品表面缺陷检测与定位方法及系统
CN116612283A (zh) 一种基于大卷积核骨干网络的图像语义分割方法
CN116363518A (zh) 一种基于分焦平面偏振成像的伪装目标检测方法
Tsai et al. MobileNet-JDE: a lightweight multi-object tracking model for embedded systems
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法
Shankar et al. Comparing YOLOV3, YOLOV5 & YOLOV7 Architectures for Underwater Marine Creatures Detection
CN113361466A (zh) 一种基于多模态交叉指导学习的多光谱目标检测方法
Pan et al. Vehicle re-identification approach combining multiple attention mechanisms and style transfer
Di et al. FDNet: An end-to-end fusion decomposition network for infrared and visible images
CN114972975B (zh) 一种基于双输入网络的偏振图像伪装目标检测方法
Liang et al. Cross-layer triple-branch parallel fusion network for small object detection in uav images
Liu et al. Text detection based on bidirectional feature fusion and sa attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination