CN116363518A - 一种基于分焦平面偏振成像的伪装目标检测方法 - Google Patents
一种基于分焦平面偏振成像的伪装目标检测方法 Download PDFInfo
- Publication number
- CN116363518A CN116363518A CN202310367545.5A CN202310367545A CN116363518A CN 116363518 A CN116363518 A CN 116363518A CN 202310367545 A CN202310367545 A CN 202310367545A CN 116363518 A CN116363518 A CN 116363518A
- Authority
- CN
- China
- Prior art keywords
- feature
- camouflage
- image
- convolution
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010287 polarization Effects 0.000 title claims abstract description 74
- 238000001514 detection method Methods 0.000 title claims abstract description 72
- 238000003384 imaging method Methods 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 39
- 238000005070 sampling Methods 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 3
- 238000013499 data model Methods 0.000 abstract 1
- 230000001939 inductive effect Effects 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 68
- 230000000694 effects Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 208000037062 Polyps Diseases 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 244000062645 predators Species 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分焦平面偏振成像的伪装目标检测方法,包括:1、数据采集与处理,获得分焦平面图像用于后续操作;2、构建使用偏振图像为输入的深度卷积神经网络,以分焦平面图像作为输入,利用深度卷积神经网络提取并归纳伪装目标的特征分布,进而得到伪装目标检测模型;3、利用训练好的模型对待检测的伪装场景进行伪装目标检测。本发明在合理的数据模型条件下,通过引入场景偏振信息,从而能有效提高复杂多变环境下伪装目标检测的准确性。
Description
技术领域
本发明属于计算机视觉、图像处理和分析领域,具体来说是一种基于分焦平面偏振成像的伪装目标检测方法。
背景技术
伪装作为自然选择进化的一个重要例子,被野外的猎物广泛采用以减少被捕食者发现的可能性。伪装目标检测即对被伪装目标的整个范围进行分割的技术。在军事(如军事伪装图案设计)、农业(如害虫鉴定识别与防护)、医学(如息肉分割)和生态防护(如野生动物保护)等领域都有着广泛的应用。由于兼具科学价值和实际应用价值,伪装目标检测任务越来越受到研究者的重视。由于前景目标通常与其周围的物体具有非常相似的外观,用于目标检测的视觉线索如纹理、对比度、边缘、颜色和目标大小容易受到背景匹配与破坏性着色等基本伪装策略的攻击,相比一般的视觉任务,伪装目标检测任务更具有挑战性与研究性。
目前,伪装目标检测方法可简单分为传统的基于手工设计特征的方法以及基于学习的方法。传统的伪装目标检测方法主要面向军事场景应用,主要关注不同材料下的目标与环境光的光谱特性差异,再通过高光谱探测技术进行光谱分析,且传统基于手工设计特征的方法高度依赖视觉特征(如边缘、颜色、亮度、梯度、纹理等),泛化能力有限,当环境发生重大变化造成部分视觉特征的改变,则需要对视觉特征进行重新设计、重新标记与设计模型,故而传统伪装目标检测方法不能应用于过于复杂多变的环境。基于学习的伪装目标检测方法主要通过构建规模化、标准化的数据集,利用神经网络来你和数据集中的伪装目标所体现出来的特征,最后对输入进行预测。基于学习的方法主要关注利用深度神经网络提取高层语义特征,从复杂场景中区分出隐藏对象。目前基于深度学习的伪装目标检测方法在大部分场景下都能兼顾检测精度与检测效率,拓宽了伪装目标检测的应用场景,提高其泛化能力。
但目前基于学习的方法所针对的数据几乎都是传统的强度图像,只能利用场景中的外部特征信息。在目标与背景的外部特征差异较小的挑战性场景中,这些方法难以精确分割目标。而传统方法往往通过挖掘目标与环境的内在特征差异来凸显伪装区域,但检测效率和精度都有待提高。
发明内容
本发明为解决现有技术中的不足之处,提供了一种基于分焦平面偏振成像的的伪装目标检测方法,以期得到在复杂场景下有效检测出伪装目标的泛化模型,从而能提高在复杂多变环境下伪装目标检测的精度和准确性。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种基于分焦平面偏振成像的伪装目标检测方法的特点在于,是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像从而获得N个场景下的N组原始偏振图像;其中,/>表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn;
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、所述编码器用于对第n个场景的分焦平面图像DoFPn进行处理,并得到第n个场景的H个增强后特征;
步骤2.2、所述解码模块对H个增强后特征进行处理,并输出第n个场景的伪装预测图rn;
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
基于N个场景的分焦平面图像及其对应的真实伪装图,利用自适应运动量随机优化方法对所述偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为模型的损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新模型参数,直到模型的损失函数收敛为止,从而得到最优双输入网络使用偏振图像的伪装目标检测模型,用于实现对任意待预测的强度图像和偏振图像进行伪装目标检测。
本发明所述的一种基于分焦平面偏振成像的伪装目标检测方法的特点也在于,所述步骤2.1中的编码器,包括:偏振信息提取模块、Res2Net50骨干网络以及H个感受野模块,并按照如下步骤进行处理:
步骤2.1.1、所述偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
步骤2.1.2、所述Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
步骤2.1.3、构建H个感受野模块,所述感受野模块包括K个分支、一个标准卷积层和ReLU层;
将第h个感受野模块的K个分支输出的特征进行级联后通过一个标准卷积层的处理后,输出特征/>将第h个感受野模块的第2个分支输出的特征/>与/>相加后,再输入一个ReLU层中进行处理后,最终得到第h个感受野模块输出第n个场景的一个增强后的特征/>从而由H个感受野模块输出第n个场景的H个增强后特征,h=1,2,…,H。
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>同时第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>从而由第H个解码分支对第H个增强后的特征/>进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>同时第H个解码分支对第H个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
本发明一种电子设备,包括存储器以及处理器的特点在于,所述存储器用于存储支持处理器执行任一所述伪装目标检测方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
本发明一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序的特点在于,所述计算机程序被处理器运行时执行所述伪装目标检测方法的步骤。
与已有技术相比,本发明的有益效果在于:
1、本发明通过构建基于分焦平面偏振成像的伪装目标检测深度神经网络,使用标签数据监督深度神经网络进行学习,从而获得鲁棒的偏振伪装目标检测特征模型,解决了基于统计模型中使用色彩、深度、背景先验等线索进行模型设计,忽略了场景内在特征信息,且在外部差异较小的场景中检测精度不高的问题。
2、因不同材料、表面粗糙度以及结构对光的折射和反射特性存在相对差异,会导致光的偏振态发生变化,因而可以通过偏振态的变化来区分场景中的反射源。故偏振特性可以为场景理解提供更丰富的信息,为区分目标提供更多依据。本发明所构建的基于分焦平面偏振成像的伪装目标检测模型,通过引入场景中的内在偏振信息特性,利用这个特性,可以很好的分割伪装目标与背景。
3、本发明所构建的基于分焦平面偏振成像的深度神经网络,将DoFP图像作为网络输入,使用偏振信息提取模块对DoFP图像进行特征提取,充分利用了场景中的偏振信息以及强度信息;从而解决了大多数基于深度学习的伪装目标方法在目标与背景的外部特征差异较小的场景中难以精确分割出目标的问题。
4、本发明通过权重重组以及宏像素内权重共享的思想,解决了偏振信息提取模块的权重初始化问题,提高了偏振信息提取模块对于场景特征提取的针对性,从而有效提高了低对比度以及复杂场景下伪装目标检测的鲁棒性。
附图说明
图1为基于分焦平面偏振成像的伪装目标模型进行伪装目标检测的流程图;
图2为分焦平面偏振成像的偏振图像深度神经网络结构示意图;
图3为单个感受野模块的示意图;
图4为本设计方法和其他伪装目标检测方法在偏振数据集上的伪装目标预测结果图。
具体实施方式
本实施例中,一种基于分焦平面偏振成像的伪装目标检测方法,旨在定位于背景高度相似的“不可分辨目标”通过引入偏振信息来扩大伪装目标检测任务中物体与其周围环境之间的差异,并构建了一个基于CNN的深度神经网络用于处理偏振图像。通过构建基于分焦平面偏振成像的伪装目标检测模型,从而能充分利用目标与背景的内在特征差异,更好完成伪装目标检测任务,具体的说,如图1所示,该方法是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像从而获得N个场景下的N组原始偏振图像;其中,/>表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
本实施例中,利用LucidTriton分焦平面偏振相机拍摄偏振伪装目标检测数据集,该数据集共包含N=639个场景,每张图像的原始分辨率为1224×1024。
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
本实施例中,通过Labelme软件进行标注,标注图像是对偏振图像中每个像素点赋予类别标签V,V∈(0,1),分别表示该像素点的色彩为:black、white;其中black表示该像素点的背景,white则表示的是目标。并对偏振伪装目标检测数据集划分训练和测试,其中训练集包含511个场景,测试集包含128个场景。
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn;
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
本实施例中,为了平衡模型的训练效率与精度,将0°,45°,90°,135°四幅原始偏振图像的尺寸下采样到352×352,再合成为一张704×704的DoFP图像,并以此作为网络输入。
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、构建编码器是由偏振信息提取模块、Res2Net50骨干网络以及感受野模块构成。
步骤2.1.1、偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
本实施例中,设置批处理的样本数量为25,每个样本的通道为3,高度与宽度均为704,即每一批次训练输入为25张尺寸704×704的分焦平面图,相当于25组尺寸为352×352的原始偏振图。最终每一批次训练输入至偏振信息提取模块的DoFP图像尺寸为25×3×708×708,由偏振信息提取模块输出的特征尺寸为25×64×88×88。
偏振信息提取模块由一个6×6卷积层、两个3×3卷积层依次组成,在每一层卷积后都有对应的BN层和ReLU激活层来加速收敛以及增加网络的非线性程度。同时将Res2Net首层的预训练权重拷贝四份并拓展到6×6大小,以相同的权重参数对不同偏振方向的信息进行处理。
步骤2.1.2、Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
本实施例中,H=4,残差卷积块分别记为Rblock1,…,Rblockh,...,Rblock4;其中,Rblockh表示第h级残差卷积块,h=1,2,....,4,图2中的Layer1、Layer、Layer3、Layer4分别对应4个残差卷积模块Rblock1,Rblock2,Rblock3,Rblock4。
第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成,其中,第x层的卷积层的卷积核大小为kx;x=1,2,...,X;
本实施例中,X=3,kx分别等于1,3,1;h=1时,Rblock1包含9个Dconv2d1、h=2时,Rblock2包含12个Dconv2d2、h=3时,Rblock3包含18个Dconv2d3、h=4时,Rblock4包含9个Dconv2d4.、
本实施例中,第2级多层二维卷积层的输出特征的宽度、高度、通道数为44,44,512;第3级多层二维卷积层的输出特征/>的宽度、高度、通道数为22,22,1024;第4级多层二维卷积层的输出特征/>的宽度、高度、通道数为11,11,2048。
步骤2.1.3、构建H个感受野模块,感受野模块包括K个分支、一个标准卷积层和ReLU层;
将第h个感受野模块的K个分支输出的特征进行级联后通过一个标准卷积层的处理后,输出特征/>将第h个感受野模块的第2个分支输出的特征/>与相加后,再输入一个ReLU层中进行处理后,最终得到第h个感受野模块输出第n个场景的一个增强后的特征/>从而由H个感受野模块输出第n个场景的H个增强后特征,h=1,2,…,H。
如图3所示,当k=1,2时第h级图像特征图输入第h个感受野模块中第k个分支的一个尺寸为1×1标准2D卷积(一个2D卷积层和一个BN层组成)进行处理。分别记第h个感受野模块的第1个分支与第2个分支的输出特征为/>和/>
当k=3,4,5时,第h级图像特征图输入第h个感受野模块中第k个分支的若干个标准卷积层进行处理,得到第h个感受野模块的第k个分支输出的特征/>第k个分支由一个卷积核尺寸为(2k-1)×(2k-1)的标准卷积层和一个膨胀率为(2k-1)的3×3标准卷积层组成。并且,利用1×(2k-1)卷积层和(2k-1)×1卷积层的组合代替(2k-1)×(2k-1)卷积层,降低计算开销。分别记输出特征为/>
将进行级联后通过一个尺寸为3×3的标准卷积层,输出特征/>将第h个感受野模块的第2个分支的输出/>与/>进行相加后,再输入一个ReLU层进行处理后,最终第h个感受野模块输出第n个场景的一个增强后的特征/>h=1,2,…,4;
第1个感受野模块的输入为由偏振信息提取模块输出的特征与由骨干网络第一层输出的特征/>经2倍下采样后,二者级联得到,最终输出尺寸为88×88×32的增强特征/>第2个感受野模块的输入为骨干网络第二层的输出特征/> 最终输出尺寸为44×44×32的增强特征/>第3个感受野模块的输入为骨干网络第三层的输出特征/>最终输出尺寸为22×22×32的增强特征/> 第4个感受野模块的输入为骨干网络第四层的输出特征/>最终输出尺寸为11×11×32的增强特征/>
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>同时第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>从而由第H个解码分支对第H个增强后的特征/>进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>同时第H个解码分支对第H个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
当h=4时,第h个解码分支对第h个增强后的特征进行4倍上采样操作后再进行3×3卷积操作,得到第h个特征/>同时第h个解码分支对第h个增强后的特征/>进行2倍的上采样操作后再进行3×3卷积操作,得到第h个特征/>且第h个解码分支对第h个增强后的特征/>进行2倍的上采样操作后再进行3×3卷积操作,得到第h个特征/>
为提高预测效果,将由解码器模块得到预测结果rn输入一个优化模块。优化模块共9个操作块blockl,l=1,2,…,9。每个块对输入所实现的操作基本一致,区别仅在于每个操作块输出前的最后一步操作,分别为最大池化下采样、上采样以及卷积操作。由优化模块输出细化后的最终预测结果outputn。
记输入为x,先将x做一次3×3卷积操作,记此时的输出为hx;当l=1,2,…,5时,以hx作为输入,进入由一个3×3卷积层、一个BN层、一个ReLU层依次组成的操作块,得到输出特征hxl,同时每进入一次操作块,对hx进行一次更新,即l=1,…4时,对hxl做一次最大池化下采样处理;l=5时,对hxl做一次2倍上采样处理。且上一个块的输出将作为下一个块的输入。
l=6时,将hx5、hx4进行级联作为block6的输入,输出结果后进行2倍上采样操作,此时输出特征记为d4;l=7时,将d4、hx3进行级联作为block7的输入,输出结果后进行2倍上采样操作,此时输出特征记为d3;l=8时,将d3、hx2进行级联作为block8的输入,输出结果后进行2倍上采样操作,此时输出特征记为d2;l=9时,将d2、hx1进行级联作为block9的输入,此时输出特征记为d1;最后,将d1输入一个3×3卷积模块恢复初始输入为x时的通道数,并与初始输入x相加,得到细化后的最终预测结果outputn。细化后的最终预测结果outputn尺寸为352×352×1。
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
步骤3.1、N个场景的DoFP图像及其对应的真实伪装图,利用自适应运动量随机优化方法对偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新网络参数,直到损失函数收敛为止,从而得到最优基于分焦平面偏振成像的伪装目标检测模型;
步骤3.2、以最优基于分焦平面成像的偏振图像伪装目标检测模型对任意待预测的强度图像和偏振度图像进行伪装目标检测。
本实施例中,使用偏振伪装目标检测数据集的128个测试场景的DoFP图像作为输入,经过基于分焦平面偏振成像的伪装目标监测模型模型计算得到预测的伪装目标图,然后与对应场景的真实伪装目标图进行比较,计算检测精度。
本实施例中,一种电子设备,包括存储器以及处理器,该存储器用于存储支持处理器执行上述方法的程序,该处理器被配置为用于执行该存储器中存储的程序。
本实施例中,一种计算机可读存储介质,是在计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法的步骤。
表1为本发明基于分焦平面偏振成像的的伪装目标检测方法分别以“S-measure”、“E-measure”、“MAE”、“F-measure”为评价指标,并利用偏振伪装目标检测数据集的测试集,与当前其他伪装目标检测方法的比较结果,“S-measure”可以用来反应结构特性,可用于评估预测结果与真实伪装目标的结构相似性,其值越接近1表明伪装目标检测效果越好。“E-measure”通过像素级匹配与图像级统计相结合的方式来评估二值化分割任务中预测结果的整体和局部精度与质量,其值越接近于1表明伪装目标检测的效果越好。“F-measure”是基于查准率和查全率的加权调和平均值,其值越接近于1,表明伪装目标检测的效果越好。“MAE”是显著性目标检测中广泛使用的评价指标,用于二值化预测结果与真值图的逐像素差异,其值越接近于0,表明伪装目标检测的效果越好。根据表1的定量分析,可以看到,本设计中提出的方法在各评价指标上都取得了较好的效果。
表1
Methods | S-measure | E-measure | F-measure | MAE |
BASNet | 0.830 | 0.868 | 0.722 | 0.020 |
PraNet | 0.855 | 0.908 | 0.756 | 0.019 |
LSR | 0.863 | 0.910 | 0.793 | 0.014 |
SINet-V1 | 0.789 | 0.811 | 0.042 | 0.646 |
PFNet | 0.849 | 0.910 | 0.769 | 0.017 |
C2FNet | 0.860 | 0.913 | 0.774 | 0.018 |
SINet-V2 | 0.865 | 0.925 | 0.784 | 0.015 |
Ours | 0.864 | 0.928 | 0.793 | 0.014 |
图4为本设计的基于分焦平面偏振成像的伪装目标检测方法与当前其他伪装目标检测方法的结果。其中,Ours表示本发明的基于双输入网络的偏振图像伪装目标检测方法;BASNet表示按顺序来堆叠两个U形网络,以预测-细化的方式生成显著性图,还提出了一种混合训练损失来监督训练过程;SINet-V1表示基于模仿猎人的行为过程,设计并利用搜索模块和识别模块来定位和识别伪装对象;LSR表示构建了伪装目标预测过程中的多任务学习框架,并引入了分类等辅助任务,提出了一种同时定位、分割和排序伪装对象的模型,其中Rank模块可以对伪装目标检测的难易程度进行排序;RraNet表示提出了一个并行反向注意网络,首先使用并行区域解码器对高层级网络特征进行聚合,基于聚合特征生成一个全局map,并作为后续组件的初始指导区域,此外使用了反向注意力模块挖掘边界线索;PFNet表示基于上下文特征学习,提出了一种新的分心挖掘策略,并开发了一个精确伪装目标检测的框架,该框架通过探索长期相关性来定位潜在目标,并通过分心发现和移除来细化分割效果;C2Net表示也是基于上下文特征,设计了一个双分支全局上下文模块(DGCM),以挖掘丰富的上下文信息,此外,还引入了注意力诱导的跨层融合模块(ACFM)来聚合多级特征;SINet-V2表示其检测机制类似于SINet-V1,也是分为搜索和识别两个步骤,同时,为了更好的实现层间信息融合,防止信息丢失或特征冗余,采用了反向制导方法获得最终的伪装预测图。
Claims (5)
1.一种基于分焦平面偏振成像的伪装目标检测方法,其特征在于,是按照如下步骤进行:
步骤1、数据采集和处理;
步骤1.1、利用偏振相机拍摄第n个场景下相对偏振角度θ分别为0°,45°,90°,135°的一组原始偏振图像从而获得N个场景下的N组原始偏振图像;其中,/>表示第n个场景下相对偏振角度θ下的原始偏振图像,n∈[1,N];
步骤1.2、对N组原始偏振图像,取每组原始偏振图像中对偏振角度为0°的原始偏振图像进行标注,得到像素级标注图像,并作为真实伪装图;
步骤1.3、采用分焦平面偏振相机传感器的微偏振阵列分布方式对第n个场景的一组原始偏振图像进行重新组合,得到第n个场景的分焦平面图像DoFPn;
以第n个场景的分焦平面图像DoFPn及其对应的真实伪装图构成一组偏振图像数据;
步骤2、构建基于分焦平面偏振成像的伪装目标检测深度卷积神经网络,包含:编码模块、解码模块;
步骤2.1、所述编码器用于对第n个场景的分焦平面图像DoFPn进行处理,并得到第n个场景的H个增强后特征;
步骤2.2、所述解码模块对H个增强后特征进行处理,并输出第n个场景的伪装预测图rn;
步骤3、训练基于分焦平面偏振成像的伪装目标检测模型;
基于N个场景的分焦平面图像及其对应的真实伪装图,利用自适应运动量随机优化方法对所述偏振图像伪装目标检测模型进行训练,并使用加权二元交叉熵损失以及加权IoU损失共同作为模型的损失函数,用于计算伪装预测图和真实伪装图之间的损失,以更新模型参数,直到模型的损失函数收敛为止,从而得到最优双输入网络使用偏振图像的伪装目标检测模型,用于实现对任意待预测的强度图像和偏振图像进行伪装目标检测。
2.根据权利要求1所述的一种基于分焦平面偏振成像的伪装目标检测方法,其特征在于,所述步骤2.1中的编码器,包括:偏振信息提取模块、Res2Net50骨干网络以及H个感受野模块,并按照如下步骤进行处理:
步骤2.1.1、所述偏振信息提取模块包括:若干个卷积层,且每个卷积层之后均连接有BN层和ReLU激活层;
步骤2.1.2、所述Res2Net骨干网络是由H级残差卷积块构成,其中,第h级残差卷积块由第h级的X层二维卷积层Dconv2dh串联而成;
其中,第h级的第x层二维卷积层Dconv2dh,x依次包括:一个卷积层,一个BN层以及一个ReLU激活函数层组成;
步骤2.1.3、构建H个感受野模块,所述感受野模块包括K个分支、一个标准卷积层和ReLU层;
当h=4,5,…,H时,第h个解码分支对第h个增强后的特征进行2a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>同时第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第h个特征/>从而由第H个解码分支对第H个增强后的特征/>进行2a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>同时第H个解码分支对第H个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>且第h个解码分支对第h个增强后的特征/>进行a倍的上采样操作后再进行标准卷积操作,得到第H个特征/>
4.一种电子设备,包括存储器以及处理器,其特征在于,所述存储器用于存储支持处理器执行权利要求1-3中任一所述伪装目标检测方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
5.一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行权利要求1-3中所述伪装目标检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310367545.5A CN116363518A (zh) | 2023-04-07 | 2023-04-07 | 一种基于分焦平面偏振成像的伪装目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310367545.5A CN116363518A (zh) | 2023-04-07 | 2023-04-07 | 一种基于分焦平面偏振成像的伪装目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116363518A true CN116363518A (zh) | 2023-06-30 |
Family
ID=86907207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310367545.5A Pending CN116363518A (zh) | 2023-04-07 | 2023-04-07 | 一种基于分焦平面偏振成像的伪装目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363518A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036613A (zh) * | 2023-08-18 | 2023-11-10 | 武汉大学 | 一种基于多重感受野交融网络的偏振三维重建方法和系统 |
-
2023
- 2023-04-07 CN CN202310367545.5A patent/CN116363518A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036613A (zh) * | 2023-08-18 | 2023-11-10 | 武汉大学 | 一种基于多重感受野交融网络的偏振三维重建方法和系统 |
CN117036613B (zh) * | 2023-08-18 | 2024-04-02 | 武汉大学 | 一种基于多重感受野交融网络的偏振三维重建方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mou et al. | Relation matters: Relational context-aware fully convolutional network for semantic segmentation of high-resolution aerial images | |
CN110738207B (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
Jiang et al. | Self-supervised relative depth learning for urban scene understanding | |
CN109829391B (zh) | 基于级联卷积网络和对抗学习的显著性目标检测方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN115331087B (zh) | 融合区域语义与像素特征的遥感影像变化检测方法及系统 | |
Tian et al. | Multiscale building extraction with refined attention pyramid networks | |
CN111027576B (zh) | 基于协同显著性生成式对抗网络的协同显著性检测方法 | |
CN113516012A (zh) | 一种基于多层级特征融合的行人重识别方法及系统 | |
CN112862774B (zh) | 一种遥感影像建筑物精确分割方法 | |
Erdem et al. | Comparison of different U-net models for building extraction from high-resolution aerial imagery | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
Cai et al. | Arbitrarily shaped scene text detection with dynamic convolution | |
CN115439442A (zh) | 基于共性和差异的工业品表面缺陷检测与定位方法及系统 | |
CN116612283A (zh) | 一种基于大卷积核骨干网络的图像语义分割方法 | |
CN116363518A (zh) | 一种基于分焦平面偏振成像的伪装目标检测方法 | |
Tsai et al. | MobileNet-JDE: a lightweight multi-object tracking model for embedded systems | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
Shankar et al. | Comparing YOLOV3, YOLOV5 & YOLOV7 Architectures for Underwater Marine Creatures Detection | |
CN113361466A (zh) | 一种基于多模态交叉指导学习的多光谱目标检测方法 | |
Pan et al. | Vehicle re-identification approach combining multiple attention mechanisms and style transfer | |
Di et al. | FDNet: An end-to-end fusion decomposition network for infrared and visible images | |
CN114972975B (zh) | 一种基于双输入网络的偏振图像伪装目标检测方法 | |
Liang et al. | Cross-layer triple-branch parallel fusion network for small object detection in uav images | |
Liu et al. | Text detection based on bidirectional feature fusion and sa attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |