CN114821018B - 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 - Google Patents
一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 Download PDFInfo
- Publication number
- CN114821018B CN114821018B CN202210373551.7A CN202210373551A CN114821018B CN 114821018 B CN114821018 B CN 114821018B CN 202210373551 A CN202210373551 A CN 202210373551A CN 114821018 B CN114821018 B CN 114821018B
- Authority
- CN
- China
- Prior art keywords
- features
- convolution
- network
- pixel
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 60
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 27
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 25
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000000191 radiation effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,该方法步骤如下:步骤一:基于多方向特征搭建卷积神经网络;首先提取浅层特征并使用多方向性注意力进行目标特征增强;随后使用骨干网络对增强后的浅层特征进行四组特征提取;随后将提取的四组特征通过特征融合模块拼接降维后与浅层特征进行高低级特征融合;最后通过全卷积网络逐像素预测,得到全图像像素级别的概率预测图;步骤二:构造损失函数对网络进行训练;使用预测结果与像素级标签进行损失计算,以实现对网络参数的训练;输出:用训练好的神经网络处理红外图像;在使用训练数据对构造的多方向性特征卷积神经网络进行充分迭代训练之后,得到训练好的网络用于检测目标像素。
Description
技术领域
本发明涉及一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,属于数字图像处理和计算机视觉领域,主要涉及深度学习和目标检测技术,在各类基于图像的应用系统中有广阔的应用前景。
背景技术
红外弱小目标检测技术被广泛地应用于精确制导、反导弹技术、空间碎片搜索等众多领域。实际运用中,弱小目标检测算法的稳定性、准确性和实时性决定了红外预警系统的可靠性和实用性。由于各种物体的不同结构具有不同的辐射强度分布,同时受到温度、气候等因素影响,使得红外图像背景复杂,在检测中易发生误检。比如在空天背景下,卷云、带状云、絮团等会干扰对小目标的检测;在山地背景下,由于地面存在树木、建筑等,背景的辐射将变得更为复杂;在海天背景下,海面的波浪不断变化,使得红外辐射极不稳定;而海面光线的反射等也造成辐射效果的复杂变化,这些都会对检测造成干扰。因此,在复杂背景下快速准确检测弱小目标是一项具有挑战性和研究意义的任务。
一些早期的研究方法通过背景估计得到目标,通过滤波、形态学等方法得到背景,再通过原图与背景之差得到目标。基于最大-中值滤波和最大-均值滤波的方法(参见文献:迪什潘德孟等,用于小目标检测的最大-中值和最大-均值滤波器,国际光学工程学会光学科学、工程和仪器国际研讨会论文集,1999:74-83.(Deshpande S D,Meng H E,Venkateswarlu R,et al.Max-mean and max-median filters for detection of smalltargets[C]//SPIE's International Symposium on Optical Science,Engineering,andInstrumentation.International Society for Optics and Photonics,1999:74-83.))是一种经典的小目标检测方法,通过选择当前像素邻域下某些特定方向位置的中值或者均值来替代当前操作的像素,以此滤除小目标;但对于高斯白噪声较为敏感,容易造成虚警。一些基于形态学的经典小目标检测方法(参见文献:白相志等,新顶帽变换及其在红外弱小目标检测应用中的分析研究,模式识别,2010:43(6):2145-2156.(Bai X,Zhou F.Analysisof new top-hat transformation and the application for infrared dim smalltarget detection[J].Pattern Recognition,2010,43(6):2145-2156.))利用顶帽变换增强目标抑制背景。形态学运算简单快速,但在处理复杂场景时,容易受到强烈边缘等干扰从而虚警过高;同时形态学算子的尺寸也大多固定,不能自适应地根据场景调整。一些研究利用弱小目标灰度分布差异性突出的特点,通过设计测度增强目标、抑制背景,从而实现检测(参见文献:邓贺等,基于局部权重差异度量的红外小目标检测方法,美国电气电子工程师学会地理与遥感汇刊,2016,54(7):4204-4214.(Deng H,Sun X,Liu M,et al.SmallInfrared Target Detection Based on Weighted Local Difference Measure[J].IEEETransactions on Geoscience and Remote Sensing,2016,54(7):4204-4214.))。这类方法通常运行速度较快,但假设比较单一,在复杂环境下鲁棒性较弱。近年,根据弱小目标分布较少的稀疏特点,一些基于稀疏表示的检测方法被提出(参见文献:高陈强等,用在单幅图像中检测小目标的红外分块图像模型,美国电气电子工程师学会图像处理汇刊,2013,22(12):4996-5009.(Gao C,Meng D,Yang Y,et al.Infrared patch-image model forsmall target detection in a single image[J].IEEE Transactions on ImageProcessing,2013,22(12):4996-5009.)),但基于优化理论的模型相对复杂,造成计算量过大,实用性较差。
近年来,深度学习技术在红外弱小目标检测领域得到了发展。应用于该领域的神经网络方法主要是从一般物体的检测网络中发展而来,根据提取特征的次数主要分为一阶段检测算法和多阶段检测算法。一阶段检测算法在检测过程中只对目标提取一次特征,此类算法检测速率高,但精度相对低一点,主要有SSD,YOLO系列等。多阶段检测算法主要以R-CNN系列网络为代表,目前具有代表性的两阶段检测网络是Faster R-CNN(参见文献:任少卿等,更快的R-CNN:基于区域提案网络的实时目标检测,美国电气与电子工程师协会模式分析与机器智能学报,2017,1137-1149.(Ren S,He K,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEETransactions on Pattern Analysis&Machine Intelligence,2017,39(6):1137-1149.)),其主要思想是先寻找可能存在目标的区域,通过锚盒机制来得到筛选后的候选区域,然后通过参数共享,统一分类和回归,进而得到最终的检测结果。Liu等人提出一种基于相关滤波器的多层卷积网络,将检测问题视为二分类问题,级联多个弱分类器并得到相对准确的结果(刘强等,用于热红外物体跟踪的深度卷积神经网络,系统知识基础,2017,134:189-198.(Liu Q,Lu X,He Z,et al.Deep convolutional neural networks for thermalinfrared object tracking[J].Knowledge-Based Systems,2017,134:189-198.))。Deng等人考虑到成像系统本身存在的噪声,提出了一种由变换、局部卷积和全卷积三种结构组成的多尺度卷积神经网络,对于成像系统的噪声具有很强的鲁棒性(邓璐等,用于空间红外点物体判别的多尺度卷积神经网络,美国电气与电子工程师协会方法,2019,7:28113-28123.(Deng Q,Lu H,Tao H,et al.Multi-scale convolutional neural networks forspace infrared point objects discrimination[J].IEEE Access,2019,7:28113-28123.))。
深度学习方法在检测速度上存在优势,但当前该类型方法较少考虑弱小目标特性,在弱小目标检测任务上性能有限。本发明为了实现快速且有效的弱小目标检测,由弱小目标的尺度、灰度分布特性出发设计深度学习网络模型,提出了一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法。
发明内容
1、目的:针对复杂背景下弱小目标检测困难、虚警率高、实时性差的问题,本发明提出了一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,模型有效结合红外弱小目标的多方向性特征与尺度特征进行网络设计,在提高检测精度、降低虚警率以及运行时间上有明显改善。
2、技术方案:为实现上述目的,本发明的整体思路是根据弱小目标特征设计轻量化骨干网络与多方向特性注意力模块,搭建一个针对红外弱小目标的轻量级神经网络,保证检测速度的同时增强对目标特征提取的能力。本发明的算法技术思路主要体现在以下四方面:
1)针对本应用的目标尺寸接近于3×3的特性,设计轻量级骨干网络,提高对目标特征的提取效率;
2)根据弱小目标在多方向上有较大灰度差性的特性,设计多方向特性注意力模块,通过若干固定卷积核的结合使用提取同一感受野下的多方向性特征以实现目标增强,增强了模块的可解释性和对目标特征提取的能力;
3)设计特征融合模块,针对弱小目标特点,结合空间与通道注意力机制有效融合目标的低级特征和高级语义特征,实现精度更高的分割检测效果。
4)设计损失函数,缓解目标与背景数量分布极不平衡带来的训练困难。
本发明涉及一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,该方法具体步骤如下:
步骤一:基于多方向特征搭建卷积神经网络。首先提取浅层特征并使用多方向性注意力进行目标特征增强;随后使用骨干网络对增强后的浅层特征进行四组特征提取;随后将提取的四组特征通过特征融合模块拼接降维后与浅层特征进行高低级特征融合;最后通过全卷积网络逐像素预测,得到全图像像素级别的概率预测图。
步骤二:构造损失函数对网络进行训练。使用预测结果与像素级标签进行损失计算,以实现对网络参数的训练。
输出:用训练好的神经网络处理红外图像。在使用训练数据对构造的多方向性特征卷积神经网络进行充分迭代训练之后,得到训练好的网络用于检测目标像素。
其中,所述步骤一具体如下:
1.1:提取浅层特征并使用多方向性特性进行目标特征增强。网络主要使用卷积单元作为基本组件,每个卷积单元由1个卷积层、批量归一化层、LeakyReLu操作组合而成,卷积层中卷积核大小与步长等参数根据需要进行调整。首先,输入图像经过一个卷积核大小为3×3,步长为1的卷积单元,生成通道数为16的浅层特征F;随后浅层特征F通过由固定卷积核构建的多方向特性注意力,得到增强目标特征后的浅层特征Fe,见图2与图3所示。一幅红外弱小目标图像可被认为由三部分组成:目标、背景、噪声。I=B+T+N,其中I代表原图矩阵,B代表背景矩阵,T代表目标矩阵,N代表噪声等误差矩阵。为了能准确将背景和目标分离,本发明根据目标的多方向性特性构建模块,增强模型性能与可解释性。本发明认为目标在多个方向上与周围的背景有较大灰度差,而背景的多方向性不明显,如图2所示,其中c是目标可能出现的区域,s1~s8是背景区域。针对目标在多方向上存在较大的对比度的特性,本发明以网络实现了该多方向性测度,根据某像素点在多方向上存在的灰度差大小来衡量该点为目标的概率,通过注意力机制增强目标特征。在一个像素点周围5×5区域内的八个方向上,本发明首先并行使用8个固定卷积核分别计算该像素点与间隔一定距离的八个像素点的灰度差di,di=g(T)-g(Bi),其中g(T)和g(Bi)分别是目标点和周围某方向像素点的灰度值,卷积核大小取5×5,中心位置参数设为1,某方向位置参数设为-1,其余位置参数设为0(例如:卷积核);随后通过对8个特征图di与di+4之间两两执行逐点相乘得到4个特征图,再对4个特征图相加,计算多方向性测度即中心点像素同时与多个方向的像素存在一定的灰度差,由此得到基于多方向性的注意力信息;最后将注意力信息在原浅层特征F上执行空间注意力操作后再与原浅层特征F相加,得到目标特征增强后的浅层特征Fe。
1:2:构建骨干网络对增强后的低层特征进行特征提取。骨干网络主要由四个残差块单元构成,每个残差块单元由不同尺寸、数量的卷积单元与残差连接组成,以提取不同尺度的特征。增强后的浅层特征Fe首先经过一个卷积核大小为3×3,步长为2的卷积单元,生成通道数为32的特征图F0;接着并行通过4组残差块单元,生成通道数均为32的四组特征图F1、F2、F3、F4。其中,第一个残差块单元先使用1次卷积核大小为1×1,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F1。第二个残差块单元先使用1次卷积核大小为3×3,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为3×3,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F2。第三个残差块单元先使用1次卷积核大小为5×5,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F3。第四个残差块单元先使用1次卷积核大小为7×7,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F4。
1.3:特征融合模块。考虑在红外弱小目标检测任务中,反映边缘、纹理等细节信息的浅层特征与目标的边缘分割相关,包含更多语义信息的深层特征与目标的位置确定相关,本发明设计了针对弱小目标特征的特征融合模块对不同层特征区分处理。对浅层特征使用较少的处理,尽可能保留其中细节信息;而对于深层特征,进一步通过注意力机制提取其中定位信息,增强高级语义特征。
1.4:通过全卷积网络进行检测。将融合后的特征Fr利用全卷积网络(FCN)逐像素预测,输出全图像像素级别的概率预测图。
其中,所述步骤二具体如下:
2.1:损失函数由两部分构成:Focal损失与交并比(IOU)损失,L=LFL+LIOU。Focal损失是在交叉熵损失的基础上加入调制系数,降低易分类的负样本权重,使模型更专注于对正样本的检测。Focal损失LFL=-(1-pt)γlog(pt),其中调制系数γ=2,p为网络输出的该像素点预测概率,y为该像素点标签(y=1即该点是目标)。交并比是指产生的预测区域与真实目标区域的交叠率,即是指两者的交集和并集的比值。我们训练网络进行目标检测时,期望达到的理想情况是预测区域与真实区域能够完全重叠,即交并比等于1。因此,实际情况中,交并比的值总是在0~1之间,且值越大,则代表网络的检测效果越精确。由此,定义交并比损失/>其中area(predict)为本发明方法预测的目标区域,area(trut)为真实目标区域面积,∩为集合交运算,∪为集合并运算。给出以上损失函数定义后,先将步骤一得到的概率预测图与标注的真实结果图按Focal损失定义进行逐像素计算,得到Focal损失;再将步骤一得到的概率预测图通过sigmoid函数阈值分割,得到预测结果图;将预测结果图与标注的真实结果图进行逐像素点乘,得到预测目标区域与真实目标区域的重叠结果,即area(predict)∩area(trut);在此基础上,分别求和计算真实目标区域、预测目标区域、二者重叠区域的像素数,进而计算交并比损失。
2.2:本发明采用AdaGrad优化器进行优化,网络的初始学习率为0.005,权重衰减系数为10-4,训练中自适应更新学习率,通过梯度反向传播调整网络参数降低相应的损失函数。
3、优点及功效:
本发明提出一种利用多方向性特征搭建卷积神经网络的红外弱小目标检测方法,从弱小目标局部灰度差多方向性的特性出发,利用卷积操作的组合设计多方向性注意力模块以增强目标特征;并结合弱小目标的尺度特性设计骨干网络,实现更适于本任务的特征提取;通过特征融合模块,结合注意力机制融合高低级特征,更好地保留小目标相关特征。模型设计从红外弱小目标的特性出发,在可解释性和性能方面有较好表现,应用前景广泛。
附图说明
图1为本发明提出的利用多方向性特征构造卷积神经网络的红外弱小目标检测方法的原理框图。
图2为本发明中多方向性测度的示意图以及其在目标和背景像素上的不同结果。
图3为多方向性注意力模块的基本结构。
图4为特征融合模块的基本结构。
图5a-5h是展示了本发明在实际场景中的检测结果;其中,图5a、5b、5e、5f是原始红外图像,小目标由白色方框标记出,图5c、5d、5g、5h是本发明方法的检测结果。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图对本发明的实施方式作进一步描述。
本发明提出了一种利用多方向特征设计卷积神经网络的红外弱小目标检测方法,原理框图如图1所示,具体实施步骤如下:
步骤一:基于多方向特征搭建卷积神经网络,网络的基本结构如图1所示;
步骤二:构造损失函数对网络进行训练。
输出:用训练好的神经网络处理红外图像。在使用训练数据对构造的多方向性特征卷积神经网络进行充分迭代训练之后,得到训练好的网络用于检测目标像素。
其中,所述步骤一具体如下:
1.1:提取浅层特征并使用多方向性特性进行目标特征增强。网络主要使用卷积单元作为基本组件,每个卷积单元由1个卷积层、批量归一化层、LeakyReLu操作组合而成,卷积层中卷积核大小与步长等参数根据需要进行调整。首先,输入图像经过一个卷积核大小为3×3,步长为1的卷积单元,生成通道数为16的浅层特征F;随后浅层特征F通过由固定卷积核构建的多方向特性注意力增强目标特征,得到增强后的浅层特征Fe,具体见图2与图3所示。本发明认为目标在多个方向上与周围的背景有较大灰度差,而背景的多方向性不明显,如图2所示,其中c是目标可能出现的区域,s1~s8是背景区域。针对目标在多方向上存在较大的对比度的特性,本发明以网络实现了该多方向性测度,根据某像素点在多方向上存在的灰度差大小来衡量该点为目标的概率,通过注意力机制增强目标特征。在一个像素点周围5×5区域内的八个方向上,本发明首先并行使用8个固定卷积核分别计算该像素点与间隔一定距离的八个像素点的灰度差di,di=g(T)-g(Bi),其中g(T)和g(Bi)分别是目标点和周围某方向像素点的灰度值,卷积核大小取5×5,中心位置参数设为1,某方向位置参数设为-1,其余位置参数设为0(例如:卷积核);随后通过对8个特征图di与di+4之间两两执行逐点相乘得到4个特征图,再对4个特征图相加,计算多方向性测度即中心点像素同时与多个方向的像素存在一定的灰度差,由此得到基于多方向性的注意力信息;最后将注意力信息在原浅层特征上执行空间注意力操作后再与原浅层特征相加,得到目标特征增强后的浅层特征Fe。其中多方向性注意力模块的基本结构见图3。
1:2:构建骨干网络对增强后的浅层特征进行特征提取。骨干网络主要由四个残差块单元并联构成,每个残差块单元由不同参数的卷积单元与残差连接组成,以提取不同特征。增强后的浅层特征Fe首先经过一个卷积核大小为3×3,步长为2的卷积单元,生成通道数为32的特征图F0;接着并行通过4组残差块单元,生成通道数均为32的四组特征图F1、F2、F3、F4。其中,第一个残差块单元先使用1次卷积核大小为1×1,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F1。第二个残差块单元先使用1次卷积核大小为3×3,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为3×3,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F2。第三个残差块单元先使用1次卷积核大小为5×5,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F3。第四个残差块单元先使用1次卷积核大小为7×7,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与特征图F0进行残差连接得到特征图F4。特征提取过程的实现方式如图1所示。
1.3:特征融合模块。考虑在红外弱小目标检测任务中,反映边缘、纹理等细节信息的浅层特征与目标的边缘分割相关,包含更多语义信息的深层特征与目标的位置确定相关,本发明设计了针对弱小目标特征的特征融合模块对不同层特征区分处理,将提取的四组特征F1、F2、F3、F4通过特征融合模块拼接降维后与浅层特征F进行特征融合,得到融合特征Fr。对四组深层特征F1、F2、F3、F4在通道维度上进行拼接,通道数变为128;随后使用1次卷积核大小为3×3,步长为1的卷积单元,进行下采样,通道数恢复为32;接着先应用通道注意力机制,再应用空间注意力机制,进一步提取高级语义特征;最后对处理后的深层特征上采样并与经过1次卷积核大小为1×1,步长为1的卷积单元处理的浅层特征F逐点加和,得到融合特征Fr。特征融合模块的具体实现方式如图4所示。
1.4:通过全卷积网络进行检测。将融合后的特征Fr利用全卷积网络(FCN)逐像素预测,融合特征经过3×3卷积单元后通道数降至原始的四分之一,再经过1×1卷积单元降维通道数为1,输出全图像像素级别的概率预测图。
其中,所述步骤二具体如下:
2.1:损失函数由两部分构成:Focal损失与交并比(IOU)损失,L=LFL+LIOU。Focal损失是在交叉熵损失的基础上加入调制系数,降低易分类的负样本权重,使模型更专注于对正样本的检测。Focal损失LFL=-(1-pt)γlog(pt),其中调制系数γ=2,p为网络输出的该像素点预测概率,y为该像素点标签(y=1即该点是目标)。交并比是指产生的预测区域与真实目标区域的交叠率,即是指两者的交集和并集的比值。我们训练网络进行目标检测时,期望达到的理想情况是预测区域与真实区域能够完全重叠,即交并比等于1。因此,实际情况中,交并比的值总是在0~1之间,且值越大,则代表网络的检测效果越精确。由此,定义交并比损失/>其中area(predict)为本发明方法预测的目标区域,area(trut)为真实目标区域面积,∩为集合交运算,∪为集合并运算。给出以上损失函数定义后,先将步骤一得到的概率预测图与标注的真实结果图按Focal损失定义进行逐像素计算,得到Focal损失;再将步骤一得到的概率预测图通过sigmoid函数阈值分割,得到预测结果图;将预测结果图与标注的真实结果图进行逐像素点乘,得到预测目标区域与真实目标区域的重叠结果,即area(predict)∩area(trut);在此基础上,分别求和计算真实目标区域、预测目标区域、二者重叠区域的像素数,进而计算交并比损失。
2.2:本发明采用AdaGrad优化器进行优化,网络的初始学习率为0.005,权重衰减系数为10-4,训练中自适应更新学习率,通过梯度反向传播调整网络参数降低相应的损失函数。在该过程中,使用梯度下降法进行反向传播,通过求导链式法则,将损失函数对某一网络参数求偏导来进行参数更新:其中θi为反向传播前的网络参数,θ′i为反向传播更新后的网络参数,η为学习率,L为损失函数。
图5a-5h是本发明在实际红外场景中的应用,小目标的位置用白框标出,图5c、5d、5g、5h为相应的检测结果。用于实验的图像来自于不同的红外场景,其中的小目标大多数非常暗淡且尺寸小,且背景中存在云、植被等复杂干扰,但实验结果不仅有效排除噪声干扰并精准检测目标的位置与形状,而且在运算时间上具备优势,实现了快速准确检测的目标,这充分说明本发明的有效性,可广泛应用于各类红外弱小目标检测系统,具有广阔的市场前景与应用价值。
Claims (5)
1.一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,其特征在于,该方法步骤如下:
步骤一:基于多方向特征搭建卷积神经网络;首先提取浅层特征并使用多方向性注意力进行目标特征增强;随后使用骨干网络对增强后的浅层特征进行四组特征提取;随后将提取的四组特征通过特征融合模块拼接降维后与浅层特征进行高低级特征融合;最后通过全卷积网络逐像素预测,得到全图像像素级别的概率预测图;
步骤二:构造损失函数对网络进行训练;使用预测结果与像素级标签进行损失计算,以实现对网络参数的训练;
输出:用训练好的神经网络处理红外图像;在使用训练数据对构造的多方向性特征卷积神经网络进行充分迭代训练之后,得到训练好的网络用于检测目标像素;
所述步骤一具体如下:
S1.1:提取浅层特征并使用多方向性特性进行目标特征增强;网络使用卷积单元作为基本组件,每个卷积单元由1个卷积层、批量归一化层、LeakyReLu操作组合而成;输入图像经过一个卷积核大小为3×3,步长为1的卷积单元,生成通道数为16的浅层特征F;随后浅层特征通过由固定卷积核构建的多方向特性注意力增强目标浅层特征Fe;
在一个像素点周围5×5区域内的八个方向上,首先并行使用8个固定卷积核分别计算该像素点与间隔一定距离的八个像素点的灰度差di,di=g(T)-g(Bi),其中g(T)和g(Bi)分别是目标点和周围某方向像素点的灰度值,卷积核大小取5×5,中心位置参数设为1,某方向位置参数设为-1,其余位置参数设为0;其中卷积核随后通过对8个特征图di与di+4之间两两执行逐点相乘得到4个特征图,再对4个特征图相加,计算多方向性测度/>即中心点像素同时与多个方向的像素存在一定的灰度差,由此得到基于多方向性的注意力信息;最后将注意力信息在原浅层特征上执行空间注意力操作后再与原浅层特征相加,得到目标特征增强后的浅层特征Fe;
S1:2:构建骨干网络对增强后的低层特征进行特征提取;骨干网络由四个残差块单元构成,每个残差块单元由不同尺寸、数量的卷积单元与残差连接组成,以提取不同尺度的特征;
增强后的浅层特征Fe首先经过一个卷积核大小为3×3,步长为2的卷积单元,生成通道数为32的特征图F0;接着并行通过4组残差块单元,生成通道数均为32的四组特征图F1、F2、F3、F4;
第一个残差块单元先使用1次卷积核大小为1×1,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与F0进行残差连接得到特征图F1;第二个残差块单元先使用1次卷积核大小为3×3,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为3×3,步长为1的卷积单元,对特征上采样;随后与F0进行残差连接得到特征图F2;第三个残差块单元先使用1次卷积核大小为5×5,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与F0进行残差连接得到特征图F3;第四个残差块单元先使用1次卷积核大小为7×7,步长为1的卷积单元,对特征下采样;再使用1次卷积核大小为1×1,步长为1的卷积单元,对特征上采样;随后与F0进行残差连接得到特征图F4;
S1.3:特征融合模块;针对弱小目标特征的特征融合模块对不同层特征区分处理,将提取的四组特征F1、F2、F3、F4通过特征融合模块拼接降维后与浅层特征F进行特征融合,得到融合特征Fr;对四组深层特征F1、F2、F3、F4在通道维度上进行拼接,通道数变为128;随后使用1次卷积核大小为3×3,步长为1的卷积单元,进行下采样,通道数恢复为32;接着先应用通道注意力机制,再应用空间注意力机制,进一步提取高级语义特征;最后对处理后的深层特征上采样并与经过1次卷积核大小为1×1,步长为1的卷积单元处理的浅层特征F逐点加和,得到融合特征Fr;
S1.4:通过全卷积网络进行检测;将融合后的特征Fr利用全卷积网络FCN逐像素预测,输出全图像像素级别的概率预测图。
2.根据权利要求1所述的一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,其特征在于:在S1.4中,还包括:融合特征经过3×3卷积单元后通道数降至原始的四分之一,再经过1×1卷积单元降维通道数为1,输出全图像像素级别的概率预测图。
3.根据权利要求1所述的一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,其特征在于,所述步骤二具体如下:
S2.1:损失函数由两部分构成:Focal损失与交并比IOU损失,L=LFL+LIOU;Focal损失LFL=-(1-pt)γlog(pt),其中,调制系数γ=2,p为网络输出的像素点预测概率,y为该像素点标签,y=1即该像素点是目标;交并比是指产生的预测区域与真实目标区域的交叠率,即是指两者的交集和并集的比值;训练网络进行目标检测时,期望达到的理想情况是预测区域与真实区域能够完全重叠,即交并比等于1;实际情况中,交并比的值总是在0~1之间,且值越大,则代表网络的检测效果越精确;定义交并比损失其中area(predict)为预测的目标区域,area(trut)为真实目标区域面积,∩为集合交运算,∪为集合并运算;
S2.2:采用AdaGrad优化器进行优化,网络的初始学习率为0.005,权重衰减系数为10-4,训练中自适应更新学习率,通过梯度反向传播调整网络参数降低相应的损失函数。
4.根据权利要求3所述的一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,其特征在于:在S2.1中,还包括:给出以上损失函数定义后,先将步骤一得到的概率预测图与标注的真实结果图按Focal损失定义进行逐像素计算,得到Focal损失;再将步骤一得到的概率预测图通过sigmoid函数阈值分割,得到预测结果图;将预测结果图与标注的真实结果图进行逐像素点乘,得到预测目标区域与真实目标区域的重叠结果,即area(predict)∩area(trut);在此基础上,分别求和计算真实目标区域、预测目标区域、二者重叠区域的像素数,进而计算交并比损失。
5.根据权利要求3所述的一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法,其特征在于:在S2.2中,还包括:在该过程中,使用梯度下降法进行反向传播,通过求导链式法则,将损失函数对某一网络参数求偏导来进行参数更新:其中θi为反向传播前的网络参数,θi′为反向传播更新后的网络参数,η为学习率,L为损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210373551.7A CN114821018B (zh) | 2022-04-11 | 2022-04-11 | 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210373551.7A CN114821018B (zh) | 2022-04-11 | 2022-04-11 | 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821018A CN114821018A (zh) | 2022-07-29 |
CN114821018B true CN114821018B (zh) | 2024-05-31 |
Family
ID=82534312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210373551.7A Active CN114821018B (zh) | 2022-04-11 | 2022-04-11 | 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821018B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908199A (zh) * | 2022-12-28 | 2023-04-04 | 无锡学院 | 基于深度去噪器的压缩红外图像复原方法 |
CN116740015A (zh) * | 2023-06-12 | 2023-09-12 | 北京长木谷医疗科技股份有限公司 | 基于深度学习的医学图像智能检测方法、装置及电子设备 |
CN117274256B (zh) * | 2023-11-21 | 2024-02-06 | 首都医科大学附属北京安定医院 | 一种基于瞳孔变化的疼痛评估方法、系统及设备 |
CN117934820B (zh) * | 2024-03-22 | 2024-06-14 | 中国人民解放军海军航空大学 | 基于困难样本增强损失的红外目标识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
CN113591968A (zh) * | 2021-07-27 | 2021-11-02 | 中国人民解放军国防科技大学 | 一种基于非对称注意力特征融合的红外弱小目标检测方法 |
CN114092330A (zh) * | 2021-11-19 | 2022-02-25 | 长春理工大学 | 一种轻量化多尺度的红外图像超分辨率重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3776351A1 (en) * | 2018-04-10 | 2021-02-17 | Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi | Filter design for small target detection on infrared imagery using normalized-cross-correlation layer in neural networks |
-
2022
- 2022-04-11 CN CN202210373551.7A patent/CN114821018B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
CN113591968A (zh) * | 2021-07-27 | 2021-11-02 | 中国人民解放军国防科技大学 | 一种基于非对称注意力特征融合的红外弱小目标检测方法 |
CN114092330A (zh) * | 2021-11-19 | 2022-02-25 | 长春理工大学 | 一种轻量化多尺度的红外图像超分辨率重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114821018A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114863097B (zh) | 一种基于注意力机制卷积神经网络的红外弱小目标检测方法 | |
CN114821018B (zh) | 一种利用多方向性特征构造卷积神经网络的红外弱小目标检测方法 | |
Qu et al. | Dual-branch difference amplification graph convolutional network for hyperspectral image change detection | |
CN112347895A (zh) | 一种基于边界优化神经网络的舰船遥感目标检测方法 | |
CN115100741B (zh) | 一种点云行人距离风险检测方法、系统、设备和介质 | |
Venugopal | Sample selection based change detection with dilated network learning in remote sensing images | |
CN116486102A (zh) | 一种基于混合空间调制特征卷积神经网络的红外弱小目标检测方法 | |
Valappil et al. | CNN-SVM based vehicle detection for UAV platform | |
Zhang et al. | Nearshore vessel detection based on Scene-mask R-CNN in remote sensing image | |
Wang et al. | A deep deformable residual learning network for SAR image segmentation | |
Lee et al. | Infrared small target detection algorithm using an augmented intensity and density-based clustering | |
Yavariabdi et al. | UAV detection in airborne optic videos using dilated convolutions | |
Li et al. | LF-CNN: Deep Learning-Guided Small Sample Target Detection for Remote Sensing Classification. | |
Chirgaiya et al. | Tiny object detection model based on competitive multi-layer neural network (TOD-CMLNN) | |
Meng et al. | A modified fully convolutional network for crack damage identification compared with conventional methods | |
Roy et al. | AWDMC-Net: classification of adversarial weather degraded multiclass scenes using a convolution neural network | |
Hao et al. | Building height estimation via satellite metadata and shadow instance detection | |
Wu et al. | Research on asphalt pavement disease detection based on improved YOLOv5s | |
Albalooshi et al. | Deep belief active contours (DBAC) with its application to oil spill segmentation from remotely sensed sea surface imagery | |
Chadha et al. | Satellite imagery-based Airbus ship localization and detection using deep learning-based approaches | |
Zhang et al. | Grid-guided localization network based on the spatial attention mechanism for synthetic aperture radar ship detection | |
Bendre et al. | Natural disaster analytics using high resolution satellite images | |
Qiu et al. | ARODNet: adaptive rain image enhancement object detection network for autonomous driving in adverse weather conditions | |
Chaudhry | SD-YOLO-AWDNet: A hybrid approach for smart object detection in challenging weather for self-driving cars | |
Sara et al. | MC-CDPNet: multi-channel correlated detail preserving network for X-Ray-based baggage screening |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |