CN117036875B - 一种基于融合注意力gan的红外弱小移动目标生成算法 - Google Patents
一种基于融合注意力gan的红外弱小移动目标生成算法 Download PDFInfo
- Publication number
- CN117036875B CN117036875B CN202310844801.5A CN202310844801A CN117036875B CN 117036875 B CN117036875 B CN 117036875B CN 202310844801 A CN202310844801 A CN 202310844801A CN 117036875 B CN117036875 B CN 117036875B
- Authority
- CN
- China
- Prior art keywords
- attention
- image
- infrared
- loss
- gan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 37
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000010586 diagram Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000011176 pooling Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 10
- 238000007906 compression Methods 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000006835 compression Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000036039 immunity Effects 0.000 claims 1
- 239000013589 supplement Substances 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 10
- 241000282414 Homo sapiens Species 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于融合注意力GAN的红外弱小移动目标生成算法,针对可见光与红外源图像,在两个生成器和两个判别器中均构建融合多尺度注意机制,生成融合注意力图,并与输入图像融合。利用准备好的可见光、红外弱小移动目标数据集训练网络模型,生成红外弱小移动目标数据。相较于现有技术,本发明能够有效提取可见光图像中弱小目标特征信息,保留红外图像中存在的丰富背景细节,信息丰富,且图像质量高,可作为对红外弱小移动目标数据集的补充。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种红外弱小移动目标生成算法。
背景技术
环境的多样化以及可见光条件的限制,加之高于热力学零度的物体都会向外辐射红外线,其中红外线穿透云雾的能力比较强,受光照强度的影响很小,在白天和夜晚都可以实现很好的目标检测效果,使得红外成像成为目标检测的主要手段之一。红外弱小移动目标的检测跟踪,在海面舰船搜索定位、应急救援、海面实时自动侦察和态势评估等方面具有广阔的应用前景。随着信息技术的日益发展,计算机视觉逐渐代替人类对目标进行识别、检测,解决人工成本和精确度问题。基于深度学习与红外弱小目标检测算法的结合已经成为重要的研究方向。基于卫星平台和高空无人机的红外成像系统,由于成像距离较远,目标往往表现出“弱”“小”特征。红外图像的对比度比较低、纹理特征比较弱、受到的干扰比较多,检测目标在海上云雾相似背景的影响之下,会成为弱小目标,一般的目标识别算法很难适用于弱小目标检测。
注意力机制是人类视觉系统固有的一种筛选图像信息和聚焦显著物体的信息处理机制,深度学习中注意力机制借鉴了人类的视觉注意力思维方式。人类可以通过快速浏览整体图像,迅速寻找出需要重点关注的区域,从而抑制次要信息对整体的影响,极大地提高了视觉信息处理的效率与准确性。深度卷积神经网络在经过多层卷积处理后将产生大量的高维特征图,这些由各层网络生成的特征图包含输入图像的各种纹理、特征、形态等信息。在增加相应计算量的前提下,使最终深度网络模型的输出更多地受到包含关键区域特征图的影响。数据是深度学习的基础,然而数据获取难度大、成本高且数据流通度不高导致公开的红外弱小移动数据集太少,难以满足神经网络训练需求。
目前主流的红外数据生成方案主要是基于生成对抗网络利用可见光图像数据生成,部分是利用红外图像数据进行扩充。生成对抗网络(generative adversarialnetwork,GAN)旨在生成不存在于真实世界的数据,在传统图像仿真领域,图像的仿真需经过建模、添加纹理和光照、渲染等一系列复杂的步骤。GAN网络的出现简化了这一过程,其利用深度神经网络模型构建生成器和判别器,生成器负责生成伪样本,而判别器用于分辨样本的真伪,生成器和判别器之间采用对抗博弈的方法自动学习样本数据的真实分布,从而实现图像的样本扩增。在动态博弈的过程中,GAN网络的生成器和判别器取样于随机噪声。这些方法针对大尺度目标生成的图像质量往往较好,但弱小目标由于缺乏结构、纹理、颜色等可用特征,目标往往会受到噪声干扰,同时网络算法不能较好的学习背景中的有效特征,因此生成的图像质量往往较差,难以满足红外弱小目标检测、跟踪需求。
因此,需要一种新的技术方案以解决上述问题。
发明内容
为了解决现有技术所产生的问题,本发明提供了一种生成质量高、信息丰富红外移动目标的基于融合注意力GAN的红外弱小移动目标生成算法。
为达到上述目的,本发明基于融合注意力GAN的红外弱小移动目标生成算法可采用如下技术方案:
一种基于融合注意力GAN的红外弱小移动目标生成算法,包括以下步骤:
1)从弱小移动目标数据集中获取可见光形式图像和红外形式图像,作为源图像;
2)在GAN的生成器中构建融合多尺度注意机制;
3)将融合多尺度注意机制引入残差模块及图像处理过程,与源图像融合计算注意力图;
4)在生成器中使用上采样和卷积方法处理图像,生成目标图像;
5)在GAN的判别器中构建融合多尺度注意机制,与输入图像融合计算注意力图,并输出合格的特征图像;
6)引入感知损失,构建损失函数处理特征图像并生成最终图像,重建源图像;
7)基于上述模型进行训练,满足使用精度要求后,将可见光移动目标图像输入该模型,则生成红外弱小移动目标图像。
进一步的,所述的融合多尺度注意机制,通过设置不同尺寸的内核大小捕获多尺度特征,在每个尺度中,基于该尺度特征将通道注意力和空间注意力串联融合。
进一步的,所述的串联融合中,将输入特征上采样,同时通道注意力和空间注意力将输入特征压缩,对压缩后的结果进行全连接和激活操作,得到注意力权重,将注意力权重和上采样后的输入特征进行信道乘法并输出注意力图。
进一步的,所述的通道注意力机制将该尺度特征通过全局平均池化压缩,并输出通道注意力图;
其中,压缩过程为:
式中,z代表压缩后的特征结果,Fsq代表压缩函数,H代表特征图高,W代表特征图宽,uc(i,j)代表(i,j)处的原始特征,c表示原始特征通道个数。
通道注意力权重计算过程为:
s=Fex(z,W)=σ(g(z,W)=σ(W2δ(W1z))
式中,σ表示sigmoid函数,s表示学习到的通道注意力,Fex代表激活函数,W代表全连接操作,g(z,W)代表对压缩后的特征结果进行全连接操作,W1代表第一个全连接层,W2代表第二个全连接层,δ(W1z)代表对压缩后的特征结果进行全连接操作,然后进行ReLU激活操作。
进一步的,所述的空间注意力机制将通道注意力图通过全局平均池化以及最大池化操作压缩,并输出空间注意力图;
其中,压缩过程为:
式中,Ms(F)代表空间注意力特征,F代表原始H×W×C特征,f7*7代表7×7的卷积层,AvgPool代表平均池化操作,MaxPool代表最大池化操作,代表对原始特征进行平均池化操作,/>代表对原始特征进行最大池化操作。
进一步的,将所述注意力图通过归一化操作,将不同尺度的注意力图基于特征权重以通道方式串联起来,基于最大选择策略在注意力映射操作中关注可区分的空间位置,计算最终的融合注意力图。
进一步的,所述特征权重表示为:
式中,代表某一位置原始k个特征经过s次池化的结果,/>表示全局平均池化结果,W1大小为1*1*k。
进一步的,所述的生成器为可见光生成器和红外生成器。
进一步的,所述的判别器为可见光判别器和红外判别器。
进一步的,所述的步骤6)利用最小二乘法构建对抗损失和循环一致性损失,损失函数Loss表达式为:
Loss=LossGAN+Losscycle+Lossidentity.。
式中,LossGAN表示对抗损失,Losscycle表示循环一致性损失,Lossidentity表示感知损失。
本发明具有如下有益效果:
1、本发明通过基于多尺度特征实现通道注意力与空间注意力的串联融合,选择性地更多地关注重要结构信息而忽略不相关的信息;在生成对抗网络的判别器中引入融合多尺度注意力机制,提升判别器对生成图像中重点关注信息的判断能力,生成的红外弱小移动目标数据质量更高。
2、在生成对抗网络的两个生成器中引入融合多尺度注意机制,该机制不仅能够保留可见光图像中的弱小目标特征,同时能够保留红外图像中背景细节信息,信息更丰富,为弱小移动目标检测等工作提供数据支持。
附图说明
图1为基于本发明算法的总体流程图;
图2为生成器融合多尺度注意机制示意图;
图3为生成器中图像处理的流程图;
图4为引入融合多尺度注意机制的残差模块示意图;
图5为判别器中图像处理的流程图;
图6为判别器Dx融合多尺度注意机制示意图;
图7为判别器Dy融合多尺度注意机制示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
请参阅图1,本发明公开了一种基于融合注意力GAN的红外弱小移动目标生成算法,包括以下步骤:
1)从弱小移动目标数据集中获取可见光形式图像和红外形式图像,作为源图像;
2)在GAN的生成器中构建融合多尺度注意机制;
3)将融合多尺度注意机制引入残差模块及图像处理过程,与源图像融合计算注意力图;
4)在生成器中使用上采样和卷积方法处理图像,生成目标图像;
5)在GAN的判别器中构建融合多尺度注意机制,与输入图像融合计算注意力图,并输出合格的特征图像;
6)引入感知损失,构建损失函数处理特征图像并生成最终图像,重建源图像;
7)基于上述模型进行训练,满足使用精度要求后,将可见光移动目标图像输入该模型,则生成红外弱小移动目标图像。
其中,生成器通过学习源图像的真实图像分布从而使由生成器生成的中间图像更加真实,以满足判别器的要求。判别器则需要对接收到的输入图像进行真假判别。步骤5)所述的输入图像为源图像及生成器生成的目标图像。整个过程中生成器与判别器相互博弈,通过不断地优化、循环处理,使生成器生成的图像更加真实,而判别器识别图像真假的能力更强,最终使GAN网络达到动态平衡:生成器生成的图像接近于真实图像,而判别器识别不出真假图像。
请参阅图2,步骤2)中,融合多尺度注意机制通过设置不同尺寸的内核大小捕获输入图像的多尺度特征,在每个尺度中,基于该尺度特征将通道注意力和空间注意力串联融合,进而在通道和空间维度提取更多的有效信息。串联融合中,将输入特征上采样,同时通道注意力和空间注意力将输入特征压缩,将H×W×C特征图压缩成1×1×C。对压缩后的结果进行全连接和激活操作,得到注意力权重,将注意力权重和上采样后的输入特征进行信道乘法并输出注意力图。生成注意力图的具体过程如下:
通道注意力机制将该尺度特征通过全局平均池化压缩,对压缩后的结果进行全连接和激活操作,得到通道注意力权重,将通道注意力权重和上采样后的该尺度特征进行信道乘法,并输出通道注意力图;
其中,压缩过程为:
式中,z代表压缩后的特征结果,Fsq代表压缩函数,H代表特征图高,W代表特征图宽,uc(i,j)代表(i,j)处的原始特征,c表示原始特征通道个数。
通道注意力权重计算过程为:
s=Fex(z,W)=σ(g(z,W)=σ(W2δ(W1z))
式中,σ表示sigmoid函数,s表示学习到的通道注意力,Fex代表激活函数,W代表全连接操作,g(z,W)代表对压缩后的特征结果进行全连接操作,W1代表第一个全连接层,W2代表第二个全连接层,δ(W1z)代表对压缩后的特征结果进行全连接操作,然后进行ReLU激活操作。
空间注意力机制将通道注意力图通过全局平均池化以及最大池化操作压缩,对压缩后的结果进行全连接和激活操作,得到注意力权重,将注意力权重和上采样后的通道注意力图进行信道乘法,并输出空间注意力图;
其中,压缩过程为:
式中,Ms(F)代表空间注意力特征,F代表原始H×W×C特征,f7*7代表7×7的卷积层,AvgPool代表平均池化操作,MaxPool代表最大池化操作,代表对原始特征进行平均池化操作,/>代表对原始特征进行最大池化操作。
最终,通过归一化操作计算上述空间注意力图,将不同尺度的注意力图基于特征权重以通道方式串联起来,基于最大选择策略在注意力映射操作中关注可区分的空间位置,计算最终的融合注意力图;
其中,不同尺度获取的特征权重表示为:
式中,代表某一位置原始k个特征经过s次池化的结果,/>表示全局平均池化结果,W1大小为1*1*k。
请参阅图3和图4,生成器主要由编码器、转换器和解码器三部分组成。在生成对抗网络的生成器中,采用上采样和卷积操作替换原始网络中的反卷积操作。步骤3)和4)中依次按照卷积方法、残差模块处理源图像,并通过卷积法和上采样方法进行后续处理之后加入融合多尺度注意机制输出最终融合注意力图。步骤3)中,转换器通过n个残差块将前一步得到的特征向量转换为目标特征向量,残差块由卷积层、ReLU激活函数、融合多尺度注意机制间的密集连接与残差连接两种方式组成,用来增加生成器网络的深度并以此提高特征提取的能力,防止网络梯度消失,分主次处理不同的特征。
本实施例中,请参阅图1,生成器包括可见光生成器G和红外生成器F,可见光生成器G将红外图像生成可见光图像,红外生成器F将可见光图像生成红外图像。由源可见光图像生成红外中间图像到重建可见光图像和有源红外图像生成可见光中间图像到重建红外图像为两组重构过程,避免全部输入图像映射到同一张图像中,满足网络架构的循环一致性,约束重构图像与输入源图像尽可能相似。
请参阅图5至图7,步骤5)中,向判别器中导入生成器中生成的目标图像和源图像。在判别器中将多尺度池化结果与融合多尺度机制提取到的特征进行融合,通过构建残差连接实现目标特征的有效提取。判别器为可见光判别器Dx和红外判别器Dy。可见光判别器Dx用于将输入的可见光图像与源可见光图像进行比较并判别相似性,如果概率大于50%,那么输入图像与真实图像相似,判断为真,从CycleGAN网络中输出作为特征图像,否则,将该输入图像重新作为源图像输入循环模型,重新经过步骤3)至5);同理,红外判别器Dy判断生成的红外图像和真实红外图像之间的相似度。
其中,两个判别器中的融合多尺度注意力机制根据判断对象的不同有所差异。可见光判别器DX利用2×2和4×4内核,注重捕获背景细节信息。红外判别器Dy利用1×1卷积和2×2内核,注重捕获目标信息。用于提升判别器对感兴趣目标及区域信息的判别能力。
步骤6)中,在模型中引入感知损失,提高待生成图像和源图像在语意间的相似度;同时利用最小二乘法构建对抗损失和循环一致性损失,实现整理损失函数Loss的构建,并对判别器输出的特征图像进一步处理。损失函数Loss表达式为:
Loss=LossGAN+Losscycle+Lossidentity;.
式中,LossGAN代表对抗损失,保证生成器和判别器相互进化,Losscycle代表循环一致性损失,使用L1范数计算,保证生成器的输出图像与输入图像只是风格不同,而内容相同,Lossidentity代表感知损失,保证生成的图像色调一致。
步骤7)中,基于可见光和红外弱小移动目标数据集,将该数据集按照比例拆分成训练集和测试集;使用训练集对GAN模型进行训练,然后利用测试集数据对训练模型结果进行验证。满足精度要求后,向该模型输入可见光弱小移动目标图像,经步骤2)至6)的模型处理,生成红外弱小移动目标图像,为弱小移动目标检测等工作提供数据支持。
综上,本发明一种基于融合注意力生成对抗网络的红外弱小移动目标生成算法具有数据质量高、信息丰富的特点,可用于弱小移动目标检测作为数据支持。
Claims (10)
1.一种基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,包括以下步骤:
1)从弱小移动目标数据集中获取可见光形式图像和红外形式图像,作为源图像;
2)在GAN的生成器中构建融合多尺度注意机制;
3)将融合多尺度注意机制引入残差模块及图像处理过程,与源图像融合计算注意力图;
4)在生成器中使用上采样和卷积方法处理图像,生成目标图像;
5)在GAN的判别器中构建融合多尺度注意机制,与输入图像融合计算注意力图,并输出合格的特征图像;
6)引入感知损失,构建损失函数处理特征图像并生成最终图像,重建源图像;
7)基于上述模型进行训练,满足使用精度要求后,将可见光移动目标图像输入该模型,则生成红外弱小移动目标图像。
2.根据权利要求1所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的融合多尺度注意机制,通过设置不同尺寸的内核大小捕获多尺度特征,在每个尺度中,基于该尺度特征将通道注意力和空间注意力串联融合。
3.根据权利要求2所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的串联融合中,将输入特征上采样,同时通道注意力和空间注意力将输入特征压缩,对压缩后的结果进行全连接和激活操作,得到注意力权重,将注意力权重和上采样后的输入特征进行信道乘法并输出注意力图。
4.根据权利要求3所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的通道注意力机制将该尺度特征通过全局平均池化压缩,并输出通道注意力图;
其中,压缩过程为:
式中,z代表压缩后的特征结果,Fsq代表压缩函数,H代表特征图高,W代表特征图宽,uc(i,j)代表(i,j)处的原始特征,c表示原始特征通道个数;
通道注意力权重计算过程为:
s=Fex(z,W)=σ(g(z,W)=σ(W2δ(W1z))
式中,σ表示sigmoid函数,s表示学习到的通道注意力,Fex代表激活函数,W代表全连接操作,g(z,W)代表对压缩后的特征结果进行全连接操作,W1代表第一个全连接层,W2代表第二个全连接层,δ(W1z)代表对压缩后的特征结果进行全连接操作,然后进行ReLU激活操作。
5.根据权利要求3所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的空间注意力机制将通道注意力图通过全局平均池化以及最大池化操作压缩,并输出空间注意力图;
其中,压缩过程为:
式中,Ms(F)代表空间注意力特征,F代表原始H×W×C特征,f7*7代表7×7的卷积层,AvgPool代表平均池化操作,MaxPool代表最大池化操作,代表对原始特征进行平均池化操作,/>代表对原始特征进行最大池化操作。
6.根据权利要求3所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,将所述注意力图通过归一化操作,将不同尺度的注意力图基于特征权重以通道方式串联起来,基于最大选择策略在注意力映射操作中关注可区分的空间位置,计算最终的融合注意力图。
7.根据权利要求6所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述特征权重表示为:
式中,fs k(i,j)代表某一位置原始k个特征经过s次池化的结果,表示全局平均池化结果,W1大小为1*1*k。
8.根据权利要求1所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的生成器为可见光生成器和红外生成器。
9.根据权利要求1所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的判别器为可见光判别器和红外判别器。
10.根据权利要求1所述的基于融合注意力GAN的红外弱小移动目标生成算法,其特征在于,所述的步骤6)利用最小二乘法构建对抗损失和循环一致性损失,损失函数Loss表达式为:
Loss=LossGAN+Losscycle+Lossidentity.
式中,LossGAN表示对抗损失,Losscycle表示循环一致性损失,Lossidentity表示感知损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310844801.5A CN117036875B (zh) | 2023-07-11 | 2023-07-11 | 一种基于融合注意力gan的红外弱小移动目标生成算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310844801.5A CN117036875B (zh) | 2023-07-11 | 2023-07-11 | 一种基于融合注意力gan的红外弱小移动目标生成算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117036875A CN117036875A (zh) | 2023-11-10 |
CN117036875B true CN117036875B (zh) | 2024-04-26 |
Family
ID=88640334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310844801.5A Active CN117036875B (zh) | 2023-07-11 | 2023-07-11 | 一种基于融合注意力gan的红外弱小移动目标生成算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036875B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611644B (zh) * | 2024-01-23 | 2024-05-28 | 南京航空航天大学 | 一种可见光图像到sar图像的转换方法、装置、介质及设备 |
CN118628492A (zh) * | 2024-08-13 | 2024-09-10 | 山东浪潮数字服务有限公司 | 一种基于注意力机制和多尺度特征融合的锂电池电极缺陷检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210153297A (ko) * | 2020-06-10 | 2021-12-17 | 인천대학교 산학협력단 | Cctv 영상 기반의 적외선과 가시광선 융합 최적화 장치 |
CN115423734A (zh) * | 2022-11-02 | 2022-12-02 | 国网浙江省电力有限公司金华供电公司 | 一种基于多尺度注意机制的红外与可见光图像融合方法 |
CN115439849A (zh) * | 2022-09-30 | 2022-12-06 | 杭州电子科技大学 | 基于动态多策略gan网络的仪表数字识别方法及系统 |
CN115861599A (zh) * | 2022-12-14 | 2023-03-28 | 西安镭映光电科技有限公司 | 一种基于红外小样本扩增与YOLOv5的红外弱小目标检测方法 |
CN116188652A (zh) * | 2022-11-11 | 2023-05-30 | 杭州师范大学 | 一种基于双尺度循环生成对抗的人脸灰度图像着色方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220108423A1 (en) * | 2020-10-02 | 2022-04-07 | Google Llc | Conditional Axial Transformer Layers for High-Fidelity Image Transformation |
-
2023
- 2023-07-11 CN CN202310844801.5A patent/CN117036875B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210153297A (ko) * | 2020-06-10 | 2021-12-17 | 인천대학교 산학협력단 | Cctv 영상 기반의 적외선과 가시광선 융합 최적화 장치 |
CN115439849A (zh) * | 2022-09-30 | 2022-12-06 | 杭州电子科技大学 | 基于动态多策略gan网络的仪表数字识别方法及系统 |
CN115423734A (zh) * | 2022-11-02 | 2022-12-02 | 国网浙江省电力有限公司金华供电公司 | 一种基于多尺度注意机制的红外与可见光图像融合方法 |
CN116188652A (zh) * | 2022-11-11 | 2023-05-30 | 杭州师范大学 | 一种基于双尺度循环生成对抗的人脸灰度图像着色方法 |
CN115861599A (zh) * | 2022-12-14 | 2023-03-28 | 西安镭映光电科技有限公司 | 一种基于红外小样本扩增与YOLOv5的红外弱小目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117036875A (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117036875B (zh) | 一种基于融合注意力gan的红外弱小移动目标生成算法 | |
CN114202696A (zh) | 基于上下文视觉的sar目标检测方法、装置和存储介质 | |
CN115063573B (zh) | 一种基于注意力机制的多尺度目标检测方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN112149591B (zh) | 用于sar图像的ssd-aeff自动桥梁检测方法及系统 | |
CN112506797B (zh) | 一种针对医学影像识别系统的性能测试方法 | |
CN110807362A (zh) | 一种图像检测方法、装置和计算机可读存储介质 | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
CN114119356A (zh) | 基于CycleGAN的热红外图像转类可见光彩色图像方法 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
CN114782298A (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN112257727A (zh) | 一种基于深度学习自适应可变形卷积的特征图像提取方法 | |
CN115719457A (zh) | 一种基于深度学习的无人机场景下小目标检测的方法 | |
CN117853805A (zh) | 一种生成长波红外图像的方法、系统与装置 | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
CN117036950A (zh) | 针对田间玉米杂草小目标检测方法、系统及应用 | |
CN116664421A (zh) | 一种基于多光照角度图像融合的航天器图像去阴影的方法 | |
CN116091762A (zh) | 一种基于rgbd数据和视锥体的三维目标检测方法 | |
Li et al. | Fusion enhancement: UAV target detection based on multi-modal GAN | |
CN118314333B (zh) | 一种基于Transformer架构的红外图像目标检测方法 | |
CN118628905A (zh) | 一种多尺度特征增强深度学习sar舰船检测方法 | |
CN118314442B (zh) | 一种基于深度学习的输电杆塔异物隐患识别方法 | |
CN118691573A (zh) | 一种基于轻量化pc-ema算法的风机表面缺陷检测方法、装置、设备及存储介质 | |
CN117218612A (zh) | 一种基于注意力机制的sar图像舰船目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |