CN116452969A - 基于对抗自编码器和注意力机制的高光谱目标检测方法 - Google Patents
基于对抗自编码器和注意力机制的高光谱目标检测方法 Download PDFInfo
- Publication number
- CN116452969A CN116452969A CN202310182189.XA CN202310182189A CN116452969A CN 116452969 A CN116452969 A CN 116452969A CN 202310182189 A CN202310182189 A CN 202310182189A CN 116452969 A CN116452969 A CN 116452969A
- Authority
- CN
- China
- Prior art keywords
- encoder
- hyperspectral
- data
- spectrum
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 61
- 230000007246 mechanism Effects 0.000 title claims abstract description 26
- 238000001228 spectrum Methods 0.000 claims abstract description 38
- 230000003595 spectral effect Effects 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 230000005764 inhibitory process Effects 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于对抗自编码器和注意力机制的高光谱目标检测方法,包括:对输入高光谱图像进行粗检测,通过调整粗检测结果图的二值化阈值,获得尽可能纯净的背景样本作为训练数据;利用制作好的训练数据,对基于对抗自编码器和注意力机制的模型进行训练,获得一个能精确重建出高光谱图像背景的模型;将测试高光谱图像输入网络进行重建,将重建结果与原始高光谱图像逐个像素计算光谱距离获得距离图;对距离图施加背景抑制得到最终的检测结果图。本发明引入光谱注意力机制给光谱维度分配权重,加快了网络的训练和收敛速度;通过只选择背景样本作为训练数据,训练基于对抗自编码器的图像重建模型,克服了高光谱图像中正负样本不均衡的问题。
Description
技术领域
本发明涉及一种基于对抗自编码器和注意力机制的高光谱目标检测方,属于图像处理的技术领域。
背景技术
目标检测是高光谱遥感领域的一个重要研究和应用方向。与注重空间几何的高分辨率图像目标检测相比,高光谱图像目标检测更注重感兴趣目标与背景之间细微的光谱特征差异。高光谱图像具有数据量大的特点,这代表其中存在大量的冗余信息,影响处理速度;利用基于深度学习的方法进行高光谱目标检测时,由于目标通常较小,面临着正负样本不均衡的问题,缺乏训练数据影响了目标检测的精度。
发明内容
本发明的目的在于提供一种基于对抗自编码器和注意力机制的高光谱目标检测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于对抗自编码器和注意力机制的高光谱目标检测方法,包括以下步骤:
步骤一:通过高光谱目标检测算法CEM对输入高光谱图像进行粗检测,通过调整粗检测结果图的二值化阈值,以获得尽可能纯净的背景样本作为训练数据;
步骤二:对已有的基于对抗自编码器的网络模型进行改进,引入了光谱注意力机制,将训练数据输入改进后的网络中,首先光谱注意力机制模块给输入的高光谱数据的光谱维度分配权重,然后将带权重的数据输入对抗自编码器网络中,自编码器作为网络的生成器,输入数据x经过编码器得到隐藏向量z,然后通过解码器得到重建结果x',通过判别器来判断z是否为真实数据,联合对抗网络的损失函数和自编码器的损失函数不断优化网络,使输出重建结果x'尽可能接近输入数据x,获得了一个可以精确重建出高光谱图像背景的模型;步骤三:将测试高光谱图像输入网络进行重建,将重建结果与原始高光谱图像逐个像素计算光谱距离获得距离图;对距离图施加背景抑制得到最终的检测结果图。
进一步的,在步骤一中,所述粗检测选用的已有算法为CEM算法,CEM算法是设计一个FIR线性滤波器,使得在满足约束条件式的情况下滤波器的输出能量最小,在将粗检测结果进行二值化这一步时调低其二值化阈值,使得在虚警率较高的条件下达到最高的粗检测精度,并选取背景样本中的80%作为训练数据。
进一步的,在步骤二中,引入了光谱注意力机制,通过使用两个1×1的卷积层对输入数据xt∈RH×W×C,xt表示像素点,R为高光谱数据,H,W,C为高光谱数据的空间尺寸及光谱维度,进行线性映射来获得全空间分辨率query向量和半通道分辨率key向量/>然后,query向量通过矩阵相乘操作重新映射到key向量,计算出光谱维度的自相关性,得到注意力(attention)系数,记为value向量/>为了避免连续性的过度损失,将通道设为C/2,上述过程用公式表示如下:
其中表示1×1的卷积层,FR(·)表示通过Reshape函数来调整尺寸达到匹配,/>表示矩阵乘法运算,在通道调整和Sigmoid激活之后,获得每个通道的权重因子,然后,将原始数据xt∈RH×W×C和权重因子相乘得到重新校准后的输入数据:
通过上述的光谱注意力模型,对输入的光谱数据的光谱维度分配了权重,使网络能够将注意力放在信息量较大的光谱维度;采用了对抗自编码器作为网络的基本架构,训练基于对抗自编码器的网络学会重建只有背景的高光谱数据,在训练过程中,联合利用两种损失函数以达到更高的检测精度,所采用的损失函数如下所示:
ltotal=la+le
式中,ltotal为总的损失函数,la为对抗网络的损失函数,le为添加了目标抑制的编码器的损失函数,la的计算公式如下所示:
式中,G表示生成器,D表示判别器,D(x)代表输入为原始图像时判别器的输出,D(G(z))代表输入为生成器合成的图像是判别器的输出, 表示求该分布的期望值,pdata(x)表示真实数据的空间分布,pz(z)表示合成样本的空间分布,le的计算公式如下所示:
式中,hi是输入高光谱图像样本,h'i是重建后的高光谱图像,si是重建光谱h'i和目标光谱d的光谱角制图。
进一步的,在步骤三中,对输入高光谱数据H和重建结果H'进行逐个像素的计算光谱距离dsi用公式表示如下:
T代表矩阵转置,
经过逐个像素计算dsi得到最终的距离图DS,然后将dsi乘以一个基于粗检测结果的非负数得到逐个像素的检测结果,用公式表示如下:
dfi=q(yi)dsi
其中非线性函数q(x)用于抑制背景光谱的同时保持目标光谱不变,定义如下:
其中λ是调整抑制能力的参数,x为非负数yi,最终检测结果表示为:
DF=[df1,df2,...,dfM×N]
其中DF为最终得到的距离图,df1,df2,...,dfM×N为每个像素点的距离。
本发明与现有技术相比,其显著优点在于:
(1)本发明提出了一种基于对抗自编码器和注意力机制的高光谱目标检测算法,该方法能够有效利用高光谱图像中的光谱信息,通过学习获得精确的背景重建模型,进而实现精确地高光谱图像目标检测。
(2)引入了光谱注意力机制,高光谱图像中存在的光谱冗余现象造成算法处理时间过长的问题。光谱注意力模型将关注点放在高光谱图像的光谱维度,也即通过分配权重的方式将网络注意力放在信息量较大的光谱维度,通过光谱注意力机制,提高了算法的收敛速度,减少了运行时间。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明算法总体流程示意图;
图2为本发明所采取的光谱注意力模型示意图;
图3为本发明所采取的对抗自编码器结构示意图;
图4为本发明的目标检测结果与其他算法比较示意图;
图5为本发明的ROC曲线与其他算法比较示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,本发明基于对抗自编码器和注意力机制的高光谱目标检测方法,包括了背景重建网络的总体流程,以及如何对高光谱图像进行测试获得最终的检测结果图。
基于对抗自编码器和注意力机制的高光谱目标检测方法,包括以下步骤:
步骤一:对输入高光谱图像进行粗检测,通过调整粗检测结果图的二值化阈值,以获得尽可能纯净的背景样本作为训练数据;
所述粗检测选用的已有算法为CEM算法,CEM算法是设计一个FIR线性滤波器,使得在满足约束条件式的情况下滤波器的输出能量最小,在将检测结果进行二值化这一步时调低其二值化阈值,使得在虚警率较高的条件下达到最高的粗检测精度,并选取背景样本中的80%作为训练数据。
步骤二:对基于对抗自编码器和注意力机制的模型进行训练,通过光谱注意力机制模块给输入训练数据的光谱维度分配权重,然后训练基于对抗自编码器的网络使其学会重建图像,获得一个可以精确重建出高光谱图像背景的模型;
如图2-3所示,引入了光谱注意力机制,通过给光谱维度分配权重使得网络将注意力放在信息量较大的光谱维度;光谱注意力模型如图二所示,具体方法为:通过使用两个1×1的卷积层对输入数据xt∈RH×W×C进行线性映射来获得全空间分辨率query向量和半通道分辨率key向量/>然后,query向量通过矩阵相乘操作重新映射到key向量,计算出光谱维度的自相关性,得到注意力(attention)系数,记为value向量/>将通道设为C/2是为了避免连续性的过度损失。将上述过程用公式表示如下
其中表示1×1的卷积层,FR(·)表示通过Reshape函数来调整尺寸达到匹配,/>表示矩阵乘法运算,在通道调整和Sigmoid激活之后,可以获得每个通道的权重因子。然后,将原始数据xt∈RH×W×C和权重因子相乘得到重新校准后的输入数据:
上述的光谱注意力模型,对输入的光谱数据的光谱维度分配了权重,使网络能够将注意力放在信息量较大的光谱维度。采用了对抗自编码器作为网络的基本架构,训练基于对抗自编码器的网络学会重建只有背景的高光谱数据,在训练过程中,联合利用两种损失函数以达到更高的检测精度。所采用的损失函数如下所示:
ltotal=la+le
上式中,ltotal为总的损失函数,la为对抗网络的损失函数,le为添加了目标抑制的编码器的损失函数,la的计算公式如下所示:
上式中,G和D分别表示生成器和判别器。D(x)代表输入为原始图像时判别器的输出,D(G(z))代表输入为生成器合成的图像时判别器的输出, 表示求该分布的期望值,pdata(x)表示真实数据的空间分布,pz(z)表示合成样本的空间分布。le的计算公式如下所示:
上式中,hi是输入高光谱图像样本,h'i是重建后的高光谱图像,si是重建光谱h'i和目标光谱d的光谱角制图。
步骤三:将测试高光谱图像输入网络进行重建,将重建结果与原始高光谱图像逐个像素计算光谱距离获得距离图;
输入高光谱数据H和重建结果H'进行逐个像素的计算光谱距离dsi用公式表示如下:
经过逐个像素计算dsi可以得到最终的距离图DS,然后将dsi乘以一个基于粗检测结果的非负数得到最终的检测结果,用公式表示如下:
dfi=q(yi)dsi
其中非线性函数q(x)用于抑制背景光谱的同时保持目标光谱不变,定义如下:
其中λ是调整抑制能力的参数,最终检测结果可以表示为:
DF=[df1,df2,...,dfM×N]
其中图4为本发明检测结果与其他算法比较示意图,图4为在同一真实高光谱数据集下,本发明所提出算法的检测结果图以及五个对比算法的检测结果图,从结果图中可以看出,本发明提出的算法的检测精度高且虚警率低。图5为本发明所提出的算法与对比算法的ROC曲线示意图,ROC曲线是高光谱目标检测领域的常用评价指标,由该曲线图可以计算出曲线下的面积AUC作为定量的指标证明本发明的检测精度优于其他对比算法。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (4)
1.基于对抗自编码器和注意力机制的高光谱目标检测方法,其特征在于,包括以下步骤:
步骤一:通过高光谱目标检测算法CEM对输入高光谱图像进行粗检测,通过调整粗检测结果图的二值化阈值,以获得尽可能纯净的背景样本作为训练数据;
步骤二:对已有的基于对抗自编码器的网络模型进行改进,引入了光谱注意力机制,将训练数据输入改进后的网络中,首先光谱注意力机制模块给输入的高光谱数据的光谱维度分配权重,然后将带权重的数据输入对抗自编码器网络中,自编码器作为网络的生成器,输入数据x经过编码器得到隐藏向量z,然后通过解码器得到重建结果x',通过判别器来判断z是否为真实数据,联合对抗网络的损失函数和自编码器的损失函数不断优化网络,使输出重建结果x'尽可能接近输入数据x,获得了一个可以精确重建出高光谱图像背景的模型;
步骤三:将测试高光谱图像输入网络进行重建,将重建结果与原始高光谱图像逐个像素计算光谱距离获得距离图;对距离图施加背景抑制得到最终的检测结果图。
2.根据权利要求1所述的基于对抗自编码器和注意力机制的高光谱目标检测方法,其特征在于:在步骤一中,所述粗检测选用的已有算法为CEM算法,CEM算法是设计一个FIR线性滤波器,使得在满足约束条件式的情况下滤波器的输出能量最小,在将粗检测结果进行二值化这一步时调低其二值化阈值,使得在虚警率较高的条件下达到最高的粗检测精度,并选取背景样本中的80%作为训练数据。
3.根据权利要求1所述的基于对抗自编码器和注意力机制的高光谱目标检测方法,其特征在于:在步骤二中,引入了光谱注意力机制,通过使用两个1×1的卷积层对输入数据xt∈RH×W×C,xt表示像素点,R为高光谱数据,H,W,C为高光谱数据的空间尺寸及光谱维度,进行线性映射来获得全空间分辨率query向量和半通道分辨率key向量/>然后,query向量通过矩阵相乘操作重新映射到key向量,计算出光谱维度的自相关性,得到注意力(attention)系数,记为value向量/>为了避免连续性的过度损失,将通道设为C/2,上述过程用公式表示如下:
其中表示1×1的卷积层,FR(·)表示通过Reshape函数来调整尺寸达到匹配,/>表示矩阵乘法运算,在通道调整和Sigmoid激活之后,获得每个通道的权重因子,然后,将原始数据xt∈RH×W×C和权重因子相乘得到重新校准后的输入数据:
通过上述的光谱注意力模型,对输入的光谱数据的光谱维度分配了权重,使网络能够将注意力放在信息量较大的光谱维度;采用了对抗自编码器作为网络的基本架构,训练基于对抗自编码器的网络学会重建只有背景的高光谱数据,在训练过程中,联合利用两种损失函数以达到更高的检测精度,所采用的损失函数如下所示:
ltotal=la+le
式中,ltotal为总的损失函数,la为对抗网络的损失函数,le为添加了目标抑制的编码器的损失函数,la的计算公式如下所示:
式中,G表示生成器,D表示判别器,D(x)代表输入为原始图像时判别器的输出,D(G(z))代表输入为生成器合成的图像时判别器的输出, 表示求分布的期望值,pdata(x)表示真实数据的空间分布,pz(z)表示合成样本的空间分布,le的计算公式如下所示:
式中,hi是输入高光谱图像样本,h'i是重建后的高光谱图像,si是重建光谱h'i和目标光谱d的光谱角制图。
4.根据权利要求1所述的一种基于对抗自编码器和注意力机制的高光谱目标检测方法,其特征在于:在步骤三中,对输入高光谱数据H和重建结果H'进行逐个像素的计算光谱距离dsi用公式表示如下:
T代表矩阵转置,
经过逐个像素计算dsi得到最终的距离图DS,然后将dsi乘以一个基于粗检测结果的非负数得到逐个像素的检测结果,用公式表示如下:
dfi=q(yi)dsi
其中非线性函数q(x)用于抑制背景光谱的同时保持目标光谱不变,定义如下:
其中λ是调整抑制能力的参数,x为非负数yi,最终检测结果表示为:
DF=[df1,df2,...,dfM×N]
其中DF为最终得到的距离图,df1,df2,...,dfM×N为每个像素点的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182189.XA CN116452969A (zh) | 2023-03-01 | 2023-03-01 | 基于对抗自编码器和注意力机制的高光谱目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182189.XA CN116452969A (zh) | 2023-03-01 | 2023-03-01 | 基于对抗自编码器和注意力机制的高光谱目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116452969A true CN116452969A (zh) | 2023-07-18 |
Family
ID=87120974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310182189.XA Pending CN116452969A (zh) | 2023-03-01 | 2023-03-01 | 基于对抗自编码器和注意力机制的高光谱目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452969A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118172613A (zh) * | 2024-05-11 | 2024-06-11 | 济南霆盈智能装备科技有限公司 | 一种用于微生物检测方法 |
-
2023
- 2023-03-01 CN CN202310182189.XA patent/CN116452969A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118172613A (zh) * | 2024-05-11 | 2024-06-11 | 济南霆盈智能装备科技有限公司 | 一种用于微生物检测方法 |
CN118172613B (zh) * | 2024-05-11 | 2024-07-05 | 济南霆盈智能装备科技有限公司 | 一种用于微生物检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112733749B (zh) | 融合注意力机制的实时行人检测方法 | |
CN115170638B (zh) | 一种双目视觉立体匹配网络系统及其构建方法 | |
CN110555841B (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN111814607B (zh) | 一种适用于小样本高光谱影像分类的深度学习模型 | |
CN112541532B (zh) | 基于密集连接结构的目标检测方法 | |
CN109191418A (zh) | 一种基于收缩自编码器特征学习的遥感图像变化检测方法 | |
CN116452969A (zh) | 基于对抗自编码器和注意力机制的高光谱目标检测方法 | |
CN111008664A (zh) | 一种基于空谱联合特征的高光谱海冰检测方法 | |
CN117557922B (zh) | 改进YOLOv8的无人机航拍目标检测方法 | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
CN115223017B (zh) | 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法 | |
CN116030357A (zh) | 一种高分辨率遥感图像变化检测深度网络及检测方法 | |
CN113343822A (zh) | 一种基于3d卷积的光场显著性目标检测方法 | |
CN115809970A (zh) | 一种基于sar-光学遥感影像联合的深度学习去云方法 | |
CN116071664A (zh) | 基于改进CenterNet网络的SAR图像舰船检测方法 | |
CN116563606A (zh) | 一种基于双分支空谱全局特征提取网络的高光谱图像分类方法 | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
CN114821341A (zh) | 基于fpn与pan网络的双重注意力的遥感小目标检测方法 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
CN114998373A (zh) | 基于多尺度损失函数的改进型U-Net云图分割方法 | |
CN112633123B (zh) | 一种基于深度学习的异源遥感影像变化检测方法及装置 | |
CN116977747B (zh) | 基于多路多尺度特征孪生网络的小样本高光谱分类方法 | |
CN115456957B (zh) | 一种全尺度特征聚合的遥感影像变化检测的方法 | |
CN115631412A (zh) | 基于坐标注意力和数据相关上采样的遥感图像建筑物提取方法 | |
CN115035408A (zh) | 基于迁移学习和注意力机制的无人机影像树种分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |