CN115511722A - 基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 - Google Patents
基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 Download PDFInfo
- Publication number
- CN115511722A CN115511722A CN202210549163.XA CN202210549163A CN115511722A CN 115511722 A CN115511722 A CN 115511722A CN 202210549163 A CN202210549163 A CN 202210549163A CN 115511722 A CN115511722 A CN 115511722A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- loss function
- image
- denoising
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 50
- 238000013441 quality evaluation Methods 0.000 claims abstract description 41
- 230000008447 perception Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 46
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 238000003062 neural network model Methods 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 230000000903 blocking effect Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000011425 standardization method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
基于深浅特征融合网络及联合损失函数的遥感图像去噪方法涉及遥感数字图像处理与模式识别领域,通过多尺度特征提取模块在模型的第一层就提取尽可能多的特征,通过深浅特征融合的网络结构能够有效的将提取到的浅层信息包含到后续图像的重建过程当中,能够使得重建后的图像包含更多的细节纹理。通过在网络中加入注意力模块能够提取到复杂背景中的噪声信息,对于较为复杂背景信息下的噪声信号可以很好的提取出来。损失函数采用了感知损失和一般MSE损失函数,其中的感知损失函数由遥感图像质量评价网络来实现。采用该损失函数能够使得生成的去噪后遥感图像有高的信噪比,同时符合人的整体视觉观感。
Description
技术领域
本发明涉及遥感数字图像处理与模式识别领域,具体涉及一种基于深浅特征融合网络及联合损失函数的遥感图像去噪方法。
背景技术
遥感图像去噪算法在过去的几十年里吸引了大量的关注,由于深度学习技术的广泛发展,可以将遥感图像去噪算法分为传统的算法和基于深度学习的算法。传统的遥感图像去噪算法包括基于滤波的方法和基于统计学习的方法,滤波的方法是利用噪声图像像素点与周围像素之间的关系来消除噪声,如均值滤波和中值滤波等,后续经过改进传统的滤波算法,发明了利用整个图像冗余信息的非局部均值去噪算法以及融合了空间域和变换域的块匹配和三维滤波算法(BM3D)。K-SVD算法利用图像的稀疏编码对图像进行去噪,通过训练将图像块进行系数表示,并结合图像内在结构对原始图像进行估计来实现图像的去噪。尽管传统算法能够实现一定的去噪效果,但是生成的图像易模糊,需要手动各种超参数的设置,且需要大量的计算成本和时间成本。
目前采用深度神经网络的遥感图像去噪算法较少,大部分是针对普通的图像进行去噪。例如DNCNN去噪模型通过引入残差学习和批量标准化的方法,该方法通过去除池化层和设置合理的卷积核尺寸增强网络对图像的感知能力,从而在盲去噪与非盲去噪等场景下均获得了不俗的去噪能力,且实验表明其泛化能力较传统算法有较大提升。FFDNet去噪模型通过将输入图像采样为多张子图像在通道方向进行叠加,随后输入网络进行训练,在保证结果的同时减少了网络的参数与计算效率。尽管采用卷积神经网络的方法在图像去噪领域取得了良好的效果,但是对于基于深度学习的遥感图像的去噪网络没有充分利用浅层对深层的影响,并且都没有考虑到遥感图像复杂的地物特征。
发明内容
为了解决现有技术中存在的问题,本发明提供了一种基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,通过多尺度特征提取模块在模型的第一层就提取尽可能多的特征,通过深浅特征融合的网络结构能够有效的将提取到的浅层信息包含到后续图像的重建过程当中,能够使得重建后的图像包含更多的细节纹理,不易产生去噪后的模糊。通过在网络中加入注意力模块能够提取到复杂背景中的噪声信息。
本发明解决技术问题所采用的技术方案如下:
基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,该方法包括如下步骤:
步骤一:构建遥感图像质量评价网络模型,以及遥感图像去噪神经网络模型;
步骤二:对UC Merced训练集进行图像预处理,将处理过的UC Merced 训练集放入所述遥感图像质量评价网络模型中进行训练,最终得出参数固定的遥感图像质量评价网络模型;
步骤三:对去噪数据集NWPU-RESISC45进行分块并且预处理,然后输入均方根估计损失函数和基于遥感图像质量评价网络模型的感知损失函数进行训练,联合所述均方根估计损失函数和所述遥感图像质量评价网络模型的感知损失函数优化所述遥感图像去噪神经网络模型的参数,通过所述遥感图像质量评价网络模型的输出结果判定所述遥感图像去噪神经网络模型的参数优化的程度;
步骤四:将待去噪的遥感图像放入已经优化的所述遥感图像去噪神经网络模型中,输出干净的图像。
优选的,步骤一所述遥感图像去噪神经网络模型包括:多尺度特征提取模块、深浅特征融合模块和图像重建模块;所述多尺度特征提取模块提取遥感图像的初始特征的,通过不同尺度的卷积核提取所述遥感图像不同的特征;所述深浅特征融合模块解决所述遥感图像重建中的模糊问题,通过跳跃连接将浅层的纹理信息送到所述遥感图像重建的过程当中,加深所述遥感图像质量评价网络模型的深度防止梯度消失并生成细节纹理丰富的图像;所述图像重建模块将细节纹理丰富的图像重建。
优选的,所述深浅特征融合模块包括多个增强注意力模块和一个全局融合模块;每个增强注意力模块的输出都连接到下一个增强注意力模块和全局融合模块中。
优选的,所述增强注意力模块包含两个卷积层两个BN层、两个激活层和一个通道注意力层;每两个卷积层、两个BN层、两个激活层组的输出都连接到下一个每两个卷积层、两个BN层、两个激活层组和所述通道注意力层。
优选的,所述多尺度特征提取模块为不同内核大小的四个卷积层,将所述遥感图像分为四个路径。
优选的,步骤一所述遥感图像质量评价网络模型依次包括:输入层、隐含层和输出层,所述隐含层包括四对3×3的卷积层和最大池化层,和全连接层,所述四对3×3的卷积层和最大池化依次连接,最后经过所述全连接层进入所述输出层输出质量评价结果。
优选的,步骤二所述的图像预处理包括如下步骤:在UC Merced训练集随机选出100张图像作为样本,将所述图像转换成Ycbcr空间的图像,而后选取Y通道图像作为训练样本数据集;向所述训练样本数据集中添加五种不同强度的高斯噪声,对应着不同的图像质量评分:
Pnoise=Porgin+σ×randn(size(Porgin)),σ=0,5,15,25,35,45
其中,Pnoise代表得到的含噪声图像,Porgin为原始图像,σ代表加入噪声的方差,该方差一共有6个等级,在图像灰度值最大为255的情况下分别为 0,5,15,25,35,45;加入高斯噪声后可以获得600张训练样本;利用高斯模糊算法,对要所述训练样本数据集实现不同程度的模糊,得到600张模糊训练样本;1200图片放入所述遥感图像质量评价网络模型中进行训练优化,损失函数采用均方根损失函数,最小化损失函数采用Adam优化算法。
优选的,步骤三所述的预处理包括:在训练去噪数据集NWPU-RESISC45 中,每幅图像的大小为256×256,首先对图像分块操作,令步长s=25,小块的大小为n=50,即每幅图像可以获得100个小块,对所述小块图像添加不同强度的高斯噪声,经过训练的模型得到处理相应强度噪声的模型;对所述小块图像添加一定范围内方差随机变化的高斯噪声,即实现模型的盲去噪。
本发明的有益效果是:
(1)在遥感图像去噪神经网络模型的开始采用了多尺度特征提取模块来获得输入遥感图像的多个不同维度的信息,能够在模型的初始阶段提取到不同方向的特征信息,从而使得模型能够学习到更多的特征,模型更容易训练。
(2)采用了深浅特征融合的遥感图像去噪神经网络模型结构。融合深层次的感知信息和浅层次的细节信息,从而使得重建出的遥感图像在保证整体信息的同时拥有更多的细节。
(3)采用了包含了卷积层、激励层和通道注意力层的增强注意力模块。对于较为复杂背景信息下的噪声信号可以很好的提取出来。
(4)损失函数采用了感知损失和一般MSE损失函数,其中的感知损失函数由遥感图像质量评价网络来实现。采用该损失函数能够使得生成的去噪后遥感图像有高的信噪比,同时符合人的整体视觉观感。
附图说明
图1本发明基于深浅特征融合网络及联合损失函数的遥感图像去噪方法流程图。
图2本发明遥感图像去噪神经网络模型结构示意图。
图3本发明多尺度特征提取模块结构示意图。
图4本发明增强注意力模块结构示意图。
图5本发明遥感图像质量评价网络模型结构示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明。
如图1所示,基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,该方法包括如下步骤:
步骤一:构建要训练的卷积神经网络模型,以及遥感图像质量评价网络模型。
如图2所示,所述遥感图像质量评价网络模型包括:多尺度特征提取模块、深浅特征融合模块和图像重建模块;所述多尺度特征提取模块提取遥感图像的初始特征的,通过不同尺度的卷积核提取所述遥感图像不同的特征;所述深浅特征融合模块解决所述遥感图像重建中的模糊问题,通过跳跃连接将浅层的纹理信息送到所述遥感图像重建的过程当中,加深所述遥感图像质量评价网络模型的深度防止梯度消失并生成细节纹理丰富的图像;所述图像重建模块将细节纹理丰富的图像重建。其中所述深浅特征融合模块包括多个增强注意力模块和一个全局融合模块;每个增强注意力模块的输出都连接到下一个增强注意力模块和全局融合模块中。
输入图像是含噪声图像,可以是单通道全色遥感图像也可以是彩色RGB格式的遥感图像如图3所示,输入图像经过四个路径,所述多尺度特征提取模块具有4个不同内核大小的卷积层(1×1,3×3,5×5,7×7),其中Conv(·)代表卷积操作,是经过卷积层后的特征图,设每个卷积层的输出通道数为
在经过多尺度特征提取模块后获得通道数为N的特征图Lout,随后输入到模型的主要特征映射部分,由多个相同的增强注意力模块和全局融合模块组成的深浅特征融合模块。如图4所示,每个增强注意力块包含两个卷积层、两个BN层、两个激活层和一个通道注意力模块;每两个卷积层、两个BN 层、两个激活层组的输出都连接到下一个每两个卷积层、两个BN层、两个激活层组和所述通道注意力层。每个增强注意力块的输出都连接到下一个增强注意力块和全局融合模块中,这样有助于加深模型的深度防止梯度消失,并且通过跳跃连接,在后面的模块中也融合了模型提取的浅层信息。因此,我们有
Bi=E(Bi-1)=fconv(fconv(fCA(Bi-1))),i=1,2,…,n
E(·)代表增强注意力模块,n是一个超参数,代表着增强注意力模块的个数。fconv和fCA代表着增强注意力模块中的卷积层和通道注意力层。其中Bi表示经过第i个增强注意力模块后的输出;GFF代表着全局特征融合模块,concate表示将Bi在通道上进行叠加。全局特征融合模块包含了两个部分,第一部分是卷积核为1×1的卷积核,输出通道数是输入通道数的,紧接着第二部分是卷积核为3×3的卷积核,两个大小不同的卷积核实现了深浅特征的压缩和融合,起到了对特征的精确提取和融合,同时减少了计算量。图像重建模块是一个简单卷积层输出通道数为输入图像通道数的噪声残差图,实现对图像的重建。
如图5所示,本发明提出的遥感图像质量评价网络模型主要是为了将该网络生成的结果作为感知损失,不同于以往的采用图像识别网络作为感知损失,使用遥感图像质量评价网络模型可以使得训练出的遥感图像去噪神经网络模型的生成图像能够更加符合人眼的感知。所述遥感图像质量评价网络模型主要由输入层、隐含层和输出层所组成,隐含层包括四对卷积核尺寸为3×3 的卷积层和步长为2的最大池化层以及最后的全连接层,所述四对3×3的卷积层和最大池化依次连接,最后经过所述全连接层进入所述输出层输出质量评价结果。
步骤二:对UC Merced训练集进行图像预处理,将处理过的UC Merced 训练集放入所述遥感图像质量评价网络模型中进行训练,最终得出参数固定的遥感图像质量评价网络模型;
本发明中用于训练遥感图像质量评价网络模型的数据集采用UC Merced 遥感图像数据集,该数据集中包含了2100张尺寸为265×256的RGB空间图像。在2100张单通道图像中随机选出100张图像作为样本,首先需要对样本图像进行色彩空间的转换,变为Ycbcr空间的图像,而后将Y通道图像作为训练样本。向训练样本数据集中添加五种不同强度的高斯噪声,对应着不同的图像质量评分,这些评分作为训练集的标签。
Pnoise=Porgin+σ×randn(size(Porgin)),σ=0,5,15,25,35,45
其中,Pnoise代表得到的含噪声图像,Porgin为原始图像,σ代表的是加入噪声的方差,该方差一共有6个等级;在图像灰度值最大为255的情况下分别为0,5,15,25,35,45。加入高斯噪声后可以获得600张训练样本。同样的,利用高斯模糊算法,对要训练的样本实现不同程度的模糊,同样可以得到600张模糊训练样本。
然后将600张训练样本和600张模糊训练样本图片放入遥感图像质量评价网络模型中进行训练优化,损失函数采用均方根损失函数,最小化损失函数采用Adam优化算法。最终得到训练优化好参数的遥感图像质量评价网络模型。
步骤三:对去噪数据集NWPU-RESISC45进行分块并且预处理,然后输入均方根估计损失函数和基于遥感图像质量评价网络模型的感知损失函数进行训练,联合所述均方根估计损失函数和所述遥感图像质量评价网络模型的感知损失函数优化所述遥感图像去噪神经网络模型的参数,通过所述遥感图像质量评价网络模型的输出结果判定所述遥感图像去噪神经网络模型的参数优化的程度;
在训练集NWPU-RESISC45中,每幅图像的大小为256×256,首先对图像进行分块操作以便用于训练模型,令步长s=25,小块的大小为n=50,那么每幅图像可以获得100个小块,对经过图像分块之后的块添加不同强度的高斯噪声,经过模型的训练就可以得到处理相应强度噪声的模型,如果要实现模型的盲去噪,要对小块图像添加一定范围内方差随机变化的高斯噪声。本发明采用端到端的训练方法,输入为噪声图像X,输出为噪声残差图N,用公式表达为如下的形式:
N=F(X,W)
其中F(·)为网络非线性映射函数,W为网络模型参数。
训练模型采用的是联合MSE(均方根估计)损失函数和基于遥感图像质量评价网络模型的感知损失函数,训练过程中只更新遥感图像去噪神经网络模型的参数,遥感图像质量评价网络模型的参数固定不变。通过Adam优化算法来最小化联合损失函数,从而使得模型的参数达到最优,用公式表达为以下的形式
训练过程中,每次输入的图像块批量数目为128,对于灰度图像将深度设置为1,对于RGB空间的图像来说,将深度设置为3,模型的初始化参数采用He初始化方法,学习率设置为0.001,每训练30次,学习率衰减为原来的十分之一,总迭代次数为180。
步骤四:将待去噪的遥感图像放入已经优化的所述遥感图像去噪神经网络模型中,输出干净的图像。
设Inoise为待去噪的遥感图像,那么去噪过程可以由以下的公式来表示:
Idenoise=Inoise-F(Inoise,W)
将噪声图像减去模型得到的噪声残差图像就可以得到干净的不含噪声图像。
Claims (9)
1.基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,该方法包括如下步骤:
步骤一:构建遥感图像质量评价网络模型,以及遥感图像去噪神经网络模型;
步骤二:对UC Merced训练集进行图像预处理,将处理过的UC Merced训练集放入所述遥感图像质量评价网络模型中进行训练,最终得出参数固定的遥感图像质量评价网络模型;
步骤三:对去噪数据集NWPU-RESISC45进行分块并且预处理,然后输入均方根估计损失函数和基于遥感图像质量评价网络模型的感知损失函数进行训练,联合所述均方根估计损失函数和所述遥感图像质量评价网络模型的感知损失函数优化所述遥感图像去噪神经网络模型的参数,通过所述遥感图像质量评价网络模型的输出结果判定所述遥感图像去噪神经网络模型的参数优化的程度;
步骤四:将待去噪的遥感图像放入已经优化的所述遥感图像去噪神经网络模型中,输出干净的图像。
2.根据权利要求1所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,步骤一所述遥感图像去噪神经网络模型包括:多尺度特征提取模块、深浅特征融合模块和图像重建模块;所述多尺度特征提取模块提取遥感图像的初始特征的,通过不同尺度的卷积核提取所述遥感图像不同的特征;所述深浅特征融合模块解决所述遥感图像重建中的模糊问题,通过跳跃连接将浅层的纹理信息送到所述遥感图像重建的过程当中,加深所述遥感图像质量评价网络模型的深度防止梯度消失并生成细节纹理丰富的图像;所述图像重建模块将细节纹理丰富的图像重建。
3.根据权利要求2所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,所述深浅特征融合模块包括多个增强注意力模块和一个全局融合模块;每个增强注意力模块的输出都连接到下一个增强注意力模块和全局融合模块中。
4.根据权利要求3所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,所述增强注意力模块包含两个卷积层两个BN层、两个激活层和一个通道注意力层;每两个卷积层、两个BN层、两个激活层组的输出都连接到下一个每两个卷积层、两个BN层、两个激活层组和所述通道注意力层。
6.根据权利要求2所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,所述多尺度特征提取模块为不同内核大小的四个卷积层,将所述遥感图像分为四个路径。
7.根据权利要求1所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,步骤一所述遥感图像质量评价网络模型依次包括:输入层、隐含层和输出层,所述隐含层包括四对3×3的卷积层和最大池化层,和全连接层,所述四对3×3的卷积层和最大池化依次连接,最后经过所述全连接层进入所述输出层输出质量评价结果。
8.根据权利要求1所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,步骤二所述的图像预处理包括如下步骤:在UC Merced训练集随机选出100张图像作为样本,将所述图像转换成Ycbcr空间的图像,而后选取Y通道图像作为训练样本数据集;向所述训练样本数据集中添加五种不同强度的高斯噪声,对应着不同的图像质量评分:
Pnoise=Porgin+σ×randn(size(Porgin)),σ=0,5,15,25,35,45
其中,Pnoise代表得到的含噪声图像,Porgin为原始图像,σ代表加入噪声的方差,该方差一共有6个等级,在图像灰度值最大为255的情况下分别为0,5,15,25,35,45;加入高斯噪声后可以获得600张训练样本;利用高斯模糊算法,对要所述训练样本数据集实现不同程度的模糊,得到600张模糊训练样本;将1200图片放入所述遥感图像质量评价网络模型中进行训练优化,损失函数采用均方根损失函数,最小化损失函数采用Adam优化算法。
9.根据权利要求1所述的基于深浅特征融合网络及联合损失函数的遥感图像去噪方法,其特征在于,步骤三所述的预处理包括:在训练去噪数据集NWPU-RESISC45中,每幅图像的大小为256×256,首先对图像分块操作,令步长s=25,小块的大小为n=50,即每幅图像可以获得100个小块,对所述小块图像添加不同强度的高斯噪声,经过训练的模型得到处理相应强度噪声的模型;对所述小块图像添加一定范围内方差随机变化的高斯噪声,即实现模型的盲去噪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210549163.XA CN115511722A (zh) | 2022-05-20 | 2022-05-20 | 基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210549163.XA CN115511722A (zh) | 2022-05-20 | 2022-05-20 | 基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115511722A true CN115511722A (zh) | 2022-12-23 |
Family
ID=84500910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210549163.XA Pending CN115511722A (zh) | 2022-05-20 | 2022-05-20 | 基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115511722A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116468619A (zh) * | 2023-03-01 | 2023-07-21 | 山东省人工智能研究院 | 一种基于多特征反馈融合的医学影像去噪方法 |
-
2022
- 2022-05-20 CN CN202210549163.XA patent/CN115511722A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116468619A (zh) * | 2023-03-01 | 2023-07-21 | 山东省人工智能研究院 | 一种基于多特征反馈融合的医学影像去噪方法 |
CN116468619B (zh) * | 2023-03-01 | 2024-02-06 | 山东省人工智能研究院 | 一种基于多特征反馈融合的医学影像去噪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114140353B (zh) | 一种基于通道注意力的Swin-Transformer图像去噪方法及系统 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN110599409B (zh) | 基于多尺度卷积组与并行的卷积神经网络图像去噪方法 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN111028163A (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
CN112818764B (zh) | 一种基于特征重建模型的低分辨率图像人脸表情识别方法 | |
CN112767279A (zh) | 一种基于离散小波集成生成对抗网络的水下图像增强方法 | |
CN112541865A (zh) | 基于生成对抗网络的水下图像增强方法 | |
CN112561799A (zh) | 一种红外图像超分辨率重建方法 | |
CN110992295A (zh) | 基于小波-red卷积神经网络的低剂量ct重建方法 | |
CN116645569A (zh) | 一种基于生成对抗网络的红外图像彩色化方法和系统 | |
CN112927137A (zh) | 一种用于获取盲超分辨率图像的方法、设备及存储介质 | |
CN115272072A (zh) | 一种基于多特征图像融合的水下图像超分辨率方法 | |
CN111798359A (zh) | 一种基于深度学习的图像去水印方法 | |
CN116739899A (zh) | 基于saugan网络的图像超分辨率重建方法 | |
CN115641391A (zh) | 一种基于密集残差和双流注意力的红外图像彩色化方法 | |
CN115511722A (zh) | 基于深浅特征融合网络及联合损失函数的遥感图像去噪方法 | |
Chen et al. | Attention-based Broad Self-guided Network for Low-light Image Enhancement | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 | |
CN117274059A (zh) | 基于图像编码-解码的低分辨率图像重构方法及其系统 | |
CN115082296B (zh) | 一种基于小波域图像生成框架的图像生成方法 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN113554671A (zh) | 基于轮廓增强的sar图像到可见光图像的转换方法及装置 | |
Jia et al. | Three filters for the enhancement of the images acquired from fluorescence microscope and weak-light-sources and the image compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |