CN113781340B - 一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 - Google Patents
一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 Download PDFInfo
- Publication number
- CN113781340B CN113781340B CN202111034090.2A CN202111034090A CN113781340B CN 113781340 B CN113781340 B CN 113781340B CN 202111034090 A CN202111034090 A CN 202111034090A CN 113781340 B CN113781340 B CN 113781340B
- Authority
- CN
- China
- Prior art keywords
- image
- residual
- module
- convolution layer
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001629 suppression Effects 0.000 title claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000004458 analytical method Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims 1
- 230000008034 disappearance Effects 0.000 abstract description 2
- 238000004880 explosion Methods 0.000 abstract description 2
- 238000004321 preservation Methods 0.000 abstract 1
- 238000004422 calculation algorithm Methods 0.000 description 69
- 230000009467 reduction Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种基于深度网络模型的合成孔径雷达图像散斑抑制系统。本发明中的深度网络模型包括浅层特征提取模块、深层特征分析处理模块和重构模块;所述浅层特征提取模块包括第一卷积层和第二卷积层,用于对输入的噪声图像做初步处理,以得到输入噪声图像中的浅层特征信息;所述深层特征分析处理模块包括层层级联的m个递归组,用于对浅层特征提取模块提取的浅层特征信息进行分析处理,以获取更多的信息;所述重构模块包括第一通道注意力模块和第三卷积层包,所述第三卷积层的输出与输入的噪声图像形成全局残差,用以得到与噪声图像相对应的去噪图像。本发明避免了训练过程中出现的梯度消失或爆炸现象,去噪能力强,细节保存能力好,能够更好地应用于雷达装备中。
Description
技术领域
本发明涉及一种图像处理系统,具体地说是一种基于深度网络模型的合成孔径雷达图像散斑抑制系统。
背景技术
合成孔径雷达(Synthetic aperture radar,SAR)是通过使用微波波段的电磁波,处理接收到的信号的幅值和相位来生成图像。SAR具有全天候、全天时工作、穿透能力强、信息丰富、和直观真实等众多优点,成为森林检测、城市规划、灾害评估等众多领域不可替代的观测工具。但由于SAR成像系统的相干成像机制,使得SAR图像中含有相干斑噪声,会对其视觉解译及其后续处理(例如:SAR图像分割和船舶检测等)变得非常困难。因此,进行SAR图像去噪处理成为研究热点。
通常情况下,SAR图像的散斑抑制或消除的方法主要包括基于空域的去噪算法、基于变换域的去噪算法和基于深度学习的去噪算法。基于空域的去噪算法是核心思想是基于图像的局部统计特性,该类方法能够在平滑区域产生较好的去噪效果,但对于图像的边缘及一些纹理信息比较丰富的区域,容易发生过度平滑,导致图像细节信息丢失。基于变换域的去噪算法主要包括基于小波变换的图像去噪算法和基于多尺度几何变换的图像去噪算法,通过处理含噪图像在变换域的系数以达到去噪的目的。但是,上述这些去噪算法都是针对整幅SAR图像进行去噪处理的,从而导致去噪图像产生人造纹理或边缘模糊等其他图像质量问题。
可见,传统的基于空域和变换域的去噪方法虽然能够去除SAR图像上的噪声,但在去噪的同时,会产生丢失图像细节等其他图像问题;而且,这些去噪方法的运行时间较长,难以应用于实际,很难满足SAR图像的快速去噪要求。
近年来,随着深度学习在图像领域的不断发展,研究者将SAR图像去噪问题逐渐采用基于卷积神经网络的方式实现。基于深度学习的去噪方法是主要采用深度卷积神经网络对SAR图像进行特征学习,以得到一个去噪模型,虽然去噪结果要优于传统的去噪方法,但是,其难度就在于如何构造一个好的网络模型,这就成为制约深度卷积神经网络去噪发展的一个难点。
发明内容
本发明的目的就是提供一种基于深度网络模型的合成孔径雷达图像散斑抑制系统,以解决传统网络模型在去噪方面存在的丢失图像细节、产生人造纹理、边缘模糊和耗时长等问题。
本发明的目的是这样实现的:一种基于深度网络模型的合成孔径雷达图像散斑抑制系统,所述深度网络模型包括:
浅层特征提取模块,包括第一卷积层和第二卷积层,用于对输入的噪声图像做初步处理,以得到输入噪声图像中的浅层特征信息,并提取特征映射;
深层特征分析处理模块,包括若干递归组,所有递归组层层级联,用于对浅层特征提取模块提取的特征映射进行分析处理,以获取输入噪声图像的深层特征图;以及
重构模块,包括第一通道注意力模块和第三卷积层,所述第三卷积层的输出与输入的噪声图像形成全局残差,用以得到与噪声图像相对应的去噪图像。
进一步地,所述第一卷积层和所述第二卷积层的卷积核均为3×3,且第一卷积层的输入通道数为1,输出通道数为64;第二卷积层的输入通道数和输出通道数均为64。
进一步地,所述浅层特征提取模块输出的浅层特征信息f o为:
fo=HC2(x)
其中,x表示输入的噪声图像,HC2为两个卷积层的实现函数。
进一步地,所述递归组包括第四卷积层和若干残差注意力模块,输入递归组的特征映射和所述第四卷积层的输出形成全局残差,用于进行残差学习。
进一步地,所述残差注意力模块包括:
第一单元,包括第五卷积层、第一修正线性单元、第六卷积层和第二通道注意力模块,第二通道注意力模块的输出与残差注意力模块的输入形成局部残差,用于进行局部残差学习;
第二单元,包括第七卷积层、第二修正线性单元、第八卷积层和第三通道注意力模块,第三通道注意力模块的输出与第一单元的输出形成局部残差,用于进行局部残差学习;以及
第三单元,包括带参数的修正线性单元、三个卷积层、第三修正线性单元和第四通道注意力模块,第四通道注意力模块的输出与残差注意力模块的输入形成全局残差,用于进行全局残差学习。
进一步地,各通道注意力模块均包括平均池化、两个卷积层、第四修正线性单元和Sigmoid函数,所述通道注意力模块的输出与输入进行逐像素相乘。
本发明中的深度网络模型的使用方法是,先利用模拟的SAR图像作为样本数据集对深度网络模型进行训练,然后,对输入的噪声图像利用浅层特征提取模块做初步处理,得到输入噪声图像中的浅层特征信息并提取特征映射;再利用深层特征分析处理模块中层层级联的递归块对提取的特征映射进行分析处理,以获取输入噪声图像的深层特征图;最后,将深层特征图送入重构模块进行处理,得到噪声映射图,经与输入噪声图像进行全局残差处理后,得到与噪声图像对应的最终去噪图像。
本发明中的深度网络模型的训练方法是,利用样本数据集以及与其对应的原始数据作为噪声-干净图像对,先确定网络训练所需要设定的包括递归块的数量、批量大小、优化器中的动量参数在内的网络参数,将噪声-干净图像对输入浅层特征提取模块,由浅层特征提取模块提取输入噪声图像中的浅层特征信息和映射特征;然后,根据训练过程及结果,分别利用深层特征分析处理模块和重构模块,对上述网络参数进行调整,在不断训练和调整的过程中,将上述网络参数予以固定。
进一步地,所述样本数据集的数量为400幅加入乘性噪声的模拟SAR图像,其中每个样本都包括其对应的标准清晰图像作为参考图像。
进一步地,所输入的噪声图像是在干净的图像中加入乘性噪声所形成的模拟SAR图像。
本发明是使用Pytorch深度学习框架对深度网络模型进行训练。
本发明的有益效果包括以下几点:
(1)本发明中的深度网络模型可以在模拟及真实SAR图像上实现较好的去噪效果,与传统网络模型的去噪方法相比,去噪效果明显,细节保存能力更好,而且一旦深度网络模型训练完成,处理速度非常快,能够更好地应用于雷达装备中。
(2)本发明采用整体网络模型训练的方法,可以有效地减少网络模型训练过程中的网络参数,采用残差学习策略,可以有效地避免训练过程中出现的梯度消失或爆炸现象,引入注意力网络,可以使网络更高效地处理图像中的重要信息。
(3)本发明训练方法利用深度学习模型来自动学习噪声图像中的特征,能够进行端对端的处理,所采用的多层级联递归组,能够充分提取输入图形中的特征,相应提高了系统的去噪能力。
附图说明
图1是本发明中的深度网络模型的整体网络架构图。
图2是递归组的网络架构图。
图3是残差注意力模块的网络架构图。
图4是通道注意力模块的网络架构图。
图5a是Set12中的一幅干净图像,
图5b是图5a加入等效视数为L=4的模拟SAR图像。
图6a是对图5b采用BSS-SR算法降噪处理后的图像。
图6b是对图5b采用Frost滤波算法降噪处理后的图像。
图6c是对图5b采用SAR-BM3D算法降噪处理后的图像。
图6d是对图5b采用IRCNN算法降噪处理后的图像。
图6e是对图5b采用CNN-GFF算法降噪处理后的图像。
图6f是对图5b采用FFDNet算法降噪处理后的图像。
图6g是对图5b采用FFDNet-CCS算法降噪处理后的图像。
图6h是对图5b采用本发明进行降噪处理后的图像。
图7是一幅真实DRAX-SAR图像。
图8a是对图7采用BSS-SR算法降噪处理后的图像。
图8b是对图7采用Frost滤波算法降噪处理后的图像。
图8c是对图7采用SAR-BM3D算法降噪处理后的图像。
图8d是对图7采用IRCNN算法降噪处理后的图像。
图8e是对图7采用CNN-GFF算法降噪处理后的图像。
图8f是对图7采用FFDNet算法降噪处理后的图像。
图8g是对图7采用FFDNet-CCS算法降噪处理后的图像。
图8h是对图7采用本发明进行降噪处理后的图像。
具体实施方式
本发明中的深度网络模型包括浅层特征提取模块、深层特征分析处理模块和重构模块这三个部分。
如图1所示,浅层特征提取模块包括第一卷积层和第二卷积层,两个卷积层的卷积核都设为3×3大小,且第一卷积层的输入通道数为1,输出通道数为64;第二个卷积层输入输出通道数均为64。测试样本图像输入到该浅层特征提取模块中,经过第一、第二两个卷积层的卷积操作后,即可得到输入噪声图像中的浅层特征信息。
浅层特征提取模块输出的浅层特征信息fo可用数学公式表示为:
fo=HC2(x)
其中,x表示输入的噪声图像,HC2为第一、第二两个卷积层的实现函数。
图1中,深层特征分析处理模块是由m个递归组进行层层级联来实现的。由浅层特征提取模块提取到的浅层特征信息按顺序依次送入到m个递归组中,每个递归组提取到的特征信息进行通道级联,即可得到输入噪声图像中的深层特征信息。
如图2所示,深层特征分析处理模块中的每个递归组包括卷积核大小为3×3的第四卷积层和n个残差注意力模块,n个残差注意力模块与第四卷积层一道形成全局残差,即每个递归组的输入与位于该递归组中最后位置上的第四卷积层的输出进行残差连接,进行残差学习。
在m个递归组中,第i个递归组(i=1~m)的处理过程RGi可表示为:
RGi=C(Bn(Bn-1…(B1(frg(i-1)))))+frg(i-1)
其中,Bn表示第n个RCB的实现函数,此处n=10,C表示卷积操作,frg(i-1)表示第i个递归组的输入。
如图3所示,递归组中的每一个残差注意力模块包括三个单元,其中,第一单元包括第五卷积层、第一修正线性单元、第六卷积层和第二通道注意力模块;第五卷积层、第一修正线性单元、第六卷积层与第二通道注意力模块形成局部残差。此处的局部残差为该残差注意力模块的输入与第二通道注意力模块的输出所进行的残差连接。第二单元包括第七卷积层、第二修正线性单元、第八卷积层和第三通道注意力模块;第七卷积层、第二修正线性单元、第八卷积层与第三通道注意力模块形成局部残差。此处的局部残差为第一单元的输出与第三通道注意力模块的输出所进行的残差连接。第三单元包括带参数的修正线性单元、第九到第十一共三个卷积层、第三修正线性单元和第四通道注意力模块,第一单元、第二单元与第三单元一道形成全局残差。此处的全局残差为该残差注意力模块的输入与第四通道注意力模块的输出所进行的残差连接,作为该残差注意力模块的输出。
图1中,深度网络模型的最后一部分为重构模块,该重构模块包括第一通道注意力模块和第三卷积层,浅层特征提取模块和深层特征分析处理模块与第一通道注意力模块和第三卷积层一道形成全局残差。此处的全局残差为深度网络模型的输入与第三卷积层的输出所进行的残差连接。深度网络模型通过最后的全局残差可得到输入噪声图像的最终去噪结果。
将深层特征分析处理模块的输出fRG输入到第一通道注意力模块,经处理后送入第三卷积层进行重构,即获得残差图像z:
z=C(HCA(fRG))
其中,HCA表示通道注意力模块的实现函数,C表示卷积操作,fRG为深层特征分析处理模块的输出。
将输入噪声图像x减去获得的残差图像z,即可得到最终的去噪图像y,即:
y=x-z
如图4所示,本发明中的深度网络模型中的各通道注意力模块的具体结构是:所述通道注意力模块包括平均池化、第十二和第十三两个卷积层、第四修正线性单元和Sigmoid函数,所述通道注意力模块的输出与输入进行逐像素相乘。两个卷积层的卷积核大小为1×1。
通道注意力模块的输入特征表示为Fca,通过进行通道注意力中不同层的处理,得到添加了注意力的特征映射,该过程的处理方式可表示为:
其中,C表示卷积操作,R表示ReLU函数,α表示Sigmoid函数,HAP表示平均池化函数。
本发明中的深度网络模型的训练方法如下:
首先,构建400幅样本数据集,即在干净的图像上加入乘性噪声,噪声图像分别对应标准清晰的图像。
然后,利用样本数据集对本发明中的深度网络模型进行训练,即利用安装在Windows系统上的Pytorch模型框架训练该深度网络模型,可采用CUDA10.1,CUDNN10.1加速GPU运算能力,加快训练速度。整个深度网络模型的训练大约需要13个小时,网络训练4万次,使用ADAM优化方法进行训练,β1=0.9,β2=0.999,批量大小为2,初始学习速率设置为0.0001。在训练过程中,将大小为256×256的训练图像裁剪成尺寸为64×64的图像块,并进行90°、180°和270°的随机旋转和水平翻转,以达到数据增强的目的。
本发明中的深度网络模型在训练完成后,即可直接用于处理模拟及真实SAR图像。
对于模拟SAR图像,随机选取Set12中的一幅干净图像(如图5a),分别加上等效视数为L=2、L=4、L=8和L=10的乘性噪声,生成模拟SAR图像,然后按照与上述相同的处理方法进行计算。等效视数L=4的模拟SAR图像及其去噪结果分别如图5b和图6h所示。
对于真实SAR图像,采用本发明中的深度网络模型进行去噪处理,图7是一幅等效视数L=2的DRAX-SAR图像,可以从www.sandia.gov网站中获得。对图7中真实SAR图像同样按照上述处理方法进行去噪处理,结果如图8h所示。
对比例1:
对图5b所示的模拟SAR图像,分别采用现有的BSS-SR算法、Frost滤波算法、SAR-BM3D算法、IRCNN算法、CNN-GFF算法、FFDNet算法、FFDNet-CCS算法以及本发明分别进行去噪处理,结果如图6a~图6h所示。
从图6中的8个图像的去噪结果的对比分许可以看出,采用BSS-SR算法(图6a)和SAR-BM3D算法(图6c)去噪处理后的图像比较模糊,过度平滑,且丢失部分细节信息;Frost滤波算法(图6b)和IRCNN算法(图6d)虽然有效地抑制了图像中的相干噪声,但是去噪图像中存在有人造纹理;采用CNN-CFF算法(图6e)、FFDNet算法(图6f)及FFDNet-CCS算法(图6g)进行去噪处理后的图像仍有噪声斑点残留,其视觉效果较差;本发明算法(图6h)与上述这七种算法相比,能更好地抑制斑点噪声,且保留更多的细节信息,具有更好的视觉效果。这充分说明本发明算法的优势。
为进一步展现利用本发明的图像去噪处理方法在模拟SAR图像数据上的优越性,下面通过峰值信噪比(PSNR)和结构相似性(SSIM)这两个指标来衡量去噪性能。PSNR值越大,表明算法的去噪能力越强;SSIM值越接近于1,表明算法的去噪图像细节恢复得越多,越接近对应的干净图像。表1给出了对加入不同视数的模拟SAR图像进行去噪后,对比例中各算法的客观评价指标。
表1:模拟合成孔径雷达图像的定量评估结果
从表1的评价结果的对比可以看出,本发明有着最好的噪声去除效果,并且能够较好地保持图像的细节信息,优于前边的其它七种去噪算法。
对比例2:
对图7所示的真实SAR图像,分别采用BSS-SR算法、Frost滤波算法、SAR-BM3D算法、IRCNN算法、CNN-GFF算法、FFDNet算法、FFDNet-CCS算法进行去噪处理,结果如图8a~图8g所示。
从图8各子图中的放大区域可以看出,由SAR-BM3D算法(图8c)和BSS-SR算法(图8a)处理后的去噪图像比较模糊,细节损失太多。FFDNet算法(图8f)对平滑区域有很强的去噪效果,但边缘细节丢失严重。CNN-GFF算法(图8e)处理后的去噪图像的放大区域与未经过处理的真实SAR图像(图7)非常相似,说明该算法去噪效果较差。IRCNN算法(图8d)的去噪视觉效果好,但平坦区域出现伪边缘。Frost滤波算法(图8b)和FFDNet-CCS算法(图8g)有一定的去噪效果,但去噪图像引入了一些人造纹理。本发明算法去噪后的图像(图8h)能够在有效抑制散斑的同时充分保留图像边缘细节。
为进一步展现利用本发明的图像去噪处理方法在真实SAR图像数据上的优越性,下面通过四个评价指标来衡量各个算法的去噪性能,分别为:等效视数(ENL)、基于平均比率的边缘保持度(EPD-ROA)(分水平方向HD和垂直方向VD)、独立定量评估指数(UM)和运行时间(TIME)。ENL值越大表明图像的平坦区域越平滑,噪声越少;EPD-ROA值越接近于1,说明图像细节和边缘保持能力越强;UM值越小,表明算法的整体去噪能力越好。
在表2中给出了真实SAR图像经过各去噪算法去噪处理后的客观评价指标。
表2:真实合成孔径雷达图像的定量评估结果
从表2的评价结果的对比可以看出,本发明算法的ENL值仅次于SAR-BM3D,但远高于其它去噪算法。本发明算法也具有最低的UM值,这表明本发明算法具有最强的综合去噪能力。并且,本发明算法在EPD-ROA指标的两个方向上都高于其他算法,说明本发明具有更好的图像边缘保持能力。在运行时间方面,与其它去噪算法相比,本发明算法的运行时间最短,能够更好地应用于实际。
通过综合对比上述评价指标可以看出,本发明在散斑抑制及边缘细节信息保持等逐方面均具有优越的性能。
Claims (8)
1.一种基于深度网络模型的合成孔径雷达图像散斑抑制系统,其特征是,所述深度网络模型包括:
浅层特征提取模块,包括第一卷积层和第二卷积层,用于对输入的噪声图像做初步处理,以得到输入噪声图像中的浅层特征信息,并提取特征映射;
深层特征分析处理模块,包括若干递归组,所有递归组层层级联,用于对浅层特征提取模块提取的特征映射进行分析处理,以获取输入噪声图像的深层特征图;以及
重构模块,包括第一通道注意力模块和第三卷积层,所述第三卷积层的输出与输入的噪声图像形成全局残差,用以得到与噪声图像相对应的去噪图像;
所述递归组包括卷积核大小为3×3的第四卷积层和n个残差注意力模块,n个残差注意力模块与第四卷积层一道形成全局残差,即每个递归组的输入与位于该递归组中最后位置上的第四卷积层的输出进行残差连接,用于进行残差学习;
所述残差注意力模块包括:
第一单元,包括第五卷积层、第一修正线性单元、第六卷积层和第二通道注意力模块,第二通道注意力模块的输出与残差注意力模块的输入形成局部残差,用于进行局部残差学习;
第二单元,包括第七卷积层、第二修正线性单元、第八卷积层和第三通道注意力模块,第三通道注意力模块的输出与第一单元的输出形成局部残差,用于进行局部残差学习;以及
第三单元,包括带参数的修正线性单元、三个卷积层、第三修正线性单元和第四通道注意力模块,第四通道注意力模块的输出与残差注意力模块的输入形成全局残差,用于进行全局残差学习;该残差注意力模块的输入与第四通道注意力模块的输出以残差连接所形成的全局残差,作为该残差注意力模块的输出。
2.根据权利要求1所述的基于深度网络模型的合成孔径雷达图像散斑抑制系统,其特征是,所述第一卷积层和所述第二卷积层的卷积核均为3×3,且第一卷积层的输入通道数为1,输出通道数为64;第二卷积层的输入通道数和输出通道数均为64。
3.根据权利要求1所述的基于深度网络模型的合成孔径雷达图像散斑抑制系统,其特征是,所述浅层特征提取模块输出的浅层特征信息f o 为:
其中,x表示输入的噪声图像,H C2为两个卷积层的实现函数。
4.根据权利要求1所述的基于深度网络模型的合成孔径雷达图像散斑抑制系统,其特征是,各通道注意力模块均包括平均池化、两个卷积层、第四修正线性单元和Sigmoid函数,所述通道注意力模块的输出与输入进行逐像素相乘。
5.一种权利要求1—4任一权利要求所述的基于深度网络模型的合成孔径雷达图像散斑抑制系统中的深度网络模型的使用方法,其特征是,先利用模拟的SAR图像作为样本数据集对深度网络模型进行训练,然后,对输入的噪声图像利用浅层特征提取模块做初步处理,得到输入噪声图像中的浅层特征信息并提取特征映射;再利用深层特征分析处理模块中层层级联的递归块对提取的特征映射进行分析处理,以获取输入噪声图像的深层特征图;最后,将深层特征图送入重构模块进行处理,得到噪声映射图,经与输入噪声图像进行全局残差处理后,得到与噪声图像对应的最终去噪图像。
6.一种权利要求1—4任一权利要求所述的基于深度网络模型的合成孔径雷达图像散斑抑制系统中的深度网络模型的训练方法,其特征是,利用样本数据集以及与其对应的原始数据作为噪声-干净图像对,先确定网络训练所需要设定的包括递归块的数量、批量大小、优化器中的动量参数在内的网络参数,将噪声-干净图像对输入浅层特征提取模块,由浅层特征提取模块提取输入噪声图像中的浅层特征信息和映射特征;然后,根据训练过程及结果,分别利用深层特征分析处理模块和重构模块,对上述网络参数进行调整,在不断训练和调整的过程中,将上述网络参数予以固定。
7.根据权利要求6所述的深度网络模型的训练方法,其特征是,所述样本数据集的数量为400幅加入乘性噪声的模拟SAR图像,其中每个样本都包括其对应的标准清晰图像作为参考图像。
8.根据权利要求6所述的深度网络模型的训练方法,其特征是,所输入的噪声图像是在干净的图像中加入乘性噪声所形成的模拟SAR图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111034090.2A CN113781340B (zh) | 2021-09-03 | 2021-09-03 | 一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111034090.2A CN113781340B (zh) | 2021-09-03 | 2021-09-03 | 一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113781340A CN113781340A (zh) | 2021-12-10 |
CN113781340B true CN113781340B (zh) | 2023-12-22 |
Family
ID=78841234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111034090.2A Active CN113781340B (zh) | 2021-09-03 | 2021-09-03 | 一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781340B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570364A (zh) * | 2019-08-05 | 2019-12-13 | 天津大学 | 基于深度神经网络的分焦平面偏振图像去噪方法 |
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN112233026A (zh) * | 2020-09-29 | 2021-01-15 | 南京理工大学 | 一种基于多尺度残差注意力网络的sar图像去噪方法 |
CN112634146A (zh) * | 2020-12-02 | 2021-04-09 | 浙江工业大学之江学院 | 基于多种注意力机制的多通道cnn医学ct图像去噪方法 |
-
2021
- 2021-09-03 CN CN202111034090.2A patent/CN113781340B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570364A (zh) * | 2019-08-05 | 2019-12-13 | 天津大学 | 基于深度神经网络的分焦平面偏振图像去噪方法 |
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN112233026A (zh) * | 2020-09-29 | 2021-01-15 | 南京理工大学 | 一种基于多尺度残差注意力网络的sar图像去噪方法 |
CN112634146A (zh) * | 2020-12-02 | 2021-04-09 | 浙江工业大学之江学院 | 基于多种注意力机制的多通道cnn医学ct图像去噪方法 |
Non-Patent Citations (3)
Title |
---|
FFA-Net: Feature Fusion Attention Network for Single Image Dehazing;Xu Qin等;《arXiv》;论文第1-5页 * |
Image Super-Resolution Using Very Deep Residual Channel Attention Networks;Yulun Zhang等;《arXiv》;论文第2-3节 * |
Xu Qin等.FFA-Net: Feature Fusion Attention Network for Single Image Dehazing.《arXiv》.2019,论文第1-5页. * |
Also Published As
Publication number | Publication date |
---|---|
CN113781340A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112200750B (zh) | 一种超声图像去噪模型建立方法及超声图像去噪方法 | |
CN106204467B (zh) | 一种基于级联残差神经网络的图像去噪方法 | |
CN101303764B (zh) | 基于非下采样轮廓波的多传感器图像自适应融合方法 | |
CN103208097B (zh) | 图像多方向形态结构分组的主分量分析协同滤波方法 | |
CN110070539A (zh) | 基于信息熵的图像质量评价方法 | |
CN111738954B (zh) | 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法 | |
CN112488934B (zh) | 一种基于cs-tcgan的指静脉图像去噪方法 | |
CN110084181B (zh) | 一种基于稀疏MobileNetV2网络的遥感图像舰船目标检测方法 | |
Zhang et al. | SAR image despeckling using multiconnection network incorporating wavelet features | |
CN113191968B (zh) | 三维超声图像盲去噪模型的建立方法及其应用 | |
CN110322403A (zh) | 一种基于生成对抗网络的多监督图像超分辨重建方法 | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
CN112215199A (zh) | 基于多感受野与密集特征聚合网络的sar图像舰船检测方法 | |
CN115205136A (zh) | 一种基于傅里叶先验的图像去雨方法 | |
CN115578262A (zh) | 基于afan模型的偏振图像超分辨率重建方法 | |
CN113899349B (zh) | 海浪参数检测方法、设备及存储介质 | |
CN115082336A (zh) | 一种基于机器学习的sar图像相干斑抑制方法 | |
CN109242797B (zh) | 基于均质和异质区域融合的图像去噪方法、系统及介质 | |
CN111461999B (zh) | 一种基于超像素相似性测量的sar图像相干斑抑制方法 | |
CN113781340B (zh) | 一种基于深度网络模型的合成孔径雷达图像散斑抑制系统 | |
CN111047537A (zh) | 一种图像去噪中恢复细节的系统 | |
CN116051444A (zh) | 一种有效的红外与可见光图像自适应融合方法 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
Liu et al. | A Lightweight Denoising Method Based on Noise2Void for X-ray Pseudo-Color Images in X-ray Security Inspection | |
CN111325765A (zh) | 一种基于冗余小波变换的图像边缘检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |