CN114897741B - 基于深度残差傅里叶变换的图像盲去模糊方法 - Google Patents

基于深度残差傅里叶变换的图像盲去模糊方法 Download PDF

Info

Publication number
CN114897741B
CN114897741B CN202210645790.3A CN202210645790A CN114897741B CN 114897741 B CN114897741 B CN 114897741B CN 202210645790 A CN202210645790 A CN 202210645790A CN 114897741 B CN114897741 B CN 114897741B
Authority
CN
China
Prior art keywords
image
fourier transform
depth residual
blurred
blurred image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210645790.3A
Other languages
English (en)
Other versions
CN114897741A (zh
Inventor
李庆利
毛欣天
王妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202210645790.3A priority Critical patent/CN114897741B/zh
Publication of CN114897741A publication Critical patent/CN114897741A/zh
Application granted granted Critical
Publication of CN114897741B publication Critical patent/CN114897741B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度残差傅里叶变换的图像盲去模糊方法,包括以下步骤:获取图像去模糊数据集,对图像去模糊数据集进行预处理,获得图像去模糊数据集的训练集;基于训练集中的模糊图像、清晰图像,对初始深度残差傅里叶变换网络进行训练,获得目标深度残差傅里叶变换网络;将待测模糊图像输入到目标深度残差傅里叶变换网络中进行图像盲去模糊处理,获得目标清晰图像。本发明结合了特征图像的频域信息与空间信息,能够通过特征的频域信息有效地帮助卷积神经网路将模糊图像恢复为更加清晰的图像。

Description

基于深度残差傅里叶变换的图像盲去模糊方法
技术领域
本发明属于计算机视觉和图像处理领域,特别是涉及一种基于深度残差傅里叶变换的图像盲去模糊方法。
背景技术
在图像成像的过程中,有时图像的质量会受到各种因素的影响导致成像质量下降。图像去模糊旨在去除模糊伪影以恢复清晰图像。图像的模糊可能由许多因素引起,例如,不规则的摄像机或物体移动、离焦光学等。模糊图像导致视觉质量低下,并妨碍后续高级视觉任务,如安全、医学成像以及物体识别。
在过去的几十年里,为了探索准确有效的图像去模糊方法,已经做了大量的研究工作。基于核的方法试图在给定一个模糊图像的情况下,估计潜在的锐利图像和模糊算子。但与核相关的问题常常阻碍其在图像去模糊中的有效应用,如核估计方法对噪声敏感,以及对模糊模型特性存在各种约束,这些约束在实际场景中并不适用。
DeepDeblur首先采用端到端的训练方法,直接通过卷积神经网络建立了模糊图像到清晰图像的映射。SRN提出了一种编码器-解码器结构,以提升模型的效果。对抗训练也得到了广泛的研究。这些网络大多在图像的空间域上进行建模,以从模糊图像中恢复清晰图像。
在许多端到端的图像去模糊神经网络中,残差卷积模块(ResBlock)是一个被广泛使用的模块,残差卷积模块(ResBlock)的结构通常如图3(a)所示以将输入特征经过Conv-ReLU-Conv后与输入特征相加的形式出现。残差卷积模块(ResBlock)能够在训练时实现更深的结构、更大的感受野大小和更快的收敛速度。
各种研究都尝试过修改残差卷积模块(ResBlock),例如,SAPHN提出的内容识别处理模块(Content-Aware Processing Module)、MPRNet提出的通道注意力模块(ChannelAttention Block)、HINet提出的半实例规范化模块(Half Instance NormalizationBlock)和SDWNet提出的空洞卷积模块(Dilated Convolution Module)。然而,以上所有提到的方法都侧重于从空间域中提取信息,而忽略了频域中的重要差异。
通常情况下,卷积神经网络(CNN)易于从图像边缘或轮廓中捕捉基本的视觉特征,尤其是在较低的层中,而较深的层也会倾向于拟合这些特征而忽视了图像的低频信息。
发明内容
为解决上述问题,本发明从图像频域的角度出发,提出了残差傅里叶卷积模块(Res FFT-Conv Block),通过同时获取空间域和频域的信息的方式达到对特征的高低频信息的利用。进一步,结合模糊图像恢复网络结构(MIMO-UNet)和涨点模块(DO-Conv)提出深度残差傅里叶变换(DeepRFT),有效地将模糊图像恢复为更加清晰的图像。
为实现上述目的,本发明提供了一种基于深度残差傅里叶变换的图像盲去模糊方法,包括以下步骤:
获取图像去模糊数据集,对所述图像去模糊数据集进行预处理,获得图像去模糊数据集的训练集;
基于所述训练集中的模糊图像、清晰图像,对初始深度残差傅里叶变换网络进行训练,获得目标深度残差傅里叶变换网络;
将待测模糊图像输入到所述目标深度残差傅里叶变换网络中进行图像盲去模糊处理,获得目标清晰图像。
优选地,所述图像去模糊数据集包括:GoPro数据集、HIDE数据集、RealBlur数据集、DPDD数据集。
优选地,所述初始深度残差傅里叶变换网络,采用模糊图像恢复网络结构,包括:第一编解码器、第二编解码器、第三编解码器;所述第一编解码器对应所述模糊图像原始尺度,所述第二编解码器对应所述模糊图像降采样一次后的尺度,所述第三编解码器对应所述模糊图像降采样两次后的尺度。
优选地,所述第一编解码器、第二编解码器、第三编解码器包括:卷积模块、残差傅里叶卷积模块;所述残差傅里叶卷积模块,在原始的残差卷积模块的基础上增加了图像频域特征提取分支。
优选地,基于所述训练集中的模糊图像、清晰图像,对初始深度残差傅里叶变换网络进行训练的过程包括:
将所述模糊图像输入初始深度残差傅里叶变换网络中,获得输出图像;
基于所述输出图像与所述清晰图像间的差距,计算损失并进行梯度反转,对所述初始深度残差傅里叶变换网络的参数进行更新;
重复以上训练步骤,直至训练次数达到预先设定的数量,获得目标深度残差傅里叶变换网络。
优选地,将所述模糊图像输入初始深度残差傅里叶变换网络中,获得输出图像的过程包括:
将所述模糊图像、降采样一次模糊图像、降采样两次模糊图像,输入到所述初始深度残差傅里叶变换网络中,通过第一编解码器、第二编解码器、第三编解码器进行处理,获得对应的模糊特征预测尺度;
将所述模糊图像、降采样一次模糊图像、降采样两次模糊图像的尺度与所述对应的模糊特征预测尺度相加,获得第一输出图像、第二输出图像、第三输出图像。
优选地,基于所述输出图像与所述清晰图像间的差距,计算损失的过程包括,
所述训练集中的清晰图像与第一输出图像进行对比,获得第一差距;降采样一次清晰图像与第二输出图像进行对比,获得第二差距;降采样两次清晰图像与第三输出图像进行对比,获得第三差距;基于所述第一差距、第二差距、第三差距,计算得到损失。
本发明的技术效果为:
本发明提出一种基于深度残差傅里叶变换的图像盲去模糊方法,其中深度残差傅里叶变换网络包含残差傅里叶卷积模块,从图像频域的角度出发,通过同时获取空间域和频域的信息的方式达到对特征的高低频信息的利用。进一步,深度残差傅里叶变换网络结合了模糊图像恢复网络结构和深度过参数化卷积,有效地将模糊图像恢复为更加清晰的图像。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例中的流程示意图;
图2为本发明实施例中的深度残差傅里叶变换模型示意图;
图3为本发明实施例中的传统残差卷积模块和残差傅里叶卷积模块的对比图;
图4为本发明实施例中的清晰图像和模糊图像频域对比图;
图5为本发明实施例中的残差卷积模块和残差傅里叶卷积模块输出特征频域信息对比图;
图6为本发明实施例中的GoPro测试数据示例图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1示,本实施例中提供一种基于深度残差傅里叶变换的图像盲去模糊方法,包括两个阶段,分别为网络训练阶段和网络预测阶段。
网路的训练阶段包含以下步骤:
1.准备图像去模糊标准数据集,选取的图像去模糊数据集为:GoPro数据集,HIDE数据集,RealBlur数据集和DPDD数据集;
2.对数据集进行预处理,在将实验数据输入模型训练之前先将数据随机切割为256×256大小并进行随机水平上下翻转;
3.将图像去模糊标准数据集的训练集中的模糊图像输入深度残差傅里叶变换(Deep Residual Fourier Transformation)中得到其估计出的可能清晰的图像。
4.计算网络输出图像与训练集中的清晰图像间的差距得到损失并返回梯度进行网络的参数更新,如此反复直至训练次数达到预先设定的数量。计算损失时,训练集中的清晰图像会分别降采样一次和两次后和深度残差傅里叶变换(Deep Residual FourierTransformation)的三个不同尺度的输出图像同时计算得到损失。设
Figure BDA0003685860240000061
与Sk分别为网络第k个阶段输出的重建结果和真实清晰数据。网络训练的损失函数分别为以下三个损失函数的组合:
1)多尺度目标检测损失函数(MSC Loss):
Figure BDA0003685860240000062
2)多尺度边缘检测损失函数(MSED Loss):
Figure BDA0003685860240000063
3)多尺度频率重构损失函数(MSFR Loss):
Figure BDA0003685860240000071
最终的损失函数如下:
L·=Lmsc+αLmsed+βLmsfr
其中Δ表示图像拉普拉斯变换,α和β为超参数,分别设为0.05与0.01。
网络的预测阶段:将模糊图像输入训练好的网络得到网络预测的清晰图像。
参照图2,深度残差傅里叶变换(Deep Residual Fourier Transformation)采用的是模糊图像恢复网络结构(MIMO-UNet),包含三个不同尺度的编码器和解码器,分别对应图像原始尺度、图像降采样一次后的尺度、图像降采样两次后的尺度,编码器和解码器之间存在三个横向连接和四个跨尺度连接。实验数据首先进行降采样一次和两次分别后进入深度残差傅里叶变换(Deep Residual Fourier Transformation)的不同尺度的编码器,同时大尺度的编码器的输出会经过降采样后输入到小尺度的编码器。然后输入解码器,经过不同尺度的解码器得到模糊特征预测后与对应尺度的输入相加得到三个不同尺度的恢复图像。本发明通过改变编码器和解码器中包含的残差傅里叶卷积模块(Res FFT-Conv Block)个数,分别设计了三个模型DeepRFT-small、DeepRFT、和DeepRFT+,其中DeepRFT-small每个编码器和解码器包含4个残差傅里叶卷积模块(Res FFT-Conv Block),而DeepRFT和DeepRFT+继承了MIMO-UNet和MIMO-UNet+的设计,分别包含8个和20个。除此之外,本发明将网络结构中所有非1×1卷积替换为深度过参数化卷积(DO-Conv)。深度过参数化卷积(DO-Conv)在许多高级视觉任务如图像分类、语义分割和目标检测中显示了它的潜力。深度过参数化卷积(DO-Conv)通过对卷积层进行深度卷积提升训练参数,达到了加快训练收敛速度并能取得更好的训练效果。实验表明,添加深度过参数化卷积(DO-Conv)可以帮助收敛到一个更低的损失并取得更好的测试效果。同时,深度过参数化卷积(DO-Conv)是两个相邻的线性运算,在推理时可以组合成传统的卷积运算,因此并不会影响网络的测试速度。
参照图3(b),残差傅里叶卷积模块(Res FFT-Conv Block)的频域分支处理过程如下:
(1)计算Z的2D实快速傅里叶变换,得到
Figure BDA0003685860240000081
(2)提取
Figure BDA0003685860240000082
的实部和虚部,将二者沿通道维度进行拼接得到/>
Figure BDA0003685860240000083
Figure BDA0003685860240000084
C表示沿通道维度拼接;
(3)将
Figure BDA0003685860240000085
经过1×1Conv-ReLU-1×1Conv得到f;
(4)将f=frealCfimag通过反快速傅里叶变换还原为空间域得到最终输出Yfft,即
Figure BDA0003685860240000086
/>
通过上述操作,本发明对所有频率的信息和相关性完成了建模。然后傅里叶变换卷积模块(Res FFT-Conv Block)的最终输出通过Y=Yfft+Yres+Z计算得到,其中Yres使用与原始ResBlock相同的计算。
参照图4,清晰的图像相比于其对应的模糊图像,通常包含更少的低频信息和更多的高频信息。
参照图5,本发明提取出了深度残差傅里叶变换(DeepRFT)的最后一层残差傅里叶卷积模块(Res FFT-Conv Block)中残差卷积分支和傅里叶分支输出特征的傅里叶变换后的平均幅值(图5b),将其与经过同样操作后得到的模糊图像恢复网络结构(MIMO-UNet)最后一层残差模块中的卷积分支输出特征的傅里叶变换后的平均幅值(图5a)进行比较。可以明显看出引入傅里叶变换分支后能够很好地提升网络对低频信息的捕获能力。
参照图6,左图为原始模糊图像,小图从左上到右下是分别是模糊图像,DMPHN、MIMO-UNet+、HINet、MPRNet、DeepRFT、DeepRFT+结果和清晰图像。通过MIMO-UNet+的结果与深度残差傅里叶变换(DeepRFT)的对比,可以说明本发明能够有效地提升卷积神经网络的去模糊能力,相比于目前主流的去模糊神经网络,深度残差傅里叶变换(DeepRFT)有着更优的去模糊能力。
本发明的主要特点在于残差傅里叶卷积模块(Res FFT-Conv Block)的设计。图像去模糊任务需要在图像处理过程中获取较大的感受野,然而目前主流的获取大感受野的方法如Transformer与Non-local等存在着诸如难以训练、显存消耗巨大等问题,而且目前主流深度神经网络所聚焦的的仍为图像的空间信息,图像的频域信息是目前图像去模糊神经网络所忽视的。残差傅里叶卷积模块(Res FFT-Conv Block)成功将特征的频域信息融入了卷积神经网路,增加了模型对于频域信息的获取与处理,提升了模型的性能。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (2)

1.基于深度残差傅里叶变换的图像盲去模糊方法,其特征在于,包括以下步骤:
获取图像去模糊数据集,对所述图像去模糊数据集进行预处理,获得图像去模糊数据集的训练集;
基于所述训练集中的模糊图像、清晰图像,对初始深度残差傅里叶变换网络进行训练,获得目标深度残差傅里叶变换网络;
将待测模糊图像输入到所述目标深度残差傅里叶变换网络中进行图像盲去模糊处理,获得目标清晰图像;
所述初始深度残差傅里叶变换网络,采用模糊图像恢复网络结构,包括:第一编解码器、第二编解码器、第三编解码器;所述第一编解码器对应所述模糊图像原始尺度,所述第二编解码器对应所述模糊图像降采样一次后的尺度,所述第三编解码器对应所述模糊图像降采样两次后的尺度;
所述第一编解码器、第二编解码器、第三编解码器包括:卷积模块、残差傅里叶卷积模块;所述残差傅里叶卷积模块,在原始的残差卷积模块的基础上增加了图像频域特征提取分支;
残差傅里叶卷积模块的频域分支处理过程如下:
(1)计算Z的2D实快速傅里叶变换,得到
Figure FDA0004099819690000011
(2)提取
Figure FDA0004099819690000012
的实部和虚部,将二者沿通道维度进行拼接得到
Figure FDA0004099819690000013
C表示沿通道维度拼接;
(3)将
Figure FDA0004099819690000014
经过1×1Conv-ReLU-1×1Conv得到f;
(4)将f=frealCfimag通过反快速傅里叶变换还原为空间域得到最终输出Yfft,即
Figure FDA0004099819690000015
通过(1)~(4)的操作,对所有频率的信息和相关性完成了建模;然后傅里叶变换卷积模块的最终输出通过Y=Yfft+Yres+Z计算得到,其中Yres使用与原始ResBlock相同的计算;
基于所述训练集中的模糊图像、清晰图像,对初始深度残差傅里叶变换网络进行训练的过程包括:
将所述模糊图像输入初始深度残差傅里叶变换网络中,获得输出图像;
基于所述输出图像与所述清晰图像间的差距,计算损失并进行梯度反转,对所述初始深度残差傅里叶变换网络的参数进行更新;
重复以上训练步骤,直至训练次数达到预先设定的数量,获得目标深度残差傅里叶变换网络;
将所述模糊图像输入初始深度残差傅里叶变换网络中,获得输出图像的过程包括:
将所述模糊图像、降采样一次模糊图像、降采样两次模糊图像,输入到所述初始深度残差傅里叶变换网络中,通过第一编解码器、第二编解码器、第三编解码器进行处理,获得对应的模糊特征预测尺度;
将所述模糊图像、降采样一次模糊图像、降采样两次模糊图像的尺度与所述对应的模糊特征预测尺度相加,获得第一输出图像、第二输出图像、第三输出图像;
基于所述输出图像与所述清晰图像间的差距,计算损失的过程包括,
所述训练集中的清晰图像与第一输出图像进行对比,获得第一差距;
降采样一次清晰图像与第二输出图像进行对比,获得第二差距;降采样两次清晰图像与第三输出图像进行对比,获得第三差距;基于所述第一差距、第二差距、第三差距,计算得到损失。
2.根据权利要求1所述的基于深度残差傅里叶变换的图像盲去模糊方法,其特征在于,
所述图像去模糊数据集包括:GoPro数据集、HIDE数据集、RealBlur数据集、DPDD数据集。
CN202210645790.3A 2022-06-09 2022-06-09 基于深度残差傅里叶变换的图像盲去模糊方法 Active CN114897741B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210645790.3A CN114897741B (zh) 2022-06-09 2022-06-09 基于深度残差傅里叶变换的图像盲去模糊方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210645790.3A CN114897741B (zh) 2022-06-09 2022-06-09 基于深度残差傅里叶变换的图像盲去模糊方法

Publications (2)

Publication Number Publication Date
CN114897741A CN114897741A (zh) 2022-08-12
CN114897741B true CN114897741B (zh) 2023-05-30

Family

ID=82728738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210645790.3A Active CN114897741B (zh) 2022-06-09 2022-06-09 基于深度残差傅里叶变换的图像盲去模糊方法

Country Status (1)

Country Link
CN (1) CN114897741B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627670A (zh) * 2021-08-10 2021-11-09 江南大学 基于深度傅里叶网络的超短期光伏功率预测系统
CN113705407A (zh) * 2021-08-20 2021-11-26 南京航空航天大学 基于时频残差神经网络的变转速下轴裂纹的故障诊断方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199521B (zh) * 2019-12-10 2022-10-18 南京理工大学 嵌入傅立叶聚合的视频去模糊三维卷积深度网络方法
CN112102177B (zh) * 2020-07-27 2022-06-21 中山大学 基于压缩与激励机制神经网络的图像去模糊方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627670A (zh) * 2021-08-10 2021-11-09 江南大学 基于深度傅里叶网络的超短期光伏功率预测系统
CN113705407A (zh) * 2021-08-20 2021-11-26 南京航空航天大学 基于时频残差神经网络的变转速下轴裂纹的故障诊断方法

Also Published As

Publication number Publication date
CN114897741A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
Fu et al. Clearing the skies: A deep network architecture for single-image rain removal
CN111209952B (zh) 基于改进ssd和迁移学习的水下目标检测方法
Jiang et al. Mixed noise removal by weighted encoding with sparse nonlocal regularization
Huang et al. Self-learning based image decomposition with applications to single image denoising
Shao et al. Generative image inpainting via edge structure and color aware fusion
Feng et al. Easy2hard: Learning to solve the intractables from a synthetic dataset for structure-preserving image smoothing
Deng Guided wavelet shrinkage for edge-aware smoothing
CN114723630A (zh) 基于空洞双残差多尺度深度网络的图像去模糊方法及系统
Luo et al. Fast removal of rain streaks from a single image via a shape prior
CN117726537A (zh) 自适应多尺度特征融合AMFFD-Net的SAR图像去噪网络方法及系统
Wang et al. Non-uniform motion deblurring with blurry component divided guidance
Tu et al. Logarithmic dyadic wavelet transform with its applications in edge detection and reconstruction
CN115205136A (zh) 一种基于傅里叶先验的图像去雨方法
Khmag Natural digital image mixed noise removal using regularization Perona–Malik model and pulse coupled neural networks
CN114897741B (zh) 基于深度残差傅里叶变换的图像盲去模糊方法
Voronin et al. Inpainting for videos with dynamic objects using texture and structure reconstruction
Zhang et al. A new image filtering method: Nonlocal image guided averaging
Wang et al. A method of coupling expected patch log likelihood and guided filtering for image de-noising
Xi et al. Research on image deblurring processing technology based on genetic algorithm
Ge et al. A de-noising method based on L0 gradient minimization and guided filter for ancient Chinese calligraphy works on steles
Zhang et al. Coarse-to-fine multiscale fusion network for single image deraining
Tian et al. A modeling method for face image deblurring
Fan et al. Bidirectional image denoising with blurred image feature
Ranjitha et al. High Density Impulse Noise Removal and Edge Detection in SAR Images Based on DWT-SVM-NN Technique
Daurenbekov et al. Noisy image enhancements using deep learning techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant