CN114549361A - 一种基于改进U-Net模型的去图像运动模糊方法 - Google Patents

一种基于改进U-Net模型的去图像运动模糊方法 Download PDF

Info

Publication number
CN114549361A
CN114549361A CN202210183370.8A CN202210183370A CN114549361A CN 114549361 A CN114549361 A CN 114549361A CN 202210183370 A CN202210183370 A CN 202210183370A CN 114549361 A CN114549361 A CN 114549361A
Authority
CN
China
Prior art keywords
convolution
channel
image
depth separable
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210183370.8A
Other languages
English (en)
Other versions
CN114549361B (zh
Inventor
廉佐政
王海珍
崔连和
张光妲
朱文龙
刘佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qiqihar University
Original Assignee
Qiqihar University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qiqihar University filed Critical Qiqihar University
Priority to CN202210183370.8A priority Critical patent/CN114549361B/zh
Publication of CN114549361A publication Critical patent/CN114549361A/zh
Application granted granted Critical
Publication of CN114549361B publication Critical patent/CN114549361B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及图像去运动模糊技术领域,具体涉及一种基于改进U‑Net模型的去图像运动模糊方法,所述改进U‑Net模型由深度可分离卷积、深度可分离残差卷积、哈尔小波变换、哈尔小波逆变换、密集多接受域通道模块组成,网络中的卷积核为3×3,激活函数为Leaky ReLU。使用深度可分离卷积和残差卷积代替标准卷积,减少模型计算量和参数。本发明的峰值信噪比和结构相似度值较高,不仅可以显著减少模型的参数,而且减少了模型恢复的清晰图像运行时间,同时去模糊的图像取得良好得效果。

Description

一种基于改进U-Net模型的去图像运动模糊方法
技术领域
本发明涉及图像去运动模糊技术领域,具体涉及一种基于改进U-Net模型的去图像运动模糊方法。
背景技术
目前,在数字图像获取过程中,会存在图像运动模糊。如获取遥感图像时,成像时间内由于卫星平台的震颤、卫星运动及姿态变化、地球自转、成像目标运动等原因,获取的图像存在运动模糊。在天文探测、无人驾驶等应用场景,存在成像设备抖动、散焦、噪声等问题,获取的图像也会存在运动模糊。这些模糊图像不仅在主观影响视觉体验,而且影响了分类、目标检测等后续的视觉任务。因此,图像去运动模糊是计算机视觉中的一个关键问题。
现有的传统去模糊方法大多采用正则化和手工制作图像先估计模糊核,再用迭代优化的方式逐步恢复清晰图片,涉及到复杂模糊核的估计,去模糊的过程繁琐,实时性差,算法的性能也不高。随着深度学习快速发展,基于深度学习的图像去模糊方法已逐步得到应用。毛勇等提出一种基于生成对抗网络的车牌去运动模糊算法,并通过实验证明能够有效去除合成运动模糊图像和真实场景下运动模糊图像中存在的运动模糊。董星煜等提出了一种基于U-Net模型的神经网络框架,将融合的运动信息输入网络,并给定每一像素点不同的运动约束,经过网络的编码器与解码器结构,得到每一像素点的预测值,实现端对端的方式直接获得复原图像。Kupyn等用生成对抗网络的特征金子塔模型来去除运动图像模糊,为去模糊提供了一个新的概念方法。罗琪彬等提出双框架生成对抗网络,在原有CycleGan基础上改进了其网络结构和损失函数,提高了运动图像盲去除的精度,并且在样本有限情况下大幅度增强了网络的稳定性。Wang等针对肺弥散加权磁共振成像过程中,由于呼吸和心脏运动、血流和肺迟滞导致的图像模糊,提出了一种基于低秩分解的运动校正和去噪方法,利用时空连续性序列来减少图像模糊。Zeng等采用了密集网络来进行图像的去模糊,可以避免梯度消失问题,但网络的接受域较小,不能获取更多的图像信息。Purohit等提出了一种由自适应密集区域可变形模块组成的新结构,该模块可以发现导致输入图像中非均匀模糊的空间变化位移,并通过学习调整滤波器,并补充注意力模块,捕获中间特征之间的非局部空间关系,以增强空间变化的处理能力,从而实现近乎实时的图像去运动模糊。
近年来,U-Net变体也被用于其他图像处理领域。Zhang等结合特定领域的知识,设计了基于注意力的Tri-UNet,包括特征提取、特征融合和图像重建,以生成高质量高分辨率多光谱图像。Chen等提出了一种新的基于学习的方法,使用空间动态编码器-解码器网络HDRUNet,可以学习端到端映射,用于单图像高动态范围重建,并进行去噪和去量化。Zang等提出了一种新的级联密集U-Net网结构,以充分利用所有分层特征实现单图像超分辨率。在每一个密集的网络区中,许多短而密集的跳跃路径可以促进信息流动,整合不同的感受野。Guan等提出了一种改进的全密度U-Net网络,用于从稀疏数据重建的二维光声层析成像图像中去除伪影,并在重建图像质量方面与标准U-Net网络进行比较。Alimjan等基于多特征注意力融合机制的U-Net,提出遥感图像变化检测算法,该算法在U-Net的编码器和解码器之间添加了多特征注意力机制,以获得更丰富的上下文依赖性。但这些方法多是不断叠加普通卷积层或增大卷积核大小来增加感受野,增加了网络的计算负担。
发明内容
为解决上述问题,本发明提供了一种基于改进U-Net模型的去图像运动模糊方法,可以实现端到端的图像去模糊,降低了模型训练的难度和图像信息的丢失,提高了图像恢复质量,减少了信息重用,增加了图像的接收范围,获得了良好的视觉效果。
为实现上述目的,本发明采取的技术方案为:
一种基于改进U-Net模型的去图像运动模糊方法,所述改进U-Net模型的网络中的卷积核为3×3,激活函数为Leaky ReLU;其编码器通过以下4个阶段操作实现图像的信息提取:第一阶段用一个32通道深度可分离卷积和三个32通道深度可分离残差卷积;第二阶段用哈尔小波变换、一个64通道深度可分离卷积和三个64通道深度可分离残差卷积;第三阶段用哈尔小波变换、一个128通道深度可分离卷积和三个128通道深度可分离残差卷积;第四阶段用哈尔小波变换、一个256通道深度可分离卷积和两个256通道深度可分离残差卷积,以及密集多接受域通道模块;其解码器通过以下4个阶段的操作实现图像的信息处理:第一阶段用两个256通道深度可分离残差卷积和一个512通道深度可分离卷积,以及哈尔小波逆变换;第二阶段与编码器第三阶段的输出通过跳跃连接进行特征融合,用了三个128通道深度可分离残差卷积和一个256通道深度可分离卷积,以及小波逆变换;第三阶段与编码器第二阶段的输出通过跳跃连接进行特征融合,用了三个64通道深度可分离残差卷积和一个128通道深度可分离卷积,以及小波逆变换;第四阶段层与编码器第一阶段的输出通过跳跃连接进行特征融合,用了三个32通道深度可分离残差卷积和一个3通道深度可分离卷积,将特征图恢复到原始分辨率,最后在于输入数据进行融合后,得到恢复结果。
进一步地,所述的深度可分离卷积由逐通道卷积和逐点卷积组成,逐通道卷积用于将上一层的多通道特征全部拆分为单个通道的特征图,并将所得的单个通道的特征图分别用3×3卷积核进行卷积,然后重新堆叠到一起;逐点卷积用于将逐通道卷积得到的特征图进行第二次卷积,使用1×1卷积核,将逐通道卷积结果进行融合,并自由改变输出通道数量。
进一步地,所述的深度可分离残差卷积根据残差卷积,采用两个深度可分离卷积,添加跳跃连接,直接把输入x传到输出作为初始结果,训练目标是将残差结果逼近于0。
进一步地,所述的改进U-Net模型采用小波变换对原始图像进行分解,然后采小波逆变换进行重建,具体的,所述的哈尔小波变换采用二维离散哈尔小波,具体的,设一维高通滤波器用
Figure BDA0003522530900000046
表示,一维低通滤波器用ψ(·)表示,小波变换过程如下:先用
Figure BDA0003522530900000047
对图像的行进行操作、对列下采样,再分别用
Figure BDA0003522530900000041
和ψ(·)对图像的列进行操作、对行下采样,得到IHH和IHL子频信息;然后用ψ(·)对图像的行进行操作、对列下采样,再用ψ(·)和
Figure BDA0003522530900000042
对图像的列进行滤波、水平下采样,得到ILL和ILH子频信息,得到的四个子频信息如式(1)-(4)所示:
Figure BDA0003522530900000043
Figure BDA0003522530900000044
Figure BDA0003522530900000045
ILL(x,y)=ψ(x)ψ(y) (4)
式(1)-(4)中,x和y表示图像信息的行和列。IHL表示图像的水平高频、垂直低频信息;IHH表示图像的水平、垂直的高频信息;ILL表示图像的水平、垂直的低频信息;ILH表示图像水平低频、垂直高频信息。
然后,将这些信息经过小波逆变换进行融合,最终重构图像。
进一步地,所述的密集多接受域通道模块由四个多接受域通道块和一个瓶颈层组成,用式(5)表示:
Xout=G{(Hi[x0,x1,...,xi-1]);ε} (5)
式中,[x0,x1,...,xi-1]表示串联0,…,i-1层的混合接受域块所产生的特征图;Hi表示将多个输入张量转化为单个张量;G(·)表示瓶颈层的输出,ε为瓶颈层的超参数,瓶颈层采用的滤波器大小为1×1。
进一步地,多接受域通道块由扩张接受域块和通道注意力模块组合而成,用式(6)-(7)表示。
Figure BDA0003522530900000051
Figure BDA0003522530900000052
其中,w是卷积层,上标代表扩张卷积大小,下表为卷积核大小,LK代表Leaky ReLU激活函数,cat代表连接操作,C表示融合特征,
Figure BDA0003522530900000053
为Sigmoid激活函数,Out为多接受域通道块的输出。
上述方案中,采用深度可分离卷积代替普通卷积,深度可分离残差卷积代替残差卷积,来减少U-Net模型的参数数量。利用小波变换代替U-Net模型中下采样,用小波逆变换代替U-Net型的上采样,通过小波变换得到不同频率图像的信息,获得更多图像细节信息,同时降低计算的复杂度。为了在小波变换后重建高质量图像,采用了密集多接受域通道模块,用密集连接的方式连接多接受域通道块,减少了多接受域通道块参数,加强了特征的传递。多接受域通道块可以提取深层次特征,用通道注意力模块选择重要的通道和特征。通过实验表明,本发明的方法不仅可以显著减少模型的参数,而且减少了模型恢复的清晰图像运行时间,同时去模糊的图像取得良好得效果。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中的改进U-Net模型
图2为本发明实施例中的深度可分离卷积结构
图3为本发明实施例中的深度可分离残差卷积
图4为本发明实施例中的哈尔小波变换及其逆变换
图5为本发明实施例中的密集多接受域通道模块
图6为本发明实施例中的多接收域通道块
图7为可视化对比;
图中:(a)模糊图像;(b)文献[1]去模糊图像处理后;(c)文献[2]去模糊图像处理后;(d)文献[5]去模糊图像处理后;(e)文献[6]去模糊图像处理后;(f)本发明去模糊图像处理后。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明设计的模型结构图如图1所示,该模型基于U-Net网络结构,由深度可分离卷积、深度可分离残差卷积、哈尔小波变换、哈尔小波逆变换、密集多接受域通道模块组成,网络中的卷积核为3×3,激活函数为Leaky ReLU。
如图1所示,本发明的模型包括两个部分,第一部分为左半部,即编码器,第二部分为右半部,即解码器。编码器通过以下4个阶段操作实现图像的信息提取:第一阶段用一个32通道深度可分离卷积和三个32通道深度可分离残差卷积;第二阶段用哈尔小波变换、一个64通道深度可分离卷积和三个64通道深度可分离残差卷积;第三阶段用哈尔小波变换、一个128通道深度可分离卷积和三个128通道深度可分离残差卷积;第四阶段用哈尔小波变换、一个256通道深度可分离卷积和两个256通道深度可分离残差卷积,以及密集多接受域通道模块。解码器也实现4个阶段的操作,第一阶段用两个256通道深度可分离残差卷积和一个512通道深度可分离卷积,以及哈尔小波逆变换;第二阶段与编码器第三阶段的输出通过跳跃连接进行特征融合,用了三个128通道深度可分离残差卷积和一个256通道深度可分离卷积,以及小波逆变换;第三阶段与编码器第二阶段的输出通过跳跃连接进行特征融合,用了三个64通道深度可分离残差卷积和一个128通道深度可分离卷积,以及小波逆变换;第四阶段层与编码器第一阶段的输出通过跳跃连接进行特征融合,用了三个32通道深度可分离残差卷积和一个3通道深度可分离卷积,将特征图恢复到原始分辨率。最后在于输入数据进行融合后,得到恢复结果。
深度可分离卷积
本发明的深度可分离卷积结构如图2所示,它由两部分组成,分别是逐通道卷积和逐点卷积。逐通道卷积首先将上一层的多通道特征全部拆分为单个通道的特征图,再分别用3×3卷积核对他们进行卷积,然后重新堆叠到一起,即对上一层的特征图调整了尺寸,而通道数不变。逐点卷积将逐通道卷积得到的特征图进行第二次卷积,使用1×1卷积核,将逐通道卷积结果进行融合,并自由改变输出通道数量。
深度可分离残差卷积
本发明的深度可分离残差卷积结构如图3所示。深度可分离残差卷积是根据残差卷积,采用两个深度可分离卷积,添加跳跃连接。直接把输入x传到输出作为初始结果,训练目标是将残差结果逼近于0,使得随着网络加深,准确率不下降,并减少了网络模型的参数。
哈尔小波变换及其逆变换
由于哈尔小波是小波变换最易于实现、操作简单的小波基函数,因此本发明用二维离散哈尔小波进行小波变换操作。设一维高通滤波器用
Figure BDA0003522530900000071
表示,一维低通滤波器用ψ(·)表示,小波变换过程如下:先用
Figure BDA0003522530900000072
对图像的行进行操作、对列下采样,再分别用
Figure BDA0003522530900000073
和ψ(·)对图像的列进行操作、对行下采样,得到IHH和IHL子频信息;然后用ψ(·)对图像的行进行操作、对列下采样,再用ψ(·)和
Figure BDA0003522530900000074
对图像的列进行滤波、水平下采样,得到ILL和ILH子频信息。得到的四个子频信息如式(1)-(4)所示。
Figure BDA0003522530900000075
Figure BDA0003522530900000076
Figure BDA0003522530900000077
ILL(x,y)=ψ(x)ψ(y) (4)
式(1)-(4)中,x和y表示图像信息的行和列。IHL表示图像的水平高频、垂直低频信息;IHH表示图像的水平、垂直的高频信息;ILL表示图像的水平、垂直的低频信息;ILH表示图像水平低频、垂直高频信息。将这些信息经过小波逆变换进行融合,最终重构图像,如图4所示。使用小波变换对原始图像进行分解,然后采小波逆变换进行重建,不会造成图像信息的丢失,且会生成更多的高频信息。如果需要进行多次小波变换时,可以再对IHL、IHH、ILH、ILL进行进一步的处理,得到多次小波变换结果。
密集多接受域通道模块
为提取图像的深层语义信息,提高图像去模糊的性能,设计了密集多接受域模块,如图5所示,由四个多接受域通道块和一个瓶颈层组成,通过多接受域通道块来提取图像的语义特征,再用瓶颈层来减少特征输出的数量,来提高模型的紧凑性和计算效率。用密集连接的方式,来加强图像特征的传递,更加有效的利用图像特征。密集多接受域通道模块可用式(5)表示。
Xout=G{(Hi[x0,x1,...,xi-1]);ε} (5)
式(5)中[x0,x1,...,xi-1]表示串联0,…,i-1层的混合接受域块所产生的特征图;Hi表示将多个输入张量转化为单个张量;G(·)表示瓶颈层的输出,ε为瓶颈层的超参数,瓶颈层采用的滤波器大小为1×1。
密集多接受域模块所用到的多接受域通道块如图6所示,由扩张接受域块和通道注意力模块组合而成。在扩张接受域部分,为了增加特征提取的多样性,采用了4个特征提取分支,用了3×3的卷积核和扩张率分别为1、3、5、7。连接操作融合了4个分支的并行特征图。非线性特征通过在每个通道自适应地添加权重,每个通道的权重学习来自于CBAM中的通道注意力模块,利用平均池化特征来提高了网络的非线性表示能力,提高了去模糊的能力。多接受域通道块可以用式(6)-(7)表示。
Figure BDA0003522530900000081
Figure BDA0003522530900000091
其中,w是卷积层,上标代表扩张卷积大小,下表为卷积核大小。LK代表Leaky ReLU激活函数,cat代表连接操作,C表示融合特征,
Figure BDA0003522530900000092
为Sigmoid激活函数,Out为多接受域通道块的输出。
实验与分析
数据集
本发明使用了GOPRO数据集来训练本发明的模型,它由3214模糊清晰图像对组成,包含了22个不同的场景。选用2103对图像作为训练集,1111对图像作为测试集。为了提高模型的泛化能力,对训练集进行数据增强操作,分别采用随机旋转,随机左右、上下翻转,高斯噪声,旋转角度为90°,180°,270°,噪声均值为0,方差为0.0001。
2.2损失函数设计
为防止模型过拟合,将训练集图像随机裁剪到256×256像素大小。将训练周期设为4000轮,初始学习率设为1e-4,每1000轮进行减半。网络优化方法使用Adam,参数β1=0.9,β2=0.999。使用PyTorch深度学习框架搭建去模糊网络,并使用GTX 2080 GPU。
图像去模糊采用均方误差(MSE)损失作为常用指标,通过使用欧式距离来测量预测值与实际值之间的差值,如式(8)所示。为获得图像边缘细节信息,使用了SSIM损失函数,如式(9)所示。因此,本发明最终损失函数Ltotal由两部分组成,表示如下
LMSE=||R-S||2 (8)
LSSIM=1-SSIM(R,S) (9)
式(8)-(9)中R表示去模糊的图像,S表示为清晰图像,SSIM表示通过结构相似度来计算。最终我们通过结合MSE和SSIM损失函数对网络进行训练。因此,设计的损失函数如式(10)所示,w1为权衡参数,设为0.001。
Ltotal=LMSE+w1LSSIM (10)
2.3定量评价
使用峰值信噪比(PSNR)和结构相似度来(SSIM)作为定量评价指标,它们的值越大,代表图像的质量就越好,她们表示如下:
Figure BDA0003522530900000101
Figure BDA0003522530900000102
其中,MAX是图像的最大值为255,RMSE是指恢复的清晰图像和模糊图像均方根误差。μx、μy是图像x、y的均值,
Figure BDA0003522530900000103
是图像x、y的方差,σxy是x和y的协方差,c1和c2是避免除以零的小常数。
表1显示了在GOPRO测试数据集上的平均PSNR和平均SSIM与其他方法的进行了定量比较。通过比较发现,本发明方法在PSNR和SSIM方面优于其他方法,比文献[6]的PSNR高0.89,SSIM高0.014。
表1各算法在数据集上的定量评估
Figure BDA0003522530900000104
表2显示在GOPRO测试数据集上所用的时间用Time表示;以及模型参数大小用Size表示。本发明比文献[3]和文献[6]的所需的时间更少,模型参数更小。
表2各算法在数据集上的运行时间和网络模型大小
Figure BDA0003522530900000105
视觉分析
在图7展示本发明方法与其他方法在GOPRO测试数据集上生成的可视化比较示例。文献[4]是通过CNN估计模糊核的方式实现去模糊,对比发现,文献[1]方法的有一定模糊效果,但存在伪影,无法恢复空间变异的模糊图像。文献[2]、文献[5]和文献[6]都是采用无核方法来去除图像模糊,它们都表现出了相对有限的接受域,虽然可以取得高质量的图像,但是在纹理细节的恢复方面有所欠缺。本发明提出的方法用小波变换保留图像细节信息,使用密集多接受域通道块学习图像非线性特征,与其他比较方法生成的细节和结构相比,本发明网络的去模糊能够保持清晰的纹理细节,效果更佳的明显,可以获得更高质量的视觉效果。
各模块的性能影响
为了验证各个模块的有效性,分别进行了三个模型实验来说明小波变换、密集多接受域通道模块本发明模型的影响。只包含深度可分离卷积、深度可分离残差卷积,图像上下采样用卷积的步长进行控制,5个深度可分离残差块代替密集多接受域块。Model2在Model1的基础上,用小波变换代替图像上、下采样。Model3进一步引入密集多接收域通道块,而Model3就是本发明的模型。它们的对比结果如表3所示。
表3不同模型的定量结果
Figure BDA0003522530900000111
由表3可知,在Model1模型下,图像评价指标PSNR为26.21dB,SSIM为0.871。Model2在引入小波变换后PSNR升到28.17dB,SSIM升到0.891。说明小波引入可以提升模型性能,原因在于小波变换可以得到四个方向的子频信息,可以学习更多图像细节信息。Model3在引入密集多接收域通道块,PSNR升至30.83dB,SSIM升到0.948。说明密集多接收域通道块有助于提高模型恢复的质量,原因在于减少信息重用、增大了图像接受域并通道注意力机制选取重要的通道信息。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
参考文献:
[1]Sun J,Cao W,Xu Z,et al.Learning a Convolutional Neural Network forNon-uniform Motion Blur Removal[C]//2015 IEEE Conference on Computer Visionand Pattern Recognition(CVPR).IEEE,2015.
[2]Zeng Tao,and Changyu Diao.“Single Image Motion Deblurring Based OnModified DenseNet.”2020 2nd International Conference on Machine Learning,BigData and Business Intelligence(MLBDBI),2020.
[3]Nah S,Kim T H,Lee K M.Deep Multi-scale Convolutional NeuralNetwork for Dynamic Scene Deblurring[C]//IEEE Computer Society.IEEE ComputerSociety,2016.
[4]Kupyn O,Budzan V,Mykhailych M,et al.DeblurGAN:Blind MotionDeblurring Using Conditional Adversarial Networks[C]//2018 IEEE/CVFConference on Computer Vision and Pattern Recognition(CVPR).IEEE,2018.
[5]Zhang J,Pan J,Ren J,et al.Dynamic Scene Deblurring Using SpatiallyVariant Recurrent Neural Networks[C]//2018 IEEE/CVF Conference on ComputerVision and Pattern Recognition(CVPR).IEEE,2018.
[6]Tao X,Gao H,WangY,et al.Scale-recurrent Network for Deep ImageDeblurring[C]//2018IEEE/CVF Conference on Computer Vision and PatternRecognition.IEEE,2018.

Claims (6)

1.一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:所述改进U-Net模型的网络中的卷积核为3×3,激活函数为Leaky ReLU;其编码器通过以下4个阶段操作实现图像的信息提取:第一阶段用一个32通道深度可分离卷积和三个32通道深度可分离残差卷积;第二阶段用哈尔小波变换、一个64通道深度可分离卷积和三个64通道深度可分离残差卷积;第三阶段用哈尔小波变换、一个128通道深度可分离卷积和三个128通道深度可分离残差卷积;第四阶段用哈尔小波变换、一个256通道深度可分离卷积和两个256通道深度可分离残差卷积,以及密集多接受域通道模块;其解码器通过以下4个阶段的操作实现图像的信息处理:第一阶段用两个256通道深度可分离残差卷积和一个512通道深度可分离卷积,以及哈尔小波逆变换;第二阶段与编码器第三阶段的输出通过跳跃连接进行特征融合,用了三个128通道深度可分离残差卷积和一个256通道深度可分离卷积,以及小波逆变换;第三阶段与编码器第二阶段的输出通过跳跃连接进行特征融合,用了三个64通道深度可分离残差卷积和一个128通道深度可分离卷积,以及小波逆变换;第四阶段层与编码器第一阶段的输出通过跳跃连接进行特征融合,用了三个32通道深度可分离残差卷积和一个3通道深度可分离卷积,将特征图恢复到原始分辨率,最后在于输入数据进行融合后,得到恢复结果。
2.如权利要求1所述的一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:所述的深度可分离卷积由逐通道卷积和逐点卷积组成,逐通道卷积用于将上一层的多通道特征全部拆分为单个通道的特征图,并将所得的单个通道的特征图分别用3×3卷积核进行卷积,然后重新堆叠到一起;逐点卷积用于将逐通道卷积得到的特征图进行第二次卷积,使用1×1卷积核,将逐通道卷积结果进行融合,并自由改变输出通道数量。
3.如权利要求1所述的一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:所述的深度可分离残差卷积根据残差卷积,采用两个深度可分离卷积,添加跳跃连接,直接把输入x传到输出作为初始结果,训练目标是将残差结果逼近于0。
4.如权利要求1所述的一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:所述的改进U-Net模型采用小波变换对原始图像进行分解,然后采小波逆变换进行重建,具体的,所述的哈尔小波变换采用二维离散哈尔小波,具体的,设一维高通滤波器用
Figure FDA0003522530890000021
表示,一维低通滤波器用ψ(·)表示,小波变换过程如下:先用
Figure FDA0003522530890000022
对图像的行进行操作、对列下采样,再分别用
Figure FDA0003522530890000023
和ψ(·)对图像的列进行操作、对行下采样,得到IHH和IHL子频信息;然后用ψ(·)对图像的行进行操作、对列下采样,再用ψ(·)和
Figure FDA0003522530890000024
对图像的列进行滤波、水平下采样,得到ILL和ILH子频信息,得到的四个子频信息如式(1)-(4)所示:
Figure FDA0003522530890000025
Figure FDA0003522530890000026
Figure FDA0003522530890000027
ILL(x,y)=ψ(x)ψ(y) (4)
式(1)-(4)中,x和y表示图像信息的行和列。IHL表示图像的水平高频、垂直低频信息;IHH表示图像的水平、垂直的高频信息;ILL表示图像的水平、垂直的低频信息;ILH表示图像水平低频、垂直高频信息。
然后,将这些信息经过小波逆变换进行融合,最终重构图像。
5.如权利要求1所述的一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:所述的密集多接受域通道模块由四个多接受域通道块和一个瓶颈层组成,用式(5)表示:
Xout=G{(Hi[x0,x1,…,xi-1]);ε} (5)
式中,[x0,x1,…,xi-1]表示串联0,…,i-1层的混合接受域块所产生的特征图;Hi表示将多个输入张量转化为单个张量;G(·)表示瓶颈层的输出,ε为瓶颈层的超参数,瓶颈层采用的滤波器大小为1×1。
6.如权利要求5所述的一种基于改进U-Net模型的去图像运动模糊方法,其特征在于:多接受域通道块由扩张接受域块和通道注意力模块组合而成,用式(6)-(7)表示。
Figure FDA0003522530890000031
Figure FDA0003522530890000032
其中,w是卷积层,上标代表扩张卷积大小,下表为卷积核大小,LK代表Leaky ReLU激活函数,cat代表连接操作,C表示融合特征,
Figure FDA0003522530890000033
为Sigmoid激活函数,Out为多接受域通道块的输出。
CN202210183370.8A 2022-02-28 2022-02-28 一种基于改进U-Net模型的去图像运动模糊方法 Active CN114549361B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210183370.8A CN114549361B (zh) 2022-02-28 2022-02-28 一种基于改进U-Net模型的去图像运动模糊方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210183370.8A CN114549361B (zh) 2022-02-28 2022-02-28 一种基于改进U-Net模型的去图像运动模糊方法

Publications (2)

Publication Number Publication Date
CN114549361A true CN114549361A (zh) 2022-05-27
CN114549361B CN114549361B (zh) 2023-06-30

Family

ID=81678586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210183370.8A Active CN114549361B (zh) 2022-02-28 2022-02-28 一种基于改进U-Net模型的去图像运动模糊方法

Country Status (1)

Country Link
CN (1) CN114549361B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051408A (zh) * 2023-01-06 2023-05-02 郑州轻工业大学 一种基于残差自编码的图像深度去噪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416752A (zh) * 2018-03-12 2018-08-17 中山大学 一种基于生成式对抗网络进行图像去运动模糊的方法
CN110782399A (zh) * 2019-08-22 2020-02-11 天津大学 一种基于多任务cnn的图像去模糊方法
CN111028177A (zh) * 2019-12-12 2020-04-17 武汉大学 一种基于边缘的深度学习图像去运动模糊方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
US20210166350A1 (en) * 2018-07-17 2021-06-03 Xi'an Jiaotong University Fusion network-based method for image super-resolution and non-uniform motion deblurring
US20210272248A1 (en) * 2020-03-02 2021-09-02 GM Global Technology Operations LLC Systems and methods for training a non-blind image deblurring module

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416752A (zh) * 2018-03-12 2018-08-17 中山大学 一种基于生成式对抗网络进行图像去运动模糊的方法
US20210166350A1 (en) * 2018-07-17 2021-06-03 Xi'an Jiaotong University Fusion network-based method for image super-resolution and non-uniform motion deblurring
CN110782399A (zh) * 2019-08-22 2020-02-11 天津大学 一种基于多任务cnn的图像去模糊方法
CN111028177A (zh) * 2019-12-12 2020-04-17 武汉大学 一种基于边缘的深度学习图像去运动模糊方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
US20210272248A1 (en) * 2020-03-02 2021-09-02 GM Global Technology Operations LLC Systems and methods for training a non-blind image deblurring module

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王晓红;卢辉;黄中秋;麻祥才;: "基于颜色空间变换和CNN的自适应去模糊方法", no. 07 *
郭业才;朱文军;: "基于深度卷积神经网络的运动模糊去除算法", no. 03 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051408A (zh) * 2023-01-06 2023-05-02 郑州轻工业大学 一种基于残差自编码的图像深度去噪方法
CN116051408B (zh) * 2023-01-06 2023-10-27 郑州轻工业大学 一种基于残差自编码的图像深度去噪方法

Also Published As

Publication number Publication date
CN114549361B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN110969577B (zh) 一种基于深度双重注意力网络的视频超分辨率重建方法
CN111539879B (zh) 基于深度学习的视频盲去噪方法及装置
CN109360156B (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及系统
Huang et al. WINNet: Wavelet-inspired invertible network for image denoising
CN111091503B (zh) 基于深度学习的图像去失焦模糊方法
CN111199521B (zh) 嵌入傅立叶聚合的视频去模糊三维卷积深度网络方法
Min et al. Blind deblurring via a novel recursive deep CNN improved by wavelet transform
CN113284051A (zh) 一种基于频率分解多注意力机制的人脸超分辨方法
CN112270646B (zh) 基于残差密集跳跃网络的超分辨增强方法
Liu et al. Single image super resolution techniques based on deep learning: Status, applications and future directions
CN115345791A (zh) 一种基于注意力机制残差网络模型的红外图像去模糊算法
Chen et al. Image denoising via deep network based on edge enhancement
López-Tapia et al. Deep learning approaches to inverse problems in imaging: Past, present and future
CN116029902A (zh) 一种基于知识蒸馏的无监督真实世界图像超分辨方法
CN114549361B (zh) 一种基于改进U-Net模型的去图像运动模糊方法
Zhang et al. Generative adversarial network for deblurring of remote sensing image
Dharejo et al. SwinWave-SR: Multi-scale lightweight underwater image super-resolution
Wen et al. The power of complementary regularizers: Image recovery via transform learning and low-rank modeling
Wu et al. Dcanet: Dual convolutional neural network with attention for image blind denoising
Zhang et al. Learning temporal-ordered representation for spike streams based on discrete wavelet transforms
Shin et al. LoGSRN: Deep super resolution network for digital elevation model
CN115861749A (zh) 一种基于窗口交叉注意力的遥感图像融合方法
CN110648291B (zh) 一种基于深度学习的无人机运动模糊图像的复原方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant