CN112053306A - 基于深度多块网络的图像去模糊方法 - Google Patents
基于深度多块网络的图像去模糊方法 Download PDFInfo
- Publication number
- CN112053306A CN112053306A CN202011077611.8A CN202011077611A CN112053306A CN 112053306 A CN112053306 A CN 112053306A CN 202011077611 A CN202011077611 A CN 202011077611A CN 112053306 A CN112053306 A CN 112053306A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- sub
- level
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000007246 mechanism Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 10
- 238000012545 processing Methods 0.000 abstract description 5
- 238000003384 imaging method Methods 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000359496 Kaistibacter Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
基于深度多块网络的图像去模糊方法,它属于图像去模糊处理技术领域。本发明解决了现有图像去模糊方法的去模糊性能差的问题。本发明在解决了光照、相机抖动、成像设备运动等引起的运动模糊问题的同时,还提出了一种权重选择共享机制以减少网络的参数量。本发明提出的基于深度多块网络的图像去模糊方法可以有效地复原图像细节,提升去模糊性能,同时消除模糊图像对定位精度的影响。本发明提出的基于深度多块网络的图像去模糊方法仅需要10ms来处理一幅1280×720分辨率的图像,能够满足视觉室内定位的实时性需求。本发明可以应用于对图像的去模糊处理。
Description
技术领域
本发明属于图像去模糊技术领域,具体涉及一种基于深度多块网络的图像去模糊方法。
背景技术
近年来,随着数字图像处理技术的迅猛发展,图像去模糊问题成为图像处理和计算机视觉领域的热点和难点问题。成像系统的局限性、环境的复杂性和非配合性等诸多因素都会导致获取的图像为有强噪声、低品质和失真等特性的退化图像。图像模糊是一种典型的图像退化形式,光照、相机抖动、成像设备运动等因素都会造成图像产生模糊。研究图像的去模糊问题,从人眼视觉的角度来说将有助于提升图像的视觉质量;从实际应用的角度来说将有助于改善视觉应用的鲁棒性,因此具有重要的实际应用价值。
传统估计模糊核的图像去模糊方法,需估计出每个像素值的模糊核。然而,对于每个像素值找出相对应的模糊核是一个严重的不适定问题。同时,基于估计的模糊核,并通过传统的反卷积获得去模糊图像的这种方法通常出现对模糊核的错误估计。模糊核的错误估计会直接影响去模糊图像的质量,产生振铃、颜色畸变效应。同时,现有的算法都难以准确地对模糊核进行估计。因此,现有方法的去模糊性能较差,对于图像的去模糊研究,还有很长的路要走,存在很多急需解决的问题。
发明内容
本发明的目的是为解决现有图像去模糊方法的去模糊性能差的问题,而提出了一种基于深度多块网络的图像去模糊方法。
本发明为解决上述技术问题采取的技术方案是:一种基于深度多块网络的图像去模糊方法,该方法包括以下步骤:
构建深度多块网络,所述深度多块网络包括第1级子网络、第2级子网络和第3级子网络;
且每级子网络均包括输入层、编码器、解码器和输出层;
采集模糊图像,利用采集的模糊图像对深度多块网络进行训练,即将采集的模糊图像依次输入深度多块网络的第3级子网络,再通过第1级子网络输出对应的去模糊图像;
直至深度多块网络的损失函数不再减小时停止训练,获得训练好的深度多块网络;将待处理的模糊图像输入训练好的深度多块网络后,输出去模糊图像。
本发明的有益效果是:本发明提出了一种基于深度多块网络的图像去模糊方法,本发明解决了光照、相机抖动、成像设备运动等引起的运动模糊问题。同时,本发明还提出了一种权重选择共享机制以减少网络的参数量。本发明提出的基于深度多块网络的图像去模糊方法可以有效地复原图像细节,提升去模糊性能,同时消除模糊图像对定位精度的影响。此外,本发明提出的基于深度多块网络的图像去模糊方法仅需要10ms来处理一幅1280×720分辨率的图像,能够满足视觉室内定位的实时性需求。
附图说明
图1为本发明的深度多块网络的整体架构图;
图2为本发明的权重选择共享机制的示意图;
图3为原始模糊图像;
图4a)为从原始模糊图像中截取出的子图1;
图4b)为从原始模糊图像中截取出的子图2;
图5a)为采用对比算法1获得的子图1对应的去模糊图像;
图5b)为采用对比算法1获得的子图2对应的去模糊图像;
图6a)为采用对比算法2获得的子图1对应的去模糊图像;
图6b)为采用对比算法2获得的子图2对应的去模糊图像;
图7a)为采用本发明方法获得的子图1对应的去模糊图像;
图7b)为采用本发明方法获得的子图2对应的去模糊图像。
图8为采用本发明方法获得的去模糊图像与直接采用模糊图像应用于视觉室内定位时的定位精度对比图。
具体实施方式
具体实施方式一:本实施方式所述的基于深度多块网络的图像去模糊方法,该方法具体通过以下步骤实现:
构建深度多块网络,所述深度多块网络包括第1级子网络、第2级子网络和第3级子网络;
且每级子网络均包括输入层、编码器、解码器和输出层;
采集模糊图像,利用采集的模糊图像对深度多块网络进行训练,即将采集的模糊图像依次输入深度多块网络的第3级子网络,再通过第1级子网络输出对应的去模糊图像;
直至深度多块网络的损失函数不再减小时停止训练,获得训练好的深度多块网络;将待处理的模糊图像输入训练好的深度多块网络后,输出去模糊图像。
具体实施方式二:结合图1说明本实施方式。本实施方式与具体实施方式一不同的是:所述将采集的模糊图像依次输入深度多块网络的第3级子网络,再通过第1级子网络输出对应的去模糊图像,其具体过程为:
对于采集到的一幅模糊图像B,将模糊图像B均匀分割成4个不重叠的模糊图像块B3,j,j=1,...,4,将模糊图像块B3,j,j=1,...,4作为第3级子网络的输入图像B3,模糊图像块B3,j输入深度多块网络的第3级子网络后,第3级子网络的编码器E3产生卷积特征;
C3,j=E3(B3,j),j∈{1,...,4} (1)
其中,C3,j表示第3级子网络中的模糊图像块经过第3级子网络的编码器产生的卷积特征;
将模糊图像B均匀分割成2个不重叠的模糊图像块B2,j′,将模糊图像块B2,j′,j′=1,2作为输入图像B2,将B2,j′与S3,j′相加作为第2级子网络的输入,将第2级子网络的编码器E2的输出与相加产生卷积特征C2,j′;
其中,E2(B2,j′+S3,j′)代表第2级子网络的编码器E2的输出;
其中,E1(B1+S2)代表第1级子网络的编码器E1的输出;
将卷积特征C1作为第1级子网络的解码器D1的输入,解码器D1产生的去模糊图像为S1;
S1=D1(C1) (8)
本发明所提出的深度多块网络的整体架构如图1所示。该网络共分为3个等级,并通过将开始输入的模糊图像B划分为多个不重叠的块来生成每个级别的输入。较低级别的编码器和解码器的输出将被添加到较高级别(高于一个级别),以便高层级别包含低层级别推断出的所有信息。每个级别的输入和输出块的数量是不同的,因为本网络的主要思想是使较低级别的注意力集中在局部信息上,从而为较高级别生成残差信息(通过级联卷积特征获得)。
本发明提出的编码模块EBlock包含一个卷积层和几个残差块ResBlock。卷积层的步长为2,其将上一层的核数加倍,并将特征图下采样为原来的一半。以下每个ResBlock包含2个卷积层。此外,所有卷积层都具有相同数量的核。解码模块DBlock与EBlock对称,DBlock包含几个ResBlock和一个反卷积层。反卷积层的作用是将特征图的空间大小加倍,并将通道减半。
具体实施方式三:本实施方式与具体实施方式二不同的是:所述深度多块网络的损失函数L为:
其中,G表示去模糊图像S1所对应的真实清晰图像,(S1)w,h,c表示深度多块网络输出的去模糊图像的宽度为w、高度为h、通道数为c,Gw,h,c表示真实清晰图像的宽度为w、高度为h、通道数为c。
本实施方式中,将图像S1的宽度与图像G的宽度做差,求宽度差值的平方,将图像S1的高度与图像G的高度做差,求高度差值的平方,将图像S1的通道数与图像G的通道数做差,求通道数差值的平方,将宽度差值的平方、高度差值的平方与通道数差值的平方做和,将求和结果除以whc,作为损失函数。训练时,分别计算每幅模糊图像对应的损失函数值,直至输入模糊图像对应的损失函数值不再减小时停止训练,获得训练好的网络。
具体实施方式四:本实施方式与具体实施方式二不同的是:所述编码器E3、编码器E2和编码器E1均包括两个编码模块EBlock,其中,每个编码模块EBlock包含一个卷积层和两个残差块ResBlock。
具体实施方式五:本实施方式与具体实施方式二不同的是:所述解码器D3、解码器D2和解码器D1均包括两个解码模块DBlock,其中,每个解码模块DBlock包含两个残差块ResBlock和一个反卷积层。
所述编码器E3、编码器E2和编码器E1均包括两个编码模块EBlock,以及所述解码器D3、解码器D2和解码器D1均包括两个解码模块DBlock,这样做的目的是为了获得更多的图像特征同时更好地复原模糊图像细节。
具体实施方式六:本实施方式与具体实施方式四或五不同的是:所述残差块包含两个卷积层。
本发明的编码模块和解码模块只包含两个残差块ResBlock,且每个残差块只包含两个卷积层,这样做的目的是为了加快网络的收敛。
具体实施方式七:本实施方式与具体实施方式六不同的是:所述深度多块网络中所有层的激活函数均为整流线性单元。
具体实施方式八:本实施方式与具体实施方式七不同的是:所述第3级子网络的编码器与解码器对、第2级子网络的编码器与解码器对和第1级子网络的编码器与解码器对,三者之间采用权重选择共享机制。
实施例
本发明的基于深度多块网络的图像去模糊方法(DMPID)的具体处理过程如下:
DMPID的去模糊处理从最低级(第3级)开始。对于采集到的一幅模糊图像B,将模糊图像B均匀分割成4个不重叠的模糊图像块B3,j,j=1,...,4,将模糊图像块B3,j,j=1,...,4作为第3级子网络的输入图像B3,这4个不重叠的图像块B3,j,j=1,...,4被输入到第3级编码器E3以产生卷积特征C3,j,其被表示为:
C3,j=E3(B3,j),j∈{1,...,4} (1)
其中,C3,2j′-1和C3,2j′表示第3级中的任意两个相邻卷积特征,表示第3级中的相邻卷积特征级联起来获得的新卷积特征,⊕表示级联运算符。第3级获得的新卷积特征通过第3级解码器D3产生第3级的去模糊图像S3,j′:
接下来,本发明移到第2级。将模糊图像B均匀分割成2个不重叠的模糊图像块B2,j′,将模糊图像块B2,j′,j′=1,2作为输入图像B2,通过将第3级的去模糊图像S3,j′与第2级的模糊图像B2,j′相加来形成第2级编码器E2的输入。一旦第2级编码器E2的输出被生成后,本发明将其添加到第3级获得的新卷积特征
S1=D1(C1) (8)
此外,本发明提出了网络中所有级别的编码器/解码器对之间的权重选择共享机制,以保证图像去模糊性能的同时减少网络的参数量。本发明提出的权重选择共享机制如图2所示。在本发明提出的权重选择共享机制中,由于较低级别(第3级)主要用于获取局部信息,而在视觉室内定位系统中局部信息对于特征点的提取至关重要,因此该级别占有较大权重(0.5),其余两个级别共享剩余权重(各0.25)。
最后,本发明具体描述了网络模型参数的详细信息。本发明中的编码器/解码器网络包含1个InBlock、2个EBlock、2个DBlock和1个OutBlock,如图1所示。InBlock产生一个32-通道的特征图。OutBlock将先前的特征图作为输入并生成输出图像。每个EBlock/DBlock内所有卷积层的核数均相同。对于EBlock 1和EBlock 2,其内的核数分别为64和128。对于DBlock 1和DBlock 2,其内的核数分别为128和64。EBlock中的卷积层和DBlock中的反卷积层的步长为2,而其他所有都为1。整流线性单元(ReLU)被用作所有层的激活函数,并且所有核大小设置为5。
从根本上来说,本发明想要模型的输出恰好就是对应的去模糊图像,因此,DMPID模型的损失函数表示为:
其中,S1、G分别表示DMPID模型输出的去模糊图像和S1所对应的真实清晰图像,w、h、c分别表示DMPID模型输入图像的宽度、高度和通道数。(S1)w,h,c表示DMPID模型输出的具有宽度为w、高度为h和通道数为c的去模糊图像,Gw,h,c表示与DMPID模型输出的去模糊图像(S1)w,h,c相对应的具有宽度为w、高度为h和通道数为c的真实清晰图像。
仿真结果与性能分析
所有实验均在配备Quadro P4000 GPU和Intel Xeon Gold 5118 CPU的PC上执行和评估。同时,本发明的框架在TensorFlow平台上执行。为了训练本发明提出的深度多块网络,将图像随机裁剪为256×256像素大小。然后,本发明从裁剪的图像中提取块并将其转发到每个级别的输入。图像尺寸为1280×720。训练期间,批大小设置为6。Adam solver被用于训练本发明提出的模型,其默认设置为β1=0.9、β2=0.999和∈=10-8。初始学习率设置为0.0001,衰减率设置为0.1。所有可训练变量都使用Xavier方法初始化。同时,还采用GoPro数据库(S.Nah,T.Kim and K.Lee,“Deep multi-scale convolutional neural networkfor dynamic scene deblurring”,IEEE Conference on Computer Vision and PatternRecognition,Honolulu,HI,USA,November 2017,pp.3883-3891.)来评估DMPID的性能。GoPro数据库的描述如下:
GoPro数据库:GoPro数据库通过在GoPro拍摄的高速视频中累积视频帧来模仿生成模糊图像的过程。整个数据库包含3214对模糊和清晰的图像,其中训练集包含2103对,其余部分用作测试集。采用训练集训练DMPID模型并选择其余测试集比较不同去模糊方法的性能。
为了评估本发明提出的图像去模糊方法的性能,针对于峰值信噪比(Peak Signalto Noise Ratio,PSNR)和结构相似度(Structural Similarity,SSIM),将DMPID与其他图像去模糊方法进行比较。表1是不同方法的图像质量评价结果。
表1图像去模糊质量评价结果
从定量指标可以看出,DMPID在PSNR或SSIM方面优于其他方法。可以得出结论,本发明提出的DMPID在图像质量评估中取得了良好的效果。
此外,还将本发明提出的DMPID的性能与对比算法1(C.Min,G.Q.Wen,B.R.Li andF.F.Fan,“Blind deblurring via a novel recursive deep CNN improved by wavelettransform”,IEEE ACCESS,vol.6,pp.69242-69252,Nov.2018.)和对比算法2(S.Nah,S.Sonand K.M.Lee,“Recurrent neural networks with intra-frame iterations for videodeblurring”,IEEE Conference on Computer Vision and Pattern Recognition,LongBeach,CA,USA,June 2019,pp.8102-8111.)中的方法在主观视觉效果方面进行了比较,如图3所示为原始模糊图像,图4a)所示为从原始模糊图像中截取出的子图1,图4b)所示为从原始模糊图像中截取出的子图2。图5a)所示为采用对比算法1获得的子图1对应的去模糊图像,图5b)所示为采用对比算法1获得的子图2对应的去模糊图像。图6a)所示为采用对比算法2获得的子图1对应的去模糊图像,图6b)所示为采用对比算法2获得的子图2对应的去模糊图像,图7a)所示为采用本发明方法获得的子图1对应的去模糊图像,图7b)所示为采用本发明方法获得的子图2对应的去模糊图像。
可以注意到,对比算法1和对比算法2中的方法在尖锐边缘或模糊是非线性的区域去模糊效果不是很成功。可以得出结论,所提出的DMPID在主观视觉效果上具有较好的性能。
图8分析了去模糊算法对视觉室内定位精度的影响。除了不同类型的图像(去模糊和模糊)以外,其他所需的实验环境和实验条件都是相同的。从图8可以看出,通过使用去模糊算法可以显着提高定位精度。同时,DMPID仅需要10ms来处理1280×720分辨率的图像,可以满足视觉室内定位的实时性需求。
本发明中所涉及到的主要参数的含义如表2所示:
表2
本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (8)
1.基于深度多块网络的图像去模糊方法,其特征在于,该方法包括以下步骤:
构建深度多块网络,所述深度多块网络包括第1级子网络、第2级子网络和第3级子网络;
且每级子网络均包括输入层、编码器、解码器和输出层;
采集模糊图像,利用采集的模糊图像对深度多块网络进行训练,即将采集的模糊图像依次输入深度多块网络的第3级子网络,再通过第1级子网络输出对应的去模糊图像;
直至深度多块网络的损失函数不再减小时停止训练,获得训练好的深度多块网络;将待处理的模糊图像输入训练好的深度多块网络后,输出去模糊图像。
2.根据权利要求1所述的基于深度多块网络的图像去模糊方法,其特征在于,所述将采集的模糊图像依次输入深度多块网络的第3级子网络,再通过第1级子网络输出对应的去模糊图像,其具体过程为:
对于采集到的一幅模糊图像B,将模糊图像B均匀分割成4个不重叠的模糊图像块B3,j,j=1,...,4,将模糊图像块B3,j,j=1,...,4作为第3级子网络的输入图像B3,模糊图像块B3,j输入深度多块网络的第3级子网络后,第3级子网络的编码器E3产生卷积特征;
C3,j=E3(B3,j),j∈{1,...,4} (1)
其中,C3,j表示第3级子网络中的模糊图像块经过第3级子网络的编码器产生的卷积特征;
将模糊图像B均匀分割成2个不重叠的模糊图像块B2,j′,将模糊图像块B2,j′,j′=1,2作为输入图像B2,将B2,j′与S3,j′相加作为第2级子网络的输入,将第2级子网络的编码器E2的输出与相加产生卷积特征C2,j′;
其中,E2(B2,j′+S3,j′)代表第2级子网络的编码器E2的输出;
其中,E1(B1+S2)代表第1级子网络的编码器E1的输出;
将卷积特征C1作为第1级子网络的解码器D1的输入,解码器D1产生的去模糊图像为S1;
S1=D1(C1) (8)。
4.根据权利要求2所述的基于深度多块网络的图像去模糊方法,其特征在于,所述编码器E3、编码器E2和编码器E1均包括两个编码模块EBlock,其中,每个编码模块EBlock包含一个卷积层和两个残差块ResBlock。
5.根据权利要求2所述的基于深度多块网络的图像去模糊方法,其特征在于,所述解码器D3、解码器D2和解码器D1均包括两个解码模块DBlock,其中,每个解码模块DBlock包含两个残差块ResBlock和一个反卷积层。
6.根据权利要求4或5所述的基于深度多块网络的图像去模糊方法,其特征在于,所述残差块包含两个卷积层。
7.根据权利要求6所述的基于深度多块网络的图像去模糊方法,其特征在于,所述深度多块网络中所有层的激活函数均为整流线性单元。
8.根据权利要求7所述的基于深度多块网络的图像去模糊方法,其特征在于,所述第3级子网络的编码器与解码器对、第2级子网络的编码器与解码器对和第1级子网络的编码器与解码器对,三者之间采用权重选择共享机制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011077611.8A CN112053306A (zh) | 2020-10-10 | 2020-10-10 | 基于深度多块网络的图像去模糊方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011077611.8A CN112053306A (zh) | 2020-10-10 | 2020-10-10 | 基于深度多块网络的图像去模糊方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112053306A true CN112053306A (zh) | 2020-12-08 |
Family
ID=73606276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011077611.8A Pending CN112053306A (zh) | 2020-10-10 | 2020-10-10 | 基于深度多块网络的图像去模糊方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112053306A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119428A (zh) * | 2022-01-29 | 2022-03-01 | 深圳比特微电子科技有限公司 | 一种图像去模糊方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133923A (zh) * | 2017-03-02 | 2017-09-05 | 杭州电子科技大学 | 一种基于自适应梯度稀疏模型的模糊图像非盲去模糊方法 |
CN108921806A (zh) * | 2018-08-07 | 2018-11-30 | Oppo广东移动通信有限公司 | 一种图像处理方法、图像处理装置及终端设备 |
US20190164268A1 (en) * | 2017-11-27 | 2019-05-30 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
CN111314733A (zh) * | 2020-01-20 | 2020-06-19 | 北京百度网讯科技有限公司 | 用于评估视频清晰度的方法和装置 |
CN112801901A (zh) * | 2021-01-21 | 2021-05-14 | 北京交通大学 | 基于分块多尺度卷积神经网络的图像去模糊算法 |
-
2020
- 2020-10-10 CN CN202011077611.8A patent/CN112053306A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133923A (zh) * | 2017-03-02 | 2017-09-05 | 杭州电子科技大学 | 一种基于自适应梯度稀疏模型的模糊图像非盲去模糊方法 |
US20190164268A1 (en) * | 2017-11-27 | 2019-05-30 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
CN108921806A (zh) * | 2018-08-07 | 2018-11-30 | Oppo广东移动通信有限公司 | 一种图像处理方法、图像处理装置及终端设备 |
CN111314733A (zh) * | 2020-01-20 | 2020-06-19 | 北京百度网讯科技有限公司 | 用于评估视频清晰度的方法和装置 |
CN112801901A (zh) * | 2021-01-21 | 2021-05-14 | 北京交通大学 | 基于分块多尺度卷积神经网络的图像去模糊算法 |
Non-Patent Citations (2)
Title |
---|
HONGGUANG ZHANG等: "Deep Stacked Hierarchical Multi-Patch Network for Image Deblurring", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
马琳等: "Research on low energy consumption distributed fault detection mechanism in wireless sensor network", 《CHINA COMMUNICATIONS》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119428A (zh) * | 2022-01-29 | 2022-03-01 | 深圳比特微电子科技有限公司 | 一种图像去模糊方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109102462B (zh) | 一种基于深度学习的视频超分辨率重建方法 | |
CN108012157B (zh) | 用于视频编码分数像素插值的卷积神经网络的构建方法 | |
Chen et al. | A new journey from SDRTV to HDRTV | |
CN110751597B (zh) | 基于编码损伤修复的视频超分辨方法 | |
WO2017084258A1 (zh) | 编码过程中的实时视频降噪方法、终端和非易失性计算机可读存储介质 | |
CN108830812B (zh) | 一种基于网格结构深度学习的视频高帧率重制方法 | |
Göring et al. | nofu—a lightweight no-reference pixel based video quality model for gaming content | |
Kim et al. | Multiple level feature-based universal blind image quality assessment model | |
Chen et al. | Compressed domain deep video super-resolution | |
CN111031315B (zh) | 基于注意力机制和时间依赖性的压缩视频质量增强方法 | |
Meng et al. | Mganet: A robust model for quality enhancement of compressed video | |
DE112009004282T5 (de) | Techniken zur Bewegungsschätzung | |
DE102019218316A1 (de) | 3d-renderer-zu-videocodierer-pipeline für verbesserte visuelle qualität und geringe latenz | |
CN112489056A (zh) | 一种适用于移动端的实时人体抠图方法 | |
CN114862698A (zh) | 一种基于通道引导的真实过曝光图像校正方法与装置 | |
CN116542889A (zh) | 一种拥有稳定视点的全景视频增强方法 | |
Kim et al. | Towards the perceptual quality enhancement of low bit-rate compressed images | |
Lin et al. | Smnet: Synchronous multi-scale low light enhancement network with local and global concern | |
CN112053306A (zh) | 基于深度多块网络的图像去模糊方法 | |
GB2617555A (en) | Image processing method, apparatus, computer program and computer-readable data carrier | |
CN111524060B (zh) | 一种实时人像背景虚化的系统、方法、存储介质和设备 | |
Siddiqui et al. | Hierarchical color correction for camera cell phone images | |
Guan et al. | NODE: Extreme low light raw image denoising using a noise decomposition network | |
Cui et al. | Convolutional neural network-based post-filtering for compressed YUV420 images and video | |
CN114913095A (zh) | 基于域适应的深度去模糊方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |