CN114913095B - 基于域适应的深度去模糊方法 - Google Patents
基于域适应的深度去模糊方法 Download PDFInfo
- Publication number
- CN114913095B CN114913095B CN202210648027.6A CN202210648027A CN114913095B CN 114913095 B CN114913095 B CN 114913095B CN 202210648027 A CN202210648027 A CN 202210648027A CN 114913095 B CN114913095 B CN 114913095B
- Authority
- CN
- China
- Prior art keywords
- layer
- convolution
- image
- deblurring
- convolution kernel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000006978 adaptation Effects 0.000 title claims abstract description 19
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 25
- 238000006243 chemical reaction Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 36
- 230000004913 activation Effects 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 18
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000000137 annealing Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000012360 testing method Methods 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明提供了一种基于域适应的深度去模糊方法,结合一种基于密集残差块的图像去模糊模块和一种基于生成对抗网络的域转换模块,从真实及合成动态场景下模糊图像间域差异出发,在不增加内容对齐的图像对的前提下,提升图像去模糊网络在真实动态场景模糊图像上的适应能力,构建训练基于域适应的深度动态场景去模糊网络。本发明解决了深度图像去模糊方法在动态场景模糊图像上适应能力差的技术难题,在公开的GoPro数据集上的测试指标优于同类型的其他算法,提升了现有方法对动态场景下图像去模糊适应能力差的问题,对去模糊问题关心的图像边缘提取能力适应性更强,对各卷积层提取出的特征利用更充分,对残差连接获得的特征保留更完整。
Description
技术领域
本发明涉及数字图像处理技术领域,涉及一种图像去模糊的方法,具体是一种基于域适应的深度去模糊方法。
背景技术
图像去模糊技术在军事探测、医学成像、航空航天等领域具有重要的价值。在文献“X.Tao,H.Gao,X.Shen,et al.Scale-recurrent Network for Deep Image Deblurring[C].Proceedings of the IEEE Conference on Computer Vision and PatternRecognition,2018:8174–8182.”中,Tao等人在多尺度模型框架的下层建筑上,设计实现了基于递归模块的共享不同尺度参数的新型管道,即尺度迭代网络(Scale-recurrent DeepNetwork,简称SRNet,作者认为多尺度网络如果在多尺度间互相独立参数,每个尺度分支学习的参数会倾向于处理对应分辨率的图像,这可能会对最终分辨率复原效果造成影响。与文献“S.Nah,T.Hyun Kim,K.Mu Lee.Deep Multi-scale Convolutional Neural Networkfor Dynamic Scene Deblurring[C].Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,2017:3883–3891.”中Nah等人提出的管道结构不同的是,SRNet摒弃了Nah等人设计的不同尺度间独立参数的方法,而是采用了基于共享参数的管道,避免了各个尺度过拟合于当前的尺度,从而影响最终原始尺寸图像的复原性能的问题。尽管Tao等人的工作在去模糊效果上得到了不少提升,但是Tao等人和Nah等人的方法都基于合成模糊数据集GoPro进行训练(GoPro数据集中的模糊数据是由多张连续清晰帧叠加而来的),导致他们训练好的参数在真实模糊数据集上的泛化能力不足。
发明内容
为了克服现有技术的不足,本发明提供一种基于域适应的深度去模糊方法。本发明为解决现有基于卷积神经网络的去模糊方法对动态场景下模糊图像降质的去除效果不理想的问题,提出了一种基于域适应的深度动态场景图像去模糊方法。本发明同时结合一种基于密集残差块的图像去模糊模块和一种基于生成对抗网络的域转换模块,从真实及合成动态场景下模糊图像间域差异出发,在不增加内容对齐的图像对的前提下,提升图像去模糊网络在真实动态场景模糊图像上的适应能力。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:构建数据集;
从大量真实场景下拍摄的图像中,按照如下原则选取模糊图像:
(a)场景曝光正常(不能过曝或过弱)、涵盖多种场景(例如道路、餐厅、商业街、学校等)、多种被摄物体(例如人、车流、建筑、花草、灯光、汉字等)、多种拍摄设备(例如手机、单反、运动相机等);
(b)拍摄设备与被摄物体具有相对运动,例如设备静止,被摄物体运动,或设备运动,被摄物体静止,或设备和被摄物体均运动;
(c)拍摄设备不能对原始图像进行预处理,因此采用任意角度旋转、水平翻转或竖直翻转的方式将原始图像扩展为3214张图像,并从原始图像和扩展后的图像形成的每对图像中截取1280*720像素大小的区域,最终得到3214对1280*720像素大小图像的训练集;
步骤2:构建基于密集残差块的图像去模糊子网;
第1层为32个步长为1、卷积核大小为3的卷积层,第2层为激活函数层,激活函数选用LeakyReLU函数,第3层到第18层均为密集残差块,每个密集残差块中为4个步长为1、卷积核大小为3的卷积层以及4个LeakyReLU激活函数层(在负半轴的斜率为0.01)采用密集残差进行连接,分别称之为C1~C4,所谓密集残差连接指的是:C1的输入经过卷积层和激活函数层后分别输出到C2、C3和C4的输入处,C2的输入经过卷积层和激活函数层后分别输出到C3和C4的输入处,C3的输入经过卷积层和激活函数层后输出到C4的输入处;第19层为激活函数层,激活函数选用LeakyReLU函数,第20层为32个步长为1、卷积核大小为3的卷积层;将基于密集残差块的图像去模糊模块称为模块a;
步骤3:构建基于生成对抗网络的域转换子网的判别器;
判别器的第1层为64个步长为1、卷积核大小为3的卷积层,第2层为64个步长为2、卷积核大小为4的卷积层,第3层为128个步长为1、卷积核大小为3的卷积层,第4层为128个步长为2、卷积核大小为4的卷积层,第5层为256个步长为1、卷积核大小为3的卷积层,第6层为256个步长为2、卷积核大小为4的卷积层,第7层为512个步长为1、卷积核大小为3的卷积层,第8层为512个步长为2、卷积核大小为4的卷积层,第9层为512个步长为1、卷积核大小为3的卷积层,第10层为512个步长为2、卷积核大小为4的卷积层,第11层为输入是512*4*4、输出为100*1*1的全连接层,第12层为输入是100*1*1、输出是1*1*1的全连接层;将基于生成对抗网络的域转换模块的判别器称为模块b;
步骤4:构建基于生成对抗网络的域转换子网的生成器;
生成器的第1层为64个步长为1、卷积核大小为3的卷积层,第2层为128个步长为2、卷积核大小为3的卷积层,第3层为256个步长为2、卷积核大小为3的卷积层,第4层到第9层均为密集残差块,每个密集残差块中使用256个步长为1、卷积核大小为3的卷积层以及256个LeakyReLU激活函数层(在负半轴的斜率为0.01)使用密集残差进行连接;第10层为128个步长为2、卷积核大小为3的转置卷积层,第11层为64个步长为2、卷积核大小为3的转置卷积层,第12层为3个步长为1、卷积核大小为3的卷积层,将基于生成对抗网络的域转换模块的生成器称为模块c;
步骤5:训练基于域适应的深度动态场景去模糊网络;
通过步骤1得到3214对真实模糊图像,将GoPro数据集中的合成模糊图像输入到模块a中,得到期望真实模糊图像,将期望真实模糊图像以及合成模糊图像输入到模块b中,得到输入图像是否处在真实模糊域中的标签,最后将期望真实模糊图像输入到模块c中,得到输出复原图像,计算输出复原图像和真值清晰图像之间的MSE,反向传播梯度,进行网络参数的更新,得到训练好的基于域适应的深度动态场景去模糊网络。
训练基于域适应的深度动态场景去模糊网络的输入输出详见图1,在训练策略上,使用均值为0、标准差为0.01的高斯分布初始化权值,批尺寸选取为4;图像块尺寸选取为128,数据集的增广方法为旋转和翻转,优化器选取为Adam优化器,超参数β1设置为0.9,超参数β2设置为0.999,采用学习率退火动态调整学习率,学习率从10-4开始,当训练损失减少到10-6时停止训练。
本发明的有益效果在于由于采用基于域适应和基于自适应模糊核估计的动态场景去模糊方案,深入分析了动态场景模糊图像的特性,解决了深度图像去模糊方法在动态场景模糊图像上适应能力差的技术难题,在公开的GoPro数据集上的测试指标优于同类型的其他算法。
本发明提出了一种构建真实场景下具有动态模糊图像数据集的方法,从模糊降质图像中分析合成模糊和真实模糊图像所在域的差异,并据此提升了现有方法对动态场景下图像去模糊适应能力差的问题。具体为:
(1)本发明所采用的深度卷积神经网络结构中,使用了密集残差块进行图像特征的提取,对去模糊问题关心的图像边缘提取能力适应性更强,对各卷积层提取出的特征利用更充分,对残差连接获得的特征保留更完整;
(2)本发明所采用的深度卷积神经网络结构中,创新性的结合了生成对抗网络和密集残差连接,通过生成对抗网络分析合成图像和真实图像在特征域上的差异,并进行辨识,通过密集残差进行图像去模糊,在不引入更多参数的情况下能取得更好的推理效果;
(3)本发明提出的构建真实场景下具有动态模糊图像数据集的方法,充分考虑了真实模糊和合成模糊在特征域上的差异,充分考虑了真实场景下可能导致动态模糊的不同因素,给出了一个可行的真实模糊图像数据集的设计原则。
附图说明
图1是本发明深度去模糊方法的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
步骤1:构建数据集
从大量真实场景下拍摄的图像中,按照如下原则选取模糊图像:(a)场景光照正常(不能过曝或过弱)、涵盖场景丰富(例如道路、餐厅、商业街、学校等)、被摄物体丰富(例如人、车流、建筑、花草、灯光、汉字等)、拍摄设备多样(例如手机、单反、运动相机等);(b)拍摄设备与被摄物体具有一定的相对运动(例如设备静止,被摄物体运动,或设备运动,被摄物体静止等);(c)拍摄设备不能对原始图像进行预处理。采用任意角度旋转、水平/竖直翻转等方式将数据扩展为3214张图像,并进一步从每对图像中截取1280*720像素大小纹理密度适中、纹理结构完整的区域,最终得到3214张1280*720像素大小图像的训练集。其中1075张模糊图像具有相应清晰图像标签,其余模糊图像不存在清晰图像标签。
步骤2:构建基于密集残差块的图像去模糊子网络
本发明中基于密集残差块的图像去模糊子网络的网络结构如下:
第1层为卷积层Conv,由32个步长为1、卷积核大小为3的卷积操作组成;
第2层为激活函数层σ,激活函数为LeakyReLU(负半轴的斜率为0.01);
第3层到第18层均为密集残差块ResDense,每个密集残差块中使用4个步长为1、卷积核大小为3的卷积层以及4个LeakyReLU激活函数层(在负半轴的斜率为0.01)使用密集残差进行连接,分别称之为C1~C4。本专利中的密集残差连接指的是:C1的输入经过卷积层和激活函数层后分别输出到C2、C3和C4的输入处,C2的输入经过卷积层和激活函数层后分别输出到C3和C4的输入处,C3的输入经过卷积层和激活函数层后输出到C4的输入处;
第19层为激活函数层σ,激活函数为LeakyReLU(负半轴的斜率为0.01);
第20层为卷积层Conv,由32个为步长为1卷积大小为3的卷积操作组成。
复原出的清晰图像和原始输入的模糊图像之间的关系通过下式进行描述:
其中,是复原出的清晰图像,IBlur是输入的模糊图像,Conv(·)是卷积层,σ(·)代表卷积层和激活函数,ResDense(·)是密集残差块。相较于传统的卷积层或者残差块,密集残差块组成的去模糊模块能通过局部密集连接充分利用其中所有的卷积层,还能更有效的提取域适应模块输出的真实模糊图像的特征,最后通过残差连接自适应地保留累积的特征,从而在特征重建阶段恢复出更加锐利的清晰图像。
步骤3:构建基于生成对抗网络的域转换子网络的判别器
本发明中基于生成对抗网络的域转换子网络的判别器的网络结构如下:
第1层为64个步长为1、卷积核大小为3的卷积层;
第2层为64个步长为2、卷积核大小为4的卷积层;
第3层为128个步长为1、卷积核大小为3的卷积层;
第4层为128个步长为2、卷积核大小为4的卷积层;
第5层为256个步长为1、卷积核大小为3的卷积层;
第6层为256个步长为2、卷积核大小为4的卷积层;
第7层为512个步长为1、卷积核大小为3的卷积层;
第8层为512个步长为2、卷积核大小为4的卷积层;
第9层为512个步长为1、卷积核大小为3的卷积层;
第10层为512个步长为2、卷积核大小为4的卷积层;
第11层为输入是512*4*4、输出为100*1*1的全连接层;
第12层为输入是100*1*1、输出是1*1*1的全连接层。
第1~10层后均使用LeakyReLU作为激活函数(负半轴的斜率为0.01),对特征进行激活。
步骤4:构建基于生成对抗网络的域转换子网络的生成器
本发明中基于生成对抗网络的域转换子网络的生成器的网络结构如下:
第1层为64个步长为1、卷积核大小为3的卷积层;
第2层为128个步长为2、卷积核大小为3的卷积层;
第3层为256个步长为2、卷积核大小为3的卷积层;
第4层到第9层均为密集残差块,每个密集残差块中使用256个步长为1、卷积核大小为3的卷积层以及256个LeakyReLU激活函数层(负半轴的斜率为0.01)使用密集残差进行连接;
第10层为128个步长为2、卷积核大小为3的转置卷积层;
第11层为64个步长为2、卷积核大小为3的转置卷积层;
第12层为3个步长为1、卷积核大小为3的卷积层。
第1~3层以及第12层后,均使用LeakyReLU作为激活函数(负半轴的斜率为0.01),对特征进行激活。
步骤5:训练基于域适应的深度动态场景去模糊网络
基于域适应的深度去模糊网络由域转换子网络生成器、域转换子网络判别器和去模糊模块组成。各模块的构建细节详见上述。在训练阶段,使用如下损失函数对模型参数进行优化,包括Ian等人提出的对抗损失、Li等人提出的感知损失和常用内容损失。
对抗损失LGAN如下:
其中,xr和xs分别表示服从真实模糊图像分布XR和合成模糊图像分布XS的数据,DR表示域转换子网络的判别器,GS→R表示域转换子网络的生成器,E(·)x~X表示数据x在服从X分布时的期望。
感知损失Lp如下:
其中,φi,j(I)x,y表示对应清晰图像标签I经过特征提取网络(VGG19)φi,j的第11层卷积层后在(x,y)处的特征,Wi,j和Hi,j是特征图的尺寸。
内容损失Lc如下:
其中,N是输入合成模糊图像的像素总数,是复原出的清晰图像在第i个像素处的值,Ii是对应清晰图像标签在第i个像素处的值。
最终,总的损失函数L表示为:
L=LGAN+αpLp+αcLc (5)
其中,αp和αc是用于平衡损失权重的超参数,本实施例中,对于存在清晰图像标签的数据,ap和αc分别设置为0.001和0.5,其余情况下,均设置为0。
在训练策略上,使用均值为0、标准差为0.01的高斯分布来初始化权值;批尺寸选取为4;图像块尺寸选取为128;数据集的增广方法为旋转和翻转;优化器选取为Adam优化器,超参数β1设置为0.9,超参数β2设置为0.999;采用学习率退火方式动态调整学习率,其从10-4开始,当训练损失减少到10-6停止。
本发明为了解决深度去模糊方法对动态场景模糊适应性差的问题,提出了一种基于域适应的深度去模糊方法。本发明可以有效地处理由于训练集与测试集在动态模糊特征域上存在差异导致推理效果差的问题。同时,本发明结合一种基于密集残差块的图像去模糊模块和一种基于生成对抗网络的域转换模块,从真实及合成动态场景下模糊图像间域差异出发,在不增加内容对齐的图像对的前提下,提升图像去模糊网络在真实动态场景模糊图像上的适应能力。
Claims (2)
1.一种基于域适应的深度去模糊方法,其特征在于包括下述步骤:
步骤1:构建数据集;
从大量真实场景下拍摄的图像中,按照如下原则选取模糊图像:
(a)场景曝光正常、涵盖多种场景、多种被摄物体、多种拍摄设备;
(b)拍摄设备与被摄物体具有相对运动;
(c)拍摄设备不能对原始图像进行预处理,因此采用任意角度旋转、水平翻转或竖直翻转的方式将原始图像扩展为3214张图像,并从原始图像和扩展后的图像形成的每对图像中截取1280*720像素大小的区域,最终得到3214对1280*720像素大小图像的训练集;
步骤2:构建基于密集残差块的图像去模糊子网;
第1层为32个步长为1、卷积核大小为3的卷积层,第2层为激活函数层,激活函数选用LeakyReLU函数,第3层到第18层均为密集残差块,每个密集残差块中为4个步长为1、卷积核大小为3的卷积层以及4个LeakyReLU激活函数层采用密集残差进行连接,分别称之为C1~C4,所谓密集残差连接指的是:C1的输入经过卷积层和激活函数层后分别输出到C2、C3和C4的输入处,C2的输入经过卷积层和激活函数层后分别输出到C3和C4的输入处,C3的输入经过卷积层和激活函数层后输出到C4的输入处;第19层为激活函数层,激活函数选用LeakyReLU函数,第20层为32个步长为1、卷积核大小为3的卷积层;将基于密集残差块的图像去模糊模块称为模块a;
步骤3:构建基于生成对抗网络的域转换子网的判别器;
判别器的第1层为64个步长为1、卷积核大小为3的卷积层,第2层为64个步长为2、卷积核大小为4的卷积层,第3层为128个步长为1、卷积核大小为3的卷积层,第4层为128个步长为2、卷积核大小为4的卷积层,第5层为256个步长为1、卷积核大小为3的卷积层,第6层为256个步长为2、卷积核大小为4的卷积层,第7层为512个步长为1、卷积核大小为3的卷积层,第8层为512个步长为2、卷积核大小为4的卷积层,第9层为512个步长为1、卷积核大小为3的卷积层,第10层为512个步长为2、卷积核大小为4的卷积层,第11层为输入是512*4*4、输出为100*1*1的全连接层,第12层为输入是100*1*1、输出是1*1*1的全连接层;将基于生成对抗网络的域转换模块的判别器称为模块b;
步骤4:构建基于生成对抗网络的域转换子网的生成器;
生成器的第1层为64个步长为1、卷积核大小为3的卷积层,第2层为128个步长为2、卷积核大小为3的卷积层,第3层为256个步长为2、卷积核大小为3的卷积层,第4层到第9层均为密集残差块,每个密集残差块中使用256个步长为1、卷积核大小为3的卷积层以及256个LeakyReLU激活函数层(在负半轴的斜率为0.01)使用密集残差进行连接;第10层为128个步长为2、卷积核大小为3的转置卷积层,第11层为64个步长为2、卷积核大小为3的转置卷积层,第12层为3个步长为1、卷积核大小为3的卷积层,将基于生成对抗网络的域转换模块的生成器称为模块c;
步骤5:训练基于域适应的深度动态场景去模糊网络;
通过步骤1得到3214对真实模糊图像,将GoPro数据集中的合成模糊图像输入到模块a中,得到期望真实模糊图像,将期望真实模糊图像以及合成模糊图像输入到模块b中,得到输入图像是否处在真实模糊域中的标签,最后将期望真实模糊图像输入到模块c中,得到输出复原图像,计算输出复原图像和真值清晰图像之间的MSE,反向传播梯度,进行网络参数的更新,得到训练好的基于域适应的深度动态场景去模糊网络。
2.根据权利要求1所述的基于域适应的深度去模糊方法,其特征在于:
训练基于域适应的深度动态场景去模糊网络在训练策略上,使用均值为0、标准差为0.01的高斯分布初始化权值,批尺寸选取为4;图像块尺寸选取为128,数据集的增广方法为旋转和翻转,优化器选取为Adam优化器,超参数β1设置为0.9,超参数β2设置为0.999,采用学习率退火动态调整学习率,学习率从10-4开始,当训练损失减少到10-6时停止训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648027.6A CN114913095B (zh) | 2022-06-08 | 2022-06-08 | 基于域适应的深度去模糊方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648027.6A CN114913095B (zh) | 2022-06-08 | 2022-06-08 | 基于域适应的深度去模糊方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114913095A CN114913095A (zh) | 2022-08-16 |
CN114913095B true CN114913095B (zh) | 2024-03-12 |
Family
ID=82770064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210648027.6A Active CN114913095B (zh) | 2022-06-08 | 2022-06-08 | 基于域适应的深度去模糊方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114913095B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116027673B (zh) * | 2023-03-29 | 2023-06-06 | 中国电子科技集团公司第二十九研究所 | 一种基于模糊神经网络的装备控制自主决策方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020087607A1 (zh) * | 2018-11-02 | 2020-05-07 | 北京大学深圳研究生院 | 一种基于Bi-Skip-Net的图像去模糊方法 |
CN111199522A (zh) * | 2019-12-24 | 2020-05-26 | 重庆邮电大学 | 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法 |
CN111861894A (zh) * | 2019-04-25 | 2020-10-30 | 上海理工大学 | 基于生成式对抗网络的图像去运动模糊方法 |
WO2021002719A1 (ko) * | 2019-07-03 | 2021-01-07 | 한국과학기술원 | 비디오 처리 방법 및 장치 |
CN112508817A (zh) * | 2020-12-16 | 2021-03-16 | 西北工业大学 | 一种基于循环生成对抗网络的图像运动盲去模糊方法 |
CN113160179A (zh) * | 2021-04-23 | 2021-07-23 | 杭州电子科技大学 | 一种基于动态区域卷积的图像去模糊方法 |
-
2022
- 2022-06-08 CN CN202210648027.6A patent/CN114913095B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020087607A1 (zh) * | 2018-11-02 | 2020-05-07 | 北京大学深圳研究生院 | 一种基于Bi-Skip-Net的图像去模糊方法 |
CN111861894A (zh) * | 2019-04-25 | 2020-10-30 | 上海理工大学 | 基于生成式对抗网络的图像去运动模糊方法 |
WO2021002719A1 (ko) * | 2019-07-03 | 2021-01-07 | 한국과학기술원 | 비디오 처리 방법 및 장치 |
CN111199522A (zh) * | 2019-12-24 | 2020-05-26 | 重庆邮电大学 | 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法 |
CN112508817A (zh) * | 2020-12-16 | 2021-03-16 | 西北工业大学 | 一种基于循环生成对抗网络的图像运动盲去模糊方法 |
CN113160179A (zh) * | 2021-04-23 | 2021-07-23 | 杭州电子科技大学 | 一种基于动态区域卷积的图像去模糊方法 |
Non-Patent Citations (2)
Title |
---|
残差分离卷积神经网络的图像去运动模糊技术;刘平;刘传才;张佳洛;;计算机与数字工程;20200820(第08期);全文 * |
面向图像复原的残差密集生成对抗网络新方法;李烨;许乾坤;李克东;;小型微型计算机系统;20200409(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114913095A (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109102462B (zh) | 一种基于深度学习的视频超分辨率重建方法 | |
CN109671023B (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN108376387B (zh) | 基于聚合膨胀卷积网络的图像去模糊方法 | |
Chen et al. | Haze removal using radial basis function networks for visibility restoration applications | |
CN112837245B (zh) | 一种基于多模态融合的动态场景去模糊方法 | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及系统 | |
CN111598778B (zh) | 一种绝缘子图像超分辨率重建方法 | |
CN108694705A (zh) | 一种多帧图像配准与融合去噪的方法 | |
CN111462019A (zh) | 基于深度神经网络参数估计的图像去模糊方法及系统 | |
CN109300098B (zh) | 一种基于小波变换的多聚焦显微图像融合方法 | |
CN102243711A (zh) | 一种基于邻域嵌套的图像超分辨率重建方法 | |
CN111696033B (zh) | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 | |
CN112991235B (zh) | 视频降噪方法与视频降噪终端 | |
CN112419150A (zh) | 一种基于双边上采样网络的任意倍数图像超分辨率重建方法 | |
CN114913095B (zh) | 基于域适应的深度去模糊方法 | |
CN106846250B (zh) | 一种基于多尺度滤波的超分辨率重建方法 | |
Hung et al. | Image interpolation using convolutional neural networks with deep recursive residual learning | |
CN102222321A (zh) | 一种视频序列盲重建方法 | |
CN113160056A (zh) | 一种基于深度学习的带噪图像超分辨率重建方法 | |
Zeng et al. | \mathrm 3D^ 2Unet 3 D 2 U net: 3D Deformable Unet for Low-Light Video Enhancement | |
CN117115032A (zh) | 一种基于图片去噪扩散生成模型的图像恢复方法 | |
CN111640061A (zh) | 一种自适应图像超分辨率系统 | |
CN116309077A (zh) | 基于空域可变模糊核估计的图像盲超分辨率重建方法 | |
CN116363014A (zh) | 一种级联自适应光学图像盲复原方法 | |
CN114066751A (zh) | 基于普通摄像头采集条件下的车卡监控视频去模糊方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |