CN112419201A - 一种基于残差网络的图像去模糊方法 - Google Patents
一种基于残差网络的图像去模糊方法 Download PDFInfo
- Publication number
- CN112419201A CN112419201A CN202011412913.6A CN202011412913A CN112419201A CN 112419201 A CN112419201 A CN 112419201A CN 202011412913 A CN202011412913 A CN 202011412913A CN 112419201 A CN112419201 A CN 112419201A
- Authority
- CN
- China
- Prior art keywords
- image
- fea
- size
- convolution kernel
- residual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 16
- 230000002349 favourable effect Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于残差网络的图像去模糊方法,涉及图像恢复领域,所述方法包括获取不同应用场景下的多张第一图像并以此形成第一图像数据集,对所述第一图像进行模糊处理对应形成第二图像,并以此形成第二图像数据集,其中,所述第一图像相较于所述第二图像更清晰;构建残差网络,利用所述第一图像数据集和所述第二图像数据集对所述残差网络进行训练,最后得到训练完成的图像去模糊模型,其中,所述第一图像数据集作为所述图像去模糊模型的输出数据,所述第二图像数据集作为所述图像去模糊模型的输入部分。本发明保证图像去模糊效果的前提下提高模型的运算速度。
Description
技术领域
本发明涉及图像恢复领域,具体地涉一种基于残差网络的图像去模糊方法。
背景技术
图像恢复技术能够去除或减轻在获取数字图像过程中发生的图像质量退化问题,从而使图像更加接近真实的场景。在拍摄过程中,相机和景物的相对运动会导致运动模糊,这种模糊的现象是普遍存在于图片的成像过程的。运动模糊图像的恢复是图像恢复领域非常重要的课题之一,研究效果更出色的图像去模糊方法具有重要的现实意义。
在去运动模糊方法中,主要分为线性和非线性两种。线性算法通过对图像进行逆滤波来实现反卷积,如维纳滤波,正则滤波等。这类方法方便快捷,无需循环或者迭代,直接就可以得到反卷积结果,但是这类方法无法保证图像的非负性,恢复效果也有限。而非线性方法通过连续的迭代过程不断提高图像恢复的质量,结果往往可以令人满意,如L-R算法,盲去卷积方法等,但是迭代会导致计算量较大,对资源消耗较大。
近年来随着深度学习的发展,越来越多人用卷积神经网络,对抗生成网络等方法进行去模糊,往往可以得到较好的效果,但同时也会存在计算量大,难以实现产品落地,去模糊数据集难以获得,去模糊效果与真实数据相差较远等问题。
发明内容
针对现有技术中的不足,本发明提供一种基于残差网络的图像去模糊方法。
为实现上述目的,本发明的技术方案如下:
一种基于残差网络的图像去模糊方法,包括:
获取不同应用场景下的多张第一图像并以此形成第一图像数据集,对所述第一图像进行模糊处理对应形成第二图像,并以此形成第二图像数据集,其中,所述第一图像相较于所述第二图像更清晰;
构建残差网络,利用所述第一图像数据集和所述第二图像数据集对所述残差网络进行训练,最后得到训练完成的图像去模糊模型,其中,所述第一图像数据集作为所述图像去模糊模型的输出数据,所述第二图像数据集作为所述图像去模糊模型的输入部分;
将待处理的第三图像输入到经过训练得到的图像去模糊模型,生成与所述第三图像对应的第四图像,其中,所述第四图像相较于所述第三图像更清晰。
如上所述的基于残差网络的图像去模糊方法,进一步地,模糊处理的过程包括:
如上所述的基于残差网络的图像去模糊方法,进一步地,所述残差网络包括8个普通卷积层,1个最大池化层,1个平均池化层,10个残差块,两个跳跃连接层,两次上采样操作和一个PixelShuffle模块,其中,每个卷积层都包含一个卷积核以及用lrelu函数作为激活函数,每个残差块都包含两个卷积核,其输出通道数为64,步长为1,padding值等于1,残差块中使用relu函数作为激活函数。
如上所述的基于残差网络的图像去模糊方法,进一步地,
对该残差网络进行训练,得到训练完成的去图像去模糊模型,具体步骤如下:
假设输入图像为RGB图像,其长为l,宽为w,由于图像是三通道的,则该图像数据大小为3*w*l,记为T1;
将T1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为1,padding值等于1;经过该卷积运算后,得到的数据大小为64*w*l,记为T2;
将T2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;经过该卷积运算后,得到的数据大小为64*(w/2)*(l/2),记为T3;
将T3通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;经过该卷积运算后,得到的数据大小为64*(w/4)*(l/4),记该为fea1;
将fea1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1,经过该卷积运算后,得到的数据大小为64*(w/8)*(l/8),记该为fea2;
将fea2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;接着,将得到的结果通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法;最后得到的数据大小和fea2相同,均为64*(w/8)*(l/8),记为fea3;
将fea2通过一个残差块,接着设置一个跳跃连接层,将得到的结果与fea3直接进行相加,得到的数据大小为64*(w/8)*(l/8),记为fea;
将fea通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_RB;
将fea_RB分别进行最大池化操作和平均池化操作,得到两个结果记为fea_max和fea_avg,其大小均为64*(w/8)*(l/8),将fea_max和fea_avg进行连接操作,再通过一个卷积核,该卷积核输出通道数为64,步长为1,padding值等于1;最后得到的数据大小为64*(w/8)*(l/8),记为fea_con;
将fea_con通过一个残差块,然后进行一次上采样操作,上采样操作采用双三次性插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_con2;然后将fea_con2通过sigmoid激活函数,得到的数据大小为64*(w/4)*(l/4),记为pro_ten;
将pro_ten中的各元素与fea_RB的各元素进行相乘,得到的数据大小为64*(w/4)*(l/4),记为fea_semi;
将fea_semi通过一个卷积核,卷积核输出通道数为64,步长为1,padding值等于1;然后将得到的数据通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/2)*(l/2),记为fea_final;
将T3通过两个残差块,接着设置一个跳跃连接层,将得到的结果与fea_final直接进行相加,得到的数据大小为64*(w/2)*(l/2),记为F;
将F通过三个残差块,再通过一个卷积核,该卷积核大小为3*3,输出通道数为3,步长为1,padding值等于1;再通过一次PixelShuffle操作放大两倍,得到最终的输出结果。
如上所述的基于残差网络的图像去模糊方法,进一步地,
所述图像去模糊模型的损失函数Loss的计算公式如下所示:
本发明与现有技术相比,其有益效果在于:本发明对图像运动模糊进行模拟,构建了图像去运动模糊数据集,准确的数据集有利于模型的训练。本发明实施的图像去模糊方法通过残差网络可以获得图像的多尺度特征,更好地捕捉图像的信息,在图像输入到模型后对图像进行了降采样操作有利于减少模型的运算量,提高模型的运算速度,更有利于模型的落地使用或与其他模型进行结合使用。本发明结合了注意力机制,能够更好地表达图像的特征。通过对损失函数的组合可以更好地衡量模型预测图像和真实图像的误差,提高了模型的鲁棒性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图进行简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明方法的一具体实施例的流程图;
图2是根据本发明方法的一具体实施例的模型结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例:
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
参见图1至图2,图1是根据本发明方法的一具体实施例的流程图;图2是根据本发明方法的一具体实施例的模型结构图。
在步骤101,获取不同场景下的清晰图像,对清晰图像进行模糊处理,制作模糊图像数据集。
在步骤102,构建残差网络,在所述残差网络中输入训练数据集,对残差网络进行训练,最后得到训练完成的图像去模糊模型。
在步骤103,将待处理的模糊图像输入到上述训练得到的去模糊模型,上述图像去模糊模型输出待处理的模糊图像对应的清晰图像。
下面,对根据本发明一个实施例的一种基于残差网络的去模糊方法作一个详细的描述。
构建包含8个普通卷积层,1个最大池化层,1个平均池化层,10个残差块,两个跳跃连接层,两次上采样操作和一个PixelShuffle模块的残差网络。其中,每个卷积层都包含一个卷积核以及用lrelu函数作为激活函数。每个残差块都包含两个卷积核,其输出通道数为64,步长为1,padding值等于1。残差块中使用relu函数作为激活函数。向上述构建的残差网络输入训练数据集,对该残差网络进行训练,得到训练完成的去模糊模型。
假设输入图像为RGB图像,其长为l,宽为w,由于图像是三通道的,则该图像数据大小为3*w*l,记为T1;
将T1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为1,padding值等于1。经过该卷积运算后,得到的数据大小为64*w*l,记为T2;
将T2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1。经过该卷积运算后,得到的数据大小为64*(w/2)*(l/2),记为T3;
将T3通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1。经过该卷积运算后,得到的数据大小为64*(w/4)*(l/4),记该为fea1;
将fea1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1,经过该卷积运算后,得到的数据大小为64*(w/8)*(l/8),记该为fea2;
将fea2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1。接着,将得到的结果通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法。最后得到的数据大小和fea2相同,均为64*(w/8)*(l/8),记为fea3;
将fea2通过一个残差块,接着设置一个跳跃连接层,将得到的结果与fea3直接进行相加,得到的数据大小为64*(w/8)*(l/8),记为fea;
将fea通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_RB;
将fea_RB分别进行最大池化操作和平均池化操作,得到两个结果记为fea_max和fea_avg,其大小均为64*(w/8)*(l/8),将fea_max和fea_avg进行连接操作,再通过一个卷积核,该卷积核输出通道数为64,步长为1,padding值等于1。最后得到的数据大小为64*(w/8)*(l/8),记为fea_con;
将fea_con通过一个残差块,然后进行一次上采样操作,上采样操作采用双三次性插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_con2。然后将fea_con2通过sigmoid激活函数,得到的数据大小为64*(w/4)*(l/4),记为pro_ten;
将pro_ten中的各元素与fea_RB的各元素进行相乘,得到的数据大小为64*(w/4)*(l/4),记为fea_semi;
将fea_semi通过一个卷积核,卷积核输出通道数为64,步长为1,padding值等于1。然后将得到的数据通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/2)*(l/2),记为fea_final;
将T3通过两个残差块,接着设置一个跳跃连接层,将得到的结果与fea_final直接进行相加,得到的数据大小为64*(w/2)*(l/2),记为F;
将F通过三个残差块,再通过一个卷积核,该卷积核大小为3*3,输出通道数为3,步长为1,padding值等于1。再通过一次PixelShuffle操作放大两倍,得到最终的输出结果。
在其中一个实施例中,为残差网络设置相应的损失函数,包括如下步骤:
设所述图像去模糊模型的损失函数为Loss,Loss的计算公式如下所示:
将待处理的模糊图像输入到上述训练得到的去模糊模型,上述图像去模糊模型输出待处理的模糊图像对应的清晰图像。
综上所述,本发明对图像运动模糊进行模拟,构建了图像去运动模糊数据集,准确的数据集有利于模型的训练。本发明实施的图像去模糊方法通过残差网络可以获得图像的多尺度特征,同时结合了注意力机制,更好地捕捉图像的信息,在图像输入到模型后对图像进行了降采样操作有利于减少模型的运算量,最后通过PixelShuffle操作提高输出图像的分辨率,从而在尽量保证图像去模糊效果的前提下提高模型的运算速度,更有利于模型的落地使用或与其他模型进行结合使用。通过对损失函数的组合可以更好地衡量模型预测图像和真实图像的误差,提高了模型的鲁棒性。
上述实施例只是为了说明本发明的技术构思及特点,其目的是在于让本领域内的普通技术人员能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡是根据本发明内容的实质所做出的等效的变化或修饰,都应涵盖在本发明的保护范围内。
Claims (5)
1.一种基于残差网络的图像去模糊方法,其特征在于,包括:
获取不同应用场景下的多张第一图像并以此形成第一图像数据集,对所述第一图像进行模糊处理对应形成第二图像,并以此形成第二图像数据集,其中,所述第一图像相较于所述第二图像更清晰;
构建残差网络,利用所述第一图像数据集和所述第二图像数据集对所述残差网络进行训练,最后得到训练完成的图像去模糊模型,其中,所述第一图像数据集作为所述图像去模糊模型的输出数据,所述第二图像数据集作为所述图像去模糊模型的输入部分;
将待处理的第三图像输入到经过训练得到的图像去模糊模型,生成与所述第三图像对应的第四图像,其中,所述第四图像相较于所述第三图像更清晰。
3.根据权利要求1所述的基于残差网络的图像去模糊方法,其特征在于,所述残差网络包括8个普通卷积层,1个最大池化层,1个平均池化层,10个残差块,两个跳跃连接层,两次上采样操作和一个PixelShuffle模块,其中,每个卷积层都包含一个卷积核以及用lrelu函数作为激活函数,每个残差块都包含两个卷积核,其输出通道数为64,步长为1,padding值等于1,残差块中使用relu函数作为激活函数。
4.根据权利要求1所述的基于残差网络的图像去模糊方法,其特征在于,
对该残差网络进行训练,得到训练完成的去图像去模糊模型,具体步骤如下:
假设输入图像为RGB图像,其长为l,宽为w,由于图像是三通道的,则该图像数据大小为3*w*l,记为T1;
将T1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为1,padding值等于1;经过该卷积运算后,得到的数据大小为64*w*l,记为T2;
将T2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;经过该卷积运算后,得到的数据大小为64*(w/2)*(l/2),记为T3;
将T3通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;经过该卷积运算后,得到的数据大小为64*(w/4)*(l/4),记该为fea1;
将fea1通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1,经过该卷积运算后,得到的数据大小为64*(w/8)*(l/8),记该为fea2;
将fea2通过一个卷积核,该卷积核大小为3*3,输出通道数为64,步长为2,padding值为1;接着,将得到的结果通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法;最后得到的数据大小和fea2相同,均为64*(w/8)*(l/8),记为fea3;
将fea2通过一个残差块,接着设置一个跳跃连接层,将得到的结果与fea3直接进行相加,得到的数据大小为64*(w/8)*(l/8),记为fea;
将fea通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_RB;
将fea_RB分别进行最大池化操作和平均池化操作,得到两个结果记为fea_max和fea_avg,其大小均为64*(w/8)*(l/8),将fea_max和fea_avg进行连接操作,再通过一个卷积核,该卷积核输出通道数为64,步长为1,padding值等于1;最后得到的数据大小为64*(w/8)*(l/8),记为fea_con;
将fea_con通过一个残差块,然后进行一次上采样操作,上采样操作采用双三次性插值方法,得到的数据大小为64*(w/4)*(l/4),记为fea_con2;然后将fea_con2通过sigmoid激活函数,得到的数据大小为64*(w/4)*(l/4),记为pro_ten;
将pro_ten中的各元素与fea_RB的各元素进行相乘,得到的数据大小为64*(w/4)*(l/4),记为fea_semi;
将fea_semi通过一个卷积核,卷积核输出通道数为64,步长为1,padding值等于1;然后将得到的数据通过一个残差块,再进行一次上采样操作,上采样操作采用双三次插值方法,得到的数据大小为64*(w/2)*(l/2),记为fea_final;
将T3通过两个残差块,接着设置一个跳跃连接层,将得到的结果与fea_final直接进行相加,得到的数据大小为64*(w/2)*(l/2),记为F;
将F通过三个残差块,再通过一个卷积核,该卷积核大小为3*3,输出通道数为3,步长为1,padding值等于1;再通过一次PixelShuffle操作放大两倍,得到最终的输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011412913.6A CN112419201A (zh) | 2020-12-04 | 2020-12-04 | 一种基于残差网络的图像去模糊方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011412913.6A CN112419201A (zh) | 2020-12-04 | 2020-12-04 | 一种基于残差网络的图像去模糊方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112419201A true CN112419201A (zh) | 2021-02-26 |
Family
ID=74774897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011412913.6A Pending CN112419201A (zh) | 2020-12-04 | 2020-12-04 | 一种基于残差网络的图像去模糊方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419201A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537746A (zh) * | 2018-03-21 | 2018-09-14 | 华南理工大学 | 一种基于深度卷积网络的模糊可变图像盲复原方法 |
CN108629743A (zh) * | 2018-04-04 | 2018-10-09 | 腾讯科技(深圳)有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
WO2019178893A1 (zh) * | 2018-03-22 | 2019-09-26 | 深圳大学 | 运动模糊图像的模糊处理方法、装置、设备及存储介质 |
US20190370938A1 (en) * | 2018-02-11 | 2019-12-05 | Shenzhen Skyworth-Rgb Electronic Co., Ltd. | Image super-resolution method, image super-resolution device, and computer readable storage medium |
CN110610124A (zh) * | 2019-07-30 | 2019-12-24 | 珠海亿智电子科技有限公司 | 一种基于生成对抗网络的图像生成方法 |
CN111696038A (zh) * | 2020-05-26 | 2020-09-22 | 新华三大数据技术有限公司 | 图像超分辨率方法、装置、设备及计算机可读存储介质 |
US20200334871A1 (en) * | 2019-04-19 | 2020-10-22 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for image processing |
-
2020
- 2020-12-04 CN CN202011412913.6A patent/CN112419201A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190370938A1 (en) * | 2018-02-11 | 2019-12-05 | Shenzhen Skyworth-Rgb Electronic Co., Ltd. | Image super-resolution method, image super-resolution device, and computer readable storage medium |
CN108537746A (zh) * | 2018-03-21 | 2018-09-14 | 华南理工大学 | 一种基于深度卷积网络的模糊可变图像盲复原方法 |
WO2019178893A1 (zh) * | 2018-03-22 | 2019-09-26 | 深圳大学 | 运动模糊图像的模糊处理方法、装置、设备及存储介质 |
CN108629743A (zh) * | 2018-04-04 | 2018-10-09 | 腾讯科技(深圳)有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
US20200334871A1 (en) * | 2019-04-19 | 2020-10-22 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for image processing |
CN110610124A (zh) * | 2019-07-30 | 2019-12-24 | 珠海亿智电子科技有限公司 | 一种基于生成对抗网络的图像生成方法 |
CN111696038A (zh) * | 2020-05-26 | 2020-09-22 | 新华三大数据技术有限公司 | 图像超分辨率方法、装置、设备及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
X. SUN ET AL.: "Distilling with Residual Network for Single Image Super Resolution", 《2019 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》, pages 1180 - 1185 * |
陈文静等: "基于深度学习的图像超分辨率重建方法综述", 《云南民族大学学报(自然科学版)》, vol. 28, no. 6, pages 597 - 605 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Efficient and interpretable deep blind image deblurring via algorithm unrolling | |
Wang et al. | Real-esrgan: Training real-world blind super-resolution with pure synthetic data | |
Zhou et al. | Spatio-temporal filter adaptive network for video deblurring | |
Hai et al. | R2rnet: Low-light image enhancement via real-low to real-normal network | |
Brifman et al. | Turning a denoiser into a super-resolver using plug and play priors | |
CN108122197B (zh) | 一种基于深度学习的图像超分辨率重建方法 | |
Yu et al. | A unified learning framework for single image super-resolution | |
CN111667442A (zh) | 一种基于事件相机的高质量高帧率图像重建方法 | |
CN111275626A (zh) | 一种基于模糊度的视频去模糊方法、装置及设备 | |
Afifi et al. | Cie xyz net: Unprocessing images for low-level computer vision tasks | |
CN112053308B (zh) | 一种图像去模糊方法、装置、计算机设备及存储介质 | |
CN112529776B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN110958469A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
Li et al. | Deep algorithm unrolling for blind image deblurring | |
CN111553867A (zh) | 一种图像去模糊方法、装置、计算机设备及存储介质 | |
CN114723630A (zh) | 基于空洞双残差多尺度深度网络的图像去模糊方法及系统 | |
CN108564546B (zh) | 模型训练方法、装置及拍照终端 | |
Zhang et al. | Deep motion blur removal using noisy/blurry image pairs | |
Syed et al. | Addressing image and Poisson noise deconvolution problem using deep learning approaches | |
CN109993701B (zh) | 一种基于金字塔结构的深度图超分辨率重建的方法 | |
Wu et al. | Two-level wavelet-based convolutional neural network for image deblurring | |
Chang et al. | Beyond camera motion blur removing: How to handle outliers in deblurring | |
Liu et al. | Halder: Hierarchical attention-guided learning with detail-refinement for multi-exposure image fusion | |
Xu et al. | A slimmer and deeper approach to deep network structures for low‐level vision tasks | |
CN113096032A (zh) | 一种基于图像区域划分的非均匀一致模糊去除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |