CN108416752B - 一种基于生成式对抗网络进行图像去运动模糊的方法 - Google Patents
一种基于生成式对抗网络进行图像去运动模糊的方法 Download PDFInfo
- Publication number
- CN108416752B CN108416752B CN201810201863.3A CN201810201863A CN108416752B CN 108416752 B CN108416752 B CN 108416752B CN 201810201863 A CN201810201863 A CN 201810201863A CN 108416752 B CN108416752 B CN 108416752B
- Authority
- CN
- China
- Prior art keywords
- image
- generator
- refers
- network
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 42
- 230000008447 perception Effects 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 48
- 238000013507 mapping Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 10
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开一种基于生成式对抗网络进行图像去运动模糊的方法及用于该方法的去运动模糊的生成式对抗网络模型,该方法包括设计生成式对抗网络模型;模型训练;应用阶段,该生成式对抗网络模型包括生成器和判别器,生成器用于不断优化参数以使其生成的图像趋近清晰图像的分布,判别器用于不断优化参数以使其能更好地判别图像来自于去模糊图像分布或清晰图像分布,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作。本发明有效地去除图像的运动模糊,获得符合人类感知的清晰图像。
Description
技术领域
本发明涉及生成式对抗网络技术领域,特别涉及一种基于生成式对抗网络进行图像去运动模糊的方法及一种去运动模糊的生成式对抗网络模型。
背景技术
图像去运动模糊技术,即对输入的一张带有运动模糊噪声的图像进行去模糊处理,生成去除模糊噪声后的清晰的图像的技术。图像去运动模糊技术在无人驾驶,公安侦查,媒体处理等领域具有广泛的应用。譬如,在无人驾驶系统中,对捕捉到的,由于相对运动速度较快而带有运动模糊噪声的车辆的图像,通过应用图像去运动模糊技术,使得该车辆的图像变得更加清晰,从而提高车辆等障碍物的识别率,进而有效地提高无人驾驶系统的安全性能。
现有的图像去运动模糊的技术,主要有以下几类:
1)基于能量方程的图像去运动模糊方法[1]。通过构造数据项和正则化项来构建用于求解运动模糊核以及清晰图像的能量方法,然后使用交替优化的迭代算法来最小化该能量方程,并最终得到该图像的运动模糊核以及对应的清晰图像。
2)基于神经网络求解模糊核的图像去运动模糊方法[2][3]。首先训练神经网络,使其可以对输入的一张带有运动模糊噪声的图像,输出其对应的运动模糊核。然后,基于该带有模糊噪声的图像以及神经网络求解得到的模糊核,应用传统的非盲去模糊算法,以此计算生成相应的清晰图像。
3)基于端到端的神经网络的图像去运动模糊方法[4]。利用包含有清晰和模糊图像对的数据集来训练卷积神经网络,使得训练完成的神经网络模型可以根据一张带有运动模糊的图像,生成其对应的清晰图像。已有的图像去运动模糊方法在效率和效果上都存在着较多的不足。
传统的基于能量方程的优化方法,由于求解过程中,需要进行迭代优化,这会带来极大的运算量,影响求解速度。另外,通常情况下,对于一张图像,传统算法只能求解出一个运动模糊核,即假定模糊核是统一的。由于自然条件下直接获取到的带有运动模糊噪声的图像,其模糊核通常都是非统一的。这使得基于能量方程的算法,在面对真实的模糊图像时,处理得到的效果通常差强人意。
基于神经网络求解模糊核的方法,由于其求解得到模糊核之后,仍需要应用传统的能量方程优化算法来求解得到最终的清晰图像,这使得该方法在性能上会受传统非盲去模糊算法的限制。另外,当模糊核求解不正确时,将极大地影响去模糊后图像的质量,神经网络求解的模糊核的准确性,也极大地制约着算法的最终输出效果。
基于端到端的神经网络的方法,由于网络训练过程中,大部分情况下,缺乏结构信息的约束,从而导致生成的清晰图像不够真实,视觉效果较差。
参考文献:
[1]Xu,Li,and Jiaya Jia."Two-phase kernel estimation for robust motiondeblurring."European conference on computer vision.Springer,Berlin,Heidelberg,2010.
[2]Sun,Jian,et al."Learning a convolutional neural network for non-uniform motion blur removal."CVPR.2015.
[3]Dong,Gong,et al."From Motion Blur to Motion Flow:A Deep LearningSolution for Removing Heterogeneous Motion Blur."CVPR.2017.
[4]Nah,Seungjun,Tae Hyun Kim,and Kyoung Mu Lee."Deep multi-scaleconvolutional neural network for dynamic scene deblurring."arXiv preprintarXiv:1612.02177 3(2016).
发明内容
本发明的主要目的是提出一种基于生成式对抗网络进行图像去运动模糊的方法,旨在克服以上问题。
为实现上述目的,本发明提出的一种基于生成式对抗网络进行图像去运动模糊的方法,包括如下步骤:
S10设计运动去模糊的生成对抗式网络模型结构,其中该网络模型由生成器和判别器组成,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作;
S20将一个包含模糊图像和清晰图像的图像对数据集中模糊图像作为队列元素存储至模糊图像队列,清晰图像作为队列元素存储至清晰图像队列,且以清晰图像队列中的元素顺序调整模糊图像队列的元素顺序,以使清晰图像与模糊图像一一对应;
S30输入一组包含有m个从S20步骤中的两个队列获取的清晰-模糊图像对至网络模型,分别将该图像对中的清晰图像和模糊图像缩放成Sh×Sw的尺寸,再剪成出尺寸为Ch×Cw的图像块;
S40将由S30得到的图像块输入该网络模型,通过迭代应用后向传播算法,逐步更新该网络模型的训练参数,每代队列中的所有元素训练结束之后,重新打乱队列元素的排序,开始新一代的训练,循环多代训练,直至该网络模型收敛,保存并导入该网络模型收敛时的训练参数,以使得该网络模型拟合成一个从模糊图像分布到清晰图像分布的映射;
S50输入模糊图像,通过一次前向传播计算,生成去模糊图像。
优选地,所述S40包括:
S401将由S30得到的图像块输入该网络模型,模糊图像的图像块在生成式对抗网络的生成器中,经过一次前向传播计算,生成一张去模糊图像,其中模糊图像先经过降采样器,得到一个尺寸为(Ch/128)×(Cw/128)×512带有图像高层语义信息的矩阵,然后,再经过一个上采样器,最终生成一个尺寸为Ch×Cw×3的去模糊图像;
S402所生成的去模糊图像和与其对应的模糊图像构成一个“模糊—去模糊”图像对,输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,G(x)),及将其对应的“模糊—清晰”图像输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,y);
S403生成式对抗网络的损失函数通过生成器的生成损失和判别器的判别损失优化参数,其中,
生成器的优化方程:
判别器的优化方程:
其中,G为生成器,G(x)为生成器输出的去模糊图像;D为判别器,D(·)为判别器的输出结果,与S402中同义,为目标函数的数学期望,x~pdata(x)指的是图像x取自一个特定的分布pdata(x),在本方法中,这个特定的分布指的就是一个图像队列。同理,y~pdata(y)指的是图像y取自一个特定的分布pdata(y),指的是在更新模型参数时,只更新生成器网络G的参数,并使得损失函数L(G,D)的值最小化,同理,指的是在更新模型参数时,只更新判别器网络D的参数,并使得损失函数L(G,D)的值最小化,公式(7)表示生成器的目标函数,是最大化判别器判定“模糊—去模糊”图像对为真实映射的概率D(x,G(x)),使其趋向于1,公式(8)表示判别器的目标函数,是最大化判别器判定“模糊—清晰”图像对为真实映射的概率D(x,G(x)),使其趋向于1,同时最小化概率D(x,G(x)),使其趋向于0;
S404生成器通过S402中的生成损失、L1范数损失、感知损失及总变分损失的约束优化模型参数,最终得到生成器的损失函数,其中:
图像x和图像y之间的L1范数函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像;W指的是图像的宽度,H指的是图像的高度,图像x和图像y的尺寸完全相同,都是(W,H),i指的是宽度维度上的坐标,j指的是高度维度上的坐标,yi,j指的是图像y在坐标[i,j]上的像素的灰度值,同理,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
图像x和图像y之间的感知距离函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像,[α,β]为一个整体,是一个坐标信息,指的是VGG网络中,第α个卷积层后,第β个池化(pooling)层前的那一层语义特征的坐标,而Wα,β,Hα,β则是该语义特征层的宽度和高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,φα,β(·)指的是在网络第α个最大池化层之前,第β个卷积层(激活层之前)之后的特征矩阵,φα,β(y)指的是图像y的第[α,β]语义特征层,而φα,β(y)i,j指的是图像y的第[α,β]语义特征层上的坐标[i,j]上的元素的数值,同理,φα,β(x)i,j指的是图像x的第[α,β]语义特征层上的坐标[i,j]上的元素的数值;
图像x的总变分损失函数:
其中x指的是模型生成的去模糊图像,W指的是图像的宽度,H指的是图像的高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
由公式(4)、(5)、(6)得到生成器的损失函数:
其中lL1与公式(4)同指,lperceptual与公式(5)同指,ltv与公式(6)同指,α1,α2和α3分别为L1范数损失、感知损失以及总变分损失对应的权重;
S405模型在后向传播阶段,分别根据公式(8)和公式(9)计算出生成器和判别器的损失,并依次单独更新生成器和判别器中的模型参数,应用后向传播算法更新优化模型;
S406重复S401-405,直至模型收敛,则停止训练,当输入队列被取空之后,如果模型还没有收敛,则按照S402中提及的方法,重新对清晰图像队列和清晰图像队列进行随机乱序排序。
优选地,所述S50包括:
S501将输入的模糊图像缩放为Ch×Cw的尺寸的图像;
S502将S501的图像输入到生成式对抗网络的生成器中,通过一次前向传播计算,输出去模糊图像。
优选地,所述S401中所述降采样器与上采样器为完全对称的结构,且在上采样器的每一层中,除了最后一层外,其他的层都会将输出结果和与之对应的降采样器中的层的输出进行叠加,做为最终的输出,输入到下一层中。
优选地,所述S402中所述的图像对通过在颜色通道维度上进行多个图像块的叠加后输入至判别器。
优选地,所述S404中感知损失是对于输入的两张图像,分别在预训练好的网络提取语义特征,然后求解两者特征矩阵的L2范数。
优选地,所述预训练好的网络为使用了在ImageNet上预训练好的VGG19或者VGG16网络。
本发明还公开了一种如上述所述的一种去运动模糊的生成式对抗网络模型,包括生成器和判别器,生成器用于不断优化参数以使其生成的图像趋近真实图像的分布,判别器用于不断优化参数以使其能更好地判别图像来自于随机噪声分布或真实图像分布,当该网络模型训练收敛时,整个网络模型达到一个动态平衡状态,即生成器生成的图像趋近真实图像的分布,判别器无法判别图像来自于哪个分布,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作。
优选地,所述生成器还包括残差网络,所述残差网络用于加深网络模型的结构。
优选地,所述降采样器和上采样器组成U形网络结构。
相比以前的图像去运动模糊技术,本发明具有以下的优点:
1、通过一次运算,便可以得到清晰图像,效率高。
2、能够更好的处理自然条件下拍摄的,非统一的,非线性的运动模糊类型。
3、无需计算图像的运动模糊核。
4、网络模型充分考虑了模糊图像的结构和语义信息,使得生成的清晰图像更符合人类的感知。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明模型训练阶段的方法流程框图;
图2为本发明应用阶段的方法流程框图;
图3为本发明网络模型中生成器的结构图;
图4为本发明网络模型中判别器的结构图;
图5为本发明模型的结果样例,第一列是带有运动模糊噪声的图像;第二列是模型生成的去模糊图像;第三列是清晰图像,
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,若本发明实施例中有涉及方向性指示(诸如上、下、左、右、前、后……),则该方向性指示仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,若本发明实施例中有涉及“第一”、“第二”等的描述,则该“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提出的一种基于生成式对抗网络进行图像去运动模糊的方法,包括如下步骤:
S10设计运动去模糊的生成对抗式网络模型结构,其中该网络模型由生成器和判别器组成,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作;
S20将一个包含模糊图像和清晰图像的图像对数据集中模糊图像作为队列元素存储至模糊图像队列,清晰图像作为队列元素存储至清晰图像队列,且以清晰图像队列中的元素顺序调整模糊图像队列的元素顺序,以使清晰图像与模糊图像一一对应;
S30输入一组包含有m个从S20步骤中的两个队列获取的清晰-模糊图像对至网络模型,分别将该图像对中的清晰图像和模糊图像缩放成Sh×Sw的尺寸,再剪成出尺寸为Ch×Cw的图像块;
S40将由S30得到的图像块输入该网络模型,通过迭代应用后向传播算法,逐步更新该网络模型的训练参数,每代队列中的所有元素训练结束之后,重新打乱队列元素的排序,开始新一代的训练,循环多代训练,直至该网络模型收敛,保存并导入该网络模型收敛时的训练参数,以使得该网络模型拟合成一个从模糊图像分布到清晰图像分布的映射;
S50输入模糊图像,通过一次前向传播计算,生成去模糊图像。
优选地,所述S40包括:
S401将由S30得到的图像块输入该网络模型,模糊图像的图像块在生成式对抗网络的生成器中,经过一次前向传播计算,生成一张去模糊图像,其中模糊图像先经过降采样器,得到一个尺寸为(Ch/128)×(Cw/128)×512的带有图像高层语义信息的矩阵,然后,再经过一个上采样器,最终生成一个尺寸为Ch×Cw×3的去模糊图像;
S402所生成的去模糊图像和与其对应的模糊图像构成一个“模糊—去模糊”图像对,输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,G(x)),及将其对应的“模糊—清晰”图像输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,y);
S403生成式对抗网络的损失函数通过生成器的生成损失和判别器的判别损失优化参数,其中,
生成器的优化方程:
判别器的优化方程:
其中,G为生成器,G(x)为生成器输出的去模糊图像;D为判别器,D(·)为判别器的输出结果,与S402中同义,为目标函数的数学期望,x~Pdata(x)指的是图像x取自一个特定的分布Pdata(x),在本方法中,这个特定的分布指的就是一个图像队列。同理,y~Pdata(y)指的是图像y取自一个特定的分布pdata(y),指的是在更新模型参数时,只更新生成器网络G的参数,并使得损失函数L(G,D)的值最小化,同理,指的是在更新模型参数时,只更新判别器网络D的参数,并使得损失函数L(G,D)的值最小化,公式(7)表示生成器的目标函数,是最大化判别器判定“模糊—去模糊”图像对为真实映射的概率D(x,G(x)),使其趋向于1,公式(8)表示判别器的目标函数,是最大化判别器判定“模糊—清晰”图像对为真实映射的概率D(x,G(x)),使其趋向于1,同时最小化概率D(x,G(x)),使其趋向于0;
S404生成器通过S402中的生成损失、L1范数损失、感知损失及总变分损失的约束优化模型参数,最终得到生成器的损失函数,其中:
图像x和图像y之间的L1范数函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像;W指的是图像的宽度,H指的是图像的高度,图像x和图像y的尺寸完全相同,都是(W,H),i指的是宽度维度上的坐标,j指的是高度维度上的坐标,yi,j指的是图像y在坐标[i,j]上的像素的灰度值,同理,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
图像x和图像y之间的感知距离函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像,[α,β]为一个整体,是一个坐标信息,指的是VGG网络中,第α个卷积层后,第β个池化(pooling)层前的那一层语义特征的坐标,而Wα,β,Hα,β则是该语义特征层的宽度和高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,φα,β(·)指的是在网络第α个最大池化层之前,第β个卷积层(激活层之前)之后的特征矩阵,φα,β(y)指的是图像y的第[α,β]语义特征层,而φα,β(y)i,j指的是图像y的第[α,β]语义特征层上的坐标[i,j]上的元素的数值,同理,φα,β(x)i,j指的是图像x的第[α,β]语义特征层上的坐标[i,j]上的元素的数值;
图像x的总变分损失函数:
其中x指的是模型生成的去模糊图像,W指的是图像的宽度,H指的是图像的高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
由公式(4)、(5)、(6)得到生成器的损失函数:
其中lL1与公式(4)同指,lperceptual与公式(5)同指,ltv与公式(6)
同指,α1,α2和α3分别为L1范数损失、感知损失以及总变分损失对应的权重;
S405模型在后向传播阶段,分别根据公式(8)和公式(9)计算出生成器和判别器的损失,并依次单独更新生成器和判别器中的模型参数,应用后向传播算法更新优化模型;
S406重复S401-405,直至模型收敛,则停止训练,当输入队列被取空之后,如果模型还没有收敛,则按照S402中提及的方法,重新对清晰图像队列和清晰图像队列进行随机乱序排序。
优选地,所述S50包括:
S501将输入的模糊图像缩放为Ch×Cw的尺寸的图像;
S502将S501的图像输入到生成式对抗网络的生成器中,通过一次前向传播计算,输出去模糊图像。
优选地,所述S401中所述降采样器与上采样器为完全对称的结构,且在上采样器的每一层中,除了最后一层外,其他的层都会将输出结果和与之对应的降采样器中的层的输出进行叠加,做为最终的输出,输入到下一层中。
优选地,所述S402中所述的图像对通过在颜色通道维度上进行多个图像块的叠加后输入至判别器。
优选地,所述S404中感知损失是对于输入的两张图像,分别在预训练好的网络提取语义特征,然后求解两者特征矩阵的L2范数。
优选地,所述预训练好的网络为使用了在ImageNet上预训练好的VGG19或者VGG16网络。
本发明还公开了一种如上述所述的一种去运动模糊的生成式对抗网络模型,包括生成器和判别器,生成器用于不断优化参数以使其生成的图像趋近真实图像的分布,判别器用于不断优化参数以使其能更好地判别图像来自于随机噪声分布或真实图像分布,当该网络模型训练收敛时,整个网络模型达到一个动态平衡状态,即生成器生成的图像趋近真实图像的分布,判别器无法判别图像来自于哪个分布,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作。
优选地,所述生成器还包括残差网络,所述残差网络用于加深网络模型的结构。
优选地,所述降采样器和上采样器组成U形网络结构。
在本发明具体实施例中,如图1-5所示,该基于生成式对抗网络进行图像去运动模糊的方法包括:
1)设计模型结构
生成对抗式网络的训练过程是一个生成器和判别器的博弈过程,生成器不断优化参数以使其生成的图像更靠近真实图像的分布,而判别器则不断优化参数以使其能更好地判别图像来自于随机噪声分布或者真实图像分布。当模型训练收敛时,整个网络模型会达到一个动态平衡的状态,即生成器生成的图像可以以假乱真,判别器无法判别图像来自于哪个分布。
本发明中,针对图像去运动模糊任务的特点,对传统的生成式对抗网络的生成器做了改进。生成器的输入不是随机噪声,而是自然条件下拍摄的带有运动模糊噪声的图像。生成器由降采样器和上采样器组成,通过对输入图像进行降采样,逐步扩大神经网路的感受,不断获取更加高层的语义信息。然后,基于获取到的语义信息,对图像进行上采样,在上采样的过程中,逐步加入图像底层的结构信息,将高层语义和底层结构信息进行有机结合,最终合成出一张与输入模糊图像对应的清晰图像。
在模型中使用到的激活函数分别是线性整流函数(relu),带泄露线性整流函数(Leaky Relu,lrelu)和双切正切函数(tanh)。他们的数学表示形式见公式(1)-(3):
relu(x)=max(0,x) 公式(1)
此外,我们还给在训练阶段,在生成器加入了更多的结构,语义和纹理的约束,他们分别是:a.L1范数约束,用于更进一步地约束生成图像的结构信息;b.感知约束,用于更进一步地约束生成图像的语义信息;c.总变分约束,用于抑制生成图像的“震铃”等人工噪声。这三个约束的数学表示形式见公式(4)-(6)。这三个约束和生成式对抗网络通过超参进行有机融合。
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像;W指的是图像的宽度,H指的是图像的高度,图像x和图像y的尺寸完全相同,都是(W,H),i指的是宽度维度上的坐标,j指的是高度维度上的坐标。yi,j指的是图像y在坐标[i,j]上的像素的灰度值,同理,xi,j指的是图像x在坐标[i,j]上的像素的灰度值。
该公式描述的是图像x和图像y之间的L1范数(也称为L1距离,曼哈顿距离),在本方法中,L1范数作用在模型生成的去模糊图像和输入的清晰图像上,用以约束生成的去模糊图像的结构信息,使其在结构上与输入的清晰图像相似。
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像,[α,β]为一个整体,是一个坐标信息,指的是VGG网络中,第α个卷积层后,第β个池化(pooling)层前的那一层语义特征的坐标。而Wα,β,Hα,β则是该语义特征层的宽度和高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,φα,β(y)指的是图像y的第[α,β]语义特征层,而φα,β(y)i,j指的是图像y的第[α,β]语义特征层上的坐标[i,j]上的元素的数值,同理,φα,β(x)i,j指的是图像x的第[α,β]语义特征层上的坐标[i,j]上的元素的数值。
该公式描述的是图像x和图像y之间的感知距离。在求解图像间的感知距离时,需要先对待求取的两张图像,分别在预训练好的VGG网络上提取它们的语义特征,然后再通过求解两张图像的语义特征图的L2范数(也称为L2距离,欧几里得距离),得到的结果则为感知距离。在本方法中,感知距离作用在模型生成的去模糊图像和输入的清晰图像上,用以约束生成的去模糊图像的语义信息,使其在语义上与输入的清晰图像相似。
其中x指的是模型生成的去模糊图像,W指的是图像的宽度,H指的是图像的高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标。xi,j指的是图像x在坐标[i,j]上的像素的灰度值。
该公式描述的是图像x的总变分(total var iance),在本方法中,总变分作用在模型生成的去模糊图像上,用以约束图像的边缘信息,使其边缘变得平滑一些,防止其出现“震铃”等人工噪声。
其中,感知损失指的是对于输入的两张图像,分别在预训练好的网络提取语义特征,然后求解两者特征矩阵的L2范数。本发明中,使用了在ImageNet上预训练好的VGG19或者VGG16网络用以提取特征,公式(5)中的φα,β(·)指的是在网络第α个最大池化层之前,第β个卷积层(激活层之前)之后的特征矩阵。
图3和图4分别给出了生成器和判别器的结构图,表1和表2分别给出了生成器和判别器的网络参数设置。
2)训练阶段
构建数据集。本模型在训练过程中,需要提供一个包含“模糊图像—清晰图像”的图像对的数据集作为训练数据。其中模糊图像应该主要凸显运动模糊噪声,清晰图像应该为期待从模糊图像去除模糊噪声后所得的清晰图像。在没有额外声明的情况下,下文所提及的模糊图像,都特指噪声主要为运动模糊噪声的图像。
构建输入队列。将步骤a中的图像对数据集中的模糊图像作为队列元素存储至模糊图像队列,清晰图像作为队列元素存储至清晰图像队列。随机打乱清晰图像队列中的元素的排列顺序(由于模型训练过程是一个多轮的过程,当队列中的所有图像都输入进图像之后,就要开始第二轮训练了。而在第二轮以及往后更多轮的训练中,为了提高模型的鲁棒性,我们在每轮循环开始前,会选择重新随机打乱队列,防止模型出现“过拟合”等情况),然后,根据乱序后的清晰图像队列中的元素顺序,对模糊图像队列的元素进行重排序,以保持清晰和模糊图像的一一对应关系。
预处理待输入的图像。网络模型接受一组包含有m个从步骤b中的两个队列获取的“清晰—模糊”图像对(batch)做为输入。对于每一个图像对,先将清晰图像缩放成成Sh×Sw的尺寸,再从该图像随机裁剪出一个尺寸为Ch×Cw的图像块,然后,对模糊图像也做相同的处理。注意,要确保清晰和模糊图像的裁剪位置完全相同为了防止模型过拟合,模型在训练过程中,需要做一些“数据增强”之类的操作。随机裁剪图像块做为输入,就属于数据增强的一种。也就是说,在实际的训练过程中,模型的输入不是一张完整的图像,而是随机从图像上裁剪下来的一块区域,即这里提及的图像块。。
模型的参数更新过程。模型的训练过程通过迭代应用后向传播算法,逐步更新网络的可训练参数,最终使得模型拟合一个从模糊图像分布到清晰图像分布的映射。网络的每一步(step)训练包含两个阶段,分别为前向传播和后向传播。其中,前向传播阶段中,模型读入步骤c中的预处理数据,经过整个模型的计算,得到一个输出。而后向传播阶段中,将计算前向传播得到的输出与真实的清晰图像分布之间由于偏差而造成的损失(loss)。再利用更新算法,根据损失,计算出更新梯度。最后将更新梯度逆着模型顺序往回传,逐层更新模型中的可训练参数。下面将结合本发明提出的模型,详细地解说模型的训练更新过程:
生成器生成图像。首先,模糊图像的图像块在生成式对抗网络的生成器中,经过一次前向传播计算,生成一张去模糊图像。在这个过程中,模糊图像先经过降采样器,得到一个尺寸为(Ch/128)×(Cw/128)×512的带有图像高层语义信息的矩阵,然后,再经过一个上采样器,最终生成一个尺寸为Ch×Cw×3的去模糊图像。注意,降采样器与上采样器为完全对称的结构,且在上采样器的每一层中,除了最后一层外,其他的层都会将输出结果和与之对应的降采样器中的层的输出进行拼接,做为最终的输出,输入到下一层中。
判别器判别图像对。得到步骤a)中生成的去模糊图像之后,和与其对应的模糊图像构成一个“模糊—去模糊”图像对,输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,G(x))。另外,也将对应的“模糊—清晰”图像对执行同样的操作,得到一个该映射为真实映射的概率D(x,y)。注意,此处的图像对,通过在颜色通道维度上进行多个图像块的叠加,如将模糊图像叠在去模糊图像的上面,以及将模糊图像叠在清晰图像的上面,才输入到判别器中。
生成式对抗网络通过判别损失优化参数。经过步骤a)和b)之后,我们构造了生成式对抗网络的损失函数,用来优化模型。其中,生成器和判别器对应的优化方程分别如公式(7)和(8)所示
其中,G为生成器,G(x)为生成器输出的去模糊图像;D为判别器,D(·)为判别器输出的判别概率,为目标函数的数学期望,x~pdata(x)指的是图像x取自一个特定的分布pdata(x),在本方法中,这个特定的分布指的就是一个图像队列。同理,y~pdata(y)指的是图像y取自一个特定的分布pdata(y),指的是在更新模型参数时,只更新生成器网络G的参数,并使得损失函数L(G,D)的值最小化。同理,指的是在更新模型参数时,只更新判别器网络D的参数,并使得损失函数L(G,D)的值最小化,
公式(7)表示生成器的目标函数,是最大化判别器判定“模糊—去模糊”图像对为真实映射的概率D(x,G(x)),使其趋向于1,
公式(8)表示判别器的目标函数,是最大化判别器判定“模糊—清晰”图像对为真实映射的概率D(x,G(x)),使其趋向于1。同时最小化概率D(x,G(x)),使其趋向于0。
a)生成器连接L1范数损失、感知损失、总变分损失约束优化模型参数,对于生成器而言,除了生成损失以外,我们还加入了L1范数损失、感知损失以及总变分损失对生成的图像进行约束,三者的数学表示形式分别如公式(4)-(6)所示,最终,生成器的损失函数如公式(9)所示
其中lL1与公式(4)同指,lperceptual与公式(5)同指,ltv与公式(6)同指,α1,α2和α3分别为L1范数损失、感知损失以及总变分损失对应的权重。特别的,本发明提供的效果图中,三者分别被设置为100,10,0.1。
b)模型在后向传播阶段,分别根据步骤c)中的公式(8)和步骤d)中的公式(9)计算出生成器和判别器的损失,并依次单独更新生成器和判别器中的模型参数。应用后向传播算法更新优化模型,实际上就是在优化公式(8)和公式(9),使其最小化,公式(8)是判别器的,会涉及到“模糊--去模糊”以及“模糊--清晰”图像对,而公式(9)中的L1范数和感知约束,则会涉及到“去模糊--清晰”图像对。
c)重复步骤a)到步骤e),直至模型收敛(模型收敛,在数值上体现为,当方法中提及的判别器损失函数(公式(8))以及生成器的损失函数(公式(9)),在某次训练之后,输出的数值和上一次训练输出的数值,相差小于某一个很小的数值(比如,1e-10)时,则说明模型收敛。对于模型的收敛,较为形象直观的理解,即最终模型拟合了一个从模糊图像分布到清晰图像分布的映射。),则停止训练。当输入队列被取空之后,如果模型还没有收敛,则按照步骤b中提及的方法,重新对清晰图像队列和清晰图像队列进行随机乱序排序。
3)应用阶段
当模型训练至收敛之后,我们将整个模型对应的参数保存下来。在应用阶段,直接导入这些参数,然后,对于输入的模糊图像,仅通过一次前向传播计算,就可以直接生成去模糊图像了。具体的步骤如下:
a.将模糊图像缩放到尺寸Ch×Cw。
b.将步骤a中得到的经过变换的图像矩阵,输入到生成式对抗网络的生成器中,通过一次前向传播计算,其输出结果就是我们想要的去模糊图像。
图1是本发明模型一款擦阶段的方法流程框图,主要包括输入一张带有运动模糊噪声的图像;生成器学习生成一张去模糊图像,判别器判断“模糊——去模糊”图像对是否为真实映射,更新生成器参数;判别器判断“模糊——清晰”图像对是否为真实映射,更新判别器参数;“去模糊——清晰”图像对受L1范数损失和感知损失的约束,更新生成器参数;去模糊图像受总方差(总变分)损失的约束,更新生成器参数。
图2是本发明模型应用阶段的方法流程框图,主要包括输入一张带有运动模糊噪声的图像;生成器通过一次前向传播计算,生成去模糊图像。
图1本发明模型中生成器结构图,主要包括输入一张带有运动模糊噪声的图像;降采样器对图像进行卷积操作,提取图像的语义信息;上采样器根据获取到的语义信息,同时结合图像的结构信息,对图像进行解卷积操作,最终得到输出图像,即去模糊图像;残差网络用于加深网络结构,同时又可以提高模型的稳定性,防止模型训练过程出现“梯度爆炸”或者“梯度消失”的问题。
图2本发明模型中判别器结构图,主要包括输入一组“模糊——去模糊”图像对;输入一组“模糊——清晰”图像对;判别器对于两组输入,分别输出对输入图像对是否为真实变换映射的判断结果。
图5本发明模型的结果样例,第一列是带有运动模糊噪声的图像;第二列是模型生成的去模糊图像;第三列是清晰图像,特别的,在应用阶段中,清晰图像只是用于和模型生成结果做对比,并不输入模型中。我们在自然条件下采集的数据集上做了实验。实验结果表明,本发明能够根据输入的带有运动模糊噪声的图像,生成逼真的去模糊后的清晰图像(模拟结果见图5)。
表1
表1本发明模型中生成器的模型参数。其中包括模型中每层卷积层的卷积核大小,卷积操作步长,输出特征维度,激活函数类型以及是否进行归一化操作。
表2
表2本发明模型中判别器的模型参数。其中包括模型中每层卷积层的卷积核大小,卷积操作步长,输出特征维度,激活函数类型以及是否进行归一化操作。
相比以前的图像去运动模糊技术,本发明具有以下的优点:
1.通过一次运算,便可以得到清晰图像,效率高。
2.能够更好的处理自然条件下拍摄的,非统一的,非线性的运动模糊类型。
3.无需计算图像的运动模糊核。
4.网络模型充分考虑了模糊图像的结构和语义信息,使得生成的清晰图像更符合人类的感知。
本发明的基础在于能够根据一张带有运动模糊噪声的图像,生成去模糊的清晰图像。L1范数约束反映了模糊图像与清晰图像间的结构差异,感知约束反映了模糊图像与清晰图像间的语义差异,总变分约束反映了模糊图像的纹理信息,而基于结构和语义信息进行改进的生成式对抗网络,则记录了图像的细节特征。因此,任何基于L1范数约束、感知约束和总变分约束的生成式对抗网络的图像去模糊技术都包含在本发明之内。特别的,对于任何仅仅替换生成式对抗网络的生成器/判别器者,同样属于本发明之内。
Claims (9)
1.一种基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,包括如下步骤:
S10设计去运动模糊的生成式 对抗网络模型结构,其中该网络模型由生成器和判别器组成,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作;
S20将一个包含模糊图像和清晰图像的图像对数据集中模糊图像作为队列元素存储至模糊图像队列,清晰图像作为队列元素存储至清晰图像队列,且以清晰图像队列中的元素顺序调整模糊图像队列的元素顺序,以使清晰图像与模糊图像一一对应;
S30输入一组包含有m个从S20步骤中的两个队列获取的清晰-模糊图像对至网络模型,分别将该图像对中的清晰图像和模糊图像缩放成Sh×Sw的尺寸,再剪成出尺寸为Ch×Cw的图像块;
S40将由S30得到的图像块输入该网络模型,通过迭代应用后向传播算法,逐步更新该网络模型的训练参数,每代队列中的所有元素训练结束之后,重新打乱队列元素的排序,开始新一代的训练,循环多代训练,直至该网络模型收敛,保存并导入该网络模型收敛时的训练参数,以使得该网络模型拟合成一个从模糊图像分布到清晰图像分布的映射,包括:
S401将由S30得到的图像块输入该网络模型,模糊图像的图像块在生成式对抗网络的生成器中,经过一次前向传播计算,生成一张去模糊图像,其中模糊图像先经过降采样器,得到一个尺寸为(Ch/128)×(Cw/128)×512的带有图像高层语义信息的矩阵,然后,再经过一个上采样器,最终生成一个尺寸为Ch×Cw×3的去模糊图像;
S402所生成的去模糊图像和与其对应的模糊图像构成一个“模糊—去模糊”图像对,输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,G(x)),及将其对应的“模糊—清晰”图像输入到判别器中,经过一次前向传播计算,得到一个该映射为真实映射的概率D(x,y);
S403生成式对抗网络的损失函数通过生成器的生成损失和判别器的判别损失优化参数,其中,
生成器的优化方程:
判别器的优化方程:
其中,G为生成器,G(x)为生成器输出的去模糊图像;D为判别器,D(·)为判别器的输出结果,与S402中同义,为目标函数的数学期望,x~pdata(x)指的是图像x取自一个特定的分布pdata(x),在本方法中,这个特定的分布指的就是一个图像队列;同理,y~pdata(y)指的是图像y取自一个特定的分布pdata(y),指的是在更新模型参数时,只更新生成器网络G的参数,并使得损失函数L(G,D)的值最小化,同理,指的是在更新模型参数时,只更新判别器网络D的参数,并使得损失函数L(G,D)的值最小化,公式(7)表示生成器的目标函数,是最大化判别器判定“模糊—去模糊”图像对为真实映射的概率D(x,G(x)),使其趋向于1,公式(8)表示判别器的目标函数,是最大化判别器判定“模糊—清晰”图像对为真实映射的概率D(x,G(x)),使其趋向于1,同时最小化概率D(x,G(x)),使其趋向于0;
S404生成器通过S402中的生成损失、L1范数损失、感知损失及总变分损失的约束优化模型参数,最终得到生成器的损失函数,其中:
图像x和图像y之间的L1范数函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像;W指的是图像的宽度,H指的是图像的高度,图像x和图像y的尺寸完全相同,都是(W,H),i指的是宽度维度上的坐标,j指的是高度维度上的坐标,yi,j指的是图像y在坐标[i,j]上的像素的灰度值,同理,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
图像x和图像y之间的感知距离函数:
其中x指的是输入的清晰图像,y指的是模型生成的去模糊图像,[α,β]为一个整体,是一个坐标信息,指的是VGG网络中,第α个卷积层后,第β个池化层前的那一层语义特征的坐标,而Wα,β,Hα,β则是语义特征层的宽度和高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,指的是在网络第α个最大池化层之前,第β个卷积层之后的特征矩阵,指的是图像y的第[α,β]语义特征层,而指的是图像y的第[α,β]语义特征层上的坐标[i,j]上的元素的数值,同理,指的是图像x的第[α,β]语义特征层上的坐标[i,j]上的元素的数值;
图像x的总变分损失函数:
其中x指的是模型生成的去模糊图像,W指的是图像的宽度,H指的是图像的高度,i指的是宽度维度上的坐标,j指的是高度维度上的坐标,xi,j指的是图像x在坐标[i,j]上的像素的灰度值;
由公式(4)、(5)、(6)得到生成器的损失函数:
其中lL1与公式(4)同指,lperceptual与公式(5)同指,ltv与公式(6)同指,α1,α2和α3分别为L1范数损失、感知损失以及总变分损失对应的权重;
S405模型在后向传播阶段,分别根据公式(8)和公式(9)计算出生成器和判别器的损失,并依次单独更新生成器和判别器中的模型参数,应用后向传播算法更新优化模型;
S406重复S401-405,直至模型收敛,则停止训练,当输入队列被取空之后,如果模型还没有收敛,则按照S402中提及的方法,重新对清晰图像队列和清晰图像队列进行随机乱序排序;
S50输入模糊图像,通过一次前向传播计算,生成去模糊图像。
2.如权利要求1所述的基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,所述S50包括:
S501将输入的模糊图像缩放为Ch×Cw的尺寸的图像;
S502将S501的图像输入到生成式对抗网络的生成器中,通过一次前向传播计算,输出去模糊图像。
3.如权利要求1所述的基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,所述S401中所述降采样器与上采样器为完全对称的结构,且在上采样器的每一层中,除了最后一层外,其他的层都会将输出结果和与之对应的降采样器中的层的输出进行叠加,做为最终的输出,输入到下一层中。
4.如权利要求1所述的基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,所述S402中所述的图像对通过在颜色通道维度上进行多个图像块的叠加后输入至判别器。
5.如权利要求1所述的基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,所述S404中感知损失是对于输入的两张图像,分别在预训练好的网络提取语义特征,然后求解两者特征矩阵的L2范数。
6.如权利要求5所述的基于生成式对抗网络进行图像去运动模糊的方法,其特征在于,所述预训练好的网络为使用了在ImageNet上预训练好的VGG19或者VGG16网络。
7.一种如权利要求1-6任一项所述的一种去运动模糊的生成式对抗网络模型,其特征在于,包括生成器和判别器,生成器用于不断优化参数以使其生成的图像趋近真实图像的分布,判别器用于不断优化参数以使其能更好地判别图像来自于随机噪声分布或真实图像分布,当该网络模型训练收敛时,整个网络模型达到一个动态平衡状态,即生成器生成的图像趋近真实图像的分布,判别器无法判别图像来自于哪个分布,其中生成器包括降采样器和上采样器,降采样器用于对图像进行卷积操作,提取图像的语义信息,上采样器用于根据获取到的语义信息,结合图像的结构信息,对图像进行解卷积操作。
8.如权利要求7所述的图像去运动模糊的生成式对抗网络模型,其特征在于,所述生成器还包括残差网络,所述残差网络用于加深网络模型的结构。
9.如权利要求7所述的图像去运动模糊的生成式对抗网络模型,其特征在于,所述降采样器和上采样器组成U形网络结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810201863.3A CN108416752B (zh) | 2018-03-12 | 2018-03-12 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810201863.3A CN108416752B (zh) | 2018-03-12 | 2018-03-12 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108416752A CN108416752A (zh) | 2018-08-17 |
CN108416752B true CN108416752B (zh) | 2021-09-07 |
Family
ID=63131079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810201863.3A Active CN108416752B (zh) | 2018-03-12 | 2018-03-12 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416752B (zh) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110473147A (zh) * | 2018-05-09 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 一种视频去模糊方法和装置 |
CN109151275B (zh) * | 2018-08-29 | 2021-03-09 | 合肥工业大学 | 具有实时腔镜视像增强处理功能的智能边缘计算系统 |
CN109171605B (zh) * | 2018-08-29 | 2020-09-01 | 合肥工业大学 | 带目标定位和腔镜视像增强处理功能的智能边缘计算系统 |
CN109363614B (zh) * | 2018-08-29 | 2020-09-01 | 合肥德易电子有限公司 | 具有高清视像增强处理功能的智能一体化机器人腔镜系统 |
CN109171606B (zh) * | 2018-08-29 | 2020-09-01 | 合肥德易电子有限公司 | 智能一体化机器人腔镜系统 |
CN109288487B (zh) * | 2018-08-29 | 2020-12-15 | 合肥德铭电子有限公司 | 具有高清视像处理和电磁抑制功能的智能腔镜系统 |
CN109146820B (zh) * | 2018-08-29 | 2020-10-16 | 合肥工业大学 | 实时腔镜视像增强处理方法和系统、存储介质 |
CN108926319B (zh) * | 2018-08-29 | 2020-09-01 | 合肥工业大学 | 配置高清视像处理模块的移动智能一体化腔镜系统 |
CN109124782B (zh) * | 2018-08-29 | 2020-09-22 | 合肥工业大学 | 智能一体化腔镜系统 |
CN109492075B (zh) * | 2018-09-10 | 2021-09-28 | 中山大学 | 一种基于循环生成对抗网络的迁移学习排序方法 |
CN110889316B (zh) * | 2018-09-11 | 2020-11-24 | 深圳云天励飞技术有限公司 | 一种目标对象识别方法、装置及存储介质 |
CN109377459B (zh) * | 2018-09-30 | 2022-03-18 | 国网智能科技股份有限公司 | 一种生成式对抗网络的超分辨率去模糊方法 |
CN110163235B (zh) * | 2018-10-11 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 图像增强模型的训练、图像增强方法、装置和存储介质 |
CN109255769A (zh) * | 2018-10-25 | 2019-01-22 | 厦门美图之家科技有限公司 | 图像增强网络的训练方法和训练模型、及图像增强方法 |
CN109636733B (zh) * | 2018-10-26 | 2020-07-24 | 华中科技大学 | 基于深度神经网络的荧光图像解卷积方法及系统 |
WO2020087173A1 (en) * | 2018-11-01 | 2020-05-07 | Element Ai Inc. | Automatically applying style characteristics to images |
CN109523476B (zh) * | 2018-11-02 | 2022-04-05 | 武汉烽火众智数字技术有限责任公司 | 用于视频侦查的车牌去运动模糊方法 |
CN109523478B (zh) * | 2018-11-09 | 2021-06-04 | 智慧眼科技股份有限公司 | 图像去网格方法、存储介质 |
CN109636746B (zh) * | 2018-11-30 | 2020-09-08 | 上海皓桦科技股份有限公司 | 图像噪声去除系统、方法及设备 |
CN110782398B (zh) * | 2018-12-13 | 2020-12-18 | 北京嘀嘀无限科技发展有限公司 | 图像处理方法、生成式对抗网络系统和电子设备 |
CN110782397B (zh) * | 2018-12-13 | 2020-08-28 | 北京嘀嘀无限科技发展有限公司 | 一种图像处理方法、生成式对抗网络、电子设备及存储介质 |
CN109671125B (zh) * | 2018-12-17 | 2023-04-07 | 电子科技大学 | 一种高度融合的gan网络装置及实现文本生成图像的方法 |
CN109447936A (zh) * | 2018-12-21 | 2019-03-08 | 江苏师范大学 | 一种红外和可见光图像融合方法 |
CN109829396B (zh) * | 2019-01-16 | 2020-11-13 | 广州杰赛科技股份有限公司 | 人脸识别运动模糊处理方法、装置、设备及存储介质 |
CN109886909A (zh) * | 2019-02-18 | 2019-06-14 | 上海健康医学院 | 一种基于ct图像合成pet-ct图像的方法 |
CN109886210B (zh) * | 2019-02-25 | 2022-07-19 | 百度在线网络技术(北京)有限公司 | 一种交通图像识别方法、装置、计算机设备和介质 |
CN110070517B (zh) * | 2019-03-14 | 2021-05-25 | 安徽艾睿思智能科技有限公司 | 基于退化成像机理和生成对抗机制的模糊图像合成方法 |
CN110012145B (zh) * | 2019-04-08 | 2021-01-05 | 北京易诚高科科技发展有限公司 | 一种基于图像模糊度的手机防抖功能评估方法 |
CN111861894B (zh) * | 2019-04-25 | 2023-06-20 | 上海理工大学 | 基于生成式对抗网络的图像去运动模糊方法 |
CN110135583B (zh) * | 2019-05-23 | 2020-08-21 | 北京地平线机器人技术研发有限公司 | 标注信息的生成方法、标注信息的生成装置和电子设备 |
CN111612711B (zh) * | 2019-05-31 | 2023-06-09 | 北京理工大学 | 一种基于生成对抗网络改进的图片去模糊方法 |
CN110428476A (zh) * | 2019-07-05 | 2019-11-08 | 广东省人民医院(广东省医学科学院) | 一种基于多循环生成式对抗网络的图像转换方法及装置 |
CN110414593B (zh) * | 2019-07-24 | 2022-06-21 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN110400312A (zh) * | 2019-07-31 | 2019-11-01 | 北京金山云网络技术有限公司 | 确定图像模糊类型的方法、装置和服务器 |
CN110675329B (zh) * | 2019-08-06 | 2022-02-18 | 厦门大学 | 基于视觉语义引导的图像去模糊方法 |
CN110533741A (zh) * | 2019-08-08 | 2019-12-03 | 天津工业大学 | 一种快速适应战地变化的迷彩图案设计方法 |
CN110570375B (zh) * | 2019-09-06 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、电子设置以及存储介质 |
CN110599421B (zh) * | 2019-09-12 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 模型训练方法、视频模糊帧转换方法、设备及存储介质 |
CN110600047B (zh) * | 2019-09-17 | 2023-06-20 | 南京邮电大学 | 基于Perceptual STARGAN的多对多说话人转换方法 |
CN110705328A (zh) * | 2019-09-27 | 2020-01-17 | 江苏提米智能科技有限公司 | 一种基于二维码图像采集电力数据的方法 |
CN110895801A (zh) * | 2019-11-15 | 2020-03-20 | 北京金山云网络技术有限公司 | 图像处理方法、装置、设备及存储介质 |
CN111340716B (zh) * | 2019-11-20 | 2022-12-27 | 电子科技大学成都学院 | 一种改进双重判别对抗网络模型的图像去模糊方法 |
CN111080541B (zh) * | 2019-12-06 | 2020-10-30 | 广东启迪图卫科技股份有限公司 | 基于比特分层和注意力融合机制的彩色图像去噪方法 |
CN111489304B (zh) * | 2020-03-27 | 2022-04-26 | 天津大学 | 一种基于注意机制的图像去模糊方法 |
CN111476764B (zh) * | 2020-03-27 | 2021-08-24 | 西安科技大学 | 一种运动模糊ct图像三维重建的方法 |
CN113628121B (zh) * | 2020-05-06 | 2023-11-14 | 阿里巴巴集团控股有限公司 | 数据处理、训练多媒体数据的方法和装置 |
CN111798359A (zh) * | 2020-05-19 | 2020-10-20 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的图像去水印方法 |
CN111626956B (zh) * | 2020-05-26 | 2023-08-08 | 北京百度网讯科技有限公司 | 图像去模糊方法和装置 |
CN111833267A (zh) * | 2020-06-19 | 2020-10-27 | 杭州电子科技大学 | 一种进行运动模糊复原的双重生成对抗网络及其运行方法 |
CN111830935A (zh) * | 2020-07-23 | 2020-10-27 | 深圳慕智科技有限公司 | 一种面向自动驾驶系统的蜕变测试方法 |
CN112419171A (zh) * | 2020-10-28 | 2021-02-26 | 云南电网有限责任公司昆明供电局 | 一种多残差块条件生成对抗网络的图像复原方法 |
US11798139B2 (en) * | 2020-11-17 | 2023-10-24 | GM Global Technology Operations LLC | Noise-adaptive non-blind image deblurring |
CN112634163A (zh) * | 2020-12-29 | 2021-04-09 | 南京大学 | 基于改进型循环生成对抗网络去图像运动模糊方法 |
CN112929666B (zh) * | 2021-03-22 | 2023-04-14 | 北京金山云网络技术有限公司 | 一种编解码网络的训练方法、装置、设备及存储介质 |
CN113470027B (zh) * | 2021-09-03 | 2022-03-25 | 广东电网有限责任公司惠州供电局 | 基于生成对抗的绝缘护套识别方法、装置、系统及介质 |
CN114549361B (zh) * | 2022-02-28 | 2023-06-30 | 齐齐哈尔大学 | 一种基于改进U-Net模型的去图像运动模糊方法 |
CN115439375B (zh) * | 2022-11-02 | 2023-03-24 | 国仪量子(合肥)技术有限公司 | 图像去模糊模型的训练方法和装置以及应用方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680491A (zh) * | 2015-02-28 | 2015-06-03 | 西安交通大学 | 一种基于深度神经网络的图像非均匀运动模糊去除方法 |
CN107590774A (zh) * | 2017-09-18 | 2018-01-16 | 北京邮电大学 | 一种基于生成对抗网络的车牌清晰化方法及装置 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307950A1 (en) * | 2013-04-13 | 2014-10-16 | Microsoft Corporation | Image deblurring |
-
2018
- 2018-03-12 CN CN201810201863.3A patent/CN108416752B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680491A (zh) * | 2015-02-28 | 2015-06-03 | 西安交通大学 | 一种基于深度神经网络的图像非均匀运动模糊去除方法 |
CN107590774A (zh) * | 2017-09-18 | 2018-01-16 | 北京邮电大学 | 一种基于生成对抗网络的车牌清晰化方法及装置 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
Non-Patent Citations (2)
Title |
---|
"Deep generative image models using a Laplacian pyramid of adversarial networks";Emily Denton等;《NIPS"15:Proceedings of the 28th International Conference on Neural Information Processing Systems》;20151201;第1卷;全文 * |
"From Motion Blur to Motion Flow:a Deep Learning Solution for Removing Heterogeneous Motion Blur";Dong Gong等;《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20170726;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108416752A (zh) | 2018-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416752B (zh) | 一种基于生成式对抗网络进行图像去运动模糊的方法 | |
CN110136063B (zh) | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 | |
CN108475415B (zh) | 用于图像处理的方法和系统 | |
CN111898701B (zh) | 模型训练、帧图像生成、插帧方法、装置、设备及介质 | |
CN113033570B (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
CN110766632A (zh) | 基于通道注意力机制和特征金字塔的图像去噪方法 | |
CN110660020B (zh) | 一种基于融合互信息的对抗生成网络的图像超分辨率方法 | |
CN112541877B (zh) | 基于条件生成对抗网络的去模糊方法、系统、设备及介质 | |
CN112215755B (zh) | 一种基于反投影注意力网络的图像超分辨率重建方法 | |
CN111861886B (zh) | 一种基于多尺度反馈网络的图像超分辨率重建方法 | |
CN112132741A (zh) | 一种人脸照片图像和素描图像的转换方法及系统 | |
CN111127309A (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
CN111108508B (zh) | 脸部情感识别方法、智能装置和计算机可读存储介质 | |
CN114494003B (zh) | 一种联合形状变换和纹理转换的古文字生成方法 | |
CN110570375B (zh) | 一种图像处理方法、装置、电子设置以及存储介质 | |
Ye et al. | Depth super-resolution via deep controllable slicing network | |
CN113240584A (zh) | 一种基于图片边缘信息的多任务手势图片超分辨率方法 | |
CN110599403B (zh) | 一种具有良好高频视觉效果的图像超分辨率重建方法 | |
CN116957964A (zh) | 一种基于扩散模型的小样本图像生成方法及系统 | |
CN113096020B (zh) | 基于平均模式生成对抗网络的书法字体创作方法 | |
CN112861747B (zh) | 跨视角图像优化方法、装置、计算机设备及可读存储介质 | |
CN117315735A (zh) | 基于先验信息与注意力机制的人脸超分辨率重建方法 | |
CN114862699A (zh) | 基于生成对抗网络的人脸修复方法、装置及存储介质 | |
CN114758021A (zh) | 基于生成对抗网络的地表图像生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |