CN109993698A - 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 - Google Patents
一种基于生成对抗网络的单幅图像超分辨纹理增强方法 Download PDFInfo
- Publication number
- CN109993698A CN109993698A CN201910250713.6A CN201910250713A CN109993698A CN 109993698 A CN109993698 A CN 109993698A CN 201910250713 A CN201910250713 A CN 201910250713A CN 109993698 A CN109993698 A CN 109993698A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- resolution
- texture
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000006870 function Effects 0.000 claims abstract description 32
- 230000008447 perception Effects 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000008485 antagonism Effects 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims description 3
- 239000004615 ingredient Substances 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 description 4
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于生成对抗网络的单幅图像超分辨纹理增强方法,首先集使用广泛的基准数据集,将数据集中的高分辨率图像降为低分辨率图像;然后将低分辨率图像进行放大观测值,生成过平滑图像;产生的过平滑图像输入到深度残差网络中,使用生成对抗网络提供的框架,把过平滑图像细节的损失从图像空间转移到目标识别系统更高层次的特征空间;将生成对抗网络框架中使用感知损失和纹理损失结合的损失函数来指导网络训练;最后将指导训练和生成对抗网络框架中生成网络和判别网络的动态博弈,最终得到具有更多纹理细节的高分辨率图像,利用该方法可以实现单幅图像纹理增强,解决了现有的超分辨率图像中的纹理区域模糊、过于平滑和不自然问题。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于生成对抗网络的单幅图像超分辨纹理增强方法。
背景技术
图像超分辨主要分为三种类型:(1)基于插值的方法:含有最近邻插值和双三次插值法,相比较于双三次插值法,最近邻插值运算复杂度较小,但是图像边缘的平滑度低于双三次插值法,两者相同的优点是算法简单易于实现,缺点都是得到的超分辨率图像清晰度有限。(2)基于重建的方法:目的在于重建退化图像中丢失的高频信息,Yang等人提出的迭代反向投影算法虽然计算量少并且简单,但是无法处理图像中的复杂结构。(3)基于学习算法:主要思想是通过低分辨率图像和高分辨率图像之间存在的一些关系来学习丢失在低分辨率图像中的高频细节,大量实验表明了它强大的图像超分辨率能力,但是对于不合适的训练样本,会在合成图像中产生明显的伪影和不必要的噪声,比如:卷积神经网络(CNNs)、稀疏表示等。
单幅图像超分辨就是完成从单个低分辨率图像输入中推断出一幅高分辨率图像的任务。传统上,算法的性能是通过像素集的重建来衡量的,比如常用的峰值信噪比(Psnr),这种指标和人类对图像质量的感知相关性很差,因此,如果使用最小化这类度量的算法,结果往往会产生过平滑的图像,这些图像缺乏高频纹理,虽然它会产生较高的峰值信噪比值,但看起来并不自然。尽管使用更快更深的卷积神经网络在单幅图像超分辨率的准确性和速度方面取得了突破,但如何恢复图像更精细的纹理细节这个问题仍未解决,提出的超分辨率生成对抗网络是一个从4×下采样中恢复照片真实感自然图像的框架,将深度残差网络应用于对抗性训练中,在高放大率下提高了图像质量,结合感知损失函数和纹理损失函数,其中感知损失函数包括对抗性损失和内容损失。重点要使地面真实图像在训练期间创建真实的纹理,而不是对像素的精确再进行优化。纹理损失通过减少对抗性损失项的伪影来增加峰值信噪比值和丰富纹理,本专利涉及的增强算法针对纹理细节丢失的图像,所提出的超分辨方法在纹理和感知两个方面均可重建高质量的图像。
发明内容
本发明的目的是提供一种基于生成对抗网络的单幅图像超分辨纹理增强方法,实现单幅图像纹理增强,解决了现有的超分辨率图像中的纹理区域模糊、过于平滑和不自然问题。
本发明所采用的技术方案是,一种基于生成对抗网络的单幅图像超分辨纹理增强方法,具体步骤如下:
步骤1:收集基准数据集,将基准数据集中的高分辨率图像降为低分辨率图像;
步骤2:将经步骤1得到的低分辨率图像的观测值进行放大,生成过平滑图像;
步骤3:将步骤2产生的过平滑图像输入到深度残差网络SRResNet中,使用生成对抗网络提供的框架,把过平滑图像细节的损失从图像空间转移到目标识别系统更高层次的特征空间;
步骤4:将步骤3生成对抗网络框架中使用感知损失和纹理损失结合的损失函数来指导过平滑图像进行网络训练,最终得到具有更多纹理细节的高分辨率图像。
本发明的特点还在于:
其中步骤1为收集使用广泛的三个基准数据集Set5、Set14和Urban100,将基准数据集中的高分辨率图像IHR使用下采样算子降为低分辨率图像ILR;
其中步骤1具体包括以下步骤:
步骤1.1,使用下采样算子如式(1)将数据集中的高分辨率图像IHR∈[0,1]αw×αh×c降为低分辨率图像ILR如式(2):
dα:[0,1]αw×αh×c→[0,1]w×h×c (1)
ILR=dα(IHR)∈[0,1]w×h×c (2)
其中,w为图像宽度,h为图像高度,和c为图像的彩色通道,α为固定的缩放因子;
步骤1.2,对于固定的缩放因子α>1,图像宽度w,图像高度h和图像的彩色通道c,单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (3)
得到低分辨率图像ILR,其中d为下采样因子;
其中步骤2具体为:将经步骤1下采样算子得到的低分辨率图像ILR的观测值进行上采样双三次插值放大,生成过平滑图像Is;
其中步骤2中双三次插值计算公式为:
Is=f(i+u,j+v)=ABC (4)
其中,A、B、C均为矩阵,其形式如下:
A=[S(1+u)S(u)S(1-u)S(2-u)] (5)
C=[S(1+v)S(uv)S(1-v)S(2-v)]T (7);
其中步骤3具体包括:利用生成对抗网络的框架结构,将卷积神经网络作为生成网络定义判别网络定义判别网络与生成网络交替优化解决对抗性极大极小值问题,如下式所示:
其中步骤4具体包括以下步骤:
步骤4.1,通过结合感知损失函数和纹理损失函数来指导网络训练,其中感知损失函数LP由内容损失和对抗性损失两部分构成:
步骤4.1.1,内容损失:函数选择用基于特征空间的最小均方差代替传统的基于像素空间的最小均方差,特征是利用VGG网络提取的图像高层次特征,计算公式如(9)所示:
步骤4.1.2,对抗性损失:在内容损失之外,还在感知损失中加入了生成对抗网络的生成成分,促使网络通过欺骗判别网络保留存在于自然图像的细,根据判别器在所有训练样本上的概率定义了生成对抗性损失
是重建图像为真实高分辨率图像的估计概率,为了获得更好的梯度行为,最小化替代
步骤4.2,设定纹理损失函数LT:给定目标纹理图像,通过匹配从预先训练过的网络提取的信息统计到目标纹理,迭代地生成纹理丰富的输出图像和通过减少对抗性损失项的伪影来增加的峰值信噪比值,统计利用φ(I)∈Rn×m在给定VGG层上的特征激活和长度为m的n个特征之间的相关性,如(11)所示:
步骤4.3,将指导训练的过平滑图像和生成对抗网络框架中的生成网络和判别网络进行动态博弈,最终得到具有更多纹理细节的高分辨率图像。
本发明的有益效果是:
本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强算法,在生成对抗网络框架下,通过结合改进后的感知损失函数和纹理损失函数,在高放大率下提高图像质量,利用该方法在纹理和感知两个方面均可重建高质量的图像,对图像处理与显示的诸多应用领域具有重要意义。
附图说明
图1是本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强方法中生成网络的流程图;
图2是本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强方法中判别网络的流程图;
图3是本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强方法中超分辨率方法指导的图像;
图4是本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强方法中双三次插值法指导的图像;
图5是本发明的一种基于生成对抗网络的单幅图像超分辨纹理增强方法中卷积神经网络方法指导的图像。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供一种基于生成对抗网络的单幅图像超分辨纹理增强方法,具体包括如下步骤:
步骤1:收集使用广泛的三个基准数据集Set5、Set14、Urban100,将数据集中的高分辨率图像IHR使用下采样算子降为低分辨率图像ILR,具体包括:
步骤1.1,使用下采样算子如式(1)将数据集中的高分辨率图像IHR∈[0,1]αw×αh×c降为低分辨率图像ILR如式(2):
dα:[0,1]αw×αh×c→[0,1]w×h×c (1)
ILR=dα(IHR)∈[0,1]w×h×c (2)
其中,w为图像宽度,h为图像高度,和c为图像的彩色通道,α为固定的缩放因子;
步骤1.2,对于固定的缩放因子α>1,图像宽度w,高度h和彩色通道c。单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (3)
得到低分辨率图像ILR,其中d为下采样因子;
步骤2:对步骤1下采样得到的低分辨率图像ILR进行上采样—双三次插值来放大低分辨率图像ILR观测值,产生过平滑图像Is:
双三次插值计算公式如下所示
Is=f(i+u,j+v)=ABC (4)
其中,A、B、C均为矩阵,其形式如下:
A=[S(1+u)S(u)S(1-u)S(2-u)] (5)
C=[S(1+v)S(uv)S(1-v)S(2-v)]T (7)
步骤3:将步骤2产生的过平滑低分辨率图像Is输入到深度残差网络SRResNet中,使用生成对抗网络提供的框架,把图像细节的损失从图像空间转移到目标识别系统更高层次的特征空间,具体为:
步骤3.1,网络利用生成对抗网络的框架结构,如图1与图2所示,将卷积神经网络作为生成网络定义判别网络它与交替优化解决对抗性极大极小值问题,如下式所示:
步骤3.2,生成网络使用深度生成器G,核心是布局相同的剩余块B,用两个小的3*3核的卷积层和64张特征图,激活函数采用batch-normalization layers和Relu并且使用2个trained sub-pixel卷积层增加输入图像的分辨率;
步骤3.3,判别网络用两个亚像素卷积层对图像进行4倍放大,使用LeakyRelu激活,避免整个网络最大池化。判别网络包含8个过滤核函数递增的卷积层,按从2到64到512个核函数增长;
步骤4:在步骤3提出的网络框架中使用感知损失LP和纹理损失LT结合的损失函数来指导网络训练:
感知损失函数LP包含内容损失函数LC和对抗损失函数LA,其中的内容损失函数LC是基于VGG网络特征图谱的损失函数,具体包括:
步骤4.1,通过结合感知损失函数和纹理损失函数来指导网络训练,其中感知损失函数LP有两部分构成,内容损失和对抗性损失;
步骤4.1.1,内容损失:函数选择用基于特征空间的最小均方差代替传统的基于像素空间的最小均方差,特征是利用VGG网络提取的图像高层次特征,目的是确保两个图像(ILR和IHR)的内容在放入训练对抗网络前,各自的特征看起来相似,计算公式如(9)所示:
步骤4.1.2,对抗性损失:内容损失之外,还在感知损失中加入了生成对抗网络的生成成分,促使网络通过欺骗判别网络保留存在于自然图像的细节,根据判别器在所有训练样本上的概率定义了生成性损失
是重建图像为真实高分辨率图像的估计概率。为了获得更好的梯度行为,最小化替代
步骤4.2,设定纹理损失函数LT:给定目标纹理图像,通过匹配从预先训练过的网络提取的信息统计到目标纹理,迭代地生成纹理丰富的输出图像和通过减少对抗性损失项的伪影来增加的峰值信噪比值,统计利用φ(I)∈Rn×m在给定VGG层上的特征激活和长度为m的n个特征之间的相关性,如(11)所示:
采用大小为16×16像素的贴片,在真实纹理生成和图像整体感知质量之间取得最佳平衡,纹理损失函数可以促进产生的图像具有更丰富的纹理信息;
经过指导训练的过平滑图像和生成对抗网络中生成网络和判别网络的动态博弈,最终得到具有更多纹理细节的高分辨率图像。
使用以上方法最终获得超分辨率的图像如图3所示,通过图4双三次插值和图5卷积神经网络方法比较可以看出本发明提出的方法在恢复图像纹理细节能力方面有较大提高。
Claims (7)
1.一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,具体步骤如下:
步骤1:收集基准数据集,将基准数据集中的高分辨率图像降为低分辨率图像;
步骤2:将经步骤1得到的低分辨率图像的观测值进行放大,生成过平滑图像;
步骤3:将步骤2产生的过平滑图像输入到深度残差网络SRResNet中,使用生成对抗网络提供的框架,把过平滑图像细节的损失从图像空间转移到目标识别系统更高层次的特征空间;
步骤4:将步骤3生成对抗网络框架中使用感知损失和纹理损失结合的损失函数来指导过平滑图像进行网络训练,最终得到具有更多纹理细节的高分辨率图像。
2.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤1为收集使用广泛的三个基准数据集Set5、Set14和Urban100,将基准数据集中的高分辨率图像IHR使用下采样算子降为低分辨率图像ILR。
3.根据权利要求2所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤1具体包括以下步骤:
步骤1.1,使用下采样算子如式(1)将数据集中的高分辨率图像IHR∈[0,1]αw×αh×c降为低分辨率图像ILR如式(2):
dα:[0,1]αw×αh×c→[0,1]w×h×c (1)
ILR=dα(IHR)∈[0,1]w×h×c (2)
其中,w为图像宽度,h为图像高度,和c为图像的彩色通道,α为固定的缩放因子;
步骤1.2,对于固定的缩放因子α>1,图像宽度w,图像高度h和图像的彩色通道c,单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (3)
得到低分辨率图像ILR,其中d为下采样因子。
4.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤2具体为:将经步骤1下采样算子得到的低分辨率图像ILR的观测值进行上采样双三次插值放大,生成过平滑图像Is。
5.根据权利要求4所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤2中双三次插值计算公式为:
Is=f(i+u,j+v)=ABC (4)
其中,A、B、C均为矩阵,其形式如下:
A=[S(1+u)S(u)S(1-u)S(2-u)] (5)
C=[S(1+v)S(uv)S(1-v)S(2-v)]T (7)。
6.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤3具体包括:利用生成对抗网络的框架结构,将卷积神经网络作为生成网络GθG,定义判别网络DθD,定义判别网络DθD与生成网络GθG交替优化解决对抗性极大极小值问题,如下式所示:
7.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨纹理增强方法,其特征在于,所述步骤4具体包括以下步骤:
步骤4.1,通过结合感知损失函数和纹理损失函数来指导网络训练,其中感知损失函数LP由内容损失和对抗性损失两部分构成:
步骤4.1.1,内容损失:函数选择用基于特征空间的最小均方差代替传统的基于像素空间的最小均方差,特征是利用VGG网络提取的图像高层次特征,计算公式如(9)所示:
步骤4.1.2,对抗性损失:在内容损失之外,还在感知损失中加入了生成对抗网络的生成成分,促使网络通过欺骗判别网络保留存在于自然图像的细,根据判别器DθD(GθG(ILR))在所有训练样本上的概率定义了生成对抗性损失
DθD(GθG(ILR))是重建图像GθG(ILR)为真实高分辨率图像的估计概率,为了获得更好的梯度行为,最小化-logDθD(GθG(ISR))替代log[1-DθD(GθG(ILR));
步骤4.2,设定纹理损失函数LT:给定目标纹理图像,通过匹配从预先训练过的网络提取的信息统计到目标纹理,迭代地生成纹理丰富的输出图像和通过减少对抗性损失项的伪影来增加的峰值信噪比值,统计利用φ(I)∈Rn×m在给定VGG层上的特征激活和长度为m的n个特征之间的相关性,如(11)所示:
步骤4.3,将指导训练的过平滑图像和生成对抗网络框架中的生成网络和判别网络进行动态博弈,最终得到具有更多纹理细节的高分辨率图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910250713.6A CN109993698A (zh) | 2019-03-29 | 2019-03-29 | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910250713.6A CN109993698A (zh) | 2019-03-29 | 2019-03-29 | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109993698A true CN109993698A (zh) | 2019-07-09 |
Family
ID=67132046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910250713.6A Pending CN109993698A (zh) | 2019-03-29 | 2019-03-29 | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109993698A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490804A (zh) * | 2019-08-14 | 2019-11-22 | 西安工程大学 | 一种基于生成对抗网络的生成超分辨图像的方法 |
CN110610464A (zh) * | 2019-08-15 | 2019-12-24 | 天津中科智能识别产业技术研究院有限公司 | 一种基于稠密残差神经网络的人脸图像超分辨率方法 |
CN110956133A (zh) * | 2019-11-29 | 2020-04-03 | 上海眼控科技股份有限公司 | 单字符文本归一化模型训练方法、文本识别方法及装置 |
CN110969154A (zh) * | 2019-11-29 | 2020-04-07 | 上海眼控科技股份有限公司 | 文本识别方法、装置、计算机设备和存储介质 |
CN111445410A (zh) * | 2020-03-26 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 基于纹理图像的纹理增强方法、装置、设备和存储介质 |
CN111539897A (zh) * | 2020-05-09 | 2020-08-14 | 北京百度网讯科技有限公司 | 用于生成图像转换模型的方法和装置 |
CN111626932A (zh) * | 2020-05-07 | 2020-09-04 | Tcl华星光电技术有限公司 | 图像的超分辨率重建方法及装置 |
CN112001847A (zh) * | 2020-08-28 | 2020-11-27 | 徐州工程学院 | 相对生成对抗超分辨率重建模型生成高质量图像的方法 |
CN112699912A (zh) * | 2020-11-19 | 2021-04-23 | 电子科技大学 | 一种通过改进gan增强红外热图像的方法 |
CN112927134A (zh) * | 2021-02-25 | 2021-06-08 | 西安理工大学 | 一种基于深度学习的单幅图像多尺度超分辨重建方法 |
WO2021134874A1 (zh) * | 2019-12-31 | 2021-07-08 | 深圳大学 | 二维码去摩尔纹的深度残差网络的训练方法 |
CN113223059A (zh) * | 2021-05-17 | 2021-08-06 | 浙江大学 | 基于超分辨率特征增强的弱小空域目标检测方法 |
WO2021185225A1 (zh) * | 2020-03-16 | 2021-09-23 | 徐州工程学院 | 基于自适应调整的图像超分辨率重建方法 |
WO2023093828A1 (zh) * | 2021-11-25 | 2023-06-01 | 北京字跳网络技术有限公司 | 基于gan网络的超分图像处理方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127684A (zh) * | 2016-06-22 | 2016-11-16 | 中国科学院自动化研究所 | 基于双向递归卷积神经网络的图像超分辨率增强方法 |
CN107958444A (zh) * | 2017-12-28 | 2018-04-24 | 江西高创保安服务技术有限公司 | 一种基于深度学习的人脸超分辨率重建方法 |
CN108205803A (zh) * | 2017-07-19 | 2018-06-26 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络模型的训练方法及装置 |
CN109255769A (zh) * | 2018-10-25 | 2019-01-22 | 厦门美图之家科技有限公司 | 图像增强网络的训练方法和训练模型、及图像增强方法 |
CN109410239A (zh) * | 2018-11-07 | 2019-03-01 | 南京大学 | 一种基于条件生成对抗网络的文本图像超分辨率重建方法 |
-
2019
- 2019-03-29 CN CN201910250713.6A patent/CN109993698A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127684A (zh) * | 2016-06-22 | 2016-11-16 | 中国科学院自动化研究所 | 基于双向递归卷积神经网络的图像超分辨率增强方法 |
CN108205803A (zh) * | 2017-07-19 | 2018-06-26 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络模型的训练方法及装置 |
CN107958444A (zh) * | 2017-12-28 | 2018-04-24 | 江西高创保安服务技术有限公司 | 一种基于深度学习的人脸超分辨率重建方法 |
CN109255769A (zh) * | 2018-10-25 | 2019-01-22 | 厦门美图之家科技有限公司 | 图像增强网络的训练方法和训练模型、及图像增强方法 |
CN109410239A (zh) * | 2018-11-07 | 2019-03-01 | 南京大学 | 一种基于条件生成对抗网络的文本图像超分辨率重建方法 |
Non-Patent Citations (2)
Title |
---|
CHRISTIAN LEDIG ET AL.: "Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network", 《ARXIV:1609.04802V5》 * |
MEHDI S. M. SAJJADI ET AL.: "EnhanceNet: Single Image Super-Resolution Through Automated Texture Synthesis", 《PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV),2017》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490804A (zh) * | 2019-08-14 | 2019-11-22 | 西安工程大学 | 一种基于生成对抗网络的生成超分辨图像的方法 |
CN110610464A (zh) * | 2019-08-15 | 2019-12-24 | 天津中科智能识别产业技术研究院有限公司 | 一种基于稠密残差神经网络的人脸图像超分辨率方法 |
CN110956133A (zh) * | 2019-11-29 | 2020-04-03 | 上海眼控科技股份有限公司 | 单字符文本归一化模型训练方法、文本识别方法及装置 |
CN110969154A (zh) * | 2019-11-29 | 2020-04-07 | 上海眼控科技股份有限公司 | 文本识别方法、装置、计算机设备和存储介质 |
WO2021134874A1 (zh) * | 2019-12-31 | 2021-07-08 | 深圳大学 | 二维码去摩尔纹的深度残差网络的训练方法 |
WO2021185225A1 (zh) * | 2020-03-16 | 2021-09-23 | 徐州工程学院 | 基于自适应调整的图像超分辨率重建方法 |
CN111445410A (zh) * | 2020-03-26 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 基于纹理图像的纹理增强方法、装置、设备和存储介质 |
CN111445410B (zh) * | 2020-03-26 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于纹理图像的纹理增强方法、装置、设备和存储介质 |
CN111626932A (zh) * | 2020-05-07 | 2020-09-04 | Tcl华星光电技术有限公司 | 图像的超分辨率重建方法及装置 |
CN111626932B (zh) * | 2020-05-07 | 2023-09-29 | Tcl华星光电技术有限公司 | 图像的超分辨率重建方法及装置 |
CN111539897A (zh) * | 2020-05-09 | 2020-08-14 | 北京百度网讯科技有限公司 | 用于生成图像转换模型的方法和装置 |
CN112001847A (zh) * | 2020-08-28 | 2020-11-27 | 徐州工程学院 | 相对生成对抗超分辨率重建模型生成高质量图像的方法 |
CN112699912A (zh) * | 2020-11-19 | 2021-04-23 | 电子科技大学 | 一种通过改进gan增强红外热图像的方法 |
CN112699912B (zh) * | 2020-11-19 | 2022-04-19 | 电子科技大学 | 一种通过改进gan增强红外热图像的方法 |
CN112927134A (zh) * | 2021-02-25 | 2021-06-08 | 西安理工大学 | 一种基于深度学习的单幅图像多尺度超分辨重建方法 |
CN113223059A (zh) * | 2021-05-17 | 2021-08-06 | 浙江大学 | 基于超分辨率特征增强的弱小空域目标检测方法 |
WO2023093828A1 (zh) * | 2021-11-25 | 2023-06-01 | 北京字跳网络技术有限公司 | 基于gan网络的超分图像处理方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993698A (zh) | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 | |
CN110570353B (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
Rana et al. | Deep tone mapping operator for high dynamic range images | |
Ram Prabhakar et al. | Deepfuse: A deep unsupervised approach for exposure fusion with extreme exposure image pairs | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
DE60100452T2 (de) | Dynamische einstellung von muster zum pixel filterung in antwort auf benutzereingang und/oder sensoreingang | |
CN104408752B (zh) | 一种基于混合色调映射算法的高动态范围图像压缩方法 | |
CN109903223B (zh) | 一种基于稠密连接网络与生成式对抗网络的图像超分辨率方法 | |
CN109360156A (zh) | 基于生成对抗网络的图像分块的单张图像去雨方法 | |
CN109886871A (zh) | 基于通道注意力机制和多层特征融合的图像超分辨率方法 | |
CN109671023A (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN106127688B (zh) | 一种超分辨率图像重建方法及其系统 | |
CN110232653A (zh) | 快速轻型超分辨率重建密集残差网络 | |
CN110060204B (zh) | 一种基于可逆网络的单一图像超分辨率方法 | |
Sun et al. | Multi-level feature interaction and efficient non-local information enhanced channel attention for image dehazing | |
CN110349085A (zh) | 一种基于生成对抗网络的单幅图像超分辨特征增强方法 | |
Kotwal et al. | An optimization-based approach to fusion of multi-exposure, low dynamic range images | |
CN110363704B (zh) | 融合形态及色彩的图像超分辨率重建模型构建及重建方法 | |
CN110634147A (zh) | 基于双边引导上采样的图像抠图方法 | |
Lee et al. | Real-time tracking of visually attended objects in virtual environments and its application to LOD | |
CN110490804A (zh) | 一种基于生成对抗网络的生成超分辨图像的方法 | |
CN111667410A (zh) | 图像分辨率提升方法、装置及电子设备 | |
Huang et al. | A fully-automatic image colorization scheme using improved CycleGAN with skip connections | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
Zhang et al. | EDGAN: motion deblurring algorithm based on enhanced generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190709 |