CN109671022A - 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 - Google Patents
一种基于深度特征翻译网络的图片纹理增强超分辨率方法 Download PDFInfo
- Publication number
- CN109671022A CN109671022A CN201910056371.4A CN201910056371A CN109671022A CN 109671022 A CN109671022 A CN 109671022A CN 201910056371 A CN201910056371 A CN 201910056371A CN 109671022 A CN109671022 A CN 109671022A
- Authority
- CN
- China
- Prior art keywords
- network
- picture
- resolution
- training
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013519 translation Methods 0.000 title claims abstract description 22
- 230000002708 enhancing effect Effects 0.000 title description 4
- 238000012549 training Methods 0.000 claims abstract description 82
- 230000006870 function Effects 0.000 claims abstract description 66
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 6
- 238000002156 mixing Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000001902 propagating effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度特征翻译网络的图片纹理增强超分辨率方法,属于计算机视觉技术领域。首先处理训练数据,然后设计网络结构模型,包含超分辨率重建网络、细粒度纹理特征提取网络和判别网络。之后,采用多种损失函数相结合的方法,设计用于训练网络的损失函数。用处理好的训练数据训练网络结构模型,得到一个具有纹理增强功能的超分辨重建网络。最后,将低分辨率图片输入该超分辨重建网络,重建获得高分辨率图片。本方法能够在更细的粒度下提取到图片纹理信息,采用多种损失函数相结合的方式,相比于其他方法既保证了忠于原图,又能恢复纹理特征信息,让图片更加清晰。本方法适用于任何图片,均有较好效果,具有较好的普适性。
Description
技术领域
本发明涉及一种基于深度特征翻译网络的图片纹理增强超分辨率方法,尤其涉及一种基于被称作深度特征翻译网络的卷积神经网络、运用多种损失函数训练来增强图片纹理信息的超分辨率方法,属于计算机视觉技术领域。
背景技术
在互联网时代,存在着大量的低分辨率图片。此外,许多高分辨率图片因为尺寸和存储空间过大,在传输过程中被压缩,也会产生低分辨率图片。低分辨率图片质量不高、尺寸太小。使用超分辨率方法,能够将低分辨率图片重建为高分辨率图片,因而在军事、医学、教育等诸多领域有着广泛的应用前景。
传统的超分辨率方法,包括插值、滤波、基于实例和基于字典学习的方法。近年来,以卷积神经网络为主的深度学习也被应用到超分辨率领域中来。无论是传统的超分辨率方法,还是近几年的基于深度学习的超分辨率方法,往往采用降低均方误差的优化目标,存在重建图像过于平滑和模糊的问题。
为了解决这一问题,一些研究人员开始将生成对抗网络引入超分辨率领域,尝试生成更为真实的高分辨率图片。但是,单独基于生成对抗网络的方法得到的图片往往存在噪点较多、纹理单一和不忠于原图的缺点。
发明内容
本发明的目的是为了克服现有技术的不足,提出一种基于深度特征翻译网络的图片纹理增强超分辨率方法,能够获得纹理更加丰富、更加清晰真实的高分辨率图片。
本方法包括以下步骤:
步骤1:处理训练数据。
在公共数据集上获取高分辨率图片,作为训练数据集。为充分利用图片资源,可采用数据增强方式增加图片个数。
为了减少计算量,所有图片被裁剪成固定尺寸的图片块,所述尺寸不能小于96×96。然后,将所有图片块通过插值方法,按照比例尺为×2依次进行下采样,得到各级对应的图片。各级图片按照尺寸由小到大被命名为 例如,对于一个比例尺为×4的模型,网络结构分为2级,训练数据中每一组图片块共有3部分:ILR、Ilabel-×2和Ilabel-×4,尺寸分别为32×32、64×64和128×128。
步骤2:设计网络结构模型。
网络结构模型共包含3个网络:超分辨率重建网络S、细粒度纹理特征提取网络φ、判别网络D。
其中,超分辨率重建网络采用拉普拉斯金字塔多级重建结构,如果金字塔有N级,则超分辨率比例尺即为2N。整个网络结构由以端到端(end-to-end)训练的深度卷积神经网络构成。根据拉普拉斯金字塔,超分辨率重建网络S分为两路分支:差图像生成,粗图像生成。最小尺寸的低分辨率图片块ILR输入到超分辨率重建网络S,经过多级重建映射生成高分辨率图片,该映射表达为:
其中,Ftranslate,θ(·)、Fupsample,θ(·)分别表示特征翻译层和上采样层;θ为特征翻译层和上采样层的参数,包括权值w和偏置值b;Convinput(·)和Convoutput(·)分别表示输入和输出卷积层;表示经过超分辨率×2n后得到的图片;IHR×2和IHR×4为各级中间结果。特征翻译层能将低分辨率图像特征翻译成差图像特征。
细粒度纹理特征提取网络包括细粒度纹理提取层和预训练网络,其建立的映射由以下公式表示:
t=φ(I) (2)
其中,φ(·)表示细粒度纹理特征提取网络,t表示经过细粒度纹理特征提取网络提取的特征;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块。
判别网络由卷积层和全连接层构成,输入为图片,输出为输入图片是否真实的概率,其建立的映射由以下公式表示:
p=D(I) (3)
其中,p表示判别网络的输出;D(·)表示判别网络;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块。
步骤3:设计用于训练网络的损失函数。
为了让重建后的高分辨率图片既忠于原图又不失纹理等信息,本发明采用多种损失函数相结合的方法。训练网络的损失函数共分为3部分,包括内容损失函数Lcontent、细粒度纹理损失函数Ltexture和对抗损失函数Ladv。
在训练过程中,首先用内容损失函数Lcontent进行预训练。然后,使用3种损失函数进行训练。具体地,总体损失函数Loss表示如下:
Loss=Lcontent+λ1×Ltexture+λ2×Ladv (4)
其中,λ1和λ2分别为细粒度纹理损失函数Ltexture和对抗损失函数Ladv的权重。
内容损失函数Lcontent采用Charbonnier损失函数(L1函数的一种变体),表示如下:
其中,Il和分别代表第l级的目标图片块和重建的图片块;ε是一个常数。内容损失函数Lcontent用于计算各级生成图片和目标图片的损失。
细粒度纹理损失函数Ltexture用于计算最后输出图片和目标图片的损失,表示如下:
其中,φ(·)表示细粒度纹理特征提取网络;G(·)表示格拉姆矩阵;I和分别代表目标图片块和重建后的图片块。
对抗损失函数Ladv用于计算整个重建网络的最后输出图片,目标是减小判别网络的输出,表示如下:
其中,D(·)表示判别网络,代表重建后的图片块,Pg表示重建图片分布。
步骤4:用步骤1中处理好的训练数据,训练网络模型。
具体地,在超分辨率重建网络S拉普拉斯金字塔的各级均使用内容损失函数Lcontent,在整个网络模型得最后一层使用细粒度纹理损失函数Ltexture和对抗损失函数Ladv。训练过程使用随机梯度下降算法和小批量训练的训练策略。
训练过程分为两个部分。首先,只计算内容损失训练超分辨率重建网络S,得到一个具有一定超分辨率作用的网络,此时结果比较模糊,缺少纹理等细节信息。然后,再用上述三种损失函数进行混合训练,具体如下:
Step1:初始化模型参数。将超分辨率重建网络S和判别网络D的参数用高斯分布初始化。使用包含不少于1万张图片的数据集(如ImageNet数据集等),用于训练细粒度纹理提取网络中的预训练网络,使该训练网络具有图像训练功能。
Step2:从训练数据集中取出一批训练数据,训练数据的个数是一个超参数,在训练过程中通过试验确定超参数的最佳值。每个训练数据包括各级目标图片块。将低分辨率图片块输入到超分辨率重建网络S,得到各级重建后的图片块然后计算内容损失。
Step3:将最后输出的重建图片和目标图片输入到细粒度纹理特征提取网络φ,然后计算细粒度纹理损失。
Step4:将最后输出的重建图片输入到判别网络D,然后计算对抗损失。
Step5:将对抗损失,按照步骤3的总体损失函数Loss进行计算,得到最终损失,然后反向传播计算梯度,并更新超分辨率重建网络的参数值。
Step6:训练判别网络。将最后输出的重建图片块和目标图片块I分别输入到判别网络D中,优化目标如下:
Step7:重复Step2-Step6,直到损失函数值达到最小。
经过以上训练之后,得到一个具有纹理增强功能的超分辨重建网络S’。
步骤5:重建高分辨率图片。
将低分辨率图片输进步骤4获得的超分辨率重建网络S’,即可得到重建后的高分辨率图片。
有益效果
本发明方法,与现有技术相比,具有以下有益效果:
本发明设计的神经网络模型较好地关注了特征翻译过程,能够在拉普拉斯金字塔结构中更好地完成差图像生成的任务。
本发明采用多级重建过程,能将大比例尺分解为多级任务并将监督学习应用到拉普拉斯金字塔的每一级。
本发明采用的细粒度纹理特征提取网络相比于其他纹理特征提取方法能在更细的粒度下提取到图片纹理信息。
本发明采用多种损失函数相结合的方式,相比于其他方法既保证了忠于原图,又能恢复纹理特征信息,让图片更加清晰。
本发明适用于任何图片,均有较好效果,具有普适性。
附图说明
图1为本发明方法的工作流程图;
图2为本发明方法的整体网络结构图;
图3为本发明方法的特征翻译过程演示图;
图4为本发明方法的特征翻译网络结构图;
图5为本发明方法的细粒度纹理提取网络结构图;
图6为本发明方法的判别网络;
图7为本发明方法的数据预处理示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
本实施例为2级拉普拉斯金字塔(×4)多级重建网络整体结构。
一种基于深度特征翻译网络的图片纹理增强超分辨率方法,如图1所示,包括以下步骤:
步骤1:处理训练数据。训练集图片中包含很多张不同尺寸的图片,如果训练图片数量太少,可以采用数据增强的方法,具体有旋转、翻转和下采样3种。旋转:将原图片分别旋转90°、180°和270°;翻转:包括水平翻转和垂直翻转;下采样:使用Bicubic插值方法将原图按照一定比例下采样,得到尺寸更小的图片,下采样比例可为[0.8,0.6]。这样,训练数据会大大增强。如果训练数据很多,可以不采用数据增强方式。
为了便于训练,每张图片将被截取为很多图片块,截取时设定尺寸为96×96,步长为48,截取框在图片上滑动,会生成很多图片块。然后,使用Bicubic插值算法逐级下采样,依次得到各级图片。图7展示了2级拉普拉斯金字塔的数据预处理过程。
步骤2:设计网络结构模型。如图2所示,整体网络的输入是低分辨率图片ILR,输出为超分辨率4倍之后的高分辨率图片其中还有中间结果在每一级中,包含两个路径,即粗图片生成过程和差图片生成过程。其中,粗图片生成是指由一个低分辨率图片生成一个尺寸扩大后的粗版本图片,本发明中采用转置卷积层(图2中ConvT所示)来完成这一任务。另外,差图片生成是指由一个低分辨率图片生成一个尺寸扩大后的差图片,差图片加上粗图片会得到精细的图片,即超分辨率后的图片。因此,差图像包含了粗图像所丢失的高通信息。本发明中,由低分辨率图像到差图像的生成过程被建模成一个“图片-图片”的图片翻译过程(参看图3),由特征翻译网络来完成。
图2展示了特征翻译网络的构成,主要由输入卷积层、特征翻译层和输出卷积层构成,其中特征翻译层是由很多skip connection相连接的对称结构。图4展示了特征翻译层的具体细节,左图展示了特征翻译层包含的具体操作:卷积Conv、连接Cat、批规范化BN和激活函数线性修正单元ReLU。右图展示了特征图(feature map)的情况,假设共有N层,则第i层的特征图就要和第N-i层的特征图按通道维度相连接。每层的特征图的尺寸是相同的,最后的转置卷积网络会将特征图尺寸加倍。
图5表示的是本发明采用的细粒度纹理特征提取网络。训练过程中,图像块包含的纹理并不单一,所以需要在更细粒度提取纹理特征。具体地,将图片块再细分成每一个小块(比如图5中分成了3*3=9小块),然后每一小块通过卷积层获得初步特征,再将每一小块获得的全部特征图按通道连接起来,图5中的不同颜色的特征图表示从不同小块经过卷积层得来的。接着,连接后的特征图经过一个卷积层之后,就输入到一个预训练网络VGG-19中。细粒度纹理特征网络可以用以下公式表示:
其中,xi表示图片块分成的若干小块。“Cat”表示按通道连接。
如图6所示,判别网络结构由卷积层、激活函数和线性转换层(全连接层)构成。表1详细地介绍了判别网络各层的具体情况,其中“设置”一栏中的内容分别表示为卷积核尺寸、步长和个数。可以看出卷积层主要包括两种,尺寸为3×3的卷积层主要负责拓宽特征图的通道数,而尺寸为4×4的卷积核主要负责将特征图尺寸缩小为原来一半。最后的两个全连接层能实现降维,最终得到一个标量。
表1
步骤3:设计用于训练网络的损失函数。包括内容损失函数Lcontent、细粒度纹理损失函数Ltexture和对抗损失函数Ladv。总体损失函数Loss是公式(4),其中,λ1和λ2分别设为100和100。
具体地,内容损失函数Lcontent采用Charbonnier损失函数(L1函数的一种变体),表示如公式(5),其中,ε是一个常数,设为0.000001;细粒度纹理损失函数Ltexture用于计算最后输出图片和目标图片的损失,表示如公式(6);对抗损失函数Ladv用于计算整个重建网络的最后输出图片,目标是减小判别网络的输出,表示如公式(7)。
步骤4:用步骤1中处理好的训练数据来训练网络模型。训练过程分为2部分。首先,只计算内容损失训练超分辨率重建网络S,得到一个具有一定超分辨率作用的网络,然后再用3种混合损失函数来训练,获得纹理增强功能的超分辨率重建网络。具体地,将一批64个图像块输进超分辨率重建网络S,然后按照公式(5)计算S的各级输出图片块和目标图片块之间的内容损失并相加。接着,使用梯度下降法Adam反向传播计算梯度并更新网络参数,包括权值和偏置值。然后,使用公式(4)来训练超分辨率重建网络S,具体训练步骤如下:
Step1:初始化模型参数。将超分辨率重建网络S和判别网络D的参数用高斯分布(均值为0,方差为0.02)初始化,用ImageNet数据集来训练一个具有图片分类功能的VGG-19网络,这个VGG-19网络就成为细粒度纹理特征提取网络中的预训练网络。
Step2:从训练数据集中取出一批训练数据,训练数据的个数是一个超参数,在训练过程中通过试验确定超参数的最佳值。每个训练数据包括各级目标图片块。将低分辨率图片块输入到超分辨率重建网络S,得到各级重建后的图片块然后按照公式(5)计算内容损失。
Step3:将最后输出的重建图片和目标图片输入到细粒度纹理特征提取网络φ,然后按照公式(6)计算细粒度纹理损失。
Step4:将最后输出的重建图片输入到判别网络D,然后按照公式(7)计算对抗损失。
Step5:将计算的对抗损失,按照总体损失函数公式(4)进行计算,得到最终损失,然后反向传播计算梯度,并更新超分辨率重建网络S的参数值。
Step6:训练判别网络。将最后输出的重建图片块和目标图片块I分别输入到判别网络D中,优化目标如下:
Step7:重复Step2-Step6,直到达到总体损失函数值达到最小。
经过以上训练之后,得到一个具有纹理增强功能的超分辨重建网络S’。
步骤5:重建高分辨率图片。
将低分辨率图片输进超分辨率重建网络S’,即可得到重建后的高分辨率图片。
Claims (3)
1.一种基于深度特征翻译网络的图片纹理增强超分辨率方法,其特征在于,包括以下步骤:
步骤1:处理训练数据;
在公共数据集上获取高分辨率图片,作为训练数据集;为减少计算量,所有图片被裁剪成固定尺寸的图片块,所述尺寸不能小于96×96;然后,将所有图片块通过插值方法,按照比例尺为×2依次进行下采样,得到各级对应的图片,各级图片按照尺寸由小到大被命名为ILR,Ilabel-×2,…,Ilabel-×2 n;
步骤2:设计网络结构模型;
网络结构模型共包含三个网络:超分辨率重建网络S、细粒度纹理特征提取网络φ、判别网络D;
其中,超分辨率重建网络采用拉普拉斯金字塔多级重建结构,如果金字塔有N级,则超分辨率比例尺即为2N;整个网络结构由以端到端训练的深度卷积神经网络构成;
根据拉普拉斯金字塔,超分辨率重建网络S分为两路分支:差图像生成,粗图像生成;最小尺寸的低分辨率图片块ILR输入到超分辨率重建网络S,经过多级重建映射生成高分辨率图片,该映射表达为:
其中,Ftranslate,θ(·)、Fupsample,θ(·)分别表示特征翻译层和上采样层;θ为特征翻译层和上采样层的参数,包括权值w和偏置值b;Convinput(·)和Convoutput(·)分别表示输入和输出卷积层;表示经过超分辨率×2n后得到的图片;IHR×2和IHR×4为各级中间结果;特征翻译层能将低分辨率图像特征翻译成差图像特征;
细粒度纹理特征提取网络包括细粒度纹理提取层和预训练网络,其建立的映射由以下公式表示:
t=φ(I) (2)
其中,φ(·)表示细粒度纹理特征提取网络,t表示经过细粒度纹理特征提取网络提取的特征;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块;
判别网络由卷积层和全连接层构成,输入为图片,输出为输入图片是否真实的概率,其建立的映射由以下公式表示:
p=D(I) (3)
其中,p表示判别网络的输出;D(·)表示判别网络;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块;
步骤3:设计用于训练网络的损失函数;
采用多种损失函数相结合,训练网络的损失函数共分为三部分:内容损失函数Lcontent、细粒度纹理损失函数Ltexture和对抗损失函数Ladv;
在训练过程中,首先用内容损失函数Lcontent进行预训练,然后用三种损失函数进行训练;
其中,总体损失函数Loss表示如下:
Loss=Lcontent+λ1×Ltexture+λ2×Ladv (4)
λ1和λ2分别为细粒度纹理损失函数Ltexture和对抗损失函数Ladv的权重;
内容损失函数Lcontent采用Charbonnier损失函数,表示如下:
其中,Il和分别代表第l级的目标图片块和重建的图片块;ε是一个常数;内容损失函数Lcontent用于计算各级生成图片和目标图片的损失;
细粒度纹理损失函数Ltexture用于计算最后输出图片和目标图片的损失,表示如下:
其中,φ(·)表示细粒度纹理特征提取网络;G(·)表示格拉姆矩阵;I和分别代表目标图片块和重建后的图片块;
对抗损失函数Ladv用于计算整个重建网络的最后输出图片,减小判别网络的输出,表示如下:
其中,D(·)表示判别网络,代表重建后的图片块,Pg表示重建图片分布;
步骤4:用步骤1中处理好的训练数据,训练网络模型;
在超分辨率重建网络S拉普拉斯金字塔的各级均使用内容损失函数Lcontent,在整个网络模型得最后一层使用细粒度纹理损失函数Ltexture和对抗损失函数;训练过程使用随机梯度下降算法和小批量训练的训练策略;
训练过程分为两个部分,首先只计算内容损失训练超分辨率重建网络S,然后再用上述三种损失函数进行混合训练,得到一个具有纹理增强功能的超分辨重建网络S’;
步骤5:重建高分辨率图片,将低分辨率图片输进步骤4获得的超分辨率重建网络S’,得到重建后的高分辨率图片。
2.如权利要求1所述的一种基于深度特征翻译网络的图片纹理增强超分辨率方法,其特征在于,步骤1中,采用数据增强方式增加图片个数,以便充分利用图片资源。
3.如权利要求1所述的一种基于深度特征翻译网络的图片纹理增强超分辨率方法,其特征在于,步骤4中,利用三种损失函数进行混合训练的方法具体如下:
Step1:初始化模型参数,将超分辨率重建网络S和判别网络D的参数用高斯分布初始化,使用包含不少于1万张图片的数据集,用于训练细粒度纹理提取网络中的预训练网络,使该训练网络具有图像训练功能;
Step2:从训练数据集中取出一批训练数据,训练数据的个数是一个超参数,在训练过程中通过试验确定超参数的最佳值;每个训练数据包括各级目标图片块;将低分辨率图片块输入到超分辨率重建网络S,得到各级重建后的图片块然后计算内容损失;
Step3:将最后输出的重建图片和目标图片输入到细粒度纹理特征提取网络φ,然后计算细粒度纹理损失;
Step4:将最后输出的重建图片输入到判别网络D,然后计算对抗损失;
Step5:将对抗损失,按照步骤3的总体损失函数Loss进行计算,得到最终损失,然后反向传播计算梯度,并更新超分辨率重建网络的参数值;
Step6:训练判别网络,将最后输出的重建图片块和目标图片块I分别输入到判别网络D中,优化目标如下:
Step7:重复Step2-Step6,直到损失函数值达到最小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056371.4A CN109671022B (zh) | 2019-01-22 | 2019-01-22 | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056371.4A CN109671022B (zh) | 2019-01-22 | 2019-01-22 | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109671022A true CN109671022A (zh) | 2019-04-23 |
CN109671022B CN109671022B (zh) | 2022-11-18 |
Family
ID=66151004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910056371.4A Active CN109671022B (zh) | 2019-01-22 | 2019-01-22 | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109671022B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120024A (zh) * | 2019-05-20 | 2019-08-13 | 百度在线网络技术(北京)有限公司 | 图像处理的方法、装置、设备和存储介质 |
CN110232721A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的训练方法及装置 |
CN110246093A (zh) * | 2019-05-05 | 2019-09-17 | 北京大学 | 一种解码图像增强方法 |
CN110766608A (zh) * | 2019-08-28 | 2020-02-07 | 西安理工大学 | 一种纹理分类的图像超分辨率重建的方法 |
CN110766609A (zh) * | 2019-08-29 | 2020-02-07 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN111882485A (zh) * | 2020-06-19 | 2020-11-03 | 北京交通大学 | 分级特征反馈融合的深度图像超分辨率重建方法 |
CN111951177A (zh) * | 2020-07-07 | 2020-11-17 | 浙江大学 | 一种基于图像超分辨损失函数的红外图像细节增强方法 |
CN112016507A (zh) * | 2020-09-07 | 2020-12-01 | 平安科技(深圳)有限公司 | 基于超分辨率的车辆检测方法、装置、设备及存储介质 |
CN112446835A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193635A1 (en) * | 2014-05-28 | 2017-07-06 | Peking University Shenzhen Graduate School | Method and apparatus for rapidly reconstructing super-resolution image |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN108921783A (zh) * | 2018-06-01 | 2018-11-30 | 武汉大学 | 一种基于混合损失函数约束的卫星影像超分辨率重建方法 |
CN109118432A (zh) * | 2018-09-26 | 2019-01-01 | 福建帝视信息科技有限公司 | 一种基于快速循环卷积网络的图像超分辨率重建方法 |
-
2019
- 2019-01-22 CN CN201910056371.4A patent/CN109671022B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193635A1 (en) * | 2014-05-28 | 2017-07-06 | Peking University Shenzhen Graduate School | Method and apparatus for rapidly reconstructing super-resolution image |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN108921783A (zh) * | 2018-06-01 | 2018-11-30 | 武汉大学 | 一种基于混合损失函数约束的卫星影像超分辨率重建方法 |
CN109118432A (zh) * | 2018-09-26 | 2019-01-01 | 福建帝视信息科技有限公司 | 一种基于快速循环卷积网络的图像超分辨率重建方法 |
Non-Patent Citations (1)
Title |
---|
史紫腾等: ""基于卷积神经网络的单幅图像超分辨"", 《激光与光电子学进展》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110246093B (zh) * | 2019-05-05 | 2021-05-04 | 北京大学 | 一种解码图像增强方法 |
CN110246093A (zh) * | 2019-05-05 | 2019-09-17 | 北京大学 | 一种解码图像增强方法 |
CN110232721A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的训练方法及装置 |
US11645735B2 (en) | 2019-05-20 | 2023-05-09 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for processing image, device and computer readable storage medium |
CN110120024A (zh) * | 2019-05-20 | 2019-08-13 | 百度在线网络技术(北京)有限公司 | 图像处理的方法、装置、设备和存储介质 |
CN110120024B (zh) * | 2019-05-20 | 2021-08-17 | 百度在线网络技术(北京)有限公司 | 图像处理的方法、装置、设备和存储介质 |
CN110766608A (zh) * | 2019-08-28 | 2020-02-07 | 西安理工大学 | 一种纹理分类的图像超分辨率重建的方法 |
CN110766608B (zh) * | 2019-08-28 | 2023-09-15 | 西安理工大学 | 一种纹理分类的图像超分辨率重建的方法 |
CN110766609B (zh) * | 2019-08-29 | 2023-02-10 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN110766609A (zh) * | 2019-08-29 | 2020-02-07 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN112446835A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 |
CN111882485A (zh) * | 2020-06-19 | 2020-11-03 | 北京交通大学 | 分级特征反馈融合的深度图像超分辨率重建方法 |
CN111882485B (zh) * | 2020-06-19 | 2023-08-18 | 北京交通大学 | 分级特征反馈融合的深度图像超分辨率重建方法 |
CN111951177B (zh) * | 2020-07-07 | 2022-10-11 | 浙江大学 | 一种基于图像超分辨损失函数的红外图像细节增强方法 |
CN111951177A (zh) * | 2020-07-07 | 2020-11-17 | 浙江大学 | 一种基于图像超分辨损失函数的红外图像细节增强方法 |
CN112016507A (zh) * | 2020-09-07 | 2020-12-01 | 平安科技(深圳)有限公司 | 基于超分辨率的车辆检测方法、装置、设备及存储介质 |
CN112016507B (zh) * | 2020-09-07 | 2023-10-31 | 平安科技(深圳)有限公司 | 基于超分辨率的车辆检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109671022B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109671022A (zh) | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 | |
CN109816593A (zh) | 一种基于注意力机制的生成对抗网络的超分辨率图像重建方法 | |
CN101950365B (zh) | 基于ksvd字典学习的多任务超分辨率图像重构方法 | |
CN108550115A (zh) | 一种图像超分辨率重建方法 | |
CN110827213A (zh) | 一种基于生成式对抗网络的超分辨率图像修复方法 | |
CN108734659A (zh) | 一种基于多尺度标签的亚像素卷积图像超分辨率重建方法 | |
CN107154023A (zh) | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 | |
CN106067161A (zh) | 一种对图像进行超分辨的方法 | |
CN109472743A (zh) | 遥感图像的超分辨率重建方法 | |
CN102156875A (zh) | 基于多任务ksvd字典学习的图像超分辨率重构方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN106157244A (zh) | 一种基于稀疏表示的QR Code图像超分辨重建方法 | |
CN105335929A (zh) | 一种深度图超分辨方法 | |
CN107341765A (zh) | 一种基于卡通纹理分解的图像超分辨率重建方法 | |
CN109544451A (zh) | 一种基于渐进式迭代反投影的图像超分辨率重建方法和系统 | |
CN113362242B (zh) | 基于多特征融合网络的图像修复方法 | |
CN109993702A (zh) | 基于生成对抗网络的满文图像超分辨率重建方法 | |
CN112215755A (zh) | 一种基于反投影注意力网络的图像超分辨率重建方法 | |
CN106097253A (zh) | 一种基于块旋转和清晰度的单幅图像超分辨率重建方法 | |
CN114897694A (zh) | 基于混合注意力和双层监督的图像超分辨率重建方法 | |
CN112598602A (zh) | 一种基于掩码的深度学习视频去摩尔纹方法 | |
CN111861886A (zh) | 一种基于多尺度反馈网络的图像超分辨率重建方法 | |
CN117115339B (zh) | 一种基于NeRF 5D神经辐射场的建筑三维重建与损伤识别方法 | |
CN109903373A (zh) | 一种基于多尺度残差网络的高质量人脸生成方法 | |
CN104091364B (zh) | 单幅图像超分辨重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |