CN109978762B - 一种基于条件生成对抗网络的超分辨率重建方法 - Google Patents
一种基于条件生成对抗网络的超分辨率重建方法 Download PDFInfo
- Publication number
- CN109978762B CN109978762B CN201910144539.7A CN201910144539A CN109978762B CN 109978762 B CN109978762 B CN 109978762B CN 201910144539 A CN201910144539 A CN 201910144539A CN 109978762 B CN109978762 B CN 109978762B
- Authority
- CN
- China
- Prior art keywords
- network
- resolution
- image
- resolution image
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000006870 function Effects 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000005070 sampling Methods 0.000 claims abstract description 11
- 230000008447 perception Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 abstract description 15
- 238000011156 evaluation Methods 0.000 abstract description 3
- 230000008030 elimination Effects 0.000 abstract 1
- 238000003379 elimination reaction Methods 0.000 abstract 1
- 230000004913 activation Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于条件生成对抗网络的超分辨率重建方法,具体为:利用公开的超分辨率图像数据集,制作低分辨率图像和对应高分辨率图像训练集;构建条件生成对抗网络模型,在生成器网络中使用密集残差块,在生成网络模型的末端,用亚像素上采样方法实现超分辨率图像重建;把训练图像集输入到条件生成对抗网络中进行模型训练,通过感知损失函数让训练模型收敛;对图像测试集进行下采样处理,获得低分辨率测试图像;把低分辨率测试图像输入到条件对抗网络模型中,获得高质量的高分辨率图像。本发明可以很好的解决传统生成对抗网络生成的超分辨图像看似清晰、评估指标极低的问题,同时通过密集残差网络缓解梯度消失和高频信息丢失的问题。
Description
技术领域
本发明涉及一种超分辨率重建方法,具体涉及一种基于条件生成对抗网络的超分辨率重建方法,属于图像处理技术领域。
背景技术
单幅图像的超分辨率(SISR)旨在从一个单一的低分辨率图像(LR)恢复高分辨率图像(HR)。这在许多领域中直接应用,如HDTV、医学成像、卫星成像、人脸识别和视频监控。目前,人们对图像的要求越来越高,尤其是清晰度方面。单纯从硬件方面提高图像清晰度不仅成本较高且技术上也达到一定的瓶颈。从软件方面提高图像分辨率,一定程度上克服了硬件不足的问题。因此,图像超分辨率重建成为研究热点之一。
目前超分辨率重建的方法主要分为两类:(1)将超分看成是图像处理中的不适定问题,可通过引入先验信息解决该问题。(2)采用机器学习的方法来学习到低分辨率和高分辨率图像之间的映射关系,从而实现图像超分辨率重建。其中,基于插值的方法,包括最近邻插值(Nearest)、双线性插值(Bilinear)和双三次插值(Bicubic)虽然速度快,但是其效果比较差,在预测详细的、真实的纹理方面存在很大的局限性。邻域嵌入(NB)的方法采用插补补丁子空间的策略。稀疏编码的方法使用基于稀疏信号表示的字典学习LR和HR之间的映射关系。Dong等首先提出了一种基于深度学习的方法(SRCNN),证明CNN可以被有效应用于端到端的学习LR到HR的映射。Shi等人提出了亚像素卷积的方法(ESPCN),直接在低分辨率图像上进行特征提取,通过亚像素卷积层将特征图像进行重新排列,得到高分辨率图像。Kim等人首先介绍了残差网络,用于训练更深层次的网络架构(VDSR),并取得了卓越的性能。这些超分辨率网络通常先使用特征提取模块从低分辨率图像中提取一系列特征图,接着与上采样模块级联以增加分辨率进而重建高分辨率图像。但是,这些已有的网络往往会产生过度平滑的输出图片并丢失一些纹理细节和特征。
Ledig等把生成对抗网络(Generative Adversarial Network,GAN)应用于超分辨率重建。提出了基于生成对抗网络的超分辨率(Super-Resolution Using a GenerativeAdversarial Network,SRGAN)算法,虽然这种博弈式的优化SRGAN够生成高质量的图像,但是细节效果较差,而且用这种网络的训练方式太过自由。GAN模型的输入缺少约束,对于较大的输入图片或者较多像素会导致训练崩塌,从而使得GAN变的不可控。SRGAN的超分辨率图像看起来“很好”,但是并没有骗过评估指标。因为其放大后的图像有许多令人不快的虚构的伪影和斑点。此外,SRGAN训练使用了大量的训练数据集,对计算机硬件配置比较高,不利于普及学术研究和工业应用。虽然SRResNet成功地解决了具有良好性能的时间和内存问题,但它只是采用了He等人的残差块(ResNet)架构,没有太多的修改。然而,原来的残差块被提出来解决更高级别的计算机视觉问题,如图像分类和检测。因此,将残差块架构直接应用于超级分辨率等低级视觉问题可能不是最佳的。
发明内容
本发明所要解决的技术问题是:提供一种基于条件生成对抗网络的超分辨率重建方法,解决了现有技术的缺陷,可获得如真实图像般,纹理清晰、特征不变的高质量的高分辨率图像。
本发明为解决上述技术问题采用以下技术方案:
一种基于条件生成对抗网络的超分辨率重建方法,包括如下步骤:
步骤1,对训练集中的高分辨率图像采用双三次插值的方法进行下采样处理,获得低分辨率图像,分别对高分辨率图像和低分辨率图像进行随机裁剪,获得训练图像对集;
步骤2,设计条件生成对抗网络,所述条件生成对抗网络包括生成器网络和判别器网络,其中,生成器网络包括低频信息提取模块、深度密集残差模块、亚像素上采样模块和重建模块,判别器网络的判别条件是原始高分辨率图像;
步骤3,将步骤1获得的训练图像对集输入步骤2设计好的条件生成对抗网络,进行迭代训练,并通过感知损失函数判断条件生成对抗网络的收敛情况,从而得到训练好的条件生成对抗网络模型;
步骤4,对测试集中的高分辨率图像采用双三次插值的方法进行下采样处理,得到低分辨率测试图像,将低分辨率测试图像作为训练好的条件生成对抗网络模型的输入,并输出超分辨率图像。
作为本发明的一种优选方案,步骤2所述条件生成对抗网络中生成器网络和判别器网络的对抗过程公式如下:
其中,G表示生成器网络,D表示判别器网络,E表示期望,y表示原始高分辨率图像,x表示低分辨率图像,G(x)表示G生成的超分辨率图像,D(y,y)表示在y的条件下,判断输入图像y的真伪,D(y,G(x))表示在y的条件下,判断输入图像G(x)的真伪。
作为本发明的一种优选方案,步骤3所述感知损失函数表达式为:
Loss=lMSE+0.006*lVGG+2*10-8lTV+100*L1+10-3lGen
其中,Loss表示感知损失函数,lMSE表示最小均方差损失,lVGG表示神经网络损失,lTV表示梯度损失,L1表示L1范数,lGen表示对抗损失。
作为本发明的一种优选方案,所述最小均方差损失lMSE,公式如下:
其中,r表示放大因子,W、H是高分辨率图像的宽、高大小,y表示原始高分辨率图像,G(x)表示生成器网络G生成的超分辨率图像。
作为本发明的一种优选方案,所述梯度损失lTV,公式如下:
其中,r表示放大因子,W、H是高分辨率图像的宽、高大小,G(x)表示生成器网络G生成的超分辨率图像。
作为本发明的一种优选方案,所述对抗损失lGen,公式如下:
其中,N表示训练样本数量,y表示原始高分辨率图像,G(x)表示生成器网络G生成的超分辨率图像,D(y,G(x))表示在y的条件下,判断输入图像G(x)的真伪。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明采用了条件对抗网络,弥补了GAN网络的不足。在判别器D网络中给一个原始图像作为判别条件,可以提高判别器D的判别精度。原始GAN网络中的判别器D没有一个标准,很难判断出正确的图像。给定一个条件,类似给定一个判断标签。
2、本发明采用了极深的密集残差块的方法并且改进了传统的残差块,明显地解决了训练过程中高频细节丢失的问题,同时,也有效地解决了训练过程中梯度消失的问题。
3、本发明采用感知损失函数,改进了原始感知损失函数,明显的提高收敛的速度和模型的精度。
4、本发明采用了预训练的方法,经过实验论证,该方法可以有效的缩短运行时间、提高运行效率。
附图说明
图1是本发明一种基于条件生成对抗网络的超分辨率重建方法的流程图。
图2是本发明提出的条件生成对抗网络的框架图。
图3是本发明提出的条件生成对抗网络中生成器网络G的网络结构图。
图4是本发明提出的条件生成对抗网络中判别器网络D的网络结构图。
图5是本发明提出的重建方法用不同初始化方法的对比图。
图6是本发明提出的深度密集残差模块的效果比较图。
图7是本发明的条件生成对抗网络和生成对抗网络的对比图。
图8是本发明提出的重建方法和其他方法在视觉效果上的比较图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,为本发明提供的基于条件生成对抗网络的超分辨率重建方法的流程图,具体步骤如下:
步骤一:对高分辨率训练图像进行下采样,得到低分辨率的训练图像。具体而言:训练集使用VOC2012数据集,当然本发明也适用其他的训练集。高分辨率下采样到低分辨率所用的算法是双三次插值算法。其次,需要对高、低分辨率图像进行对应的随机裁剪。裁剪大小可以设置,但是高分辨率图像块的尺寸是低分辨率的4倍。裁剪是在每张图片上随机裁剪一张图像块。对于不同放大倍数,可以进行不同倍数的下采样处理。本实施例高分辨率图像块裁剪的大小是96*96的图像块,低分辨率图像是24*24大小的图像块。
步骤二:对测试集图像采用双三次插值方法进行下采样处理,得到低分辨率的测试图像。本发明采用的测试集有Set5、Set14、BSD100和Urban100。这几个数据集是比较常用的基准数据集。其中,Set14中有几张图片的尺寸不是4的整数倍数,需要对其边缘的像素进行裁剪。
步骤三:设计条件生成对抗网络结构CGAN。条件对抗网络包括生成器网络G和判别网络D。生成器网络G用来生成超分辨率图像。在生成对抗网络中,主要采用密集残差模块、亚像素上采样模块和跳跃连接。判别器D网络用来区分超分分辨率图像和原始高分辨率图像(Ground Ttuth),判别条件是Ground Ttuth图像。生成器G网络主要包括前端低频信息提取模块、深度密集残差模块、亚像素上采样模块和重建模块。前端的低频信息提取模块,由256个3*3大小卷积核对低分辨率图像进行卷积操作完成。密集残差块是去掉传统残差块中的BN层,通过一个3*3的滤波器进行特征提取并用Prelu函数激活。如图3中的密集残差模块,把每一层卷积操作后得到的特征图连接起来,传递到下一层。最后通过短跳跃连接,把密集残差块前端的特征与最后的特征相加。本发明的密集残差块中,只使用了五个卷积操作但是本发明不局限于此,可根据计算机硬件要求进行更改。在生成器的网络前端,用长跳跃连接把前端的低频信息传递到上采样模块前端,具体可见图3。亚像素上采样模块,由卷积操作进行特征提取,随后是亚像素操作,最后用PRelu激活函数进行激活。每一个亚像素模块可实现2倍放大。本发明网络中设计了两个上采样模块,可实现4倍放大。
步骤四:设计感知损失函数。感知损失表达式如下:
Loss=lMSE+0.006*lvgg+2*10-8lTV+100*L1+10-3lGen
以像素为单位的MSE损失计算公式如下(传统的方法使用的代价函数一般是最小均方差(MSE),即:
其中,r表示放大因子,W、H是HR图像的尺寸大小,y表示Ground Truth图像,G(x)表示生成器G生成的超分辨率图即SR图像。
基于16层VGG网络的ReLU激活层来定义神经网络(VGG)损失。φ5,4表示在VGG16网络中的第5个最大层数之前通过第4个卷积(在激活之后)获得的特征图。然后,将VGG损失定义为重建图像G(x)和Ground Truth图像y的特征表示之间的欧氏距离:
梯度损失的定义为:
其中,W、H是HR图像的尺寸大小,G(x)表示生成器G生成的超分辨率图即SR图像,基于全变差的正则项以鼓励产生具有空间相似性的结果。
对抗损失的代价函数是基于判别器D的输出概率,对抗损失定义为:
其中,N表示训练样本数量。
步骤五:将步骤一所得到的高、低分辨率训练图像,放入到条件生成对抗网络中进行特征学习,结合训练损失函数,得到训练的条件对抗网络模型。首次训练,采用随机初始化权重的方法,对G和D网络进行权重初始化。因为网络需要调试或者计算机内存等原因,需暂停网络训练,再次训练的时候,采用预训练的方法进行初始化。具体而言,把网络训练保存的模型(一般未收敛)保存下来,作为下一次重新训练的初始化模型。
D和G网络是进行博弈对抗的,其对抗过程如下公式所示:
其中,y表示原始高分辨率图像,x表示低分辨率图像。G(x)表示生成器G生成的图像即SR图像,D网络判断图像是真实的概率,D(y,G(x))表示在y的条件下,判断输入图像G(x)的真假,D(y,y)表示在y的条件下,输入图像y即Ground Truth的真伪。先固定判别模型D,调整G的参数使得log(1-D(y,G(x)))的期望Ex,y最小化;再固定生成模型G,调整D的参数使得logD(y,y)+log(1-D(y,G(x)))的期望最大化。这个优化过程可以归结为一个“二元极小极大博弈”问题,博弈过程如图2所示。
步骤六:生成对抗网络中的生成器G网络结构如图3所示。G网络的输入是LR低分辨率图像,紧接着用256个卷积核大小为3*3的滤波器对其进行特征提取,可以有效节约计算量、减少计算机内存。随后用64个卷积核大小为3*3的滤波器实现特征提取和维度转换。接下来用20个密集残差块进行特征学习,提取高频信息。残差块去掉了原始残差网络中的BN层。因为BN层会丢掉一些重要的信息,不利于超分辨率重建的任务。并且,一个密集残差块中,只使用一个通道数是64的卷积核,随后用PRelu进行激活,随后又是同样的操作。但是,每个卷积conv的输入,都是前面的几层的密集链接。在一个密集块的始端用短跳跃链接连接到密集残差块的末端。具体可见图3中的密集残差部分。在网络的第一个卷积操作后,用长跳跃连接至上采样模块前。用2个亚像素上采样模块,实现4倍放大,可以有效的节约计算量、提高算法的运行速度。最后通过一个3*3大小的卷积核进行卷积特征提取,实现超分辨率图像重建,得到超分辨率图像。在生成器网络G中,最后一层的非线性激活函数是Tanh。
步骤七:生成对抗网络中的判别器D网络结构如图4所示。K表示卷积核的大小,s代表步长,n表示通道数,非线性激活函数是LeakyRelu。D网络的输入条件是原始高分辨率图像。这相当于是一个判别基准,给D做出正确的判断提供一个正确的引导。当输入图像是生成器生成的超分辨图像SR时,D尽可能的判别其为假,而当输入图像是原始的高分辨率图像时,则判断其为真。
步骤八:将数据放入到条件对抗网络中进行训练。大的图像块大小是96*96,学习率是0.0001,优化算法是Adam,动量和权重衰减设为0.9,使用梯度下降法进行优化,当迭代次数到达最大次数时则停止迭代。
步骤九:将需要重建的低分辨率图像用学习到的神经网络模型进行超分辨率重建得到重建的高分辨率图像。
为了验证本发明方法的效果,进行了一些对比实验。图5表明,采用预先训练的方法比随机初始化的方法要更容易收敛且速度较快。图6表明,采用极深的残差块可以有效的提高高频信息和提高PSNR值。图7是本发明的条件生成对抗网络和生成对抗网络的对比图。
为了验证本发明的实际效果,本发明在四个基准数据集上与目前最先进的10种方法进行比较,包括最近邻、双三次、SRCNN、VDSR、FSRCNN、SelfExSR、DRCN、LapSRN、SRGAN和SRResNet。具体结果如图8所示。可见,不论是在评估指标上还是视觉效果上,本发明的效果都是非常好的。
由此可见,本发明申请提供的超分辨率重建方法,与已有的算法相比,算法精度有了明显的提高,结果更为稳定。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (1)
1.一种基于条件生成对抗网络的超分辨率重建方法,其特征在于,包括如下步骤:
步骤1,对训练集中的高分辨率图像采用双三次插值的方法进行下采样处理,获得低分辨率图像,分别对高分辨率图像和低分辨率图像进行随机裁剪,获得训练图像对集;
步骤2,设计条件生成对抗网络,所述条件生成对抗网络包括生成器网络和判别器网络,其中,生成器网络包括低频信息提取模块、深度密集残差模块、亚像素上采样模块和重建模块,判别器网络的判别条件是原始高分辨率图像;
所述条件生成对抗网络中生成器网络和判别器网络的对抗过程公式如下:
其中,G表示生成器网络,D表示判别器网络,E表示期望,y表示原始高分辨率图像,x表示低分辨率图像,G(x)表示G生成的超分辨率图像,D(y,y)表示在y的条件下,判断输入图像y的真伪,D(y,G(x))表示在y的条件下,判断输入图像G(x)的真伪;
步骤3,将步骤1获得的训练图像对集输入步骤2设计好的条件生成对抗网络,进行迭代训练,并通过感知损失函数判断条件生成对抗网络的收敛情况,从而得到训练好的条件生成对抗网络模型;
所述感知损失函数表达式为:
Loss=lMSE+0.006*lVGG+2*10-8lTV+100*L1+10-3lGen
其中,Loss表示感知损失函数,lMSE表示最小均方差损失,lVGG表示神经网络损失,lTV表示梯度损失,L1表示L1范数,lGen表示对抗损失;
所述最小均方差损失lMSE,公式如下:
其中,r表示放大因子,W、H是高分辨率图像的宽、高大小;
所述梯度损失lTV,公式如下:
所述对抗损失lGen,公式如下:
其中,N表示训练样本数量;
步骤4,对测试集中的高分辨率图像采用双三次插值的方法进行下采样处理,得到低分辨率测试图像,将低分辨率测试图像作为训练好的条件生成对抗网络模型的输入,并输出超分辨率图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910144539.7A CN109978762B (zh) | 2019-02-27 | 2019-02-27 | 一种基于条件生成对抗网络的超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910144539.7A CN109978762B (zh) | 2019-02-27 | 2019-02-27 | 一种基于条件生成对抗网络的超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109978762A CN109978762A (zh) | 2019-07-05 |
CN109978762B true CN109978762B (zh) | 2023-06-16 |
Family
ID=67077422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910144539.7A Active CN109978762B (zh) | 2019-02-27 | 2019-02-27 | 一种基于条件生成对抗网络的超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109978762B (zh) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363792A (zh) * | 2019-07-19 | 2019-10-22 | 广东工业大学 | 一种基于光照不变性特征提取的遥感图像变化检测方法 |
CN110390650B (zh) * | 2019-07-23 | 2022-02-11 | 中南大学 | 基于密集连接和生成对抗网络的oct图像去噪方法 |
CN110490818B (zh) * | 2019-07-24 | 2022-03-25 | 西安理工大学 | 基于cgan的计算鬼成像重建恢复方法 |
CN110675326B (zh) * | 2019-07-24 | 2022-04-22 | 西安理工大学 | 基于U-Net网络的计算鬼成像重建恢复的方法 |
CN110660025B (zh) * | 2019-08-02 | 2023-01-17 | 西安理工大学 | 一种基于gan网络的工业监控视频图像清晰化方法 |
CN110473144B (zh) * | 2019-08-07 | 2023-04-25 | 南京信息工程大学 | 一种基于拉普拉斯金字塔网络的图像超分辨率重建方法 |
CN110415194B (zh) * | 2019-08-07 | 2022-07-05 | 哈尔滨工业大学(深圳) | 一种弓形虫高倍显微图像生成方法及系统 |
CN110570353B (zh) * | 2019-08-27 | 2023-05-12 | 天津大学 | 密集连接生成对抗网络单幅图像超分辨率重建方法 |
CN110490807A (zh) * | 2019-08-27 | 2019-11-22 | 中国人民公安大学 | 图像重建方法、装置及存储介质 |
CN110751183A (zh) * | 2019-09-24 | 2020-02-04 | 东软集团股份有限公司 | 影像数据分类模型的生成方法、影像数据分类方法及装置 |
CN110705328A (zh) * | 2019-09-27 | 2020-01-17 | 江苏提米智能科技有限公司 | 一种基于二维码图像采集电力数据的方法 |
CN111127316B (zh) * | 2019-10-29 | 2022-10-25 | 山东大学 | 一种基于sngan网络的单幅人脸图像超分辨方法及系统 |
CN110956126B (zh) * | 2019-11-27 | 2023-09-15 | 云南电网有限责任公司电力科学研究院 | 一种联合超分辨率重建的小目标检测方法 |
CN111062886A (zh) * | 2019-12-10 | 2020-04-24 | 携程计算机技术(上海)有限公司 | 酒店图片的超分辨方法、系统、电子产品和介质 |
CN111080522B (zh) * | 2019-12-13 | 2022-03-25 | 福州大学 | 一种基于双向对抗网络的图像超分辨率重建方法 |
CN111127321B (zh) * | 2019-12-24 | 2021-09-03 | 浙江大学 | 遥感卫星分辨率提升方法、装置、电子设备及存储介质 |
CN111210388B (zh) * | 2019-12-30 | 2021-02-02 | 深圳市爱协生科技有限公司 | 基于生成对抗网络的马赛克人脸图像超分辨率重建方法 |
CN111080531B (zh) * | 2020-01-10 | 2024-02-23 | 北京农业信息技术研究中心 | 一种水下鱼类图像的超分辨率重建方法、系统及装置 |
CN111476745B (zh) * | 2020-01-13 | 2023-07-25 | 杭州电子科技大学 | 一种进行运动模糊超分辨的多分支网络及方法 |
CN111311488B (zh) * | 2020-01-15 | 2022-03-29 | 广西师范大学 | 一种基于深度学习的高效超分辨率重建方法 |
CN111383173B (zh) * | 2020-02-12 | 2023-04-18 | 山东师范大学 | 一种基于基线的图像超分辨率重建方法及系统 |
CN111402133A (zh) * | 2020-03-13 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读介质 |
CN111507898A (zh) * | 2020-03-16 | 2020-08-07 | 徐州工程学院 | 基于自适应调整的图像超分辨率重建方法 |
CN111429371B (zh) * | 2020-03-23 | 2023-09-29 | Oppo广东移动通信有限公司 | 图像处理方法、装置及终端设备 |
CN111353940B (zh) * | 2020-03-31 | 2021-04-02 | 成都信息工程大学 | 一种基于深度学习迭代上下采样的图像超分辨率重建方法 |
CN111583109B (zh) * | 2020-04-23 | 2024-02-13 | 华南理工大学 | 基于生成对抗网络的图像超分辨率方法 |
CN111652851A (zh) * | 2020-05-08 | 2020-09-11 | 怀光智能科技(武汉)有限公司 | 一种基于移动设备的超分辨显微系统 |
CN111899168B (zh) * | 2020-07-02 | 2023-04-07 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 |
CN111932456B (zh) * | 2020-07-31 | 2023-05-16 | 浙江师范大学 | 一种基于生成对抗网络的单幅图像超分辨率重建方法 |
CN111915491A (zh) * | 2020-08-14 | 2020-11-10 | 深圳清研智城科技有限公司 | 一种基于远近景的弱监督超分辨率重建模型及方法 |
CN111951192A (zh) * | 2020-08-18 | 2020-11-17 | 义乌清越光电科技有限公司 | 一种拍摄图像的处理方法及拍摄设备 |
CN112037131A (zh) * | 2020-08-31 | 2020-12-04 | 上海电力大学 | 一种基于生成对抗网络的单图像超分辨率重建方法 |
CN112150379A (zh) * | 2020-09-22 | 2020-12-29 | 武汉工程大学 | 基于感知判别增强生成对抗网络的图像去雾方法及装置 |
CN112163998A (zh) * | 2020-09-24 | 2021-01-01 | 肇庆市博士芯电子科技有限公司 | 一种匹配自然降质条件的单图像超分辨率分析方法 |
CN112132959B (zh) * | 2020-09-25 | 2023-03-24 | 东北石油大学 | 数字岩心图像处理方法、装置、计算机设备及存储介质 |
CN112258402A (zh) * | 2020-09-30 | 2021-01-22 | 北京理工大学 | 一种快速去雨的密集残差生成对抗网络 |
CN112270646B (zh) * | 2020-11-05 | 2023-06-09 | 浙江传媒学院 | 基于残差密集跳跃网络的超分辨增强方法 |
CN112365405A (zh) * | 2020-11-25 | 2021-02-12 | 重庆邮电大学 | 一种基于生成对抗网络的无监督超分辨率重建方法 |
CN112749788A (zh) * | 2020-12-17 | 2021-05-04 | 郑州金惠计算机系统工程有限公司 | 超分辨率图片模型生成方法、装置、电子设备及存储介质 |
CN112801866B (zh) * | 2020-12-18 | 2023-04-07 | 展讯通信(天津)有限公司 | 图像重建模型的生成方法、图像重建方法及相关设备 |
CN112561799A (zh) * | 2020-12-21 | 2021-03-26 | 江西师范大学 | 一种红外图像超分辨率重建方法 |
CN112651329B (zh) * | 2020-12-23 | 2022-10-11 | 中国人民解放军空军工程大学 | 一种双流特征学习生成对抗网络的低分辨率船舶分类方法 |
CN112598581B (zh) * | 2020-12-30 | 2023-10-24 | 中国科学院信息工程研究所 | 一种rdn超分辨网络的训练方法及图像生成方法 |
CN112837221B (zh) * | 2021-01-26 | 2022-08-19 | 合肥工业大学 | 一种基于双重判别的sar图像超分辨率重建方法 |
CN113344110B (zh) * | 2021-06-26 | 2024-04-05 | 浙江理工大学 | 一种基于超分辨率重建的模糊图像分类方法 |
CN113487565A (zh) * | 2021-07-03 | 2021-10-08 | 肇庆学院 | 用于Sentinel-2卫星遥感图像的超分辨率分析方法 |
CN113538247B (zh) * | 2021-08-12 | 2022-04-15 | 中国科学院空天信息创新研究院 | 超分辨率生成与条件对抗网络遥感影像样本生成方法 |
CN113706380B (zh) * | 2021-08-20 | 2022-12-09 | 西安交通大学 | 基于弱监督生成对抗网络提高地震资料分辨率方法及系统 |
CN113674154B (zh) * | 2021-08-23 | 2023-10-27 | 北京印刷学院 | 一种基于生成对抗网络的单幅图像超分辨率重建方法及系统 |
CN113837945B (zh) * | 2021-09-30 | 2023-08-04 | 福州大学 | 一种基于超分辨率重建的显示画质优化方法及系统 |
CN114241078A (zh) * | 2022-02-23 | 2022-03-25 | 南昌睿度医疗科技有限公司 | 一种加速磁共振超分辨率成像方法、装置、设备及介质 |
CN114782285A (zh) * | 2022-06-17 | 2022-07-22 | 苏州大学 | 一种低分辨率模糊图像增强方法 |
CN116630140A (zh) * | 2023-03-31 | 2023-08-22 | 南京信息工程大学 | 一种基于条件生成对抗网络的动漫人像真人化的实现方法、设备及介质 |
CN116071478B (zh) * | 2023-04-06 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 图像重建模型的训练方法和虚拟场景渲染方法 |
CN116721018B (zh) * | 2023-08-09 | 2023-11-28 | 中国电子科技集团公司第十五研究所 | 基于密集残差连接的生成对抗网络的图像超分辨重建方法 |
CN116721316A (zh) * | 2023-08-11 | 2023-09-08 | 之江实验室 | 一种模型训练和地磁图优化方法、装置、介质及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018053340A1 (en) * | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
-
2019
- 2019-02-27 CN CN201910144539.7A patent/CN109978762B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
Non-Patent Citations (1)
Title |
---|
生成式对抗神经网络的多帧红外图像超分辨率重建;李方彪 等;《红外与激光工程》;20180225;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109978762A (zh) | 2019-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978762B (zh) | 一种基于条件生成对抗网络的超分辨率重建方法 | |
CN110136063B (zh) | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 | |
CN109102462B (zh) | 一种基于深度学习的视频超分辨率重建方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
Gao et al. | Multi-scale deep neural networks for real image super-resolution | |
CN109493295B (zh) | 一种非局部哈尔变换图像去噪方法 | |
CN111932461A (zh) | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 | |
CN112507617A (zh) | 一种SRFlow超分辨率模型的训练方法及人脸识别方法 | |
CN111476745A (zh) | 一种进行运动模糊超分辨的多分支网络及方法 | |
CN116091313A (zh) | 一种图像超分辨率网络模型和重建方法 | |
CN112927137A (zh) | 一种用于获取盲超分辨率图像的方法、设备及存储介质 | |
CN115393191A (zh) | 一种轻量级遥感图像超分辨率重建方法、装置及设备 | |
CN115660955A (zh) | 高效多注意力特征融合的超分辨率重建模型、方法、设备及存储介质 | |
CN110288529B (zh) | 一种基于递归局部合成网络的单幅图像超分辨率重建方法 | |
CN112085655A (zh) | 一种基于密集残差注意面部先验网络的人脸超分辨率方法 | |
CN115619645A (zh) | 一种基于多级残差跳跃连接网络的图像超分辨率重建方法 | |
CN112819705B (zh) | 一种基于网状结构与长距离相关性的真实图像去噪方法 | |
CN114283058A (zh) | 基于对抗网络和最大互信息优化的图像超分辨率重建方法 | |
CN116977651B (zh) | 一种基于双分支和多尺度特征提取的图像去噪方法 | |
CN111986102B (zh) | 一种数字病理图像去模糊方法 | |
Chen et al. | Guided dual networks for single image super-resolution | |
CN111489306A (zh) | 基于强化学习的图像去噪方法 | |
CN113191947B (zh) | 一种图像超分辨率的方法及系统 | |
CN110766612A (zh) | 一种基于深度学习的图像超分辨率方法 | |
CN115713462A (zh) | 超分辨模型训练方法、图像识别方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |