CN109829855B - 一种基于融合多层次特征图的超分辨率重建方法 - Google Patents

一种基于融合多层次特征图的超分辨率重建方法 Download PDF

Info

Publication number
CN109829855B
CN109829855B CN201910062633.8A CN201910062633A CN109829855B CN 109829855 B CN109829855 B CN 109829855B CN 201910062633 A CN201910062633 A CN 201910062633A CN 109829855 B CN109829855 B CN 109829855B
Authority
CN
China
Prior art keywords
convolution
network
neural network
feature
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910062633.8A
Other languages
English (en)
Other versions
CN109829855A (zh
Inventor
杨欣
王真真
谢堂鑫
周大可
李志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201910062633.8A priority Critical patent/CN109829855B/zh
Publication of CN109829855A publication Critical patent/CN109829855A/zh
Application granted granted Critical
Publication of CN109829855B publication Critical patent/CN109829855B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于融合多层次特征图的超分辨率重建方法,采用密集网络的思路,构建生成多层次特征图的特征提取网络。利用卷积核大小为1*1的卷积神经网络对联结的特征图进行降维,并融合特征图,在此基础上特征提取网络得到融合的多层次特征图,使用子像素卷积神经网络作为上采样算子,得到高分辨率的重建图像。在训练的过程中使用感知损失函数作为最小化目标,以生成更符合视觉感知的高分辨率图像。本发明解决了现有超分辨率重建算法未能充分利用多层次特征图的缺陷,能够充分利用特征提取网络得到的低分辨率图像中的局部和整体信息,能够准确并快速的由低分辨率图像重建得到高分辨率的图像。

Description

一种基于融合多层次特征图的超分辨率重建方法
技术领域
本发明涉及一种基于融合多层次特征图的超分辨率重建方法,属于计算机视觉技术领域。
背景技术
单幅图像超分辨率(SISR)作为一个基本的低级别计算机视觉问题,越来越受到研究界和人工智能界的关注。SISR的目标是从单低分辨率(LR)图像中恢复高分辨率(HR)图像。自文献(Image Super-Resolution Using Deep Convolutional Networks[J].IEEETransactions on Pattern Analysis and Machine Intelligence,2014,38(2))提出SRCNN的开创性工作以来,深层卷积神经网络(CNN)方法带来了蓬勃的发展。各种网络结构设计和训练策略不断提高了SR性能,尤其是在峰值信噪比(PSNR)准确性评价指标上取得了巨大的提高。然而,这些面向PSNR的方法倾向于在没有足够的高频细节的情况下输出过于平滑的结果,因为PSNR度量基本上与人类观察者的主观评价不一致。
为了提高SR重建结果的视觉感知质量,提出了几种感知驱动方法。例如,感知损失函数被提出,即在特征空间而不是像素空间中训练超分辨率模型。生成对抗网络被引入到SR中,以对抗网络来使得生成网络生成更符合自然图像的解决方案。为了改善恢复的纹理细节,进一步融合了先前的语义图像。文献(Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network[J].2016)是追求视觉效果的里程碑之一,利用残差块建立基本模型,并在GAN框架中利用感知损失进行优化。通过这些技术,大大提高了PSNR定向重建的整体视觉感知质量。
作为一项开拓性的工作,SRCNN以端到端的方式学习从LR到HR图像的映射,与以前的工作相比,实现卓越的性能。后来,SR领域见证了各种网络结构,如具有残差学习的更深层次网络、拉普拉斯金字塔结构、残差块、递归学习、密集连接网络、深度反投影和残差密集网络。除了监督学习外,还引入了其他方法,如强化学习和无监督学习来解决一般的图像恢复问题。
此外,几种方法被提出以稳定一个非常深的模型的训练过程。例如,开发跳跃连接以稳定训练并提高准确性。例如对于一般的深层网络,一种不带BN层的VGG网络的鲁棒初始化方法。
视觉感知驱动的方法也被提出,以提高SR重建结果的视觉感知质量。基于更接近感知相似性的思想,提出了通过最小化特征空间中的误差而不是像素空间中的误差来提高视觉质量的感知损失。相关空间之间的信息丢失是通过使用关注特征分布而不仅仅是比较图像的外观,利用自然图像统计生成图像。
国内外研究学者利用卷积神经网络来完成超分辨率重建的任务已有较大的进展,并将卷积神经网络引入到特征提取和上采样的过程中,使得特征提取和重建过程都能够通过样本来训练,提高算法的准确性。该研究方向有效的提高了超分辨率重建的准确性,已经成为计算机视觉领域的研究热点之一。
发明内容
本发明所要解决的技术问题是:提供一种基于融合多层次特征图的超分辨率重建方法,克服现有的基于卷积神经网络的超分辨率重建算法未能充分利用多层次特征图的缺点,提出融合多层次特征图的网络模型,准确重建高分辨率图片,有效提高了重建的准确性和视觉效果。
本发明为解决上述技术问题采用以下技术方案:
一种基于融合多层次特征图的超分辨率重建方法,包括如下步骤:
步骤1,构建基于融合多层次特征图的卷积神经网络模型,该网络模型包括特征提取网络和重建网络,对特征提取网络和重建网络进行训练;
步骤2,训练后的特征提取网络包括多层次特征提取网络和特征融合网络,多层次特征提取网络包括依次连接的多个卷积层,利用多层次特征提取网络对单幅图像进行特征提取,将所有卷积层输出的特征图进行联结;
步骤3,特征融合网络包括卷积核大小为1×1的卷积神经网络和卷积核大小为3×3的卷积神经网络,采用卷积核大小为1×1的卷积神经网络对联结后的特征图进行降维和跨通道信息融合,再采用卷积核大小为3×3的卷积神经网络进行特征提取得到特征图;
步骤4,训练后的重建网络包括上采样算子和卷积核大小为3×3的卷积神经网络,采用上采样算子将步骤3得到的特征图从低分辨率空间映射到高分辨率空间,再经过卷积核大小为3×3的卷积神经网络后输出的结果即为重建结果。
作为本发明的一种优选方案,步骤1所述对特征提取网络和重建网络进行训练,所采用的感知损失函数为:
其中,L表示损失函数,θ为网络中的参数,N为训练图片的总数,y(n)为第n张训练图片,为第n张训练图片下采样后经重建生成的高分辨率图像,β为正则化项的系数,||·||2表示参数的正则化。
作为本发明的一种优选方案,步骤2所述多层次特征提取网络,具体如下:
多层次特征提取网络包括t个相同的卷积层,且将前一个卷积层的输出作为后一个卷积层的输入,第一个卷积层的数学形式为:l1=δ(0,W1*X+b1),第二至第t个卷积层的数学形式为:li=δ(0,Wi*li-1+bi),l1表示第一个卷积层的输出,li-1、li分别表示第i-1、i个卷积层的输出,W1、Wi分别表示第1、i个卷积层的卷积核,X为原始图像,*为卷积运算,b1、bi均为偏置项,i=2,…,t,δ表示PReLU激活函数。
作为本发明的一种优选方案,步骤3所述采用卷积核大小为1×1的卷积神经网络对联结后的特征图进行降维和跨通道信息融合,数学形式为:
ltemp=δ(W1×1*[l1,l2,…,lt]+b1×1)
其中,ltemp为卷积核大小为1×1的卷积神经网络的输出,δ表示PReLU激活函数,W1×1为m个1×1×(m×t)大小的卷积核,m为卷积核的个数,[l1,l2,…,lt]表示第1至t个卷积层输出的特征图联结后的结果,b1×1为1×1的偏置项。
作为本发明的一种优选方案,步骤4所述上采样算子为子像素卷积神经网络,数学形式为:
Iup=PS(Wup*lout+bup)
其中,Iup为子像素卷积神经网络的输出,PS表示将特征图从低分辨率空间映射到高分辨率空间,Wup为子像素卷积神经网络的卷积核,lout为步骤3得到的特征图,bup为子像素卷积神经网络的偏置项。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明采用密集连接和特征图融合的方式,建立了融合层次特征图的特征提取网络,利用子像素卷积神经网络完成由低分辨率图片到高分辨率图片的上采样过程。基于感知损失函数,生成更符合视觉感知的重建高分辨率图像。本发明能够有效的利用特征提取网络中每一个卷积层提取的信息,应用与重建,取得了重建的准确性和好的视觉效果。
附图说明
图1是本发明一种基于融合多层次特征图的超分辨率重建方法的流程图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,一种基于卷积神经网络的超分辨率重建方法,网络模型分为两个部分:特征提取网络和重建网络。特征提取网络可以分为特征提取部分和特征融合部分,特征提取部分采用t个相同的卷积层,特征融合部分由一个1×1CNN和一个3×3CNN构成。重建网络由上采样算子和一个卷积层构成。
具体步骤如下:
步骤一:利用依次联结的卷积层对低分辨率图片进行特征提取,并采用密集联结的思路,将卷积层的输出特征图连接至特征提取网络中该卷积之后的卷积层作为输入。特征提取网络的第一个卷积层表示为以下数学形式:
l1=δ(0,W1*X+b1)
W1为滤波器,W1的大小为c×s1×s1,c为输入LR图像的通道数,s1为卷积核的空间大小,本发明中卷积核全部选择为等长宽的卷积核。b1为偏置项,*为卷积运算,δ代表PReLU激活函数,数学形式为:F(f)=max(0,f)+α(min(0,f)),f=W1*X+b1
在本发明中选择使用PReLU作为激活函数,在训练的过程中PReLU相比ReLU只增加了与卷积层数目相同的参数,同时可以在训练模型的过程中被训练,这样可以获得更针对与SR任务的激活函数。
特征提取网络第一个卷积层之后的卷积层的输出可以表示为以下形式:
li=δ(0,Wi*li-1+bi)
li为第i个卷积层的输出,δ为PReLU激活函数,Wi为第i个卷积层的卷积核,bi为偏置项,li-1为第i个卷积层的输入,[l1,l2,…,lt]是特征提取网络中第1,2,…,t卷积层输出的特征图经密集连接的联结。
步骤二:特征图的融合,深度学习在SR任务中发展至今模型越来越深,使得前后不同的卷积层的输出特征图是有着不同感受野的不同层次的特征图。多层次特征图可以给图像的重建提供更多的信息,对获得更好的重建效果更有利,特征提取网络在输出特征图之前将网络中全部卷积层输出特征图的联结:[l1,l2,…,lt]。
由于[l1,l2,…,lt]特征图的数目过多,极大的增加了计算量,本发明使用1×1卷积降低特征图的维数,自适应的控制降维的过程中输出的特征图保存的信息。可以用以下的数学形式表达:ltemp=δ(W1×1*[l1,l2,…,lI]+b1×1),W1×1是m个1×1×(m×t)大小的卷积核,δ是PReLU激活函数。
1×1卷积层跨通道的融合了联结特征图不同通道中的信息,再使用3×3卷积更进一步提取特征,整个特征提取网络的输出特征图表示为lout
步骤三:在LR空间大小特征提取网络提取特征图后,使用ESPCN中的子像素卷积作为上采样算子,表示为:
Iup=FL(lout)=PS(Wup*lout+bup)
上式中,式中PS是等同于特征图的元素置换操作,子像素卷积神经网络将H×W×r2c大小的lout变为rH×rW×c大小的Iup,r是上采样因子,c是图片通道数。
最后在子像素卷积神经网络之后连接一个3×3的卷积层,使用3×3的CNN得到最后的HR图像:ISR=δ(W*Iup+b)。
通过训练图片集训练基于卷积神经网络的模型。定义训练图片总数为N的训练集为:训练的过程是寻找最优的参数θ最小化模型的函数/>与y(n)在指定网络模型中特征空间中的误差。感知损失函数的定义对于训练过程中的收敛性、参数寻优的过程有着关键的影响。本发明中选择VGG网络为生成应用于损失函数的特征图的已训练深度网络,感知误差定义为:
定义感知损失函数为:
出于使网络中参数尽量稀疏的考虑,在损失函数中加入正则化项,乘以系数β。最后的损失函数如下式所示:
本发明模型中降维所用的卷积层大小为1×1,其他全部卷积层的卷积核大小设置为3×3。特征提取部分卷积层的个数本发明实验中设置为7,即t等于7,卷积核的个数m设置为64。特征融合部分3×3模型中的3×3卷积层使用填零来维持特征图的空间大小,避免丢失边缘信息。上采样算子采用子像素卷积从特征图得到HR大小c个通道的图片。
CNN卷积核的初始化全部采用HE方法,偏置项和PReLU的值置零。使用ADAM对网络进行训练,初始学习率设置为0.001。训练过程中当连续7个epochs损失函数保持稳定,就将学习率除以2,当学习率低于0.00001时停止整个训练过程。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (3)

1.一种基于融合多层次特征图的超分辨率重建方法,其特征在于,包括如下步骤:
步骤1,构建基于融合多层次特征图的卷积神经网络模型,该网络模型包括特征提取网络和重建网络,对特征提取网络和重建网络进行训练;
所述对特征提取网络和重建网络进行训练,所采用的感知损失函数为:
其中,L表示损失函数,θ为网络中的参数,N为训练图片的总数,y(n)为第n张训练图片,为第n张训练图片下采样后经重建生成的高分辨率图像,β为正则化项的系数,||·||2表示参数的正则化;
步骤2,训练后的特征提取网络包括多层次特征提取网络和特征融合网络,多层次特征提取网络包括依次连接的多个卷积层,利用多层次特征提取网络对单幅图像进行特征提取,将所有卷积层输出的特征图进行联结;
所述多层次特征提取网络,具体如下:
多层次特征提取网络包括t个相同的卷积层,且将前一个卷积层的输出作为后一个卷积层的输入,第一个卷积层的数学形式为:l1=δ(0,W1*X+b1),第二至第t个卷积层的数学形式为:li=δ(0,Wi*li-1+bi),l1表示第一个卷积层的输出,li-1、li分别表示第i-1、i个卷积层的输出,W1、Wi分别表示第1、i个卷积层的卷积核,X为原始图像,*为卷积运算,b1、bi均为偏置项,i=2,…,t,δ表示PReLU激活函数;
步骤3,特征融合网络包括卷积核大小为1×1的卷积神经网络和卷积核大小为3×3的卷积神经网络,采用卷积核大小为1×1的卷积神经网络对联结后的特征图进行降维和跨通道信息融合,再采用卷积核大小为3×3的卷积神经网络进行特征提取得到特征图;
步骤4,训练后的重建网络包括上采样算子和卷积核大小为3×3的卷积神经网络,采用上采样算子将步骤3得到的特征图从低分辨率空间映射到高分辨率空间,再经过卷积核大小为3×3的卷积神经网络后输出的结果即为重建结果。
2.根据权利要求1所述基于融合多层次特征图的超分辨率重建方法,其特征在于,步骤3所述采用卷积核大小为1×1的卷积神经网络对联结后的特征图进行降维和跨通道信息融合,数学形式为:
ltemp=δ(W1×1*[l1,l2,…,lt]+b1×1)
其中,ltemp为卷积核大小为1×1的卷积神经网络的输出,δ表示PReLU激活函数,W1×1为m个1×1×(m×t)大小的卷积核,m为卷积核的个数,[l1,l2,…,lt]表示第1至t个卷积层输出的特征图联结后的结果,b1×1为1×1的偏置项。
3.根据权利要求1所述基于融合多层次特征图的超分辨率重建方法,其特征在于,步骤4所述上采样算子为子像素卷积神经网络,数学形式为:
Iup=PS(Wup*lout+bup)
其中,Iup为子像素卷积神经网络的输出,PS表示将特征图从低分辨率空间映射到高分辨率空间,Wup为子像素卷积神经网络的卷积核,lout为步骤3得到的特征图,bup为子像素卷积神经网络的偏置项。
CN201910062633.8A 2019-01-23 2019-01-23 一种基于融合多层次特征图的超分辨率重建方法 Active CN109829855B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910062633.8A CN109829855B (zh) 2019-01-23 2019-01-23 一种基于融合多层次特征图的超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910062633.8A CN109829855B (zh) 2019-01-23 2019-01-23 一种基于融合多层次特征图的超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN109829855A CN109829855A (zh) 2019-05-31
CN109829855B true CN109829855B (zh) 2023-07-25

Family

ID=66861959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910062633.8A Active CN109829855B (zh) 2019-01-23 2019-01-23 一种基于融合多层次特征图的超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN109829855B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110191344B (zh) * 2019-06-06 2021-11-02 天津大学 一种光场图像智能编码方法
CN110472670B (zh) * 2019-07-24 2022-03-01 上海联影智能医疗科技有限公司 图像中线检测方法、计算机设备和存储介质
CN110706154B (zh) * 2019-08-28 2021-08-31 西北大学 一种基于层次化残差神经网络的图像超分辨率方法
CN111080533B (zh) * 2019-10-21 2023-05-16 南京航空航天大学 一种基于自监督残差感知网络的数码变焦方法
CN112905132B (zh) * 2019-11-19 2023-07-18 华为技术有限公司 投屏方法及设备
CN111047514B (zh) * 2019-12-02 2023-04-18 清华大学深圳国际研究生院 一种单张图像超分辨的方法
CN111091521B (zh) * 2019-12-05 2023-04-07 腾讯科技(深圳)有限公司 图像处理方法及装置、电子设备和计算机可读存储介质
CN111080522B (zh) * 2019-12-13 2022-03-25 福州大学 一种基于双向对抗网络的图像超分辨率重建方法
CN111144310A (zh) * 2019-12-27 2020-05-12 创新奇智(青岛)科技有限公司 一种基于多层信息融合的人脸检测方法及系统
CN111402128A (zh) * 2020-02-21 2020-07-10 华南理工大学 一种基于多尺度金字塔网络的图像超分辨率重建方法
CN111429352B (zh) * 2020-03-26 2023-04-18 深圳大学 一种基于神经网络的图像超分辨率重建方法及设备
CN111462085B (zh) * 2020-03-31 2023-09-19 上海大学 基于卷积神经网络的数字图像局部滤波取证方法
CN112750076B (zh) * 2020-04-13 2022-11-15 奕目(上海)科技有限公司 一种基于深度学习的光场多视角图像超分辨率重建方法
CN113556496B (zh) * 2020-04-23 2022-08-09 京东方科技集团股份有限公司 视频分辨率提升方法及装置、存储介质及电子设备
CN111881920B (zh) * 2020-07-16 2024-04-09 深圳力维智联技术有限公司 一种大分辨率图像的网络适配方法及神经网络训练装置
CN111815764B (zh) * 2020-07-21 2022-07-05 西北工业大学 基于自监督3d全卷积神经网络的超声三维重建方法
US11803939B2 (en) * 2021-04-28 2023-10-31 Shanghai United Imaging Intelligence Co., Ltd. Unsupervised interslice super-resolution for medical images
CN113409195A (zh) * 2021-07-06 2021-09-17 中国标准化研究院 基于改进的深度卷积神经网络的图像超分辨率重建方法
CN113421252B (zh) * 2021-07-07 2024-04-19 南京思飞捷软件科技有限公司 一种基于改进的卷积神经网络的车身焊接缺陷的检测方法
CN113763251B (zh) * 2021-09-14 2023-06-16 浙江师范大学 一种图像超分辨率放大模型及其方法
CN114782676B (zh) * 2022-04-02 2023-01-06 北京广播电视台 一种视频感兴趣区域的提取方法和系统
CN115235991B (zh) * 2022-08-30 2023-03-07 华创威新材料(广东)有限公司 基于纤维套管的耐磨性智能检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107155110A (zh) * 2017-06-14 2017-09-12 福建帝视信息科技有限公司 一种基于超分辨率技术的图片压缩方法
CN108062754A (zh) * 2018-01-19 2018-05-22 深圳大学 基于密集网络图像的分割、识别方法和装置
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN108765291A (zh) * 2018-05-29 2018-11-06 天津大学 基于稠密神经网络和双参数损失函数的超分辨率重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107155110A (zh) * 2017-06-14 2017-09-12 福建帝视信息科技有限公司 一种基于超分辨率技术的图片压缩方法
CN108062754A (zh) * 2018-01-19 2018-05-22 深圳大学 基于密集网络图像的分割、识别方法和装置
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN108765291A (zh) * 2018-05-29 2018-11-06 天津大学 基于稠密神经网络和双参数损失函数的超分辨率重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fast and Accurate Image Super Resolution by Deep CNN with Skip Connection and Network in Network;Jin Yamanaka 等;《https://arxiv.org/abs/1707.05425v1》;20170718;第1-9页 *

Also Published As

Publication number Publication date
CN109829855A (zh) 2019-05-31

Similar Documents

Publication Publication Date Title
CN109829855B (zh) 一种基于融合多层次特征图的超分辨率重建方法
CN106683067B (zh) 一种基于残差子图像的深度学习超分辨率重建方法
CN111968053B (zh) 基于门控卷积生成对抗网络的图像修复方法
CN111080511B (zh) 一种端到端的高分辨率多特征提取的人脸交换方法
CN111784602B (zh) 一种生成对抗网络用于图像修复的方法
CN109903223B (zh) 一种基于稠密连接网络与生成式对抗网络的图像超分辨率方法
CN109671023A (zh) 一种人脸图像超分辨率二次重建方法
CN109559276B (zh) 一种基于质量评价和特征统计的图像超分辨率重建方法
CN111028150B (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN109584325B (zh) 一种基于u型周期一致对抗网络的动漫图像的双向色彩化方法
CN110634105B (zh) 一种光流法和深度网络结合的视频高时空分辨率信号处理方法
CN110197468A (zh) 一种基于多尺度残差学习网络的单图像超分辨重建算法
CN108022213A (zh) 基于生成对抗网络的视频超分辨率重建算法
CN109727195B (zh) 一种图像超分辨率重构方法
CN112465955A (zh) 一种动态人体三维重建和视角合成方法
CN111681166A (zh) 一种堆叠注意力机制编解码单元的图像超分辨率重建方法
CN112767283A (zh) 一种基于多图像块划分的非均匀图像去雾方法
CN106600533B (zh) 单图像超分辨率重建方法
CN115393186A (zh) 一种人脸图像超分辨率重建方法、系统、设备及介质
CN114897694A (zh) 基于混合注意力和双层监督的图像超分辨率重建方法
CN115829876A (zh) 一种基于交叉注意力机制的真实退化图像盲修复方法
Umer et al. Deep iterative residual convolutional network for single image super-resolution
CN117079105A (zh) 遥感图像空谱融合方法、装置、电子设备及存储介质
CN111028147B (zh) 基于级联空洞卷积的三维医学图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant