CN111311488B - 一种基于深度学习的高效超分辨率重建方法 - Google Patents

一种基于深度学习的高效超分辨率重建方法 Download PDF

Info

Publication number
CN111311488B
CN111311488B CN202010049960.2A CN202010049960A CN111311488B CN 111311488 B CN111311488 B CN 111311488B CN 202010049960 A CN202010049960 A CN 202010049960A CN 111311488 B CN111311488 B CN 111311488B
Authority
CN
China
Prior art keywords
training
network
features
resolution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010049960.2A
Other languages
English (en)
Other versions
CN111311488A (zh
Inventor
黎海生
鲁健恒
黄华锋
薛帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Benxi Steel Group Information Automation Co ltd
Original Assignee
Guangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Normal University filed Critical Guangxi Normal University
Priority to CN202010049960.2A priority Critical patent/CN111311488B/zh
Publication of CN111311488A publication Critical patent/CN111311488A/zh
Application granted granted Critical
Publication of CN111311488B publication Critical patent/CN111311488B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及图像处理和计算机视觉领域,涉及卷积神经网络图像超分辨率重建相关技术,具体为提供了一种基于深度学习的高效超分辨率重建方法,该重建方法于超分辨率重建领域结构中较为简单高效的FSRCNN网络结构的基础上,增加最近邻插值算法、残差连接、密集连接以及迁移学习,构成了新的网络结构‑LuNet结构,将该LuNet结构与现有常用超分辨率算法(Bicubic、SCN、SRCNN、FSRCNN)进行性能上的实验测试,测试结构表明,本发明所构成的LuNet结构在模型参数量保持不变的情况下,具有更高的重建质量,其性能更为完善。

Description

一种基于深度学习的高效超分辨率重建方法
技术领域
本发明涉及图像处理和计算机视觉领域,涉及卷积神经网络图像超分辨率重建相关技术,具体为一种基于深度学习的高效超分辨率重建方法。
背景技术
图像超分辨率重建,又称为图像放大,其目的是将用户所输入的低分辨图像进行放大,同时提升图像的清晰度,经过图像的超分辨率重建过程后,低分辨率的图像变得更清晰。传统的超分辨率图像重建方法使用线性插值、双线性插值、最近邻插值等插值方法进行。该处理效果虽然速度快,但是会在图片中形成模糊不清的高频细节,造成严重失真。
随着卷积神经网络(CNN)的发展,大量卷积神经网络应用于超分重建领域,结构复杂的CNN可以通过多个模块的特征提取与映射完成重建过程,虽然其会形成真实的细节信息,但由于网络的复杂性,难以实现实时快速的超分辨率重建。结构简单的CNN可以通过较为粗略的模块结构,完成特征提取与重建过程,虽然其实时性高,但会缺乏较为完整的高频细节。
发明内容
鉴于以上内容,有必要提供一种基于深度学习的高效超分辨率重建方法,该方法于超分重建领域结构中较为简单高效的FSRCNN网络结构的基础上,增加最近邻插值算法、残差连接、密集连接以及迁移学习,从而使得网络结构在保持不变的情况下,提高网络性能,本申请将该网络结构模型命名为LuNet结构。
为达到上述目的,本发明所采用的技术方案是:
一种基于深度学习的高效超分辨率重建方法,包括以下步骤:
步骤S1:获取超分辨率常用标准数据集,标准数据集包括“91-imags”、”Set 5”、”Set 14”、”BSDS100”、“manga109”、”DIV2K”以及“Urban100”,对标准数据集中的图像进行旋转、偏移、切割以及尺度变换,得到增强后的数据集;
步骤S2:读取图像信息,将低分辨率图像与高分辨率图像组合成信息对,制作成网络结构所需的数据集;
步骤S3:在网络结构中,将输入图像进行两分支处理;其中,第一分支利用最近邻插值法将低分辨率图像放大至目标尺寸,形成插值上采样后的图像,然后进入到步骤S8处理;第二分支利用卷积网络模块进行初步的特征提取,得到初步特征后进入到步骤S4处理;
步骤S4:步骤S3第二分支所提取到的初步特征进一步分为两支路,其中,第一支路的初步特征使用残差连接,后进入到步骤S8,第二支路的初步特征直接进入到步骤S5进行密集残差模块特征提取;
步骤S5:密集残差特征提取具体包括如下步骤:
i)将步骤S4中第二支路的初步特征利用1x1卷积层进行特征通道压缩,再经PReLU激活;
ii)对步骤i)所得的特征分成n个子特征,并对n个子特征采用密集相加的连接方式进行特征提取,其中,提取公式如下:
Figure BDA0002367579220000021
式中,i,j=1,2,3...n,Fbi为第i次特征提取模块所得到的特征,Hi为第i次特征提取模块,Fb0为子特征,亦为步骤i)所得的特征,Fbj为第j次特征提取模块所得到的特征;
iii)将步骤ii)所得的特征利用1x1的卷积层对网络特征图的通道数进行特征扩张,使得通道数量恢复到原来的数量,即得到末级残差特征;
步骤S6:将经过步骤S5所得到的特征与步骤S4第一支路所得到的特征进行相加,随后通过反卷积层进行尺度放大;
步骤S7:将从步骤S6中的反卷积层出来的图像与步骤S3经最近邻插值法所得的图像进行相加,形成最终的网络结构模型输出;
步骤S8:进行训练网络,包括以下步骤:
1)预训练:将“91-images”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成预训练;
2)二次训练:使用迁移学习继续进行训练,首先,读取步骤1)所得的网络参数,将“DIV2K”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间继续通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成网络训练过程。
进一步地,在步骤S3中,第二分支利用卷积网络模块进行初步的特征提取的具体步骤为:使用3x3卷积层进行初步的特征提取,随后经过PReLU激活,得到初步特征。
进一步地,在步骤S5中Hi中所指的特征提取模块是由3x3卷积层进行特征提取并经过PReLU激活构成。
进一步地,在步骤S8的步骤1)预训练中,学习率设置为1e-3,训练网络参数,当网络训练至500迭代后保存参数。
进一步地,在步骤S8的步骤2)二次训练中,学习率设置为5e-4,训练网络参数,当网络训练200迭代后进行保存。
与现有技术相比,本发明具有以下有益效果:
其一,本发明利用残差连接,避免了梯度消失,使得网络容易训练。
其二,本发明利用最近邻插值算法,使得重建效果比原来更为逼真,实现了不引入多余参数的情况下提升性能的目的。
其三,本发明对特征提取模块使用新的密集连接技术,使得模型在不增加额外参数量情况下提升性能。
其四,本发明使用了迁移学习,通过在不同数据库下进行微调,实现了性能的进一步的提升,其中,迁移学习是指将模型在一个领域进行预训练,随后迁移至另一领域进一步训练的意思。
其五,本发明的LuNet结构,其相比于FSRCNN,具有更为完善的性能,其具体表现为,在模型参数量基本不变情况下具有更高的重建质量。
附图说明
图1表示本文网络结构的整体网络模型框图。
图2表示密集残差模块的框图结构。
图3展示了传统基于通道合并的密集连接。
图4展示了本设计中基于直接相加的密集连接。
图5表示网络重建的效果展示,其中LR为输入图片,SR为网络输出图片,HR为真实图片。
图6展示了本文所提出的网络与其他常见网络之间的重建效果比较,其中括号里左侧数字代表重建图像与原图的峰值信噪比(PSNR),右侧数字代表结构相似性(SSIM)。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
请参阅图1-6,在本发明的一种较佳实施方式中,一种基于深度学习的高效超分辨率重建方法,包括以下步骤:
步骤S1:获取超分辨率常用标准数据集,标准数据集包括“91-imags”、”Set 5”、”Set14”、”BSDS100”、“manga109”、”DIV2K”以及“Urban100”,对标准数据集中的图像进行旋转、偏移、切割以及尺度变换,得到增强后的数据集。
步骤S2:读取图像信息,将低分辨率图像与高分辨率图像组合成信息对,制作成网络结构所需的数据集。
步骤S3:在网络结构中,将输入图像进行两分支处理;其中,第一分支利用最近邻插值法将低分辨率图像放大至目标尺寸,形成插值上采样后的图像,然后进入到步骤S8处理;第二分支利用卷积网络模块进行初步的特征提取,具体提取步骤是使用3x3卷积层进行初步的特征提取,随后经过PReLU激活,得到初步特征,后进入到步骤S4处理。
步骤S4:步骤S3第二分支所提取到的初步特征进一步分为两支路,其中,第一支路的初步特征使用残差连接,后进入到步骤S8,第二支路的初步特征直接进入到步骤S5进行密集残差模块特征提取。
步骤S5:密集残差特征提取具体包括如下步骤:
i)将步骤S4中第二支路的初步特征利用1x1卷积层进行特征通道压缩,再经PReLU激活;
ii)对步骤i)所得的特征分成n个子特征,并对n个子特征采用密集相加的连接方式进行特征提取,其中,提取公式如下:
Figure BDA0002367579220000051
式中,i,j=1,2,3...n,Fbi为第i次特征提取模块所得到的特征,Hi为第i次特征提取模块,该特征提取模块是由3x3卷积层进行特征提取并经过PReLU激活组成,Fb0为子特征,亦为步骤i)所得的特征,Fbj为第j次特征提取模块所得到的特征;
iii)将步骤ii)所得的特征利用1x1的卷积层对网络特征图的通道数进行特征扩张,使得通道数量恢复到原来的数量,即得到末级残差特征。
步骤S6:将经过步骤S5所得到的特征与步骤S4第一支路所得到的特征进行相加,随后通过反卷积层进行尺度放大。
步骤S7:将从步骤S6中的反卷积层出来的图像与步骤S3经最近邻插值法所得的图像进行相加,形成最终的网络结构模型输出。
步骤S8:进行训练网络,包括以下步骤:
1)预训练:将“91-images”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成预训练;在本实施方式中,预训练的学习率设置为1e-3,训练网络参数,当网络训练至500迭代后保存参数;
2)二次训练:使用迁移学习继续进行训练,首先,读取步骤1)所得的网络参数,将“DIV2K”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间继续通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成网络训练过程;在本实施方式中,二次训练的学习率设置为5e-4,训练网络参数,当网络训练200迭代后进行保存,即完成网络训练过程。
本发明的图像重建方法在现有卷积神经网络(FSRCNN)的基础上利用通道压缩扩张技术、最近邻插值算法、残差连接、密集残差连接和迁移学习实现图像的重建,通过本发明所得到的网络结构模型性能得到较大提高。
其中,最近邻插值算法对图像进行尺寸放大;密集残差连接与通道压缩扩张技术共同构成密集残差模块,其中,通道压缩和扩张的目的是,使得图像信息在进行特征提取时能减少总体网络模块的参数量,减少无关运算,密集残差连接则可增加各个特征提取模块信息之间的耦合度,本发明所使用的密集残差模块对信息直接相加,不会引起参数量的大幅度变化,而传统的密集连接是对不同的模块进行提取后在通道上合并在一起,会引起参数量过多的问题,因此,本发明的提升效果更好;残差连接是在通道信息进入通道压缩前进行,可使部分信息绕过压缩模块,直接与结果进行相加,从而使得梯度信息不容易丢失,模型训练时更加稳定,从而使得网络结构在图像超分辨率重建任务中的峰值信噪比(PSNR)指标及结构相似性(SSIM)指标得到提升;迁移学习则提高泛化能力,使得峰值信噪比(PSNR)指标及结构相似性(SSIM)指标得到进一步提升。
为了展示本申请的性能提升效果,本发明做了实验测试,在测试时,所用的网络结构模型基于上述方法所得,其中,在上述方法的步骤5中,针对步骤ii),其是将对步骤i)所得的特征分成4个子特征,并对4个子特征采用密集相加的连接方式进行特征提取,其中,提取公式具体如下:
Fb1=H1(Fb0)
Fb2=H2(Fb0+Fb1)
Fb3=H3(Fb0+Fb1+Fb2)
Fb4=H4(Fb0+Fb1+Fb2+Fb3)
测试时,在常用数据集”Set5”、”Set14”、”Urban100”、”Manga109”、“BSDS100”进行测试,所使用的测试指标为峰值信噪比(PSNR)及结构相似性(SSIM),首先,进行残差连接、最近邻插值算法、密集残差模块和迁移学习依次增加至基准网络FSRCNN后的性能对比,接着将上述所得的网络结构模型与常用超分辨率算法之间进行性能对比,对比结果显示在表1和表2中,其中,表1为残差连接、最近邻插值算法、密集残差模块和迁移学习依次增加至基准网络后的性能对比表,表2为本发明的LuNet结构模型与常用超分辨率算法(Bicubic、SCN、SRCNN、FSRCNN)之间的性能对比表,具体如下:
表1
Figure BDA0002367579220000071
表2
Figure BDA0002367579220000072
由表1可知,在基准网络的基础上依次增加残差连接、最近邻插值算法、密集残差模块和迁移学习,其峰值信噪比(PSNR)及结构相似性(SSIM)均依次提升,而本发明的LuNet结构模型相较现有常用超分辨率算法(Bicubic、SCN、SRCNN、FSRCNN),其峰值信噪比(PSNR)及结构相似性(SSIM)较优,也就是说,本发明所提出的LuNet结构在模型参数量基本不变情况下具有更高的重建质量,其具有更为完善的性能。
上述说明是针对本发明较佳可行实施例的详细说明,但实施例并非用以限定本发明的专利申请范围,凡本发明所提示的技术精神下所完成的同等变化或修饰变更,均应属于本发明所涵盖专利范围。

Claims (5)

1.一种基于深度学习的高效超分辨率重建方法,其特征在于,包括以下步骤:
步骤S1:获取超分辨率常用标准数据集,标准数据集包括“91-imags”、”Set 5”、”Set14”、”BSDS100”、“manga109”、”DIV2K”以及“Urban100”,对标准数据集中的图像进行旋转、偏移、切割以及尺度变换,得到增强后的数据集;
步骤S2:读取图像信息,将低分辨率图像与高分辨率图像组合成信息对,制作成网络结构所需的数据集;
步骤S3:在网络结构中,将输入图像进行两分支处理;其中,第一分支利用最近邻插值法将低分辨率图像放大至目标尺寸,形成插值上采样后的图像,然后进入到步骤S8处理;第二分支利用卷积网络模块进行初步的特征提取,得到初步特征后进入到步骤S4处理;
步骤S4:步骤S3第二分支所提取到的初步特征进一步分为两支路,其中,第一支路的初步特征使用残差连接,后进入到步骤S8,第二支路的初步特征直接进入到步骤S5进行密集残差模块特征提取;
步骤S5:密集残差特征提取具体包括如下步骤:
i)将步骤S4中第二支路的初步特征利用1x1卷积层进行特征通道压缩,再经PReLU激活;
ii)对步骤i)所得的特征分成n个子特征,并对n个子特征采用密集相加的连接方式进行特征提取,其中,提取公式如下:
Figure FDA0002367579210000011
式中,i,j=1,2,3...n,Fbi为第i次特征提取模块所得到的特征,Hi为第i次特征提取模块,Fb0为子特征,亦为步骤i)所得的特征,Fbj为第j次特征提取模块所得到的特征;
iii)将步骤ii)所得的特征利用1x1的卷积层对网络特征图的通道数进行特征扩张,使得通道数量恢复到原来的数量,即得到末级残差特征;
步骤S6:将经过步骤S5所得到的特征与步骤S4第一支路所得到的特征进行相加,随后通过反卷积层进行尺度放大;
步骤S7:将从步骤S6中的反卷积层出来的图像与步骤S3经最近邻插值法所得的图像进行相加,形成最终的网络结构模型输出;
步骤S8:进行训练网络,包括以下步骤:
1)预训练:将“91-images”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成预训练;
2)二次训练:使用迁移学习继续进行训练,首先,读取步骤1)所得的网络参数,将“DIV2K”图像数据集中的低分辨率图像分批读入网络结构中,将网络结构模型的输出与对应的高分辨率图像之间继续通过MAE计算误差,并把误差进行反向传播,训练网络参数,训练结束即完成网络训练过程。
2.如权利要求1所述的基于深度学习的高效超分辨率重建方法,其特征在于,在步骤S3中,第二分支利用卷积网络模块进行初步的特征提取的具体步骤为:使用3x3卷积层进行初步的特征提取,随后经过PReLU激活,得到初步特征。
3.如权利要求1所述的基于深度学习的高效超分辨率重建方法,其特征在于,在步骤S5中Hi中所指的特征提取模块是由3x3卷积层进行特征提取并经过PReLU激活构成。
4.如权利要求1所述的基于深度学习的高效超分辨率重建方法,其特征在于,在步骤S8的步骤1)预训练中,学习率设置为1e-3,训练网络参数,当网络训练至500迭代后保存参数。
5.如权利要求1所述的基于深度学习的高效超分辨率重建方法,其特征在于,在步骤S8的步骤2)二次训练中,学习率设置为5e-4,训练网络参数,当网络训练200迭代后进行保存。
CN202010049960.2A 2020-01-15 2020-01-15 一种基于深度学习的高效超分辨率重建方法 Active CN111311488B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010049960.2A CN111311488B (zh) 2020-01-15 2020-01-15 一种基于深度学习的高效超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010049960.2A CN111311488B (zh) 2020-01-15 2020-01-15 一种基于深度学习的高效超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN111311488A CN111311488A (zh) 2020-06-19
CN111311488B true CN111311488B (zh) 2022-03-29

Family

ID=71158116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010049960.2A Active CN111311488B (zh) 2020-01-15 2020-01-15 一种基于深度学习的高效超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN111311488B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815515B (zh) * 2020-07-01 2024-02-09 成都智学易数字科技有限公司 基于医学教育的对象三维绘制方法
CN112801868B (zh) * 2021-01-04 2022-11-11 青岛信芯微电子科技股份有限公司 图像超分辨率重建的方法、电子设备及存储介质
CN112734646B (zh) * 2021-01-19 2024-02-02 青岛大学 一种基于特征通道划分的图像超分辨率重建方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056562B (zh) * 2016-05-19 2019-05-28 京东方科技集团股份有限公司 一种人脸图像处理方法、装置及电子设备
CN106683067B (zh) * 2017-01-20 2020-06-23 福建帝视信息科技有限公司 一种基于残差子图像的深度学习超分辨率重建方法
CN110232653A (zh) * 2018-12-12 2019-09-13 天津大学青岛海洋技术研究院 快速轻型超分辨率重建密集残差网络
CN109840575B (zh) * 2019-01-16 2021-11-23 广西师范大学 一种基于卷积神经网络的二维码风格转换方法
CN109978762B (zh) * 2019-02-27 2023-06-16 南京信息工程大学 一种基于条件生成对抗网络的超分辨率重建方法
CN110276721A (zh) * 2019-04-28 2019-09-24 天津大学 基于级联残差卷积神经网络的图像超分辨率重建方法
CN110310227B (zh) * 2019-06-27 2020-09-08 电子科技大学 一种基于高低频信息分解的图像超分辨率重建方法
CN110570353B (zh) * 2019-08-27 2023-05-12 天津大学 密集连接生成对抗网络单幅图像超分辨率重建方法
CN110516615B (zh) * 2019-08-29 2022-04-08 广西师范大学 基于卷积神经网络的人车分流控制方法

Also Published As

Publication number Publication date
CN111311488A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN111311488B (zh) 一种基于深度学习的高效超分辨率重建方法
CN111445390B (zh) 基于宽残差注意力的三维医学图像超分辨率重建方法
CN108537733B (zh) 基于多路径深度卷积神经网络的超分辨率重建方法
CN111932461B (zh) 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统
CN110930342B (zh) 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN111275618A (zh) 一种基于双支感知的深度图超分辨率重建网络构建方法
CN111626927B (zh) 采用视差约束的双目图像超分辨率方法、系统及装置
CN107341776A (zh) 基于稀疏编码与组合映射的单帧超分辨率重建方法
CN108765290A (zh) 一种基于改进的稠密卷积神经网络的超分辨率重建方法
CN112884650B (zh) 一种基于自适应纹理蒸馏的图像混合超分辨率方法
CN113902658B (zh) 基于密集多尺度网络的rgb图像到高光谱图像重建方法
CN112767243B (zh) 一种高光谱图像超分辨率的实现方法及系统
CN111369466A (zh) 一种基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN111951203A (zh) 视点合成方法、装置、设备及计算机可读存储介质
CN113902620A (zh) 一种基于可变形卷积网络的视频超分辨率系统及方法
CN111986092A (zh) 一种基于双重网络的图像超分辨率重建方法及系统
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
CN112184553A (zh) 一种基于深度先验信息的高光谱图像超分辨率方法
Shen et al. Deeper super-resolution generative adversarial network with gradient penalty for sonar image enhancement
CN115100039A (zh) 一种基于深度学习的轻量级图像超分辨率重建方法
CN112734645B (zh) 一种基于特征蒸馏复用的轻量化图像超分辨率重建方法
Sahito et al. Transpose convolution based model for super-resolution image reconstruction
CN117575915A (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN116071239B (zh) 一种基于混合注意力模型的ct图像超分辨方法和装置
CN116485654A (zh) 卷积神经网络与Transformer相结合的轻量级单图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230920

Address after: 230000 B-1015, wo Yuan Garden, 81 Ganquan Road, Shushan District, Hefei, Anhui.

Patentee after: HEFEI MINGLONG ELECTRONIC TECHNOLOGY Co.,Ltd.

Address before: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee before: Dragon totem Technology (Hefei) Co.,Ltd.

Effective date of registration: 20230920

Address after: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Dragon totem Technology (Hefei) Co.,Ltd.

Address before: 541004 No. 15 Yucai Road, Qixing District, Guilin, the Guangxi Zhuang Autonomous Region

Patentee before: Guangxi Normal University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231206

Address after: 117000 No. 130, Guangyu Road, Pingshan District, Benxi City, Liaoning Province

Patentee after: BENXI STEEL (GROUP) INFORMATION AUTOMATION CO.,LTD.

Address before: 230000 B-1015, wo Yuan Garden, 81 Ganquan Road, Shushan District, Hefei, Anhui.

Patentee before: HEFEI MINGLONG ELECTRONIC TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right