CN110136060A - 基于浅层密集连接网络的图像超分辨率重建方法 - Google Patents
基于浅层密集连接网络的图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN110136060A CN110136060A CN201910332670.6A CN201910332670A CN110136060A CN 110136060 A CN110136060 A CN 110136060A CN 201910332670 A CN201910332670 A CN 201910332670A CN 110136060 A CN110136060 A CN 110136060A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- layer
- convolutional layer
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
Abstract
本发明公开了一种基于浅层密集连接网络的单帧图像超分辨率重建方法,主要解决现有数字成像系统获得的图像分辨率低的问题;其实施过程为:首先通过跨层级联的方式构建密集连接块,而后堆叠两次密集连接块,构造密集连接网络;然后通过双三次下采样的方式取图像Y通道,构建训练数据集和测试数据集,并通过训练数据训练浅层连接网络;使用平均绝对误差作为网络的损失函数,判定网络训练是否达到要求;最后使用测试集,通过已训练好的网络进行图像超分辨率重建;本发明通过浅层密集连接网络,能更加有效地利用特征图,最终重构的超分辨率图像保留了更丰富的细节和更清晰地边缘轮廓,可用于天气状况预测、公安部门刑侦破案、电视显示器清晰度提升。
Description
技术领域
本发明属于图像处理技术领域,更进一步是一种图像超分辨率重建方法,可用于天气状况预测、公安部门刑侦破案、电视显示器清晰度提升。
背景技术
受成像系统的自身条件及外界环境因素的限制和影响,现有数字成像系统获得的图像分辨率低,难以满足人们的需要。而单帧图像超分辨率重建技术,可以从一幅低分辨率图像中重建出高分辨率图像,从而有效克服这一限制。
目前,关于图像超分辨率重建方面的论文和专利非常多,从采取的技术路线来看,这些方法在图像预处理,特征选择与提取等方面各不相同。有的是基于插值的单帧图像超分辨率重建方法,有的通过找寻并确定图像降质模型,推导图像降质的逆过程来将图像还原成原始的高分辨率图像。还有一些基于稀疏表示,利用字典学习来实现单帧图像的超分辨率重建。这些传统方法范畴,由于主要依赖于人工设计算法进行特征提取和选择,导致图像超分辨率重建的效果不好。
近年来,深度学习在各个领域的发展如火如荼,这种技术已经在目标检测、人脸识别、图像复原等方面取得了较好的效果,在单帧图像超分辨领域也取得了十分优异的成绩。
广州高清视信数码科技股份有限公司在其申请的专利“一种基于组稀疏表示的单帧图像超分辨率重建方法”(专利申请号:201510703242.1,申请公开号:CN105225215A)中提出了一种基于组稀疏表示的单帧图像超分辨率重建方法。该方法首先构建高分辨图像的训练样本库,然后采用正交匹配追踪法求解训练样本的稀疏系数矩阵,进而得到训练样本的组稀疏字典,最后根据训练样本的组稀疏字典组对低分辨率图像进行超分辨率图像重建,得到超分辨率图像。该方法存在的不足之处是,当训练样本数目较多、图像尺寸大时,计算复杂度明显增大,导致计算时间长,实时性差。
厦门大学在其申请的专利“基于深度置信网络的图像超分辨率重建方法”(专利申请号:201510501171.7,申请公开号:CN105069825A)中提出了一种基于深度置信网络的单帧图像超分辨率重建方法。该方法首先用重复分块采样的方法获取低分辨率的图像,并将其插值放大到所需尺寸;然后输入低分辨率图像块,用预先训练好的深度置信网络预测高分辨率的图像块,再将得到的拟合结果进行邻域正则化优化求解;最后将所有的高分辨亮度图像块组合得到高分辨率亮度图像。该方法存在的不足之处是,由于网络输入的图片需要进行双三次插值预处理,导致计算量呈几何倍数提升,实时性较差;而且,利用一个浅层的深度置信网络无法充分提取低分辨图片中边缘、纹理等不同类型的特征,导致图像超分辨率重建的效果不好。
发明内容
本发明的目的是针对上述现有技术存在的不足,提出一种基于浅层密集连接卷积网络的图像超分辨率重建方法,以使重建后的高分辨图片边缘更清晰,纹理细节更加丰富,且超分辨率重建的速度更快。
实现本发明目的的技术方案如下:
(1)搭建一个密集连接块,其内部结构为4个卷积层,且将第一个卷积层的输入与第一个卷积层的输出并联,作为第二个卷积层的输入;将第二个卷积层的输出作为第三个卷积层的输入;将第三个卷积层的输入与第三个卷积层的输出并联,作为第四个卷积层的输入;最终将第一个卷积层的输入与第四个卷积层的输出相加;
(2)搭建一个包含两个卷积层、一个反卷积层和两个密集连接块的浅层密集连接网络,其结构依次为:输入图像→第1个卷积层→第1个密集连接块→第2个密集连接块→第1个反卷积层→第2个卷积层→输出图像;
(3)对公知数据集中的图像进行预处理,得到训练数据集和测试数据集:
(3a)将公知数据集中的图像从RGB彩色空间转换到YCbCr彩色空间,对图像的亮度通道Y进行单独提取,并分别存储在图像矩阵中,将每个图像矩阵的元素值归一化到[0,1]之间,得到归一化的高分辨图像矩阵,并将该矩阵下采样两倍,得到低分辨图像矩阵;
(3b)对(3a)中得到的低分辨率图像矩阵使用32×32的滑动窗口取得小图像块并在其所对应的高分辨图像矩阵中取64×64的大图像块将取到的大小图像块成对保存,再无重复的取其中的80%作为训练集,剩下的20%作为测试集;
(4)利用训练集训练浅层密集连接网络:
(4a)用上述训练集中低分辨率图像块通过浅层密集连接网络得到生成图像块和网络参数Wi与bi,其中Wi表示网络中的边连接的权值向量,bi表示网络中下一层对上一层的偏置,用Xavier方法初始化该网络的参数Wi和bi;
(4b)设训练更新网络参数的迭代次数阈值t=12000,输入16个低分辨率图像块进入浅层密集连接网络进行训练,计算网络生成图像块与原始高分辨图像块像素值的差异作为损失值e,用随机梯度下降法微调参数Wi和bi,使得网络损失值逐渐减小,直到损失值e<30或者迭代次数t>12000后停止训练,得到训练好的浅层密集连接网络;
(5)图像超分辨率重建:
(5a)将测试集中低分辨率图像块xj作为输入,利用步骤(4)训练好的浅层密集连接网络预测对应的高分辨率图像块yj;
(5b)将蓝色偏量Cb、红色偏量Cr两个通道进行上采样到目标尺寸,然后将上采样后的这两通道数值与高分辨率图像块yj中的亮度通道Y一同合并为YCbCr三通道的结果,并将该结果转换到RGB空间,得到最终的彩色高分辨图像块Yj;
(5c)将最终的彩色高分辨图像块Yj按图像内容组合,得到最终的彩色高分辨率图像Y。
本发明与现有技术相比具有以下优点:
第一、由于本发明采用浅层密集连接网络,通过跨层级联的方式更加有效地利用了特征图并提高网络中所有层之间的信息流,在充分利用了网络所提取到输入图像隐层信息的同时,还能减少网络训练过程中会出现的梯度消失和梯度弥散而导致收敛困难的问题,克服了现有基于深度网络方法中特征图利用不充分,图像超分辨率重建质量不高缺陷,提高了重建高分辨率图像的清晰度,保留有更丰富的图像细节和更清晰地边缘轮廓。
第二、由于本发明采用的网络层数较浅,且网络后半段利用了反卷积层,使得超分辨率重建过程中的计算量呈几何倍下降,克服了现有技术中利用图像空间特性设计算法,导致速度慢,实时性差的问题。
附图说明
图1是本发明的实现流程图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,本发明实现的具体步骤如下:
步骤1,构造浅层密集连接网络。
(1a)搭建一个密集连接块:
该密集连接块的内部结构为4个卷积层,且将第一个卷积层的输入与第一个卷积层的输出并联,作为第二个卷积层的输入;将第二个卷积层的输出作为第三个卷积层的输入;将第三个卷积层的输入与第三个卷积层的输出并联,作为第四个卷积层的输入;最终将第一个卷积层的输入与第四个卷积层的输出相加;
(1b)搭建一个包含两个卷积层、一个反卷积层和两个密集连接块的浅层密集连接网络,其结构依次为:输入图像→第1个卷积层→第1个密集连接块→第2个密集连接块→第1个反卷积层→第2个卷积层→输出图像;
(1c)设置网络参数:
设第1个卷积层特征映射图总数为64,卷积核大小为3×3,卷积运算的步长为1;
设第1个密集连接块中第一个卷积层和第三个卷积层的特征映射图总数为64,卷积核大小为3×3,卷积运算的步长为1;第二个卷积层和第四个卷积层的特征映射图总数为128,卷积核大小为3×3,卷积运算的步长为1;
第2个密集连接块的参数设置与第1个密集连接块相同;
设第1个反卷积层特征映射图数目设置为64,卷积核大小为4×4,卷积运算的步长为2;
设第2个卷积层的特征映射图总数为1,卷积核大小为3×3,卷积运算的步长为1。
步骤2,构建训练集与测试集。
(2a)对公知数据集中的图像进行预处理:
将公知数据集中的图像从RGB彩色空间转换到YCbCr彩色空间,对图像的亮度通道Y进行单独提取,并分别存储在图像矩阵中。将每个图像矩阵的元素值归一化到[0,1]之间,得到归一化的高分辨率图像矩阵;
(2b)由高分辨图像矩阵得到对应低分辨图像矩阵:
对高分辨率图像矩阵4×4邻域内的16个点(am,bn)进行双立方插值下采样,得到对应位置低分辨率图像下采样点(a,b)的像素值,其公式如下:
其中,f(a,b)代表点(a,b)的像素值,式中W(x)表示高斯核函数,表示为:
式中,x具体表示为低分辨图像像素点(a,b)位置与高分辨图像像素点(am,bn)位置在水平方向上的偏差a-am和竖直方向上的偏差b-bn,c取值为0.5;
将高分辨率图像中所有像素点遍历一遍,得到最终下采样后的低分辨率图像矩阵;
(2c)获得训练数据集和测试数据集:
对(2b)中得到的低分辨率图像矩阵使用32×32的滑动窗口取得小图像块并在其所对应的高分辨图像矩阵中取64×64的大图像块将取到的大小图像块成对保存,再无重复的取其中的80%作为训练集,剩下的20%作为测试集。
步骤3,利用训练数据集训练密集连接网络。
(3a)将低分辨率训练图像块输入浅层密集连接网络,得到生成图像块和两类网络参数Wi与bi,其中Wi表示网络中的边连接的权值向量,bi表示网络中下一次对上一层的偏置,并用Xavier方法初始化该网络的参数Wi和bi;
(3b)用随机梯度下降法和误差的反向传播法微调参数Wi和bi,具体操作如下所示:
(3b1)输入一批有标签的训练数据;
(3b2)计算网络的输出与所输入的训练数据的标签之间的差距,将该差距作为网络损失值e,计算如下:
其中,N表示单次参与训练的所有低分辨与对应高分辨图像块的个数,I表示网络生成的高分辨图像,表示作为参照的原始高分辨图像,下标o代表第o个图像块,||·||1表示1-范数,即两数值之差的绝对值;
(3b3)依照下式,调整网络中的每个参数:
θ′k=θk-α×Gk
其中,θ′k表示网络调整参数后的第k个参数,θk表示网络调整参数前的第k个参数,α表示调整参数时的学习率,α∈[0,1],Gk表示网络损失值对网络调整参数前的第k个参数的偏导数;
(3b4)将(3b1)输入的训练数据输入到调整参数后的网络中,计算调整参数后网络的输出与所输入的训练数据的标签之间的差距,将该差距作为调整参数后网络的损失值;
(3b5)判断调整参数后网络的损失值e是否小于阈值p,若是,则得到训练好的网络,否则,返回(3b1);
所述阈值,为一个根据对网络的训练精度的不同要求而从[0,+∞]范围选取的数值,选取的数值越大,网络的训练精度越低,选取的数值越小,网络的训练精度越高,直到损失值e<30或者迭代次数t>12000。最终得到最终训练好的密集连接网络,本实例取阈值p=30。
步骤4,重建超分辨率图像。
(4a)将测试集中待测试图像的低分辨率图像块xj作为输入,利用步骤3训练好的密集连接网络来预测,得到对应的高分辨率图像块yj;
(4b)将蓝色偏量Cb、红色偏量Cr两个通道进行上采样到目标尺寸,然后将上采样后的这两通道数值与高分辨率图像块yj中的亮度通道Y一同合并为YCbCr三通道的结果,并将该结果转换到RGB空间,得到最终的彩色高分辨图像块Yj;
(4c)将最终的彩色高分辨图像块Yj按图像内容组合,得到最终的彩色高分辨率图像Y。
下面结合仿真实验对本发明的效果做进一步的描述。
1、仿真实验条件:
仿真实验采用单帧图像超分辨率重建公知数据库,其中包含风景、花鸟、人物等自然图像,选取图像大小为64×64像素,具体数据分布如表1。硬件平台为:Intel Core i5-8400CPU@2.80GHZ、8GB RAM、GTX 1080Ti GPU,软件平台:MATLAB,PyTorch。
表1.单帧图像超分辨率重建实验数据分布
2、实验内容与结果:
用本发明方法与现有三种方法,即基于双三次插值的超分辨率重建方法(Bicubic)、基于稀疏编码的超分辨率重建方法(SC)、基于深度学习CNN模型的超分辨率重建方法,分别对测试集进行图像超分辨率重建,计算各种方法的峰值信噪比PSNR和结构相似度SSIM,并对比了生成一张图像的时间,实验结果如表2所示。
表2.测试集图像超分辨率结果
从表2中可见,本发明由于融合了不同层之间的特征,显著提高了模型的表征能力,使得模型相较于其他几种方法,能够在客观评价指标PSNR和SSIM取得较高的数值,且模型重构图像的速度要比传统的稀疏编码方法快很多。
Claims (6)
1.一种基于浅层密集连接网络的单帧图像超分辨率重建方法,其特征在于:
(1)搭建一个密集连接块,其内部结构为4个卷积层,且将第一个卷积层的输入与第一个卷积层的输出并联,作为第二个卷积层的输入;将第二个卷积层的输出作为第三个卷积层的输入;将第三个卷积层的输入与第三个卷积层的输出并联,作为第四个卷积层的输入;最终将第一个卷积层的输入与第四个卷积层的输出相加;
(2)搭建一个包含两个卷积层、一个反卷积层和两个密集连接块的浅层密集连接网络,其结构依次为:输入图像→第1个卷积层→第1个密集连接块→第2个密集连接块→第1个反卷积层→第2个卷积层→输出图像;
(3)对公知数据集中的图像进行预处理,得到训练数据集和测试数据集:
(3a)将公知数据集中的图像从RGB彩色空间转换到YCbCr彩色空间,对图像的亮度通道Y进行单独提取,并分别存储在图像矩阵中,将每个图像矩阵的元素值归一化到[0,1]之间,得到归一化的高分辨图像矩阵,并将该矩阵下采样两倍,得到低分辨图像矩阵;
(3b)对(3a)中得到的低分辨率图像矩阵使用32×32的滑动窗口取得小图像块并在其所对应的高分辨图像矩阵中取64×64的大图像块将取到的大小图像块成对保存,再无重复的取其中的80%作为训练集,剩下的20%作为测试集;
(4)利用训练集训练浅层密集连接网络:
(4a)用上述训练集中低分辨率图像块通过浅层密集连接网络得到生成图像块和网络参数Wi与bi,其中Wi表示网络中的边连接的权值向量,bi表示网络中下一层对上一层的偏置,用Xavier方法初始化该网络的参数Wi和bi;
(4b)设训练更新网络参数的迭代次数阈值t=12000,输入16个低分辨率图像块进入浅层密集连接网络进行训练,计算网络生成图像块与原始高分辨图像块像素值的差异作为损失值e,用随机梯度下降法微调参数Wi和bi,使得网络损失值逐渐减小,直到损失值e<30或者迭代次数t>12000后停止训练,得到训练好的浅层密集连接网络;
(5)图像超分辨率重建:
(5a)将测试集中低分辨率图像块xj作为输入,利用步骤(4)训练好的浅层密集连接网络预测对应的高分辨率图像块yj;
(5b)将蓝色偏量Cb、红色偏量Cr两个通道进行上采样到目标尺寸,然后将上采样后的这两通道数值与高分辨率图像块yj中的亮度通道Y一同合并为YCbCr三通道的结果,并将该结果转换到RGB空间,得到最终的彩色高分辨图像块Yj;
(5c)将最终的彩色高分辨图像块Yj按图像内容组合,得到最终的彩色高分辨率图像Y。
2.根据权利要求1所述的方法,其特征在于:(1)所设置的密集连接块,其参数设置如下:
第1个卷积层和第3个卷积层的特征映射图总数为64,卷积核大小为3×3,卷积运算的步长为1;
第2个卷积层和第4个卷积层的特征映射图总数为128,卷积核大小为3×3,卷积运算的步长为1。
3.根据权利要求1所述的方法,其特征在于:(2)所搭建的浅层密集连接网络,其参数设置如下:
第1个卷积层的特征映射图总数为64,卷积核大小为3×3,卷积运算的步长为1;
第1个密集连接块与第2个密集连接块的参数设置与上文描述相同;
第1个反卷积层的特征映射图数目为64,卷积核大小为4×4,卷积运算的步长为2;
第2个卷积层的特征映射图总数为1,卷积核大小为3×3,卷积运算的步长为1。
4.根据权利要求1所述的方法,其特征在于:步骤(3a)中对归一化的高分辨图像矩阵进行下采样两倍,对于低分辨图像中下采样点(a,b)的像素值,需要用到高分辨图像矩阵对应位置4×4邻域内的16个点(am,bn)进行下采样插值,其公式如下:
其中,f(a,b)代表点(a,b)的像素值,式中W(x)表示高斯核函数,表示为:
式中,x具体表示为低分辨图像像素点(a,b)位置与高分辨图像像素点(am,bn)位置在水平方向上的偏差a-am和竖直方向上的偏差b-bn,c取值0.5,将高分辨率图像中所有像素点遍历一遍,得到最终下采样后的低分辨率图像。
5.根据权利要求1所述的方法,其特征在于:步骤(4b)中计算损失值e,通过如下公式计算:
其中,N表示单次参与训练的所有低分辨与对应高分辨图像块的个数,表示网络生成的高分辨图像,表示作为参照的原始高分辨图像,下标o代表第o个图像块,||·||1表示1-范数,即两数值之差的绝对值。
6.根据权利要求1所述的方法,其特征在于,步骤(4b)中用随机梯度下降法微调参数Wi和bi,步骤如下:
第一步,输入一个有标签的训练数据;
第二步,计算网络的输出与所输入的训练数据的标签之间的差距,将该差距作为网络损失值;
第三步,依照下式,调整网络中的每个参数:
θ′k=θk-α×Gk
其中,θ′k表示网络调整参数后的第k个参数,θk表示网络调整参数前的第k个参数,α表示调整参数时的学习率,α∈[0,1],Gk表示网络损失值对网络调整参数前的第k个参数的偏导数;
第四步,将所输入的训练数据输入到调整参数后的网络中,计算调整参数后网络的输出与所输入的训练数据的标签之间的差距,将该差距作为调整参数后网络的损失值;
第五步,判断调整参数后网络的损失值e是否小于设定阈值p=30,若是,则得到训练好的网络,否则,返回第一步。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910332670.6A CN110136060B (zh) | 2019-04-24 | 2019-04-24 | 基于浅层密集连接网络的图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910332670.6A CN110136060B (zh) | 2019-04-24 | 2019-04-24 | 基于浅层密集连接网络的图像超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136060A true CN110136060A (zh) | 2019-08-16 |
CN110136060B CN110136060B (zh) | 2023-03-24 |
Family
ID=67571093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910332670.6A Active CN110136060B (zh) | 2019-04-24 | 2019-04-24 | 基于浅层密集连接网络的图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136060B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533591A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于编解码器结构的超分辨图像重建方法 |
CN110910344A (zh) * | 2019-10-12 | 2020-03-24 | 上海交通大学 | 一种全景图片无参考质量评价方法、系统及设备 |
CN111161150A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多尺度注意级联网络的图像超分辨率重建方法 |
CN111275620A (zh) * | 2020-01-17 | 2020-06-12 | 西安工程大学 | 一种基于Stacking集成学习的图像超分辨方法 |
CN111505738A (zh) * | 2020-03-17 | 2020-08-07 | 上海眼控科技股份有限公司 | 数值天气预报中气象因素的预测方法及设备 |
CN113344798A (zh) * | 2020-02-18 | 2021-09-03 | 济南浪潮高新科技投资发展有限公司 | 一种基于Retinex的暗图像增强方法 |
CN116245736A (zh) * | 2023-05-11 | 2023-06-09 | 南京信息工程大学 | 图像块的正交位置编码表示方法及上采样模块实现方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204449A (zh) * | 2016-07-06 | 2016-12-07 | 安徽工业大学 | 一种基于对称深度网络的单幅图像超分辨率重建方法 |
WO2017219263A1 (zh) * | 2016-06-22 | 2017-12-28 | 中国科学院自动化研究所 | 基于双向递归卷积神经网络的图像超分辨率增强方法 |
WO2018120329A1 (zh) * | 2016-12-28 | 2018-07-05 | 深圳市华星光电技术有限公司 | 基于稀疏域重构的单帧图像超分辨重建方法及装置 |
-
2019
- 2019-04-24 CN CN201910332670.6A patent/CN110136060B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017219263A1 (zh) * | 2016-06-22 | 2017-12-28 | 中国科学院自动化研究所 | 基于双向递归卷积神经网络的图像超分辨率增强方法 |
CN106204449A (zh) * | 2016-07-06 | 2016-12-07 | 安徽工业大学 | 一种基于对称深度网络的单幅图像超分辨率重建方法 |
WO2018120329A1 (zh) * | 2016-12-28 | 2018-07-05 | 深圳市华星光电技术有限公司 | 基于稀疏域重构的单帧图像超分辨重建方法及装置 |
Non-Patent Citations (1)
Title |
---|
张欢等: "密集反卷积网络在遥感建筑物提取中的应用", 《计算机工程与应用》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533591A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于编解码器结构的超分辨图像重建方法 |
CN110910344A (zh) * | 2019-10-12 | 2020-03-24 | 上海交通大学 | 一种全景图片无参考质量评价方法、系统及设备 |
CN110910344B (zh) * | 2019-10-12 | 2022-09-13 | 上海交通大学 | 一种全景图片无参考质量评价方法、系统及设备 |
CN111161150A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多尺度注意级联网络的图像超分辨率重建方法 |
CN111161150B (zh) * | 2019-12-30 | 2023-06-23 | 北京工业大学 | 一种基于多尺度注意级联网络的图像超分辨率重建方法 |
CN111275620A (zh) * | 2020-01-17 | 2020-06-12 | 西安工程大学 | 一种基于Stacking集成学习的图像超分辨方法 |
CN111275620B (zh) * | 2020-01-17 | 2023-08-01 | 金华青鸟计算机信息技术有限公司 | 一种基于Stacking集成学习的图像超分辨方法 |
CN113344798A (zh) * | 2020-02-18 | 2021-09-03 | 济南浪潮高新科技投资发展有限公司 | 一种基于Retinex的暗图像增强方法 |
CN111505738A (zh) * | 2020-03-17 | 2020-08-07 | 上海眼控科技股份有限公司 | 数值天气预报中气象因素的预测方法及设备 |
CN116245736A (zh) * | 2023-05-11 | 2023-06-09 | 南京信息工程大学 | 图像块的正交位置编码表示方法及上采样模块实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110136060B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136060A (zh) | 基于浅层密集连接网络的图像超分辨率重建方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN110197468A (zh) | 一种基于多尺度残差学习网络的单图像超分辨重建算法 | |
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN111861961B (zh) | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 | |
CN110136063A (zh) | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 | |
CN109741256A (zh) | 基于稀疏表示和深度学习的图像超分辨率重建方法 | |
CN109064396A (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
CN110276721A (zh) | 基于级联残差卷积神经网络的图像超分辨率重建方法 | |
CN112184554B (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
CN108830813A (zh) | 一种基于知识蒸馏的图像超分辨率增强方法 | |
CN107492070A (zh) | 一种双通道卷积神经网络的单图像超分辨率计算方法 | |
CN108921786A (zh) | 基于残差卷积神经网络的图像超分辨率重构方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN103871041B (zh) | 基于认知正则化参数构建的图像超分辨率重构方法 | |
CN107220980A (zh) | 一种基于全卷积网络的mri图像脑肿瘤自动分割方法 | |
WO2021022929A1 (zh) | 一种单帧图像超分辨率重建方法 | |
CN107633520A (zh) | 一种基于深度残差网络的超分辨率图像质量评估方法 | |
CN109886870A (zh) | 基于双通道神经网络的遥感图像融合方法 | |
CN108805808A (zh) | 一种利用卷积神经网络提高视频分辨率的方法 | |
CN105550989B (zh) | 基于非局部高斯过程回归的图像超分辨方法 | |
CN105447840B (zh) | 基于主动采样与高斯过程回归的图像超分辨方法 | |
CN108765280A (zh) | 一种高光谱图像空间分辨率增强方法 | |
CN108805814A (zh) | 基于多频段深度卷积神经网络的图像超分辨重建方法 | |
CN106251320A (zh) | 基于联合稀疏与结构字典的遥感图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |