CN110599403B - 一种具有良好高频视觉效果的图像超分辨率重建方法 - Google Patents

一种具有良好高频视觉效果的图像超分辨率重建方法 Download PDF

Info

Publication number
CN110599403B
CN110599403B CN201910846862.9A CN201910846862A CN110599403B CN 110599403 B CN110599403 B CN 110599403B CN 201910846862 A CN201910846862 A CN 201910846862A CN 110599403 B CN110599403 B CN 110599403B
Authority
CN
China
Prior art keywords
image
layer
super
resolution
resolution reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910846862.9A
Other languages
English (en)
Other versions
CN110599403A (zh
Inventor
何蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201910846862.9A priority Critical patent/CN110599403B/zh
Publication of CN110599403A publication Critical patent/CN110599403A/zh
Application granted granted Critical
Publication of CN110599403B publication Critical patent/CN110599403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种具有良好高频视觉效果的图像超分辨率重建方法,与现有技术相比解决了重建图像高频视觉效果差的缺陷。本发明包括以下步骤:构造并训练图像超分辨率重建网络模型;待处理图像的获取;超分辨率重建结构的获得。本发明提高了图像的质量和视觉效果,解决了现有技术重建图像时得到的图像在高频细节、纹理和在视觉上不够好或者边缘模糊的缺陷。

Description

一种具有良好高频视觉效果的图像超分辨率重建方法
技术领域
本发明涉及图像处理技术领域,具体来说是一种具有良好高频视觉效果的图像超分辨率重建方法。
背景技术
近年来,随着图像处理技术飞跃式的发展,人们对高质量、高分辨率图像的需求也随之越来越大,图像超分辨率重建技术已然成为图像处理领域中研究的热点方向。目前,商业软件中所提供的重建方法采用的是经典的线性插值方法,如PHOTOSHOP、Firework、Soft等。这些软件所使用的方法简单并且快速,但是由于采用的线性插值技术,所以在重建图像的边缘会出现马赛克、锯齿状等各种失真的现象。
在图像超分辨率重建方面,已有较多不同的策略,但是这些方法仍存在很多待处理问题和缺陷,比如执行时间长、执行条件有限和纹理特征不够突出等各种问题,故不能用于实际的应用中。也有部分技术提出,利用深度学习技术进行图像的超分辨率重建,也取得了一定的效果。但是,这些技术多侧重传统的深度学习技术在超分辨率重建中的直接套用,以此克服插值方法的缺陷,未从图像处理角度考虑如何提高重建效果,以至于重建后的图像在高频部分仍存在细节纹理的偏差,特别是放大倍数更高时,保真度较差。
因此,如何提高超分辨率重建图像的高频视觉效果已经成为急需解决的技术问题。
发明内容
本发明的目的是为了解决现有技术中重建图像高频视觉效果差的缺陷,提供一种具有良好高频视觉效果的图像超分辨率重建方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种具有良好高频视觉效果的图像超分辨率重建方法,包括以下步骤:
构造并训练图像超分辨率重建网络模型:构建图像超分辨率重建网络模型,利用标准训练集中的图像对图像超分辨率重建网络模型进行训练;
待处理图像的获取:获取待处理的图像I;
超分辨率重建结构的获得:将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再送入第二层、第三层、第四层进行重建,得到最终的超分辨率图像O。
所述的构造并训练图像超分辨率重建网络模型包括以下步骤:
设定图像超分辨率重建网络模型为四层结构,第一层为预处理放大层、第二层为特征提取层、第三层为非线性映射层、第四层为融合配对层,其中第二层、第三层、第四层均为卷积层;
对标准图像库{R1,R2,…R91}中的图像进行随机裁剪,得到24800幅大小为 32×32的图像集{R′1,R′2,…R′24800};
将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练。
所述超分辨率重建结构的获得包括以下步骤:
获取训练好的卷积神经网络模型中的映射{F1,F2,F3}和对应的偏差{B1,B2,B3};
将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再经过第二层特征提取、第三层非线性映射和第四层融合配对的执行及相对应每步的映射{F1,F2,F3}和对应的卷积基{B1,B2,B3}来得到一个超分辨率的图像O。
所述的将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练包括以下步骤:
对图像集{R′1,R′2,…R′24800}进行降采样,缩小k倍后得到图像集 {R″1,R″2,…R″24800};
对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍,得到预处理放大的图像集
Figure RE-GDA0002251566350000021
对预处理放大后的低分辨率图像集
Figure RE-GDA0002251566350000022
提取图像块,每个图像块表示为一个高维的向量,对于输入的预处理后的图像集
Figure RE-GDA0002251566350000031
中某一个图像
Figure RE-GDA0002251566350000032
表示为Y;计算映射F1=max(0,W1*Y+B1),这里W1、B1分别表示滤波器、偏差,Y表示输入的低分辨率图像,W1的大小为9×9,滤波器个数为64,滤波器空域尺寸为9×9,B1是一个64维的向量;
将抽取出的64维向量映射到32维,即计算F2=max(0,W2*F1+B2),这里 W2为滤波器,B2为偏差,其中W2的大小为1×1,滤波器个数为32,B2是一个32维的向量;
将得到的32维向量卷积处理得到第四层的映射结果,
即计算F3=W3*F2+B3,这里W3为滤波器,B3是一个偏差,其中W3的大小为5×5,滤波器个数为1,B3是一个1维向量;
获取最优值,将重建后的图像
Figure RE-GDA0002251566350000033
和原始高分辨率图像集 {R′1,R′2,…R′24800}进行评估,当重建后的图像最接近原始图像时,对应的滤波和偏差为最优,即采用最小化损失函数和Nadam方法来得到最优的滤波 {W1,W2,W3}和卷积基{B1,B2,B3}。
所述的最小化损失函数包括以下步骤:
Figure RE-GDA0002251566350000034
其中
Figure RE-GDA0002251566350000035
是重建后的图像集
Figure RE-GDA0002251566350000036
中的任意一个,R′i是原始高分辨率图像集{R′1,R′2,…R′24800},Θ={W1,W2,W3,B1,B2,B3}。
所述的Nadam方法计算过程如下:
Figure RE-GDA00022515663500000310
Figure RE-GDA0002251566350000037
mt=μmt-1+(1-μ)gt
Figure RE-GDA0002251566350000038
Figure RE-GDA0002251566350000039
Figure RE-GDA0002251566350000041
Figure RE-GDA0002251566350000042
Figure RE-GDA0002251566350000043
其中,
Figure RE-GDA0002251566350000044
为全微分,f(Θt-1)为F函数关于卷积网络参数Θ={W1,W2,W3,B1,B2,B3}的一部分,
t=1,2,3μ1=0.0001,μ2=0.001,μ3=0.01,v为{v1,v2,v3}的平均值, v1=0.005,v2=0.02,v3=0.23,mt和nt分别是对梯度的一阶矩估计和二阶矩估计,
Figure RE-GDA0002251566350000045
Figure RE-GDA0002251566350000046
是对mt和nt的校正,{B1,B2,B3}初始值为0,{W1,W2,W3}初始值取0均值,偏差为0.001的高斯分布或者初始值为单位矩阵。
使用连分式插值技术对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍,其具体步骤如下:
求出输入图像I(x,y)的尺寸为m×n,其中,x(1≤x≤m)为行,y(1≤y≤n)为列;将I(x,y)扩展为(m+1)×(n+1)的图像I1(x,y),保证放大的图像边界保持良好;
根据图像的块特征,按照从上到下,从左到右的顺序,将图像分块处理,分别构造出3×3的向量控制网格Vm×n,矩阵大小为m×n;
Figure RE-GDA0002251566350000047
表示拓展后图像的第i行第j列像素的灰度值向量;
构造一个二元向量有理函数
Figure RE-GDA0002251566350000048
满足
Figure RE-GDA0002251566350000049
采用分块拼接的方法构造m×n个3×3的二元有理插值曲面;
根据放大倍数,利用映射关系找到放大后图像某点对应到原始图像中的位置,将得到的位置坐标带入二元有理插值函数中,得到放大的图像某点的像素值。
有益效果
本发明的一种具有良好高频视觉效果的图像超分辨率重建方法,与现有技术相比提高了图像的质量和视觉效果,解决了现有技术重建图像时得到的图像在高频细节、纹理和在视觉上不够好或者边缘模糊的缺陷。
本发明利用神经网络模型能得到很好的图像重建效果;利用连分式插值可以保留图像更多的高频细节和纹理,更符合人类眼睛的视觉机制;整个超分辨率重建过程,先利用连分式插值做了放大处理,然后采用神经网络模型进行训练,可以让卷积神经网络学习到更多的纹理细节,从而产生了更优的重建效果。
附图说明
图1为本发明的方法顺序图;
图2a为现有技术中的待处理图像;
图2b为图2a利用传统的SRCNN方法重建后的图像;
图2c为图2a利用本发明所述方法重建后的图像;
图3a为现有技术中的待处理图像;
图3b为图3a利用利用传统的SRCNN方法重建后的图像;
图3c为图3a利用本发明所述方法重建后的图像。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,说明如下:
如图1所示,本发明所述的一种具有良好高频视觉效果的图像超分辨率重建方法,包括以下步骤:
第一步,构造并训练图像超分辨率重建网络模型。构建图像超分辨率重建网络模型,利用标准训练集中的图像对图像超分辨率重建网络模型进行训练。
为了能够实现较好的高频视觉效果,首先在图像训练源头上考虑获得高纹理图像。鉴于连分式插值技术在处理图像方面具有良好的视觉效果,同时能很好的保留图像的纹理细节,因而采用了连分式插值技术来对训练图像进行高采样处理。由于连分式理论作为一种插值技术,跟卷积神经网络模型有很大的差异性,在此将连分式理论融合进卷积神经网络框架中存在一定的技术难度,其并不是简单的处理叠加,要将连分式技术融入到网络模型中,这种模型的结合在图像超分辨率处理中具有很大的创新性。其具体步骤如下:
(1)设定图像超分辨率重建网络模型为四层结构,第一层为预处理放大层、第二层为特征提取层、第三层为非线性映射层、第四层为融合配对层,其中第二层、第三层、第四层均为卷积层。将图像超分辨率重建网络模型设为四层,不仅避免了因为网络层数多、速度慢的问题;还巧妙地实现了将连分式理论与卷积神经网络相融合。
(2)为了保障图像重建算法的实用性和鲁棒性,同时加快算法的运行效率,采用了图像块进行处理,因而对标准图像库{R1,R2,…R91}中的图像进行了随机裁剪,得到24800幅大小为32×32的图像集{R′1,R′2,…R′24800}。
(3)将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练。在训练过程中,首先采用了连分式插值技术进行了放大处理,再对放大处理后的图像集采用三层卷积操作进行重建。为了将连分式插值技术跟神经网络卷积模型结合起来获得最优的滤波器和卷积基,采用了最小化损失函数和Nadam方法相结合来获取最优值。
将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练包括以下步骤:
A1)为了对最终获得的重建图像跟原始图像有个比对和参考,对图像集 {R′1,R′2,…R′24800}进行降采样,缩小k倍(k一般取2或3或4)后得到图像集 {R″1,R″2,…R″24800}。
A2)对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍(k 一般取2或3或4),得到预处理放大的图像集
Figure RE-GDA0002251566350000061
图像放大的技术较多,目前用于深度学习技术中的都采用三次插值技术,通过大量的实验验证,三次插值技术用于图像训练后丢失了图像的大量细节,从而造成最后重建的图像效果较差,而图像的纹理细节对图像的质量和整体的视觉效果影响很大。虽然目前有很多其他的技术方法,但是大部分对图像不具有普适性,或者运行效率低等缺陷,因而在此优选采用连分式插值技术对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍。
为了达到最优的重建效果,需要从众多的连分式插值函数中选择一个适用于神经网络框架的并且能保留图像纹理细节的插值函数,经过了多项实验验证和比对,最终选取了二元Newton-Thiele有理插值函数,该二元有理插值函数符合图像二维处理,也适用于神经网络架构中卷积核的二维操作。其具体步骤如下:
A21)求出输入图像I(x,y)的尺寸为m×n,其中,x(1≤x≤m)为行, y(1≤y≤n)为列;将I(x,y)扩展为(m+1)×(n+1)的图像I1(x,y),保证放大的图像边界保持良好;
A22)根据图像的块特征,按照从上到下,从左到右的顺序,将图像分块处理,分别构造出3×3的向量控制网格Vm×n,矩阵大小为m×n;
Figure RE-GDA0002251566350000071
表示拓展后图像的第i行第j列像素的灰度值向量;
A23)构造一个二元向量有理函数
Figure RE-GDA0002251566350000072
满足
Figure RE-GDA0002251566350000073
采用分块拼接的方法构造m×n个3×3的二元有理插值曲面;
A24)根据放大倍数,利用映射关系找到放大后图像某点对应到原始图像中的位置,将得到的位置坐标带入二元有理插值函数中,得到放大的图像某点的像素值。
A3)对预处理放大后的低分辨率图像集
Figure RE-GDA0002251566350000074
提取图像块,每个图像块表示为一个高维的向量。每个图像块表示为一个高维的向量,每一个向量包含了一系列特征地图,这些特征地图由滤波器W1作用在图像块上而得到。
对于输入的预处理后的图像集
Figure RE-GDA0002251566350000075
中某一个图像
Figure RE-GDA0002251566350000076
表示为Y;计算映射F1=max(0,W1*Y+B1),这里W1、B1分别表示滤波器、偏差,Y表示输入的低分辨率图像,W1的大小为9×9,滤波器个数为64,滤波器空域尺寸为 9×9,B1是一个64维的向量。
A4)进行非线性映射,将一个高维向量映射到另一个高维向量中,这些向量组成了另一个特征图的集合,由第一层的结果结合滤波器W2而得到。
将抽取出的64维向量映射到32维,即计算F2=max(0,W2*F1+B2),这里 W2为滤波器,B2为偏差,其中W2的大小为1×1,滤波器个数为32,B2是一个32维的向量。
A5)进行融合配对(称为第三层卷积层),将高维向量对应的图像块融合在一起,做一个基准配对。将得到的32维向量卷积处理得到第四层的映射结果,即计算F3=W3*F2+B3,这里W3为滤波器,B3是一个偏差,其中W3的大小为5×5,滤波器个数为1,B3是一个1维向量。
A6)获取最优值,将重建后的图像
Figure RE-GDA0002251566350000081
和原始高分辨率图像集 {R′1,R′2,…R′24800}进行评估,当重建后的图像最接近原始图像时,对应的滤波和偏差为最优,即采用最小化损失函数和Nadam方法来得到最优的滤波 {W1,W2,W3}和卷积基{B1,B2,B3}。
机器学习、神经网络领域的关键技术创新在于模型构造和训练过程,主要在于训练过程的创新。好的训练过程方法能够训练出鲁棒性强、性能优势的模型,其也基于模型的属性而言的特殊技术设计。在此,为了将连分式插值技术跟神经网络卷积模型有效结合起来,其并不是简单联想出连分式插值技术输出结果后直接输入神经网络卷积模型的技术思路,而是需要通过最小化损失函数和Nadam方法的结合获得最优的滤波器和卷积基。
最小化损失函数包括以下步骤:
Figure RE-GDA0002251566350000082
其中
Figure RE-GDA0002251566350000083
是重建后的图像集
Figure RE-GDA0002251566350000084
中的任意一个,R′i是原始高分辨率图像集{R′1,R′2,…R′24800},Θ={W1,W2,W3,B1,B2,B3}。
Nadam方法计算过程如下:
Figure RE-GDA0002251566350000085
Figure RE-GDA0002251566350000086
mt=μmt-1+(1-μ)gt
Figure RE-GDA0002251566350000087
Figure RE-GDA0002251566350000088
Figure RE-GDA0002251566350000091
Figure RE-GDA0002251566350000092
Figure RE-GDA0002251566350000093
其中,
Figure RE-GDA0002251566350000094
为全微分,f(Θt-1)为F函数关于卷积网络参数Θ={W1,W2,W3,B1,B2,B3}的一部分,
t=1,2,3μ1=0.0001,μ2=0.001,μ3=0.01,v为{v1,v2,v3}的平均值, v1=0.005,v2=0.02,v3=0.23,mt和nt分别是对梯度的一阶矩估计和二阶矩估计,
Figure RE-GDA0002251566350000095
Figure RE-GDA0002251566350000096
是对mt和nt的校正,{B1,B2,B3}初始值为0,{W1,W2,W3}初始值取0均值,偏差为0.001的高斯分布或者初始值为单位矩阵。
第二步,待处理图像的获取:获取待处理的图像I。
第三步,超分辨率重建结构的获得:将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再送入第二层、第三层、第四层进行重建,得到最终的超分辨率图像O。其具体步骤如下:
(1)获取训练好的卷积神经网络模型中的映射{F1,F2,F3}和对应的偏差 {B1,B2,B3};
(2)将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再经过第二层特征提取、第三层非线性映射和第四层融合配对的执行及相对应每步的映射{F1,F2,F3}和对应的卷积基 {B1,B2,B3}来得到一个超分辨率的图像O。
如图2a、3a所示,分别为输入的低分辨率图像,图2b、3b分别为采用 SRCNN方法放大3倍和2倍后的图像(即经典的深层卷积网络的图像超分辨率方法,具体详见文献[1]([1]Chao Dong,Chen Change Loy,Kaiming He,and Xiaoou Tang,Learning a DeepConvolutional Network for Image Super-resolution,ECCV 2014,1-16,2014.)图2c、3c分别为采用本发明的方法放大3倍和2倍后的图像。
从图2b、3b可以看到使用SRCNN方法放大后的图像基本能保持图像的视觉效果,但是图像的纹理保持的不够好,而从图2c、3c可以看到本发明的方法能更好的处理细节和边界部分,保持更好的视觉效果。比如图2c中帽子的纹理细节相比于图2b要清晰,图3c中小女孩头发卷曲的纹理和边界以及脸上的斑点都比图3b中呈现的细节更明显,这就是因为本发明采用了连分式和神经网络相融合之后,使得图像的纹理保持的更好,边界更清晰的结果。
从客观角度出发进行比较可以发现,
根据公式
Figure RE-GDA0002251566350000101
这里m×n为矩阵的大小,max=255,f(i,j)为原始图像,
Figure RE-GDA0002251566350000102
为放大后的图像,利用此公式计算出峰值信噪比PSNR的值。峰值信噪比越大,表明重建后的图像和原始图像越接近,即重建的图像视觉效果越好,分辨率越高。
表1图2a、图3a使用SRCNN方法和本发明方法的峰值信噪比的对比表
Figure RE-GDA0002251566350000103
表1为图2a、图3a使用SRCNN方法和本发明方法的峰值信噪比的对比表,如表1所示,从放大后的图像的峰值信噪比的比较可以发现,本发明的方法相比现有技术的方法在处理不同尺度放大物体时都能保证峰值信噪比要高的多,图像的分辨率和质量更高。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。

Claims (5)

1.一种具有良好高频视觉效果的图像超分辨率重建方法,其特征在于,包括以下步骤:
11)构造并训练图像超分辨率重建网络模型:构建图像超分辨率重建网络模型,利用标准训练集中的图像对图像超分辨率重建网络模型进行训练;
所述的构造并训练图像超分辨率重建网络模型包括以下步骤:
121)设定图像超分辨率重建网络模型为四层结构,第一层为预处理放大层、第二层为特征提取层、第三层为非线性映射层、第四层为融合配对层,其中第二层、第三层、第四层均为卷积层;
122)对标准图像库{R1,R2,…R91}中的图像进行随机裁剪,得到24800幅大小为32×32的图像集{R′1,R′2,…R′24800};
123)将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练;
12)待处理图像的获取:获取待处理的图像I;
13)超分辨率重建结构的获得:将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再送入第二层、第三层、第四层进行重建,得到最终的超分辨率图像O;所述超分辨率重建结构的获得包括以下步骤:
131)获取训练好的卷积神经网络模型中的映射{F1,F2,F3}和对应的偏差{B1,B2,B3};
132)将待处理的图像I输入训练后的图像超分辨率重建网络模型,经过第一层放大k倍后得到中间图像I′,再经过第二层特征提取、第三层非线性映射和第四层融合配对的执行及相对应每步的映射{F1,F2,F3}和对应的卷积基{B1,B2,B3}来得到一个超分辨率的图像O。
2.根据权利要求1所述的一种具有良好高频视觉效果的图像超分辨率重建方法,其特征在于,所述的将32×32的图像集{R′1,R′2,…R′24800}输入图像超分辨率重建网络模型进行训练包括以下步骤:
21)对图像集{R′1,R′2,…R′24800}进行降采样,缩小k倍后得到图像集{R″1,R″2,…R″24800};
22)对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍,得到预处理放大的图像集
Figure FDA0003846423860000021
23)对预处理放大后的低分辨率图像集
Figure FDA0003846423860000022
提取图像块,每个图像块表示为一个高维的向量,对于输入的预处理后的图像集
Figure FDA0003846423860000023
中某一个图像
Figure FDA0003846423860000024
表示为Y;计算映射F1=max(0,W1*Y+B1),这里W1、B1分别表示滤波器、偏差,Y表示输入的低分辨率图像,W1的大小为9×9,滤波器个数为64,滤波器空域尺寸为9×9,B1是一个64维的向量;
24)将抽取出的64维向量映射到32维,即计算F2=max(0,W2*F1+B2),这里W2为滤波器,B2为偏差,其中W2的大小为1×1,滤波器个数为32,B2是一个32维的向量;
25)将得到的32维向量卷积处理得到第四层的映射结果,
即计算F3=W3*F2+B3,这里W3为滤波器,B3是一个偏差,其中W3的大小为5×5,滤波器个数为1,B3是一个1维向量;
26)获取最优值,将重建后的图像
Figure FDA0003846423860000025
和原始高分辨率图像集{R′1,R′2,…R′24800}进行评估,当重建后的图像最接近原始图像时,对应的滤波和偏差为最优,即采用最小化损失函数和Nadam方法来得到最优的滤波{W1,W2,W3}和卷积基{B1,B2,B3}。
3.根据权利要求2所述的一种具有良好高频视觉效果的图像超分辨率重建方法,其特征在于,所述的最小化损失函数包括以下步骤:
Figure FDA0003846423860000026
其中
Figure FDA0003846423860000027
是重建后的图像集
Figure FDA0003846423860000031
中的任意一个,R′i是原始高分辨率图像集{R′1,R′2,…R′24800},Θ={W1,W2,W3,B1,B2,B3}。
4.根据权利要求2所述的一种具有良好高频视觉效果的图像超分辨率重建方法,其特征在于,所述的Nadam方法计算过程如下:
Figure FDA0003846423860000032
Figure FDA0003846423860000033
mt=μmt-1+(1-μ)gt
Figure FDA0003846423860000034
Figure FDA0003846423860000035
Figure FDA0003846423860000036
Figure FDA0003846423860000037
Figure FDA0003846423860000038
其中,
Figure FDA0003846423860000039
为全微分,f(Θt-1)为F函数关于卷积网络参数Θ={W1,W2,W3,B1,B2,B3}的一部分,
t=1,2,3μ1=0.0001,μ2=0.001,μ3=0.01,v为{v1,v2,v3}的平均值,v1=0.005,v2=0.02,v3=0.23,mt和nt分别是对梯度的一阶矩估计和二阶矩估计,
Figure FDA00038464238600000310
Figure FDA00038464238600000311
是对mt和nt的校正,{B1,B2,B3}初始值为0,{W1,W2,W3}初始值取0均值,偏差为0.001的高斯分布或者初始值为单位矩阵。
5.根据权利要求2所述的一种具有良好高频视觉效果的图像超分辨率重建方法,其特征在于:使用连分式插值技术对降采样的图像系列{R″1,R″2,…R″24800}中的每一个图像依次放大k倍,其具体步骤如下:
51)求出输入图像I(x,y)的尺寸为m×n,其中,x(1≤x≤m)为行,y(1≤y≤n)为列;将I(x,y)扩展为(m+1)×(n+1)的图像I1(x,y),保证放大的图像边界保持良好;
52)根据图像的块特征,按照从上到下,从左到右的顺序,将图像分块处理,分别构造出3×3的向量控制网格Vm×n,矩阵大小为m×n;
Figure FDA0003846423860000041
表示拓展后图像的第i行第j列像素的灰度值向量;
53)构造一个二元向量有理函数
Figure FDA0003846423860000042
满足
Figure FDA0003846423860000043
采用分块拼接的方法构造m×n个3×3的二元有理插值曲面;
54)根据放大倍数,利用映射关系找到放大后图像某点对应到原始图像中的位置,将得到的位置坐标带入二元有理插值函数中,得到放大的图像某点的像素值。
CN201910846862.9A 2019-09-09 2019-09-09 一种具有良好高频视觉效果的图像超分辨率重建方法 Active CN110599403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910846862.9A CN110599403B (zh) 2019-09-09 2019-09-09 一种具有良好高频视觉效果的图像超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910846862.9A CN110599403B (zh) 2019-09-09 2019-09-09 一种具有良好高频视觉效果的图像超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN110599403A CN110599403A (zh) 2019-12-20
CN110599403B true CN110599403B (zh) 2022-10-25

Family

ID=68858088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910846862.9A Active CN110599403B (zh) 2019-09-09 2019-09-09 一种具有良好高频视觉效果的图像超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN110599403B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132749A (zh) * 2020-09-24 2020-12-25 合肥学院 应用参数化Thiele连分式插值的图像处理方法及装置
CN112884654B (zh) * 2021-03-03 2024-02-20 鄂尔多斯应用技术学院 一种基于cnn的wdsr图像超分辨率重建优化方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015180053A1 (zh) * 2014-05-28 2015-12-03 北京大学深圳研究生院 一种快速超分辨率图像重建方法和装置
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015180053A1 (zh) * 2014-05-28 2015-12-03 北京大学深圳研究生院 一种快速超分辨率图像重建方法和装置
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于中间层监督卷积神经网络的图像超分辨率重建;李现国等;《中国图象图形学报》;20180716(第07期);全文 *

Also Published As

Publication number Publication date
CN110599403A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110570353B (zh) 密集连接生成对抗网络单幅图像超分辨率重建方法
Hui et al. Fast and accurate single image super-resolution via information distillation network
CN112750082B (zh) 基于融合注意力机制的人脸超分辨率方法及系统
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN111028150B (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN107392852B (zh) 深度图像的超分辨率重建方法、装置、设备及存储介质
CN108537754B (zh) 基于形变引导图的人脸图像复原系统
CN111626927B (zh) 采用视差约束的双目图像超分辨率方法、系统及装置
CN111340696B (zh) 融合仿生视觉机制的卷积神经网络图像超分辨率重建方法
CN110599403B (zh) 一种具有良好高频视觉效果的图像超分辨率重建方法
CN111652804A (zh) 基于膨胀卷积金字塔与瓶颈网络的超分辨率重建方法
CN111654621B (zh) 一种基于卷积神经网络模型的双焦相机连续数字变焦方法
CN113763441A (zh) 无监督学习的医学图像配准方法及系统
CN114612306A (zh) 一种面向裂缝检测的深度学习超分辨率方法
CN115345866A (zh) 一种遥感影像中建筑物提取方法、电子设备及存储介质
CN116091315A (zh) 一种基于渐进训练和人脸语义分割的人脸超分辨率重建方法
Shen et al. Deeper super-resolution generative adversarial network with gradient penalty for sonar image enhancement
CN117575915A (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN113240584A (zh) 一种基于图片边缘信息的多任务手势图片超分辨率方法
CN115965844B (zh) 基于视觉显著性先验知识的多聚焦图像融合方法
CN111191729B (zh) 一种基于多模态特征融合的三维对象融合特征表示方法
Li et al. RGSR: A two-step lossy JPG image super-resolution based on noise reduction
CN116485654A (zh) 卷积神经网络与Transformer相结合的轻量级单图像超分辨率重建方法
CN116188272A (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant