CN108550115A - 一种图像超分辨率重建方法 - Google Patents
一种图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN108550115A CN108550115A CN201810380243.0A CN201810380243A CN108550115A CN 108550115 A CN108550115 A CN 108550115A CN 201810380243 A CN201810380243 A CN 201810380243A CN 108550115 A CN108550115 A CN 108550115A
- Authority
- CN
- China
- Prior art keywords
- training
- layer
- images
- loss function
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012549 training Methods 0.000 claims abstract description 96
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 50
- 238000013507 mapping Methods 0.000 claims abstract description 40
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 40
- 230000003321 amplification Effects 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 238000010276 construction Methods 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims description 29
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 241001269238 Data Species 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 22
- 238000012545 processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 58
- 210000002569 neuron Anatomy 0.000 description 9
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003475 lamination Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种图像超分辨率重建方法,属于图像处理技术领域,解决了现有技术生成图像边缘信息模糊、不能适用多种放大倍数以及重建效果差的问题。所述方法包括如下步骤:构造训练和学习的卷积神经网络,所述卷积神经网络从上到下依次包括LR特征提取层、非线性映射层、HR重建层;用该卷积神经网络对输入的成对的LR图像和HR图像进行训练,同时进行至少两个放大尺度的训练,求得卷积神经网络的最优参数集和相应放大尺度下的尺度调节因子;训练完成后,将目标LR图像和目标放大倍数输入所述卷积神经网络,可得到目标HR图像。本发明卷积神经网络训练速度快,训练完成后可以实时得到训练尺度中任意放大倍数的HR图像。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像超分辨率重建方法。
背景技术
图像超分辨率重建是一种从低分辨率(LR)图像直接恢复成高分辨率(HR)图像的方法,在很多实际应用中都需要用到,例如医学图像分析、计算机视觉、遥感等。目前,图像超分辨率重建方法主要分为三类:基于插值、基于重建、基于学习。
基于插值的图像超分辨率重建方法一般比较简单,容易实现,但生成图像很难重现纹理等细节信息,较为模糊。
基于重建的图像超分辨率重建方法以退化模型为基础,利用图像的先验知识进行重建,但需要复杂的图像配准和融合阶段,其准确性直接影响生成图像的质量。并且,生成图像可能过度平滑或缺乏一些重要的细节信息,在对生成图像进行放大时模糊效果更佳明显。
基于学习的图像超分辨率重建方法已经成为一个研究热点。现有主流方法包括稀疏编码(SC)方法、基于卷积神经网络的超分辨率重建 (SRCNN)方法。SC方法,通过训练高低分辨率字典,学习LR与HR 图像之间的映射关系,但需要用到大量的高低分辨率图像块去训练高低分辨率字典,耗时较多。SRCNN方法,直接学习一种LR与HR图像之间端到端的映射关系,在隐藏层中进行字典学习和空间模型建立,在卷积层中进行图像块的提取和放大,从而避免很多前/后期处理,取得了不错的效果,但参数较多、收敛速度太慢,而且网络的使用范围不够广泛,对于不同的放大倍数要进行不同的网络训练。
发明内容
鉴于上述的分析,本发明实施例旨在提供一种图像超分辨率重建方法,用以解决现有技术生成图像边缘信息模糊、不能适用多种放大倍数以及重建效果差的问题。
一方面,本发明实施例提供了一种图像超分辨率重建方法,包括如下步骤:
构造训练和学习的卷积神经网络,所述卷积神经网络从上到下依次包括LR特征提取层、非线性映射层、HR重建层;
用所述卷积神经网络对图像训练库中成对设置的训练LR图像和训练HR图像同时进行至少2个放大尺度的训练和学习,求得所述卷积神经网络的最优参数集和相应放大尺度下的尺度调节因子;所述最优参数集包括非线性映射层的权值;
共享所述非线性映射层的感受野与权值,将目标LR图像和目标放大倍数输入所述训练好的卷积神经网络,在所述HR重建层输出目标HR图像。
上述技术方案的有益效果如下:在LR特征提取层,对输入LR图像进行梯度特征提取,得到LR特征图;在非线性映射层,对LR特征图进行多次非线性映射,得到HR特征图;在HR重建层,将所述梯度特征提取层输出的HR特征图进行图像重建,得到HR重建图像。针对超分辨率重建问题的病态性,在训练阶段可嵌入边缘梯度等先验信息对损失函数的空间解进行约束,可利用边缘增强算子,突出图像中的局部边缘,HR 重建效果提高。采用多任务学习拓宽卷积神经网络,实现了对不同放大倍数下的卷积网络同时进行训练的效果。
基于上述方法的另一个实施例中,所述卷积神经网络还包括还包括损失函数层、逻辑判断模块;
所述损失函数层,用于在训练时将所述HR重建图像与所述图像训练库中对应的训练HR图像进行比较,输出HR重建损失函数;所述逻辑判断模块对所述HR重建损失函数进行收敛判断;
如果收敛,则输出所述HR重建图像;
如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
上述方案的有益效果是:通过收敛判断,将训练HR图像的局部边缘特征信息融入了训练过程,反馈到HR重建图像上。对HR重建损失函数进行收敛判断不仅能够监督训练过程,锐化边缘和纹理区域,而且在很大程度上提高了收敛速度,提高了实时性。
进一步,所述卷积神经网络还包括HR特征提取层和HR梯度先验提取层;
所述HR特征提取层,设置在所述HR重建层、损失函数层中间,用于提取HR重建图像的特征信息;所述HR梯度先验提取层,设置在损失函数层之前、与HR特征提取层并列,用于提取所述训练HR图像的梯度特征信息;
所述损失函数层接受所述HR特征提取层和所述HR梯度先验提取层输出的HR边缘特征图,输出所述HR重建损失函数。
上述进一步方案的有益效果是:增加了HR特征提取层和HR梯度先验提取层分别对HR重建图像和训练HR图像进行边缘特征提取,将训练HR图像的局部梯度特征反馈到HR重建图像上,从而增强HR图像边缘细节的重建效果,加速了损失函数的收敛速度,减少了训练时间。
进一步,用所述卷积神经网络对输入的训练LR图像进行任一放大尺度的训练和学习的步骤包括:
对输入的训练LR图像依次进行特征提取、非线性映射、HR重建,得到HR重建图像;
将所述HR重建图像与训练库中对应的训练HR图像进行比较,得到 HR重建误差;
将所述HR重建图像与训练库中对应的训练HR图像分别进行梯度特征提取,将特征提取的结果进行比较,得到融入先验信息的损失函数;
基于所述重建误差和融入先验信息的损失函数构建最终的HR重建损失函数,设置融入先验信息的损失函数为所述HR重建损失函数的正则项;
对所述HR重建损失函数进行收敛判断,直到收敛为止。
上述进一步方案的有益效果是:HR重建损失函数由HR重建误差和融入先验信息的损失函数(特征一致性测量误差)组成。通过将融入先验信息的损失函数作为正则项监督HR重建损失函数,可以提高收敛速度,增强HR重建图像的边缘重建效果。上述过程将梯度先验融入了训练过程,实际上是对训练数据的一种正则化手段,不仅能够监督训练过程,锐化边缘和纹理区域,而且在很大程度上提高了收敛速度,具有时效性。
进一步,所述HR重建层包括初重建卷积层和亚像素卷积层;
所述初重建卷积层用于改变所述非线性映射层输出的特征图的通道数;所述亚像素卷积层用于将所述初重建卷积层输出的特征图进行重新排列组合。
上述进一步方案的有益效果是:HR重建层将最终的HR特征图排列组合成HR输出图像。有效地替换了SRCNN方法前期预处理过程的Bicubic 插值放大滤波器,将原始LR图像直接作为卷积神经网络的输入,能够有效减少非线性映射和卷积过程的参数量,解决实时性差的问题。
进一步,所述收敛判断的方法为,用随机梯度下降法和反向传播法最小化HR重建损失函数,直到收敛为止。
上述进一步方案的有益效果是:采用随机梯度下降法对LR重建误差进行迭代,如果收敛,则输出LR重建图像,如果没有达到收敛,将信息流反向传播,更新参数,重新进行训练学习,直到收敛结束。所述收敛判断的方法将HR梯度先验作为指导,加速了损失函数收敛速度,增强了HR重建图像的边缘效果。而且,通过多任务学习,共享非线性映射参数,减少了计算量,利用多尺度下的图像局部信息的相关性,能够提高重建质量。
进一步,所述放大尺度为LR图像分辨率的2倍、3倍、4倍;
所述非线性映射层包括三个卷积层,用于将所述LR特征图通过三次卷积映射转换成HR特征图。
上述进一步方案的有益效果是:训练样本越多,理论上效果越好。实际应用中,一般放大尺度为LR图像分辨率的2倍、3倍、4倍。通过非线性映射层,将所述LR特征图通过三次卷积映射转换成HR特征图,即实现了特征增多。
进一步,所述HR梯度先验提取层采用采用Sobel边缘梯度算子获取训练库中HR图像在水平和垂直方向上的梯度信息。
上述进一步方案的有益效果是:将该先验信息作为指导,指导网络参数往损失函数下降最快的方向进行更新,即迭代最少次数地快速获取最优参数集。
进一步,所述HR重建损失函数在融入先验信息的损失函数前设置平衡系数,所述平衡系数表示为
式中,tepoch表示所有训练数据完成一个前向传播和反向传播过程的周期,Numepoch表示完成整个训练过程所需的周期数目;
通过调节平衡系数指导所述卷积神经网络的训练。
上述进一步方案的有益效果是:通过逻辑判断HR重建损失函数是否收敛,来判定卷积神经网络的参数是否达到最优。如果HR重建损失函数收敛,说明卷积神经网络的参数已经达到预期最优效果,那么整体训练过程结束。该方案为了减少训练时间,降低训练时长,加入HR图像梯度先验作为指导,使卷积神经网络在最短的时间内达到收敛。
进一步,得出某一放大尺度下尺度调节因子的步骤包括,基于相应放大尺度建立具有先验信息的多尺度卷积神经网络的HR重建损失函数,对具有先验信息的多尺度卷积神经网络的HR重建损失函数进行收敛判断;
如果收敛,得出相应放大尺度下的尺度调节因子;
如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
上述进一步方案的有益效果是:本发明采用多任务学习策略同时完成对多尺度下的网络训练,与分别单独训练这几种网络相比,参数量减少,训练速度得到有效提升,而且得到了所有训练放大尺度下的尺度调节因子,训练完成后卷积神经网络只需要输入目标LR图像和目标放大倍数(训练放大尺度中任一个放大倍数)就可以得到目标HR图像。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书、权利要求书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例1的图像超分辨率重建框架图;
图2为本发明实施例2的图像超分辨率重建框架图;
图3为本发明实施例3的图像超分辨率重建框架图;
图4为本发明实施例3的网络连接图;
图5为本发明实施例3权值共享示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
实施例1
本发明的一个具体实施例,公开了一种图像超分辨率重建方法,包括如下步骤:
S1.构造训练和学习的卷积神经网络。
所述卷积神经网络从上到下依次包括LR特征提取层、非线性映射层、HR重建层。具体地,在LR特征提取层,对输入LR图像进行梯度特征提取,得到LR特征图;在非线性映射层,对LR特征图进行多次非线性映射,得到HR特征图;在HR重建层,将所述HR特征图进行图像重建,得到HR重建图像。
S 2.用所述卷积神经网络对输入的训练库中成对设置的训练LR图像和训练HR图像进行训练,同时进行至少两个放大任务的训练和学习,求得卷积神经网络的最优参数集,以及相应放大尺度下的尺度调节因子。
所述最优参数集包括特征提取层、非线性映射层、HR重建层的所有参数。
S 3.共享所述非线性映射层的感受野与权值,将目标LR图像和目标放大倍数输入所述训练好的卷积神经网络,得到目标HR图像。
训练时,由于自然图像在不同放大倍数下局部结构具有重复性,本发明采用共享策略构建多任务学习框架,借助多尺度结构冗余先验信息更好地学习LR与HR图像之间的映射关系,使训练过程更适用于相应放大倍数的卷积神经网络。HR重建层学习了一个升频滤波器阵列,将最终的HR特征图排列组合成HR重建图像,并输出。
训练完成后,本实施例将目标LR图像和目标放大倍数直接作为卷积神经网络的输入,有效减少了非线性映射和卷积过程的参数量,并解决了实时性差的问题。
与现有技术相比,本实施例提供的图像超分辨率重建方法具有如下优点:
1.可利用边缘和纹理等先验信息更好地约束重建问题的不确定性,消除了人工伪迹和重影,重现效果更显著。
2.图像局部结构的重复性先验信息(例如,2、3、4倍分辨率的先验信息)能够在不同放大倍数的训练网络中共享,有效地减少整体网络架构的参数量,缩短训练耗时。对应多任务学习的过程,不同放大倍数下的图像信息具有相关性和重复性,例如,3倍分辨率重建时,图像的某局部区域不清晰,就可以采用2倍分辨率图像的相同区域的边缘信息进行补充。
3.HR重建层将得到的小尺寸HR特征图重新排列组合,取代了 SRCNN方法图像预处理阶段的Bicubic插值放大,将该层放在重建的末端,大幅度地降低了计算复杂度。
实施例2
基于上述方法的另一个实施例中,所述卷积神经网络还包括HR特征提取层、损失函数层、逻辑判断模块、HR梯度先验提取层。其中,HR 特征提取层、损失函数层、逻辑判断模块依次设置在HR重建层之后,HR 梯度先验提取层设置在损失函数层之前,与HR特征提取层并列设置。
HR特征提取层,对HR重建层输出的HR重建图像进行梯度特征提取,得到HR梯度特征图。
HR梯度先验提取层,对训练库中的训练HR图像(与HR重建图像分辨率相同,只用于训练过程)进行梯度先验信息提取,得到HR梯度先验图。所述HR梯度先验图中包含训练HR图像的边缘和纹理结构信息。
损失函数层,接受所述HR特征提取层输出的HR梯度特征信息和所述HR梯度先验提取层输出的HR梯度先验信息,进行运算后输出HR重建损失函数。
逻辑判断模块对所述HR重建损失函数进行收敛判断:
如果收敛,则将HR重建图像输出;
如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
通过逻辑判断模块的收敛判断,不断将HR梯度先验信息传递到了HR重建阶段,可以增强HR重建效果,并进一步加速损失函数的收敛速度(对应下面公式(7))。
优选地,HR梯度先验提取层采用Sobel边缘梯度算子获取训练库中训练HR图像在水平和垂直方向上的梯度信息,得到HR梯度先验图(先验信息)。在训练过程中将该先验信息与重建HR图像的高频信息进行误差运算,监督图像边缘梯度的重建,实现了将先验信息融入训练过程,用于优化训练参数,以更好地学习LR图像和HR图像之间的映射关系。
优选地,HR重建层包括初重建卷积层和亚像素卷积层,初重建卷积层用于改变非线性映射层输出特征图的通道数,亚像素卷积层对初重建卷积层输出的特征图进行重新排列,即尺寸的放大。HR重建层将非线性映射层输出的HR特征图排列组合成最终的HR重建图像。并且,亚像素卷积层有效地替代了SRCNN方法前期预处理过程的Bicubic插值放大滤波器,将原始LR图像直接作为网络的输入,有效减少了非线性映射和卷积过程的参数量,解决了实时性差的问题。
优选地,用所述卷积神经网络对输入的训练LR图像进行任一放大尺度训练和学习的步骤包括:
1.输入训练库中成对设置的训练LR图像和训练HR图像,至少进行两个放大任务的训练和学习,例如分辨率放大2倍、3倍;对输入的训练LR图像进行特征提取、非线性映射、HR重建之后,得到HR重建图像。
2.将上述HR重建图像与训练库中相同分辨率的HR图像进行比较,得到HR重建误差。
3.将所述HR重建图像与训练库中对应的训练HR图像(分辨率相同)分别进行梯度特征提取,将特征提取的结果进行比较,得到融入先验信息的损失函数。
4.基于所述重建误差和融入先验信息的损失函数构建最终的HR重建损失函数,设置融入先验信息的损失函数为所述HR重建损失函数的正则项;
5.对所述HR重建损失函数进行收敛判断,即最小化所述HR重建损失函数,直到收敛为止,得到特征提取、非线性映射、HR重建过程的初始最优参数。
优选地,得出某一放大尺度下尺度调节因子的步骤包括:
1.基于相应放大尺度建立具有先验信息的多尺度卷积神经网络的损失函数;
2.对具有先验信息的卷积神经网络的损失函数进行收敛判断;如果收敛,得出相应放大尺度下的尺度调节因子;如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
本实施例直接采用LR图像Y作为训练和学习的卷积神经网络的输入,特征提取、非线性映射、HR重建,可简单表示为:
式中,W1,W2,W3分别表示每层滤波权重,B1,B2,B3分别表示每层偏置向量, *表示卷积,Fi(Y)表示每层输出结果,表示非线性激活函数。优选地,本实施例选用修正线性单元(Relu)。
公式(1)中的参数可表示为:
Θ={W1,W2,W3,B1,B2,B3} (2)
上述整个学习网络框架最关键的点在于对参数的训练和优化。假设训练图像集中有n个LR图像,则HR重建误差表示:
式中,Xi是训练库中LR图像Yi对应的HR图像。
融入先验信息的损失函数也可称为特征一致性测量函数,可以表示为:
式中,F3(Y)表示亚像素卷积层的输出结果,fpr(F3(Yi),Θ)表示HR重建图像的梯度特征信息,fpr(Xi)表示提取的梯度先验信息,Xi是训练库中LR 图像Yi对应的HR图像。
建立HR重建损失函数,将HR重建损失函数设置为由HR重建误差和特征一致性测量误差共同组成,即:
Loss=Lossr+αLosspr (5)
式中,α表示重建HR误差与特征一致性测量函数之间的平衡系数。
训练过程中,采用归零训练法,即平衡系数α会随训练进程逐渐减小。通常,当特征一致性测量误差低于一定的阈值γ时,α就会消失,则公式 (5)的第二个损失项失效,不再影响图像的梯度更新过程。本实施例根据训练周期进行α的衰减:
式中,tepoch表示所有训练数据完成一个前向传播和反向传播过程的周期 (代表所需时间),Numepoch表示完成整个训练过程所需的周期数目。
优选地,采用采用随机梯度下降法和反向传播法进行损失函数层(公式(5))的收敛运算,若已收敛,则输出HR重建图像,若没有达到收敛,将信息流反向传播,更新参数,再次进行训练学习直至收敛结束。
上述参数更新的具体形式为
式中,λ表示动量参数,η表示学习率,Δi表示损失函数的梯度向量。本实施例取λ=0.9,η=10-4。
实施例3
如图3所示,基于上述方法的另一个实施例中,分别对×2倍、×3倍、×4倍放大尺度下的卷积神经网络共享非线性映射层,通过共享非线性映射层的权值和感受野,同一组滤波器可被用于各条路径,并且通过多尺度下的信息传递,可以互相提供正则化指导,大大简化卷积神经网络的复杂度,减少参数量。
优选地,非线性映射层包括三个卷积层,示例性地,将上述三个卷积层分别标记为卷积层21、22、23。其他层也依次进行标记,此处不一一赘述。
在LR特征提取层(卷积层11、12、13),输出表示为:
式中,Y表示输入的低分辨率图像,F1i(Y)表示卷积层11、12、13(分别对应放大倍数为2、3、4)的输出,表示激活函数,W1可以等效为 c×f1×f1×n1大小的特征提取层滤波器权重,c表示通道数(本实施例中, c=1),f1×f1是每个卷积核的二维尺寸大小(本实施例中为9×9),n1表示滤波器的个数(本实施例中,值为64),B1i表示放卷积层11、12、13 的偏置系数,初始值都为0。
在非线性映射层,三个卷积层21、22、23的输出分别表示为
式中,F1(Y)表示LR特征提取层的输出(对应公式(8)),F21(Y)、F22(Y)、 F23(Y)分别表示卷积层21、22、23的输出,W21、W22、W23分别等效为以 n1×f21×f21×n21、n21×f22×f22×n22、n22×f23×f23×n23为大小的卷积层21、22、 23的滤波器权重,n21、n22、n23表示卷积层21、22、23的滤波器个数,分别取值为16、16、64。f21×f21、f22×f22、f23×f23分别表示卷积层21、22、23的卷积核二维尺寸大小,取值分别为1×1、3×3、1×1。B21、B22、 B23表示卷积层21、22、23的偏置系数,初始值都为0。
在重建层,初重建卷积层(卷积层31、32、33)输出结果:
F3i(Y)=W31*F23(Y)+B3i,(i=1,2,3) (10)
各个亚像素卷积层输出结果:
Y(i)SR=R(F31(Y)) (11)
式中,R表示亚像素卷积层的排列操作,F31(Y)、F32(Y)、F33(Y)分别表示放大倍数为2、3、4时的卷积层31、32、33的输出,Y(i)SR表示放大倍数为2、3、4时亚像素卷积层的输出,即HR重建图像,W31、W32、W33分别等效为以r1 2×f3×f3×n3、r2 2×f3×f3×n3、r3 2×f3×f3×n3为大小的卷积层31、 32、33的滤波器权重,r1、r2、r3分别表示放大倍数,即取值为2、3、 4,f3×f3和分别表示卷积层31、32、33的卷积核二维尺寸大小,取值为5×5, n3表示卷积层31、32、33滤波器的数量,取值为64。B31、B32、B33表示卷积层31、32、33的偏置系数,初始值都为0。
因为图像的空间联系即局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息,如图4所示,左图为全连接,右图为局部连接。假如输入一幅1000×1000的图像,那么输入层(图中未标出输入层、隐藏层,本领域技术人员可以理解)的神经元数目就是像素点数目,为1000×1000个,若采用左图全连接,参数量为1012个,如果让隐藏层的1000×1000个神经元只和输入层10×10个神经元相连接,而不是和1000×1000个神经元相连接,则参数量为1000000×10×10个,是原来的万分之一,很大程度上减少参数量,这种局部连接就称作感受野。
在上述过程中,每个神经元都对应100个参数,如果隐藏层的每个神经元跟输入层不同区域的10×10个神经元的连接都是相同的,也就是说这1000000个神经元的100个参数都是相等的,那么参数数目就变成100 个。这100个参数(也就是卷积操作)可看做是特征提取的方式,该方式与位置无关,即同样的学习特征可用于图像的所有位置。这就称作权值共享。
为方便进一步理解,如图5所示,展示了一个3×3的卷积核在5×5的图像上做卷积的过程。每个卷积都是一种特征提取方式,就像一个筛子,将图像中符合条件(激活值越大,越符合条件)的部分筛选出来。
具有先验信息的多尺度卷积神经网络的损失函数可表示为:
式中,iscale表示确定放大尺度(2倍、3倍、4倍)下的指数因子,βiscale表示尺度调节因子,表示重建误差(对应公式(3)),表示融入先验信息的损失函数(对应公式(4))。
共享层的反向传播梯度为:
采用随机梯度下降和反向传播法对具有先验信息的多尺度卷积神经网络的损失函数进行收敛运算,如果收敛,则输出HR重建图像,如果不收敛,则将信息流反向传播,再次进行训练,直到收敛结束。
本实施例采用多任务学习策略同时完成对×2倍、×3倍、×4倍尺度下的网络训练,与分别单独训练这三种网络相比,参数量减少,训练速度得到有效提升。
训练完成后,本实施例卷积神经网络以原始LR图像直接作为输入,通过初重建卷积层以后,得到的特征图像大小与输入图像一样,但是特征通道为r2个(r是图像的目标放大倍数)。亚像素卷积层将每个像素的r2个通道重新排列成一个r×r的区域,对应于HR重建图像中的一个r×r大小的子块,从而大小为r2×H×W的HR特征图被重新排列成1×rH×rW大小的高分辨率图像。将此过程放在了重建过程的末端,从而减少了计算量,并提高了时效性,并且重建质量显著。
输入目标LR图像,能够得到2倍、3倍、4倍的目标HR图像。因为不同倍数的学习任务之间具有相关性,所以利用多任务学习之间的相关性防止损失函数过拟合,从而提高损失函数的收敛速度,提高重建效果。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种图像超分辨率重建方法,其特征在于,包括如下步骤:
构造训练和学习的卷积神经网络,所述卷积神经网络从上到下依次包括LR特征提取层、非线性映射层、HR重建层;
用所述卷积神经网络对图像训练库中成对设置的训练LR图像和训练HR图像同时进行至少2个放大尺度的训练和学习,求得所述卷积神经网络的最优参数集和相应放大尺度下的尺度调节因子;所述最优参数集包括非线性映射层的权值;
共享所述非线性映射层的感受野与权值,将目标LR图像和目标放大倍数输入所述训练好的卷积神经网络,在所述HR重建层输出目标HR图像。
2.根据权利要求1所述的图像超分辨率重建方法,其特征在于,所述卷积神经网络还包括损失函数层、逻辑判断模块;
所述损失函数层,用于在训练时将所述HR重建图像与所述图像训练库中对应的训练HR图像进行比较,输出HR重建损失函数;
所述逻辑判断模块对所述HR重建损失函数进行收敛判断;
如果收敛,则输出所述HR重建图像;
如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
3.根据权利要求2所述的图像超分辨率重建方法,其特征在于,所述卷积神经网络还包括HR特征提取层和HR梯度先验提取层;
所述HR特征提取层,设置在所述HR重建层、损失函数层中间,用于提取HR重建图像的特征信息;
所述HR梯度先验提取层,设置在损失函数层之前、与HR特征提取层并列,用于提取所述训练HR图像的梯度特征信息;
所述损失函数层接受所述HR特征提取层和所述HR梯度先验提取层输出的HR边缘特征图,输出所述HR重建损失函数。
4.根据权利要求3所述的图像超分辨率重建方法,其特征在于,用所述卷积神经网络对输入的训练LR图像进行任一放大尺度的训练和学习的步骤包括:
对输入的训练LR图像依次进行特征提取、非线性映射、HR重建,得到HR重建图像;
将所述HR重建图像与训练库中相应的训练HR图像进行比较,得到HR重建误差;
将所述HR重建图像与训练库中对应的训练HR图像分别进行梯度特征提取,将特征提取的结果进行比较,得到融入先验信息的损失函数;
基于所述HR重建误差和融入先验信息的损失函数构建HR重建损失函数,设置融入先验信息的损失函数为所述HR重建损失函数的正则项;
对所述HR重建损失函数进行收敛判断,直到收敛为止。
5.根据权利要求1-4之一所述的图像超分辨率重建方法,其特征在于,所述HR重建层包括初重建卷积层和亚像素卷积层;
所述初重建卷积层用于改变所述非线性映射层输出特征图的通道数;所述亚像素卷积层用于将所述初重建卷积层输出的特征图进行重新排列组合。
6.根据权利要求2-4之一所述的图像超分辨率重建方法,其特征在于,所述收敛判断的方法为,采用随机梯度下降法和反向传播法最小化HR重建损失函数,直到收敛为止。
7.根据权利要求1-4之一所述的图像超分辨率重建方法,其特征在于,所述放大尺度为LR图像分辨率的2倍、3倍、4倍;
所述非线性映射层包括三个卷积层,用于将所述LR特征图通过三次卷积映射转换成HR特征图。
8.根据权利要求3所述的图像超分辨率重建方法,其特征在于,所述HR梯度先验提取层采用Sobel边缘梯度算子获取训练库中HR图像在水平和垂直方向上的梯度信息。
9.根据权利要求4所述的图像超分辨率重建方法,其特征在于,所述HR重建损失函数在融入先验信息的损失函数前设置平衡系数,所述平衡系数表示为
式中,tepoch表示所有训练数据完成一个前向传播和反向传播过程的周期,Numepoch表示完成整个训练过程所需的周期数目;
通过调节平衡系数大小指导所述卷积神经网络的训练。
10.根据权利要求1-4、8-9之一所述的图像超分辨率重建方法,其特征在于,得出某一放大尺度下的尺度调节因子的步骤包括,基于相应放大尺度建立具有先验信息的多尺度卷积神经网络的HR重建损失函数,对具有先验信息的多尺度卷积神经网络的HR重建损失函数进行收敛判断,
如果收敛,得出相应放大尺度下的尺度调节因子;
如果不收敛,则将信息由下到上反向传播,更新参数,重新进行训练学习,直到收敛为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810380243.0A CN108550115B (zh) | 2018-04-25 | 2018-04-25 | 一种图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810380243.0A CN108550115B (zh) | 2018-04-25 | 2018-04-25 | 一种图像超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108550115A true CN108550115A (zh) | 2018-09-18 |
CN108550115B CN108550115B (zh) | 2020-06-16 |
Family
ID=63512632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810380243.0A Active CN108550115B (zh) | 2018-04-25 | 2018-04-25 | 一种图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108550115B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389556A (zh) * | 2018-09-21 | 2019-02-26 | 五邑大学 | 一种多尺度空洞卷积神经网络超分辨率重构方法及装置 |
CN109431492A (zh) * | 2018-10-16 | 2019-03-08 | 上海优加利健康管理有限公司 | 基于神经网络算法的心电图导联数据模拟重建方法 |
CN109685717A (zh) * | 2018-12-14 | 2019-04-26 | 厦门理工学院 | 图像超分辨率重建方法、装置及电子设备 |
CN109741416A (zh) * | 2019-01-04 | 2019-05-10 | 北京大学深圳医院 | 核磁共振图像重建方法、装置、计算机设备及其存储介质 |
CN109961105A (zh) * | 2019-04-08 | 2019-07-02 | 上海市测绘院 | 一种基于多任务深度学习的高分辨率遥感影像分类方法 |
CN109978763A (zh) * | 2019-03-01 | 2019-07-05 | 昆明理工大学 | 一种基于跳跃连接残差网络的图像超分辨率重建算法 |
CN110135591A (zh) * | 2019-05-16 | 2019-08-16 | 数坤(北京)网络科技有限公司 | 一种基于深度学习的损失值优化方法及设备 |
CN110246094A (zh) * | 2019-05-13 | 2019-09-17 | 南昌大学 | 一种用于彩色图像超分辨率重建的6维嵌入的去噪自编码先验信息算法 |
CN110276389A (zh) * | 2019-06-14 | 2019-09-24 | 中国矿业大学 | 一种基于边缘修正的矿井移动巡检图像重建方法 |
CN110334807A (zh) * | 2019-05-31 | 2019-10-15 | 北京奇艺世纪科技有限公司 | 深度学习网络的训练方法、装置、设备和存储介质 |
CN110428378A (zh) * | 2019-07-26 | 2019-11-08 | 北京小米移动软件有限公司 | 图像的处理方法、装置及存储介质 |
CN110516545A (zh) * | 2019-07-22 | 2019-11-29 | 北京迈格威科技有限公司 | 模型训练、图像处理方法和设备、图像处理器及介质 |
CN110826467A (zh) * | 2019-11-22 | 2020-02-21 | 中南大学湘雅三医院 | 一种电子显微镜图像重建系统及其方法 |
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111353939A (zh) * | 2020-03-02 | 2020-06-30 | 中国科学院深圳先进技术研究院 | 一种基于多尺度特征表示与权值共享卷积层的图像超分辨率方法 |
CN111414988A (zh) * | 2020-02-13 | 2020-07-14 | 湖北工业大学 | 基于多尺度特征自适应融合网络的遥感影像超分辨率方法 |
WO2020143513A1 (zh) * | 2019-01-12 | 2020-07-16 | 深圳先进技术研究院 | 一种超分辨率图像的重构方法、装置及设备 |
CN111563843A (zh) * | 2020-04-30 | 2020-08-21 | 苏州大学 | 一种图像超分辨重构方法、系统及相关装置 |
CN111861881A (zh) * | 2020-06-09 | 2020-10-30 | 复旦大学 | 一种基于cnn进行插值的图像超分辨率重建算法 |
CN111861886A (zh) * | 2020-07-15 | 2020-10-30 | 南京信息工程大学 | 一种基于多尺度反馈网络的图像超分辨率重建方法 |
CN112070667A (zh) * | 2020-08-14 | 2020-12-11 | 西安理工大学 | 一种多尺度特征融合的视频超分辨率重建的方法 |
WO2021022929A1 (zh) * | 2019-08-08 | 2021-02-11 | 齐鲁工业大学 | 一种单帧图像超分辨率重建方法 |
WO2021052261A1 (zh) * | 2019-09-17 | 2021-03-25 | 中国科学院空天信息创新研究院 | 一种锐化标签数据的图像超分辨率重建方法及装置 |
CN112771374A (zh) * | 2018-10-08 | 2021-05-07 | 洛桑联邦理工学院 | 基于训练的非线性映射的图像重建方法 |
CN113191955A (zh) * | 2021-06-17 | 2021-07-30 | 江苏奥易克斯汽车电子科技股份有限公司 | 图像超分辨率重建的方法及装置 |
CN116912602A (zh) * | 2023-09-11 | 2023-10-20 | 荣耀终端有限公司 | 图像处理模型的训练方法、图像处理方法及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955719A (zh) * | 2014-05-20 | 2014-07-30 | 中国科学院信息工程研究所 | 滤波器组训练方法及系统和图像关键点定位方法及系统 |
CN105701513A (zh) * | 2016-01-14 | 2016-06-22 | 深圳市未来媒体技术研究院 | 快速提取掌纹感兴趣区域的方法 |
CN106204489A (zh) * | 2016-07-12 | 2016-12-07 | 四川大学 | 结合深度学习与梯度转换的单幅图像超分辨率重建方法 |
CN106296690A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 图像素材的质量评估方法及装置 |
CN106910161A (zh) * | 2017-01-24 | 2017-06-30 | 华南理工大学 | 一种基于深度卷积神经网络的单幅图像超分辨率重建方法 |
-
2018
- 2018-04-25 CN CN201810380243.0A patent/CN108550115B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955719A (zh) * | 2014-05-20 | 2014-07-30 | 中国科学院信息工程研究所 | 滤波器组训练方法及系统和图像关键点定位方法及系统 |
CN105701513A (zh) * | 2016-01-14 | 2016-06-22 | 深圳市未来媒体技术研究院 | 快速提取掌纹感兴趣区域的方法 |
CN106204489A (zh) * | 2016-07-12 | 2016-12-07 | 四川大学 | 结合深度学习与梯度转换的单幅图像超分辨率重建方法 |
CN106296690A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 图像素材的质量评估方法及装置 |
CN106910161A (zh) * | 2017-01-24 | 2017-06-30 | 华南理工大学 | 一种基于深度卷积神经网络的单幅图像超分辨率重建方法 |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389556A (zh) * | 2018-09-21 | 2019-02-26 | 五邑大学 | 一种多尺度空洞卷积神经网络超分辨率重构方法及装置 |
CN112771374A (zh) * | 2018-10-08 | 2021-05-07 | 洛桑联邦理工学院 | 基于训练的非线性映射的图像重建方法 |
CN109431492A (zh) * | 2018-10-16 | 2019-03-08 | 上海优加利健康管理有限公司 | 基于神经网络算法的心电图导联数据模拟重建方法 |
CN109685717A (zh) * | 2018-12-14 | 2019-04-26 | 厦门理工学院 | 图像超分辨率重建方法、装置及电子设备 |
CN109741416A (zh) * | 2019-01-04 | 2019-05-10 | 北京大学深圳医院 | 核磁共振图像重建方法、装置、计算机设备及其存储介质 |
WO2020143513A1 (zh) * | 2019-01-12 | 2020-07-16 | 深圳先进技术研究院 | 一种超分辨率图像的重构方法、装置及设备 |
CN109978763A (zh) * | 2019-03-01 | 2019-07-05 | 昆明理工大学 | 一种基于跳跃连接残差网络的图像超分辨率重建算法 |
CN109961105A (zh) * | 2019-04-08 | 2019-07-02 | 上海市测绘院 | 一种基于多任务深度学习的高分辨率遥感影像分类方法 |
CN109961105B (zh) * | 2019-04-08 | 2020-03-27 | 上海市测绘院 | 一种基于多任务深度学习的高分辨率遥感影像分类方法 |
CN110246094B (zh) * | 2019-05-13 | 2021-09-28 | 南昌大学 | 一种用于彩色图像超分辨率重建的6维嵌入的去噪自编码先验信息算法 |
CN110246094A (zh) * | 2019-05-13 | 2019-09-17 | 南昌大学 | 一种用于彩色图像超分辨率重建的6维嵌入的去噪自编码先验信息算法 |
CN110135591A (zh) * | 2019-05-16 | 2019-08-16 | 数坤(北京)网络科技有限公司 | 一种基于深度学习的损失值优化方法及设备 |
CN110334807B (zh) * | 2019-05-31 | 2021-09-28 | 北京奇艺世纪科技有限公司 | 深度学习网络的训练方法、装置、设备和存储介质 |
CN110334807A (zh) * | 2019-05-31 | 2019-10-15 | 北京奇艺世纪科技有限公司 | 深度学习网络的训练方法、装置、设备和存储介质 |
CN110276389A (zh) * | 2019-06-14 | 2019-09-24 | 中国矿业大学 | 一种基于边缘修正的矿井移动巡检图像重建方法 |
CN110276389B (zh) * | 2019-06-14 | 2023-04-07 | 中国矿业大学 | 一种基于边缘修正的矿井移动巡检图像重建方法 |
CN110516545A (zh) * | 2019-07-22 | 2019-11-29 | 北京迈格威科技有限公司 | 模型训练、图像处理方法和设备、图像处理器及介质 |
CN110428378B (zh) * | 2019-07-26 | 2022-02-08 | 北京小米移动软件有限公司 | 图像的处理方法、装置及存储介质 |
US11189014B2 (en) | 2019-07-26 | 2021-11-30 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and device for processing image, and storage medium |
CN110428378A (zh) * | 2019-07-26 | 2019-11-08 | 北京小米移动软件有限公司 | 图像的处理方法、装置及存储介质 |
WO2021022929A1 (zh) * | 2019-08-08 | 2021-02-11 | 齐鲁工业大学 | 一种单帧图像超分辨率重建方法 |
WO2021052261A1 (zh) * | 2019-09-17 | 2021-03-25 | 中国科学院空天信息创新研究院 | 一种锐化标签数据的图像超分辨率重建方法及装置 |
CN110826467B (zh) * | 2019-11-22 | 2023-09-29 | 中南大学湘雅三医院 | 一种电子显微镜图像重建系统及其方法 |
CN110826467A (zh) * | 2019-11-22 | 2020-02-21 | 中南大学湘雅三医院 | 一种电子显微镜图像重建系统及其方法 |
CN111182254B (zh) * | 2020-01-03 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
US11416967B2 (en) | 2020-01-03 | 2022-08-16 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Video processing method, apparatus, device and storage medium |
CN111414988B (zh) * | 2020-02-13 | 2023-04-18 | 湖北工业大学 | 基于多尺度特征自适应融合网络的遥感影像超分辨率方法 |
CN111414988A (zh) * | 2020-02-13 | 2020-07-14 | 湖北工业大学 | 基于多尺度特征自适应融合网络的遥感影像超分辨率方法 |
CN111353939B (zh) * | 2020-03-02 | 2023-10-27 | 中国科学院深圳先进技术研究院 | 一种基于多尺度特征表示与权值共享卷积层的图像超分辨率方法 |
CN111353939A (zh) * | 2020-03-02 | 2020-06-30 | 中国科学院深圳先进技术研究院 | 一种基于多尺度特征表示与权值共享卷积层的图像超分辨率方法 |
CN111563843B (zh) * | 2020-04-30 | 2023-11-28 | 苏州大学 | 一种图像超分辨重构方法、系统及相关装置 |
CN111563843A (zh) * | 2020-04-30 | 2020-08-21 | 苏州大学 | 一种图像超分辨重构方法、系统及相关装置 |
CN111861881A (zh) * | 2020-06-09 | 2020-10-30 | 复旦大学 | 一种基于cnn进行插值的图像超分辨率重建算法 |
CN111861886B (zh) * | 2020-07-15 | 2023-08-08 | 南京信息工程大学 | 一种基于多尺度反馈网络的图像超分辨率重建方法 |
CN111861886A (zh) * | 2020-07-15 | 2020-10-30 | 南京信息工程大学 | 一种基于多尺度反馈网络的图像超分辨率重建方法 |
CN112070667A (zh) * | 2020-08-14 | 2020-12-11 | 西安理工大学 | 一种多尺度特征融合的视频超分辨率重建的方法 |
CN113191955A (zh) * | 2021-06-17 | 2021-07-30 | 江苏奥易克斯汽车电子科技股份有限公司 | 图像超分辨率重建的方法及装置 |
CN116912602A (zh) * | 2023-09-11 | 2023-10-20 | 荣耀终端有限公司 | 图像处理模型的训练方法、图像处理方法及电子设备 |
CN116912602B (zh) * | 2023-09-11 | 2023-12-15 | 荣耀终端有限公司 | 图像处理模型的训练方法、图像处理方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108550115B (zh) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108550115A (zh) | 一种图像超分辨率重建方法 | |
CN106796716B (zh) | 用于为低分辨率图像提供超分辨率的设备和方法 | |
CN109829855A (zh) | 一种基于融合多层次特征图的超分辨率重建方法 | |
CN107369189A (zh) | 基于特征损失的医学图像超分辨率重建方法 | |
CN109978762A (zh) | 一种基于条件生成对抗网络的超分辨率重建方法 | |
CN108537733A (zh) | 基于多路径深度卷积神经网络的超分辨率重建方法 | |
CN110827213A (zh) | 一种基于生成式对抗网络的超分辨率图像修复方法 | |
CN108416821B (zh) | 一种深度神经网络的ct图像超分辨重建方法 | |
CN106067161A (zh) | 一种对图像进行超分辨的方法 | |
CN107977932A (zh) | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 | |
CN103279933B (zh) | 一种基于双层模型的单幅图像超分辨率重建方法 | |
CN109727195B (zh) | 一种图像超分辨率重构方法 | |
CN109903223A (zh) | 一种基于稠密连接网络与生成式对抗网络的图像超分辨率方法 | |
CN106600553A (zh) | 一种基于卷积神经网络的dem超分辨率方法 | |
CN105405098B (zh) | 一种基于稀疏表示和自适应滤波的图像超分辨率重建方法 | |
CN107784628A (zh) | 一种基于重建优化和深度神经网络的超分辨率实现方法 | |
CN107798697A (zh) | 一种基于卷积神经网络的医学图像配准方法、系统及电子设备 | |
CN109544457A (zh) | 基于致密链接神经网络的图像超分辨率方法、存储介质和终端 | |
Du et al. | Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network | |
CN108074215A (zh) | 图像升频系统及其训练方法、以及图像升频方法 | |
CN109033945A (zh) | 一种基于深度学习的人体轮廓提取方法 | |
CN109685716A (zh) | 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法 | |
CN106157244A (zh) | 一种基于稀疏表示的QR Code图像超分辨重建方法 | |
Chen et al. | Single image super-resolution using deep CNN with dense skip connections and inception-resnet | |
CN109472743A (zh) | 遥感图像的超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |