CN116611995A - 一种基于深度展开网络的手写文本图像超分辨率重建方法 - Google Patents
一种基于深度展开网络的手写文本图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN116611995A CN116611995A CN202310359453.2A CN202310359453A CN116611995A CN 116611995 A CN116611995 A CN 116611995A CN 202310359453 A CN202310359453 A CN 202310359453A CN 116611995 A CN116611995 A CN 116611995A
- Authority
- CN
- China
- Prior art keywords
- image
- resolution
- low
- super
- frequency information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 15
- 238000006731 degradation reaction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000015556 catabolic process Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度展开网络的手写文本图像超分辨率重建方法,构建基于边缘驱动的深度展开网络,并进行训练;输入待处理的低分辨率图像和目标放大倍数,待处理的输入图像称为分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;整合图像低频信息以及图像高频信息获得超分辨图像;将图像低频信息通过深度去噪模块获取图像去噪信息;将图像去噪信息、超分辨率图像、图像低频信息通过低频重构模块重建图像低频信息;最后输出重建得到的超分辨率图像。本方法不仅能够得到更加清晰的边缘和更加逼真的重构图像,同时显著提升文本信息的感知质量和视觉效果。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度展开网络的手写文本图像超分辨率重建方法。
背景技术
图像是视觉信息的载体,也是人类通过视觉获取外界信息的主要来源之一。随着各行各业的发展,图像的需求数量也随之增加,人们对于图像质量的要求也越来越高。但是由于受环境、设备等因素的影响,采集到的图像往往会出现模糊、失真等低质量情况。例如在文档图像识别任务中,由于字迹模糊或字迹背透导致图像质量降低,导致在管理和存储这类手写文档图像的时候,计算机难以识别图像中的重要信息。单幅图像超分辨率(SISR)可以将给定的低分辨率图像通过特定的算法恢复相应的高分辨率图像。
近年来,针对单幅图像超分辨率(SISR)的深度学习领域发展迅速,基于卷积神经网络的超分辨率模型(SRCNN)代表了这一领域的代表性工作之一。从那时起,开展了很多后续工作,包括生成性对抗网络超分辨率模型(SRGAN),可训练非线性反应扩散网络超分辨率模型(TNRD),深度递归卷积网络超分辨率模型(DRCN),增强型残差网络超分辨率模型(EDSR),拉普拉斯金字塔网络超分辨率模型(LapSRN)。
尽管进展很快,但是其中一个长期悬而未决的问题是缺乏可解释性,现有的大多数网络都是基于黑盒原理设计的,即无论输入输出映射结果如何,对其内部原理知之甚少。当网络变得更加深入、更加复杂时,理解深度学习的内部机制就变得困难。例如EDSR的参数总数已经超过40M,这使得它在实际运用的可行性较差。
深度展开网络将给定连续模型的迭代优化看作是一个动态过程,进而通过若干可学习的模块来离散这一系统。能够有效的结合领域知识以及数据经验,透明的设计能够具备更好的可解释性,同时能避免潜在的冗余,在计算上带来更加高效的解决方案。
发明内容
本发明解决技术问题:为了克服现有技术的不足,提供一种基于深度展开网络的手写文本图像超分辨率重建方法。基于边缘驱动迭代模型构建网络能够更好的感知图像高频信息,处理图像的多重退化。能显著的提升进行超分辨率重建后的手写文本图像的感知质量和视觉效果。
本发明的技术方案:一种基于深度展开网络的手写文本图像超分辨率重建方法,包括以下步骤:
步骤1:构建基于边缘驱动的深度展开网络,并进行训练。
步骤2:输入待处理的低分辨率图像和目标放大倍数,待处理的输入图像称为低分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;
步骤3:使用步骤2中输入的低分辨率图像通过双三次插值法进行处理,将低分辨率图像上采样目标放大倍数获得初始图像低频信息;
步骤4:使用步骤2输入的低分辨率图像进行双三次插值法上采样,通过边缘提取模块获取初始图像高频信息;
步骤5:整合图像低频信息以及图像高频信息获得超分辨图像;
步骤6:将图像低频信息通过深度去噪模块获取图像去噪信息;
步骤7:将图像去噪信息、超分辨率图像、图像低频信息通过低频重构模块重建图像低频信息;
步骤8:将超分辨率图像通过边缘提取模块获取图像高频信息;
步骤9:重复步骤5至步骤8,迭代计算图像低频信息、图像高频信息;
步骤10:整合步骤9中的图像低频信息、图像高频信息获得超分辨率图像
步骤11:输出重建得到的超分辨率图像;
本发明与现有技术相比的优点在于:
(1)本方法通过深度展开网络寻求基于模型的等价实现,能够有效的结合领域知识以及数据经验,提升高超分辨率图像的重建质量,同时透明的设计能够具备更好的可解释性,同时能避免潜在的冗余,在计算上带来更加高效的、轻量级的解决方案。
(2)本方法基于手写文本图像特征迭代计算,在多个阶段重复加强重建图像的高频信息并进行低频信息重建以及深度去噪,不仅能够得到更加清晰的边缘和更加逼真的重构图像,同时显著提升文本信息的感知质量和视觉效果。
附图说明
图1为本发明的流程图。
图2为深度展开网络模型示意图,其中的T次重复阶段恰好执行上述模型的T次迭代,每一个阶段的构成都是通过三个基本模块构成:深度去噪模块,边缘提取模块,低频重建模块。深度去噪模块负责变量vt的更新,边缘提取模块负责提取图像高频信息低频重建模块负责提取图像低频信息/>
具体实施方式
下面将结合附图及实施例对本发明进行详细说明。
如图1所示,本发明方法的具体实现如下:
步骤1:构建基于边缘驱动的深度展开网络,并进行训练。
步骤2:输入待处理的低分辨率图像和目标放大倍数,待处理的输入图像成为低分辨率图像,使用超分辨率重建方法放大的图像成为高分辨率图像;
步骤3:使用步骤2中输入的低分辨率图像通过双三次插值法进行处理,将低分辨率图像上采样目标放大倍数获得初始图像低频信息;
步骤4:使用步骤2输入的低分辨率图像进行双三次插值法上采样,通过边缘提取模块获取初始图像高频信息;
步骤5:整合图像低频信息以及图像高频信息获得超分辨图像;
步骤6:将图像低频信息通过深度去噪模块获取图像去噪信息;
步骤7:将图像去噪信息、超分辨率图像、图像低频信息通过低频重构模块重建图像低频信息;
步骤8:将超分辨率图像通过边缘提取模块获取图像高频信息;
步骤9:重复步骤5至步骤8,迭代计算图像低频信息、图像高频信息;
步骤10:整合步骤9中的图像低频信息、图像高频信息获得超分辨率图像
步骤11:输出重建得到的超分辨率图像;
一、下面对步骤1进行详细说明:
(1)基于边缘驱动的深度展开网络
基于模型的图像恢复的目的是根据其退化的观测值y估计未知图像x。退化过程可以用以下模型表示:
y=Ax+n
其中A表示退化算子(例如模糊核、下采样操作),n表示噪声。相应的基于模型的单幅图像超分辨率重构可以表示为以下优化问题:
其中λ是拉格朗日乘数,Ω(x)是正则化函数。一般来说,高分辨率图像IHR由两个部分构成:
IHR=ILF+IHF
其中ILF、IHF分别代表着图像得低频(Low-Frequency)信息与高频(Low-Frequency)信息,高频信息通常包含图像的边缘、纹理信息,体现了物体表面的具有缓慢变化或者周期性变化的表面结构组织排列属性。这些细节通常是不规则的,并且与低频信息相比,高频信息更加容易被破坏,导致明显的图像退化。对于手写文本图像来说,信息细节通常存储在高频信息中,因此恢复高频信息是提升图像质量的重要一步。
大部分单幅图像超分辨率算法在对图像进行超分辨率重构时,由于原始低分辨率图像高频信息的缺失导致图像细节缺失。可以表示如下:
其中xl表示需要缺失了高频细节的重构图像,其中A表示退化算子(例如模糊核、下采样操作),λ是拉格朗日乘数,Ω(x)是正则化函数。通过半二次拆分我们可以将上述问题转化等价的无约束的优化问题:
其中v是辅助拆分变量,η为相应的拆分系数,通过迭代化处理后,上述公式可以表示为如下的两个子问题。
基于边缘提取算法fedge,可以获取图像的纹理以及边缘等高频信息:
其中,α为补偿系数。通过对重构图像的高频信息进行补偿,我们将可以获得高分辨重构图像x,并将其带入到公式中。
对上述公式进行单步梯度下降后,可以得到边缘高频信息补偿的迭代模型,通过交替求解下述四个子问题来解决手写文本图像超分辨率问题:
在传统的基于模型的方法中,交替求解上述四个方程需要多次迭代才能收敛,从而导致过高的计算成本,于是我们将上述模型如图2所示展开为重复网络模块的串联。图2中的T次重复阶段恰好执行上述模型的T次迭代,每一个阶段的构成都是通过三个基本模块构成:深度去噪模块,边缘提取模块,低频重建模块。深度去噪模块负责变量vt的更新,边缘提取模块负责提取图像高频信息低频重建模块负责提取图像低频信息/>
(2)基于边缘驱动的深度展开网络的训练
使用端到端的方式来训练深度展开网络,具体步骤如下:
步骤1:首先需要构建手写文字图片数据集,数据集需要包含多组图片,每一组图片包含原始分辨率照片作为高分辨率图像,不同倍数下采样的照片作为低分辨率图像。
步骤2:将低分辨率图像yi以及对应的放大倍数输入到深度展开网络中,并获得重构得到的超分辨率图像xi。
步骤3:将步骤2中获得高分辨率图像xi与低分辨率图像yi,计算L1损失函数。N为图片数量,公式如下:
步骤4:采用梯度下降算法更新超分辨率网络的模型参数。
二、下面对步骤6中的深度去噪模块进行详细说明
该模块采用U-net的变体作为深度去噪模块的主干,该模块包含四个编码网络(两层卷积层以及一层残差层构成)和四个解码网络(两层卷积层以及一层残差层构成)组成。除去最后一个编码网络外,每一个编码网络都有一个下采样层,该下采样层通过X2的比例因子对特征映射进行子采样,以增加神经元的接收场。除去最后一个解码网络外,每一个编码网络后都有一个上采样层,通过X2的比例因子对增大特征图的空间大小。该结构在编码的过程中逐渐降低了特征图的空间分布率,从而减少了计算量。
三、下面对步骤4,步骤8中的边缘提取模块进行详细说明:
该模块采用Canny算法作为边缘提取算法来提取图像的边缘信息。Canny算法的主要过程如下:
步骤1:滤波降噪处理,采用高斯滤波去除噪声;
步骤2:采用Sobel算子差分计算幅值和方向,标识每个点上的最大值以及生成的边缘的方向,同时对非极大值抑制,获得二值图像;
步骤3:双阈值筛选,根据高阈值得到一个边缘图像,在高阈值图像中把边缘链接成轮廓,当到达轮廓的端点时,在断点的8邻域点中寻找满足低阈值的点,再根据此点收集新的边缘,直到整个图像边缘闭合,获取到图像的边缘信息;
四、下面对步骤7中的低频重建模块进行详细说明:
该模块通过浅四层卷积网络来模拟退化的正向与反向过程。
具体来说,退化过程A是通过下采样网络来模拟的,通过4层卷积层构成,以相应的比例降低空间分辨率,类似的,上采样网络模拟过程AT由三个卷积层和一个反卷积层构成,以相应的比例提高空间分辨率,从而构建出图像低频信息xl。
Claims (6)
1.一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,包括以下步骤:
步骤1:构建基于边缘驱动的深度展开网络,并进行训练;
步骤2:输入待处理的低分辨率图像和目标放大倍数,待处理的输入图像称为低分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;
步骤3:使用步骤2中输入的低分辨率图像通过双三次插值法进行处理,将低分辨率图像上采样到目标放大倍数获得初始图像低频信息;
步骤4:使用步骤2输入的低分辨率图像进行双三次插值法上采样,通过边缘提取模块获取初始图像高频信息;
步骤5:整合图像低频信息以及图像高频信息获得超分辨图像;
步骤6:将图像低频信息通过深度去噪模块获取图像去噪信息;
步骤7:将图像去噪信息、超分辨率图像、图像低频信息通过低频重构模块重建图像低频信息;
步骤8:将超分辨率图像通过边缘提取模块获取图像高频信息;
步骤9:重复步骤5至步骤8,迭代计算图像低频信息、图像高频信息;
步骤10:整合步骤9中的图像低频信息、图像高频信息获得超分辨率图像步骤11:输出重建得到的超分辨率图像。
2.根据权利要求1所述的一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,步骤1中,基于边缘驱动的深度展开网络模型为:
其中,t为阶次;v是辅助拆分变量,η为相应的拆分系数,xl表示缺失了高频细节的重构图像,xh为高频信息,其中A表示退化算子,λ是拉格朗日乘数,Ω(x)是正则化函数,边缘提取算法fedge,α为补偿系数,δ为松弛参数。
3.根据权利要求1所述的一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,步骤1中,使用端到端的方式来训练深度展开网络,具体步骤如下:
步骤1.1:首先需要构建手写文本图像数据集,数据集需要包含多组图片,每一组图片包含原始分辨率照片作为高分辨率图像,不同倍数下采样的照片作为低分辨率图像;
步骤1.2:将低分辨率图像yi以及对应的放大倍数输入到深度展开网络中,并获得重构得到的超分辨率图像xi;
步骤1.3:将步骤1.2中获得高分辨率图像xi与低分辨率图像yi,计算L1损失函数。公式如下:
步骤1.4:采用梯度下降算法更新超分辨率网络的模型参数。
4.根据权利要求1所述的一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,步骤6中的深度去噪模块具体内容为:该模块采用U-net的变体作为深度去噪模块的主干,包含四个编码网络和四个解码网络组成,除去最后一个编码网络外,每一个编码网络都有一个下采样层,该下采样层通过X2的比例因子对特征映射进行子采样,以增加神经元的接收场,除去最后一个解码网络外,每一个编码网络后都有一个上采样层,通过X2的比例因子对增大特征图的空间大小。
5.根据权利要求1所述的一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,步骤4,步骤8中的边缘提取模块具体为:
步骤a:滤波降噪处理,采用高斯滤波去除噪声;
步骤b:采用Sobel算子差分计算幅值和方向,标识每个点上的最大值以及生成的边缘的方向,同时对非极大值抑制,获得二值图像;
步骤c:双阈值筛选,根据高阈值得到一个边缘图像,在高阈值图像中把边缘链接成轮廓,当到达轮廓的端点时,在断点的8邻域点中寻找满足低阈值的点,再根据此点收集新的边缘,直到整个图像边缘闭合,获取到图像的边缘信息。
6.根据权利要求1所述的一种基于深度展开网络的手写文本图像超分辨率重建方法,其特征在于,步骤7中的低频重建模块具体为:
该模块通过浅四层卷积网络来模拟退化的正向与反向过程。
退化过程A是通过下采样网络来模拟的,通过4层卷积层构成,以相应的比例降低空间分辨率,类似的,上采样网络模拟过程AT由三个卷积层和一个反卷积层构成,以相应的比例提高空间分辨率,从而构建出图像低频信息xl。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310359453.2A CN116611995B (zh) | 2023-04-06 | 2023-04-06 | 一种基于深度展开网络的手写文本图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310359453.2A CN116611995B (zh) | 2023-04-06 | 2023-04-06 | 一种基于深度展开网络的手写文本图像超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116611995A true CN116611995A (zh) | 2023-08-18 |
CN116611995B CN116611995B (zh) | 2024-08-02 |
Family
ID=87684304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310359453.2A Active CN116611995B (zh) | 2023-04-06 | 2023-04-06 | 一种基于深度展开网络的手写文本图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116611995B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118229528A (zh) * | 2024-03-27 | 2024-06-21 | 江苏大学 | 一种基于边缘约束的深度展开图像超分辨率重构方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220967A (zh) * | 2017-05-08 | 2017-09-29 | 新疆农业大学 | 一种草地土壤退化评价方法 |
US20180240219A1 (en) * | 2017-02-22 | 2018-08-23 | Siemens Healthcare Gmbh | Denoising medical images by learning sparse image representations with a deep unfolding approach |
WO2022005611A1 (en) * | 2020-06-30 | 2022-01-06 | Microsoft Technology Licensing, Llc | Image super-resolution reconstructing |
CN114742911A (zh) * | 2022-04-28 | 2022-07-12 | 西安交通大学 | 图像压缩感知重建方法、系统、设备及介质 |
US20220284547A1 (en) * | 2021-02-22 | 2022-09-08 | Southwest University | Super-resolution image reconstruction method based on deep convolutional sparse coding |
US20220327692A1 (en) * | 2021-04-12 | 2022-10-13 | Daegu Gyeongbuk Institute Of Science And Technology | Method and apparatus for processing image |
CN115393191A (zh) * | 2022-08-24 | 2022-11-25 | 广东工业大学 | 一种轻量级遥感图像超分辨率重建方法、装置及设备 |
CN115797179A (zh) * | 2022-12-07 | 2023-03-14 | 杭州师范大学 | 一种街景中文文本图像超分辨率重建方法 |
EP4148658A1 (en) * | 2021-07-28 | 2023-03-15 | Guodian Nanjing Automation Co., LTD. | Method and system for super-resolution reconstruction of heterogeneous stereoscopic images |
CN115829834A (zh) * | 2022-09-16 | 2023-03-21 | 南京邮电大学 | 基于半耦合深度卷积字典学习的图像超分辨率重建方法 |
-
2023
- 2023-04-06 CN CN202310359453.2A patent/CN116611995B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180240219A1 (en) * | 2017-02-22 | 2018-08-23 | Siemens Healthcare Gmbh | Denoising medical images by learning sparse image representations with a deep unfolding approach |
CN107220967A (zh) * | 2017-05-08 | 2017-09-29 | 新疆农业大学 | 一种草地土壤退化评价方法 |
WO2022005611A1 (en) * | 2020-06-30 | 2022-01-06 | Microsoft Technology Licensing, Llc | Image super-resolution reconstructing |
US20220284547A1 (en) * | 2021-02-22 | 2022-09-08 | Southwest University | Super-resolution image reconstruction method based on deep convolutional sparse coding |
US20220327692A1 (en) * | 2021-04-12 | 2022-10-13 | Daegu Gyeongbuk Institute Of Science And Technology | Method and apparatus for processing image |
EP4148658A1 (en) * | 2021-07-28 | 2023-03-15 | Guodian Nanjing Automation Co., LTD. | Method and system for super-resolution reconstruction of heterogeneous stereoscopic images |
CN114742911A (zh) * | 2022-04-28 | 2022-07-12 | 西安交通大学 | 图像压缩感知重建方法、系统、设备及介质 |
CN115393191A (zh) * | 2022-08-24 | 2022-11-25 | 广东工业大学 | 一种轻量级遥感图像超分辨率重建方法、装置及设备 |
CN115829834A (zh) * | 2022-09-16 | 2023-03-21 | 南京邮电大学 | 基于半耦合深度卷积字典学习的图像超分辨率重建方法 |
CN115797179A (zh) * | 2022-12-07 | 2023-03-14 | 杭州师范大学 | 一种街景中文文本图像超分辨率重建方法 |
Non-Patent Citations (3)
Title |
---|
CHONG MOU: "Deep generalized unfolding networks for image restoration", 《PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 28 April 2022 (2022-04-28), pages 17399 - 17410 * |
宋和平;王国利;: "基于贪婪重建的射频传感器网络稀疏目标跟踪", 传感器与微系统, no. 11, 29 October 2013 (2013-10-29), pages 30 - 33 * |
陈赛健;朱远平;: "基于生成对抗网络的文本图像联合超分辨率与去模糊方法", 计算机应用, no. 03, 31 December 2020 (2020-12-31), pages 245 - 250 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118229528A (zh) * | 2024-03-27 | 2024-06-21 | 江苏大学 | 一种基于边缘约束的深度展开图像超分辨率重构方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116611995B (zh) | 2024-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389552B (zh) | 一种基于上下文相关多任务深度学习的图像超分辨算法 | |
US11301965B2 (en) | Method and image processing device for image super resolution, image enhancement, and convolutional neural network model training | |
Chen et al. | Multi-attention augmented network for single image super-resolution | |
Pan et al. | Dual convolutional neural networks for low-level vision | |
CN106920214B (zh) | 空间目标图像超分辨率重建方法 | |
CN111861886B (zh) | 一种基于多尺度反馈网络的图像超分辨率重建方法 | |
CN103136728B (zh) | 基于字典学习和非局部总变差的图像超分辨方法 | |
CN112819716B (zh) | 基于高斯-拉普拉斯金字塔的无监督学习x光图像增强方法 | |
CN116188272B (zh) | 适用于多模糊核的两阶段深度网络图像超分辨率重建方法 | |
CN116611995B (zh) | 一种基于深度展开网络的手写文本图像超分辨率重建方法 | |
CN116757930A (zh) | 基于残差分离注意力机制的遥感图像超分辨率方法、系统及介质 | |
Gao et al. | Bayesian image super-resolution with deep modeling of image statistics | |
CN114723630A (zh) | 基于空洞双残差多尺度深度网络的图像去模糊方法及系统 | |
CN117274059A (zh) | 基于图像编码-解码的低分辨率图像重构方法及其系统 | |
CN116797456A (zh) | 图像超分辨率重建方法、系统、设备和存储介质 | |
CN109993701B (zh) | 一种基于金字塔结构的深度图超分辨率重建的方法 | |
Laroche et al. | Deep model-based super-resolution with non-uniform blur | |
CN105590296A (zh) | 一种基于双字典学习的单帧图像超分辨率复原方法 | |
CN104992407A (zh) | 一种图像超分辨方法 | |
CN114418987A (zh) | 一种多阶段特征融合的视网膜血管分割方法及系统 | |
CN106981046A (zh) | 基于多层梯度约束回归的单幅图像超分辨率重建方法 | |
CN114529482A (zh) | 基于小波多通道深度网络的图像压缩感知重建方法 | |
Türkan et al. | Iterated neighbor-embeddings for image super-resolution | |
CN109447900A (zh) | 一种图像超分辨率重建方法及装置 | |
CN114943655A (zh) | 基于循环深度卷积生成对抗网络结构的图像修复系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |