CN103136728B - 基于字典学习和非局部总变差的图像超分辨方法 - Google Patents
基于字典学习和非局部总变差的图像超分辨方法 Download PDFInfo
- Publication number
- CN103136728B CN103136728B CN201210596586.3A CN201210596586A CN103136728B CN 103136728 B CN103136728 B CN 103136728B CN 201210596586 A CN201210596586 A CN 201210596586A CN 103136728 B CN103136728 B CN 103136728B
- Authority
- CN
- China
- Prior art keywords
- resolution
- dictionary
- image
- pricture
- low resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开一种基于字典学习和非局部总变差的图像超分辨方法,主要解决现有超分辨方法的振铃效应、高频信息丢失、边界匹配不准确等问题。其实现步骤为:(1)输入图像训练集;(2)利用KSVD算法训练两个相对应的高分辨字典与低分辨字典;(3)稀疏表示低分辨输入图像,求出稀疏系数;(4)利用所求的稀疏系数和高分辨字典重构获得高分辨图像;(5)对重构得到的高分辨图像进行非局部总变差去振铃效应;(5)通过误差补偿对高分辨图像进行高频信息增强,得到最终的结果。经仿真实验表明,与现有技术比较,本发明具有操作简单,噪声小,边缘清晰等优点,可用于高分辨率图像的获取。
Description
技术领域
本发明属于图像处理技术领域,涉及一种图像超分辨方法,尤其是基于字典学习和非局部总变差的图像超分辨方法,可用于提高自然图像的分辨率。
背景技术
图像分辨率是衡量图像质量的一个重要指标。随着电荷耦合元件和互补金属氧化物半导体图像传感器的发明,人们在获取图像的质量上了取得了一定的进步,但是图像传感器在采集图像的时候,容易受到模糊、欠采样、噪声等各种因素的影响,因此图像质量很难进一步提高。人们希望从硬件方面通过改善图像传感器来获取高分辨率的图像,然而该方法的成本过于昂贵,难以推广。因此有人提出了用图像超分辨方法以提高获取的图像分辨率。
图像超分辨是通过一幅或多幅低分辨图像生成相应高分辨图像的技术,传统的图像超分辨可以分为三类:“基于插值”、“基于重建”、“基于学习”。基于插值的图像超分辨由于高频信息的缺失,导致高分辨图像过平滑现象的出现,基于重建的图像超分辨由于人为强加的图像先验,导致高分辨图像边界振铃效应的产生,并且在高放大因子条件下重构图像的质量下降比较严重。这些图像超分辨方法虽然存在过平滑、振铃效应等缺陷,但在技术上取得了一定突破,已经趋于成熟并在电子图像、互联网视频、数字电视等多个领域获得广泛应用。
近年来,随着机器学习和压缩感知理论的不断发展,“基于学习”的图像超分辨方法逐渐被提出。如Freeman等人提出了一种基于学习的图像超分辨方法,其方法是通过马尔科夫随机场和先验知识来学习低分辨率图像和高分辨率图像之间的关系,然后重构出高分辨图像,但这种方法不能很好地保持高分辨图像的边界信息,计算复杂度较大,效率偏低。
美国伊利诺伊大学Yang等人在文献基于无序图像块稀疏表示的图像超分辨方法(Image super-resolution as sparse representation of raw image patches)中,提出利用基于字典学习和稀疏表示理论实现单帧图像的图像超分辨,该方法中由于稀疏表示过分依赖构造的过完备字典以及其字典学习算法的缺陷,导致获得的高分辨图像边缘产生振铃效应、高分辨图像的边缘和纹理不够清晰甚至和真实的边缘纹理相矛盾、高频信息丢失等问题。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于字典学习和非局部总变差的图像超分辨方法,使获得的高分辨图像边缘纹理清晰,降低图像边缘的振铃效应。
实现本发明目的的技术原理是:引入图像训练集,利用KSVD算法训练一个高分辨字典Dh和一个低分辨字典Dl;利用稀疏表示理论对低分辨图像进行稀疏表示,求得稀疏系数α;利用稀疏系数α和高分辨字典Dh重构高分辨图像;然后通过非局部总变差去振铃效应;最后通过残差补偿对图像进行高频信息增强,并最终得到高分辨输出图像。其具体步骤包括如下:
步骤1、训练字典
输入一个图像训练集,在该图像训练集中提取n对图像块,80000<n<120000,利用KSVD算法,求解训练一个高分辨字典Dh和一个低分辨字典Dl,训练公式如下:
其中,Xh代表高分辨图像块矩阵,Xl表示低分辨图像块矩阵,Z表示稀疏系数,zi表示稀疏系数的第i列,M和N分别表示高分辨和低分辨图像块矩阵维数的矢量形式;
步骤2、稀疏表示低分辨输入图像,求得稀疏系数α
输入单帧低分辨图像Yl,使用步骤1中训练得到的低分辨字典Dl,利用公式对该低分辨图像在低分辨字典中进行稀疏表示,求得稀疏系数α,上式中,L表示特征提取算子,用来约束稀疏系数和输入的低分辨图像Yl的近似度,δ为误差阈值;
步骤3、重构高分辨图像
利用步骤1中训练得到的高分辨字典Dh和步骤2中求得稀疏系数α,重构得到高分辨图像
步骤4、利用非局部总变差去振铃效应
对步骤3中重构得到的高分辨图像Y0 h应用下式进行非局部总变差去振铃效应:
其中,表示梯度,Yh表示恢复的后的高分辨图像,表示步骤3得到的高分辨图像,λ为一个正常数,为非局部算子,d为Bergman距离辅助变量,b为迭代参数,μ>0;
步骤5、利用误差补偿,增强高频信息,得到最终高分辨图像
计算高分辨图像Yh和输入的低分辨图像Yl之间的误差e;
e=Yl-S[(Yh*g)] (3)
其中,Yl表示输入的低分辨图像,Yh表示经过步骤4去振铃效应的高分辨图像,g为高斯平滑矩阵,S为高斯下采样算子,利用计算得到的误差e,进行高频信息增强,
其中,表示输出的高分辨图像,t表示迭代次数,p表示收敛因子,控制收敛速度,g为高斯平滑矩阵,↑d表示上采样函数。
本发明与现有技术相比具有以下特点:
1.本发明利用KSVD算法,提取训练图像的特征信息,同时训练高分辨低分辨字典(现有技术通常只训练一个字典),从而缩短了训练时间,同时缩短了图像重构时间,提高了重构效率;
2.本发明对高分辨图像利用非局部总变差进行去振铃效应,与现有技术相比能得到更高的峰值信噪比(PSNR)、结构相似度(SSIM)、平均结构相似度(MSSIM),超分辨后图像视觉效果较好;
3.本发明利用误差补偿对重构得到的高分辨图像进行高频信息补偿,进一步增强图像质量;
4.本发明可利用单帧图像实现图像超分辨,所提出的方法具有很好的扩展性,能克服传统超分辨模型对输入图像兼容性不强的问题。
仿真实验结果表明,本发明结合字典学习和非局部总变差以及误差补偿,能获得具有清晰边缘、振铃较小的高分辨图像,是一种鲁棒性良好的图像超分辨方法。
附图说明
图1是本发明的流程图;
图2是本发明仿真试验中使用的(a)、(b)、(c)、(d)四幅原始测试图像;
图3是现有方法和本发明在第一幅测试图像图2(a)上的超分辨视觉效果;
图4是现有方法和本发明在第二幅测试图像图2(b)上的超分辨视觉效果;
图5是现有方法和本发明在第三幅测试图像图2(c)上的超分辨视觉效果;
图6是现有方法和本发明在第四幅测试图像图2(d)上的超分辨视觉效果。
具体实施方式
以下参照附图对本发明的具体实现及效果作进一步详细表述:
参照图1,本发明的具体实施步骤如下:
步骤1、训练字典
(1a)、在一个包含91幅图像的图像训练集中提取10万对大小为8x8的图像块,将10万对图像块分别构造成大小为81x99966的高分辨图像块矩阵Xh和大小为144x99966的低分辨图像块矩阵Xl;
(1b)、利用KSVD算法,求解训练一个高分辨字典Dh和一个低分辨字典Dl,KSVD原始算法公式为 其中,X表示图像块矩阵,D表示目标训练字典,Z表示字典D对应的稀疏系数,zi表示稀疏系数的第i列,引入高分辨和低分辨图像块矩阵,对该公式变形得到:
其中,Xh代表高分辨训练图像块,Xl表示低分辨训练图像块,Dh表示高分辨字典,Dl表示低分辨字典,Z表示字典对应的稀疏系数,zi表示稀疏系数的第i列,M和N分别表示高分辨和低分辨训练图像块的维数的矢量形式;把公式(5)改写为如下形式:
把公式(6)改写成离散项求和的形式, 其中,K为字典D的列数,在仿真实验中,K=1024;
(1c)、使用高斯随机字典对字典D进行初始化;
(1d)、固定字典D,利用 式中,i=1,2...K,求得字典D的任意列稀疏系数zi的最优近似解;
(1e)、固定步骤(1d)中所得到的稀疏系数zi,求出稀疏表示误差其中,di为字典D的第i列原子,为X的第i行,Ek为不使用D的第k列原子进行稀疏表示所产生的误差,对该误差进行奇异值分解得到Ek=UΔVT,其中U为左奇异矩阵,VT为右奇异矩阵,Δ为奇异值矩阵,用左奇异矩阵U的第一列更新字典D的第k列dk;
(1f)、设置迭代次数为10次,重复步骤(1d)和(1e),对字典D中所有的原子进行更新,最终训练得到一个大小为81x1024的高分辨字典Dh和一个大小为144x1024的低分辨字典Dl;
步骤2、稀疏表示低分辨图像,求得稀疏系数α
输入单帧低分辨图像Yl,对该输入图像利用公式在低分辨字典Dl进行稀疏表示,求得稀疏系数α,其中,α表示稀疏系数,L表示一个特征提取算子,用来提取低分辨输入图像的特征,特征提取算子为一维滤波器组,其表达式为l1=[-1,0,1],l3=[1,0,-2,0,1],δ为误差阈值;
步骤3、重构高分辨图像
结合步骤1中的高分辨字典Dh和步骤2中的稀疏系数α,重构求得高分辨图像Y0 h,
步骤4、利用非局部总变差(NLTV)去振铃效应
(4a)、将总变差 引入非局部算子d1,将上述总变差公式变形为: 其中表示梯度,Yh表示去振铃后的高分辨图像,表示步骤3输出的高分辨图像,λ表示一个正常数,
用来约束优化项(Yh-Y0 h)2和保真项的相似度,
其中,d为Bergman距离辅助变量,b为迭代参数,
(4b)、初始化非局部总变差中的相关参数,设置μ=10,λ=20,b0=d0=0,利用非局部总变差的去振铃平滑作用,使用公式求第k次迭代后的Yh,得到去振铃效应后的高分辨图像,其中ΔNL为拉普拉斯算子,divNL为散度算子;
(4c)、固定Yh,更新dk的值,
所述shrinkage算子参见P.L.Combettes and V.R.Wajs所著文献:基于近邻前向后向分裂的信号恢复(Signal recovery by proximal forward-backward splitting)。
(4d)、重复步骤(4b)和步骤(4c),最终得到去振铃效应后的高分辨图像Yh
步骤5、利用误差补偿高频信息,得到最终高分辨图像
(5a)、计算高分辨图像Yh和输入的低分辨图像Yl之间的误差e
e=Yl-S[(Yh*g)] (5)
其中,Yl表示输入的低分辨图像,Yh表示经过步骤4去振铃之后的高分辨图像,g为高斯平滑矩阵,S为高斯下采样算子,
(5b)、利用步骤(5a)中计算得到的误差e,通过误差补偿进行高频信息增强,设置迭代次数t=20,收敛因子p=1,并使用Matlab系统中自带的双立方(bicubic)上采样函数,利用如下公式对步骤4中丢失的部分高频信息进行补偿,并得到最终的高分辨输出图像
其中,表示输出的高分辨图像,Yh表示通过步骤4去振铃后的高分辨图像,Yl表示低分辨输入图像,t表示迭代次数,p表示收敛因子,控制收敛速度,↑d表示上采样函数,e为误差。
本发明的效果可以通过以下实验进一步说明:
1.仿真条件:
在CPU为Pentium(R)4处理器:主频2.33GHZ,内存2G,操作系统:WINDOWSXP SP3,仿真平台:Matlab2007b平台上进行。
仿真图像选择图2所示的四幅原始测试图像,其中,图(a)为蝴蝶(Butterfly)图像,图(b)为向日葵(Sunflower)图像,图(c)为教堂(Church)图像,图(d)为斑马(Zebra)图像。
2.仿真内容:
仿真实验中,利用本发明方法与现有的双立方方法(Bi-cubic Method)、Qishan方法(Qishan’s Method)和Yang方法(Yang’s Method)在测试图像上进行图像超分辨仿真。
Qishan方法(Qishan’s Method)参见Q.Shan,Z.Li,J.Jia和C.Tang所著文献:快速图像/视频上采样(Fast image/video upsampling)。
Yang方法(Yang’s Method)参见J.Yang,J.Wright,T.Huang和Y.Ma所著文献:基于无序图像块稀疏表示的图像超分辨方法(Image super-resolution as sparserepresentation of raw image patches)。
具体仿真内容如下:
仿真1,利用本发明方法与现有的双立方方法(Bi-cubic Method)、Qishan方法(Qishan’s Method)和Yang方法(Yang’s Method)分别对图2(a)所示的蝴蝶(Butterfly)图像进行超分辨,结果如图3,其中图3(a)是利用双立方方法(Bi-cubic Method)超分辨的结果,图3(b)是利用Qishan方法(Qishan’s Method)超分辨的结果,图3(c)是利用Yang方法(Yang’s Method)超分辨的结果,图3(d)是利用本发明超分辨的结果。
从图3可见,本发明能有效减弱振铃效应,图像边缘纹理清晰,整幅图像视觉效果更加自然,能有效的对低分辨图像进行超分辨;双立方方法(Bi-cubic Method)由于高频信息的缺失,导致高分辨图像过平滑现象的出现,特别是蝴蝶的翅膀纹理模糊,与背景交界处界线不明显;Qishan方法(Qishan’s Method)虽然效果优于双立方方法(Bi-cubic Method),但是仍然存在上述问题,超分辨结果有待提高;Yang方法(Yang’sMethod)图像纹理较清晰,但是在图像的边缘产生振铃效应,特别是蝴蝶的翅膀与背景交界处,产生了严重的振铃效应,超分辨结果有待提高。
从表1可见,客观评价方面,本发明的PSNR、SSIM、MSSIM值均高于前三种方法,相对于Yang方法(Yang’s Method),本发明的PSNR、SSIM、MSSIM分别提高1.889dB、0.0065、0.0175。
表1
仿真2,利用本发明方法与现有的双立方方法(Bi-cubic Method)、Qishan方法(Qishan’s Method)和Yang方法(Yang’s Method)分别对图2(b)所示的向日葵(Sunflower)图像进行超分辨,结果如图4,其中图4(a)是利用双立方方法(Bi-cubic Method)超分辨的结果,图4(b)是利用Qishan方法(Qishan’s Method)超分辨的结果,图4(c)是利用Yang方法(Yang’s Method)超分辨的结果,图4(d)是利用本发明超分辨的结果。
从图4可见,本发明方法能把向日葵的花瓣真实、自然的进行超分辨,超分辨后的花瓣边缘清晰,整体效果自然,振铃效应较小,超分辨结果较好;双立方方法(Bi-cubicMethod)的超分辨结果花瓣边缘产生锯齿效应,并且图像出现过平滑现象;Qishan方法(Qishan’s Method)的超分辨结果虽然优于双立方方法(Bi-cubic Method),但是花瓣边缘仍然出现了锯齿效应和过平滑现象,超分辨结果有待提高;Yang方法(Yang’s Method)超分辨结果花瓣纹理较清晰,边界的高频信息保持较好,但是花瓣边缘产生振铃效应,超分辨结果有待提高。
从表2可见,客观评价方面,本发明的PSNR、SSIM、MSSIM值均高于前三种方法,相对于Yang方法(Yang’s Method),本发明的PSNR、SSIM、MSSIM分别提高0.923dB、0.0016、0.0105。
表2
仿真3,利用本发明方法与现有的双立方方法(Bi-cubic Method)、Qishan方法(Qishan’s Method)和Yang方法(Yang’s Method)分别对图2(c)所示的教堂(Church)图像进行超分辨,结果如图5,其中图5(a)是利用双立方方法(Bi-cubic Method)超分辨的结果,图5(b)是利用Qishan方法(Qishan’s Method)超分辨的结果,图5(c)是利用Yang方法(Yang’s Method)超分辨的结果,图5(d)是利用本发明超分辨的结果。
从图5可见,本发明方法能有效的对建筑物进行超分辨,超分辨后的建筑物整体自然、边缘明显,振铃效应较小,超分辨结果较好;双立方方法(Bi-cubicMethod)的超分辨结果与天空交界的建筑物边缘产生锯齿效应,并且建筑物出现过平滑现象;Qishan方法(Qishan’s Method)的超分辨结果虽然优于双立方方法(Bi-cubic Method),但是仍然存在上述问题,超分辨结果有待提高;Yang方法(Yang’s Method)超分辨结果建筑物较清晰,边界明显,但是边缘产生振铃效应,超分辨结果有待提高。
从表3可见,客观评价方面,本发明的PSNR、SSIM、MSSIM值均高于前三种方法,相对于Yang方法(Yang’s Method),本发明的PSNR、SSIM、MSSIM分别提高1.395dB、0.0034、0.0226。
表3
仿真4,利用本发明方法与现有的双立方方法(Bi-cubic Method)、Qishan方法(Qishan’s Method)和Yang方法(Yang’s Method)分别对图2(d)所示的斑马(Zebra)图像进行超分辨,结果如图6,其中图6(a)是利用双立方方法(Bi-cubicMethod)超分辨的结果,图6(b)是利用Qishan方法(Qishan’s Method)超分辨的结果,图6(c)是利用Yang方法(Yang’s Method)超分辨的结果,图6(d)是利用本发明超分辨的结果。
从图6可见,本发明方法能有效的对斑马进行超分辨,超分辨后的斑马黑白条纹分界清晰、边缘明显,振铃效应较小,超分辨结果较好;双立方方法(Bi-cubic Method)的超分辨结果斑马的黑白条纹分界不明显,斑马整体比较模糊;Qishan方法(Qishan’sMethod)的超分辨结果虽然优于双立方方法(Bi-cubic Method),但是黑白条纹的边界出现锯齿效应,超分辨结果有待提高;Yang方法(Yang’s Method)超分辨结果斑马黑白条纹边界较明显,但是产生振铃效应,超分辨结果有待提高。
从表4可见,客观评价方面,本发明的PSNR、SSIM、MSSIM值均高于前三种方法,相对于Yang方法(Yang’s Method),本发明的PSNR、SSIM、MSSIM分别提高1.028dB、0.0031、0.0195。
表4
Claims (2)
1.一种基于字典学习和非局部总变差的图像超分辨方法,其特征在于包括如下步骤:
步骤1.训练字典
输入一个图像训练集,在该图像训练集中提取n对图像块,80000<n<120000,利用KSVD算法,求解训练一个高分辨字典Dh和一个低分辨字典Dl,训练公式如下:
其中,Xh代表高分辨图像块矩阵,Xl表示低分辨图像块矩阵,Z表示稀疏系数,zi表示稀疏系数的第i列,M和N分别表示高分辨和低分辨图像块矩阵维数的矢量形式,ε为稀疏度控制系数;
步骤2.稀疏表示低分辨输入图像,求得稀疏系数α
输入单帧低分辨图像Yl,使用步骤1中训练得到的低分辨字典Dl,利用公式对该低分辨图像在低分辨字典中进行稀疏表示,求得稀疏系数α,上式中,L表示特征提取算子,用来提取图像特征,δ为误差阈值;
步骤3.重构高分辨图像
利用步骤1中训练得到的高分辨字典Dh和步骤2中求得稀疏系数α,重构得到高分辨图像
步骤4.利用非局部总变差去振铃效应
对步骤3中重构得到的高分辨图像Y0 h利用下式进行非局部总变差去振铃效应:
其中,Yh表示去振铃后的高分辨图像,Y0 h表示步骤3获得的高分辨图像,λ为一个正常数,为非局部算子,d为Bergman距离辅助变量,b为迭代参数,μ>0;
步骤5.利用误差补偿,增强高频信息,得到最终高分辨图像
(5a).计算高分辨图像Yh和输入的低分辨图像Yl之间的误差e
e=Yl-S[(Yh*g)] (3)
其中,Yl表示输入的低分辨图像,Yh表示经过步骤4去振铃效应后的高分辨图像,g为高斯平滑矩阵,S为高斯下采样算子;
(5b).对步骤(5a)中计算得到的误差e上采样,对步骤4的输出图像Yh进行高频信息增强,
其中,表示输出的高分辨图像,t表示迭代次数,p表示收敛因子,控制收敛速度,↑d表示上采样函数。
2.根据权利要求1所述的基于字典学习和非局部总变差的图像超分辨方法,其特征在于:步骤1所述的利用KSVD算法训练一个高分辨字典Dh和一个低分辨字典Dl,按如下步骤进行:
(2a).在一个包含91幅图像的图像训练集中提取10万对大小为8x8的图像块,将10万对图像块分别构造成高分辨图像块矩阵Xh和低分辨图像块矩阵Xl;
(2b).对公式(1)改写如下: 其中
其中,K为字典D的列数;
(2c).使用高斯随机字典对字典D进行初始化,固定字典D,对字典D的任意列稀疏系数zi,利用i=1,2...K求得zi的最优近似解;
(2d).固定步骤(2c)的稀疏系数zi,求出稀疏表示误差其中,di为字典D的第i列原子,为X的第i行,K为字典D的总列数,Ek为不使用D的第k列原子进行稀疏表示所产生的误差,对该误差进行奇异值分解得到Ek=UΔVT,其中U为左奇异矩阵,VT为右奇异矩阵,Δ为奇异值矩阵,用左奇异矩阵U的第一列更新字典D的第k列dk;
(2e).重复迭代步骤(2c)和(2d),对字典D中所有的原子进行更新,最终训练得到一个大小为81x1024的高分辨字典Dh和一个大小为144x1024的低分辨字典Dl。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210596586.3A CN103136728B (zh) | 2012-12-14 | 2012-12-14 | 基于字典学习和非局部总变差的图像超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210596586.3A CN103136728B (zh) | 2012-12-14 | 2012-12-14 | 基于字典学习和非局部总变差的图像超分辨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103136728A CN103136728A (zh) | 2013-06-05 |
CN103136728B true CN103136728B (zh) | 2015-09-02 |
Family
ID=48496524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210596586.3A Expired - Fee Related CN103136728B (zh) | 2012-12-14 | 2012-12-14 | 基于字典学习和非局部总变差的图像超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103136728B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324923A (zh) * | 2013-07-11 | 2013-09-25 | 上海理工大学 | 基于稀疏表示的手写字符识别方法 |
CN103390266B (zh) * | 2013-07-31 | 2016-05-18 | 广东威创视讯科技股份有限公司 | 一种图像超分辨率方法和装置 |
CN104063855B (zh) * | 2014-05-28 | 2017-01-04 | 北京大学深圳研究生院 | 一种基于分类字典库的超分辨率图像重构方法及装置 |
CN104851116A (zh) * | 2015-05-21 | 2015-08-19 | 广东中烟工业有限责任公司 | 一种近红外光谱数据压缩方法、装置及系统 |
CN105551005B (zh) * | 2015-12-30 | 2018-12-04 | 南京信息工程大学 | 耦合了梯度保真项的总变差模型快速图像复原方法 |
CN106981047A (zh) * | 2017-03-24 | 2017-07-25 | 武汉神目信息技术有限公司 | 一种从低分辨率人脸恢复高分辨率人脸的方法 |
CN109724951A (zh) * | 2017-10-27 | 2019-05-07 | 黄晓淳 | 一种动态超分辨荧光成像技术 |
CN109345548B (zh) * | 2018-10-23 | 2021-08-13 | 江南大学 | 一种基于总变差的织物疵点分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950365A (zh) * | 2010-08-30 | 2011-01-19 | 西安电子科技大学 | 基于ksvd字典学习的多任务超分辨率图像重构方法 |
CN102156875A (zh) * | 2011-03-25 | 2011-08-17 | 西安电子科技大学 | 基于多任务ksvd字典学习的图像超分辨率重构方法 |
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070103595A1 (en) * | 2005-10-27 | 2007-05-10 | Yihong Gong | Video super-resolution using personalized dictionary |
-
2012
- 2012-12-14 CN CN201210596586.3A patent/CN103136728B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950365A (zh) * | 2010-08-30 | 2011-01-19 | 西安电子科技大学 | 基于ksvd字典学习的多任务超分辨率图像重构方法 |
CN102156875A (zh) * | 2011-03-25 | 2011-08-17 | 西安电子科技大学 | 基于多任务ksvd字典学习的图像超分辨率重构方法 |
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
Non-Patent Citations (2)
Title |
---|
Coupled Dictionary Training for Image Super-Resolution;Jianchao Yang et al.;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20120831;第21卷(第8期);3467-3478 * |
路锦正,张启衡,徐智勇,彭真明.超完备稀疏表示的图像超分辨率重构方法.《系统工程与电子技术》.2012,第34卷(第2期), * |
Also Published As
Publication number | Publication date |
---|---|
CN103136728A (zh) | 2013-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103136728B (zh) | 基于字典学习和非局部总变差的图像超分辨方法 | |
CN103400402B (zh) | 基于低秩结构稀疏的压缩感知mri图像重建方法 | |
CN101950365B (zh) | 基于ksvd字典学习的多任务超分辨率图像重构方法 | |
CN103077511B (zh) | 基于字典学习和结构相似的图像超分辨率重建方法 | |
CN104778671B (zh) | 一种基于sae和稀疏表示的图像超分辨率方法 | |
CN103295196B (zh) | 基于非局部字典学习和双正则项的图像超分辨率重建方法 | |
CN106204449A (zh) | 一种基于对称深度网络的单幅图像超分辨率重建方法 | |
CN103077505B (zh) | 基于字典学习和结构聚类的图像超分辨率重建方法 | |
CN104008539B (zh) | 基于多尺度几何分析的图像超分辨率重建方法 | |
CN102800076B (zh) | 基于双字典学习的图像超分辨重建方法 | |
CN106952228A (zh) | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 | |
CN103020909B (zh) | 基于多尺度结构自相似与压缩感知的单图像超分辨率方法 | |
CN105844590A (zh) | 基于稀疏表示的图像超分辨率重建方法及系统 | |
CN105046672A (zh) | 一种图像超分辨率重建方法 | |
CN103037212B (zh) | 基于视觉感知的自适应块压缩传感图像编码方法 | |
CN111127325B (zh) | 基于循环神经网络的卫星视频超分辨率重建方法及系统 | |
CN104751472A (zh) | 基于b样条小波和深度神经网络的织物疵点检测方法 | |
CN106952317A (zh) | 基于结构稀疏的高光谱图像重建方法 | |
CN109035146A (zh) | 一种基于深度学习的低质量图像超分方法 | |
CN105139339A (zh) | 基于多级滤波和样本匹配的偏振图像超分辨率重建方法 | |
CN104867119A (zh) | 基于低秩矩阵重建的结构性缺失图像填充方法 | |
CN105550989A (zh) | 基于非局部高斯过程回归的图像超分辨方法 | |
CN104299193B (zh) | 一种基于高频和中频信息的图像超分辨率重建方法 | |
CN104036482B (zh) | 一种基于字典渐近更新的人脸图像超分辨率方法 | |
CN103279959A (zh) | 一种二维分析稀疏模型、其字典训练方法和图像去噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150902 Termination date: 20201214 |