CN107292316A - 一种基于稀疏表示的提升图像清晰度的方法 - Google Patents
一种基于稀疏表示的提升图像清晰度的方法 Download PDFInfo
- Publication number
- CN107292316A CN107292316A CN201710397773.1A CN201710397773A CN107292316A CN 107292316 A CN107292316 A CN 107292316A CN 201710397773 A CN201710397773 A CN 201710397773A CN 107292316 A CN107292316 A CN 107292316A
- Authority
- CN
- China
- Prior art keywords
- sparse
- msub
- images
- image
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 8
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 abstract description 8
- 230000000694 effects Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于稀疏表示的提升图像清晰度的方法,输入两幅源图像分别进行低秩分解;利用字典学习模型对选用的图像集进行训练;利用稀疏表示方法对低秩部分图像和稀疏部分图像进行稀疏融合,接着对低秩融合图像和稀疏融合图像分别采用正交匹配追踪算法求解得到两部分图像对应的稀疏系数;将低秩字典与求得的稀疏系数进行线性组合,得到组合后的图像;接着利用稀疏表示方法对组合后的图像进行稀疏重构,得到重构图像;接着对重构图像采用正交匹配追踪算法求解得到稀疏系数;把得到的稀疏系数与两个字典进行稀疏表达得到融合图像。本发明不管是从主观视觉上还是客观评价指标上来看实验结果,本发明的融合结果明显优于其他传统的方法。
Description
技术领域
本发明涉及一种基于稀疏表示的提升图像清晰度的方法,属于图像处理领域。
背景技术
在图像处理领域,图像高分辨率重建技术是一项很有发展前景的研究,近些年来图像高分辨率重建技术得到越来越多的研究者们的注意力,很多的研究者提出了很多的图像高分辨率重建技术方法。所谓的图像高分辨率重建技术就是利用一组低质量、低分辨率图像(或运动序列)来产生单幅高质量、高分辨率图像。图像高分辨率重建应用领域及其宽广,在军事,医学,公共安全,计算机视觉等方面都存在着重要的应用前景。目前高分辨率技术主要有以下两大类:基于重建的方法、基于学习的方法。其中,基于重建的高分辨率方法的基础是均衡及非均衡采样定理。它假设低分辨率的输入采样信号(图像)能很好地预估出原始的高分辨率信号(图像)。其次,基于学习的方法是近年来高分辨率算法研究中的热点,它采用大量的高分辨率图像构造学习库产生学习模型,在对低分辨率图像进行恢复的过程中引入由学习模型获得的先验知识,以得到图像的高频细节,获得较好的图像恢复效果。
通常在现实中的数字图像在数字化和传输过程中易受到成像设备与外部环境噪声干扰等影响,称为含噪图像或噪声图像。减少数字图像中噪声的过程称为图像去噪。想要去除噪音首先的知道噪声的来源和种类。通常这些噪声可能在传输中产生,也可能在量化等处理中产生。按照噪声和信号的关系可将其分为三种形式:1)加性噪声,2)乘性噪声,3)量化噪声。常见的去噪方法包括:均值滤波器、自适应维纳滤波器、中值滤波器、形态学噪声滤除器、小波去噪。
迄今为止,还没有一种技术同时具备图像融合和高分辨率图像重建及图像去噪功能,使得最终融合图像效果保留了源图像丰富的细节信息。
发明内容
本发明提供了一种基于稀疏表示的提升图像清晰度的方法,以用于获得更好融合质量图像。
本发明的技术方案是:一种基于稀疏表示的提升图像清晰度的方法,所述方法的具体步骤如下:
Step1、输入两幅源图像A、B分别进行低秩分解,分别得到稀疏部分图像A1、B1和低秩部分图像A2、B2;其中,A1、B1分别表示源图像A的稀疏部分图像、低秩部分图像,A2、B2分别表源图像B的稀疏部分图像、低秩部分图像;
Step2、利用字典学习模型对选用的图像集Y进行训练,得到低秩字典DL和稀疏字典DS;
Step3、利用稀疏表示方法对低秩部分图像A1、B1和稀疏部分图像A2、B2进行稀疏融合,分别得到低秩融合图像A1B1和稀疏融合图像A2B2;接着对低秩融合图像A1B1和稀疏融合图像A2B2分别采用正交匹配追踪算法求解得到两部分图像对应的稀疏系数ZL、ZS;其中,ZL表示低秩融合图像的稀疏系数、ZS表示稀疏融合图像的稀疏系数;
Step4、将步骤Step2学习得到的低秩字典DHL与步骤Step3求得的稀疏系数ZL进行线性组合,得到组合后的图像A3,将步骤Step2学习得到的稀疏字典DHS与步骤Step3求得的稀疏系数ZS进行线性组合,得到组合后的图像B3;接着利用稀疏表示方法对A3、B3进行稀疏重构,得到重构图像A3B3;接着对重构图像A3B3采用正交匹配追踪算法求解得到稀疏系数α;
Step5、把步骤Step4得到的稀疏系数α与步骤Step2两个字典DL和DS进行稀疏表达得到融合图像。
所述字典学习模型为:
s.t.||ZS||0≤T0,||ZL||0≤T1
其中,Y表示为图像集,DL、DS分别表示为低秩字典、稀疏字典,ZL、ZS分别表示低秩融合图像的稀疏系数、稀疏融合图像的稀疏系数,|| ||1表示1范数,|| ||2表示2范数,|| ||F表示Frobenius范数,|| ||w,*表示加权核范数,|| ||*表示为核范数,T0、T1表示阈值,||||w,*表示加权核范数。
本发明的有益效果是:本发明提出的基于稀疏表示的提升图像清晰度的方法,它运用矩阵低秩分解和稀疏表示理论,通过新颖的字典学习模型,得到高分辨率的低秩和稀疏字典,这使得最终融合图像效果保留了源图像丰富的细节信息、细节很加清晰,不管是从主观视觉上还是客观评价指标上来看实验结果,本发明的融合结果明显优于其他传统的方法。
附图说明
图1为本发明实施例流程图;
图2为本发明字典学习实施例流程图;
图3为CT和MRI源图像及带噪声图像(从左到右);
图4为H.Yin,et al方法在不同噪声水平nSig=10,30,50,100(从左到右)下结果;(nSig表示噪声水平)
图5为H.Li,et al方法在不同噪声水平nSig=10,30,50,100(从左到右)下结果;
图6为SR方法在不同噪声水平nSig=10,30,50,100(从左到右)下结果;
图7本发明方法在不同噪声水平nSig=10,30,50,100(从左到右)下结果。
图8为训练字典的高分辨率源图像集;
图9分别为H.Yin,et al(图9(a)),H.Li,et al(图9(b)),SR(图9(c)),本发明方法(图9(d)的高分辨率图像重建和图像融合结果。
图10为不同方法在不同噪声水平下的信噪比统计。
具体实施方式
实施例1:一种基于稀疏表示的提升图像清晰度的方法,所述方法的具体步骤如下:
Step1、输入两幅像素大小为256×256的CT和MRI图像(如图3(a)、3(b)),分别进行低秩分解,分别得到稀疏部分图像和低秩部分图像;(即CT图像分解后得到一幅低秩部分图像A1和一幅稀疏部分图像A2,MRI图像分解后得到一幅低秩部分图像B1和一幅稀疏部分图像B2);
Step2、利用字典学习模型对选用的图像集Y(如图8所示,采用高分辨率非医学图像集,该实施例选用了6幅图构建图像集)进行训练,得到低秩字典DL和稀疏字典DS;所述字典学习模型为:
s.t.||ZS||0≤T0,||ZL||0≤T1
其中,Y表示为图像集,DL、DS分别表示为低秩字典、稀疏字典,ZL、ZS分别表示低秩融合图像的稀疏系数、稀疏融合图像的稀疏系数,|| ||1表示1范数(矩阵元素的绝对值之和),|| ||2表示2范数(就是通常意义上的模),|| ||F表示Frobenius范数(即矩阵元素绝对值的平方和再开平方),|| ||w,*表示加权核范数,|| ||*表示为核范数(即奇异值之和),T0=0.0001、T1=0.0001表示阈值,|| ||w,*表示加权核范数。(源图像大小为n1×n2,则DL、DS大小为n1×n3,ZL、ZS大小为n3×n2;本例中,源图像大小为256×256,得到的DL、DS大小为256×256,ZL、ZS大小为256×256)。
Step3、利用稀疏表示方法对低秩部分图像A1、B1和稀疏部分图像A2、B2进行稀疏融合,分别得到低秩融合图像A1B1和稀疏融合图像A2B2;接着对低秩融合图像A1B1和稀疏融合图像A2B2分别采用正交匹配追踪算法求解得到两部分图像对应的稀疏系数ZL、ZS;其中,ZL表示低秩融合图像的稀疏系数、ZS表示稀疏融合图像的稀疏系数;
Step4、将步骤Step2学习得到的低秩字典DHL与步骤Step3求得的稀疏系数ZL进行线性组合,得到组合后的图像A3,将步骤Step2学习得到的稀疏字典DHS与步骤Step3求得的稀疏系数ZS进行线性组合,得到组合后的图像B3;接着利用稀疏表示方法对A3、B3进行稀疏重构,得到重构图像A3B3;接着对重构图像A3B3采用正交匹配追踪算法求解得到稀疏系数α;
Step5、把步骤Step4得到的稀疏系数α与步骤Step2两个字典DL和DS进行稀疏表达得到融合图像,如图9(d)所示,另图9(a)为H.Yin,et al,图9(b)为H.Li,et al,图9(c)SR为方法的结果,从整体上可以看出,H.Yin,et al,H.Li,et al和SR和本发明提出方法相比,其余方法的融合结果对比度和清晰度较低;除了本发明提出方法的融合图像完整保留细节特征之外,其他方法下的融合效果都或多或少丢失了本该特有的细节特征。
实施例2:一种基于稀疏表示的提升图像清晰度的方法,所述方法的具体步骤如下:
Step1、输入两幅带噪声的像素大小为256×256的CT和MRI图像(如图3(c)、3(d)),分别进行低秩分解,分别得到稀疏部分图像和低秩部分图像;(即CT图像分解后得到一幅低秩部分图像A1和一幅稀疏部分图像A2,MRI图像分解后得到一幅低秩部分图像B1和一幅稀疏部分图像B2);
Step2、利用字典学习模型对选用的图像集Y(如图8所示,采用高分辨率非医学图像集,该实施例选用了6幅图构建)进行训练,得到低秩字典DL和稀疏字典DS;所述字典学习模型为:
s.t.||ZS||0≤T0,||ZL||0≤T1
其中,Y表示为图像集,DL、DS分别表示为低秩字典、稀疏字典,ZL、ZS分别表示低秩融合图像的稀疏系数、稀疏融合图像的稀疏系数,|| ||1表示1范数,|| ||2表示2范数,|| ||F表示Frobenius范数,|| ||w,*表示加权核范数,|| ||*表示为核范数,T0=0.001、T1=0.001表示阈值,|| ||w,*表示加权核范数。(源图像大小为n1×n2,则DL、DS大小为n1×n3,ZL、ZS大小为n3×n2;本例中,源图像大小为256×256,得到的DL、DS大小为256×256,ZL、ZS大小为256×256)。
Step3、利用稀疏表示方法对低秩部分图像A1、B1和稀疏部分图像A2、B2进行稀疏融合,分别得到低秩融合图像A1B1和稀疏融合图像A2B2;接着对低秩融合图像A1B1和稀疏融合图像A2B2分别采用正交匹配追踪算法求解得到两部分图像对应的稀疏系数ZL、ZS;其中,ZL表示低秩融合图像的稀疏系数、ZS表示稀疏融合图像的稀疏系数;
Step4、将步骤Step2学习得到的低秩字典DHL与步骤Step3求得的稀疏系数ZL进行线性组合,得到组合后的图像A3,将步骤Step2学习得到的稀疏字典DHS与步骤Step3求得的稀疏系数ZS进行线性组合,得到组合后的图像B3;接着利用稀疏表示方法对A3、B3进行稀疏重构,得到重构图像A3B3;接着对重构图像A3B3采用正交匹配追踪算法求解得到稀疏系数α;
Step5、把步骤Step4得到的稀疏系数α与步骤Step2两个字典DL和DS进行稀疏表达得到融合图像,如图7所示,另图4为H.Yin,et al,图5为H.Li,et al,图6为SR方法的结果,从整体上可以看出,H.Yin,et al,H.Li,et al和SR和本发明提出方法相比,其余方法的融合结果对比度和清晰度较低;除了本发明提出方法的融合图像完整保留细节特征之外,其他方法下的融合效果都或多或少丢失了本该特有的细节特征。
除主观上对高分辨率图像重建和融合结果进行评价之外,客观评价也是必不可少的。这里我们采用互信息MI、结构相似度SSIM、空间频率SF和边缘信息度量算子QAB/F四个客观评价指标对不同方法下的高分辨率图像重建和融合效果进行评价。其中MI可评价源图像有多少信息量保留到了融合图像,QAB/F衡量融合图像中包含了多少源图像的边缘信息,SSIM则计算源图像和融合图像结构之间的相似性。不同高分辨率图像重建和融合方法的客观评价数据如表1所示,四个评价指标的数值越大说明融合效果越好。表1数据表明本发明方法在客观评价上具有较高的指标值,这从客观上也证明了本发明方法是有效的。图10为不同方法在不同噪声水平下的信噪比统计。可直观看出本发明去噪效果明显优于其他方法。
统而言之,本发明提出的基于稀疏表示的提升图像清晰度的方法,运用矩阵低秩分解和稀疏表示理论,使得最终融合图像效果保留了源图像丰富的细节信息、细节很加清晰。
表1:不同高分辨率图像重建和融合方法的客观评价数据
方法\评价指标 | MI | SSIM | SF | QAB/F |
本发明 | 8.856 | 0.688 | 22.952 | 0.665 |
尹树涛等人[1] | 8.602 | 0.625 | 19.884 | 0.719 |
李华锋等人[2] | 7.621 | 0.598 | 15.986 | 0.682 |
稀疏表示方法[3] | 7.121 | 0.589 | 19.875 | 0.598 |
[1]H.Yin,et al.,Simultaneous image fusion and super-resolution usingsparse representation,Information Fusion 14(2013)229-240.
[2]H.Li,et al.,Fractional differential and variational method forimage fusion and super-resolution,Neurocomputing(2015).http://dx.doi.org/10.1016/j.neucom.2015.06.035.
[3]J.Mairal,M.Elad,G.Sapiro,Sparse representation for color imagerestoration,IEEE Trans.Image Process.17(1)(2008)53–69.
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (2)
1.一种基于稀疏表示的提升图像清晰度的方法,其特征在于:所述方法的具体步骤如下:
Step1、输入两幅源图像A、B分别进行低秩分解,分别得到稀疏部分图像A1、B1和低秩部分图像A2、B2;其中,A1、B1分别表示源图像A的稀疏部分图像、低秩部分图像,A2、B2分别表源图像B的稀疏部分图像、低秩部分图像;
Step2、利用字典学习模型对选用的图像集Y进行训练,得到低秩字典DL和稀疏字典DS;
Step3、利用稀疏表示方法对低秩部分图像A1、B1和稀疏部分图像A2、B2进行稀疏融合,分别得到低秩融合图像A1B1和稀疏融合图像A2B2;接着对低秩融合图像A1B1和稀疏融合图像A2B2分别采用正交匹配追踪算法求解得到两部分图像对应的稀疏系数ZL、ZS;其中,ZL表示低秩融合图像的稀疏系数、ZS表示稀疏融合图像的稀疏系数;
Step4、将步骤Step2学习得到的低秩字典DHL与步骤Step3求得的稀疏系数ZL进行线性组合,得到组合后的图像A3,将步骤Step2学习得到的稀疏字典DHS与步骤Step3求得的稀疏系数ZS进行线性组合,得到组合后的图像B3;接着利用稀疏表示方法对A3、B3进行稀疏重构,得到重构图像A3B3;接着对重构图像A3B3采用正交匹配追踪算法求解得到稀疏系数α;
Step5、把步骤Step4得到的稀疏系数α与步骤Step2两个字典DL和DS进行稀疏表达得到融合图像。
2.根据权利要求1所述的基于稀疏表示的提升图像清晰度的方法,其特征在于:所述字典学习模型为:
<mrow>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<mo>,</mo>
<msub>
<mi>D</mi>
<mi>S</mi>
</msub>
<mo>,</mo>
<msub>
<mi>Z</mi>
<mi>L</mi>
</msub>
<mo>,</mo>
<msub>
<mi>Z</mi>
<mi>S</mi>
</msub>
</mrow>
</munder>
<mrow>
<mo>{</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<msub>
<mi>Z</mi>
<mi>L</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>S</mi>
</msub>
<msub>
<mi>Z</mi>
<mi>S</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>Z</mi>
<mi>L</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>1</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>Z</mi>
<mi>S</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>1</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>S</mi>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mrow>
<mi>w</mi>
<mo>,</mo>
<mo>*</mo>
</mrow>
</msub>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mo>*</mo>
</msub>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>S</mi>
</msub>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
s.t.||ZS||0≤T0,||ZL||0≤T1
其中,Y表示为图像集,DL、DS分别表示为低秩字典、稀疏字典,ZL、ZS分别表示低秩融合图像的稀疏系数、稀疏融合图像的稀疏系数,||||1表示1范数,||||2表示2范数,||||F表示Frobenius范数,||||w,*表示加权核范数,||||*表示为核范数,T0、T1表示阈值,||||w,*表示加权核范数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710397773.1A CN107292316B (zh) | 2017-05-31 | 2017-05-31 | 一种基于稀疏表示的提升图像清晰度的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710397773.1A CN107292316B (zh) | 2017-05-31 | 2017-05-31 | 一种基于稀疏表示的提升图像清晰度的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107292316A true CN107292316A (zh) | 2017-10-24 |
CN107292316B CN107292316B (zh) | 2020-08-25 |
Family
ID=60094756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710397773.1A Active CN107292316B (zh) | 2017-05-31 | 2017-05-31 | 一种基于稀疏表示的提升图像清晰度的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107292316B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038852A (zh) * | 2017-12-14 | 2018-05-15 | 天津师范大学 | 一种基于联合稀疏表示的图像融合质量评价方法 |
CN108198147A (zh) * | 2018-01-02 | 2018-06-22 | 昆明理工大学 | 一种基于判别字典学习的多源图像融合去噪的方法 |
CN109003256A (zh) * | 2018-06-13 | 2018-12-14 | 天津师范大学 | 一种基于联合稀疏表示的多聚焦图像融合质量评价方法 |
CN110009047A (zh) * | 2019-04-09 | 2019-07-12 | 哈尔滨理工大学 | 一种基于改进稀疏表示的人耳图像识别方法 |
CN112561842A (zh) * | 2020-12-07 | 2021-03-26 | 昆明理工大学 | 基于字典学习的多源受损图像融合与恢复联合实现方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130191425A1 (en) * | 2012-01-20 | 2013-07-25 | Fatih Porikli | Method for Recovering Low-Rank Matrices and Subspaces from Data in High-Dimensional Matrices |
CN103761537A (zh) * | 2014-02-07 | 2014-04-30 | 重庆市国土资源和房屋勘测规划院 | 基于低秩优化特征字典模型的图像分类方法 |
CN104077761A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 基于自适应稀疏表示的多聚焦图像融合方法 |
CN104318261A (zh) * | 2014-11-03 | 2015-01-28 | 河南大学 | 一种图嵌入低秩稀疏表示恢复稀疏表示人脸识别方法 |
CN105825477A (zh) * | 2015-01-06 | 2016-08-03 | 南京理工大学 | 基于多字典学习与非局部信息融合的遥感图像超分辨率重建方法 |
-
2017
- 2017-05-31 CN CN201710397773.1A patent/CN107292316B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130191425A1 (en) * | 2012-01-20 | 2013-07-25 | Fatih Porikli | Method for Recovering Low-Rank Matrices and Subspaces from Data in High-Dimensional Matrices |
CN103761537A (zh) * | 2014-02-07 | 2014-04-30 | 重庆市国土资源和房屋勘测规划院 | 基于低秩优化特征字典模型的图像分类方法 |
CN104077761A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 基于自适应稀疏表示的多聚焦图像融合方法 |
CN104318261A (zh) * | 2014-11-03 | 2015-01-28 | 河南大学 | 一种图嵌入低秩稀疏表示恢复稀疏表示人脸识别方法 |
CN105825477A (zh) * | 2015-01-06 | 2016-08-03 | 南京理工大学 | 基于多字典学习与非局部信息融合的遥感图像超分辨率重建方法 |
Non-Patent Citations (3)
Title |
---|
KAN REN ET AL: "Super-resolution images fusion via compressed sensing and low-rank matrix decomposition", 《INFRARED PHYSICS & TECHNOLOGY》 * |
RASHA IBRAHIM ET AL: "Pixel Level jointed Sparse Representation with RPCA Image Fusion Algorithm", 《2015 38TH INTERNATIONAL CONFERENCE ON TELECOMMUNICATIONS AND SIGNAL PROCESSING (TSP)》 * |
胡建文: "基于多尺度滤波和稀疏表示的图像融合方法研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038852A (zh) * | 2017-12-14 | 2018-05-15 | 天津师范大学 | 一种基于联合稀疏表示的图像融合质量评价方法 |
CN108038852B (zh) * | 2017-12-14 | 2022-03-04 | 天津师范大学 | 一种基于联合稀疏表示模型的图像融合质量评价方法 |
CN108198147A (zh) * | 2018-01-02 | 2018-06-22 | 昆明理工大学 | 一种基于判别字典学习的多源图像融合去噪的方法 |
CN108198147B (zh) * | 2018-01-02 | 2021-09-14 | 昆明理工大学 | 一种基于判别字典学习的多源图像融合去噪的方法 |
CN109003256A (zh) * | 2018-06-13 | 2018-12-14 | 天津师范大学 | 一种基于联合稀疏表示的多聚焦图像融合质量评价方法 |
CN109003256B (zh) * | 2018-06-13 | 2022-03-04 | 天津师范大学 | 一种基于联合稀疏表示的多聚焦图像融合质量评价方法 |
CN110009047A (zh) * | 2019-04-09 | 2019-07-12 | 哈尔滨理工大学 | 一种基于改进稀疏表示的人耳图像识别方法 |
CN112561842A (zh) * | 2020-12-07 | 2021-03-26 | 昆明理工大学 | 基于字典学习的多源受损图像融合与恢复联合实现方法 |
CN112561842B (zh) * | 2020-12-07 | 2022-12-09 | 昆明理工大学 | 基于字典学习的多源受损图像融合与恢复联合实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107292316B (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114140353B (zh) | 一种基于通道注意力的Swin-Transformer图像去噪方法及系统 | |
Deng et al. | Wavelet domain style transfer for an effective perception-distortion tradeoff in single image super-resolution | |
CN107292316A (zh) | 一种基于稀疏表示的提升图像清晰度的方法 | |
Dong et al. | Image deblurring and super-resolution by adaptive sparse domain selection and adaptive regularization | |
CN113516601B (zh) | 基于深度卷积神经网络与压缩感知的图像恢复方法 | |
CN110992292B (zh) | 一种增强型低秩稀疏分解模型医学ct图像去噪方法 | |
CN109523513B (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
CN109191392B (zh) | 一种语义分割驱动的图像超分辨率重构方法 | |
CN111598786B (zh) | 一种基于深度去噪自编码网络的高光谱图像解混方法 | |
CN111882485B (zh) | 分级特征反馈融合的深度图像超分辨率重建方法 | |
CN112700389B (zh) | 一种活性污泥微生物彩色显微图像去噪方法 | |
CN107085835B (zh) | 基于四元数加权核范数最小的彩色图像去噪方法 | |
CN103093433A (zh) | 基于区域划分和字典学习的自然图像去噪方法 | |
Min et al. | Blind deblurring via a novel recursive deep CNN improved by wavelet transform | |
CN105590296B (zh) | 一种基于双字典学习的单帧图像超分辨率复原方法 | |
Chen et al. | Image denoising via deep network based on edge enhancement | |
CN114926336A (zh) | 视频超分辨率重建方法、装置、计算机设备及存储介质 | |
Wang et al. | Versatile denoising-based approximate message passing for compressive sensing | |
CN104144339B (zh) | 一种基于人眼感知的质降参考立体图像质量客观评价方法 | |
CN109598707B (zh) | 一种基于特征信息处理的全参考图像质量客观评价方法 | |
CN110647891A (zh) | 基于cnn和自编码器时序数据特征自动提取方法及系统 | |
CN107590781B (zh) | 基于原始对偶算法的自适应加权tgv图像去模糊方法 | |
CN106296583A (zh) | 基于图像块组稀疏编码与成对映射的含噪高光谱图像超分辨率重构方法 | |
Zhang et al. | Sparse reconstruction method based on starlet transform for high noise astronomical image denoising | |
Tun et al. | Joint Training of Noisy Image Patch and Impulse Response of Low-Pass Filter in CNN for Image Denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210218 Address after: 650000 room 1701, 17th floor, block a, science and Technology Information Innovation Incubation Center, Chenggong District, Kunming City, Yunnan Province Patentee after: YUNNAN UNITED VISUAL TECHNOLOGY Co.,Ltd. Address before: 650093 No. 253, Xuefu Road, Wuhua District, Yunnan, Kunming Patentee before: Kunming University of Science and Technology |
|
TR01 | Transfer of patent right |