CN104915935B - 基于非线性压缩感知与字典学习的压缩光谱成像方法 - Google Patents
基于非线性压缩感知与字典学习的压缩光谱成像方法 Download PDFInfo
- Publication number
- CN104915935B CN104915935B CN201510333156.6A CN201510333156A CN104915935B CN 104915935 B CN104915935 B CN 104915935B CN 201510333156 A CN201510333156 A CN 201510333156A CN 104915935 B CN104915935 B CN 104915935B
- Authority
- CN
- China
- Prior art keywords
- mrow
- mtd
- msub
- mtr
- msubsup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000013016 learning Effects 0.000 title claims abstract description 34
- 238000001228 spectrum Methods 0.000 title claims abstract description 23
- 230000006835 compression Effects 0.000 title claims abstract description 17
- 238000007906 compression Methods 0.000 title claims abstract description 17
- 238000003384 imaging method Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 66
- 239000011159 matrix material Substances 0.000 claims abstract description 57
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims description 33
- 230000003595 spectral effect Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 11
- 230000008447 perception Effects 0.000 claims description 7
- 230000018199 S phase Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 4
- 238000005070 sampling Methods 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于非线性压缩感知与字典学习的压缩光谱成像方法,主要解决现有技术在压缩采样过程中学习到的字典与稀疏系数存在负值的问题。其实现步骤为:先把原始空间中的信号投影到特征空间上,并引入非负的条件,利用非负核追踪算法和非负矩阵分解的方法,在特征空间中进行字典学习;把学习到的字典用在非线性压缩感知模型中,通过非负核追踪算法求出稀疏系数;最后利用pre‑image方法恢复出原信号。实验结果表明:在不同的采样率下,本发明同其他现有的字典学习方法相比,其重构效果最好,可用于遥感图像获取。
Description
技术领域
本发明属于信号处理技术领域,特别涉及一种压缩光谱成像方法,可用于遥感图像获取。
背景技术
压缩感知是近年来图像处理技术领域中发展起来的一种新的采样理论,通过利用信号的稀疏特性,可在远小于传统奈奎斯特采样率的条件下,实现信息的精确恢复。目前来说,压缩感知大部分都是在线性模型下完成,因为线性模型下信号的稀疏表示简单直观。从最初的正交基字典到现在的字典学习,大量相关的研究者运用多种手段试图寻找更加合适的变换空间描述,但是始终都是停留在线性模型,因此发展缓慢。但是,在实际环境下,我们所要观测的对象往往更加复杂,通过线性的编码很难获得理想的稀疏度。而且,研究表明,许多的真实图像、高光谱图像以及动态视频图像在非线性模型下更加的稀疏。现有的字典学习方法,例如KSVD方法,最终求得的稀疏系数和字典总是存在一些负值。对于非负的信号和字典,负值不能反映原信号的真实信息。在大多数情况下,求得的字典原子可以反映训练信号的某一类特征,而目标信号就是由一系列的特征按照一定的权值叠加来表示的。Hanchao Qi和Shannon Hughes等人提出了一种基于核技巧的压缩感知方法,将观测的过程和恢复重构过程映射到核空间上。这种方法虽说能以更低的采样速率、较少的测量值实现更好的重构效果,但是,由于学习到的字典存在负值,故对于非负的图像、语音信号,存在信息误差和信息损失,不能很好地完整表达原信号,使得重构出的信号和原信号相比,视觉上的误差较大,PSNR较小,恢复效果较差。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种基于非线性压缩感知与字典学习的压缩光谱成像方法,以减小重构误差,提高图像重构恢复效果。
本发明的技术方案是,通过非线性核函数,把原始空间中的信号投影到特征空间上,并在特征空间中进行字典学习,引入非负的条件,即就是利用非负核追踪算法和非负矩阵分解的方法,进行非负核字典学习,再通过核压缩感知的方法实现非线性压缩感知光谱成像。其实现步骤包括如下:
(1)获取三组大小均为145×145的高光谱图像,从每组高光谱图像的第16个谱段开始,依次选取n个谱段的图像作为训练样本yj,用双线性插值把样本图像缩小为大小为72×72的图像,并把每幅图像拉成列向量,组成大小为5184×n的训练样本矩阵Y=[y1,y2,…,yj,…,yn],j=1,2,…,n;
(2)利用训练样本yj训练字典,采用非负核追踪算法和非负矩阵分解的方法求出非负核字典,记为D;
(3)把三组高光谱图像的第10个谱段的图像作为测试图像,用双线性插值把每幅图像缩小为72×72的图像,并把其拉成列向量,分别记为e1,e2,e3;
(4)生成大小为5184×5184的高斯随机矩阵,作为观测矩阵,记为Φ0;
(5)得出最终观测矩阵Φ:
5a)设采样率为S,将初始观测矩阵Φ0的行数5184与采样率S相乘,
并在乘积的无穷大方向取整,记为S0;
5b)对初始观测矩阵Φ0的前S0行进行归一化,得到观测矩阵Φ;
(6)根据上述(2)所求的字典D和(5)所求的观测矩阵Φ,对(3)中的三幅测试图像e1,e2,e3进行非线性压缩成像;
(7)利用pre-image方法重构出原图像
本发明与现有的技术相比有以下优点:
1,本发明提出非负核追踪算法,使得字典学习过程和原图像重构过程求得的稀疏系数均不存在负值,这种非负的稀疏系数能够更加完整的表示原图像。
2,本发明采用非负核追踪算法与非负矩阵分解结合的方法进行字典学习,使得学习到的字典不存在负值,且能更加完整地反映原图像的特征。
附图说明
图1是本发明的实现流程图;
图2是用本发明方法和现有字典学习方法在采样率为10%时对测试图像IndianPines的重构效果对比图;
图3是用本发明方法和现有字典学习方法在采样率为10%时对测试图像Moffet的重构效果对比图;
图4是用本发明方法和现有字典学习方法在采样率为10%时对测试图像WashtonDC的重构效果对比图。
具体实施方法
参照图1,本发明的具体实现步骤如下:
步骤1.构建训练样本矩阵。
获取三组大小均为145×145的高光谱图像,从每组高光谱图像的第16个谱段开始,依次选取n个谱段的图像作为训练样本yj,用双线性插值把这些训练样本图像缩小为大小为72×72的图像,并把每幅图像拉成列向量,组成大小为5184×n的训练样本矩阵:Y=[y1,y2,…,yj,…,yn],j=1,2,…,n,n为训练样本数。
步骤2.利用训练样本yj训练字典。
现有训练字典的方法有KKSVD、KPCA、KMOD等,本发明采用非负核追踪算法和非负矩阵分解的方法训练字典,求出非负核字典D,其步骤如下:
2a)选择核函数为多项式核函数k(x,y)=(x·y+0.5)5,计算训练样本矩阵Y的格拉姆矩阵,并对其在特征空间中归一化,结果记为K(Y,Y);
2b)随机初始化大小为n×m的字典D,使其在一些位置为1,其他位置均为0,其中原子数m=20;
2c)设初始迭代次数h0=1,最大迭代次数h=100,固定字典D,进入非负稀疏编码阶段,在此阶段利用非负核追踪算法求出稀疏系数向量Q,其中字典D和稀疏系数向量Q满足约束条件f表示把信号或样本映射到特征空间,||||F表示Frobenius范数;
2d)设初始循环次数s=1,索引集将三组高光谱图像的稀疏度,分别设为T1=10,T2=7,T3=12,训练样本yj的初始估计值
2e)计算第s次循环的残差rs在未选中的字典原子上的投影系数Ot,即
其中,<,>表示求括号内两项的内积,()T表示求矩阵的转置,残差为特征空间中的字典原子,dt是字典D的第t个字典原子,D=[d1,d2,…,dt,…,dm],t=1,2,…,m,表示yj的当前估计值,选择投影系数最大的原子,把其对应的索引tmax添加到索引集I中来更新索引集,即I=[I,tmax],计算投影系数Ot的过程中,未选中的字典原子dt对应的下标t不属于索引集;
2f)把更新后的索引集所对应字典D的列向量构成的子矩阵记为DIs,利用最小二乘法,计算在第s次循环中训练样本yj在子矩阵DIs上的稀疏系数qs:
其中,表示求矩阵的伪逆,()-1表示对矩阵求逆;
2g)根据求得的稀疏系数qs的正负值,确定是否保留本次循环所求得的系数qs:若稀疏表示系数qs为负值,则抛弃本次循环选中的原子,且循环次数s不变;若稀疏表示系数qs不是负值,则把求得的系数qs添加到系数向量Q中,循环次数加1,即s=s+1,利用公式更新训练样本yj的当前估计值
2h)判断循环次数s是否满足s>Ti,如果不满足,重复步骤2d)到步骤2g),如果满足,停止循环,即非负稀疏编码结束,得出最终的稀疏系数向量Q',执行步骤2i);
2i)非负稀疏编码结束后,进入非负字典更新阶段,固定最终的稀疏系数向量Q',通过非负矩阵分解的方法,先利用如下更新公式不断循环更新字典的每一项Dlt,l=1,…,n,t=1,…,m:
再对每一列D:t进行归一化,得到字典D:
其中,I为单位向量,←表示用右边的项来更新左边的项,||||表示对矩阵取模;
2j)更新完成后,迭代次数加1,即h0=h0+1;
2k)判断迭代次数h0是否满足h0>h,如果不满足,重复步骤2c)到步骤2j),如果满足,停止迭代,得到最终学习的字典D。
步骤3.获取测试图像。
把三组高光谱图像的第10个谱段的图像作为测试图像,用双线性插值把每幅图像缩小为72×72的图像,并把其拉成列向量,分别记为e1,e2,e3。
步骤4.随机生成大小为5184×5184的高斯随机矩阵,作为初始观测矩阵Φ0。
步骤5.得出最终观测矩阵。
5a)设采样率为S,将初始观测矩阵Φ0的行数5184与采样率S相乘,并在乘积的无穷大方向取整,记为S0;
5b)对初始观测矩阵Φ0的前S0行进行归一化,得到观测矩阵Φ。
步骤6.根据上述步骤2所求的字典D和步骤5所求的观测矩阵Φ,利用KCS的方法对步骤3中的三幅测试图像e1,e2,e3进行非线性压缩成像。
6a)根据压缩观测方程M=Gβ的形式,结合核函数k(x,y),测试图像ei,字典D,训练样本矩阵Y=[y1,y2,…,yj,…,yn]以及观测矩阵Φ的行向量φ1,φ2,…,φp,…,φS0,求出测量值向量M和感知矩阵G:
其中,测量值向量M的每一项表示特征空间中测试图像ei在观测矩阵Φ的第c个行向量φc上的测量值,表示第j个训练样本yj和观测矩阵Φ的第c个行向量φc在特征空间中的内积,i=1,2,3,c=1,2,…,S0;
6b)根据计算得到的测量值向量M和感知矩阵G,采用非负核追踪算法求解压缩观测方程M=Gβ,得出非负的稀疏系数向量β。
步骤7.利用pre-image方法重构出原图像。
将测试图像ei在特征空间中的稀疏表示,即f(ei)=f(Y)Dβ,带入pre-image公式,并结合稀疏系数向量β以及字典D,得到重构出的原测试图像即
其中,up表示单位正交基的第p列,p=1,2,…,w,Dβ=[c1,c2,…,cj,…,cn]T,cj表示Dβ的第j个元素,g为先前选定的多项式核函数,g-1是g的逆函数。
本发明的效果可以通过以下实验进一步说明:
1)实验条件
本实验所用的三组高光谱图像为典型的AVIRIS高光谱数据:IndianPines和Moffet,以及WashtonDC。IndianPines数据是1992年由AVIRIS传感器对印第安那州西北农业区成像所得,Moffet图像是由1992年8月由AVIRIS传感器对加利福尼亚州的Moffett地区成像所得;这两组图像都具有0.4um~2.5um波长范围内的224个光谱带,去掉所有像素为0和不透明的波段后有200个谱段,空间分辨率为20m。WashtonDC图像由HYDICE光谱仪对Washtington DC Mall地区成像而来,波长范围0.4um~0.25um,共210个谱段,预处理后选191个波段,空间分辨率2.8m,IndianPines图像的大小为145×145×200,Moffet图像的大小为145×145×200,WashtonDC图像的大小为145×145×191。
实验仿真环境:采用软件MATLAB 2012R作为仿真工具,CPU是AMD A8-5550M,主频为2.10GHz,内存4G,操作系统为Windows 7旗舰版。
从每组高光谱图像中随机抽取第10个谱段作为测试图像,取每组高光谱图像其他谱段的图像作为训练样本。实验中用到的观测矩阵均为同一个高斯随机矩阵。
2)仿真内容
仿真1:在0.1%~40%的不同采样率下,分别采用本发明方法与现有的KPCA字典学习、KMOD字典学习以及KKSVD字典学习的方法对测试图像进行压缩感知仿真实验,实验结果如表1所示。
表1不同采样率下各种方法的实验对比
从表1可以看出,随着采样率的不断提高,不同方法的PSNR都呈阶梯状提高,说明重构效果都在稳步提升,但是本发明方法提升幅度最大。在相同的采样率下,本发明方法的PSNR最高,重构效果最好。
仿真2:在10%的采样率下,分别采用本发明方法与现有的KPCA字典学习、KMOD字典学习以及KKSVD字典学习的方法对测试图像IndianPines进行压缩感知仿真实验,实验结果如图2所示,其中:
图2(a)是测试图像IndianPines第10谱段的原始图像;
图2(b)是采用KPCA字典学习方法的重构图像,其PSNR为32.2538dB;
图2(c)是采用KMOD字典学习方法的重构图像,其PSNR为31.9325dB;
图2(d)是采用KKSVD字典学习方法的重构图像,其PSNR为32.7816dB;
图2(e)是采用本发明方法的重构图像,其PSNR为34.6006dB。
仿真3:在10%的采样率下,分别采用本发明方法与现有的KPCA字典学习、KMOD字典学习以及KKSVD字典学习的方法对测试图像Moffet进行压缩感知仿真实验,实验结果如图3所示,其中:
图3(a)是测试图像Moffet第10谱段的原始图像;
图3(b)是采用KPCA字典学习方法的重构图像,其PSNR为27.5802dB;
图3(c)是采用KMOD字典学习方法的重构图像,其PSNR为34.4791dB;
图3(d)是采用KKSVD字典学习方法的重构图像,其PSNR为32.6329dB;
图3(e)是采用本发明方法的重构图像,其PSNR为38.1656dB。
仿真4:在10%的采样率下,分别采用本发明方法与现有的KPCA字典学习、KMOD字典学习以及KKSVD字典学习的方法对测试图像WashtonDC进行压缩感知仿真实验,实验结果如图4所示,其中:
图4(a)是测试图像WashtonDC第10谱段的原始图像;
图4(b)是采用KPCA字典学习方法的重构图像,其PSNR为30.5873dB;
图4(c)是采用KMOD字典学习方法的重构图像,其PSNR为33.4782dB;
图4(d)是采用KKSVD字典学习方法的重构图像,其PSNR为32.6932dB;
图4(e)是采用本发明方法的重构图像,其PSNR为35.7759dB。
从图2、图3和图4的实验结果可以看出,KPCA、KMOD、KKSVD和本发明方法都能够比较精确的重构出原图像;在相同的采样率下,与KPCA、KMOD、KKSVD的方法相比,无论是视觉效果,还是PSNR,本发明方法的重构效果最好。
Claims (4)
1.一种基于非线性压缩感知与字典学习的压缩光谱成像方法,包括如下步骤:
(1)获取三组大小均为145×145的高光谱图像,从每组高光谱图像的第16个谱段开始,依次选取n个谱段的图像作为训练样本yj,用双线性插值把样本图像缩小为大小为72×72的图像,并把每幅图像拉成列向量,组成大小为5184×n的训练样本矩阵Y=[y1,y2,...,yj,...,yn],j=1,2,...,n;
(2)利用训练样本yj训练字典,采用非负核追踪算法和非负矩阵分解的方法求出非负核字典,记为D;
(3)把三组高光谱图像的第10个谱段的图像作为测试图像,用双线性插值把每幅图像缩小为72×72的图像,并把其拉成列向量,分别记为e1,e2,e3;
(4)随机生成大小为5184×5184的高斯随机矩阵,作为观测矩阵Φ0;
(5)得出最终观测矩阵Φ;
5a)设采样率为S,将初始观测矩阵Φ0的行数5184与采样率S相乘,并在乘积的无穷大方向取整,记为S0;
5b)对初始观测矩阵Φ0的前S0行进行归一化,得到观测矩阵Φ;
(6)根据上述(2)所求的字典D和(5)所求的观测矩阵Φ,对(3)中的三幅测试图像e1,e2,e3进行非线性压缩成像;
(7)利用pre-image方法重构出原图像
2.根据权利要求1所述的方法,其中所述步骤2的利用训练样本yj训练字典,按如下步骤进行:
2a)选择核函数为多项式核函数k(x,y)=(x·y+0.5)5,计算训练样本矩阵Y的格拉姆矩阵,并对其在特征空间中归一化,结果记为K(Y,Y);
2b)随机初始化大小为n×m的字典D,使其在一些位置为1,其他位置均为0,其中原子数m=20;
2c)设初始迭代次数h0=1,最大迭代次数h=100,固定字典D,进入非负稀疏编码阶段,在此阶段利用非负核追踪算法求出稀疏系数向量Q,其中字典D和稀疏系数向量Q满足约束条件f表示把信号或样本映射到特征空间,||||F表示Frobenius范数;
2d)设初始循环次数s=1,索引集将三组高光谱图像的稀疏度,分别设为T1=10,T2=7,T3=12,训练样本yj的当前估计值
2e)计算第s次循环的残差rs在未选中的字典原子上的投影系数Ot,即
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>O</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mo><</mo>
<msub>
<mi>r</mi>
<mi>s</mi>
</msub>
<mo>,</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
<mo>></mo>
<mo>=</mo>
<msubsup>
<mi>r</mi>
<mi>s</mi>
<mi>T</mi>
</msubsup>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
<mo>-</mo>
<mi>f</mi>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
<msub>
<mover>
<mi>y</mi>
<mo>^</mo>
</mover>
<mrow>
<mi>j</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mi>K</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msup>
<msub>
<mover>
<mi>y</mi>
<mo>^</mo>
</mover>
<mrow>
<mi>j</mi>
<mi>s</mi>
</mrow>
</msub>
<mi>T</mi>
</msup>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>,</mo>
</mrow>
其中,<,>表示求括号内两项的内积,()T表示求矩阵的转置,残差 为特征空间中的字典原子,dt是字典D的第t个字典原子,D=[d1,d2,...,dt,...,dm],t=1,2,...,m,表示yj的当前估计值,选择投影系数最大的原子,把其对应的索引tmax添加到索引集I中来更新索引集,即I=[I,tmax],计算投影系数Ot的过程中,未选中的字典原子dt对应的下标t不属于索引集;
2f)把更新后的索引集所对应字典D的列向量构成的子矩阵记为DIs,利用最小二乘法,计算在第s次循环中训练样本yj在子矩阵DIs上的系数qs:
其中,表示求矩阵的伪逆,()-1表示对矩阵求逆;
2g)根据求得的稀疏表示系数qs的正负值,确定是否保留本次循环所求得的系数qs:若稀疏表示系数qs为负值,则抛弃本次循环选中的原子,且循环次数s不变;若稀疏表示系数qs不是负值,则把求得的系数qs添加到系数向量Q中,循环次数加1,即s=s+1,利用公式更新训练样本yj的当前估计值
2h)判断循环次数s是否满足s>Ti,如果不满足,重复步骤2d)到步骤2g),如果满足,停止循环,即非负稀疏编码结束,得出最终的稀疏系数向量Q',执行步骤2i),Ti是高光谱图像的稀疏度;
2i)非负稀疏编码结束后,进入非负字典更新阶段,固定最终的稀疏系数向量Q',通过非负矩阵分解的方法,先利用如下更新公式不断循环更新字典的每一项Dlt,l=1,...,n,t=1,…,m:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>l</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>&LeftArrow;</mo>
<msub>
<mi>D</mi>
<mrow>
<mi>l</mi>
<mi>t</mi>
</mrow>
</msub>
<mfrac>
<msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<msup>
<mrow>
<mo>(</mo>
<msup>
<mi>Q</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>)</mo>
</mrow>
<mrow>
<mi>l</mi>
<mi>t</mi>
</mrow>
</msub>
<msub>
<mrow>
<mo>(</mo>
<msup>
<mi>DQ</mi>
<mo>&prime;</mo>
</msup>
<msup>
<mrow>
<mo>(</mo>
<msup>
<mi>Q</mi>
<mo>&prime;</mo>
</msup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>)</mo>
</mrow>
<mrow>
<mi>l</mi>
<mi>t</mi>
</mrow>
</msub>
</mfrac>
<mo>;</mo>
</mrow>
再对每一列D:t进行归一化,得到字典D:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mo>:</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>&LeftArrow;</mo>
<mfrac>
<msub>
<mi>D</mi>
<mrow>
<mo>:</mo>
<mi>t</mi>
</mrow>
</msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>D</mi>
<mrow>
<mo>:</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
其中,I为单位向量,←表示用右边的项来更新左边的项,|| ||表示对矩阵取模;
2j)更新完成后,迭代次数加1,即h0=h0+1;
2k)判断迭代次数h0是否满足h0>h,如果不满足,重复步骤2c)到步骤2j),如果满足,停止迭代,得出最终学习的字典D。
3.根据权利要求1所述的方法,其中所述步骤6的对测试图像进行非线性压缩成像,按如下步骤进行:
3a)根据压缩观测方程M=Gβ的形式,结合核函数k(x,y),测试图像ei,字典D,训练样本矩阵Y=[y1,y2,...,yj,...,yn]以及观测矩阵Φ的行向量求出测量值向量M和感知矩阵G:
<mrow>
<mi>M</mi>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<mo><</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>></mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo><</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mi>c</mi>
<mi>T</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>></mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo><</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mi>T</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>></mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mi>c</mi>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
<mrow>
<mi>G</mi>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mi>c</mi>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mi>c</mi>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<mi>c</mi>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mn>...</mn>
</mtd>
<mtd>
<mrow>
<mi>k</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&phi;</mi>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mi>T</mi>
</msubsup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>D</mi>
<mo>,</mo>
</mrow>
其中,测量值向量M的每一项表示特征空间中测试图像ei在观测矩阵Φ的第c个行向量φc上的测量值,表示第j个训练样本yj和观测矩阵Φ的第c个行向量φc在特征空间中的内积,i=1,2,3,c=1,2,…,S0;
3b)根据计算得到的测量值向量M和感知矩阵G,采用非负核追踪算法求解压缩观测方程M=Gβ,得出非负的稀疏系数向量β。
4.根据权利要求1所述的方法,其中所述步骤7的利用pre-image方法重构出原图像是将测试图像ei在特征空间中的稀疏表示,即f(ei)=f(Y)Dβ,带入pre-image公式,并结合稀疏系数向量β以及字典D,得到重构出的原测试图像即
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>e</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<mo><</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>></mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>g</mi>
<mo>(</mo>
<mrow>
<mo><</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>></mo>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mo><</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
<mo>,</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>)</mo>
<mo>></mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mo><</mo>
<mo>(</mo>
<mi>f</mi>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
<mi>D</mi>
<mi>&beta;</mi>
<mo>,</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>)</mo>
<mo>></mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mi>&beta;</mi>
<mo><</mo>
<mo>(</mo>
<mi>f</mi>
<mo>(</mo>
<mi>Y</mi>
<mo>)</mo>
<mo>,</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>)</mo>
<mo>></mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mo><</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
<mo>,</mo>
<mi>f</mi>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
<mo>)</mo>
<mo>></mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>w</mi>
</munderover>
<msup>
<mi>g</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mi>k</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>,</mo>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msub>
<mi>u</mi>
<mi>p</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>,</mo>
</mrow>
其中,up表示单位正交基的第p列,p=1,2,...,w,Dβ=[c1,c2,...,cj,...,cn]T,cj表示Dβ的第j个元素,g为先前选定的多项式核函数,g-1是g的逆函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510333156.6A CN104915935B (zh) | 2015-06-16 | 2015-06-16 | 基于非线性压缩感知与字典学习的压缩光谱成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510333156.6A CN104915935B (zh) | 2015-06-16 | 2015-06-16 | 基于非线性压缩感知与字典学习的压缩光谱成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104915935A CN104915935A (zh) | 2015-09-16 |
CN104915935B true CN104915935B (zh) | 2017-09-05 |
Family
ID=54084974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510333156.6A Active CN104915935B (zh) | 2015-06-16 | 2015-06-16 | 基于非线性压缩感知与字典学习的压缩光谱成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104915935B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105844591B (zh) * | 2016-01-11 | 2018-08-21 | 西安电子科技大学昆山创新研究院 | 基于隐空间样例学习的非线性压缩光谱成像方法 |
CN106651778A (zh) * | 2016-05-25 | 2017-05-10 | 西安电子科技大学昆山创新研究院 | 基于自适应耦合观测与非线性压缩学习的光谱成像方法 |
EP3510558A4 (en) * | 2016-09-06 | 2020-05-06 | B.G. Negev Technologies and Applications Ltd., at Ben-Gurion University | OBTAINING HYPERSPECTRAL DATA FROM AN IMAGE |
CN106780424A (zh) * | 2017-01-12 | 2017-05-31 | 清华大学 | 一种基于极少数优化选择波段的高光谱图像获取方法 |
CN112737595B (zh) * | 2020-12-28 | 2023-10-24 | 南京航空航天大学 | 一种基于fpga的可逆投影压缩感知方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473744A (zh) * | 2013-09-16 | 2013-12-25 | 电子科技大学 | 基于变权重式压缩感知采样的空域可缩小图像重构方法 |
CN103679662A (zh) * | 2013-12-25 | 2014-03-26 | 苏州市职业大学 | 基于类别先验非负稀疏编码字典对的超分辨率图像恢复方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110270590A1 (en) * | 2010-04-28 | 2011-11-03 | Qualcomm Incorporated | Nonlinear identification using compressed sensing and minimal system sampling |
-
2015
- 2015-06-16 CN CN201510333156.6A patent/CN104915935B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473744A (zh) * | 2013-09-16 | 2013-12-25 | 电子科技大学 | 基于变权重式压缩感知采样的空域可缩小图像重构方法 |
CN103679662A (zh) * | 2013-12-25 | 2014-03-26 | 苏州市职业大学 | 基于类别先验非负稀疏编码字典对的超分辨率图像恢复方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104915935A (zh) | 2015-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104915935B (zh) | 基于非线性压缩感知与字典学习的压缩光谱成像方法 | |
CN109191382B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN104867119B (zh) | 基于低秩矩阵重建的结构性缺失图像填充方法 | |
CN104156994B (zh) | 一种压缩感知磁共振成像的重建方法 | |
CN103810755B (zh) | 基于结构聚类稀疏表示的压缩感知光谱图像重建方法 | |
CN104867124B (zh) | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 | |
CN102750677B (zh) | 基于同尺度结构自相似与压缩感知的单图像超分辨率方法 | |
CN110139046B (zh) | 一种基于张量的视频帧合成方法 | |
CN104739410B (zh) | 一种磁共振图像的迭代重建方法 | |
CN105118078B (zh) | 欠采样的ct图像重建方法 | |
CN105118053B (zh) | 一种基于压缩感知的全参考图像质量客观评价方法 | |
CN103077544B (zh) | 一种磁共振参数匹配方法、装置及医疗图像处理设备 | |
CN107154064B (zh) | 基于深度稀疏编码的自然图像压缩感知重建方法 | |
CN107301630B (zh) | 一种基于排序结构组非凸约束的cs-mri图像重构方法 | |
CN105631807A (zh) | 基于稀疏域选取的单帧图像超分辨重建方法 | |
CN110880196B (zh) | 基于深度学习的肿瘤光声图像快速重建方法及装置 | |
CN104392243A (zh) | 基于核稀疏非负矩阵分解的高光谱图像非线性解混方法 | |
CN105957029B (zh) | 基于张量字典学习的磁共振图像重建方法 | |
CN104463148B (zh) | 基于图像重构和哈希算法的人脸识别方法 | |
CN104732535A (zh) | 一种约束稀疏的非负矩阵分解方法 | |
CN104376565A (zh) | 基于离散余弦变换和稀疏表示的无参考图像质量评价方法 | |
CN108053456A (zh) | 一种pet重建图像优化方法及系统 | |
CN107203969A (zh) | 一种中间尺度约束的高倍率图像超分辨率重建方法 | |
CN103093431B (zh) | 基于pca字典和结构先验信息的压缩感知重构方法 | |
CN104933685A (zh) | 基于三维张量压缩感知的高光谱压缩成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |