CN108550111A - 一种基于多级字典学习的残差实例回归超分辨重建方法 - Google Patents
一种基于多级字典学习的残差实例回归超分辨重建方法 Download PDFInfo
- Publication number
- CN108550111A CN108550111A CN201810320484.6A CN201810320484A CN108550111A CN 108550111 A CN108550111 A CN 108550111A CN 201810320484 A CN201810320484 A CN 201810320484A CN 108550111 A CN108550111 A CN 108550111A
- Authority
- CN
- China
- Prior art keywords
- resolution
- image
- low resolution
- block
- indicate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
- G06T3/4076—Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
Abstract
本发明公开了一种基于多级字典学习的残差实例回归超分辨重建方法,包括如下步骤:使用高分辨图像生成训练集,建立低分辨和高分辨图像块的成组块对;提取低分辨图像块的特征向量,利用K‑SVD学习一个具有较强表征能力的字典作为锚点;利用学习得到的字典对成组块中低分辨和高分辨块做最小二乘回归,得到线性映射关系;估计高分辨特征,计算出重构误差,将估计的高分辨特征做进一步的字典学习的同时与重构误差做映射;L层后,得到一组残差回归器;利用输入的图像与得到的残差回归器做重建,将得到的高分辨特征用于下一层的重建;将所有估计的高分辨图像块进行加和计算,合成高分辨图像。本发明具有更强的超分辨能力,可用于低分辨自然图像的放大。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于多级字典学习的残差实例回归超分辨重建方法。
背景技术
实际应用中,成像系统受器件成本、传输带宽、计算资源以及成像环境等诸多因素的限制,所获图像分辨率往往不高,给后续的图像处理、分析和理解任务带来极大的挑战。如何获取高分辨率的数字图像是人们非常关心的课题。无疑,提高成像系统物理分辨率是获取高分辨率图像最直接有效的手段。然而,该方法受制造技术和器件成本的限制,仅限于某些特殊应用场合,不便于在实际应用中推广;而且,对许多远距离的成像领域(如视频监控和遥感成像等),受成像环境和条件的制约,即便装配价格昂贵、分辨率级别高的成像设备,也很难获取目标区域的高分辨率影像;再如,在社交网络应用领域,如Facebook和Twitter等,如何以有限的带宽为海量用户提供高质量的影像在线服务,也是互联网领域亟待解决的课题之一;此外,随着各种低成本移动多媒体终端的日益普及,人们很容易获取大量具有应用价值的低分辨率影像资源,如何提高它们在高分辨显示设备上的兼容性,增强用户体验效果,也是视觉信息处理领域面临的一项挑战性任务。
超分辨重建是一种有效提高图像分辨率的信号处理技术。该技术能有效克服成像设备固有分辨率的不足,突破成像环境的限制,在不改变现有成像系统的前提下,能以最低的成本获取高于成像系统物理分辨率的高质量图像。该技术具有非常广泛的应用前景,是低质量智能安全监控系统中人脸检测与识别技术、智能机器人关键技术,以及多通道、多尺度图像融合技术的基础。该技术的成功应用能有效促进光电子信息技术的发展,同时也能推动物联网视频感知与智能分析技术、车联网智能交通关键技术、遥感成像技术以及移动多媒体通信技术等多个高新技术产业的不断进步。
经过各个领域专家学者的研究,图像超分辨重建技术取得了重大进展。在现有的超分辨方法中,基于实例学习的超分辨重建技术被广泛一致的认为能重建出一个具有较多细节的高分辨图像。然而,大多数基于实例学习的算法仍没有很好的恢复出图像的细节特征与边缘信息,边缘伪影明显。因此,研究重建质量良好的超分辨重建算法,是实例学习超分辨重建技术成功应用的关键。
基于实例学习的超分辨方法的主要思想是通过学习训练集中低分辨与高分辨图像之间的映射关系,估计在低分辨图像中丢失的高频细节,实现高分辨图像的重建。根据超分辨重建过程中映射关系建立方法不同,已有的基于实习学习的超分辨方法可以被细分为四类:基于k-NN(k-Nearest Neighbor)学习的方法、基于流形学习的方法、基于字典学习的方法、基于实例回归的方法。虽然基于基于k-NN和基于流形学习的超分辨算法结果简单,重建速度较快,但对每一个输入的特征块,都需要搜索庞大规模的数据集来做相似性匹配,以使几何图形中的复杂结构能得到最优化表示,因而计算的时间和空间复杂度都很高,这也使得该类算法一般难以应用在实际中。基于字典的方法假定一个自然图像块,可以通过一个学习的超完备字典进行稀疏表示,再通过求解基于或范数正则化最小二乘优化问题建立低分辨与高分辨图像之间的关系。虽然该类算法与与基于k-NN和流形学习的超分辨算法相比,已经取得了在重建质量和计算复杂度上取得了较好的成果,但是对于每一个输入的低分辨图像块,该类算法需要在学习阶段和重建阶段求解超完备字典的稀疏表示。因而,当字典规模或需要重建的图像较大时,该算法的计算成本任然很高,难以广泛应用。基于实例回归的方法通过在低分辨与高分辨特征之间直接做关系映射,虽然该类方法在能保证重建质量的同时提高了重建有效性,但基于实例回归的方法在映射低分辨与高分辨之间非线性关系时,采用一次简单特征线性映射,这难以表现低分辨与高分辨图像之间的复杂的几何结构信息。近些年来,利用卷积神经网络进行点对点映射低分辨与高分辨图像之间的关系颇受欢迎。与基于实例学习的超分辨方法相比,该方法不需要任何有监督的特征,同时能取得更为准确的超分辨结果。
发明内容
为了更有效的提升高分辨估计的准确性,,本发明提供了一种基于多级字典学习的残差实例回归超分辨重建方法,通过统计机器学习方法,利用K-SVD字典学习方法得到一个紧促且表征能力强的字典,利用脊回归以一种级联的形式对估计误差和估计的高分辨特征进行多层残差回归,建立多层映射关系,以逼近低分辨与高分辨图像之间复杂的非线性映射关系,实现处理速度快、重建质量高的实例回归超分辨重建。
为实现上述目的,本发明采取的技术方案为:
一种基于多级字典学习的残差实例回归超分辨重建方法,包括如下步骤:
S1、采集高分辨自然图像,模拟图像降质过程,生成低分辨图像,对低分辨图像使用双立方插值进行3倍放大,得到插值图像;
对插值图像和原始高分辨图像,分别提取大小为9×9的低分辨特征块和对应大小9×9为的高分辨特征块;
分别随机选择低分辨图像块和对应的高分辨图像块,构造低分辨图像块训练集和高分辨图像块的高频细节训练集其中,表示第i个低分辨图像块特征向量,表示第i个高分辨图像块特征向量,N表示训练集中样本总个数;表示用于第t次迭代的低分辨特征集,表示用于第t次迭代的高分辨特征集,特别地,
S2、将低分辨特征训练集利用K-SVD字典学习算法学习得到一个低分辨字典其中,表示第t轮得到的低分辨字典,表示字典中的第i个字典原子。表示所选锚点在低分辨特征训练集上的K个最近邻所构成的子集,表示所选锚点在高分辨训练集上的K个最近邻构成的子集,M表示低分辨字典原子的个数,K表示欧式距离约束的最相关的特征块,M=1024,K=2048;
S3、利用低分辨图像块特征与高分辨图像块特征间的共现表示关系,建立K个低分辨与高分辨特征空间之间的线性映射关系式中,λ是一个用于调节奇点问题和稳定性解的可调参数,这里λ=0.00001,I表示单位矩阵;
S4、利用得到的线性映射关系Ft与对应的低分辨特征子集重建出对应的高分辨特征子集获得重建误差
S5、把重建的高分辨特征用作下一次迭代的低分辨特征训练集,重复步骤S2-S5,获得的重建误差用作下一次迭代的高分辨特征集;经过T次迭代得到一组线性映射关系T=4;
S6、输入待处理的低分辨彩色图像y,并将图像y从红、绿、蓝的RGB颜色空间转换到YCbCr颜色空间,其中,Y表示亮度分量,两个色差分量Cb和Cr表示颜色信息;
S7、对YCbCr颜色空间中的亮度分量使用双立方插值进行3倍放大,得到插值图像Y′;
S8、将插值图像Y′自上而下、从左到右划分成大小为9×9的图像块,使相邻块之间重叠2个像素,提取该图像的块特征,构成低分辨图像块测试集其中表示低分辨图像块测试集Xt中的第j个特征向量,S表示该测试集Xt中样本总个数;
S9、对低分辨图像块测试集中每个特征向量在锚点集中查找与最匹配的锚点使用对应的特征映射关系矩阵计算高分辨图块特征低分辨图像块测试集中所有特征向量的高分辨图像块估计构成了预测结果集
S10、将构成的预测结果集作为当前高分辨图像块输出的同时,用作下一层的测试集,再估计预测集,最后得到一组估计的预测结果集按照对应顺序将股价的预测结果集做加和处理;
S11、按插值图像Y′中图像块的划分顺序合并所有预测结果集对重叠区域的像素取平均值进行融合,得到高分辨图像X;
S12、对输入的低分辨彩色图像y在YCbCr颜色空间中的两个色差分量Cb和Cr直接采用双立方插值进行3倍放大,并组合亮度分量Y的超分辨估计X,将YCbCr颜色空间的超分辨结果转换到RGB颜色空间,得到输入的低分辨图像y被放大了3倍的RGB图像。
其中,所述步骤S5包括如下步骤:
S51、对接下来的第t+1次迭代,将第t次迭代估计得到的高分辨输出用于更新t+1次的低分辨输入:
式中,表示第t次估计得到的第i个高分辨特征,表示将用于第t+1次迭代的第i个低分辨输入特征。将更新后的特征块反馈到步骤S2中,循环执行;
S52、对接下来的第t+1次迭代,将第t次迭代得到的残差用于更新t+1次的高分辨特征,用于回归:
式中,表示第t次迭代得到的第i个高分辨特征的估计误差,即残差,表示将用于第t+1次迭代的第i个高分辨特征。将更新后的特征块反馈到步骤S2中,循环执行,直至T次全部结束。
其中,所述步骤S10通过以下步骤进行股价的预测结果集的加和处理:
S101、对接下来的第t+1次迭代,将第t次迭代估计得到的高分辨输出用于第t+1次的低分辨输入的同时,作为第t次的估计输出:
式中,表示第t次迭代得到的高分辨特征,表示将用于第t+1次重建的低分辨特征。
S102、将得到的T个特征向量,即估计的细节特征,加到插值后的低分辨图像中:
式中,表示经过插值的低分辨测试图像,表示第t次重建出的高频细节。
本发明具有以下有益效果:
(1)本发明提出了一种由粗到精的多层残差回归器学习的方法,对输入的低分辨特征进行学习,估算出对应的高分辨特征,计算重构误差,对估计的高分辨特征和重构误差进行联合学习,并将得到的高分辨特征进行加和计算,有利于提高超分辨重建的质量,恢复出较好的图像细节;
(2)本发明提出了一种新的基于学习的多层残差回归的实例超分辨算法。与已有的一次回归模型相比较,能够有效地提升超分辨性能。
(3)仿真结果表明,与现有的邻域嵌入超分辨重建算法相比,本发明能恢复更多的图像细节,产生更加清晰的图像边缘和纹理,避免产生明显的图像失真和伪像。
附图说明
图1为本发明基于多级字典学习的残差实例回归超分辨重建方法的训练阶段的示意图。
图2为本发明基于多级字典学习的残差实例回归超分辨重建方法的测试阶段的示意图。
图3为本发明的算法在T取值不同时Set5数据集的平均PSNR和SSIM统计结果图。
图4为本发明的算法在T取值不同时Set14数据集的平均PSNR和SSIM统计结果图。
具体实施方式
为了使本发明的目的及优点更加清楚明白,以下结合实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1和图2,本发明实施例提供了一种基于多级字典学习的残差实例回归超分辨重建方法主要包括两个阶段:训练集生成阶段和图像超分辨阶段。
一.训练集生成阶段
步骤1:模拟图像降质过程,构建特征库,生成训练集。
1a)采集大量的高分辨灰度自然图像,对每个高分辨图像经过4×4平均模糊和3倍下采样生成对应的低分辨图像;
1b)对每个低分辨图像,使用双立方插值进行3倍放大,得到插值图像Iint,将插值图像Iint自上而下,从左到右划分成大小为6×6的图像块,使相邻块之间重叠3个像素,随机选择图像块组成特征向量,构成低分辨图像块训练集对原始高分辨图像选择与插值图像对应位置上的图像块组成高分辨特征向量,构成高分辨图像块训练集N表示训练集中样本总个数;
1c)表示第t次迭代的低分辨特征块,表示第t次迭代的高分辨特征。特别地,
步骤2:建立多层映射关系。
2a)将低分辨特征训练集利用K-SVD字典学习算法学习得到一个低分辨字典其中表示第t轮得到的低分辨字典,表示字典中的第i个字典原子,表示第i个锚点对应的低分辨特征训练集上的K近邻所构成的子集,是第i个锚点对应的高分辨图像块所对应的K近邻构成的子集,M表示低分辨字典原子的个数,K表示欧式距离约束的最相关的特征块,M=1024,K=2048;
2b)利用低分辨图像块特征与高分辨图像块特征间的共现表示关系,建立K个低分辨与高分辨特征空间之间的线性映射关系这里λ=0.00001,I表示单位矩阵;
2c)利用得到的线性映射关系Ft与对应的低分辨特征子集重建出对应的高分辨特征子集获得重建误差把重建的高分辨特征用作下一次迭代的低分辨特征训练集,重复步骤(3)-(6),获得的重建误差用作下一次迭代的高分辨特征集。经过T次迭代得到一组线性映射关系
二.图像超分辨阶段
步骤A:读入待处理的低分辨彩色图像,提取低分辨图像块特征,构造测试集。
A1)读入待处理的低分辨彩色图像F,并将图像F从红、绿、蓝的RGB颜色空间转换到YCbCr颜色空间,其中Y表示亮度分量,两个色差分量Cb和Cr表示颜色信息;
A2)对YCbCr颜色空间中的亮度分量Y使用双立方插值进行3倍放大,得到插值图像Iint;
A3)将插值图像Iint自上而下,从左到右划分成大小为6×6的图像块,使相邻块之间重叠3个像素,提取该图像块特征构成低分辨图像块测试集其中表示低分辨图像块测试集Xt中的第j个特征向量,M表示该测试集Xt中样本总个数。
步骤B:使用欧氏距离,查找最匹配的锚点,构造成映射关系。
B1)对低分辨图像块测试集中每个特征向量在锚点集中查找与最匹配的锚点使用对应的特征映射关系矩阵计算高分辨图块特征低分辨图像块测试集中所有特征向量的高分辨图像块估计构成了预测结果集
B2)将构成的预测结果集作为当前高分辨图像块输出的同时,用作下一层的输入进行字典学习,直至T次结束。
步骤C:估计高分辨特征块,并合并所有估计的高分辨图像块,得到输入低分辨图像F在YCbCr颜色空间中亮度分量Y的高分辨图像的初始化估计X0。
C1)依次执行上述过程,估计低分辨图像块测试集中每个特征向量对应的高分辨图像块构成预测结果集
C2)按照对应锚点,将得到的预测结果集合并
C3)按插值图像Iint中图像块的划分顺序,将预测结果集中的特征向量合并成高分辨图像的初始化估计X0.
步骤D:对输入的低分辨彩色图像F在YCbCr颜色空间中的两个色差分量Cb和Cr直接采用双立方插值进行3倍放大,并组合亮度分量Y的超分辨估计Xn,将YCbCr颜色空间的超分辨结果转换到RGB颜色空间,得到输入的低分辨图像F被放大了3倍的RGB图像。
以下通过仿真实验验证本发明的有效性。
仿真内容:
(1)在相同的训练集和测试图像上,采用对比实验的形式,选择双立方插值和卷积神经网络的图像超分辨方法以及四个具有代表性的实例超分辨方法与本发明仿真结果进行比较,以验证本发明的有效性。四个具有代表性的邻域嵌入超分辨方法是Timofte等人提出的方法,简称为ANR方法,具体参考文献“Timofte,Radu,V.De,and L.V.Gool.″AnchoredNeighborhood Regression for Fast Example-Based Super-Resolution.″IEEEInternational Conference on Computer Vision IEEE Computer Society,2013:1920-1927.”,Yang等人提出的方法,简称为Yang’s方法,具体参考文献“Yang,J.,et al.″Imagesuper-resolution via sparse representation.″IEEE Transactions on ImageProcessing 19.11(2010):2861-2873.”和Zeyde等人提出的方法,简称Zeyde’s方法,具体参考文献“Roman Zeyde,Michael Elad,and Matan Protter.″On single image scale-upusing sparse-representations.″International Conference on Curves and SurfacesSpringer-Verlag,2010:711-730.”以及Hu,Y等人提出的方法,简称为SERF方法,具体参考文献“Hu,Y.,et al.″SERF:A Simple,Effective,Robust,and Fast Image Super-Resolver from Cascaded Linear Regression.″IEEE Transactions on ImageProcessing a Publication of the IEEE Signal Processing Society25.9(2016):4091-4102”;最后,是Dong,Chao,等人提出的方法,即卷积神经网络的图像超分辨方法,简称CNN,具体参考文献“Dong,Chao,et al.Learning a Deep Convolutional Network forImage Super-Resolution.Computer Vision-ECCV 2014.Springer InternationalPublishing,2014:184-199.”
(2)使用具有不同代表性的自然图像进行仿真实验,以验证本发明对不同性质的低分辨图像经过3倍放大后在视觉上的效果。具体仿真条件详见每个实验的描述。
实验一,对一幅大小为280×280的高分辨人物自然图像,采用4×4平均模糊和3倍下采样降质过程生成对应大小的低分辨图像,对得到的低分辨图像,使用双立方插值,ANR方法,Yang’s方法,Zeyde’s方法,CNN方法,SERF方法和本发明的方法进行3倍放大,获取了对应的真实图像A;双立方插值放大的结果图B;ANR方法的超分辨结果图C;Yang’s方法的超分辨结果图D;Zeyde’s方法的超分辨结果图E;CNN方法的超分辨结果图F;SERF方法的超分辨结果图J;超分辨结果图H;每个图中对标记的矩形局部区域进行了局部放大。
从图3的仿真结果可以看出:图B中图像边缘和纹理非常模糊,与图B的结果相比,图C-图E的结果在一定程度上能恢复图像的细节信息,但主要的边缘和纹理部分仍然比较模糊,而且存在一定的噪声,图3F-H的超分辨结果明显比C-图E的超分辨结果更清晰自然,而图H的超分辨结果包含更多的高频细节,边缘和纹理部分比图C-图F的结果清晰,而且引入的噪声较少,超分辨结果显得更加自然,不存在明显的失真和伪像。这是因为本发明使用了多层残差逼近估计,将重建误差较大、具有更多高频信息的特征块进行选择和重构估计,一定程度上减少了高、低分辨图像块之间的模糊性。
实验二,对一幅大小为288×288的高分辨动物自然图像,采用与实验一相同的降质过程生成对应大小的低分辨图像,对得到的低分辨图像,使用双立方插值,ANR方法,Yang’s方法,Zeyde’s方法,CNN方法,SERF方法和本发明的方法进行3倍放大,获取了真实图像图;双立方插值放大的结果图;ANR方法的超分辨结果图;Yang’s方法的超分辨结果图;Zeyde’s方法的超分辨结果图;CNN方法的超分辨结果图;SERF方法的超分辨结果图;本发明方法的超分辨结果图;每个图中对标记的矩形局部区域进行了局部放大。
从图中仿真结果可以看出:与其它超分辨方法得到的结果相比,本发明得到的超分辨图像具有较好的细节特征和相对较好的视觉质量。
实验三,对一幅大小为256×256的高分辨植物自然图像,采用与实验一和实验二相同的降质过程生成对应大小的低分辨图像,对得到的低分辨图像,使用双立方插值,ANR方法,Yang’s方法,Zeyde’s方法,CNN方法,SERF方法和本发明的方法进行3倍放大,获取了真实图像图(a);双立方插值放大的结果图(b);ANR方法的超分辨结果图(c);Yang’s方法的超分辨结果图(d);Zeyde’s方法的超分辨结果图(e);CNN方法的超分辨结果图(f);SERF方法的超分辨结果图(g);本发明方法的超分辨结果图(h);每个图中对标记的矩形局部区域进行了局部放大。
从图的仿真结果可以看出:与已有实例学习超分辨方法相比,本发明方法恢复的边缘更加清晰。
实验四,在迭代次数T取不同值时,图3和图4分别给出的是Set5和Set14在分别进行2倍和3倍放大时,平均PSNR和SSIM的变化。
从图4和图4可以直观的看出,在进行2倍放大时,在T=5时,本发明的性能持续在提升;而在进行三倍放大时,在T=4时,本发明的性能最好,超过4次迭代会出现过拟合的情况,因此在进行三倍放大时本发明T的取值为4。
综上所述,本发明与已有的邻域嵌入超分辨方法相比,具有更强的超分辨恢复能力,能够得到更多的图像细节,而且恢复的图像在视觉上有较好的感知效果,不存在明显的失真和伪像,更接近于真实图像。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于多级字典学习的残差实例回归超分辨重建方法,包括如下步骤:
S1、采集高分辨自然图像,模拟图像降质过程,生成低分辨图像,对低分辨图像使用双立方插值进行3倍放大,得到插值图像;
对插值图像和原始高分辨图像,分别提取大小为9×9的低分辨特征块和对应大小9×9为的高分辨特征块;
分别随机选择低分辨图像块和对应的高分辨图像块,构造低分辨图像块训练集和高分辨图像块的高频细节训练集其中,表示第i个低分辨图像块特征向量,表示第i个高分辨图像块特征向量,N表示训练集中样本总个数;表示用于第t次迭代的低分辨特征集,表示用于第t次迭代的高分辨特征集,特别地,
S2、将低分辨特征训练集利用K-SVD字典学习算法学习得到一个低分辨字典其中,表示第t轮得到的低分辨字典,表示字典中的第i个字典原子。表示所选锚点在低分辨特征训练集上的K个最近邻所构成的子集,表示所选锚点在高分辨训练集上的K个最近邻构成的子集,M表示低分辨字典原子的个数,K表示欧式距离约束的最相关的特征块,M=1024,K=2048;
S3、利用低分辨图像块特征与高分辨图像块特征间的共现表示关系,建立K个低分辨与高分辨特征空间之间的线性映射关系式中,λ是一个用于调节奇点问题和稳定性解的可调参数,这里λ=0.00001,I表示单位矩阵;
S4、利用得到的线性映射关系Ft与对应的低分辨特征子集重建出对应的高分辨特征子集获得重建误差
S5、把重建的高分辨特征用作下一次迭代的低分辨特征训练集,重复步骤S2-S5,获得的重建误差用作下一次迭代的高分辨特征集;经过T次迭代得到一组线性映射关系T=4;
S6、输入待处理的低分辨彩色图像y,并将图像y从红、绿、蓝的RGB颜色空间转换到YCbCr颜色空间,其中,Y表示亮度分量,两个色差分量Cb和Cr表示颜色信息;
S7、对YCbCr颜色空间中的亮度分量使用双立方插值进行3倍放大,得到插值图像Y′;
S8、将插值图像Y′自上而下、从左到右划分成大小为9×9的图像块,使相邻块之间重叠2个像素,提取该图像的块特征,构成低分辨图像块测试集其中表示低分辨图像块测试集Xt中的第j个特征向量,S表示该测试集Xt中样本总个数;
S9、对低分辨图像块测试集中每个特征向量在锚点集中查找与最匹配的锚点使用对应的特征映射关系矩阵计算高分辨图块特征低分辨图像块测试集中所有特征向量的高分辨图像块估计构成了预测结果集
S10、将构成的预测结果集作为当前高分辨图像块输出的同时,用作下一层的测试集,再估计预测集,最后得到一组估计的预测结果集按照对应顺序将股价的预测结果集做加和处理;
S11、按插值图像Y′中图像块的划分顺序合并所有预测结果集对重叠区域的像素取平均值进行融合,得到高分辨图像X;
S12、对输入的低分辨彩色图像y在YCbCr颜色空间中的两个色差分量Cb和Cr直接采用双立方插值进行3倍放大,并组合亮度分量Y的超分辨估计X,将YCbCr颜色空间的超分辨结果转换到RGB颜色空间,得到输入的低分辨图像y被放大了3倍的RGB图像。
2.如权利要求1所述的一种基于多级字典学习的残差实例回归超分辨重建方法,其特征在于,所述步骤S5包括如下步骤:
S51、对接下来的第t+1次迭代,将第t次迭代估计得到的高分辨输出用于更新t+1次的低分辨输入:
式中,表示第t次估计得到的第i个高分辨特征,表示将用于第t+1次迭代的第i个低分辨输入特征。将更新后的特征块反馈到步骤S2中,循环执行;
S52、对接下来的第t+1次迭代,将第t次迭代得到的残差用于更新t+1次的高分辨特征,用于回归:
式中,表示第t次迭代得到的第i个高分辨特征的估计误差,即残差,表示将用于第t+1次迭代的第i个高分辨特征。将更新后的特征块反馈到步骤S2中,循环执行,直至T次全部结束。
3.如权利要求1所述的一种基于多级字典学习的残差实例回归超分辨重建方法,其特征在于,所述步骤S10通过以下步骤进行股价的预测结果集的加和处理:
S101、对接下来的第t+1次迭代,将第t次迭代估计得到的高分辨输出用于第t+1次的低分辨输入的同时,作为第t次的估计输出:
1≤t≤T-1
式中,表示第t次迭代得到的高分辨特征,表示将用于第t+1次重建的低分辨特征。
S102、将得到的T个特征向量,即估计的细节特征,加到插值后的低分辨图像中:
式中,表示经过插值的低分辨测试图像,表示第t次重建出的高频细节。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810320484.6A CN108550111B (zh) | 2018-03-30 | 2018-03-30 | 一种基于多级字典学习的残差实例回归超分辨重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810320484.6A CN108550111B (zh) | 2018-03-30 | 2018-03-30 | 一种基于多级字典学习的残差实例回归超分辨重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108550111A true CN108550111A (zh) | 2018-09-18 |
CN108550111B CN108550111B (zh) | 2021-12-03 |
Family
ID=63514381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810320484.6A Expired - Fee Related CN108550111B (zh) | 2018-03-30 | 2018-03-30 | 一种基于多级字典学习的残差实例回归超分辨重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108550111B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741254A (zh) * | 2018-12-12 | 2019-05-10 | 深圳先进技术研究院 | 字典训练及图像超分辨重建方法、系统、设备及存储介质 |
CN111709442A (zh) * | 2020-05-07 | 2020-09-25 | 北京工业大学 | 一种面向图像分类任务的多层字典学习方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976435A (zh) * | 2010-10-07 | 2011-02-16 | 西安电子科技大学 | 基于对偶约束的联合学习超分辨方法 |
CN102142137A (zh) * | 2011-03-10 | 2011-08-03 | 西安电子科技大学 | 基于高分辨率字典的稀疏表征图像超分辨重建方法 |
CN103514580A (zh) * | 2013-09-26 | 2014-01-15 | 香港应用科技研究院有限公司 | 用于获得视觉体验优化的超分辨率图像的方法和系统 |
US8675999B1 (en) * | 2012-09-28 | 2014-03-18 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Apparatus, system, and method for multi-patch based super-resolution from an image |
CN105447840A (zh) * | 2015-12-09 | 2016-03-30 | 西安电子科技大学 | 基于主动采样与高斯过程回归的图像超分辨方法 |
WO2017004890A1 (zh) * | 2015-07-08 | 2017-01-12 | 北京大学深圳研究生院 | 基于迭代投影重建的字典类图像超分辨率系统及方法 |
CN107451619A (zh) * | 2017-08-11 | 2017-12-08 | 深圳市唯特视科技有限公司 | 一种基于感知生成对抗网络的小目标检测方法 |
-
2018
- 2018-03-30 CN CN201810320484.6A patent/CN108550111B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976435A (zh) * | 2010-10-07 | 2011-02-16 | 西安电子科技大学 | 基于对偶约束的联合学习超分辨方法 |
CN102142137A (zh) * | 2011-03-10 | 2011-08-03 | 西安电子科技大学 | 基于高分辨率字典的稀疏表征图像超分辨重建方法 |
US8675999B1 (en) * | 2012-09-28 | 2014-03-18 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Apparatus, system, and method for multi-patch based super-resolution from an image |
CN103514580A (zh) * | 2013-09-26 | 2014-01-15 | 香港应用科技研究院有限公司 | 用于获得视觉体验优化的超分辨率图像的方法和系统 |
WO2017004890A1 (zh) * | 2015-07-08 | 2017-01-12 | 北京大学深圳研究生院 | 基于迭代投影重建的字典类图像超分辨率系统及方法 |
CN105447840A (zh) * | 2015-12-09 | 2016-03-30 | 西安电子科技大学 | 基于主动采样与高斯过程回归的图像超分辨方法 |
CN107451619A (zh) * | 2017-08-11 | 2017-12-08 | 深圳市唯特视科技有限公司 | 一种基于感知生成对抗网络的小目标检测方法 |
Non-Patent Citations (4)
Title |
---|
"摄影测量与遥感学", 《测绘文摘》 * |
MIRZA M. BAIG ET AL: ""AdaBoost-based artificial neural network learning"", 《NEUROCOMPUTING》 * |
RADU TIMOFTE ET AL: ""A+: Adjusted Anchored Neighborhood Regression for Fast Super-Resolution"", 《COMPUTER VISION》 * |
朱耀麟等: "改进的POCS算法的超分辨率单幅图像重建", 《计算机与数字工程》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741254A (zh) * | 2018-12-12 | 2019-05-10 | 深圳先进技术研究院 | 字典训练及图像超分辨重建方法、系统、设备及存储介质 |
CN109741254B (zh) * | 2018-12-12 | 2022-09-27 | 深圳先进技术研究院 | 字典训练及图像超分辨重建方法、系统、设备及存储介质 |
CN111709442A (zh) * | 2020-05-07 | 2020-09-25 | 北京工业大学 | 一种面向图像分类任务的多层字典学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108550111B (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101976435B (zh) | 基于对偶约束的联合学习超分辨方法 | |
Cai et al. | FCSR-GAN: Joint face completion and super-resolution via multi-task learning | |
CN111861961A (zh) | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 | |
CN104657962B (zh) | 基于级联线性回归的图像超分辨重建方法 | |
Zhang et al. | Semantic-aware dehazing network with adaptive feature fusion | |
Guo et al. | Iqma network: Image quality multi-scale assessment network | |
CN109615576B (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
CN108550111A (zh) | 一种基于多级字典学习的残差实例回归超分辨重建方法 | |
CN116092190A (zh) | 一种基于自注意力高分辨网络的人体姿态估计方法 | |
Zhang et al. | DuGAN: An effective framework for underwater image enhancement | |
CN107392211A (zh) | 基于视觉稀疏认知的显著目标检测方法 | |
Yu et al. | Scale-aware frequency attention network for super-resolution | |
Li et al. | Image reflection removal using end‐to‐end convolutional neural network | |
Li et al. | Two‐stage single image dehazing network using swin‐transformer | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN103903240B (zh) | 基于多输出最小二乘支持向量回归的图像超分辨方法 | |
Zhang et al. | Sonar image quality evaluation using deep neural network | |
Li et al. | A discriminative self‐attention cycle GAN for face super‐resolution and recognition | |
Xu et al. | JCa2Co: A joint cascade convolution coding network based on fuzzy regional characteristics for infrared and visible image fusion | |
CN104917532A (zh) | 人脸模型压缩方法 | |
Cao et al. | Super-resolution algorithm through neighbor embedding with new feature selection and example training | |
Kim et al. | Part-attentive kinematic chain-based regressor for 3D human modeling | |
Wu et al. | Conditional stochastic normalizing flows for blind super-resolution of remote sensing images | |
Xia et al. | GCENet: Global contextual exploration network for RGB-D salient object detection | |
CN108596831A (zh) | 一种基于AdaBoost实例回归的超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211203 |