CN110619603B - 一种优化稀疏系数的单幅图像超分辨率方法 - Google Patents

一种优化稀疏系数的单幅图像超分辨率方法 Download PDF

Info

Publication number
CN110619603B
CN110619603B CN201910835991.8A CN201910835991A CN110619603B CN 110619603 B CN110619603 B CN 110619603B CN 201910835991 A CN201910835991 A CN 201910835991A CN 110619603 B CN110619603 B CN 110619603B
Authority
CN
China
Prior art keywords
resolution
low
vector
data
resolution image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910835991.8A
Other languages
English (en)
Other versions
CN110619603A (zh
Inventor
端木春江
雷一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Normal University CJNU
Original Assignee
Zhejiang Normal University CJNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Normal University CJNU filed Critical Zhejiang Normal University CJNU
Priority to CN201910835991.8A priority Critical patent/CN110619603B/zh
Publication of CN110619603A publication Critical patent/CN110619603A/zh
Application granted granted Critical
Publication of CN110619603B publication Critical patent/CN110619603B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Abstract

单幅图像的超分辨率方法可以仅靠一幅低分辨率的图像,获得一幅高分辨率的图像。在传统的方法中,高、低分辨率图像特征块的稀疏表示系数一般被假设为相同的。本发明发现,这个假设的处理方法会降低超分辨率方法的性能。本发明提出了一种基于神经网络求取高分辨率稀疏表示系数的方法。同时,提出了一种模拟商场抓娃娃游戏过程的聚类方法,在此方法中所聚合的类具有同样的数据点数,而不像K‑means方法中,有的类数据较多,有的类数据较少,出现数据过拟合和欠拟合的情况,降低了超分辨率的性能。本发明也提出了一种超分辨率中新的对图像块特征提取的方法。实验结果表明,与传统方法相比,所提出的方法放大的图像具有更好的质量。

Description

一种优化稀疏系数的单幅图像超分辨率方法
技术领域
本发明提出了一种数字图像处理技术领域中的基于单幅图像的图像超分辨率方法,使用该方法,可以通过低分辨率的图像块获得低分辨率块所处的类别和稀疏表示的系数,然后得到高分辨率稀疏表示的系数,从而获得高分辨率图像块。最后,通过对高分辨率图像块的拼接得到一幅高分辨率的图像。这样,可以仅利用一幅低分辨率的图像获得一幅高分辨率的图像。该方法可以被广泛应用在图像放大、视频监控、卫星遥感、医学图像、生物特征识别等领域。
背景技术
1.K-means聚类方法
K-means聚类算法是先随机选取K个对象作为初始的聚类中心。然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个类别。一旦全部对象都被分配了,每个聚类的聚类中心会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。终止条件可以是没有(或最小数目)对象被重新分配给不同的类别,或没有(或最小数目)聚类中心再发生变化。在图像超分辨率方法中的训练阶段,通常通过K-means方法来对训练阶段的低分辨率图像块和高分辨率图像块进行分类,然后确定每类的中心、每类中的一个低分辨率字典和一个高分辨率字典。这个聚类方法的缺点是有可能使有的类别具有大量的对象,有的类别具有很少的对象。在图像的超分辨率中,我们需要的聚类方法应当使聚类后各类别所包含的对象的数目尽量相等。
2.基于稀疏字典的超分辨率方法
在已有的基于稀疏字典的超分辨率方法中,对于由低分辨率特征计算得到的系数一般算法都是直接作为高分辨率重建时使用的稀疏系数/>即/>然而,经过大量的实验研究发现,从高分辨率字典中得到的稀疏系数稀疏系数/>与从低分辨率字典中得到的稀疏系数/>在大多数情况下是有区别的。而经典方法中一般直接假设两者是相等的。故而这样的假设会直接影响图像重建的效果。这也是本发明为什么需要进行这方面研究以提高单幅图像超分辨率方法性能的原因。
发明内容
本发明为了提高基于单幅图像超分辨率的性能,得到更高质量的重构的高分辨率的图像,主要在以下方面进行了创新:1.改进了K-means方法,并命名所提出的聚类方法为“抓娃娃”的方法,使每类别中所包含的图像块对的数目尽可能一致,尽可能避免分类中的过拟合和欠拟合现象;2.改进了计算高分辨率稀疏系数的方法,通过训练阶段得到的每类图像块对的神经网络,由低分辨率图像块的类别和其稀疏系数作为输入,根据这个类别的神经网络计算得到初始的高分辨图像块的稀疏系数。然后,根据保持矢量稀疏度的要求,修改这个稀疏系数。3.改进了图像块特征提取的方法,把DCT的系数也考虑到图像特征中。4.在字典的训练阶段,由于不需要低分辨率稀疏系数和高分辨率稀疏系数一致,删去其高、低分辨率字典联合训练的过程。
1.所提出的“抓娃娃”的聚类方法
针对稀疏的数据,如果直接像传统方法那样对其之间距离利用二范数进行计算分类,效果会很差。在本文所提出的方法中,首先提取稀疏系数不为零的位置,得到位置特征,然后结合位置特性进行分类。在我们的实验中,进行了使用K-means方法对其进行聚类,发现很多类别中数据量过多,很多类别的数据很少,造成这个现象的原因是数据分布不均匀,重建结果也不够理想。于是提出了一个简单的聚类方法,并命名为“抓娃娃”方法。顾名思义,该方法借鉴了商场抓娃娃的过程:首先观察娃娃所处的位置,看看是否是娃娃多的位置,如果是,则下降去抓一把娃娃。否则,重新随机选择位置。而在后续选择抓取位置时还会考虑远离已经被抓过娃娃的地方。
我们以一组随机的二维数据为例来说明这个方法。如图1为一组随机的二维数据离散图。
首先在整个特征数据中随机定点S,定点需要满足以下公式(1)。
其中,Si表示除随机选定的中心点S以外的其他全部数据点,||b||2表示数据点b的2范数。计算得到所有满足如下条件的数据Si:与S的2范数的平方小于或等于γ,记录其数据的位置i,#{i}表示满足这个条件的数据点的个数。这里,要使这些满足条件的数据点的个数m大于k,即定点S周围的数据点必须足够多,该数据点S才可以作为定点,并进行下一步聚类。当选定的数据中心S不满足与其2范数的平方小于等于γ的数据点的个数大于k的条件时,该数据中心不能作为中心定点。当不满足这个条件(1)时将会重新随机定点,直到找到满足以上公式1的定点。
聚类过程同时要满足以下公式(2)的条件。
其中,c*表示第c*类,K为预设的每一数据点类所需的数据量,Sj(c*)为第j个和点S距离最小的其他数据,seti是这些数据的所构成的集合,#(seti)表示seti中元素的个数,即只取和S点最近的K个数据点构成一个集合,这个集合中的数据点构成一类。通过预设的每类数据量K,找到与定点S的2范数最小的K个Sj,将它们归为一类,并将归类后的数据定义为空数据NaN,聚类中心为该类数据点的中心位置。选定一个数据类中的数据点后,这些数据点将被剔除,不进行以后的定点聚类。
进行完第一次聚类后,在选择定点时,除了满足公式(1)的条件,还需要满足以下公式(3)的条件。
其中,S′j为已经被聚类的所有数据,即数据Si满足与已被聚类的所有数据S′j的2范数距离大于d,以保证数据聚类的独立性。由此依次进行聚类,直到聚类的类别数达到要求,或没有合适的定点聚类。
所提出的方法的优点在于可以尽可能地使聚类中各类别中的数据点数为K,避免K-means方法中各类别中的数目相差太大的缺点,即在K-means方法中,有的类别具有很多数据,有的类别具有很少的数据。对于具有过多数据的点的类,其建立的模型将趋于过拟合状态,虽然建立的模型对于其中的数据的效果较好,但是其模型的泛化能力差,对于在线过程中的新数据,其产生的误差较大。对于具有过少数据点的类,其建立的模型将趋于欠拟合状态,因为样本点太少,所建立的模型的维数和准确性不够。
在对矢量进行聚类时,公式(1)、(2)、(3)中的点S、Sj、S′j替换为相应的矢量数据,2范数替换为矢量的2范数,即||a||2=(aTa),其中a表示一列向量,aT表示其转置向量。
在对图像块进行聚类时,公式(1)、(2)、(3)中的点S、Sj、S′j替换为相应的图像块的特征矩阵,2范数替换为矩阵的F范数,即||a||F=trace(aTa),其中a表示一矩阵,aT表示其转置矩阵,trace(aTa)表示矩阵aTa的迹。
2.本发明中图像块的特征提取的方法
对于大小为w×h的图像特征块,对其做矢量化处理可以得到大小为(w*h)×1大小的列矢量,即特征块中的第i行与第j列的数据为矢量化后矢量中的第(i-1)×w+j个数据。对这个图像块提取1阶的水平方向的梯度可以得到大小为(w-1)×h的矩阵,对其做矢量化处理,可以得到大小为((w-1)*h)×1的列矢量;对其提取1阶的垂直方向的梯度可以得到大小为w×(h-1)的矩阵,对其做矢量化处理,可以得到大小为(w*(h-1))×1的列矢量;对其提取2阶Laplace算子的结果,可以得到大小为(w-2)×(h-2)大小的矩阵,对其做矢量化处理,可以得到大小为((w-2)*(h-2))×1大小的列矢量;对其做DCT变换,即离散余弦变换,可以得到大小为w×h的矩阵,对其做矢量化处理,可以得到大小为(w*h)×1的列矢量。把以上的列矢量堆叠在一起,可以得到大小为(2w*h+(w-1)*h+w*(h-1)+(w-2)*(h-2))×1大小的列矢量。由于这个矢量的维数较高,不方便处理,因此采用主成分分析方法,principlecomponent analysis,对这个矢量进行降维,得到大小为sizef×1大小的图像块特征矢量。这里的创新点在于把DCT变换的系数也加入到超分辨率的特征提取中。
3.低分辨率和高分辨率稀疏表示系数的离线获取过程
对于离线的处理过程,首先从图像数据库中得到很多高分辨率的图像,然后对这些图像进行和卷积模板的卷积和下采样操作,以得到对应的低分辨率图像。然后,对低分辨率图像和所对应的高分辨率图进行分块处理,得到低分辨率图像块和所对应的高分辨率图像块。
然后,对低分辨率的图像块和高分辨率的图像块进行特征提取,并把特征矢量看做高维空间的一个点,利用提取的低分辨率特征进行以上所述的“抓娃娃”的聚类过程,对每个低分辨率块和所对应的高分辨率块确定所对应的类别。
接着,根据所获得的每一类中的低分辨率的图像块特征矢量,获得这一类的低分辨率的稀疏表示的字典;根据所获得的每一类中的高分辨率的图像块特征矢量,获得这一类的高分辨率的稀疏表示的字典。这里,通过优化的匹配跟踪法,即optimal matchingpursuit method,获得第c*类的稀疏表示的低分辨率的字典Dl(c*)和高分辨率的字典Dh(c*)。然后,利用K-SVD方法,即K-奇异值分解方法,求解如下问题,得到低分辨率块的稀疏表示的系数
其中fl(c*,m)为第c*类当中的第m个低分辨率块的特征矢量,||x||n为矢量x的n范数,λl表示需要通过实验优化确定的拉格朗日乘子参数,α为需要最小化式(4)中目标函数而求解的变量,αl(c*,m)是求解的结果。在本发明中,λl=0.5。类似地,利用K-SVD方法求解如下问题,得到对应的高分辨率块的稀疏表示系数
其中fh(c*,m)为第c*类当中的第m个高分辨率块的特征矢量,λh表示拉格朗日乘子参数,在本发明中λh=0.5,α为需要使其中的目标函数最小化而优化求解的变量,αh(c*,m)是求解的结果。
4.利用神经网络求解低分辨率稀疏表示的系数和高分辨率的稀疏表示的系数之间的关系
在所提出的方法中对每个类c*,将建立一个神经网络,用来学习这类中低分辨率的稀疏表示的系数αl(c*,m)和高分辨率的稀疏表示的系数αh(c*,m)之间的关系。所设计的神经网络包括三层,输入层为低分辨率的稀疏表示的系数,输出层为高分辨率的稀疏表示的系数。这里,隐含层神经元个数h根据经验公式得到,其中ni为输入层神经元个数,no为输出层神经元个数,δ为1到10的一个经验常数,由仿真实验来优化地确定。在本发明中δ=5。利用这一类c*中所有的低分辨率的稀疏表示的系数αl(c*,m)、和高分辨率的稀疏表示的系数αh(c*,m)来训练这个神经网络,以确定这个神经网络中各神经元中的参数。训练完成后,将存储这些神经网络中的参数,以供在线的超分辨率放大的过程使用。
5.在线确定高分辨率图像块的稀疏表示的系数的方法
对于低分辨率图像上的低分辨率图像块Y,首先按照如上所述的方法提取其特征向量,得到向量F(Y)。然后,根据此特征向量和训练阶段存储的图像块各类别的中心位置之间的距离,寻找离其最近的类别中心,并把此类别中心所处的类别c*确定为此图像块的类别。然后,先采用K-SVD方法求解以下式(6)中的低分辨率图像块的稀疏表示的系数
其中,
Y表示当前的低分辨率的图像块,F是如上所述的提取图像特征的算子;P是提取当前高分辨率图像块和已重构的高分辨率图像上重叠区域的算子;ω是重叠区域中的元素值;β是需要通过仿真实验优化确定的参数;α是低分辨率图像的稀疏表示的系数的变量。
得到低分辨率的稀疏表示的系数之后,利用离线阶段训练好的c*类的神经网络,此网络的输入为矢量/>输出为矢量γ(c*)。为了保证/>的稀疏度基本不变,我们只对/>中的非零位置进行优化,其优化方法如以下公式(8)所示,以得到优化的高分辨率稀疏表示的系数/>
这里,ε为常数参数,这里根据实验取ε=0.25,为提取/>为非零位置并进行计算的函数,其输入和输出o(c*)的关系定义为
其中,xj表示矢量x中的第j个元素。这样,可以得到输入的低分辨率图像块所对应的高分辨率图像块的稀疏表示的系数
然后,利用此类的高分辨率字典,和以下公式(10)可以得到高分辨率的图像中的第n个图像块的像素值
在得到所有的低分辨率的图像块所对应的高分辨率的图像块之后,通过对这些高分辨率图像块的拼接,就可以得到一幅高分辨率的图像,完成单幅图像超分辨率的目标。
附图说明
1.图1为所提出方法的示意图,其中图1(a)为所提出方法的离线训练过程的示意图,图1(b)为所提出方法的在线超分辨率放大过程的示意图。
2.图2为离散的随机分布的点的示意图。
3.图3为图2中某一定点S和其周围的随机点的示意图。图3(a)中由于其定点周围的点数太少,此定点不能作为一个类别的中心点;图3(b)中由于其定点周围的点数足够多,此定点可以作为一个类别的中心点。
4.图4为离线的各类的神经网络的训练过程的示意图。
5.图5为本发明采用的一些高分辨率的训练图像。
具体实施方式
以下将结合附图阐述所提出的方法的具体实施步骤和方式。本发明包括对高分辨率图像的离线的训练阶段,其输入是大量的高分辨率的图像,输出是特征提取降维时用到的变换矩阵,每类的低分辨率图像特征块的类中心,每类中的低分辨率图像特征块的稀疏字典和高分辨率图像特征块的稀疏字典,每类中由低分辨率特征块的稀疏系数对应到高分辨率特征块的稀疏系数的神经网络,这些信息可以在对图像超分辨率放大之前存储起来,供在线的对低分辨率图像放大的阶段使用。本发明的在线的对图像超分辨率放大的过程的输入是一幅低分辨率的图像,输出是一幅高分辨率的图像。本发明的目的是得到在线放大速度快,能得到更清晰的、质量更好的高分辨率图像的方法。
由于对于离线的训练阶段和在线的训练阶段都需要进行图像块的特征提取,所以在这里先阐述在本发明中对输入图像块Bin产生输出图像块输出矢量fout的步骤C1:
C1)输入:图像块Bin,输出:图像块Bin的输出特征矢量fout。输入图像块Bin,大小为w×h,对图像块Bin进行DCT变换,得到和Bin同样大小的DCT系数块BDCT,对图像块Bin进行一阶水平梯度的运算,可以得到大小为(w-1)×h的块Bh,对图像块Bin进行一阶垂直梯度的运算,可以得到大小为w×(h-1)的块Bv,对图像块Bin进行二阶的Laplace算子的运算,可以得到大小为(w-1)×(h-1)的块BLaplace。然后,对图像块Bin进行矢量化操作,按照从上到下,从左到右的顺序把其中的元素放到矢量fin中,即Bin中的元素Bin(i,j)为矢量fin中的第w*(i-1)+j个元素,fin的大小为(w*h)×1;对块BDCT进行矢量化操作,可以得到矢量fDCT,大小为(w*h)×1;对块Bh进行矢量化操作得到矢量fh,大小为((w-1)*h)×1;对块Bv进行矢量化操作得到矢量fv,大小为(w*(h-1))×1;对块BLaplace进行矢量化操作得到矢量fLaplace,大小为((w-2)*(h-2))×1。把得到的矢量进行叠加工作,得到矢量fout=[(fin)T,(fDCT)T,(fh)T,(fv)T,(fLaplace)T]T,其中fT为矢量f的转置运算。这里的创新点在于把图像块的DCT系数参与到图像块的特征提取中。
以下将首先描述本发明的离线的训练过程。
离线的训练过程的输入为大量的高分辨率的图像,输出为主成分分析法获得的变换矩阵Tl1和Tl2,低分率图像特征矢量的各类别的中心的位置矢量,每个类别训练好的神经网络,即这个神经网络中各参数都优化地确定了其数值。然后,存储输出信息供在线超分辨率放大过程使用。此过程的步骤为:
A1)从训练图像集中的每一幅高分辨率图像提取其对应的低分辨率的图像/>这里,采用卷积和下采样的操作得到低分辨率的图像,以模拟从高分辨率图像退化到低分辨率图像的过程。其卷积模板为截断的高斯函数:
其模板大小为m1×m1,在本发明中m1=6,w为所有模板元素累加之和。即对高分辨率的图像执行以下操作
其中,sw是水平方向要放大的倍数,sh是垂直方向要放大的倍数。符号“↓”表示下采样。
A2)对得到的高分辨率图像和低分辨率图像进行分块操作,每个低分辨率图像块的大小为wl×hl,相邻的低分辨率的图像块之间的重叠区域的大小为ol×hl,则所对应的高分辨率图像块的大小为(wl*sw)×(hl*sh)。这样,可以得到很多低分辨率的图像块imlow和所对应的高分辨率图像块imhigh
A3)对所有低分辨率的图像块imlow进行特征提取的操作。把图像块imlow作为以上阐述的步骤C1中的输入,可以得到输出矢量fout1,由于矢量fout1的维数太大,不便于处理,采用主成分分析法,即principle component analysis method,对fout1进行降维,得到主成分分析法中的变换矩阵Tl1,并输出特征矢量flow1。在本发明中flow1的维数为fout1维数的1/10。存储这个变换矩阵Tl1,供在线过程使用。
A4)对所有低分辨率的图像块iml进行双三次的插值的放大,放大倍数为sw×sh,得到图像块imm,把图像块imm作为以上阐述的步骤C1中的输入,可以得到输出特征矢量fout2,然后对fout2采用主成分分析方法进行降维,得到变换矩阵Tl2,并输出特征矢量flow2。在本发明中flow2的维数为fout2维数的1/20。存储这个变换矩阵Tl2,供在线过程使用。
A5)把矢量flow1和flow2进行矢量叠加,得到低分辨率块特征矢量flow,即flow=[(flow1)T,(flow2)T]T。这里的创新点在于把低分辨率图像块和放大的低分辨率图像块一起来进行特征的提取。
A6)对高分辨率的图像块imhigh进行特征提取的操作,把图像块imhigh作为以上阐述的步骤C1中的输入,可以得到输出矢量fho。然后对矢量fho进行主成分分析降维,得到输出特征矢量fhigh,和变换矩阵Th,在本发明中fhigh的维数为fho维数的1/10。
A7)根据所提出的“抓娃娃”的方法,对所有图像块特征矢量flow进行聚类操作。在此方法中,如图2所示,把每个特征矢量看做为高维空间中的一个点。先随机地选择定点S,如果定点S的周围有超过K个的数据点离其的距离小于γc,则选择定点S作为第一类的锚点;否则,需要重新随机选择定点S。如图3(a)所示,其定点S周围的离其的距离小于γc的数据点太少,所以需要重新选择定点的位置。如图3(b)所示,其定点S周围的离其的距离小于γc的数据点足够多,所以可以进行聚类,选择离其最近的K个点作为第一类中的数据点。即,模拟商场中抓娃娃的方法,先在娃娃密度高的地方抓一把娃娃。第一类的中心为所有第一类的数据点的中心位置。然后,随机选择离已分类数据点的距离超过dc的数据点作为新的定点,以模拟抓娃娃过程中要离开已经抓过娃娃的位置,继续抓娃娃。如果新的定点的周围有超过K个的数据点离其的距离小于γ,则选择新的定点为新的类别的锚点。然后,选择离其最近的K个点作为新的类别中的数据点。新的类的中心为所有此类的数据点的中心位置。如果在完成一轮的聚类过程后,还有没有聚类的数据,则逐步增加聚类时所用的参数γc的大小,并逐步减少dc的大小。
所提出的方法的优点在于可以尽可能地使聚类中各类别中的数据点数为K,避免K-means方法中各类别中的数目相差太大的缺点,即在K-means方法中,有的类别具有很多数据,有的类别具有很少的数据。对于具有过多数据的点的类,其建立的模型将趋于过拟合状态,虽然建立的模型对于其中的数据的效果较好,但是其模型的泛化能力差,对于在线过程中的新数据,其产生的误差较大。对于具有过少数据点的类,其建立的模型将趋于欠拟合状态,因为样本点太少,所建立的模型的维数和准确性不够。
在完成聚类之后,存储所有的类别的中心点的位置,以供在线的超分辨率放大的过程使用。
A8)对每一类中的数据,训练能稀疏表示其中数据的低分辨率的字典和高分辨率的字典。对于第c*类,将使用压缩感知中的最优匹配跟踪法,即optimal matching pursuit方法,来求取其低分辨率的字典Dl(c*)和高分辨率的字典Dh(c*)。
A9)对每一类中的数据,确定其低分辨率的稀疏表示的系数、和高分辨率的稀疏表示的系数。以利用这些系数训练这一类的神经网络。其中,对于第c*类,利用K-SVD(K-奇异值分解)方法来求解以下优化问题,得到低分辨率块的稀疏表示系数
其中flow(c*,m)为第c*类当中的第m个低分辨率块的特征矢量,其获取方法如以上特征提取部分A5步骤所述,||x||n为矢量x的n范数,λl1表示拉格朗日乘子参数,本发明中根据实验优化的设置λl1=0.5,α为需要最小化式(12)中目标函数的变量,αl(c*,m)是求解的结果。类似地,利用K-SVD方法求解如下目标函数,得到对应的高分辨率块的稀疏表示系数
其中fhigh(c*,m)为第c*类当中的第m个高分辨率块的特征矢量,其获取方法如以上特征提取部分A6步骤所述,λh1表示拉格朗日乘子参数,本发明中根据实验优化的设置λh1=0.5,α为需要最小化式(13)中目标函数而求解的变量,αh(c*,m)是求解的结果。
A10)利用每一类的稀疏表示的系数,优化这一类的描述低分辨率稀疏系数和高分辨率稀疏系数之间关系的神经网络中的参数,并存储这个神经网络的参数,以供在线超分辨率放大的过程使用。
如图4所示,在所提出的方法中对每个类c*,将建立一个神经网络,用来学习这类中低分辨率的稀疏表示的系数αl(c*,m)和高分辨率的稀疏表示的系数αh(c*,m)之间的关系。所设计的神经网络包括三层,输入层为低分辨率的稀疏表示的系数,输出层为高分辨率的稀疏表示的系数。这里,隐含层神经元个数nh根据经验公式得到,其中ni为输入层神经元个数,no为输出层神经元个数,δ为1到10的一个经验常数,由仿真实验来优化地确定。神经网络的结构如图4所示。利用这一类c*中所有的低分辨率的稀疏表示的系数αl(c*,m)、和高分辨率的稀疏表示的系数αh(c*,m),和反向传播方法,即back propagationmethod,来训练这个神经网络,以确定这个神经网络中各神经元中的参数。
至此,所有离线的训练阶段的实施方式已阐述清楚。下面介绍本发明中,在线的仅利用输入的一幅低分辨率的图像,进行超分辨率的放大,获得一幅高分辨率的图像的步骤和方法。
B1)输入一幅低分辨率的图像,对其进行分块,每个低分辨率图像块的大小为wl×hl,相邻的低分辨率的图像块之间的重叠区域的大小为ol×hl。然后,对提取的低分辨率的图像块imLR进行以下的特征提取操作。
B2)把图像块imLR作为以上阐述的步骤C1中的输入,可以得到输出矢量ffeature1,然后采用训练阶段步骤A3得到的变换矩阵Tl1对ffeature1进行降维,得到矢量fLR1,即fLR1=Tl1*ffeature1
B3)对低分辨率的图像块imLR进行双三次的插值的放大,放大倍数为sw×sh,得到图像块imLRm,把图像块imLRm作为以上阐述的步骤C1中的输入,可以得到输出矢量ffeature2,然后采用训练阶段步骤A4得到的变换矩阵Tl2对ffeature2进行降维,得到矢量fLR2,即fLR2=T2*ffeature2
B4)把矢量fLR1和fLR2进行矢量叠加,得到低分辨率块特征矢量fLR,即fLR=[(fLR1)T,(fLR2)T]T
B5)根据矢量fLR和训练阶段得到的各类的中心,确定离fLR距离最近的类中心,并把此类中心所在的类co,作为矢量fLR所在的类。
B6)然后,采用K-SVD方法求解以下式(13)中的低分辨率图像块的稀疏表示的系数
其中,
Dl(co)和Dh(co)为训练阶段步骤A8所获得和存储的第co类的稀疏表示的低分辨率的字典和高分辨率的字典,fLR为以上步骤B5所获得的结果,P是提取当前高分辨率图像块和已重构的高分辨率图像上重叠区域的算子;ω是重叠区域中的元素值;β是需要通过仿真实验优化确定的参数;在本发明中β=1,λl1=0.5,α是低分辨率图像块的稀疏表示的系数的变量以最小化式(13)中的目标函数,是求解结果。
B7)利用训练阶段步骤A10所获得的第co类的神经网络,获得高分辨率块的稀疏表示的系数。这里的输入为低分辨率图像块的稀疏表示的系数利用co类的训练好的神经网络,得到其输出为矢量γ(co)。为了保证/>的稀疏度基本不变,我们只对/>中的非零位置进行优化,其优化方法如以下公式(15)所示,以得到优化的高分辨率稀疏表示的系数/>
这里,ε为常数参数,这里根据实验取ε=0.25,为提取/>为非零位置并进行计算的函数,其输入和输出o(co)的关系定义为
其中,xj表示矢量x中的第j个元素。这样,可以得到输入的低分辨率图像块所对应的高分辨率图像块的稀疏表示的系数
B8)利用高分辨率块的稀疏表示的系数得到高分辨率块xh。这里,通过等式其中Dh(co)为以上所述的co类的高分辨率的字典,可以得到高分辨率的图像块xh
B9)对低分辨率图像中,所有提取的低分辨率的图像块都进行了步骤B2到步骤B8的处理后,会得到很多高分辨率的图像块,把这些高分辨率的图像块进行拼接以后,就可以得到一幅高分辨率的图像X0。这里,对于高分辨率图像中图像块的重叠部分,采用求平均值的方法来确定其像素值。
B10)利用梯度下降的方法迭代地求解以下问题,直到所得到的解基本不变为止,最后得到了所要的高分辨率的图像Xh
其中H是卷积和下采样算子,Y为输入的低分辨率的图像,i表示其迭代求解的次数,X(i)为需要第i次最小化式(17)中目标函数的变量,i≥0,初始时X(0)=X0,X(i+1)为其第i+1次的迭代的求解结果。当X(I)和X(I+1)基本相等时,停止迭代,得到了所要的高分辨率的图像Xh,Xh=X(I+1)。
仿真实验和结果
我们对所提出的方法进行了仿真实验,所有实验的放大的倍数为3×3。和Zeyde所提出的SCSR方法一样,训练图像来源于标准库中的91张图像,图5展示了部分训练图像。对于测试图像,我们对比了双三次插值的方法、SCSR方法、和我们所提出的方法的实验结果,所对比的性能指标为普遍采用的峰值信噪比(PSNR)的指标。
表1各种方法的超分辨率放大重建结果的PSNR(*表示小尺寸图片)
从表1中可以看出,采用K-means进行聚类的所提出的方法的PSNR值在所列出的测试图像上平均比SCSR方法高出0.1个dB,提高了重建图像的质量。这里的图像质量的提高,主要依靠所提出的图像特征的提取方法和所提出的高分辨率稀疏系数的方法。
表2采用K-means进行聚类的所提出的方法和采用抓娃娃聚类方法的所提出的方法的超分辨率放大重建结果的PSNR(*表示小尺寸图片)
从表2中可以看出,在所提出的方法中应用所提出的抓娃娃方法进行聚类的性能要好于应用K-means进行聚类的方法。这里,图像质量的提高是依靠抓娃娃聚类方法获得的。
同时,我们对K-means聚类方法所需的运行时间和抓娃娃聚类方法所需的运行时间进行了对比。发现K-means聚类方法所需的运行时间平均是抓娃娃聚类方法所需的运行时间的1.73倍。所以,所提出的抓娃娃的方法比K-means方法具有更快的运行速度。

Claims (2)

1.一种新的图像超分辨率的方法,其包括离线的训练过程和在线的对图像放大的过程,利用其在线过程和离线过程所存储的训练结果,可以仅根据一幅低分辨率的图像,获得一幅高分辨率的图像,其离线的训练过程包括以下所述的步骤A1到A10,其在线的超分辨率放大的过程包括以下所述的步骤B1到B10;
由于对于离线的训练阶段和在线的训练阶段都需要进行图像块的特征提取,所以在这里先阐述在中对输入图像块Bin产生输出图像块输出矢量fout的步骤C1:
C1)输入:图像块Bin,输出:图像块Bin的输出特征矢量fout,输入图像块Bin,大小为w×h,对图像块Bin进行DCT变换,得到和Bin同样大小的DCT系数块BDCT,对图像块Bin进行一阶水平梯度的运算,可以得到大小为(w-1)×h的块Bh,对图像块Bin进行一阶垂直梯度的运算,可以得到大小为w×(h-1)的块Bv,对图像块Bin进行二阶的Laplace算子的运算,可以得到大小为(w-1)×(h-1)的块BLaplace,然后,对图像块Bin进行矢量化操作,按照从上到下,从左到右的顺序把其中的元素放到矢量fin中,即Bin中的元素Bin(i,j)为矢量fin中的第w*(i-1)+j个元素,fin的大小为(w*h)×1;对块BDCT进行矢量化操作,可以得到矢量fDCT,大小为(w*h)×1;对块Bh进行矢量化操作得到矢量fh,大小为((w-1)*h)×1;对块Bv进行矢量化操作得到矢量fv,大小为(w*(h-1))×1;对块BLaplace进行矢量化操作得到矢量fLaplace,大小为((w-2)*(h-2))×1;把得到的矢量进行叠加工作,得到矢量fout=[(fin)T,(fDCT)T,(fh)T,(fv)T,(fLaplace)T]T,其中fT为矢量f的转置运算;
离线的训练过程的输入为大量的高分辨率的图像,输出为主成分分析法获得的变换矩阵Tl1和Tl2,低分率图像特征矢量的各类别的中心的位置矢量,每个类别训练好的神经网络,即这个神经网络中各参数都优化地确定了其数值,然后,存储输出信息供在线超分辨率放大过程使用,此过程的步骤为:
A1)从训练图像集中的每一幅高分辨率图像fi h(x,y),提取其对应的低分辨率的图像fi l(x,y),这里,采用卷积和下采样的操作得到低分辨率的图像,以模拟从高分辨率图像退化到低分辨率图像的过程,其卷积模板为截断的高斯函数:
其模板大小为m1×m1,在此m1=6,w为所有模板元素累加之和,即对高分辨率的图像执行以下操作
其中,sw是水平方向要放大的倍数,sh是垂直方向要放大的倍数,符号“↓”表示下采样;
A2)对得到的高分辨率图像和低分辨率图像进行分块操作,每个低分辨率图像块的大小为wl×hl,相邻的低分辨率的图像块之间的重叠区域的大小为ol×hl,则所对应的高分辨率图像块的大小为(wl*sw)×(hl*sh),这样,可以得到很多低分辨率的图像块imlow和所对应的高分辨率图像块imhigh
A3)对所有低分辨率的图像块imlow进行特征提取的操作,把图像块imlow作为以上阐述的步骤C1中的输入,可以得到输出矢量fout1,由于矢量fout1的维数太大,不便于处理,采用主成分分析法,即principle component analysis method,对fout1进行降维,得到主成分分析法中的变换矩阵Tl1,并输出特征矢量flow1,在此flow1的维数为fout1维数的1/10,存储这个变换矩阵Tl1,供在线过程使用;
A4)对所有低分辨率的图像块iml进行双三次的插值的放大,放大倍数为sw×sh,得到图像块imm,把图像块imm作为以上阐述的步骤C1中的输入,可以得到输出特征矢量fout2,然后对fout2采用主成分分析方法进行降维,得到变换矩阵Tl2,并输出特征矢量flow2,在此flow2的维数为fout2维数的1/20,存储这个变换矩阵Tl2,供在线过程使用;
A5)把矢量flow1和flow2进行矢量叠加,得到低分辨率块特征矢量flow,即flow=[(flow1)T,(flow2)T]T
A6)对高分辨率的图像块imhigh进行特征提取的操作,把图像块imhigh作为以上阐述的步骤C1中的输入,可以得到输出矢量fho,然后对矢量fho进行主成分分析降维,得到输出特征矢量fhigh,和变换矩阵Th,在此fhigh的维数为fho维数的1/10;
A7)根据所提出的“抓娃娃”的方法,对所有图像块特征矢量flow进行聚类操作,在完成聚类之后,存储所有的类别的中心点的位置,以供在线的超分辨率放大的过程使用;
所述的“抓娃娃”的方法可以阐述如下:
首先在整个特征数据中随机定点S,定点需要满足以下公式(18),
其中,Si表示除随机选定的中心点S以外的其他全部数据点,||b||2表示数据点b的2范数,计算得到所有满足如下条件的数据Si:与S的距离的2范数的平方小于或等于γ1,记录其数据的位置i,#{i}表示满足这个条件的数据点的个数,这里,要使这些满足条件的数据点的个数m大于k,即定点S周围的数据点必须足够多,该数据点S才可以作为定点,并进行下一步聚类,当选定的数据中心S不满足与其2范数的平方小于等于γ的数据点的个数大于k的条件时,该数据中心不能作为中心定点,当不满足这个条件时将会重新随机定点,直到找到满足以上公式(18)的定点,
聚类过程同时要满足以下公式(19)的条件,
其中,c*表示第c*类,K为预设的每一数据点类所需的数据量,Sj(c*)为第j个和点S距离最小的其他数据,seti是这些数据的所构成的集合,#(seti)表示seti中元素的个数,即只取和S点最近的K个数据点构成一个集合,这个集合中的数据点构成一类,通过预设的每类数据量K,找到与定点S的距离的2范数最小的K个Sj,将它们归为一类,并将归类后的数据定义为空数据NaN,聚类中心为该类数据点的中心位置,选定一个数据类中的数据点后,这些数据点将被剔除,不进行以后的定点聚类,
进行完第一次聚类后,在选择定点时,除了满足公式(18)的条件,还需要满足以下公式(20)的条件,
其中,S′j为已经被聚类的所有数据,即数据Si满足与已被聚类的所有数据S′j的距离的2范数大于d,以保证数据聚类的独立性,由此依次进行聚类,直到聚类的类别数达到要求,或没有合适的定点聚类,
此方法可以尽可能地使聚类中各类别中的数据点数为K,避免K-means聚类方法中各类别中的数目相差太大的缺点,即在K-means方法中,有的类别具有很多数据,有的类别具有很少的数据,对于具有过多数据的点的类,其建立的模型将趋于过拟合状态,虽然建立的模型对于其中的数据的效果较好,但是其模型的泛化能力差,对于在线过程中的新数据,其产生的误差较大,对于具有过少数据点的类,其建立的模型将趋于欠拟合状态,因为样本点太少,所建立的模型的维数和准确性不够;
A8)对每一类中的数据,训练能稀疏表示其中数据的低分辨率的字典和高分辨率的字典,对于第c*类,将使用压缩感知中的最优匹配跟踪法,即optimal matching pursuit方法,来求取其低分辨率的字典Dl(c*)和高分辨率的字典Dh(c*);
A9)对每一类中的数据,确定其低分辨率的稀疏表示的系数、和高分辨率的稀疏表示的系数,以利用这些系数训练这一类的神经网络,其中,对于第c*类,利用K-SVD(K-奇异值分解)方法来求解以下优化问题,得到低分辨率块的稀疏表示系数
其中flow(c*,m)为第c*类当中的第m个低分辨率块的特征矢量,其获取方法如以上特征提取部分A5步骤所述,||x||n为矢量x的n范数,λl1表示拉格朗日乘子参数,根据实验优化地设置λl1=0.5,α为需要最小化式(12)中目标函数的变量,αl(c*,m)是求解的结果,类似地,利用K-SVD方法求解如下目标函数,得到对应的高分辨率块的稀疏表示系数
其中fhigh(c*,m)为第c*类当中的第m个高分辨率块的特征矢量,其获取方法如以上特征提取部分A6步骤所述,λh1表示拉格朗日乘子参数,根据实验优化的设置λh1=0.5,α为需要最小化式(13)中目标函数而求解的变量,αh(c*,m)是求解的结果;
A10)利用每一类的稀疏表示的系数,优化这一类的描述低分辨率稀疏系数和高分辨率稀疏系数之间关系的神经网络中的参数,并存储这个神经网络的参数,以供在线超分辨率放大的过程使用;
在所提出的方法中对每个类c*,将建立一个神经网络,用来学习这类中低分辨率的稀疏表示的系数αl(c*,m)和高分辨率的稀疏表示的系数αh(c*,m)之间的关系,所设计的神经网络包括三层,输入层为低分辨率的稀疏表示的系数,输出层为高分辨率的稀疏表示的系数,这里,隐含层神经元个数nh根据经验公式得到,其中ni为输入层神经元个数,no为输出层神经元个数,δ为1到10的一个经验常数,由仿真实验来优化地确定,在此设置δ=5,利用这一类c*中所有的低分辨率的稀疏表示的系数αl(c*,m)、和高分辨率的稀疏表示的系数αh(c*,m),和反向传播方法,即back propagation method,来训练这个神经网络,以确定这个神经网络中各神经元中的参数;
至此,所有离线的训练阶段的实施方式已阐述清楚,下面介绍在线的仅利用输入的一幅低分辨率的图像,进行超分辨率的放大,获得一幅高分辨率的图像的步骤和方法;
B1)输入一幅低分辨率的图像,对其进行分块,每个低分辨率图像块的大小为wl×hl,相邻的低分辨率的图像块之间的重叠区域的大小为ol×hl,然后,对提取的低分辨率的图像块imLR进行以下的特征提取操作;
B2)把图像块imLR作为以上阐述的步骤C1中的输入,可以得到输出矢量ffeature1,然后采用训练阶段步骤A3得到的变换矩阵Tl1对ffeature1进行降维,得到矢量fLR1,即fLR1=Tl1*ffeature1
B3)对低分辨率的图像块imLR进行双三次的插值的放大,放大倍数为sw×sh,得到图像块imLRm,把图像块imLRm作为以上阐述的步骤C1中的输入,可以得到输出矢量ffeature2,然后采用训练阶段步骤A4得到的变换矩阵Tl2对ffeature2进行降维,得到矢量fLR2,即fLR2=T2*ffeature2
B4)把矢量fLR1和fLR2进行矢量叠加,得到低分辨率块特征矢量fLR,即fLR=[(fLR1)T,(fLR2)T]T
B5)根据矢量fLR和训练阶段得到的各类的中心,确定离fLR距离最近的类中心,并把此类中心所在的类co,作为矢量fLR所在的类;
B6)然后,采用K-SVD方法求解以下式(13)中的低分辨率图像块的稀疏表示的系数
其中,
Dl(co)和Dh(co)分别为训练阶段步骤A8所获得和存储的第co类的稀疏表示的低分辨率的字典和高分辨率的字典,矩阵表示矩阵C为矩阵A和矩阵B垂直方向叠加所产生的矩阵,fLR为以上步骤B5所获得的结果,P是提取当前高分辨率图像块和已重构的高分辨率图像上重叠区域的算子;ω是重叠区域中的元素值;β是需要通过仿真实验优化确定的参数;在此β=1,λl1=0.5,α是低分辨率图像块的稀疏表示的系数的变量以最小化式(13)中的目标函数,/>是求解结果;
B7)利用训练阶段步骤A10所获得的第co类的神经网络,获得高分辨率块的稀疏表示的系数
B8)利用高分辨率块的稀疏表示的系数得到高分辨率块xh,这里,通过等式其中Dh(co)为以上所述的co类的高分辨率的字典,可以得到高分辨率的图像块xh
B9)对低分辨率图像中,所有提取的低分辨率的图像块都进行了步骤B2到步骤B8的处理后,会得到很多高分辨率的图像块,把这些高分辨率的图像块进行拼接以后,就可以得到一幅高分辨率的图像X0,这里,对于高分辨率图像中图像块的重叠部分,采用求平均值的方法来确定其像素值;
B10)利用梯度下降的方法迭代地求解以下问题,直到所得到的解基本不变为止,最后得到了所要的高分辨率的图像Xh
其中H是卷积和下采样算子,Y为输入的低分辨率的图像,i表示其迭代求解的次数,X(i)为需要第i次最小化式(17)中目标函数的变量,i≥0,初始时X(0)=X0,X(i+1)为其第i+1次的迭代的求解结果,当X(I)和X(I+1)基本相等时,停止迭代,得到了所要的高分辨率的图像Xh,即Xh=X(I+1)。
2.如权利要求1所述的一种新的图像超分辨率的方法,其中的根据低分辨率稀疏表示的系数获得高分辨率的稀疏表示的系数的方法;该方法可以阐述如下:
此方法的输入为低分辨率图像块的稀疏表示的系数利用在离线阶段存储的co类的训练好的神经网络,得到的输出为矢量γ(co),为了保证/>的稀疏度基本不变,我们只对/>中的非零位置进行优化,其优化方法如以下公式(21)所示,以得到优化的高分辨率稀疏表示的系数/>
这里,ε为常数参数,这里根据实验取ε=0.25,为提取/>为非零位置并进行计算的函数,其输入和输出o(co)的关系定义为
其中,xj表示矢量x中的第j个元素,这样,可以得到输入的低分辨率图像块所对应的高分辨率图像块的稀疏表示的系数
CN201910835991.8A 2019-08-29 2019-08-29 一种优化稀疏系数的单幅图像超分辨率方法 Active CN110619603B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910835991.8A CN110619603B (zh) 2019-08-29 2019-08-29 一种优化稀疏系数的单幅图像超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910835991.8A CN110619603B (zh) 2019-08-29 2019-08-29 一种优化稀疏系数的单幅图像超分辨率方法

Publications (2)

Publication Number Publication Date
CN110619603A CN110619603A (zh) 2019-12-27
CN110619603B true CN110619603B (zh) 2023-11-10

Family

ID=68922425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910835991.8A Active CN110619603B (zh) 2019-08-29 2019-08-29 一种优化稀疏系数的单幅图像超分辨率方法

Country Status (1)

Country Link
CN (1) CN110619603B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156875A (zh) * 2011-03-25 2011-08-17 西安电子科技大学 基于多任务ksvd字典学习的图像超分辨率重构方法
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法
CN107845065A (zh) * 2017-09-15 2018-03-27 西北大学 超分辨率图像重建方法和装置
CN109064399A (zh) * 2018-07-20 2018-12-21 广州视源电子科技股份有限公司 图像超分辨率重建方法和系统、计算机设备及其存储介质
CN109766863A (zh) * 2019-01-18 2019-05-17 南京邮电大学 一种基于局部和稀疏非局部正则的人脸图像超分辨率方法
CN110009565A (zh) * 2019-04-04 2019-07-12 武汉大学 一种基于轻量化网络的超分辨率图像重建方法
CN110084750A (zh) * 2019-04-12 2019-08-02 浙江师范大学 基于多层岭回归的单幅图像超分辨率方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170193635A1 (en) * 2014-05-28 2017-07-06 Peking University Shenzhen Graduate School Method and apparatus for rapidly reconstructing super-resolution image
CN106780342A (zh) * 2016-12-28 2017-05-31 深圳市华星光电技术有限公司 基于稀疏域重构的单帧图像超分辨重建方法及装置
CN107492071B (zh) * 2017-08-17 2021-04-27 京东方科技集团股份有限公司 医学图像处理方法及设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156875A (zh) * 2011-03-25 2011-08-17 西安电子科技大学 基于多任务ksvd字典学习的图像超分辨率重构方法
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法
CN107845065A (zh) * 2017-09-15 2018-03-27 西北大学 超分辨率图像重建方法和装置
CN109064399A (zh) * 2018-07-20 2018-12-21 广州视源电子科技股份有限公司 图像超分辨率重建方法和系统、计算机设备及其存储介质
CN109766863A (zh) * 2019-01-18 2019-05-17 南京邮电大学 一种基于局部和稀疏非局部正则的人脸图像超分辨率方法
CN110009565A (zh) * 2019-04-04 2019-07-12 武汉大学 一种基于轻量化网络的超分辨率图像重建方法
CN110084750A (zh) * 2019-04-12 2019-08-02 浙江师范大学 基于多层岭回归的单幅图像超分辨率方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Geometry Constrained Sparse Coding for Single Image Super-resolution;Xiaoqiang Lu等;《2012 IEEE Conference on Computer Vision and Pattern Recognition》;1648-1655 *
基于深度图像的超分辨率重建方法研究与实现;张芃芃;《中国优秀硕士学位论文全文数据库》;信息科技辑(第6期);I138-497 *

Also Published As

Publication number Publication date
CN110619603A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
US11508146B2 (en) Convolutional neural network processing method and apparatus
US11227364B2 (en) Computer-implemented method using convolutional neural network, apparatus for generating composite image, and computer-program product
CN111091045B (zh) 一种基于时空注意力机制的手语识别方法
CN106845529B (zh) 基于多视野卷积神经网络的影像特征识别方法
CN110119805B (zh) 基于回声状态网络分类的卷积神经网络算法
CN114677412B (zh) 一种光流估计的方法、装置以及设备
CN112070768A (zh) 基于Anchor-Free的实时实例分割方法
CN109785279B (zh) 一种基于深度学习的图像融合重建方法
CN112488209A (zh) 一种基于半监督学习的增量式图片分类方法
CN108765287B (zh) 一种基于非局部均值的图像超分辨率方法
CN110084750A (zh) 基于多层岭回归的单幅图像超分辨率方法
CN110619603B (zh) 一种优化稀疏系数的单幅图像超分辨率方法
Kwasigroch et al. Deep neural network architecture search using network morphism
CN115280329A (zh) 用于查询训练的方法和系统
US20230073175A1 (en) Method and system for processing image based on weighted multiple kernels
Althbaity et al. Colorization Of Grayscale Images Using Deep Learning
CN113096020B (zh) 基于平均模式生成对抗网络的书法字体创作方法
Bhattacharjya et al. A genetic algorithm for intelligent imaging from quantum-limited data
CN110659962B (zh) 一种商品信息输出方法及相关装置
Agbinya Convolutional neural networks
CN111292238A (zh) 一种基于正交偏最小二乘的人脸图像超分辨率重建方法
CN111882563B (zh) 一种基于方向性全卷积网络的语义分割方法
Shvetsov et al. QuantNAS for super resolution: searching for efficient quantization-friendly architectures against quantization noise
Seetharam Structured Disentangling Networks for Learning Deformation Invariant Latent Spaces
Bidart et al. Disentangling shape and orientation with affine variational autoencoders

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant