CN103049340A - 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法 - Google Patents

基于纹理上下文约束的视觉词汇的图像超分辨率重建方法 Download PDF

Info

Publication number
CN103049340A
CN103049340A CN2012104214852A CN201210421485A CN103049340A CN 103049340 A CN103049340 A CN 103049340A CN 2012104214852 A CN2012104214852 A CN 2012104214852A CN 201210421485 A CN201210421485 A CN 201210421485A CN 103049340 A CN103049340 A CN 103049340A
Authority
CN
China
Prior art keywords
resolution
image
visual vocabulary
visual
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012104214852A
Other languages
English (en)
Inventor
赖剑煌
梁炎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN2012104214852A priority Critical patent/CN103049340A/zh
Publication of CN103049340A publication Critical patent/CN103049340A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,属于图像超分辨率研究领域。本发明针对现有方法的不足,通过组合聚类学习低分辨率视觉词汇到高分辨率视觉词汇一一映射的几何特征共生先验知识,使得几何特征的相似性保持在每一对低分辨率和高分辨率的视觉词汇之间,满足了基于实例法的假设条件,确保还原的高分辨率图像细节的准确性,并建立了一个两步的图像超分辨率重建框架,该框架由纹理上下文特征使用最大后验方法有效地评估真实高分辨率图像所属的视觉词汇,并且通过子空间约束和重构约束由低分辨率图像构建高分辨率图像细节。相比现有的方法,通过本发明提取出来的高分辨率图像细节更加真实清晰,符合实际情况。

Description

基于纹理上下文约束的视觉词汇的图像超分辨率重建方法
技术领域
本发明涉及图像超分辨率研究领域,特别涉及一种基于纹理上下文约束的视觉词汇的图像超分辨率重建方法。 
背景技术
在实际应用中,由于摄像机与感兴趣景物距离较远、或由于硬件原因使所拍摄图像的分辨率很低,感兴趣景物在图像中所占的像素个数很少,从而缺少细节信息,导致难以从图像中识别和提取感兴趣的区域。图像超分辨率研究技术因为可解决上述问题而得到广泛关注。 
传统的图像超分辨率重建方法是通过同一场景的多个低分辨率图像对高分辨率图像进行估计,但这种方法对于多个子像素精度的低分辨图像的对齐是困难的,并且现在许多的应用只允许单幅输入的低分辨率图像。 
单幅图像的图像超分辨率方法可以分为三种:基于插值的方法,基于重构的方法和基于实例的方法。传统的插值方法和重构方法需要配合先验知识,但是常用的关于边缘的先验知识无法从低分辨率图像的大部分平滑图像区域中构造出高分辨率的边缘细节;基于实例的方法虽然能通过学习高分辨率和低分辨率图像块对来恢复丢失的高分辨率图像细节信息,但是基于实例的方法关于低分辨率图像间的相似意味着相应的高分辨率图像间的相似的假设实际上不一定成立,因此不能保证还原的高分辨率图像细节的准确性。 
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,该方法能够使提取出来的高分辨率图像细节更加真实清晰,更加符合实际情况。 
本发明的目的通过以下的技术方案实现:基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,包括以下步骤: 
(1)训练阶段:分为两个部分, 
(1-1)第一个部分:把成对的同一场景下的高分辨率训练图像块和低分辨率训练图像块的梯度域特征组合在一起,对组合的特征进行聚类分析,把聚类 得到的成对的高分辨率的视觉词汇和低分辨率的视觉词汇作为几何共生特征先验知识,并通过主成分分析找到表达每一个高分辨率视觉词汇的子空间; 
(1-2)第二个部分:通过图像分割,从高分辨率图像训练集中产生带有连续纹理特征的高分辨率图像区域库,然后通过降采样得到对应的低分辨率区域库,从而构建出一个由高分辨率图像区域和低分辨率图像区域对组成的数据库; 
(2)测试阶段:把输入的低分辨率图像分为若干个图像块和图像区域,通过基于纹理上下文中的词频信息的最大后验概率标准找到最优候选视觉词汇,然后实施子空间约束和重构约束构建高分辨率图像块,最后施加邻近高分辨率图像块间的兼容性约束构建整个图像。 
优选的,所述步骤(1-1)中,本发明通过计算水平和竖直的一阶梯度作为局部特征,并且把一个图像块的所有像素点的梯度特征连接起来形成一个向量作为梯度域特征,从而得到每一个图像块的局部几何特征表示,然后再连接高、低分辨率图像块的局部几何特征作为组合的特征。 
作为优选方案,所述步骤(1-1)中,聚类分析采用B.J.Frey等人提出的仿射传播聚类算法(参考:B.J.Frey and D.Dueck,“Clustering by passing messages between data points,”Science,2007),该算法是把所有的数据点作为同等的聚类中心的候选,得到初始的聚类结果。 
更进一步的,在初始的聚类结果上采取增量方式的竞争学习方法改善聚类结果并且增加训练样本的数量。增量方式的竞争学习方法如下:设经过仿射传播聚类后有N个聚类C1…CN,Xn=xn1,…,xnM}是聚类Cn的M个成员,聚类中心计算为成员的均值 协方差矩阵计算公式为 
Figure BDA00002313939100022
对于每一个新的特征向量x,考虑到聚类的采样分布,计算它与每一个聚类中心的马氏距离 把x分配到与它的马氏距离最小的聚类并更新这个聚类,假设更新的聚类是Cn,采用留一逼近法找到Cn中“最差的”样本,在Cn中选择一个样本,计算这个样本与Cn中剩下的样本的中心的马氏距离,计算得到的马氏距离最大的样本则为“最差的”样本,如果这个样本距离聚类Cn中心的马氏距离小于它距离其他聚类中心的马 氏距离,则聚类Cn保留这个样本,否则去除它并且分配给其他聚类。 
所述步骤(1-2)中,图像分割方法使用的是伯克利分割引擎法(BSE)(参考:C.Fowlkes,D.Martin,and J.Malik,“Learning affinity functions for image segmentation:Combining patch-based and gradient-based approaches,”Proc.IEEE Conf.Computer Vision and Pattern Recognition,2003、D.Martin,C.Fowlkes,and J.Malik,“Learning to detect natural image boundaries using local brightness,color and texture cues,”IEEE Trans.Pattern Analysis and Machine Intelligence,vol.26,no.5,pp.530–549,2004),对分割后的区域计算纹理特征从而产生带有连续纹理特征的高分辨率图像区域库,纹理特征是通过计算滤波器的响应得到的,本方法的滤波器组包含三个尺度、六个方向的一阶和二阶高斯差分滤波器加上一个围绕中心的高斯差分滤波器(DOG)共19个,对每一个滤波器i,本方法把滤波器的响应量化为20个区间 
Figure BDA00002313939100031
然后两个图像区域的S1和S2的纹理相似性通过它们对应的滤波器响应直方图的χ2差分算子衡量: 
χ 2 ( S 1 , S 2 ) = Σ i = 1 19 Σ b = 1 20 ( h i , b 1 - h i , b 2 ) 2 h i , b 1 + h i , b 2 .
所述步骤(2)中,使用最大后验概率标准找最优候选视觉词汇的公式表达为: 
max C n p ( C n | x l , T ) ,
其中xl是低分辨率输入图像块,Cn是可能的视觉词汇,n=1…N,T是纹理上下文特征,基于贝叶斯理论,可以得到 p ( C n | x l , T ) = 1 Z p ( x l | C n , T ) p ( C n | T ) , 其中Z是一个常数,由于对于一个给定的视觉词汇Cn,xl和T是条件独立的,因此有 p ( C n | x l , T ) = 1 Z p ( x l | C n ) p ( C n | T ) , 最后公式等价于 
Figure BDA00002313939100036
设低分辨率视觉词汇满足高斯分布,则p(xl|Cn)公式为: 
p ( x l | C n ) = 1 ( 2 π ) d / 2 | Σ ln | 1 / 2 exp [ - 1 2 ( x l - x ln ‾ ) T Σ ln - 1 ( x l - x ln ‾ ) ] ,
其中 
Figure BDA00002313939100038
是第n个低分辨率视觉词汇的样本均值,∑ln是第n个低分辨率视觉 词汇的样本协方差,d是样本维数;关于条件先验知识p(Cn|T):通过把纹理上相似的图像区域对中的高分辨率和低分辨率图像块对划分到同一个视觉词汇,可以得到关于视觉词汇的词频统计,从而近似得到条件先验知识p(Cn|T),由于本方法中词汇码书数量很大,通过硬分配方法进行词频统计需要的样本数量过大,因此本方法通过软分配方法使用高斯函数把每一个样本按权重分配给多个视觉词汇:第i个图像块对第n个视觉词汇的权值为 
Figure BDA00002313939100041
其中Di,n是第i个图像块和第n个视觉词汇马氏距离,第n个视觉词汇总的权值是所有样本图像块的权值之和得到: 
Figure BDA00002313939100042
然后对权值进行L1范数归一化,使得:  Σ n w i , n = 1 Σ n W n = 1 .
由于图像分割存在错误,纹理上下文约束并不总是有效的,为了避免过于依赖p(Cn|T)的先验知识而导致一些错误的产生,本方法通过阈值措施使用可能性最大的方法先确定一些候选的视觉词汇,具体步骤如下:首先对每一个视觉词汇设定一个半径阈值作为它和样本之间的最大马氏距离,然后对每一个输入的低分辨率图像,选择若干个最有可能的低分辨率视觉词汇并且排除掉和低分辨率输入图像的马氏距离大于半径阈值的视觉词汇,把其他的视觉词汇添加到候选视觉词汇集S,如果所选的视觉词汇都是异常值,则把所有词汇全部选中,从而得到候选视觉词汇集S,并通过最大后验概率估计最优视觉词汇,公式为:  C opt = arg max Cn p ( x l | C n ) p ( C n | T ) , C n ∈ S .
所述步骤(2)中,子空间约束中的子空间模型建立方法为:给定属于某一个高分辨率视觉词汇的K个样本图像块{L1,…LK},Li是第i个图像块的灰度向量,计算这些向量的样本均值 
Figure BDA00002313939100046
并且通过主成分分析(PCA)方法得到特征向量矩阵P=[P1,…,PJ],其中J是高分辨率视觉词汇子空间的维数,特征向量Pi是基向量,则在子空间中的任意图像块L可表达为样本均值和基向量的加权线性组合: 其中α=[α1,…,αJ]T。子空间模型建立后,高分辨率图像块可以通过权值α和特征向量矩阵P的线性组合重构。 
所述步骤(2)中,实施重构约束构建高分辨率图像块的具体步骤为:低分辨率图像l是高分辨率图像L模糊和降采样后的结果 
Figure BDA00002313939100052
其中 
Figure BDA00002313939100053
和pi是模糊和降采样后的 
Figure BDA00002313939100054
和Pi,p=[p1,…pJ], 
如果高分辨率视觉词汇子空间的维数大于输入的低分辨率图像的维数,则这是一个病态方程问题,转化为: 
min | | α | | 0 s . t . l = l ‾ + pα ,
上述问题为一个NP最优化问题,在α足够稀疏条件下通过求解L1范数最优化问题近似: min | | α | | 1 s . t . l = l ‾ + pα ;
如果高分辨率视觉词汇子空间的维数不大于输入低分辨率图像维数,这是一个过定问题,用最小二乘法求解: 
min α | | l - l ‾ - pα | | 2 ,
得到最优参数α*后将高分辨率图像块L*重构为: 
Figure BDA00002313939100058
最后通过相邻图像块间重叠区域平均灰度值的方法得到整个图像。 
本发明与现有技术相比,具有如下优点和有益效果: 
1、本发明针对已有方法的不足,通过组合聚类学习低分辨率视觉词汇到高分辨率视觉词汇一一映射的几何特征共生先验知识,使得几何特征的相似性保持在每一对低分辨率和高分辨率的视觉词汇之间,满足了基于实例法的假设条件,确保还原的高分辨率图像细节的准确性。 
2、本发明建立了一个两步的超分辨率图像匹配框架,该框架基于纹理上下文特征并使用最大后验方法有效地评估真实高分辨率图像所属的视觉词汇并且通过子空间约束和重构约束由低分辨率图像提取出高分辨率图像细节。相比现有的方法,通过本发明的框架构建出来的高分辨率图像细节更加真实清晰,符 合实际情况。 
附图说明
图1为本发明方法的算法流程图。 
图2(a)~(h)为本发明方法和现有方法对纹理图像1的超分辨率重建结果对比图; 
图3(a)~(h)为本发明方法和现有方法对纹理图像2的超分辨率重建结果对比图; 
图4(a)为本发明的方法和其他方法关于最小均方误差MSE数值的对比图; 
图4(b)为本发明的方法和其他方法关于结构相似性指标SSIM数值的对比图。 
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。 
实施例1 
本实施例基于纹理上下文约束的视觉词汇的图像超分辨率重建方法的算法流程如图1所示,包括下述步骤: 
(1)训练阶段:分为两个部分,详述如下。 
(1-1)训练阶段1,把成对的同一场景下的高分辨率训练图像块和低分辨率训练图像块的梯度域特征组合在一起,对组合的特征进行聚类分析,把聚类得到的成对的高分辨率的视觉词汇和低分辨率的视觉词汇作为几何共生特征先验知识,并找到表达每一个高分辨率视觉词汇的子空间。 
本实施例通过计算水平和竖直的一阶梯度作为局部特征,并且把一个图像块的所有像素点的梯度特征连接起来形成一个向量作为梯度域特征,从而得到每一个图像块的局部几何特征表示,然后再连接高、低分辨率图像块的局部几何特征作为组合的特征。 
本实施例中聚类分析采用B.J.Frey等人提出的仿射传播聚类算法。该算法是把所有的数据点作为同等的聚类中心的候选,得到初始的聚类结果,本实施例所采用算法是在上述初始的聚类结果上继续采取增量方式的竞争学习方法来进一步改善聚类结果并且增加训练样本的数量。 
增量方式的竞争学习方法如下:设经过仿射传播聚类后有N个聚类C1…CN, Xn={xn1,…,xnM}是聚类Cn的M个成员,聚类中心计算为成员的均值 协方差矩阵计算公式为 
Figure BDA00002313939100072
对于每一个新的特征向量x,考虑到聚类的采样分布,计算它与每一个聚类中心的马氏距离 
Figure BDA00002313939100073
把x分配到与它的马氏距离最小的聚类并更新这个聚类,假设更新的聚类是Cn,采用留一逼近法找到Cn中“最差的”样本,在Cn中选择一个样本,计算这个样本与Cn中剩下的样本的中心的马氏距离,计算得到的马氏距离最大的样本则为“最差的”样本,如果这个样本距离聚类Cn中心的马氏距离小于它距离其他聚类中心的马氏距离,则聚类Cn保留这个样本,否则去除它并且分配给其他聚类。 
(1-2)训练阶段2,通过图像分割,从高分辨率图像训练集中产生带有连续纹理特征的高分辨率图像区域库,然后通过降采样得到对应的低分辨率区域库,从而构建出一个由高分辨率图像区域和低分辨率图像区域对组成的数据库. 
本实施例中,图像分割方法使用的是伯克利分割引擎法(BSE)。本方法中纹理特征是通过滤波器的响应衡量的,本方法的滤波器组包含三个尺度、六个方向的一阶和二阶高斯差分滤波器加上一个围绕中心的高斯差分滤波器(DOG)共19个,对每一个滤波器i,本方法把滤波器的响应量化为20个区间 
Figure BDA00002313939100074
然后两个图像区域的S1和S2的纹理相似性是通过它们对应的滤波器响应直方图的χ2差分算子衡量: 
χ 2 ( S 1 , S 2 ) = Σ i = 1 19 Σ b = 1 20 ( h i , b 1 - h i , b 2 ) 2 h i , b 1 + h i , b 2 .
(2)测试阶段,把输入的低分辨率图像分为若干个图像块和图像区域,通过基于纹理上下文中的词频信息的最大后验概率标准找到最优候选视觉词汇,然后实施子空间约束和重构约束构建高分辨率图像块,最后施加邻近高分辨率图像块间的兼容性约束构建整个图像。 
在本实施例中,在寻找最优视觉词汇前先确定一些候选的视觉词汇,具体步骤如下:首先对每一个视觉词汇设定一个半径阈值作为它和样本之间的最大 马氏距离,然后对每一个输入的低分辨率图像,选择若干个最有可能的低分辨率视觉词汇并且排除掉和低分辨率输入图像的马氏距离大于半径阈值的视觉词汇,把其他的视觉词汇添加到候选视觉词汇集S,如果所选的视觉词汇都是异常值,则把所有词汇全部选中,从而得到候选视觉词汇集S,并通过最大后验概率估计最优视觉词汇,公式为: C opt = arg max Cn p ( x l | C n ) p ( C n | T ) , C n ∈ S .
而使用最大后验概率标准找最优候选视觉词汇的公式为: 
Figure BDA00002313939100082
其中xl是低分辨率输入图像块,Cn是可能的视觉词汇,n=1…N,T是纹理上下文特征,基于贝叶斯理论,可以得到 p ( C n | x l , T ) = 1 Z p ( x l | C n , T ) p ( C n | T ) , 其中Z是一个常数,由于对于一个给定的视觉词汇Cn,xl和T是条件独立的,因此有  p ( C n | x l , T ) = 1 Z p ( x l | C n ) p ( C n | T ) , 最后公式等价于 
Figure BDA00002313939100085
设低分辨率视觉词汇满足高斯分布,则p(xl|Cn)公式为  p ( x l | C n ) = 1 ( 2 π ) d / 2 | Σ ln | 1 / 2 exp [ - 1 2 ( x l - x ln ‾ ) T Σ ln - 1 ( x l - x ln ‾ ) ] , 其中 
Figure BDA00002313939100087
是第n个低分辨率视觉词汇的样本均值,∑ln是第n个低分辨率视觉词汇的样本协方差,d是样本维数;关于条件先验知识p(Cn|T):通过把纹理上相似的图像区域对中的高分辨率和低分辨率图像块对划分到同一个视觉词汇,可以得到关于视觉词汇的词频统计,从而近似得到条件先验知识p(Cn|T),由于本方法中词汇码书数量很大,通过硬分配方法进行词频统计需要的样本数量过大,因此本方法通过软分配方法使用高斯函数把每一个样本按权重分配给多个视觉词汇:第i个图像块对第n个视觉词汇的权值为 
Figure BDA00002313939100088
其中Di,n是第i个图像块和第n个视觉词汇马氏距离,第n个视觉词汇总的权值是所有样本图像块的权值之和得到: 
Figure BDA00002313939100089
然后对权值进行L1范数归一化,使得: 
Figure BDA000023139391000810
和 
Figure BDA000023139391000811
在实施子空间约束构建高分辨率图像块前需要建立子空间模型,子空间约束中的子空间模型建立方法为:给定属于某一个高分辨率视觉词汇的K个样本 图像块{L1,…LK},Li是第i个图像块的灰度向量,计算这些向量的样本均值 
Figure BDA00002313939100091
并且通过主成分分析方法得到特征向量矩阵P=[P1,…,PJ],其中J是高分辨率视觉词汇子空间的维数,特征向量Pi是基向量,在子空间中的任意图像块L表达为样本均值和基向量的加权线性组合: 
Figure BDA00002313939100092
其中α=[α1,…,αJ]T;子空间模型建立后,高分辨率图像块可以通过权值a和特征向量矩阵P的线性组合重构。 
重构约束的内容为:低分辨率图像l是高分辨率图像L模糊和降采样后的结果 其中 
Figure BDA00002313939100094
和pi是模糊和降采样后的 
Figure BDA00002313939100095
和Pi,p=[p1,…pJ],如果J大于输入低分辨率图像的维数则这是一个病态方程问题转化为 
Figure BDA00002313939100096
这是一个NP最优化问题,在α足够稀疏条件下可以通过求解L1范数最优化问题近似: 如果J不大于输入低分辨率图像维数,这是一个过定问题,可以用最小二乘法求解: 
Figure BDA00002313939100098
得到最优参数α*后高分辨率图像块L*重构为: 
Figure BDA00002313939100099
最后通过相邻图像块间重叠区域平均灰度值的方法得到整个图像。 
本实施例通过以下实验对本发明的效果进行说明:实验选择LabelMe数据库,BSDS500数据集和网上的图片集共5000张作为训练图像,把训练图像限制为以下几种:人类、植物、动物、建筑物和常见的纹理图像。对于彩色图片,本实验仅使用YCbCr颜色模型中的灰度成分Y来进行超分辨率图像重建,其余成分通过低分辨率图像的简单插值得到。图像的放大倍数设置为3,低分辨率图像块设置为3×3且相邻的图像块之间有1重叠像素,而对应的高分辨率图像块设置为9×9且相邻的图像块之间有3重叠像素。本实验从训练图像中随机抽取200000对高分辨率和低分辨率图像块来组合学习高分辨率和低分辨率视觉词汇,其中40000对是用于仿射传播聚类算法的,其余160000对用于增量方式的竞争学习聚类方法,聚类数量为3226个。实验还从训练图像中选择100000对图像区域来进行上下文约束训练,其中20对纹理上最相似的图像区域被选择作为纹 理上下文约束,对于PCA算法,视觉词汇子空间中维数J的选择选择标准是前J个主成分可以取得95%累积特征值比率。 
本实验还比较得出了本实施例所述方法和几种常用的图像超分辨率重建方法的效果,本次实验中采用的现有的算法有双三次插值法、邻域嵌入法、稀疏编码法、上下文约束法,为了证实纹理上下文约束的效果,还比较了仅使用最近邻视觉词汇估计的方法,比较的结果如图2、3所示,对于图2的纹理图像1,(a)为低分辨率输入图像,其中黑色框区域是后面用来重建的部分,(b)是双三次插值法超分辨率重建结果,(c)是邻域嵌入法超分辨率重建结果,(d)是稀疏编码法超分辨率重建结果,(e)是上下文约束法超分辨率重建结果,(f)是不带纹理上下文约束本实施例的方法的超分辨率重建结果,(g)是本实施例所述方法的超分辨率重建结果,(h)是原本高分辨率图像。对于图3的纹理图像2,(a)为低分辨率输入图像,其中黑色框区域是后面用来重建的部分,(b)是双三次插值法超分辨率重建结果,(c)是邻域嵌入法超分辨率重建结果,(d)是稀疏编码法超分辨率重建结果,(e)是上下文约束法超分辨率重建结果,(f)是不带纹理上下文约束本实施例的方法的超分辨率重建结果,(g)是本实施例方法的超分辨率重建结果,(h)是原本高分辨率图像。比较的结果表明本实施例所述方法得到的高分辨率图像比其它的方法得到的图像细节更真实清晰,恢复了更多细节,更接近原本图像。为了定量评价不同图像超分辨率方法的效果,本实验使用真实图像和超分辨率图像之间的均方误差(MSE)和结构相似性指标(SSIM)对匹配效果进行评价,得到的实验结果如图4(a)、(b)所示,在图中,①表示采用双三次插值法,②表示采用邻域嵌入法,③表示采用稀疏编码法,④表示采用上下文约束法,⑤表示采用不带纹理上下文约束本实施例的方法,⑥表示采用本实施例方法,由图可见本实施例所述的方法性能优于其他方法,MSE最小并且SSIM最大。 
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。 

Claims (9)

1.基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,包括以下步骤:
(1)训练阶段:分为两个部分,
(1-1)第一个部分:把成对的同一场景下的高分辨率训练图像块和低分辨率训练图像块的梯度域特征组合在一起,对组合的特征进行聚类分析,把聚类得到的成对的高分辨率的视觉词汇和低分辨率的视觉词汇作为几何共生特征先验知识,并通过主成分分析找到表达每一个高分辨率视觉词汇的子空间;
(1-2)第二个部分:通过图像分割,从高分辨率图像训练集中产生带有连续纹理特征的高分辨率图像区域库,然后通过降采样得到对应的低分辨率区域库,从而构建出一个由高分辨率图像区域和低分辨率图像区域对组成的数据库;
(2)测试阶段:把输入的低分辨率图像分为若干个图像块和图像区域,通过基于纹理上下文中的词频信息的最大后验概率标准找到最优候选视觉词汇,然后实施子空间约束和重构约束构建高分辨率图像块,最后施加邻近高分辨率图像块间的兼容性约束构建整个图像。
2.根据权利要求1所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(1-1)中,通过计算水平和竖直的一阶梯度作为局部特征,并且把一个图像块的所有像素点的梯度特征连接起来形成一个向量作为梯度域特征,从而得到每一个图像块的局部几何特征表示,然后再连接高、低分辨率图像块的局部几何特征作为组合的特征。
3.根据权利要求1所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(1-1)中,对组合的特征进行聚类分析后,在初始的聚类结果上采取增量方式的竞争学习方法改善聚类结果,具体步骤如下:
设经过仿射传播聚类后有N个聚类C1…CN,Xn={xn1,…,xnM}是聚类Cn的M个成员,聚类中心计算为成员的均值 
Figure FDA00002313939000011
协方差矩阵计算公式为 对于每一个新的特征向量x,考虑到聚类的采样分布,计算它与每一个聚类中心的马氏距离 把x分配到与它的马氏距离最小的聚类并更新这个聚类,假设更新的聚类是Cn,采用留一逼近法找到Cn中“最差的”样本,在Cn中选择一个样本,计算这个样本与Cn中剩下的样本的中心的马氏距离,计算得到的马氏距离最大的样本则为“最差的” 样本,如果这个样本距离聚类Cn中心的马氏距离小于它距离其他聚类中心的马氏距离,则聚类Cn保留这个样本,否则去除它并且分配给其他聚类。
4.根据权利要求1所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(1-2)中纹理特征是通过计算滤波器的响应得到的,滤波器组包含三个尺度、六个方向的一阶和二阶高斯差分滤波器加上一个围绕中心的高斯差分滤波器共19个,对每一个滤波器i,把滤波器的响应量化为20个区间 
Figure FDA00002313939000021
然后两个图像区域的S1和S2的纹理相似性通过它们对应的滤波器响应直方图的χ2差分算子衡量:
Figure FDA00002313939000022
5.根据权利要求1所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(2)中,使用最大后验概率标准找最优候选视觉词汇的公式表达为:
Figure FDA00002313939000023
其中xl是低分辨率输入图像块,Cn是可能的视觉词汇,n=1…N,T是纹理上下文特征,公式(1)等价于:
设低分辨率视觉词汇满足高斯分布,则p(xl|Cn)公式为:
Figure FDA00002313939000025
其中 是第n个低分辨率视觉词汇的样本均值,∑ln是第n个低分辨率视觉词汇的样本协方差,d是样本维数;
对于纹理上相似的图像区域对,把其中的高分辨率和低分辨率图像块对划分到同一个视觉词汇,得到关于视觉词汇的词频统计,从而近似得到条件先验知识p(Cn|T)。
6.根据权利要求5所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,求取视觉词汇的词频统计时,通过软分配方法使用高斯函数把每一个样本按权重分配给多个视觉词汇,具体为:第i个图像块对第n个视觉词汇的权值为 
Figure FDA00002313939000027
其中Di,n是第i个图像块和第n个视觉词汇马氏距离,第n个视觉词汇总的权值是所有样本图像块的权值之和得到: 然后对权值进行L1范数归一化,使得: 和 
Figure FDA000023139390000210
7.根据权利要求5所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,在寻找最优视觉词汇前先确定一些候选的视觉词汇,具体步骤如下:首先对每一个视觉词汇设定一个半径阈值作为它和样本之间的 最大马氏距离,然后对每一个输入的低分辨率图像,选择若干个最有可能的低分辨率视觉词汇并且排除掉和低分辨率输入图像的马氏距离大于半径阈值的视觉词汇,把其他的视觉词汇添加到候选视觉词汇集S,如果所选的视觉词汇都是异常值,则把所有词汇全部选中,从而得到候选视觉词汇集S,并通过最大后验概率估计最优视觉词汇,公式为:
Figure FDA00002313939000031
Cn∈S。
8.根据权利要求1所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(2)中,子空间约束中的子空间模型建立方法为:给定属于某一个高分辨率视觉词汇的K个样本图像块{L1,…LK},Li是第i个图像块的灰度向量,计算这些向量的样本均值 
Figure FDA00002313939000032
并且通过主成分分析方法得到特征向量矩阵P=[P1,…,PJ],其中J是高分辨率视觉词汇子空间的维数,特征向量Pi是基向量,则在子空间中的任意图像块L表达为样本均值和基向量的加权线性组合:
Figure 20121042148521000011
其中α=[α1,…,αJ]T
子空间模型建立后,高分辨率图像块通过权值α和特征向量矩阵P的线性组合重构。
9.根据权利要求8所述的基于纹理上下文约束的视觉词汇的图像超分辨率重建方法,其特征在于,所述步骤(2)中,实施重构约束构建高分辨率图像块的具体步骤为:设低分辨率图像l是高分辨率图像L模糊和降采样后的结果 
Figure FDA00002313939000034
其中 
Figure FDA00002313939000035
和pi是模糊和降采样后的 
Figure FDA00002313939000036
和Pi,p=[p1,…pJ],
如果高分辨率视觉词汇子空间的维数大于输入的低分辨率图像的维数,则在α足够稀疏条件下通过求解L1范数最优化问题近似求取α;
如果高分辨率视觉词汇子空间的维数不大于输入低分辨率图像维数,则用最小二乘法求解α,
得到最优参数α后将高分辨率图像块L*重构为: 
Figure FDA00002313939000037
最后通过相邻图像块间重叠区域平均灰度值的方法得到整个图像。 
CN2012104214852A 2012-10-26 2012-10-26 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法 Pending CN103049340A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012104214852A CN103049340A (zh) 2012-10-26 2012-10-26 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012104214852A CN103049340A (zh) 2012-10-26 2012-10-26 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法

Publications (1)

Publication Number Publication Date
CN103049340A true CN103049340A (zh) 2013-04-17

Family

ID=48061989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012104214852A Pending CN103049340A (zh) 2012-10-26 2012-10-26 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN103049340A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103325104A (zh) * 2013-06-09 2013-09-25 中山大学 基于迭代稀疏表达的人脸图像超分辨率重建方法
CN103700062A (zh) * 2013-12-18 2014-04-02 华为技术有限公司 图像处理方法和装置
CN104966276A (zh) * 2015-06-17 2015-10-07 北京航空航天大学 一种图像视频场景内容的保角映射稀疏表达方法
CN106778777A (zh) * 2016-11-30 2017-05-31 成都通甲优博科技有限责任公司 一种车辆匹配方法及系统
CN110084816A (zh) * 2019-03-21 2019-08-02 深圳大学 物体分割方法、装置、计算机可读存储介质和计算机设备
CN110288516A (zh) * 2019-06-27 2019-09-27 北京迈格威科技有限公司 图像处理的方法、装置、设备及计算机可读存储介质
CN112767412A (zh) * 2020-12-31 2021-05-07 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
CN113781500A (zh) * 2021-09-10 2021-12-10 中国科学院自动化研究所 舱段图像实例分割的方法、装置、电子设备及存储介质
CN115249246A (zh) * 2022-09-23 2022-10-28 深圳市欣冠精密技术有限公司 一种光学玻璃表面缺陷检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101299235A (zh) * 2008-06-18 2008-11-05 中山大学 一种基于核主成分分析的人脸超分辨率重构方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101299235A (zh) * 2008-06-18 2008-11-05 中山大学 一种基于核主成分分析的人脸超分辨率重构方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BRENDAN J. FREY等: "Clustering by passing messages between data points", 《SCIENCE》, vol. 315, no. 5814, 16 February 2007 (2007-02-16), pages 972 - 976, XP002565072, DOI: doi:10.1126/science.1136800 *
CHARLESS FOWLKES等: "Learning affinity functions for image segmentation: Combining patch-based and gradient- based approaches", 《PROCEEDINGS OF THE 2003 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR’03)》, 20 June 2003 (2003-06-20), pages 1 - 8 *
DAVID R. MARTIN等: "Learning to detect natural image boundaries using local brightness, color and texture cues", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 26, no. 5, 31 May 2004 (2004-05-31), pages 530 - 549 *
YAN LIANG等: "Image Super Resolution by Textural Context Constrained Visual Vocabulary", 《HTTP://WWW.SCIENCEDIRECT.COM/SCIENCE/ARTICLE/PII/S0923596512001786》, 2 October 2012 (2012-10-02), pages 1096 - 1108 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103325104A (zh) * 2013-06-09 2013-09-25 中山大学 基于迭代稀疏表达的人脸图像超分辨率重建方法
CN103325104B (zh) * 2013-06-09 2016-05-11 中山大学 基于迭代稀疏表达的人脸图像超分辨率重建方法
CN103700062A (zh) * 2013-12-18 2014-04-02 华为技术有限公司 图像处理方法和装置
US9471958B2 (en) 2013-12-18 2016-10-18 Huawei Technologies Co., Ltd. Image processing method and apparatus
CN103700062B (zh) * 2013-12-18 2017-06-06 华为技术有限公司 图像处理方法和装置
CN104966276A (zh) * 2015-06-17 2015-10-07 北京航空航天大学 一种图像视频场景内容的保角映射稀疏表达方法
CN104966276B (zh) * 2015-06-17 2017-10-20 北京航空航天大学 一种图像视频场景内容的保角映射稀疏表达方法
CN106778777A (zh) * 2016-11-30 2017-05-31 成都通甲优博科技有限责任公司 一种车辆匹配方法及系统
CN110084816A (zh) * 2019-03-21 2019-08-02 深圳大学 物体分割方法、装置、计算机可读存储介质和计算机设备
CN110084816B (zh) * 2019-03-21 2021-04-06 深圳大学 物体分割方法、装置、计算机可读存储介质和计算机设备
CN110288516A (zh) * 2019-06-27 2019-09-27 北京迈格威科技有限公司 图像处理的方法、装置、设备及计算机可读存储介质
CN112767412A (zh) * 2020-12-31 2021-05-07 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
CN112767412B (zh) * 2020-12-31 2024-04-12 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
CN113781500A (zh) * 2021-09-10 2021-12-10 中国科学院自动化研究所 舱段图像实例分割的方法、装置、电子设备及存储介质
CN113781500B (zh) * 2021-09-10 2024-04-05 中国科学院自动化研究所 舱段图像实例分割的方法、装置、电子设备及存储介质
CN115249246A (zh) * 2022-09-23 2022-10-28 深圳市欣冠精密技术有限公司 一种光学玻璃表面缺陷检测方法
CN115249246B (zh) * 2022-09-23 2022-12-02 深圳市欣冠精密技术有限公司 一种光学玻璃表面缺陷检测方法

Similar Documents

Publication Publication Date Title
Li et al. Multiattention network for semantic segmentation of fine-resolution remote sensing images
Zhao et al. Pixelated semantic colorization
CN103049340A (zh) 基于纹理上下文约束的视觉词汇的图像超分辨率重建方法
CN104008538B (zh) 基于单张图像超分辨率方法
Yu et al. Multi-attribute adaptive aggregation transformer for vehicle re-identification
Xiao et al. Example‐Based Colourization Via Dense Encoding Pyramids
Cherabier et al. Learning priors for semantic 3d reconstruction
CN103578119A (zh) 基于超像素的Codebook动态场景中目标检测方法
Xu et al. Weakly supervised deep semantic segmentation using CNN and ELM with semantic candidate regions
CN111652240B (zh) 一种基于cnn的图像局部特征检测与描述方法
CN109993753B (zh) 遥感影像中城市功能区的分割方法及装置
CN115205672A (zh) 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统
Fan et al. RAO‐UNet: a residual attention and octave UNet for road crack detection via balance loss
Zhou et al. Attention transfer network for nature image matting
Yang et al. MSE-Net: generative image inpainting with multi-scale encoder
CN103761736A (zh) 一种基于贝叶斯和谐度的图像分割方法
CN115810149A (zh) 基于超像素与图卷积的高分辨率遥感图像建筑物提取方法
Xiang et al. Crowd density estimation method using deep learning for passenger flow detection system in exhibition center
CN114462486A (zh) 图像处理模型的训练方法、图像处理方法及相关装置
Feng et al. Local complexity difference matting based on weight map and alpha mattes
CN103226818B (zh) 基于流形正则稀疏支撑回归的单帧图像超分辨率重建方法
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN116310452A (zh) 一种多视图聚类方法及系统
Xiu et al. Double discriminative face super-resolution network with facial landmark heatmaps
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130417