CN109523513B - 基于稀疏重建彩色融合图像的立体图像质量评价方法 - Google Patents
基于稀疏重建彩色融合图像的立体图像质量评价方法 Download PDFInfo
- Publication number
- CN109523513B CN109523513B CN201811212574.XA CN201811212574A CN109523513B CN 109523513 B CN109523513 B CN 109523513B CN 201811212574 A CN201811212574 A CN 201811212574A CN 109523513 B CN109523513 B CN 109523513B
- Authority
- CN
- China
- Prior art keywords
- image
- fusion image
- entropy
- color fusion
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理领域,为提出一种基于稀疏重建彩色融合图像的立体图像质量评价方法。此方法不仅与人眼主观MOS值具有很好的一致性,而且本文方法更加适合评价非对称失真立体图像,在一定基础上推动立体成像技术的发展。为此,本发明采,基于稀疏重建彩色融合图像的立体图像质量评价方法,首先,得到彩色融合图像,用彩色融合图像学习和训练字典,在训练好的完备字典D上重建失真的彩色融合图像,并使用相应的彩色融合图像进行信息补偿,然后,提取重建后的融合图像和相应的彩色融合图像的空间熵和谱熵特征,再对上述两种特征进行加权,得到最终特征;最后,通过支持向量机SVR得到最终质量分数。本发明主要应用于图像处理。
Description
技术领域
本发明属于图像处理领域,涉及到图像融合、稀疏字典的构建以及立体图像质量评价方法的优化改进。
背景技术
随着多媒体成像和显示技术的飞速发展,立体成像技术得到了大量的关注与研究。在立体图像的采集、传输、压缩、恢复和显示过程中,不可避免的会引入一些失真。如何评价立体图像的失真程度,如何评价立体图像处理技术的好坏是值得讨论的重要问题。而立体图像质量评价方法可以解决以上问题。
目前,立体图像质量评价主要包括主观质量评价和客观质量评价。主观质量评价具有精确度高的特点,但是费时、费力、成本高。另外,主观评价的结果容易受到客观环境和主观情感的影响。因此,主观质量评价方法的实时性较差。相反,客观质量评价方法简单方便,能在较短的时间内自动检测测试图片的质量,具有很好的实时性。这对实际应用是十分重要的。因此,立体图像的客观质量评价方法得到了大量学者的研究[1-4]。
目前所存在的客观立体图像质量评价方法主要包括基于2D图像的方法、基于特征提取的方法[5-7]、基于稀疏表示的方法[8-10]、基于深度学习的方法[11-13]。本文主要讨论基于稀疏表示的方法。稀疏表示在图像处理、语音识别、模式识别等领域有着广泛的应用。虽然稀疏表示很少应用在立体图像质量评价领域,但也有一些研究人员展开了相关的研究。例如,文献[9]通过求解结构与纹理的稀疏编码来预测图像的质量。文献[14]分别提取图像的DOG,LBP和HOG特征并进行稀疏表示得到稀疏字典,然后利用学习到的字典进行立体图像的质量预测。以上这些方法都是首先评价左右视图的图像质量,最后将左右视点质量进行结合,得到被测立体图像的客观质量分数。事实上,人类视觉系统是一个复杂的神经系统,人的两只眼睛分别接收到同一场景的信息后,在视网膜上进行融合得到单视点融合图像,因为左右视点图像存在视差/深度信息,从而在人的大脑中产生了立体感觉。所以,以上先进行左右视点图像的质量评价最后得到立体图像的质量分数的方法是不合理的。本发明提出先将立体图像的左右视点融合成一幅单视点立体图像(融合图像),然后对单视点立体图像特征提取,得到立体图像的质量分数。
为了模拟大脑的特性,一些研究者也开始通过处理融合图像来评估立体图像的质量。例如,文献[15-17]通过对左视点和视差图进行线型加权得到融合图像。但这种融合图像是由不完全符合人脑特性的简单方法得到的,且目前没有精确的获取视差的方法,不易获得良好的视差补偿图。文献[18]通过振幅与相位来评价立体图像质量,但是振幅与相位不能很好的代表融合图像。且以上方法获得的融合图像是灰度级别的融合图像,可能会丢失相应的颜色信息。另外,以上融合方法对于非对称失真的立体图像评价效果并不好。但是在现实的图像拍摄过程中,由于相机性能误差等客观原因并不能保证两个相机同时拍摄出的左右视点图像的亮度色度等完全相同,所以非对称失真的立体图像会更广泛。因此,本发明采用了一种更适合非对称失真的彩色融合图像进行立体图像质量评价任务。
本发明提出一种新的基于稀疏重建彩色融合图像的立体图像质量评价方法。首先利用原始彩色融合图像训练稀疏字典,然后利用训练好的字典对失真彩色融合图像进行稀疏重建。考虑到字典重建过程中可能会导致失真彩色融合图像丢失一些重要信息,因此本发明采用了信息补偿的方法,将相应的失真彩色融合图像补充到重建后的失真融合图像中。最后提取重建后的失真融合图像与相应的彩色融合图像的空间熵与谱熵特征,并对特征进行加权后送入支持向量机(SVR)回归拟合预测,得到立体图像客观质量分数。
发明内容
为克服现有技术的不足,本发明旨在基于人眼视觉机制,提出一种基于稀疏重建彩色融合图像的立体图像质量评价方法。此方法不仅与人眼主观MOS值具有很好的一致性,而且本文方法更加适合评价非对称失真立体图像,在一定基础上推动立体成像技术的发展。为此,本发明采取的技术方案是,基于稀疏重建彩色融合图像的立体图像质量评价方法,首先,得到彩色融合图像,用彩色融合图像学习和训练字典,在训练好的完备字典D上重建失真的彩色融合图像,并使用相应的彩色融合图像进行信息补偿,然后,提取重建后的融合图像和相应的彩色融合图像的空间熵和谱熵特征,再对上述两种特征进行加权,得到最终特征;最后,通过支持向量机SVR得到最终质量分数。
具体步骤细化如下:
融合图像的获得:
首先根据人眼多通道视觉特性与对比度敏感函数,求解总对比度能量和*。根据人眼多通道视觉特性,采用六个尺度fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree)}八个方向θ∈{kπ/8|k=0,1,…7}的Gabor滤波器分别对立体图像左右视点的RGB三个通道进行滤波,得到每个视点每个通道的48张特征图。根据对比度敏感函数,将Gabor滤波后图像经过对比度敏感函数CSF(contrast sensitivity function)滤波,滤除人眼不敏感的频率成分。最后根据公式和/>v∈(l,r)求解TCEv和TCE* v。其中,v∈(l,r)代表左视点或者右视点,n代表48张特征图中的第n张特征图,/>为经过Gabor滤波和CSF滤波后的图像,/>代表左右图像权重,和为增益控制门限和增益增强门限;
根据双目竞争机制过程中增益抑制和增益增强特性,使用公式得到融合图像,其中,C(x,y)代表产生的融合图像,TCEv和TCE* v,v∈(l,r)分别代表增益抑制的总对比度能量和增益增强的总对比度能量,Il(x,y)和Ir(x,y)分别代表立体图像左右视点;
重建融合图像:
利用公式固定字典求解稀疏系数,再利用公式固定稀疏系数求解字典,其中,X是输入信号,D是完备字典,S是稀疏系数矩阵,Dj代表完备字典D中的第j列原子,通过利用特征符号搜索算法和拉格朗日对偶方法对字典进行训练,利用训练得到的完备字典对彩色融合图像进行稀疏表示,得到彩色融合图像的系数矩阵,然后用稀疏系数乘以训练字典得到重建的融合图像;
空间熵、谱熵的提取:
首先对融合图像进行下采样,得到高中低三个不同的尺度,然后将每张下采样的融合图像划分成8*8不重叠的小块,分别计算每个小块的空间熵和谱熵,将空间熵和谱熵升序排列分别表示为S=(se1,se2,…sem)和F=(fe1,fe2,…fem),其中,sei,fei代表局部的空间熵和谱熵即每个小块的空间熵和谱熵,下标m代表每个尺度下图像块的总数,将空间熵和谱熵特征进行百分比池化,得到新的特征Sp和Fp,最终特征表示为feature=(mean(Sp),skew(S),mean(Fp),skew(F)),它由Sp和Fp的均值和S和F的斜度组成,每幅融合图像可以得到3个尺度下的特征,共3*4=12个特征;
客观质量分数:
根据公式F=feature1·τ1+feature2·τ2对重建后的彩色融合图像的特征与相应的彩色融合图像的特征进行加权,feature1代表重建后融合图像的特征,feature2代表相应的彩色融合图像的特征,τ1与τ2代表权重因子,这里τ1=0.8,τ2=0.2,最后将总特征F送入SVR中,得到立体图像客观质量分数。
本发明的特点及有益效果是:
本发明采用了更加符合人眼视觉机制的融合图像,提出了一种新的基于稀疏重建彩色融合图像的立体图像质量评价方法。先用训练好的字典对融合图像进行重建,再通过信息补偿的方式,对重建后的融合图像与相应的彩色融合图像提取空间熵和谱熵特征,最后得到客观质量分数。实验结果表明本方法的评价效果十分贴近主观质量,在对称和非对称失真图像上的评价效果均与主观具有很好的一致性,且尤其适合非对称失真图像的质量评价。
附图说明:
图1本方法的具体流程图。
图2融合图像的形成流程图。
具体实施方式
首先,得到彩色融合图像。用彩色融合图像学习和训练字典,从而得到训练好的完备字典D。在完备字典D上重建失真的彩色融合图像。由于重建过程会导致信息丢失,在提取特征之前,使用相应的彩色融合图像进行信息补偿。然后,提取重建后的融合图像和相应的彩色融合图像的空间熵和谱熵特征。再对上述两种特征进行加权,得到最终特征。最后,通过支持向量机(SVR)得到最终质量分数。
融合图像的获得:
首先根据人眼多通道视觉特性与对比度敏感函数,求解总对比度能量TCEv和TCE* v。根据人眼多通道视觉特性,采用六个尺度fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree)八个方向θ∈{kπ/8|k=0,1,…7}的Gabor滤波器分别对立体图像左右视点的RGB三个通道进行滤波,得到每个视点每个通道的48张特征图。Gabor是一种短时傅立叶变换。根据对比度敏感函数,将Gabor滤波后图像经过对比度敏感函数CSF(contrast sensitivityfunction)滤波,滤除人眼不敏感的频率成分。最后根据公式和v∈(l,r)求解TCEv和TCE* v。其中,v∈(l,r)代表左视点或者右视点,n代表48张特征图中的第n张特征图。/>为经过Gabor滤波和CSF滤波后的图像,/>代表左右图像权重,和为增益控制门限和增益增强门限。
根据双目竞争机制过程中增益抑制和增益增强特性,使用公式得到融合图像。其中,C(x,y)代表产生的融合图像。TCEv和TCE* v,v∈(l,r)分别代表增益抑制的总对比度能量和增益增强的总对比度能量。Il(x,y)和Ir(x,y)分别代表立体图像左右视点。
重建融合图像:
在字典训练的过程中,同时求解字典和稀疏系数是困难的。但是每次求解一个变量,它就是一个凸优化问题。利用公式固定字典求解稀疏系数,再利用公式/>固定稀疏系数求解字典。其中,X是输入信号,D是完备字典,S是稀疏系数矩阵。Dj代表字典D中的第j列原子。本发明通过利用特征符号搜索算法和拉格朗日对偶方法[19]对字典进行训练。利用训练得到的完备字典对彩色融合图像进行稀疏表示,得到彩色融合图像的系数矩阵,然后用稀疏系数乘以训练字典得到重建的融合图像。
空间熵、谱熵的提取:
首先对融合图像进行下采样,得到高中低三个不同的尺度。然后将每张下采样的融合图像划分成8*8不重叠的小块,分别计算每个小块的空间熵和谱熵。将空间熵和谱熵升序排列分别表示为S=(se1,se2,…sem)和F=(fe1,fe2,…fem)。其中,sei,fei代表局部的空间熵和谱熵即每个小块的空间熵和谱熵,下标m代表每个尺度下图像块的总数。将空间熵和谱熵特征进行百分比池化,得到新的特征Sp和Fp。最终特征表示为feature=(mean(Sp),skew(S),mean(Fp),skew(F))。它由Sp和Fp的均值和S和F的斜度组成。每幅融合图像可以得到3个尺度下的特征,共3*4=12个特征。
客观质量分数:
根据公式F=feature1·τ1+feature2·τ2对重建后的彩色融合图像的特征与相应的彩色融合图像的特征进行加权。feature1代表重建后融合图像的特征,feature2代表相应的彩色融合图像的特征。τ1与τ2代表权重因子,这里τ1=0.8,τ2=0.2。最后将总特征F送入SVR中,得到立体图像客观质量分数。
本发明所提方法在公开的立体图像库LIVE I和LIVE II上进行实验。LIVE I与LIVE II图像库均包含五种失真类型,分别为JPEG压缩、JPEG 2000压缩、高斯模糊Gblur、高斯白噪声WN和快衰退FF。LIVE I图像库包含20张原始立体图像对和365张对称失真立体图像对。LIVE II图像库包含8张原始立体图像对和360张对称失真和非对称失真的立体图像对,其中120对为对称失真立体图像,240对为非对称失真立体图像。
下面结合技术方法详细说明本方法。
本发明提出的基于稀疏重建彩色融合图像的立体图像质量评价方法主要涉及以下内容:首先采用原始融合图像训练稀疏字典,然后用训练好的字典对融合图像进行稀疏重建。本发明采用信息补偿的方式,提取重建后的融合图像与相应的彩色融合图像的空间熵与谱熵特征,有效地提高了方法的性能。最后将特征加权后,由SVR预测得到立体图像的客观质量分数。本发明所提方法的具体流程图如图1所示。
具体步骤如下:
1融合图像的获取
融合图像的获得过程如图2所示。
采用Gabor滤波器模拟多通道视觉特性。采用六个尺度fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree)八个方向θ∈{kπ/8|k=0,1,…7}的Gabor滤波器分别对立体图像左右视点的RGB三个通道进行卷积,得到每张立体图像每个视点每个通道的48张特征图,记为和/>其中l和r代表左右视点,n∈{1,2,…,48}。
采用对比度敏感函数CSF(contrast sensitivity function)将和/>中不重要的频率成分滤除得到/>和/>进而由公式(1)(2)得到TCEv和TCE* v。公式中,v∈(l,r)代表左视点或者右视点,n代表48张特征图中的第n张特征图。gc是增益控制门限,由公式(4)得到。在图像对比度能量超过此门限时,增益控制的作用效果变得明显。ge是增益增强门限,由公式(3)得到。在图像对比度能量超过此门限时增益增强的作用效果变得明显。权重/>和/>可由公式(5)得到,此权重代表48幅特征图中第n幅图像强度占总图像强度的比例。
最后由公式(6)得到融合图像。其中C(x,y)代表融合图像,Il(x,y)和Ir(x,y)代表立体图像的左右视点,TCEv,v∈(l,r)为对增益控制的总对比度能量,TCE* v,v∈(l,r)为对增益增强的总对比度能量。
2重建融合图像
在训练字典的过程中,同时求解字典与稀疏系数是困难的。但是每次求解一个,就可以将问题转换为凸优化问题。首先,利用公式(7)固定字典求解稀疏系数,再利用公式(8)固定稀疏系数求解字典。即采用固定一个来解决另一个的方式训练字典。
其中,X代表输入信号,D代表完备字典,S是稀疏系数矩阵。||·||2代表l2范数,λ为正则化参数。||·||1代表l1范数,Dj代表完备字典D的第j列原子。
在每次迭代过程中,特征符号搜索算法通过猜测稀疏系数符号将不可微的凹问题转化为无约束二次优化问题,从而提高了计算速度与求解稀疏系数的精度。本发明通过利用特征符号搜索算法和拉格朗日对偶方法[19]对字典进行训练。利用训练得到的完备字典对彩色融合图像进行稀疏表示,得到彩色融合图像的系数矩阵,然后用稀疏系数乘以训练字典得到重建的融合图像。由于重建后的融合图像会丢失一部分重要信息,因此本发明使用相应的彩色融合图像来补偿稀疏重建过程中丢失的重要信息。
3空间熵、谱熵的提取
空间熵是局部像素值的概率分布函数,它代表像素级别的统计特征。谱熵可以被看做是局部DCT系数的概率分布函数[20],能够有效地代表图像的失真类型与失真程度。本发明中,首先对融合图像进行下采样,得到高中低三个尺度融合图像。然后将经过下采样的融合图像分成8*8不重叠的小块,分别计算每个小块的空间熵和谱熵。将局部空间熵和谱熵特征进行升序排列分别表示为S=(se1,se2,…sem)和F=(fe1,fe2,…fem)。其中sei,fei代表局部空间熵和谱熵特征,下标m代表每个尺度下的图像块总数。将空间熵和谱熵进行百分比池化[21],选取特征的60%,即Sp=(se0.2m,se0.2m+1,…se0.8m),Fp=(fe0.2m,fe0.2m+1,…fe0.8m)得到新的特征Sp和Fp。最终特征表示为feature=(mean(Sp),skew(S),mean(Fp),skew(F))。它由Sp和Fp的均值和S和F的斜度组成。
4立体图像质量评价分数
首先根据公式(9)将两个特征进行加权。其中,featur1代表重建后彩色融合图像的特征,feature2代表相应的彩色融合图像的特征。τ1与τ2代表权重因子,这里τ1=0.8,τ2=0.2。最后将总特征F送入SVR中,得到立体图像质量分数。
F=feature1·τ1+feature2·τ2 (9)
5立体图像质量评价结果与分析
本发明的实验在两个公开的立体图像库中进行,分别是LIVE I和LIVE II数据库。LIVE I和LIVE II数据库包含五种失真类型,包括JPEG压缩、JPEG 2000压缩、高斯模糊Gblur、高斯白噪声WN和快衰退FF。LIVE I包含对称失真图片,LIVE II包含非对称失真图片与对称失真图片。本发明采用Pearson相关系数(PLCC)和Spearman等级相关系数(SROCC)来评价方法的性能。
为了证明所提出方法的有效性,本发明将所提出方法与现有的质量评价方法进行了比较:Xu[5],Ma[6],Li[9],Shao[14],Lu[17],Lin[18]。在这些方法中,Xu[5]和Ma[6]是基于传统的特征提取的方法。Li[9]和Shao[14]是基于分别处理左右视点的稀疏字典的方法。Lu[17]和Lin[18]是基于融合图像的方法。从表1可以看出,本发明的方法在LIVE I库中的SROCC为0.9394,PLCC为0.9467。这稍逊于Xu[5]和Shao[14]的方法,与Lu[17]的方法结果相近。但是总的来说,性能还不错。在LIVE II数据库中,本发明的SROCC为0.9402,PLCC为0.9504,实验结果优于其他方法。产生这样结果的原因可能是Xu[5]和Shao[14]的方法更适用于对称失真的立体图像,而本发明的方法更适用于非对称失真的立体图像。总的来说,本发明的方法不仅适用于对称失真的立体图像,而且更适用于非对称失真的立体图像,可以始终客观地评价立体图像的质量。因此,本发明提出的基于稀疏重建彩色融合图像的方法能够保证左右视图中丰富的结构信息与深度信息。
表2展示了本方法在不同失真类型下的表现。从表2可以看出,本方法在五种失真类型上均表现良好,普适性很强。
表1在LIVE 3D图像库上不同方法的比较
表2在LIVE I与LIVE II库上不同失真类型性能的比较
同时,本发明在LIVE I与LIVE II两个库上进行了信息补偿的对比试验。在表3和表4中,NCCC代表无相应的彩色融合图像进行补偿的方法,即只对稀疏重建后的彩色融合图像提取特征。
表3信息补偿在LIVE I库上的性能比较
表4信息补偿在LIVE II库上的性能比较
从表3、表4可以看出,NCCC在LIVE I库的SROCC为0.9063,PLCC为0.8901;在LIVEII库的SROCC为0.9329,PLCC为0.9433。结果均表明本发明进行信息补偿的方法优于NCCC。也就是说,在稀疏重建之后,如果不补偿一些重要信息,其性能将会变差。为了进一步证明稀疏表示的性能,本发明将本方法与OCC进行了比较。OCC代表无稀疏重建过程的方法,即只对彩色融合图像提取特征。从表3、表4可以看出,OCC在LIVE I库的SROCC为0.9263,PLCC为0.9448;在LIVE II库的SROCC为0.9379,PLCC为0.9462。其结果表明,本发明的方法优于OCC。但是OCC的结果并不是很差,甚至在LIVE II库上相比其他方法(Xu[5],Ma[6],Lu[17]and Lin[18])性能更加优越。也就是说,彩色融合图像更加符合人类视觉特征,不仅包含丰富的信息,而且更适合于评价非对称失真的立体图像。
参考文献
[1]Wang Z,Simoncelli E P,Bovik A C.Multiscale structural similarityfor image quality assessment[C]//Signals,Systems and Computers,2004.Conference Record of the Thirty-Seventh Asilomar Conference on.IEEE,2004,2(2):1398-1402.
[2]Saad M A,Bovik AC,Charrier C.A DCT Statistics-Based Blind ImageQuality Index[J].IEEE Signal Processing Letters,2010,17(6):583-586.
[3]Moorthy AK,Bovik AC.Blind Image Quality Assessment:From NaturalScene Statistics to Perceptual Quality[J].IEEE Transactions on ImageProcessing A Publication of the IEEE Signal Processing Society,2011,20(12):3350-3364.
[4]Mittal A,Moorthy AK,Bovik AC.No-Reference Image Quality Assessmentin the Spatial Domain[M].IEEE Press,2012,21(12):4695-4708.
[5]Xu X,Zhao Y,Ding Y.No-reference stereoscopic image qualityassessment based on saliency-guided binocular feature consolidation[J].Electronics Letters,2017,53(22):1468-1470.
[6]Ma J,An P,Shen L,et al.Reduced-Reference Stereoscopic ImageQuality Assessment Using Natural Scene Statistics and Structural Degradation[J].IEEE Access,2017,1(6):2768-2780.
[7]Md S K,Appina B,Channappayya S S.Full-Reference Stereo ImageQuality Assessment Using Natural Stereo Scene Statistics[J].IEEE SignalProcessing Letters,2015,22(11):1985-1989.
[8]Karimi M,Nejati M,Soroushmehr S M R,et al.Blind Stereo QualityAssessment Based on Learned Features from Binocular Combined Images[J].IEEETransactions on Multimedia,2017,11(19):2475-2489.
[9]Li K,Shao F,Jiang G,et al.Joint structure–texture sparse codingfor quality prediction of stereoscopic images[J].Electronics Letters,2015,51(24):1994-1995.
[10]Chang H W,Yang H,Gan Y,et al.Sparse Feature Fidelity forPerceptual Image Quality Assessment[J].IEEE Transactions on Image ProcessingA Publication of the IEEE Signal Processing Society,2013,22(10):4007-4018.
[11]Wang G H,Su-Mei LI,Dan Z,et al.Application of extreme learningmachine in objective stereoscopic image quality assessment[J].Journal ofOptoelectronics Laser,2014,25(9):1837-1842.
[12]Lv Y,Yu M,Jiang G,et al.No-reference Stereoscopic Image QualityAssessment Using Binocular Self-similarity and Deep Neural Network[J].SignalProcessing Image Communication,2016,1(47):346-357.
[13]Zeiler M D,Fergus R.Stochastic Pooling for Regularization of DeepConvolutional Neural Networks[J].Eprint Arxiv,2013,1(1):1-9.
[14]Shao F,Li K,Lin W,et al.Learning Blind Quality Evaluator forStereoscopic Images Using Joint Sparse Representation[J].IEEE Transactions onMultimedia,2016,18(10):2104-2114.
[15]Maalouf A,Larabi M C.CYCLOP:A stereo color image qualityassessment metric[C]//IEEE International Conference on Acoustics,Speech andSignal Processing.IEEE,2011:1161-1164.
[16]Chen M J,Su C C,Kwon D K,et al.Full-reference quality assessmentof stereopairs accounting for rivalry[J].Image Communication,2013,28(9):1143-1155.
[17]Lu K,Liu X.Stereoscopic Image Quality Assessment Based onCyclopean Image[C]//IEEE International Conference on Internet of Things.IEEE,2016:750-753.
[18]Lin Y,Yang J,Wen L,et al.Quality Index for Stereoscopic Images byJointly Evaluating Cyclopean Amplitude and Cyclopean Phase[J].IEEE Journal ofSelected Topics in Signal Processing,2017,1(11):89-101.
[19]Lee H,Battle A,Raina R,et al.Efficient sparse coding algorithms[C]//International Conference on Neural Information Processing Systems.MITPress,2006:801-808.
[20]Liu L,Liu B,Huang H,et al.No-reference image quality assessmentbased on spatial and spectral entropies[J].Signal Processing ImageCommunication,2014,29(8):856-863.
[21]Moorthy A K,Bovik AC.Visual Importance Pooling for Image QualityAssessment[J].IEEE Journal of Selected Topics in Signal Processing,2009,3(2):193-201。
Claims (1)
1.一种基于稀疏重建彩色融合图像的立体图像质量评价方法,其特征是,首先,得到彩色融合图像,用彩色融合图像学习和训练字典,在训练好的完备字典D上重建失真的彩色融合图像,并使用相应的彩色融合图像进行信息补偿,然后,提取重建后的融合图像和相应的彩色融合图像的空间熵和谱熵特征,再对上述两种特征进行加权,得到最终特征;最后,通过支持向量机SVR得到最终质量分数;具体步骤细化如下:
融合图像的获得:
首先根据人眼多通道视觉特性与对比度敏感函数,求解总对比度能量TCEv和TCE* v,根据人眼多通道视觉特性,采用六个尺度fs∈{1.5,2.5,3.5,5,7,10}八个方向θ∈{kπ/8|k=0,1,…7}的Gabor滤波器分别对立体图像左右视点的RGB三个通道进行滤波,得到每个视点每个通道的48张特征图,根据对比度敏感函数,将Gabor滤波后图像经过对比度敏感函数CSF(contrast sensitivity function)滤波,滤除人眼不敏感的频率成分,最后根据公式和/>v∈(l,r)求解TCEv和TCE* v,其中,v∈(l,r)代表左视点或者右视点,n代表48张特征图中的第n张特征图,/>为经过Gabor滤波和CSF滤波后的图像,/>代表左右图像权重,gc和ge为增益控制门限和增益增强门限;
根据双目竞争机制过程中增益抑制和增益增强特性,使用公式得到融合图像,其中,C(x,y)代表产生的融合图像,TCEv和TCE* v,v∈(l,r)分别代表增益抑制的总对比度能量和增益增强的总对比度能量,Il(x,y)和Ir(x,y)分别代表立体图像左右视点;
重建融合图像:
利用公式固定字典求解稀疏系数,再利用公式固定稀疏系数求解字典,其中,X是输入信号,D是完备字典,S是稀疏系数矩阵,Dj代表完备字典D中的第j列原子,通过利用特征符号搜索算法和拉格朗日对偶方法对字典进行训练,利用训练得到的完备字典对彩色融合图像进行稀疏表示,得到彩色融合图像的系数矩阵,然后用稀疏系数乘以训练字典得到重建的融合图像;
空间熵、谱熵的提取:
首先对融合图像进行下采样,得到高中低三个不同的尺度,然后将每张下采样的融合图像划分成8*8不重叠的小块,分别计算每个小块的空间熵和谱熵,将空间熵和谱熵升序排列分别表示为S=(se1,se2,…sem)和F=(fe1,fe2,…fem),其中,sei,fei代表局部的空间熵和谱熵即每个小块的空间熵和谱熵,下标m代表每个尺度下图像块的总数,将空间熵和谱熵特征进行百分比池化,得到新的特征Sp和Fp,最终特征表示为feature=(mean(Sp),skew(S),mean(Fp),skew(F)),它由Sp和Fp的均值和S和F的斜度组成,每幅融合图像可以得到3个尺度下的特征,共3*4=12个特征;
客观质量分数:
根据公式F=feature1·τ1+feature2·τ2对重建后的彩色融合图像的特征与相应的彩色融合图像的特征进行加权,feature1代表重建后融合图像的特征,feature2代表相应的彩色融合图像的特征,τ1与τ2代表权重因子,这里τ1=0.8,τ2=0.2,最后将总特征F送入SVR中,得到立体图像客观质量分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811212574.XA CN109523513B (zh) | 2018-10-18 | 2018-10-18 | 基于稀疏重建彩色融合图像的立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811212574.XA CN109523513B (zh) | 2018-10-18 | 2018-10-18 | 基于稀疏重建彩色融合图像的立体图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109523513A CN109523513A (zh) | 2019-03-26 |
CN109523513B true CN109523513B (zh) | 2023-08-25 |
Family
ID=65770596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811212574.XA Active CN109523513B (zh) | 2018-10-18 | 2018-10-18 | 基于稀疏重建彩色融合图像的立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523513B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111326B (zh) * | 2019-05-15 | 2021-01-15 | 西安科技大学 | 基于ert系统的重建图像质量评价方法 |
CN110958449B (zh) * | 2019-12-19 | 2021-07-06 | 西北工业大学 | 三维视频主观感知质量预测方法 |
CN111855208B (zh) * | 2020-07-02 | 2021-09-21 | 南京航空航天大学 | 一种基于阶次分析和稀疏编码的旋转机械微弱故障信号提取方法 |
CN111833323B (zh) * | 2020-07-08 | 2021-02-02 | 哈尔滨市科佳通用机电股份有限公司 | 基于稀疏表示与svm的分任务铁路货车图像质量判断方法 |
CN112184663B (zh) * | 2020-09-27 | 2021-07-20 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路动车抗蛇行减震器安装座异物检测方法 |
CN112257711B (zh) * | 2020-10-26 | 2021-04-09 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车地板破损故障检测方法 |
CN113450319B (zh) * | 2021-06-15 | 2022-07-15 | 宁波大学 | 一种基于klt技术的超分辨率重建图像质量评价方法 |
CN116091403B (zh) * | 2022-11-30 | 2024-04-26 | 中国石油大学(华东) | 一种彩色夜视融合图像质量主客观评价方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
CN103413298A (zh) * | 2013-07-17 | 2013-11-27 | 宁波大学 | 一种基于视觉特性的立体图像质量客观评价方法 |
CN103475898A (zh) * | 2013-09-16 | 2013-12-25 | 北京理工大学 | 一种基于信息熵特征的无参考图像质量评价方法 |
EP2908285A1 (en) * | 2014-02-13 | 2015-08-19 | Thomson Licensing | Method for performing super-resolution on single images and apparatus for performing super-resolution on single images |
CN105069794A (zh) * | 2015-08-12 | 2015-11-18 | 浙江科技学院 | 一种基于双目竞争的全盲立体图像质量评价方法 |
CN105915883A (zh) * | 2016-05-25 | 2016-08-31 | 浙江科技学院 | 基于极限学习和双目融合的盲参考立体图像质量评价方法 |
CN106162162A (zh) * | 2016-08-01 | 2016-11-23 | 宁波大学 | 一种基于稀疏表示的重定位图像质量客观评价方法 |
CN106780441A (zh) * | 2016-11-30 | 2017-05-31 | 杭州电子科技大学 | 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10671939B2 (en) * | 2016-04-22 | 2020-06-02 | New York University | System, method and computer-accessible medium for learning an optimized variational network for medical image reconstruction |
-
2018
- 2018-10-18 CN CN201811212574.XA patent/CN109523513B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303764A (zh) * | 2008-05-16 | 2008-11-12 | 西安电子科技大学 | 基于非下采样轮廓波的多传感器图像自适应融合方法 |
CN103413298A (zh) * | 2013-07-17 | 2013-11-27 | 宁波大学 | 一种基于视觉特性的立体图像质量客观评价方法 |
CN103475898A (zh) * | 2013-09-16 | 2013-12-25 | 北京理工大学 | 一种基于信息熵特征的无参考图像质量评价方法 |
EP2908285A1 (en) * | 2014-02-13 | 2015-08-19 | Thomson Licensing | Method for performing super-resolution on single images and apparatus for performing super-resolution on single images |
CN105069794A (zh) * | 2015-08-12 | 2015-11-18 | 浙江科技学院 | 一种基于双目竞争的全盲立体图像质量评价方法 |
CN105915883A (zh) * | 2016-05-25 | 2016-08-31 | 浙江科技学院 | 基于极限学习和双目融合的盲参考立体图像质量评价方法 |
CN106162162A (zh) * | 2016-08-01 | 2016-11-23 | 宁波大学 | 一种基于稀疏表示的重定位图像质量客观评价方法 |
CN106780441A (zh) * | 2016-11-30 | 2017-05-31 | 杭州电子科技大学 | 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法 |
Non-Patent Citations (1)
Title |
---|
一种基于图像融合的无参考立体图像质量评价方法;李苗苗;桑庆兵;;光学技术(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109523513A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523513B (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
Shao et al. | Full-reference quality assessment of stereoscopic images by learning binocular receptive field properties | |
CN105959684B (zh) | 基于双目融合的立体图像质量评价方法 | |
CN108769671B (zh) | 基于自适应融合图像的立体图像质量评价方法 | |
CN110060236B (zh) | 基于深度卷积神经网络的立体图像质量评价方法 | |
CN109255358B (zh) | 一种基于视觉显著性和深度图的3d图像质量评价方法 | |
CN108765414B (zh) | 基于小波分解和自然场景统计的无参考立体图像质量评价方法 | |
CN107635136B (zh) | 基于视觉感知和双目竞争的无参考立体图像质量评价方法 | |
Ma et al. | Reduced-reference stereoscopic image quality assessment using natural scene statistics and structural degradation | |
CN109831664B (zh) | 基于深度学习的快速压缩立体视频质量评价方法 | |
Geng et al. | A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property | |
CN107071423A (zh) | 视觉多通道模型在立体视频质量客观评价中的应用方法 | |
CN108470336B (zh) | 基于堆栈式自动编码器的立体图像质量评价方法 | |
CN109257592B (zh) | 基于深度学习的立体视频质量客观评价方法 | |
Chen et al. | Image denoising via deep network based on edge enhancement | |
Liu et al. | Blind stereoscopic image quality assessment accounting for human monocular visual properties and binocular interactions | |
CN102496144A (zh) | 基于hsv色彩空间的nsct水声图像增强方法 | |
CN111127386B (zh) | 一种基于深度学习的图像质量评价方法 | |
CN113992920A (zh) | 一种基于深度展开网络的视频压缩感知重建方法 | |
CN107492085B (zh) | 基于双树复小波变换的立体图像质量评价方法 | |
CN106682599B (zh) | 一种基于稀疏表示的立体图像视觉显著提取方法 | |
CN108648186B (zh) | 基于初级视觉感知机制的无参考立体图像质量评价方法 | |
CN110796635B (zh) | 一种基于剪切波变换的光场图像质量评价方法 | |
Shen et al. | Stereo picture quality estimation based on a multiple channel HVS model | |
CN116091370A (zh) | 基于光线增强像素融合网络的水下图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |