CN108648180B - 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 - Google Patents
一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 Download PDFInfo
- Publication number
- CN108648180B CN108648180B CN201810359227.3A CN201810359227A CN108648180B CN 108648180 B CN108648180 B CN 108648180B CN 201810359227 A CN201810359227 A CN 201810359227A CN 108648180 B CN108648180 B CN 108648180B
- Authority
- CN
- China
- Prior art keywords
- evaluation
- visual
- gradient
- image quality
- distorted image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,包括对基于视觉多通道的显著梯度特征进行更深一层的信息处理,通过设计视觉多通道梯度‑直方图和视觉多通道梯度‑奇异值互补评价算法来挖掘多重视觉梯度信息进行失真图像质量的深度评价,并对各重评价结果进行了深度融合处理。首先,通过构建BP神经网络视觉多通道图像质量融合评价模型对各重视觉信息的多通道评价结果分别进行了初次融合,然后,设计回归算法对各重视觉特征的初次融合评价从内层到外层逐层地进行了深度融合,最终获得失真图像质量的多重视觉特征深度融合处理评价结果。该方法解决了现有评价方法评价不稳定问题和缺乏主观性问题。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法。
背景技术
图像作为一种广泛应用的信号,其在信息获取、传递和处理等各个领域均具有举足轻重的地位。当前,随着云计算能力的提升和人工智能研究的兴起,基于图像终端处理平台的各种应用业务获得了前所未有的发展,然而,图像信号易受污染,因此,图像质量评价的研究意义重大。图像质量评价研究领域中,客观方法以自动连续的高效工作方式而成为了该领域的研究热点,其中,全参考图像质量评价的研究意义尤其重要。
传统经典评价算法如均方根误差RMSE、信噪比SNR以及峰值信噪比PSNR等评价结果和人眼主观测试差距较大。仿生学评价算法如Dalay算法,Safranek-Johnson算法,离散余弦变换算法以及Watson小波变换算法等建模复杂,速度慢,且有许多系统性缺陷制约导致建模效率较低。近些年出现的一些工程学评价方法及其改进算法,例如结构相似度SSIM方法,信息保真度IFC方法,奇异值分解SVD方法等,但这些方法的评价标准不相同,使得其评价结果数据没有可比性,例如,SSIM取值范围在{0,1}之间且取值越大说明图像质量越高,而IFC和SVD的取值范围则不受限,SVD越大说明图像质量越低,而IFC越大则说明图像质量越高;另外,实验证明,反映这些方法性能的一些重要评价指标水平尚有待提高,例如斯皮尔曼等级排序相关系数SROCC、均方根误差RMSE和皮尔逊相关系数PLCC等。
最近几年,将视觉系统特性融入图像质量评价成为了研究热点,例如,显著失真MAD,特征相似度FSIM,视觉显著VSI等,但这些方法存在两个问题,一个问题是图像特征处理算法缺乏视觉特性的理论依据,这使得其评价性能不稳定;另外一个更突出的问题是人眼的主观视觉多通道特性,对于不同的客观评价算法,具有不同的主、客观映射关系,例如,对于各视觉通道的频率敏感特性,上述方法均采用了统一的对比度敏感函数,降低了各种客观评价方法的性能。内在推导机制(Internal Generative Mechanism,IGM)则基于大脑的自由能量场理论,通过信息感知最大化算法评价图像质量,但其信息处理算法过于单一,难以揭示视觉大脑的工作机制,并且也缺乏有力的实验结果证实。
发明内容
本发明的目的是提供一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,以解决现有评价方法评价不稳定问题和缺乏主观性问题。
为实现上述发明目的,本发明提供以下技术方案:
一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,包括:
步骤1,选取一个图像质量数据库,对其中包含的参考图像和失真图像进行预处理得到相应的图像灰度矩阵;
步骤2,将失真图像分为训练集和测试集,并计算测试集中所有失真图像灰度矩阵的梯度特征评价结果;
步骤3,提取所有参考图像灰度矩阵和失真图像灰度矩阵的视觉多通道梯度特征信息视图,并计算所有失真图像灰度矩阵的视觉通道梯度特征评价;
步骤4,设计视觉多通道梯度特征-直方图误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-直方图深度信息评价;
步骤5,设计视觉多通道梯度特征-奇异值分解误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-奇异值深度信息评价;
步骤6,构建BP神经网络视觉多通道图像质量融合评价模型;
步骤7,利用训练集中所有失真图像灰度矩阵的视觉通道梯度特征评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像灰度矩阵的视觉通道梯度特征评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度特征融合评价结果,并对该结果进行偏置处理;
步骤8,利用训练集中所有失真图像质量的视觉多通道梯度-直方图深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-直方图深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-直方图深度信息融合评价结果,并对该结果进行偏置处理;
步骤9,利用训练集中所有失真图像质量的视觉多通道梯度-奇异值深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-奇异值深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-奇异值深度信息融合评价结果,并对该结果进行偏置处理;
步骤10,对步骤2、步骤7、步骤8以及步骤9所得结果进行融合,获得失真图像质量的视觉多重特征深度融合处理评价结果。
本发明发核心是对基于视觉多通道的显著梯度特征进行更深一层的信息处理,通过设计视觉多通道梯度-直方图和视觉多通道梯度-奇异值互补评价算法来挖掘多重视觉梯度信息进行失真图像质量的深度评价,并对各重评价结果进行了深度融合处理。首先,通过构建BP神经网络视觉多通道图像质量融合评价模型对各重视觉信息的多通道评价结果分别进行了初次融合,然后,设计回归算法对各重视觉特征的初次融合评价从内层到外层逐层地进行了深度融合,最终获得失真图像质量的多重视觉特征深度融合处理评价结果。
与现有方法相比,本发明取得了明显的优势体现在:
1)对于图像不同失真类型的评价,本发明方法的RMSE、PLCC和SROCC三项评价指标均具有非常高的水平,超越了现在有方法;
2)本发明方法的评价性能相对稳定,没有出现由于图像失真类型不同而造成指标水平明显下降的现象,从而克服了IGM和MAD等人类视觉系统方法的不稳定性;
3)对于不同失真类型和不同失真程度图像的整体评价,本发明方法的RMSE、PLCC和SROCC三项指标水平明显超越了现有方法。
附图说明
图1是本发明提供的基于视觉多重特征深度融合处理的全参考图像质量客观评价方法的流程图;
图2是本实施例对原始图像预处理后的图像;
图3为本实施例对图2提取的梯度特征视图;
图4是本实施例对图2进行基于Log-Gabor小波的视觉多通道信息视图;
图5为本实施例对图4提取的视觉多通道梯度特征信息视图;
图6为本实施例BP神经网络训练模型。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
本实施中以德克萨斯大学奥斯汀分校图像视频工程所提供的LIVE Release 2图像标准数据库为例进行说明。德克萨斯大学奥斯汀分校图像视频工程所提供的LIVERelease 2图像标准数据库,存储有一些配对的标准案例(即参考图像和失真图像对),每个案例中的失真图像均有对应的MOS值(主观评价分值)已知,该MOS值即为人眼的主观测试结果。
进行全参考图像质量客观评价时首先从LIVE Release 2图像标准数据库选择参考图像和相应的失真图像,然后进行对选择的失真图像进行全参考图像质量客观评价,流程如图1所示,该方法包括:
步骤1,按照如下公式对参考图像和失真图像进行灰度变换,将其分别变换为灰度图像Gray:
Gray=0.29900·R+0.58700·G+0.11400·B
其中,R、G、B分别为源图像(失真图像或参考图像)在R、G、B三个通道上的强度值。
然后,分别对经过灰度变换得到的灰度图像分别进行高斯低通滤波处理,滤波器的窗口大小为k×k,k的取值范围为0.015t~0.42t,t取图像矩阵行和列的最小值,标准差为1.0~3.0。
本实施例中考虑到LIVE Release 2图像标准数据库中的图像大小,针对所有图像进行高斯低通滤波时采用的窗口大小均为16×16,且标准差为1.0。
基于该滤波器对灰度图像进行低通滤波处理,在二维互相关过程中,未使用边缘补0部分进行计算的结果部分。
本实施例中对原始图像和预处理后图像如图2所示。
步骤2,随机选取失真图像构成训练集和测试集两个数据库,训练集和测试集中失真图像的数量比为1。
并采用以下公式计算失真图像灰度矩阵的梯度特征评价GSM(s,o):
GSM(s,o)=mean[GSM(i,j)]
式中,mean[·]代表求平均值,GSM(i,j)代表梯度特征评价视图,GSM(i,j)的计算公式如下:
GSM(i,j)=L(i,j)α1·G(i,j)α2
式中,L(i,j)和G(i,j)分别代表灰度评价视图和梯度评价视图,α1,α2代表L(i,j)和G(i,j)的权重系数,L(i,j)和G(i,j)的定义分别如下:
式中,x(i,j)和y(i,j)分别代表参考图像灰度矩阵和失真图像灰度矩阵,gx(i,j)和gy(i,j)分别代表x(i,j)和y(i,j)的梯度特征视图,C1和C2为保证算法稳定性的常数因子;
gx(i,j)和gy(i,j)的算法如下:
式中,gx(i)与gx(j)分别表示gx(i,j)水平方向投影和垂直方向投影,gy(i)与gy(j)分别表示gy(i,j)水平方向投影和垂直方向投影,gx(i)、gx(j)、gy(i)、gy(j)的计算公式分别如下:
式中,*表示卷积运算。
本实施例中,α1=α2=1.0C1=6.0,C2=16.0,对图2所示的图像灰度矩阵计算得到的梯度特征视图如图3所示。
步骤3,提取所有参考图像灰度矩阵和失真图像灰度矩阵的视觉多通道梯度特征信息视图,并计算所有失真图像灰度矩阵的视觉通道梯度特征评价。
本实施例中,失真图像灰度矩阵的视觉多通道信息视图的梯度特征评价VG(s,o)采用以下公式获得:
式中,mean[·]代表求平均值,VG(s,o)(i,j)代表视觉通道(s,o)的梯度特征评价视图,VG(s,o)(i,j)的计算公式如下:
式中,RG(s,o)(i,j)、DG(s,o)(i,j)分别为x(i,j)、y(i,j)的视觉通道(s,o)的梯度特征视图,C3为保证算法稳定性的常数因子,对算法的评价结果性能无影响;
RG(s,o)(i,j)、DG(s,o)(i,j)的算法如下:
式中,x(s,o)(i,j),y(s,o)(i,j)分别为x(i,j)、y(i,j)的视觉通道(s,o)的信息视图,以Log-Gabor小波获得x(s,o)(i,j),y(s,o)(i,j)如下:
x(s,o)(i,j)=F-1[G(ω,θj)×F(x(i,j)],y(s,o)(i,j)=F-1[G(ω,θj)×F(y(i,j)]
式中,s、o分别为log-Gabor尺度因子和方向因子,F(·)表示频域正变换,F-1(·)表示频域逆变换,G(ω,θj)为log-Gabor的频率函数表达式。
本实施例取s=5,o=4,C3=4.0,对图2提取的其中一个视觉通道(1,1)的结果如图4所示,对图4提取的视觉多通道梯度特征信息视图如图5所示。
步骤4,设计视觉多通道梯度特征-直方图误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-直方图深度信息评价。
本实施例中,失真图像质量的视觉多通道梯度-直方图深度信息评价算法如下:
式中,VGHISTs,o表示失真图像质量的视觉多通道梯度-直方图深度信息评价,VGHISTs,o(L)代表对视觉通道(s,o)的梯度特征视图进行分块后,第L个子块的梯度特征-直方图深度信息评价,VGHISTs,o(L)的计算公式如下:
VGHISTs,o(L)=VGHISTLs,o(L)β1·VGHISTCs,o(L)β2
式中,VGHISTLs,o(L)代表第L个子块的梯度-直方图灰度信息误差评价,VGHISTCs,o(L)代表第L个局部子块的梯度-直方图对比度信息误差评价,β1,β2为权重系数,VGHISTLs,o(L)和VGHISTCs,o(L)定义分别如下:
VGHISTLs,o(L)=EGHISTLs,o(L)-EGHISTLs,omid|
VGHISTCs,o(L)=EGHISTCs,o(L)-EGHISTCs,omid|
式中,EGHISTLs,o(L)和EGHISTCs,o(L)分别是第L个局部子块梯度-直方图的灰度均方根误差和对比度均方根误差,EGHISTLs,omid和EGHISTCs,omid为EGHISTLs,o(L)和EGHISTCs,o(L)的中间值大小,其定义分别如下:
式中,VGHISTLX(S,O)(L,i)和VGHISTLy(S,O)(L,i)分别为参考图像和失真图像的视觉通道梯度-直方图局部块L的灰度信息,VGHISTCX(S,O)(L,i)和VGHISTCy(S,O)(L,i)分别为参考图像和失真图像的视觉通道梯度-直方图局部块L的对比度信息,NL=max(NL1,NL2),NL1、NL2分别为VGHISTLX(S,O)(L,i)和VGHISTLy(S,O)(L,i)的直方图统计系数的数目。
本实施例中,分块大小取L=12×12,β1=β2=1.0。
步骤5,设计视觉多通道梯度特征-奇异值分解误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-奇异值深度信息评价。
本实施例中,失真图像质量的视觉多通道梯度-奇异值深度信息评价算法如下:
式中,VGSVDs,o为失真图像质量的视觉多通道梯度-奇异值深度信息评价,mean[·]代表求平均值,VGSVDs,o(L)代表对视觉通道(s,o)的梯度特征视图进行分块后,第L个子块的梯度特征-奇异值深度信息评价,VGSVDs,o(L)的计算公式如下:
VSVDs,o(L)=|Ds,o(L)-Ds,omid|
式中,Ds,o(L)是子块L的奇异特征值的均方根误差,Ds,omid为Ds,o(L)的中间值大小,Ds,o(L)和Ds,omid的定义分别如下:
式中,sxs,o(i),sys,o(i)分别代表参考图像和失真图像视觉通道(s,o)的梯度特征信息视图中第L个子块的奇异特征值系数,N=max(NL1,NL2),NL1、NL2分别为参考图像和失真图像视觉通道(s,o)的梯度特征信息视图中第L个子块所包含的奇异特征值系数的数目。
本实施例中,分块大小取L=8×8。
步骤6,构建BP神经网络视觉多通道图像质量融合评价模型。
本实施例中,构建的BP神经网络视觉多通道图像质量融合评价模型如图6所示,其中,IQA代表VG、VGHIST或VGSVD三种客观评价算法中的其中一个,BP神经网络输入层神经元的数量等于小波分解的通道数量5×4=20,隐藏层为一层,隐藏层的神经元数量取20,BP神经网络的输出层神经元数量只有一个,BP神经网络的输出层神经元数量只有一个,该输出代表失真图像质量基于所选客观评价算法的视觉多通道评价的融合结果。BP神经网络的训练目标为失真图像质量的人眼主观测试结果分值DMOS。BP神经网络所训练输入数据的长度等于训练集数据库中失真图像的数量。BP神经网络的训练目标为失真图像质量的人眼主观测试结果分值DMOS。BP神经网络所训练输入数据的长度等于训练集数据库中失真图像的数量,对BP网络进行有监督的学习训练,直到达到BP神经网络的其中一个训练终止条件。两个训练终止条件分别为:
(1)BP预测输出和DMOS之间的误差e=0.00001。
(2)迭代次数取为500。
步骤7,利用训练集中所有失真图像灰度矩阵的视觉通道梯度特征评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像灰度矩阵的视觉通道梯度特征评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度特征融合评价结果,并对该结果加1完成偏置处理。
步骤8,利用训练集中所有失真图像质量的视觉多通道梯度-直方图深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-直方图深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-直方图深度信息融合评价结果,并对该结果加1完成偏置处理。
步骤9,利用训练集中所有失真图像质量的视觉多通道梯度-奇异值深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-奇异值深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-奇异值深度信息融合评价结果,并对该结果加1完成偏置处理。
步骤10,对步骤2、步骤7、步骤8以及步骤9所得结果进行融合,获得失真图像质量的视觉多重特征深度融合处理评价结果。
采用以下方式对对步骤2、步骤7、步骤8以及步骤9所得结果进行融合:
最内层融合公式如下:
第二层融合公式如下:
最外层融合公式如下:
本实施例中,A为1,其他参数取值根据图像失真类型不同有所变化,详见表1。
基于客观评价结果MVFF分值和LIVE Release 2图像标准数据库中记载的各个失真图像的主观评估分MOS分值,根据国际视频质量专家组(Video Quality Experts Group,VQEG)规范计算得到本发明的客观评价方法的SROCC指标、RMSE指标和PLCC指标。
表1为利用本实施例的客观评价方法(MVFF)与现有的评价方法对LIVE Release 2图像标准数据库中的标准案例进行全参考图像质量客观评价时得到的评价结果的SROCC指标、RMSE指标和PLCC指标对比。本实施例中的现有评价方法涵盖了目前较新的研究成果,将其分为四类。第一类是经典方法和工程学方法,包括PSNR(Peak Signal to Noise Ratio,峰值信噪比)、SSIM(Structural Similarity,结构相似度)、SVD(Singular ValueDecomposition,奇异值分解);第二类是基于工程学的信息处理类评价方法,包括IFC(Information Fidelity Criterion,信息保真度IFC)、MSSIM(Multi-scale StructuralSimilarity,多尺度结构相似);第三类是视觉特征及其融合处理类评价方法,包括VIF(Visual Information Fidelity,视觉信息保真度)、FSIM(Feature Similarity FSIM,特征结构相似度)、VSI(Visual Saliency Induced,视觉显著);第四类是基于视觉特征感知处理与视觉心理推导融合类评价方法,包括MAD(Most Apparent Distortion,显著失真)和IGM(Internal Generative Mechanism,内推机制)。
Release 2图像标准数据库中失真图像的格式包括JP2K、JPEG、WN、Gblur和FF,为说明本实施例的方法的适用范围,表1中给出的不同方法下各个指标(即评价指标)的值为对Release 2图像标准数据库中该类的所有失真图像评的评价指标水平,表1中All表示针对Release 2图像标准数据库中的所有格式的失真图像。
表1
表1的结果反映出相对于现有方法,本发明方法实施例的结果MVFF有如下优势:1)MVFF方法对于图像不同失真类型的评价,各项指标均具有非常高的水平(RMSE<3.8731,PLCC>0.9872,SROCC>0.9758),且明显超越了上述三种方法;2)MVFF方法的评价性能相对稳定,没有出现由于图像失真类型不同而造成指标水平明显下降的现象。相对于IGM和MAD类方法所采用的尚不确定的视觉心理推导模型,MVFF借助了BP神经网络强大的推导分析能力和非线性数值逼近能力,从而更能有效地模拟视觉心理的复杂作用机制。3)针对现有视觉特征处理评价方法指标水平不高的问题,MVFF方法采用了深度视觉特征处理算法VGH和VGD,并自适应地融合了多重视觉感知的特征评价结果。综上,本发明方法MVFF方法不仅克服了现有方法的各种缺陷,而且整体评价性能(RMSE=4.1324,PLCC=0.9875,SROCC=0.9815)也明显超越了现有方法。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,其特征在于,包括:
步骤1,选取一个图像质量数据库,对其中包含的参考图像和失真图像进行预处理得到相应的图像灰度矩阵;
步骤2,将失真图像分为训练集和测试集,并计算测试集中所有失真图像灰度矩阵的梯度特征评价结果;
步骤3,提取所有参考图像灰度矩阵和失真图像灰度矩阵的视觉多通道梯度特征信息视图,并计算所有失真图像灰度矩阵的视觉多通道梯度特征评价;
步骤4,设计视觉多通道梯度特征-直方图误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-直方图深度信息评价,其中,所述失真图像质量的视觉多通道梯度-直方图深度信息评价算法如下:
VGHISTs,o=mean[VGHISTs,o(L)]
式中,mean[·]代表求平均值,VGHISTs,o表示失真图像质量的视觉多通道梯度-直方图深度信息评价,VGHISTs,o(L)代表对视觉通道(s,o)的梯度特征视图进行分块后,第L个子块的梯度特征-直方图深度信息评价,VGHISTs,o(L)的计算公式如下:
VGHISTs,o(L)=VGHISTLs,o(L)β1·VGHISTCs,o(L)β2
式中,VGHISTLs,o(L)代表第L个子块的梯度-直方图灰度信息误差评价,VGHISTCs,o(L)代表第L个局部子块的梯度-直方图对比度信息误差评价,β1,β2为权重系数,VGHISTLs,o(L)和VGHISTCs,o(L)定义分别如下:
VGHISTLs,o(L)=|EGHISTLs,o(L)-EGHISTLs,omid|
VGHISTCs,o(L)=|EGHISTCs,o(L)-EGHISTCs,omid|
式中,EGHISTLs,o(L)和EGHISTCs,o(L)分别是第L个局部子块梯度-直方图的灰度均方根误差和对比度均方根误差,EGHISTLs,omid和EGHISTCs,omid为EGHISTLs,o(L)和EGHISTCs,o(L)的中间值大小,其定义分别如下:
EGHISTLs,omid=mean[EGHISTLs,o(L)]
EGHISTCs,omid=mean[EGHISTCs,o(L)]
式中,VGHISTLx(s,o)(L,i)和VGHISTLy(s,o)(L,i)分别为参考图像和失真图像的视觉通道梯度-直方图局部块L的灰度信息,VGHISTCx(s,o)(L,i)和VGHISTCy(s,o)(L,i)分别为参考图像和失真图像的视觉通道梯度-直方图局部块L的对比度信息,NL=max(NL1,NL2),NL1、NL2分别为VGHISTLx(s,o)(L,i)和VGHISTLy(s,o)(L,i)的直方图统计系数的数目,NL=max(NL1,NL2)是取NL1和NL2中的最大值;
所述计算所有失真图像质量的视觉多通道梯度-直方图深度信息评价过程为:
对所有失真图像灰度矩阵的视觉多通道梯度特征评价进行直方图变换,得到所有失真图像质量的视觉多通道梯度-直方图深度信息评价;
步骤5,设计视觉多通道梯度特征-奇异值分解误差深度信息处理评价算法,并计算所有失真图像质量的视觉多通道梯度-奇异值深度信息评价,其中,所述失真图像质量的视觉多通道梯度-奇异值深度信息评价算法如下:
VGSVDs,o=mean[VGSVDs,o(L)]
式中,VGSVDs,o为失真图像质量的视觉多通道梯度-奇异值深度信息评价,mean[·]代表求平均值,VGSVDs,o(L)代表对视觉通道(s,o)的梯度特征视图进行分块后,第L个子块的梯度特征-奇异值深度信息评价,VGSVDs,o(L)的计算公式如下:
VSVDs,o(L)=|Ds,o(L)-Ds,omid|
式中,Ds,o(L)是子块L的奇异特征值的均方根误差,Ds,omid为Ds,o(L)的中间值大小,Ds,o(L)和Ds,omid的定义分别如下:
Ds,omid=mean[Ds,o(L)]
式中,sxs,o(i),sys,o(i)分别代表参考图像和失真图像视觉通道(s,o)的梯度特征信息视图中第L个子块的奇异特征值系数,ML=max(ML1,ML2),ML1、ML2分别为参考图像和失真图像视觉通道(s,o)的梯度特征信息视图中第L个子块所包含的奇异特征值系数的数目,ML=max(ML1,ML2)是取ML1和ML2中最大值;
所述计算所有失真图像质量的视觉多通道梯度-奇异值深度信息评价具体过程为:
对所有失真图像灰度矩阵的视觉多通道梯度特征评价进行奇异值分解变换,得到所有失真图像质量的视觉多通道梯度-奇异值深度信息评价;
步骤6,构建BP神经网络视觉多通道图像质量融合评价模型;
步骤7,利用训练集中所有失真图像灰度矩阵的视觉多通道梯度特征评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像灰度矩阵的视觉多通道梯度特征评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度特征融合评价结果,并对该结果进行偏置处理;
步骤8,利用训练集中所有失真图像质量的视觉多通道梯度-直方图深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-直方图深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-直方图深度信息融合评价结果,并对该结果进行偏置处理;
步骤9,利用训练集中所有失真图像质量的视觉多通道梯度-奇异值深度信息评价对构建的BP神经网络视觉多通道图像质量融合评价模型进行训练后,将测试集中的失真图像质量的视觉多通道梯度-奇异值深度信息评价输入到训练好的BP神经网络视觉多通道图像质量融合评价模型进行预测,输出失真图像质量的视觉多通道梯度-奇异值深度信息融合评价结果,并对该结果进行偏置处理;
步骤10,对步骤2、步骤7、步骤8以及步骤9所得结果进行融合,获得失真图像质量的视觉多重特征深度融合处理评价结果,具体包括:
最内层融合公式如下:
第二层融合公式如下:
最外层融合公式如下:
2.如权利要求1所述的基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,其特征在于,步骤1中,所述预处理包括依次进行灰度化处理和高斯低通滤波处理。
3.如权利要求1所述的基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,其特征在于,步骤2中,训练集与测试集中失真图像数量的比例为1/3~1。
4.如权利要求1所述的基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,其特征在于,步骤2中,采用以下公式计算失真图像灰度矩阵的梯度特征评价GSM(s,o):
GSM(s,o)=mean[GSM(i,j)]
式中,mean[·]代表求平均值,GSM(i,j)代表梯度特征评价视图,GSM(i,j)的计算公式如下:
GSM(i,j)=L(i,j)α1·G(i,j)α2
式中,L(i,j)和G(i,j)分别代表灰度评价视图和梯度评价视图,α1,α2代表L(i,j)和G(i,j)的权重系数,L(i,j)和G(i,j)的定义分别如下:
式中,x(i,j)和y(i,j)分别代表参考图像灰度矩阵和失真图像灰度矩阵,gx(i,j)和gy(i,j)分别代表x(i,j)和y(i,j)的梯度特征视图,C1和C2为保证算法稳定性的常数因子;
gx(i,j)和gy(i,j)的算法如下:
式中,gx(i)与gx(j)分别表示gx(i,j)水平方向投影和垂直方向投影,gy(i)与gy(j)分别表示gy(i,j)水平方向投影和垂直方向投影,gx(i)、gx(j)、gy(i)、gy(j)的计算公式分别如下:
式中,*表示卷积运算。
5.如权利要求1所述的基于视觉多重特征深度融合处理的全参考图像质量客观评价方法,其特征在于,步骤3中,所述失真图像灰度矩阵的视觉多通道信息视图的梯度特征评价VG(s,o)采用以下公式获得:
VG(s,o)=mean[VG(s,o)(i,j)]
式中,mean[·]代表求平均值,VG(s,o)(i,j)代表视觉通道(s,o)的梯度特征评价视图,VG(s,o)(i,j)的计算公式如下:
式中,RG(s,o)(i,j)、DG(s,o)(i,j)分别为x(i,j)、y(i,j)的视觉通道(s,o)的梯度特征视图,C3为保证算法稳定性的常数因子,对算法的评价结果性能无影响;
RG(s,o)(i,j)、DG(s,o)(i,j)的算法如下:
式中,x(s,o)(i,j),y(s,o)(i,j)分别为x(i,j)、y(i,j)的视觉通道(s,o)的信息视图,以Log-Gabor小波获得x(s,o)(i,j),y(s,o)(i,j)如下:
x(s,o)(i,j)=F-1[G(ω,θj)×F(x(i,j))],y(s,o)(i,j)=F-1[G(ω,θj)×F(y(i,j))]
式中,s、o分别为log-Gabor尺度因子和方向因子,F(·)表示频域正变换,F-1(·)表示频域逆变换,G(ω,θj)为log-Gabor的频率函数表达式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810359227.3A CN108648180B (zh) | 2018-04-20 | 2018-04-20 | 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810359227.3A CN108648180B (zh) | 2018-04-20 | 2018-04-20 | 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108648180A CN108648180A (zh) | 2018-10-12 |
CN108648180B true CN108648180B (zh) | 2020-11-17 |
Family
ID=63746794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810359227.3A Active CN108648180B (zh) | 2018-04-20 | 2018-04-20 | 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108648180B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446938B (zh) * | 2018-07-18 | 2021-09-03 | 东南大学 | 一种基于多序列双投影的黑烟车检测方法 |
CN109598707B (zh) * | 2018-11-26 | 2020-07-17 | 浙江科技学院 | 一种基于特征信息处理的全参考图像质量客观评价方法 |
CN112446879B (zh) * | 2021-01-06 | 2022-09-23 | 天津科技大学 | 一种基于图像熵的对比度失真图像质量评价方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169576A (zh) * | 2011-04-02 | 2011-08-31 | 北京理工大学 | 一种图像拼接算法定量评价方法 |
CN105160678A (zh) * | 2015-09-02 | 2015-12-16 | 山东大学 | 基于卷积神经网络的无参考立体图像质量评估方法 |
CN107071423A (zh) * | 2017-04-24 | 2017-08-18 | 天津大学 | 视觉多通道模型在立体视频质量客观评价中的应用方法 |
CN107578404A (zh) * | 2017-08-22 | 2018-01-12 | 浙江大学 | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 |
CN107770517A (zh) * | 2017-10-24 | 2018-03-06 | 天津大学 | 基于图像失真类型的全参考图像质量评价方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741107B2 (en) * | 2015-06-05 | 2017-08-22 | Sony Corporation | Full reference image quality assessment based on convolutional neural network |
US9734567B2 (en) * | 2015-06-24 | 2017-08-15 | Samsung Electronics Co., Ltd. | Label-free non-reference image quality assessment via deep neural network |
-
2018
- 2018-04-20 CN CN201810359227.3A patent/CN108648180B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169576A (zh) * | 2011-04-02 | 2011-08-31 | 北京理工大学 | 一种图像拼接算法定量评价方法 |
CN105160678A (zh) * | 2015-09-02 | 2015-12-16 | 山东大学 | 基于卷积神经网络的无参考立体图像质量评估方法 |
CN107071423A (zh) * | 2017-04-24 | 2017-08-18 | 天津大学 | 视觉多通道模型在立体视频质量客观评价中的应用方法 |
CN107578404A (zh) * | 2017-08-22 | 2018-01-12 | 浙江大学 | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 |
CN107770517A (zh) * | 2017-10-24 | 2018-03-06 | 天津大学 | 基于图像失真类型的全参考图像质量评价方法 |
Non-Patent Citations (3)
Title |
---|
Multi-scale information fidelity approach for full reference image quality assessment;Mingkun Feng et al.;《2015 International Conference on Wireless Communications & Signal Processing (WCSP)》;20151203;全文 * |
基于局部高斯加权融合的图像质量评价;丰明坤等;《计算机工程》;20160815;第42卷(第8期);全文 * |
基于视觉特性的图像质量综合评价方法研究;丰明坤;《中国博士学位论文全文数据库 信息科技辑》;20180115(第01期);第67-69页、第79-81页、第86-88页、第94-97页、附图4.14 * |
Also Published As
Publication number | Publication date |
---|---|
CN108648180A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596890B (zh) | 一种基于视觉测量率自适应融合的全参考图像质量客观评价方法 | |
CN108615231B (zh) | 一种基于神经网络学习融合的全参考图像质量客观评价方法 | |
CN108648180B (zh) | 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法 | |
CN110648292B (zh) | 一种基于深度卷积网络的高噪声图像去噪方法 | |
CN110728656A (zh) | 基于元学习的无参考图像质量数据处理方法、智能终端 | |
CN104376565B (zh) | 基于离散余弦变换和稀疏表示的无参考图像质量评价方法 | |
CN105118067A (zh) | 一种基于高斯平滑滤波的图像分割方法 | |
CN109816646B (zh) | 一种基于退化决策逻辑的无参考图像质量评价方法 | |
CN105139371A (zh) | 一种基于pcnn与lp变换的多聚焦图像融合方法 | |
CN112767385B (zh) | 基于显著性策略与特征融合无参考图像质量评价方法 | |
Hou et al. | Saliency-guided deep framework for image quality assessment | |
CN108550152B (zh) | 基于深度特征感知推理的全参考图像质量客观评价方法 | |
CN104778466A (zh) | 一种联合多种上下文线索的图像关注区域检测方法 | |
CN108596044B (zh) | 基于深度卷积神经网络的行人检测方法 | |
CN111127386B (zh) | 一种基于深度学习的图像质量评价方法 | |
CN117422653A (zh) | 一种基于权重共享和迭代数据优化的低光照图像增强方法 | |
CN116993639A (zh) | 基于结构重参数化的可见光与红外图像融合方法 | |
Sahu et al. | Color image segmentation using genetic algorithm | |
CN108428226B (zh) | 一种基于ica稀疏表示与som的失真图像质量评价方法 | |
CN114049357B (zh) | 一种基于特征集关联度的乳腺超声分割方法 | |
CN112233065B (zh) | 显著性调制下多维视觉特征协作的全盲图像质量评价方法 | |
CN114847933A (zh) | 基于全卷积残差网络的肌电信号手势识别方法及系统 | |
CN1262104C (zh) | 采用神经网络技术对图像进行滤波的方法 | |
CN115331045A (zh) | 基于神经网络自适应膨胀剪枝的视觉对象分类方法 | |
KR102340387B1 (ko) | 뇌 연결성 학습 방법 및 이를 위한 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |