CN105208374A - 一种基于深度学习的无参考图像质量客观评价方法 - Google Patents

一种基于深度学习的无参考图像质量客观评价方法 Download PDF

Info

Publication number
CN105208374A
CN105208374A CN201510523373.1A CN201510523373A CN105208374A CN 105208374 A CN105208374 A CN 105208374A CN 201510523373 A CN201510523373 A CN 201510523373A CN 105208374 A CN105208374 A CN 105208374A
Authority
CN
China
Prior art keywords
light
image
sub
sigma
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510523373.1A
Other languages
English (en)
Other versions
CN105208374B (zh
Inventor
郁梅
吕亚奇
彭宗举
陈芬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510523373.1A priority Critical patent/CN105208374B/zh
Publication of CN105208374A publication Critical patent/CN105208374A/zh
Application granted granted Critical
Publication of CN105208374B publication Critical patent/CN105208374B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的无参考图像质量客观评价方法,其将待评价的失真图像进行多分辨率金字塔和高斯差分分解后,对子带图像做简单的局部归一化就可以提取自然统计特征,不需要到变换域提取特征,从而复杂度大幅降低;本发明方法无需参考图像、无需失真类型,用自然统计特性的丢失程度衡量图像的失真程度;本发明方法能够客观地反映图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,并且本发明方法的评价性能不受图像内容和失真类型的影响,与人眼的主观感知一致;采用现有的L矩估计方法估计灰度直方图的包络曲线的分布参数,估计得到的分布参数更加准确,具有更强的泛化能力。

Description

一种基于深度学习的无参考图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于深度学习的无参考图像质量客观评价方法。
背景技术
图像质量评价(imagequalityassessment,IQA)是很多图像处理应用中不可或缺的部分。客观图像质量评价模型是能自动预测图像失真程度的算法,通常用于监控多媒体服务,确保终端用户获得满意的体验质量。根据原始参考图像是否可用,客观图像质量评价通常可以划分为三类,分别是全参考图像质量评价、半参考图像质量评价、无参考图像质量评价(blindimagequalityassessment,BIQA)。无参考图像质量评价方法能在没有参考图像和不知道失真类型的情况下预测图像的感知质量,是最具挑战性也是最实用的方法,因为在很多应用场合都无法获得参考图像。最高效的无参考图像质量评价模型都建立在自然统计特性(naturalscenestatistics,NSS)上,无失真的自然图像的分布具有稳定的分布形状,而这个分布形状在图像质量衰减时会被破坏或改变,这个性质可以用于预测待测图像的质量。目前,已有的基于NSS的无参考图像质量评价方法通常是在两步框架下实现的:首先提取失真图像的自然统计特征,然后采用基于机器学习方法的质量预测模型预测失真图像的客观质量,其中,基于机器学习方法的质量预测模型是在由带有主观分数的失真图像构成的训练集上经过训练得到的。
现有的基于NSS的无参考图像质量评价方法大多是从不同的变换域中提取自然统计特征,如Moorthy等人从小波域提取NSS特征,提出了盲图像质量评价(BlindImageQualityIndex,BIQI)及其改进算法即基于失真分类的图像真实性和完整性评估(DistortionIdentification-basedImageVerityandINtegrityEvaluation,DIIVINE);Saad等人在DCT域提出了改进的基于DCT统计特性的盲图像完整性评价(BLindImageIntegrityNotatorusingDCTStatistics-II,BLIINDS-II);Liu等人用局部空域和频域熵作为特征提出了基于时空域熵的质量评价(Spatial–SpectralEntropy-basedQualityindex,SSEQ);但是,一方面,这些方法的时间复杂度都非常高,不利于实时应用;另一方面,这些方法都需要机器学习方法训练预测模型,常用的机器学习方法有神经网络、支持向量基、随机森林等,然而由于这些机器学习方法都是浅层学习方法,通常由单层或双层非线性特征转换层构成,因此这些机器学习方法在将特征映射到真实标签时不够准确,而且众所周知,人类视觉机制是非常复杂的,很难被浅层学习方法很好的表达。Hou等人训练了一个深信网络(Deepbeliefnetwork,DBN)分类模型用于预测图像的质量;Gu等人提取了大量的统计特性并训练了一个堆栈自编码器(Stackedauto-encoder,SAE)用于回归;这些方法都是基于深度学习的无参考图像质量评价方法,但是这些方法的评价准确性较低,说明经典深度学习模型无法直接应用于图像质量评价。
发明内容
本发明所要解决的技术问题是提供一种基于深度学习的无参考图像质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于深度学习的无参考图像质量客观评价方法,其特征在于包括以下步骤:
①令Idis表示待评价的失真图像,将Idis的亮度分量图像记为Ilight
②采用m个尺度的多分辨率金字塔对Ilight进行分解,得到Ilight的m幅第一子带图像,将Ilight的第i幅第一子带图像记为Ilight,i;然后采用n个尺度的高斯差分对Ilight的每幅第一子带图像进行再次分解,得到Ilight的每幅第一子带图像的n幅第二子带图像,将Ilight,i的第j幅第二子带图像记为Ilight,i,j;其中,m≥1,i的初始值为1,1≤i≤m,n≥1,j的初始值为1,1≤j≤n;
③对Ilight对应的m×n幅第二子带图像分别进行局部归一化处理,得到Ilight对应的每幅第二子带图像的归一化图像,将Ilight,i,j的归一化图像记为
④统计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图,将的灰度直方图记为{Xlight,i,j(k)|1≤k≤256},其中,Xlight,i,j(k)表示中像素值属于第k个像素值区间的像素点的总个数,对应的256个像素值区间的获取过程为:将中像素值的最小值和最大值对应记为pixmin和pixmax,然后将区间[pixmin,pixmax]等间隔划分为256个子区间,再将区间[pixmin,pixmax]中的第k个子区间作为对应的第k个像素值区间;
⑤估计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,将{Xlight,i,j(k)|1≤k≤256}的包络曲线的四个分布参数依次记为
⑥将Ilight对应的共4×m×n个分布参数按序排列构成的集合作为Ilight的自然统计特征集,记为F, F = { l l i g h t , 1 , 1 ( 1 ) , l l i g h t , 1 , 1 ( 2 ) , l l i g h t , 1 , 1 ( 3 ) , l l i g h t , 1 , 1 ( 4 ) , ... , l l i g h t , 1 , n ( 1 ) , l l i g h t , 1 , n ( 2 ) , l l i g h t , 1 , n ( 3 ) , l l i g h t , 1 , n ( 4 ) , l l i g h t , 2 , 1 ( 1 ) , l l i g h t , 2 , 1 ( 2 ) , l l i g h t , 2 , 1 ( 3 ) , l l i g h t , 2 , 1 ( 4 ) , ... , l l i g h t , m , n ( 1 ) , l l i g h t , m , n ( 2 ) , l l i g h t , m , n ( 3 ) , l l i g h t , m , n ( 4 ) } ,其中,表示Ilight的第1幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第1幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第2幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第m幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数;
⑦采用d幅原始的无失真图像,建立其在不同失真类型不同失真程度下的失真图像集合,将该失真图像集合作为训练集,训练集包括多幅失真图像;然后利用主观质量评价方法评价出训练集中的每幅失真图像的平均主观意见分,将训练集中的第t幅失真图像的平均主观意见分记为MOSt;再按照步骤①至步骤⑥的过程,以相同的方式获取训练集中的每幅失真图像的亮度分量图像的自然统计特征集,将训练集中的第t幅失真图像的亮度分量图像的自然统计特征集记为Ft;其中,d≥1,1≤t≤T,T表示训练集中包含的失真图像的总幅数,MOSt∈[0,5];
⑧采用深度学习中的堆栈自编码器算法对训练集中的所有失真图像各自对应的自然统计特征集和平均主观意见分进行训练,使得经过训练得到的预测质量值与对应的平均主观意见分之间的误差最小,训练得到基于深度学习的回归模型;其中,堆栈自编码器由一个输入层、三个稀疏自编码层和一个线性回归层构成,输入层输入的是训练集中的每幅失真图像的亮度分量图像的自然统计特征集,输入层有4×m×n个节点,三个稀疏自编码层对输入的自然统计特征集进行深度表达,三个稀疏自编码层依次有200个节点、100个节点、100个节点,线性回归层输出的是训练集中的每幅失真图像的预测质量值,线性回归层只有一个节点;
⑨将基于深度学习的回归模型中的一个输入层和三个稀疏自编码层构成深度表达模型;然后利用深度表达模型对F进行深度表达,得到Ilight的深度特征集,记为Fd,Fd=MODSAE(F),并利用深度表达模型对训练集中的每幅失真图像的亮度分量图像的自然统计特征集进行深度表达,得到训练集中的每幅失真图像的亮度分量图像的深度特征集,将训练集中的第t幅失真图像的亮度分量图像的深度特征集记为 其中,MODSAE()为深度表达模型的函数表示形式;
⑩采用支持向量回归算法,对训练集中的所有失真图像各自对应的深度特征集和平均主观意见分进行训练,使得经过训练得到的回归函数值与对应的平均主观意见分之间的误差最小,训练得到支持向量回归模型;然后利用支持向量回归模型对Fd进行测试,预测得到Idis的客观质量评价预测值,记为Qdis,Qdis=MODSVR(Fd),其中,MODSVR()为支持向量回归模型的函数表示形式。
所述的步骤②中的 I l i g h t , i , j = G j ( σ j ) ⊗ I l i g h t , i - G j + 1 ( σ j + 1 ) ⊗ I l i g h t , i 1 ≤ j ≤ n - 1 G j ( σ j ) ⊗ I l i g h t , i j = = n , 其中,符号为卷积符号,Gj()表示第j个高斯函数,Gj+1()表示第j+1个高斯函数,Gjj)表示Gj()的尺度系数为σj时的高斯卷积核,Gj+1j+1)表示Gj+1()的尺度系数为σj+1时的高斯卷积核,假设Gjj)和Gj+1j+1)的大小均为c×c,则将Gjj)中位置为(x,y)处的值记为Gj(x,y;σj),将Gj+1j+1)中位置为(x,y)处的值记为Gj+1(x,y;σj+1),
G j ( x , y ; σ j ) = 1 2 πσ j 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j 2 ) , G j + 1 ( x , y ; σ j + 1 ) = 1 2 πσ j + 1 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j + 1 2 ) , exp()表示以自然基数e为底的指数函数,1≤x≤c,1≤y≤c,c=7,σj=1.6j-2,σj+1=1.6j+1-2
所述的步骤③中采用尺寸大小为(P-(-P)+1)×(Q-(-Q)+1)的滑动窗口对Ilight对应的每幅第二子带图像进行局部归一化处理;将中坐标位置为(u,v)的像素点的像素值记为 I ~ l i g h t , i , j ( u , v ) = I l i g h t , i , j ( u , v ) - μ l i g h t , i , j ( u , v ) σ l i g h t , i , j ( u , v ) + 1 , 其中,P∈[1,5],Q∈[1,5]且P=Q,1≤u≤W,1≤v≤H,W和H对应表示Ilight,i,j的宽度和高度,Ilight,i,j(u,v)表示Ilight,i,j中坐标位置为(u,v)的像素点的像素值, σ l i g h t , i , j ( u , v ) = Σ p = - P P Σ q = - Q Q ( I l i g h t , i , j ( u + p , v + q ) - μ l i g h t , i , j ( u , v ) ) 2 , Ilight,i,j(u+p,v+q)表示Ilight,i,j中坐标位置为(u+p,v+q)的像素点的像素值,-P≤p≤P,-Q≤q≤Q。
所述的步骤⑤中的分布参数的估计采用L矩估计方法。
所述的步骤⑤中的 l l i g h t , i , j ( 1 ) = p 0 , l l i g h t , i , j ( 2 ) = 2 p 1 - p 0 , l l i g h t , i , j ( 3 ) = 6 p 2 - 6 p 1 + p 0 , l l i g h t , i , j ( 4 ) = 20 p 3 - 30 p 2 + 12 p 1 - p 0 , 其中,
p r = Σ k = 1 256 X l i g h t , i , j ( k ) 256 , r = 0 p r = Σ k = r + 1 256 ( k - 1 ) ( k - 2 ) ... ( k - r ) ( 256 - 1 ) ( 256 - 2 ) ... ( 256 - r ) X l i g h t , i , j ( k ) 256 , r = 1 , 2 , 3 .
与现有技术相比,本发明的优点在于:
1)本发明方法是将待评价的失真图像进行多分辨率金字塔和高斯差分分解后,对子带图像做简单的局部归一化就可以提取自然统计特征,不需要到变换域提取特征,从而复杂度大幅降低;本发明方法无需参考图像、无需失真类型,用自然统计特性的丢失程度衡量图像的失真程度;本发明方法能够客观地反映图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,并且本发明方法的评价性能不受图像内容和失真类型的影响,与人眼的主观感知一致。
2)本发明方法首先采用深度学习中的堆栈自编码器算法对训练集中的所有失真图像各自对应的自然统计特征集和平均主观意见分进行训练,得到基于深度学习的回归模型;然后去掉最后的线性回归层,得到深度表达模型,用深度表达模型对训练集中的每幅失真图像及待评价的失真图像各自对应的自然统计特征集进行深度表达,得到相应的深度特征集;再采用支持向量回归算法,对训练集中的所有失真图像各自对应的深度特征集和平均主观意见分进行训练,得到支持向量回归模型;最后利用支持向量回归模型对待评价的失真图像相应的深度特征集进行测试,预测得到待评价的失真图像的客观质量评价预测值;这种深度表达再非线性回归的特征融合方法,使特征参数以最佳的融合方式预测失真图像的客观质量评价预测值,避免了对人类视觉系统的相关特性与机理的复杂模拟过程,并且由于训练的自然统计特征集和测试的自然统计特征集是相互独立的,因此可以避免测试结果对训练数据的过度依赖,从而能够有效地提高客观评价结果与主观感知之间的相关性。
3)本发明方法采用现有的L矩估计方法估计灰度直方图的包络曲线的分布参数,估计得到的分布参数更加准确,具有更强的泛化能力。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
由于在很多应用场合都无法获取参考图像,因此无参考的图像质量评价方法是最具实用性和挑战性的研究课题,而传统的无参考的图像质量评价都有很高的计算复杂度和时间复杂度,同时预测的客观质量与主观感知之间的一致性较差。本发明通过对图像进行分解在空域提取自然统计特征,时间复杂度非常低,同时采用多分辨率金字塔和高斯差分分解能对图像进行多分辨率分析和多尺度纹理分析,从而提取更好的自然统计特征;本发明还在传统的浅层学习算法进行回归之前,加入了深度表达模型用于挖掘特征中与感知质量相关性更高的潜在信息,并对特征进行深度表达,从而使回归模型具有更高的预测准确性和更强的泛化能力。
本发明提出的一种基于深度学习的无参考图像质量客观评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令Idis表示待评价的失真图像,将Idis的亮度分量图像记为Ilight
②采用m个尺度的多分辨率金字塔对Ilight进行分解,得到Ilight的m幅第一子带图像,将Ilight的第i幅第一子带图像记为Ilight,i;然后采用n个尺度的高斯差分对Ilight的每幅第一子带图像进行再次分解,得到Ilight的每幅第一子带图像的n幅第二子带图像,将Ilight,i的第j幅第二子带图像记为Ilight,i,j;其中,采用多分辨率金字塔分解图像为现有技术,得到的子带图像的尺寸大小随尺度越大,越来越小,m≥1,在本实施例中取m=5,对本发明方法进行实验发现取m=5时效果最好,i的初始值为1,1≤i≤m,采用高斯差分分解图像为现有技术,得到的子带图像的尺寸大小与被分解的图像的尺寸大小一致,n≥1,在本实施例中取n=5,对本发明方法进行实验发现取n=5时效果最好,j的初始值为1,1≤j≤n,Ilight经过多分辨率金字塔和高斯差分两级分解,共得到Ilight对应的m×n幅第二子带图像。
在此具体实施例中,步骤②中的 I l i g h t , i , j = G j ( σ j ) ⊗ I l i g h t , i - G j + 1 ( σ j + 1 ) ⊗ I l i g h t , i 1 ≤ j ≤ n - 1 G j ( σ j ) ⊗ I l i g h t , i j = = n , 其中,符号为卷积符号,Gj()表示第j个高斯函数,Gj+1()表示第j+1个高斯函数,Gjj)表示Gj()的尺度系数为σj时的高斯卷积核,Gj+1j+1)表示Gj+1()的尺度系数为σj+1时的高斯卷积核,假设Gjj)和Gj+1j+1)的大小均为c×c,则将Gjj)中位置为(x,y)处的值记为Gj(x,y;σj),将Gj+1j+1)中位置为(x,y)处的值记为Gj+1(x,y;σj+1),
G j ( x , y ; σ j ) = 1 2 πσ j 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j 2 ) , G j + 1 ( x , y ; σ j + 1 ) = 1 2 πσ j + 1 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j + 1 2 ) , exp()表示以自然基数e为底的指数函数,1≤x≤c,1≤y≤c,c=7,σj=1.6j-2,σj+1=1.6j+1-2
③对Ilight对应的m×n幅第二子带图像分别进行局部归一化处理,得到Ilight对应的每幅第二子带图像的归一化图像,将Ilight,i,j经局部归一化处理后得到的归一化图像记为
在此具体实施例中,步骤③中采用尺寸大小为(P-(-P)+1)×(Q-(-Q)+1)的滑动窗口对Ilight对应的每幅第二子带图像进行局部归一化处理;将中坐标位置为(u,v)的像素点的像素值记为 I ~ l i g h t , i , j ( u , v ) = I l i g h t , i , j ( u , v ) - μ l i g h t , i , j ( u , v ) σ l i g h t , i , j ( u , v ) + 1 , 其中,P∈[1,5],Q∈[1,5]且P=Q,在本实施例中取P=Q=3,即采用大小为7×7的滑动窗口进行局部归一化,1≤u≤W,1≤v≤H,W和H对应表示Ilight,i,j的宽度和高度,Ilight,i,j(u,v)表示Ilight,i,j中坐标位置为(u,v)的像素点的像素值,
μ l i g h t , i , j ( u , v ) = Σ p = - P P Σ q = - Q Q I l i g h t , i , j ( u + p , v + q ) , σ l i g h t , i , j ( u , v ) = Σ p = - P P Σ q = - Q Q ( I l i g h t , i , j ( u + p , v + q ) - μ l i g h t , i , j ( u , v ) ) 2 , Ilight,i,j(u+p,v+q)表示Ilight,i,j中坐标位置为(u+p,v+q)的像素点的像素值,-P≤p≤P,-Q≤q≤Q。
④统计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图,将的灰度直方图记为{Xlight,i,j(k)|1≤k≤256},其中,Xlight,i,j(k)表示中像素值属于第k个像素值区间的像素点的总个数,对应的256个像素值区间的获取过程为:将中像素值的最小值和最大值对应记为pixmin和pixmax,然后将区间[pixmin,pixmax]等间隔划分为256个子区间,再将区间[pixmin,pixmax]中的第k个子区间作为对应的第k个像素值区间。
⑤估计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,将{Xlight,i,j(k)|1≤k≤256}的包络曲线的四个分布参数依次记为 分布参数用来确定包络曲线的基本形状,m×n幅第二子带图像共4×m×n个分布参数。
在此具体实施例中,步骤⑤中的分布参数的估计采用现有的L矩估计方法;
l l i g h t , i , j ( 1 ) = p 0 , l l i g h t , i , j ( 2 ) = 2 p 1 - p 0 , l l i g h t , i , j ( 3 ) = 6 p 2 - 6 p 1 + p 0 , l l i g h t , i , j ( 4 ) = 20 p 3 - 30 p 2 + 12 p 1 - p 0 , 其中,
p r = Σ k = 1 256 X l i g h t , i , j ( k ) 256 , r = 0 p r = Σ k = r + 1 256 ( k - 1 ) ( k - 2 ) ... ( k - r ) ( 256 - 1 ) ( 256 - 2 ) ... ( 256 - r ) X l i g h t , i , j ( k ) 256 , r = 1 , 2 , 3 .
⑥将Ilight对应的共4×m×n个分布参数按序排列构成的集合作为Ilight的自然统计特征集,记为F,
F = { l l i g h t , 1 , 1 ( 1 ) , l l i g h t , 1 , 1 ( 2 ) , l l i g h t , 1 , 1 ( 3 ) , l l i g h t , 1 , 1 ( 4 ) , ... , l l i g h t , 1 , n ( 1 ) , l l i g h t , 1 , n ( 2 ) , l l i g h t , 1 , n ( 3 ) , l l i g h t , 1 , n ( 4 ) , l l i g h t , 2 , 1 ( 1 ) , l l i g h t , 2 , 1 ( 2 ) , l l i g h t , 2 , 1 ( 3 ) , l l i g h t , 2 , 1 ( 4 ) , ... , l l i g h t , m , n ( 1 ) , l l i g h t , m , n ( 2 ) , l l i g h t , m , n ( 3 ) , l l i g h t , m , n ( 4 ) } ,其中,表示Ilight的第1幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第1幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第2幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第m幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数。
⑦采用d幅原始的无失真图像,建立其在不同失真类型不同失真程度下的失真图像集合,将该失真图像集合作为训练集,训练集包括多幅失真图像;然后利用现有的主观质量评价方法评价出训练集中的每幅失真图像的平均主观意见分,将训练集中的第t幅失真图像的平均主观意见分记为MOSt;再按照步骤①至步骤⑥的过程,以相同的方式获取训练集中的每幅失真图像的亮度分量图像的自然统计特征集,将训练集中的第t幅失真图像的亮度分量图像的自然统计特征集记为Ft;其中,d≥1,1≤t≤T,T表示训练集中包含的失真图像的总幅数,MOSt∈[0,5]。
⑧采用现有的深度学习中的堆栈自编码器算法对训练集中的所有失真图像各自对应的自然统计特征集和平均主观意见分进行训练,使得经过训练得到的预测质量值与对应的平均主观意见分之间的误差最小,训练得到基于深度学习的回归模型;其中,堆栈自编码器由一个输入层、三个稀疏自编码层和一个线性回归层构成,输入层输入的是训练集中的每幅失真图像的亮度分量图像的自然统计特征集,输入层有4×m×n个节点,三个稀疏自编码层对输入的自然统计特征集进行深度表达,三个稀疏自编码层依次有200个节点、100个节点、100个节点,线性回归层输出的是训练集中的每幅失真图像的预测质量值,线性回归层只有一个节点。
在本实施例中,在堆栈自编码器的预训练过程中,每个稀疏自编码层的学习率是0.01,学习率的调整因子是0.9,动量是0.9,训练1000次;在堆栈自编码器的微调训练过程中,学习率为0.001,训练500次。
⑨将基于深度学习的回归模型中的一个输入层和三个稀疏自编码层构成深度表达模型,该深度表达模型可以对输入的自然统计特征集进行深度表达,得到与质量相关度更高的深度特征;然后利用深度表达模型对F进行深度表达,得到Ilight的深度特征集,记为Fd,Fd=MODSAE(F),并利用深度表达模型对训练集中的每幅失真图像的亮度分量图像的自然统计特征集进行深度表达,得到训练集中的每幅失真图像的亮度分量图像的深度特征集,将训练集中的第t幅失真图像的亮度分量图像的深度特征集记为 其中,MODSAE()为深度表达模型的函数表示形式。
⑩采用现有的支持向量回归(Supportvectorregression,SVR)算法,对训练集中的所有失真图像各自对应的深度特征集和平均主观意见分进行训练,使得经过训练得到的回归函数值与对应的平均主观意见分之间的误差最小,训练得到支持向量回归模型;然后利用支持向量回归模型对Fd进行测试,预测得到Idis的客观质量评价预测值,记为Qdis,Qdis=MODSVR(Fd),其中,MODSVR()为支持向量回归模型的函数表示形式。
为进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
采用LIVE图像数据库和TID2008图像数据库,LIVE图像数据库中包括29幅无失真图像,5种失真类型有JPEG压缩失真、JPEG2000压缩失真、高斯白噪声失真、高斯模糊失真和快衰落失真,总共779幅失真图像;TID2008图像数据库中包括25幅无失真图像,17种失真类型,总共1700幅失真图像。试验中,使用了LIVE图像数据库中的所有779幅失真图像;使用了TID2008图像数据库中的25幅无失真图像中的24幅自然图像对应的四种常见失真类型的失真图像,即JPEG压缩失真、JPEG2000压缩失真、高斯白噪声失真和高斯模糊失真,总共384幅失真图像。LIVE图像数据库和TID2008图像数据库都提供了每幅失真图像的平均主观意见分。分析利用本发明方法获取的每幅失真图像的客观质量评价预测值与平均主观意见分之间的相关性。这里,利用评估图像质量评价方法的2个常用客观参量作为评价指标,即线性相关性系数(LinearCorrelationCoefficients,LCC)和Spearman秩相关系数(SpearmanRankOrderCorrelationcoefficient,SROCC)。LCC和SROCC的取值范围是[0,1],其值越接近1,表明图像质量评价方法越好,反之,越差。
试验一:首先从LIVE图像数据库中的所有失真图像中随机抽取80%的失真图像构成训练集,剩余20%的失真图像构成测试集;然后按照步骤①至步骤⑥的过程,以相同的方式获取训练集中的每幅失真图像的亮度分量图像的自然统计特征集;接着采用现有的深度学习中的堆栈自编码器算法对训练集中的所有失真图像各自对应的自然统计特征集和平均主观意见分进行训练,使得经过训练得到的预测质量值与对应的平均主观意见分之间的误差最小,训练得到基于深度学习的回归模型;之后将基于深度学习的回归模型中的一个输入层和三个稀疏自编码层构成深度表达模型,利用深度表达模型对训练集中的每幅失真图像的亮度分量图像的自然统计特征集和测试集中的每幅失真图像的亮度分量图像的自然统计特征集进行深度表达,得到相应的深度特征集;再采用现有的支持向量回归算法,对训练集中的所有失真图像各自对应的深度特征集和平均主观意见分进行训练,使得经过训练得到的回归函数值与对应的平均主观意见分之间的误差最小,训练得到支持向量回归模型;最后利用支持向量回归模型对测试集中的每幅失真图像的亮度分量图像的深度特征集进行测试,预测得到测试集中的每幅失真图像的客观质量评价预测值。对TID2008图像数据库用同样的方法进行测试。表示评价性能的LCC和SROCC系数如表1所列,从表1所列的数据可知,在两个图像数据库上都有很高的预测准确性,说明利用本发明方法得到的失真图像的客观质量评价预测值与平均主观意见分之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
表1按本发明方法计算得到的失真图像的客观质量评价预测值与平均主观意见分之间的相关性
LIVE图像数据库 TID2008图像数据库
SROCC 0.9507 0.9576
LCC 0.9499 0.9653
试验二:将整个LIVE图像数据库中的所有失真图像构成的集合作为训练集,将整个TID2008图像数据库中的所有失真图像构成的集合作为测试集,用与试验一同样的方法进行测试。表示评价性能的LCC和SROCC系数如表2所列,从表2所列的数据可知,训练集与测试集完全独立时,依然有很高的预测准确性,说明本发明方法具有很强的泛化能力,不受训练集的影响。
表2按本发明方法计算得到的失真图像的客观质量评价预测值与平均主观意见分之间的相关性
训练集 测试集 SROCC LCC
LIVE图像数据库 TID2008图像数据库 0.9245 0.9237

Claims (5)

1.一种基于深度学习的无参考图像质量客观评价方法,其特征在于包括以下步骤:
①令Idis表示待评价的失真图像,将Idis的亮度分量图像记为Ilight
②采用m个尺度的多分辨率金字塔对Ilight进行分解,得到Ilight的m幅第一子带图像,将Ilight的第i幅第一子带图像记为Ilight,i;然后采用n个尺度的高斯差分对Ilight的每幅第一子带图像进行再次分解,得到Ilight的每幅第一子带图像的n幅第二子带图像,将Ilight,i的第j幅第二子带图像记为Ilight,i,j;其中,m≥1,i的初始值为1,1≤i≤m,n≥1,j的初始值为1,1≤j≤n;
③对Ilight对应的m×n幅第二子带图像分别进行局部归一化处理,得到Ilight对应的每幅第二子带图像的归一化图像,将Ilight,i,j的归一化图像记为
④统计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图,将的灰度直方图记为{Xlight,i,j(k)|1≤k≤256},其中,Xlight,i,j(k)表示中像素值属于第k个像素值区间的像素点的总个数,对应的256个像素值区间的获取过程为:将中像素值的最小值和最大值对应记为pixmin和pixmax,然后将区间[pixmin,pixmax]等间隔划分为256个子区间,再将区间[pixmin,pixmax]中的第k个子区间作为对应的第k个像素值区间;
⑤估计Ilight对应的每幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,将{Xlight,i,j(k)|1≤k≤256}的包络曲线的四个分布参数依次记为
⑥将Ilight对应的共4×m×n个分布参数按序排列构成的集合作为Ilight的自然统计特征集,记为F, F = { l l i g h t , 1 , 1 ( 1 ) , l l i g h t , 1 , 1 ( 2 ) , l l i g h t , 1 , 1 ( 3 ) , l l i g h t , 1 , 1 ( 4 ) , ... , l l i g h t , 1 , n ( 1 ) , l l i g h t , 1 , n ( 2 ) , l l i g h t , 1 , n ( 3 ) , l l i g h t , 1 , n ( 4 ) , l l i g h t , 2 , 1 ( 1 ) , l l i g h t , 2 , 1 ( 2 ) , l l i g h t , 2 , 1 ( 3 ) , l l i g h t , 2 , 1 ( 4 ) , ... , l l i g h t , m , n ( 1 ) , l l i g h t , m , n ( 2 ) , l l i g h t , m , n ( 3 ) , l l i g h t , m , n ( 4 ) } ,其中,表示Ilight的第1幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第1幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第2幅第一子带图像的第1幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数,表示Ilight的第m幅第一子带图像的第n幅第二子带图像的归一化图像的灰度直方图的包络曲线的四个分布参数;
⑦采用d幅原始的无失真图像,建立其在不同失真类型不同失真程度下的失真图像集合,将该失真图像集合作为训练集,训练集包括多幅失真图像;然后利用主观质量评价方法评价出训练集中的每幅失真图像的平均主观意见分,将训练集中的第t幅失真图像的平均主观意见分记为MOSt;再按照步骤①至步骤⑥的过程,以相同的方式获取训练集中的每幅失真图像的亮度分量图像的自然统计特征集,将训练集中的第t幅失真图像的亮度分量图像的自然统计特征集记为Ft;其中,d≥1,1≤t≤T,T表示训练集中包含的失真图像的总幅数,MOSt∈[0,5];
⑧采用深度学习中的堆栈自编码器算法对训练集中的所有失真图像各自对应的自然统计特征集和平均主观意见分进行训练,使得经过训练得到的预测质量值与对应的平均主观意见分之间的误差最小,训练得到基于深度学习的回归模型;其中,堆栈自编码器由一个输入层、三个稀疏自编码层和一个线性回归层构成,输入层输入的是训练集中的每幅失真图像的亮度分量图像的自然统计特征集,输入层有4×m×n个节点,三个稀疏自编码层对输入的自然统计特征集进行深度表达,三个稀疏自编码层依次有200个节点、100个节点、100个节点,线性回归层输出的是训练集中的每幅失真图像的预测质量值,线性回归层只有一个节点;
⑨将基于深度学习的回归模型中的一个输入层和三个稀疏自编码层构成深度表达模型;然后利用深度表达模型对F进行深度表达,得到Ilight的深度特征集,记为Fd,Fd=MODSAE(F),并利用深度表达模型对训练集中的每幅失真图像的亮度分量图像的自然统计特征集进行深度表达,得到训练集中的每幅失真图像的亮度分量图像的深度特征集,将训练集中的第t幅失真图像的亮度分量图像的深度特征集记为 其中,MODSAE()为深度表达模型的函数表示形式;
⑩采用支持向量回归算法,对训练集中的所有失真图像各自对应的深度特征集和平均主观意见分进行训练,使得经过训练得到的回归函数值与对应的平均主观意见分之间的误差最小,训练得到支持向量回归模型;然后利用支持向量回归模型对Fd进行测试,预测得到Idis的客观质量评价预测值,记为Qdis,Qdis=MODSVR(Fd),其中,MODSVR()为支持向量回归模型的函数表示形式。
2.根据权利要求1所述的一种基于深度学习的无参考图像质量客观评价方法,其特征在于所述的步骤②中的 I l i g h t , i , j = G j ( σ j ) ⊗ I l i g h t , i - G j + 1 ( σ j + 1 ) ⊗ I l i g h t , i 1 ≤ j ≤ n - 1 G j ( σ j ) ⊗ I l i g h t , i j = = n , 其中,符号为卷积符号,Gj()表示第j个高斯函数,Gj+1()表示第j+1个高斯函数,Gjj)表示Gj()的尺度系数为σj时的高斯卷积核,Gj+1j+1)表示Gj+1()的尺度系数为σj+1时的高斯卷积核,假设Gjj)和Gj+1j+1)的大小均为c×c,则将Gjj)中位置为(x,y)处的值记为Gj(x,y;σj),将Gj+1j+1)中位置为(x,y)处的值记为Gj+1(x,y;σj+1), G j ( x , y ; σ j ) = 1 2 πσ j 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j 2 ) , G j + 1 ( x , y ; σ j + 1 ) = 1 2 πσ j + 1 2 exp ( - ( x - c 2 ) 2 + ( y - c 2 ) 2 2 σ j + 1 2 ) , exp()表示以自然基数e为底的指数函数,1≤x≤c,1≤y≤c,c=7,σj=1.6j-2,σj+1=1.6j+1-2
3.根据权利要求1或2所述的一种基于深度学习的无参考图像质量客观评价方法,其特征在于所述的步骤③中采用尺寸大小为(P-(-P)+1)×(Q-(-Q)+1)的滑动窗口对Ilight对应的每幅第二子带图像进行局部归一化处理;将中坐标位置为(u,v)的像素点的像素值记为 I ~ l i g h t , i , j ( u , v ) = I l i g h t , i , j ( u , v ) - μ l i g h t , i , j ( u , v ) σ l i g h t , i , j ( u , v ) + 1 , 其中,P∈[1,5],Q∈[1,5]且P=Q,1≤u≤W,1≤v≤H,W和H对应表示Ilight,i,j的宽度和高度,Ilight,i,j(u,v)表示Ilight,i,j中坐标位置为(u,v)的像素点的像素值, μ l i g h t , i , j ( u , v ) = Σ p = - P P Σ q = - Q Q I l i g h t , i , j ( u + p , v + q ) , σ l i g h t , i , j ( u , v ) = Σ p = - P P Σ q = - Q Q ( I l i g h t , i , j ( u + p , v + q ) - μ l i g h t , i , j ( u , v ) ) 2 , Ilight,i,j(u+p,v+q)表示Ilight,i,j中坐标位置为(u+p,v+q)的像素点的像素值,-P≤p≤P,-Q≤q≤Q。
4.根据权利要求3所述的一种基于深度学习的无参考图像质量客观评价方法,其特征在于所述的步骤⑤中的分布参数的估计采用L矩估计方法。
5.根据权利要求4所述的一种基于深度学习的无参考图像质量客观评价方法,其特征在于所述的步骤⑤中的 l l i g h t , i , j ( 1 ) = p 0 , l l i g h t , i , j ( 2 ) = 2 p 1 - p 0 , l l i g h t , i , j ( 3 ) = 6 p 2 - 6 p 1 + p 0 , l l i g h t , i , j ( 4 ) = 20 p 3 - 30 p 2 + 12 p 1 - p 0 , 其中, p r = Σ k = 1 256 X l i g h t , i , j ( k ) 256 , r = 0 p r = Σ k = r + 1 256 ( k - 1 ) ( k - 2 ) ... ( k - r ) ( 256 - 1 ) ( 256 - 2 ) ... ( 256 - r ) X l i g h t , i , j ( k ) 256 , r = 1 , 2 , 3 .
CN201510523373.1A 2015-08-24 2015-08-24 一种基于深度学习的无参考图像质量客观评价方法 Active CN105208374B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510523373.1A CN105208374B (zh) 2015-08-24 2015-08-24 一种基于深度学习的无参考图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510523373.1A CN105208374B (zh) 2015-08-24 2015-08-24 一种基于深度学习的无参考图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN105208374A true CN105208374A (zh) 2015-12-30
CN105208374B CN105208374B (zh) 2017-03-08

Family

ID=54955767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510523373.1A Active CN105208374B (zh) 2015-08-24 2015-08-24 一种基于深度学习的无参考图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN105208374B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105786798A (zh) * 2016-02-25 2016-07-20 上海交通大学 一种人机交互中自然语言意图理解方法
CN106210711A (zh) * 2016-08-05 2016-12-07 宁波大学 一种无参考立体图像质量评价方法
CN106295682A (zh) * 2016-08-02 2017-01-04 厦门美图之家科技有限公司 一种判断图片质量因子的方法、装置和计算设备
CN106780449A (zh) * 2016-12-06 2017-05-31 嘉兴学院 一种基于纹理特征的无参考图像质量评价方法
CN107590445A (zh) * 2017-08-25 2018-01-16 西安电子科技大学 基于脑电信号的美学图像质量评价方法
CN107590804A (zh) * 2017-09-14 2018-01-16 浙江科技学院 基于通道特征和卷积神经网络的屏幕图像质量评价方法
CN107680077A (zh) * 2017-08-29 2018-02-09 南京航空航天大学 一种基于多阶梯度特征的无参考图像质量评价方法
CN107743225A (zh) * 2017-10-16 2018-02-27 杭州电子科技大学 一种利用多层深度表征进行无参考图像质量预测的方法
CN107798676A (zh) * 2017-10-23 2018-03-13 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN108257117A (zh) * 2018-01-02 2018-07-06 中兴通讯股份有限公司 图像曝光度的评测方法及装置
CN108289221A (zh) * 2018-01-17 2018-07-17 华中科技大学 异常值检测的无参考图像质量评价模型及构建方法
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN108764277A (zh) * 2018-04-13 2018-11-06 天津大学 一种无参考图像模糊质量评价算法
CN109040747A (zh) * 2018-08-06 2018-12-18 上海交通大学 基于卷积自编码器的立体图像舒适度质量评价方法及系统
CN109257592A (zh) * 2017-07-12 2019-01-22 天津大学 基于深度学习的立体视频质量客观评价方法
CN109584203A (zh) * 2018-09-29 2019-04-05 天津大学 基于深度学习与语义信息的重定位图像质量评价方法
CN109754390A (zh) * 2018-12-11 2019-05-14 西北大学 一种基于混合视觉特征的无参考图像质量评价方法
CN109816646A (zh) * 2019-01-21 2019-05-28 武汉大学 一种基于退化决策逻辑的无参考图像质量评价方法
CN110428011A (zh) * 2019-08-06 2019-11-08 华南理工大学 一种面向视频传输质量的深度学习图像失真分类方法
CN110796650A (zh) * 2019-10-29 2020-02-14 杭州阜博科技有限公司 图像质量的评估方法及装置、电子设备、存储介质
CN111105357A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种失真图像的去失真方法、装置及电子设备
CN111107377A (zh) * 2018-10-26 2020-05-05 曜科智能科技(上海)有限公司 深度图像压缩方法及其装置、设备和存储介质
CN112950629A (zh) * 2021-04-02 2021-06-11 上海大学 一种无参考全景图像质量评价方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103200420A (zh) * 2013-03-19 2013-07-10 宁波大学 一种基于三维视觉注意力的立体图像质量客观评价方法
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法
KR20140148080A (ko) * 2013-06-21 2014-12-31 한국과학기술원 시각적으로 편안한 입체 영상을 위한 스테레오스코픽 영상 촬영 방법 및 시스템
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103200420A (zh) * 2013-03-19 2013-07-10 宁波大学 一种基于三维视觉注意力的立体图像质量客观评价方法
KR20140148080A (ko) * 2013-06-21 2014-12-31 한국과학기술원 시각적으로 편안한 입체 영상을 위한 스테레오스코픽 영상 촬영 방법 및 시스템
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WUJIE ZHOU ET AL: "PMFS: A Perceptual Modulated Feature Similarity Metric for Stereoscopic Image Quality Assessment", 《IEEE SIGNAL PROCESSING LETTERS》 *
姜求平等: "基于视觉重要区域的立体图像视觉舒适度客观评价方法", 《电子与信息学报》 *
邵枫等: "基于显著性分析的立体图像视觉舒适度预测", 《光学精密工程》 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105786798B (zh) * 2016-02-25 2018-11-02 上海交通大学 一种人机交互中自然语言意图理解方法
CN105786798A (zh) * 2016-02-25 2016-07-20 上海交通大学 一种人机交互中自然语言意图理解方法
CN106295682A (zh) * 2016-08-02 2017-01-04 厦门美图之家科技有限公司 一种判断图片质量因子的方法、装置和计算设备
CN106210711A (zh) * 2016-08-05 2016-12-07 宁波大学 一种无参考立体图像质量评价方法
CN106780449A (zh) * 2016-12-06 2017-05-31 嘉兴学院 一种基于纹理特征的无参考图像质量评价方法
CN109257592B (zh) * 2017-07-12 2020-09-01 天津大学 基于深度学习的立体视频质量客观评价方法
CN109257592A (zh) * 2017-07-12 2019-01-22 天津大学 基于深度学习的立体视频质量客观评价方法
CN107590445A (zh) * 2017-08-25 2018-01-16 西安电子科技大学 基于脑电信号的美学图像质量评价方法
CN107590445B (zh) * 2017-08-25 2019-05-21 西安电子科技大学 基于脑电信号的美学图像质量评价方法
CN107680077A (zh) * 2017-08-29 2018-02-09 南京航空航天大学 一种基于多阶梯度特征的无参考图像质量评价方法
CN107590804A (zh) * 2017-09-14 2018-01-16 浙江科技学院 基于通道特征和卷积神经网络的屏幕图像质量评价方法
CN107743225A (zh) * 2017-10-16 2018-02-27 杭州电子科技大学 一种利用多层深度表征进行无参考图像质量预测的方法
CN107798676A (zh) * 2017-10-23 2018-03-13 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN107798676B (zh) * 2017-10-23 2021-05-07 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN108257117A (zh) * 2018-01-02 2018-07-06 中兴通讯股份有限公司 图像曝光度的评测方法及装置
CN108289221A (zh) * 2018-01-17 2018-07-17 华中科技大学 异常值检测的无参考图像质量评价模型及构建方法
CN108289221B (zh) * 2018-01-17 2019-08-30 华中科技大学 异常值检测的无参考图像质量评价模型及构建方法
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN108428227B (zh) * 2018-02-27 2020-06-26 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN108764277A (zh) * 2018-04-13 2018-11-06 天津大学 一种无参考图像模糊质量评价算法
CN109040747A (zh) * 2018-08-06 2018-12-18 上海交通大学 基于卷积自编码器的立体图像舒适度质量评价方法及系统
CN109584203A (zh) * 2018-09-29 2019-04-05 天津大学 基于深度学习与语义信息的重定位图像质量评价方法
CN111105357A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种失真图像的去失真方法、装置及电子设备
CN111105357B (zh) * 2018-10-25 2023-05-02 杭州海康威视数字技术股份有限公司 一种失真图像的去失真方法、装置及电子设备
CN111107377A (zh) * 2018-10-26 2020-05-05 曜科智能科技(上海)有限公司 深度图像压缩方法及其装置、设备和存储介质
CN109754390A (zh) * 2018-12-11 2019-05-14 西北大学 一种基于混合视觉特征的无参考图像质量评价方法
CN109754390B (zh) * 2018-12-11 2023-04-07 西北大学 一种基于混合视觉特征的无参考图像质量评价方法
CN109816646A (zh) * 2019-01-21 2019-05-28 武汉大学 一种基于退化决策逻辑的无参考图像质量评价方法
CN109816646B (zh) * 2019-01-21 2022-08-30 武汉大学 一种基于退化决策逻辑的无参考图像质量评价方法
CN110428011A (zh) * 2019-08-06 2019-11-08 华南理工大学 一种面向视频传输质量的深度学习图像失真分类方法
CN110796650A (zh) * 2019-10-29 2020-02-14 杭州阜博科技有限公司 图像质量的评估方法及装置、电子设备、存储介质
CN112950629A (zh) * 2021-04-02 2021-06-11 上海大学 一种无参考全景图像质量评价方法及系统

Also Published As

Publication number Publication date
CN105208374B (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
CN105208374B (zh) 一种基于深度学习的无参考图像质量客观评价方法
CN102945552A (zh) 基于自然场景统计中稀疏表示的无参考图像质量评价方法
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102611910B (zh) 基于关键帧图像质量加权的无参考视频质量客观评价方法
CN103996192B (zh) 基于高质量自然图像统计量模型的无参考图像质量评价方法
CN104023230B (zh) 一种基于梯度关联性的无参考图像质量评价方法
CN103475898B (zh) 一种基于信息熵特征的无参考图像质量评价方法
CN107633520A (zh) 一种基于深度残差网络的超分辨率图像质量评估方法
CN101378519B (zh) 一种基于Contourlet变换的质降参考图像质量评价方法
CN104376565B (zh) 基于离散余弦变换和稀疏表示的无参考图像质量评价方法
CN101562675B (zh) 基于Contourlet变换的无参考型图像质量评测方法
CN103200421B (zh) 一种基于Curvelet变换和相位一致的无参考图像质量评价方法
CN105160678A (zh) 基于卷积神经网络的无参考立体图像质量评估方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN106447647A (zh) 一种压缩感知恢复图像的无参考质量评价方法
CN105338343A (zh) 一种基于双目感知的无参考立体图像质量评价方法
CN103945217B (zh) 基于熵的复小波域半盲图像质量评测方法和系统
CN103037212B (zh) 基于视觉感知的自适应块压缩传感图像编码方法
CN103475897B (zh) 一种基于失真类型判断的自适应图像质量评价方法
CN106651829B (zh) 一种基于能量和纹理分析的无参考图像客观质量评价方法
CN104851098A (zh) 基于改进结构相似度的立体图像质量客观评价方法
CN107040775B (zh) 一种基于局部特征的色调映射图像质量客观评价方法
CN105894507B (zh) 基于图像信息量自然场景统计特征的图像质量评价方法
CN104318545A (zh) 一种用于雾天偏振图像的质量评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant