CN110706196B - 基于聚类感知的无参考色调映射图像质量评价算法 - Google Patents
基于聚类感知的无参考色调映射图像质量评价算法 Download PDFInfo
- Publication number
- CN110706196B CN110706196B CN201811337431.1A CN201811337431A CN110706196B CN 110706196 B CN110706196 B CN 110706196B CN 201811337431 A CN201811337431 A CN 201811337431A CN 110706196 B CN110706196 B CN 110706196B
- Authority
- CN
- China
- Prior art keywords
- image
- features
- clustering
- quality evaluation
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
基于聚类感知的无参考色调映射图像质量评价算法,包含以下几个步骤:步骤A:提取聚类感知特征,分别提取面积比率和信息熵两个特征;步骤B:提取显著性区域特征,提取块比例和信息熵两个特征;步骤C:提取自然度特征,自然度特征提取包括亮度统计特征和颜色通道统计特征;步骤D:使用机器学习的方法对所有特征进行回归,得到图像质量评价分。与现有技术相比,本发明的有益效果是:本发明评价测试图像时不需要参考图像的存在;对K‑means聚类的分区结果进行改进提升算法的精度;矩阵非负分解速度快,此检测方法有很好的运算速度;自然度特征结合了亮度自然度和颜色自然度,相对单种自然度大幅提高了算法的SROCC性能。
Description
技术领域
本发明涉及图像质量评价算法,尤其涉及基于聚类感知的无参考色调映射图像质量评价算法。
背景技术
高动态范围(High Dynamic Range,HDR)图像相比低动态范围(Low DynamicRange,LDR)图像能够表示更大的亮度范围,其亮度范围大约是10-4cd/m2~105cd/m2。LDR图像能表示的动态范围不超过3个数量级,但人类视觉系统在真实场景中可以接受的动态范围可以达到6个数量级。因此,HDR图像对用户来说感受更真实更有吸引力。随着成像和计算机图形学技术的发展,HDR图像的获得越来越容易。然而,HDR显示设备比较昂贵,超出了普通消费者的承受范围。为了解决这个问题,产业界和学术界开发了许多色调映射算子(Tone-mapped Operator,TMO),TMO能够把HDR图像转换成LDR图像,转换后的LDR图像被称为色调映射图像(Tone-mapped Image,TMI)。由于TMI相对HDR图像缩小了动态范围,TMI不可避免的产生失真,例如亮度信息丢失、结构信息丢失、不自然的颜色等。针对一个HDR图像,不同的TMO产生的效果不一样。因此,TMI质量评价对于选择合适的TMO和改进TMO本身具有重要的研究意义。
TMI质量评价分为主观质量评价和客观质量评价,而早期的TMO性能评价主要采用主观质量评价。然而,主观质量评价具有三方面的缺点。首先主观质量评价比较耗时费力,需要昂贵的HDR显示器和多个测试人员多次实验。其次主观质量不能嵌入到图像处理系统来改进TMO。最后主观评价由于人为的一些不确定因素导致评价的误差,传统的客观质量评价方法假定参考图像和测试图像具有相同的动态范围,因此传统的客观质量评价方法不能直接评价TMI。近年来,全参考TMI质量评价算法取得了丰硕的成果。Yeganeh等人首次建立了色调映射图像数据库(Tone-mapped Image Database,TMID),TMID可以下载并用于评价TMI质量评价算法的性能。同时,他们提出了一种全参考TMI质量评价方法(Tone MappedImage Quality Index,TMQI),这个方法的基本思想是高质量的TMI不但要保护HDR图像的结构信息,还要保留图像的自然场景统计特性(Natural Scene Statistics,NSS)。Nafchi等人基于图像的局部相位信息提出了FSITM方法,该方法考虑了图像的颜色信息,但没有考虑图像的自然度。Kundu等人针对TMQI均匀池化的缺点,在TMQI基础上加入了视觉注意力模型,运用感知池化策略提升质量评价算法的性能。Xie等人使用字典学习技术在稀疏域提取局部结构相似度和全局自然度,合并这两个特征提出了一种全参考质量评价算法SMTI。鉴于色调映射图像失真类型多的特点,Hadizadeh等人从结构保真度、自然度、亮度、颜色等方面提取了八类特征来评价TMI质量。由于TMI失真通常不会出现模糊、块效应等类型的失真,传统的质量评价算法不适合评价TMI。普通(低动态)图像的质量评价方法不适用于色调映射图像质量评价,因为色调映射图像的失真类型和低动态图像的失真类型不同,低动态图像的失真类型主要是块效应、模糊、振铃效应,而色调映射图像的失真类型主要是高亮区域和低暗区域的失真。面向色调映射图像的全参考图像质量评价方法要求评价图像时存在参考图像,在很多应用场景中无法获得参考图像,即全参考图像的应用范围有限,国际上现有具有代表性的无参考色调映射图像质量评价方法关键性能指标SROCC在0.8282,性能不够好。
发明内容
为了解决上述所存在的问题,本发明所要解决的技术问题提供了基于聚类感知的无参考色调映射图像质量评价算法,该种算法在评价测试图像时不需要参考图像的存在。
基于聚类感知的无参考色调映射图像质量评价算法,实现基于聚类感知的无参考色调映射图像质量评价算法,包含以下几个步骤:
步骤A:在亮度域上提取聚类感知特征,先把TMI转换成灰度图,再根据亮度信息进行聚类划分,所述聚类划分采用K-means聚类算法来自动识别图像的高亮区、中间区、低暗区,在每个区域分别提取面积比率和信息熵两个特征;
步骤B:在显著性区域上提取显著性区域特征,对TMI的非负矩阵分解得到测试图像对应的系数,对系数进行分析识别出TMI的混合区域,在所述混合区域提取块比例和信息熵两个特征;
步骤C:提取自然度特征,所述自然度特征提取包括亮度统计特征和颜色通道统计特征;
步骤D:使用机器学习的方法对所有特征进行回归,得到图像质量评价分。
上述技术方案中,在步骤A中所述K-means聚类算法在聚类时只考虑像素点到聚类中心的距离来确定像素点的类别,不考虑人眼对亮度感知的非线性特性,对于相近的人眼感知差,物理亮度距离与聚类中心的亮度值成正比,即人眼对暗区聚类时与聚类中心的距离要短一些,对中间区域聚类时与聚类中心的距离要长一些。在图像质量评价领域采用K-means聚类算法来自动识别图像的高亮区、中间区、低暗区,并根据人眼感知原理对K-means聚类的分区结果进行了改进,增加了中间区的亮度范围。对图像高亮区、中间区、低暗区的自动识别相对固定百分比的识别增加了不同场景的适用性,对K-means聚类的分区结果进行改进提升了算法的精度。
上述技术方案中,在步骤A中所述面积比率包括高亮区面积比率、中间区面积比率和低暗区面积比率;在步骤A中所述信息熵包括高亮区信息熵、中间区信息熵和低暗区信息熵,信息熵是衡量信息量的有效方法,所以对暗区、中间区、亮区和灰度图像分别求信息熵。考虑到人眼观察图像时先整体后局部的特点,同时提取全局信息熵EG为特征,由于TMI图像容易出现过曝光或欠曝光的区域,这些区域的大小会影响图像的质量,因此提取了三个区域的面积比例作为特征。
上述技术方案中,在步骤B中所述非负矩阵的分解是把一个数据矩阵M分解为两个非负矩阵W和S的乘积,W为特征矩阵,S为编码矩阵,数据矩阵M可以看作特征矩阵W中每一列和S中对应系数的线性组合,由于S的非负性,M是有W中的每一列按照S决定的权重系数累加而成,由于W中的每一列就是一个图像块,因此非负矩阵分解与部分组成整体的直观认知相符。基于这种新的感兴趣区域检测方法的特征适合色调映射图像质量评价,由于矩阵非负分解速度快,因此这种新的感兴趣区域检测方法有很好的运算速度。
上述技术方案中,所述特征矩阵W通过训练库训练得到,所述训练库N的获得过程:从TMID数据库中随机选取了不同场景和纹理的十幅色调映射图像,先把每一幅TMI转换成灰度图像,然后把灰度图像分成的图像块,把每个图像块转换成m维的列向量Ni,组合所有训练图像块的列向量生成所述训练库N,所述训练库N为m×n大小。
上述技术方案中,在步骤B中所述显著性区域是指具有高亮区、中间区、低暗区这三个区域中两个或两个以上的区域,显著性区域中像素间的亮度值差异比较大,具有显著性区域的特点。例如一个图像块的有三分之一的亮区像素和三分之二的中间区像素。把亮区、暗区、中间区、显著性区域图像块分别进行非负矩阵分解,图像暗区、中间区、亮区的编码矩阵的系数值比较小,显著性区域系数有较大值。因此可以通过分析编码矩阵的最大值来判断显著性区域,信息熵能有效衡量图像的信息量,对所述显著性区域的所有像素求信息熵获得显著性区域的信息量,显著性区域面积越大,对图像质量的影响越大。
上述技术方案中,在步骤C中所述亮度统计特征提取使用了十四个不同类别场景的自然图像,首先把每一幅图像转化成灰度图像,把灰度图像分割成11×11的图像块,分别求出每个图像块的均值与标准差,最后统计一幅图像中所有图像块的均值与标准差的均值,获得一幅图像的均值和标准差,图像的均值、标准差分别与高斯概率密度函数和Beta概率密度函数能够很好地拟合。
上述技术方案中,在步骤C中所述颜色通道统计特征通过RGB颜色空间来提取。所述自然度特征结合了亮度统计特征和颜色通道统计特征,相对单种自然度大幅提高了算法的SROCC性能。
上述技术方案中,在步骤D中所述机器学习的方法包括SVM。由于支持向量机(Support Vector Machine,SVM)在图像处理领域得到广泛的应用,因此把训练图像的特征向量和对应的MOS值输入支持向量机训练出一个预测模型f(·),把测试图像的特征向量输入预测模型获得图像的客观质量预测值。
上述技术方案中,在步骤D中所述回归是指通过一个回归模型建立一个函数,这个函数能够映射特征向量到主观图像质量评价分,所述回归模型是指把训练图像的特征向量和对应的MOS值输入支持向量机训练出一个预测模型。
与现有技术相比,本发明的有益效果是:由于普通(低动态)图像的质量评价方法不适用于色调映射图像质量评价,因此本发明要针对色调映射图像的特点设计了质量评价算法,解决的技术问题是设计特征表达色调映射图像的细节丢失程度、图像自然度、图像感兴趣区域检测;面向色调映射图像的全参考图像质量评价方法要求评价图像时存在参考图像,本发明是一种无参考色调映射图像质量评价方法,评价测试图像时,不需要参考图像的存在;本发明采用K-means聚类算法来自动识别图像根据人眼感知原理对K-means聚类的分区结果进行了改进对K-means聚类的分区结果进行改进提升了算法的精度;并提出了一种新的感兴趣区域检测方法,基于这种新的感兴趣区域检测方法的特征适合色调映射图像质量评价,由于矩阵非负分解速度快,因此这种新的感兴趣区域检测方法有很好的运算速度;自然度特征结合了亮度自然度和颜色自然度,相对单种自然度大幅提高了算法的SROCC性能,本发明的关键性能指标SROCC在0.8313,超过了国际上现有代表性的算法。
附图说明
图1为基于聚类感知的无参考色调映射图像质量评价算法的流程框架图。
具体实施方式
下面结合附图,对本发明的具体实施方式作详细说明。
如图1所示,基于聚类感知的无参考色调映射图像质量评价算法,实现基于聚类感知的无参考色调映射图像质量评价算法,包含以下几个步骤:
步骤A:在亮度域上提取聚类感知特征,先把TMI转换成灰度图,再根据亮度信息进行聚类划分,所述聚类划分采用K-means聚类算法来自动识别图像的高亮区、中间区、低暗区,在每个区域分别提取面积比率和信息熵两个特征;
步骤B:在显著性区域上提取显著性区域特征,TMI的非负矩阵分解得到测试图像对应的系数,对系数进行分析识别出TMI的显著性区域,在所述显著性区域提取块比例和信息熵两个特征;
步骤C:提取自然度特征,所述自然度特征提取包括亮度统计特征和颜色通道统计特征;
步骤D:提取了聚类感知、显著性区域和自然度特征三类特征后,使用机器学习的方法对所有特征进行回归,得到图像质量评价分。
本发明提取了聚类感知特征、显著性区域特征、自然度特征。聚类感知特征在亮度域上提取,先把TMI转换成灰度图,根据亮度信息进行聚类,把图像分成亮区、暗区、中间区三个区域,在每个区域分别提取面积比率和信息熵两个特征。生理学和心理学的一些证据表明人眼观察一幅图像时先看图像的整体,人脑会抑制图像中高频出现的特征,视觉注意力容易关注偏差比较大的区域,即显著性区域。假设图像中一个M×M区域具有亮区、暗区、中间区这三个区域中两个或两个以上区域的像素,这样的区域称为显著性区域。显著性区域中像素间的亮度值差异比较大,具有显著性区域的特点。本文通过对TMI的非负矩阵分解得到测试图像对应的系数,对系数进行分析识别出TMI的显著性区域,在显著性区域提出块比例、信息熵特征。由于TMO处理过程缩小了HDR图像的动态范围,影响了TMI的自然度,因此提取了亮度通道和颜色通道的自然统计特征。最后使用机器学习方法对所有特征进行回归,提出了无参考TMI质量评价方法。
在步骤A中所述K-means聚类算法在聚类时只考虑像素点到聚类中心的距离来确定像素点的类别,不考虑人眼对亮度感知的非线性特性。K-means聚类时只考虑像素点到聚类中心的距离来确定像素点的类别,没有考虑人眼对亮度感知的非线性特性。设聚类中心亮度值为S1,感知亮度为P1,某个像素点像素亮度值为S2,感知亮度为P2。根据费希纳定理:
则亮度感知差P2-P1和S2与S1的关系为:
在K-means算法中S1和S2的物理亮度距离为:
对于相近的人眼感知差P2-P1,物理亮度距离与聚类中心的亮度值成正比,即人眼对暗区聚类时与聚类中心的距离要短一些,对中间区域聚类时与聚类中心的距离要长一些。因此,采用如下算法对色调映射图像的三个区域进行调整。
设计L为图像像素亮度值,C1,C2,C3分别为暗区、中间区,亮区的聚类中心,则三个区域的分类如下:
在视觉注意处理中,人类视觉系统对视觉细胞产生的刺激进行融合,通过不同的信息特征进行聚类,形成人类视觉系统的注意力分配图,因此聚类是人类视觉系统的固有功能。设m×n的灰度图像I,I(x,y)表示图像I中(x,y)像素点的亮度值,设暗区、中间区、亮区的像素亮度值集合分别为RL,RM,RH,则
其中C3,C1为亮区和暗区的聚类中心。
在步骤A中所述面积比率包括高亮区面积比率、中间区面积比率和低暗区面积比率;在步骤A中所述信息熵包括高亮区信息熵、中间区信息熵和低暗区信息熵。信息熵是衡量信息量的有效方法,设p为概率密度,对RL,RM,RH,I分别求信息熵为:
EΩ=-∫p(x)logp(x)dx,Ω∈{L,M,H,G} (6)
EL,EM,EH分别表示暗区、中间区、亮区的信息熵。考虑到人眼观察图像时先整体后局部的特点,同时提取全局信息熵EG为特征。
由于TMI图像容易出现过曝光或欠曝光的区域,这些区域的大小会影响图像的质量,因此提取了三个区域的面积比例作为特征。设N(·)函数表示计算图像或者图像块的像素个数,则每个区域的面积比例可以表示为:
RatioL,RatioH,RatioM分别表示暗区、亮区、中间区的面积比率。聚类感知特征向量Fcluster为:Fcluster={EL,EM,EH,EG,RatioL,RatioM,RatioH}
当人眼看一幅图像时注意力会被吸引到图像中的一部分区域,这部分区域被称为显著性区域,是大部分人认为图像中重要的或者显著的部分。显著性区域的图像质量显然影响人眼对图像整体质量的评价。Goferman等人认为人眼观察一幅图像时先看图像的整体,人脑会抑制图像中高频出现的特征,视觉注意力容易关注偏差比较大的区域,即显著性区域。本文对TMI灰度图像的非负矩阵分解获得对应图像的系数,通过对系数的直方图的分析,提出了一种混合区域的识别方法,然后对混合区域提取信息熵,块比率等特征。许多研究表明稀疏表示符合人脑对图像信号的认知,非负矩阵分解(NMF)与稀疏表示的字典学习类似。在步骤B中所述非负矩阵的分解是把一个数据矩阵M分解为两个非负矩阵W和S的乘积,W为特征矩阵,S为编码矩阵。
所述特征矩阵W通过训练库训练得到,从TMID数据库中随机选取了不同场景和纹理的十幅色调映射图像,先把每一幅TMI转换成灰度图像,然后把灰度图像分成的图像块,把每个图像块转换成m维的列向量Ni,组合所有训练图像块的列向量生成所述训练库N,所述训练库N为m×n大小。本发明中m=4900,n>20000。对于训练样本库N,NMF的目标是寻找特征矩阵W=[W1,W2,…,Wr]∈Rm×r和S=[S1,S2,…,Sn]∈Rr×n来近似训练样本矩阵N,即
N=WS (8)
其中r是大于零的整数,表示特征矩阵中列向量的个数。
本发明用Lin的投影梯度法的方法计算出了W和S。对于一个测试图像块转化而成的列向量Fi∈Rr×1,则得到Ti非负矩阵分解后的编码矩阵Fi∈Rr×1为:
其中(WTW)-1WT是W的伪逆矩阵。对于测试图像T=[T1,T2,...,Tn]获得编码矩阵F=[F1,F2,...,Fn],n为一幅测试图像包含的图像块的个数。
在步骤B中所述显著性区域是指具有高亮区、中间区、低暗区这三个区域中两个或两个以上的区域,显著性区域中像素间的亮度值差异比较大,具有显著性区域的特点。例如一个图像块的有三分之一的亮区像素和三分之二的中间区像素。把亮区、暗区、中间区、显著性区域图像块分别进行非负矩阵分解,图像暗区、中间区、亮区的编码矩阵的系数值比较小,显著性区域系数有较大值。因此可以通过分析编码矩阵的最大值来判断显著性区域,设阈值TH,定义显著性区域S如下:
S={Ti|max(Fi)>TH,Fi=(WTW)-1WTTi},其中i=1,2,...,n (11)
信息熵能有效衡量图像的信息量,根据式(6)对S的所有像素求信息熵获得显著性区域的信息量ES。显著性区域面积越大,对图像质量的影响越大,因此提取显著性区域的面积比例RatioS:
其中N(·)函数表示计算图像或者图像块的像素个数,I表示图像。显著性特征FS为:FS={ES,RatioS}
HDR图像经过色调映射后可能会出现曝光过度或者曝光不足的现象,造成TMI看起来不自然。然而,高质量的TMI不应当破坏其自然特性。TMI的自然度失真主要体现在图像过亮、过暗、不自然的颜色,因此考虑基于亮度和颜色提取自然度特征。在步骤C中所述亮度统计特征提取使用了十四个不同类别场景的自然图像,首先把每一幅图像转化成灰度图像,把灰度图像分割成的图像块,分别求出每个图像块的均值与标准差,最后统计一幅图像中所有图像块的均值与标准差的均值,获得一幅图像的均值和标准差,图像的均值、标准差分别与高斯概率密度函数和Beta概率密度函数能够很好地拟合。
在步骤C中所述颜色通道统计特征通过RGB颜色空间来提取,局部标准化颜色系数(local normalized color coefficients,LNCC)服从高斯分布,LNCC可以表示为:
其中IC(i,j)是给定图像的C颜色通道某个像素的值,C颜色通道是指RGB颜色空间中的红色通道、绿色通道、蓝色通道中的任意一种通道,(i,j)是图像的空域坐标。
采用广义高斯函数(generalized Gaussian distribution,GGD)来拟合LNCC参数。GGD概率密度函数如下:
其中,Γ(·)是伽马函数,β为:
在步骤D中所述机器学习的方法包括SVM,提取了聚类感知、显著性区域、自然度三类特征共十六个,设V是TMI的特征向量,可以表示为:
V={FC,FS,N,FC} (21)
在步骤D中所述回归是指通过一个回归模型建立一个函数,这个函数能够映射特征向量到主观图像质量评价分,所述回归模型是指把训练图像的特征向量和对应的MOS值输入支持向量机训练出一个预测模型。由于支持向量机(Support Vector Machine,SVM)在图像处理领域得到广泛的应用,因此把训练图像的特征向量和对应的MOS值输入支持向量机训练出一个预测模型f(·),把测试图像的特征向量输入预测模型获得图像的客观质量预测值Q。
Q=f(V)(22)
其中f(·)是训练得到的预测模型,V是包含色调映射图像的聚类感知、显著性区域、自然度三类特征的特征向量,Q是色调映射图像的客观质量预测值。
在本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (7)
1.基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,实现基于聚类感知的无参考色调映射图像质量评价算法,包含以下几个步骤:
步骤A:在亮度域上提取聚类感知特征,先把TMI转换成灰度图,再根据亮度信息进行聚类划分,所述聚类划分采用K-means聚类算法来自动识别图像的高亮区、中间区、低暗区,在每个区域分别提取面积比率和信息熵两个特征;
步骤B:在显著性区域上提取显著性区域特征,TMI的非负矩阵分解得到测试图像对应的系数,对系数进行分析识别出TMI的显著性区域,所述显著性区域是指显著性区具有高亮区、中间区、低暗区这三个区域中两个或两个以上的区域,显著性区域中像素间的亮度值差异比较大,具有显著性区域的特点,在所述显著性区域提取块比例和信息熵两个特征;所述非负矩阵分解是把一个数据矩阵M分解为两个非负矩阵W和S的乘积,W为特征矩阵,S为编码矩阵;所述特征矩阵W通过训练库训练得到,训练库N的获得过程:从TMID数据库中随机选取不同场景和纹理的十幅色调映射图像,先把每一幅TMI转换成灰度图像,然后把灰度图像分成的图像块,把每个图像块转换成m维的列向量Ni,组合所有训练图像块的列向量生成所述训练库N,所述训练库N为m×n大小;
步骤C:提取自然度特征,所述自然度特征提取包括亮度统计特征和颜色通道统计特征;
步骤D:提取了聚类感知、显著性区域和自然度特征三类特征后,使用机器学习的方法对所有特征进行回归,得到图像质量评价分。
2.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤A中所述K-means聚类算法在聚类时只考虑像素点到聚类中心的距离来确定像素点的类别。
3.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤A中所述面积比率包括高亮区面积比率、中间区面积比率和低暗区面积比率;在步骤A中所述信息熵包括高亮区信息熵、中间区信息熵和低暗区信息熵。
4.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤C中所述亮度统计特征提取使用了十四个不同类别场景的自然图像,首先把每一幅图像转化成灰度图像,把灰度图像分割成11×11的图像块,分别求出每个图像块的均值与标准差,最后统计一幅图像中所有图像块的均值与标准差的均值,获得一幅图像的均值和标准差。
5.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤C中所述颜色通道统计特征通过RGB颜色空间来提取。
6.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤D中所述机器学习的方法包括SVM。
7.根据权利要求1中所述的基于聚类感知的无参考色调映射图像质量评价算法,其特征在于,在步骤D中所述回归是指通过一个回归模型建立一个函数,这个函数能够映射特征向量到主观图像质量评价分,所述回归模型是指把训练图像的特征向量和对应的MOS值输入支持向量机训练出一个预测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811337431.1A CN110706196B (zh) | 2018-11-12 | 2018-11-12 | 基于聚类感知的无参考色调映射图像质量评价算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811337431.1A CN110706196B (zh) | 2018-11-12 | 2018-11-12 | 基于聚类感知的无参考色调映射图像质量评价算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110706196A CN110706196A (zh) | 2020-01-17 |
CN110706196B true CN110706196B (zh) | 2022-09-30 |
Family
ID=69192598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811337431.1A Active CN110706196B (zh) | 2018-11-12 | 2018-11-12 | 基于聚类感知的无参考色调映射图像质量评价算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706196B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862000B (zh) * | 2020-06-24 | 2022-03-15 | 天津大学 | 基于局部平均特征值的图像质量评价方法 |
CN112085668B (zh) * | 2020-08-14 | 2023-10-10 | 深圳大学 | 一种基于区域自适应自监督学习的图像色调映射的方法 |
CN112365418B (zh) * | 2020-11-11 | 2024-05-03 | 抖音视界有限公司 | 一种图像失真评测的方法、装置及计算机设备 |
CN112330648B (zh) * | 2020-11-12 | 2024-01-05 | 深圳大学 | 基于半监督学习的无参考图像质量评价方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0605756D0 (en) * | 2006-03-23 | 2006-05-03 | Cambridge Display Tech Ltd | Image processing systems |
CN102799669A (zh) * | 2012-07-17 | 2012-11-28 | 杭州淘淘搜科技有限公司 | 一种商品图像视觉质量的自动分级方法 |
CN103258324A (zh) * | 2013-04-02 | 2013-08-21 | 西安电子科技大学 | 基于可控核回归和超像素分割的遥感图像变化检测方法 |
CN103413286A (zh) * | 2013-08-02 | 2013-11-27 | 北京工业大学 | 一种基于学习的高动态范围与高分辨率图像联合重建方法 |
CN103955926A (zh) * | 2014-04-22 | 2014-07-30 | 西南交通大学 | 基于Semi-NMF的遥感图像变化检测方法 |
CN104616294A (zh) * | 2015-01-21 | 2015-05-13 | 同济大学 | 一种基于视觉显著性的色调映射图像质量评价方法 |
CN106663313A (zh) * | 2014-06-13 | 2017-05-10 | 艾里斯泰克软件股份有限公司 | 图像的显示中以及与之有关的改进 |
CN108010024A (zh) * | 2017-12-11 | 2018-05-08 | 宁波大学 | 一种盲参考色调映射图像质量评价方法 |
CN108389189A (zh) * | 2018-02-08 | 2018-08-10 | 天津大学 | 基于字典学习的立体图像质量评价方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9275445B2 (en) * | 2013-08-26 | 2016-03-01 | Disney Enterprises, Inc. | High dynamic range and tone mapping imaging techniques |
-
2018
- 2018-11-12 CN CN201811337431.1A patent/CN110706196B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0605756D0 (en) * | 2006-03-23 | 2006-05-03 | Cambridge Display Tech Ltd | Image processing systems |
CN102799669A (zh) * | 2012-07-17 | 2012-11-28 | 杭州淘淘搜科技有限公司 | 一种商品图像视觉质量的自动分级方法 |
CN103258324A (zh) * | 2013-04-02 | 2013-08-21 | 西安电子科技大学 | 基于可控核回归和超像素分割的遥感图像变化检测方法 |
CN103413286A (zh) * | 2013-08-02 | 2013-11-27 | 北京工业大学 | 一种基于学习的高动态范围与高分辨率图像联合重建方法 |
CN103955926A (zh) * | 2014-04-22 | 2014-07-30 | 西南交通大学 | 基于Semi-NMF的遥感图像变化检测方法 |
CN106663313A (zh) * | 2014-06-13 | 2017-05-10 | 艾里斯泰克软件股份有限公司 | 图像的显示中以及与之有关的改进 |
CN104616294A (zh) * | 2015-01-21 | 2015-05-13 | 同济大学 | 一种基于视觉显著性的色调映射图像质量评价方法 |
CN108010024A (zh) * | 2017-12-11 | 2018-05-08 | 宁波大学 | 一种盲参考色调映射图像质量评价方法 |
CN108389189A (zh) * | 2018-02-08 | 2018-08-10 | 天津大学 | 基于字典学习的立体图像质量评价方法 |
Non-Patent Citations (4)
Title |
---|
Blind Tone-Mapped Image Quality Assessment Based on Brightest/Darkest Regions, Naturalness and Aesthetics;Gangyi Jiang et al;《IEEE Access》;20171211;第6卷;2231-2240页 * |
Quality assessment of tone-mapped images based on sparse representation;Lijun Xie et al;《International Symposium on Circuits and Systems (ISCAS)》;20160811;2218-2221页 * |
一种人眼感知驱动的成分分解色调映射算法;邵华等;《光学技术》;20170930;第43卷(第5期);415-421页 * |
结合美学特征的无参考色调映射图像质量评价;刘佳等;《宁波大学学报(理工版)》;20181110;第31卷(第6期);12-18页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110706196A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046673B (zh) | 基于多特征融合的无参考色调映射图像质量评价方法 | |
CN110706196B (zh) | 基于聚类感知的无参考色调映射图像质量评价算法 | |
CN107767413B (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
Ma et al. | Objective quality assessment for color-to-gray image conversion | |
US9336578B2 (en) | Interactive tone mapping for high dynamic range video | |
CN111079740A (zh) | 图像的质量评价方法、电子设备和计算机可读存储介质 | |
CN109978854B (zh) | 一种基于边缘与结构特征的屏幕内容图像质量评估方法 | |
CN110910347B (zh) | 一种基于图像分割的色调映射图像无参考质量评价方法 | |
US20110050723A1 (en) | Image processing apparatus and method, and program | |
Xiang et al. | Blind night-time image quality assessment: Subjective and objective approaches | |
CN109035155B (zh) | 一种光晕去除的多曝光图像融合方法 | |
El Khoury et al. | Color and sharpness assessment of single image dehazing | |
Chen et al. | Blind quality index for tone-mapped images based on luminance partition | |
Lisani et al. | An inquiry on contrast enhancement methods for satellite images | |
CN112950596B (zh) | 基于多区域多层次的色调映射全向图像质量评价方法 | |
Zhang et al. | Deep tone mapping network in HSV color space | |
CN104346809A (zh) | 采用高动态范围的图像质量数据集的图像质量评价方法 | |
Xu et al. | Remote-sensing image usability assessment based on ResNet by combining edge and texture maps | |
CN111489333B (zh) | 一种无参考夜间自然图像质量评价方法 | |
CN114202491B (zh) | 一种增强光学图像的方法及系统 | |
Zheng et al. | Overwater image dehazing via cycle-consistent generative adversarial network | |
CN113077405A (zh) | 二分割分块的颜色传递及其质量评价体系 | |
Huang et al. | An efficient single image enhancement approach using luminance perception transformation | |
CN111083468B (zh) | 一种基于图像梯度的短视频质量评价方法及系统 | |
Dolly et al. | Various methods of enhancement in colored images: a review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |