CN108322733A - 一种无参考高动态范围图像客观质量评价方法 - Google Patents
一种无参考高动态范围图像客观质量评价方法 Download PDFInfo
- Publication number
- CN108322733A CN108322733A CN201810042480.6A CN201810042480A CN108322733A CN 108322733 A CN108322733 A CN 108322733A CN 201810042480 A CN201810042480 A CN 201810042480A CN 108322733 A CN108322733 A CN 108322733A
- Authority
- CN
- China
- Prior art keywords
- image
- dis1
- value
- denoted
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种无参考高动态范围图像客观质量评价方法,其将图像表示成三阶张量,由于色度信息在高动态范围图像质量评价中具有重要作用,因此利用张量分解中的Tucker分解算法,对失真高动态范围图像进行张量分解,得到融合了亮度失真和色度失真的第1个通道作为第一特征图像,在第一特征图像上提取失真信息,与仅在亮度通道上提取失真信息相比,第一特征图像还包含了色度通道的失真,同时数据量又与亮度通道相同,不会增加额外的数据量;将第一特征图像中提取的张量域感知特征向量与支持向量回归训练模型结合,得到失真高动态范围图像的客观质量评价值,从而实现了无参考的高动态范围图像的客观质量评价,评价效果显著提高,且其不需要参考图像。
Description
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于张量域感知特征的无参考高动态范围图像客观质量评价方法。
背景技术
高动态范围(High Dynamic Range,HDR)成像技术的发展改变了传统的图像显示方式,其能够带给人们更真实的视觉体验。然而图像在采集、压缩、存储和传输过程中,不可避免地会引入降质。图像质量直接反映了用户的体验质量,降低甚至彻底杜绝降质是图像消费者的共同愿望,对高动态范围图像的质量评价进行研究能够有效帮助解决一些降质问题。
图像质量评价从方法上可分为主观质量评价方法和客观质量评价方法,主观质量评价方法耗时多、费用高、难以操作,因此,需要建立合适的客观质量评价模型对图像质量进行预测。高动态范围图像的客观质量评价方法可分为基于低动态范围(Low DynamicRange,LDR)图像质量评价的高动态范围图像质量评价方法和针对高动态范围图像设计的质量评价方法。传统的低动态范围图像质量评价方法,如MSE(PSNR)、SSIM、MSSIM、VIF、VSNR等,这些方法不能直接用于高动态范围图像的质量评价,因为这些方法都是在假定图像的像素值和人眼感知的像素值满足线性关系的条件下设计的,而这在高动态范围图像中并不成立。基于低动态范围图像质量评价的高动态范围图像质量评价方法需要先对图像进行log运算或PU编码预处理,使得图像的像素值和人眼感知的像素值大致满足线性关系,再使用低动态范围图像的质量评价方法,该方法经过log运算或PU编码预处理后,虽然评价效果有了大幅提升,但是有待进一步提高,因为它们不能体现高动态范围图像在动态范围、对比度提高之后,具有的与低动态范围图像不同的视觉注意力机制。
目前,针对高动态范围图像设计的质量评价方法只有几种,典型的有Mantiuk等提出的视觉差异预测方法HDR-VDP-2及其权重优化的HDR-VDP-2.2方法,以及针对高动态范围视频质量评价设计的HDR-VQM方法。这几种方法都很好的模拟了人眼对高动态范围图像的高亮度范围的感知,得到了广泛地应用。但是,这几种方法都是全参考的高动态范围图像质量评价方法,需要参考图像和失真图像,然而在实际应用中,参考图像往往是不可获取或不存在的。目前,对无参考高动态范围图像客观质量评价方法的研究还比较缺乏。因此,对无参考高动态范围图像的质量进行准确评价是一个迫切需要解决的问题。
优秀的高动态范围图像客观质量评价方法应能够很好地反映人眼视觉感知特性,人眼对图像失真的感知是色度失真和亮度失真共同作用的结果,上述针对高动态范围图像设计的全参考客观质量评价方法都只考虑了亮度失真,忽略了色度失真,这与人眼视觉感知不符,尤其对色彩鲜明的高动态范围图像。张量可以完整地表示图像数据并且有效保持图像数据的内在结构,且使用自回归模型可以有效模拟人脑对图像的感知生成,因此研究一种基于张量域感知特征的无参考高动态范围图像客观质量评价方法很有必要。
发明内容
本发明所要解决的技术问题是提供一种无参考高动态范围图像客观质量评价方法,其能够有效地提高客观评价结果与主观感知之间的一致性。
本发明解决上述技术问题所采用的技术方案为:一种无参考高动态范围图像客观质量评价方法,其特征在于包括以下步骤:
①将待评价的失真高动态范围图像记为Idis;然后将Idis表示成三阶张量的形式,记为Vdis;接着利用张量的Tucker3分解算法对Vdis进行3模式积运算,得到Vdis的核张量,记为Gdis;再将Gdis的第1个通道作为Idis的第一特征图像,记为Gdis1;其中,Idis的宽度为W且高度为H,Gdis、Gdis1的宽度也均为W、高度也均为H;
②将Gdis1中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,将得到的线性映射图像记为Gdis1 #;然后计算Gdis1 #中亮度值超过2400cd/m2的像素点的总个数占Gdis1 #中的所有像素点的总个数的比例,记为Rglobal;并计算Gdis1 #的动态范围,记为DRglobal,再将Rglobal和DRglobal联合,得到Idis的全局亮度感知特征向量,记为fglobal,fglobal=[Rglobal,DRglobal];其中,Lmax表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,Lmin表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
③将Gdis1划分成m×n个互不重叠的尺寸大小为的图像块,将Gdis1中的第i个图像块记为其中,m表示Gdis1在横向上包含的图像块的数目,n表示Gdis1在纵向上包含的图像块的数目,符号为向下取整运算符号,1≤i≤N,N表示Gdis1中包含的图像块的总数目,N=m×n;
④将Gdis1中的每个图像块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
⑤对Gdis1中的每个图像块的四周向上、向下各填充h行0像素,向左、向右各填充h列0像素,得到Gdis1中的每个图像块对应的扩充图像,扩充图像的宽度为且高度为将对应的扩充图像记为然后以块步长为1,将每幅扩充图像划分成个相互重叠的尺寸大小为(2h+1)×(2h+1)的方块,将中的第j个方块记为接着将每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为 并将每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成一个行向量,将中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量记为再将每幅扩充图像中的所有方块对应的行向量排列构成一个矩阵,将中的所有方块对应的行向量排列构成的矩阵记为 其中,min()为取最小值函数, 的维数为 表示中的第1个方块的中心像素点的像素值,表示的中心像素点的像素值,表示中的第个方块的中心像素点的像素值,也为中的所有像素点的像素值按序排列构成的列向量,的维数为1×(L-1),L表示每幅扩充图像中的每个方块中包含的像素点的总数目,L=(2h+1)×(2h+1),的维数为 表示中的第1个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量,表示中的第个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量;
⑥采用自回归模型模拟使用每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量对该方块的中心像素点的像素值进行预测的预测过程,得到每幅扩充图像中的每个方块的中心像素点的预测像素值,将的中心像素点的预测像素值记为为采用自回归模型模拟使用对进行预测的预测过程得到的,的值为与的乘积;然后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为的值为与的乘积;接着采用最小二乘法求解,使每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量与每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成的列向量的差异最小,得到每幅扩充图像对应的预测系数列向量的最优值,将的最优值记为为通过采用最小二乘法求解,使与的差异最小获得的;再获取每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值,将的最优值记为为与的乘积;之后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值中的所有值排列成尺寸大小为的图像,作为Gdis1中的每个图像块的预测块,将的预测块记为为中的所有值排列成尺寸大小为的图像;最后获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量,将Idis中与位置对应且尺寸大小相同的区域的局部感知预测特征向量记为 其中,表示自回归模型中与对应的预测系数列向量,的维数为(L-1)×1,为的转置;
⑦将Gdis1中的每个图像块的预测块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块的预测块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
⑧根据Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量、第一局部亮度感知特征向量、第二局部亮度感知特征向量以及Idis的全局亮度感知特征向量,获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的张量域感知特征向量记为Fi,其中,Fi的维数为1×(L+5);
⑨选取K幅失真高动态范围图像构成训练库;然后按照步骤①至步骤⑧的过程,以相同的方式获取训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量;再将训练库中的每幅失真高动态范围图像的主观评价分数作为标签,将训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量作为输入样本,采用支持向量回归技术进行训练,训练得到支持向量回归训练模型;其中,K≥30,设定训练库中的每幅失真高动态范围图像的宽度也为W、高度也为H;
⑩将Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量作为输入参数,输入到支持向量回归训练模型中,输出Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的客观质量评价值,将Idis中与位置对应且尺寸大小相同的区域的客观质量评价值记为qi;再获取Idis的客观质量评价值,记为qdis,
与现有技术相比,本发明的优点在于:
1)本发明方法利用张量可以有效保持图像数据的内在结构特点,将图像表示成三阶张量,由于色度信息在高动态范围图像质量评价中具有重要作用,因此利用张量分解中的Tucker分解算法,对失真高动态范围图像进行张量分解,得到融合了亮度失真和色度失真的第1个通道作为第一特征图像,在第一特征图像上提取失真信息,与现有方法仅在亮度通道上提取失真信息相比,第一特征图像还包含了色度通道的失真,同时数据量又与亮度通道相同,不会增加额外的数据量;将第一特征图像中提取的张量域感知特征向量与支持向量回归训练模型结合,得到失真高动态范围图像的客观质量评价值,从而实现了无参考的高动态范围图像的客观质量评价,评价效果显著提高,且本发明方法不需要参考图像,是一种无参考的评价方法,较现有的全参考评价方法具有更大的实用性。
2)本发明方法通过自回归模型模拟人脑对图像的主动预测,使用预测系数来表征失真的图像块的失真信息,作为失真的图像块的局部感知预测特征向量,降维后的局部感知预测特征向量与失真高动态范围图像质量存在较强的相关性,在表征失真高动态范围图像的客观质量时更简单、更准确。
3)本发明方法充分考虑高动态范围图像在亮度感知上的高动态特征,即动态范围、较亮区域占比上的特征,在较少地增加特征维数的情况下,使得本发明方法的预测准确度得到了大幅提升。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种无参考高动态范围图像客观质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
①将待评价的失真高动态范围彩色图像记为Idis;然后采用现有技术将Idis表示成三阶张量的形式,记为Vdis;接着利用现有的张量的Tucker3分解算法对Vdis进行3模式积运算,得到Vdis的核张量,记为Gdis;再将Gdis的第1个通道作为Idis的第一特征图像,记为Gdis1;并将Gdis的第2个通道作为Idis的第二特征图像,记为Gdis2;将Gdis的第3个通道作为Idis的第三特征图像,记为Gdis3;其中,Idis的宽度为W且高度为H,Gdis、Gdis1、Gdis2、Gdis3的宽度也均为W、高度也均为H。
②将Gdis1中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器(如选用型号SIM2HDR47ES4MB的显示器)的设定亮度范围0.03cd/m2~4250cd/m2内,将得到的线性映射图像记为Gdis1 #;然后计算Gdis1 #中亮度值超过2400cd/m2的像素点的总个数占Gdis1 #中的所有像素点的总个数的比例,记为Rglobal;并计算Gdis1 #的动态范围,记为DRglobal,再将Rglobal和DRglobal联合,得到Idis的全局亮度感知特征向量,记为fglobal,fglobal=[Rglobal,DRglobal];其中,Lmax表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,Lmin表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15,在本实施例中取μ的值为10。
③将Gdis1划分成m×n个互不重叠的尺寸大小为的图像块,将Gdis1中的第i个图像块记为其中,m表示Gdis1在横向上包含的图像块的数目,n表示Gdis1在纵向上包含的图像块的数目,在本实施例中取m的值为3、取n的值为3,符号为向下取整运算符号,1≤i≤N,N表示Gdis1中包含的图像块的总数目,N=m×n。
④将Gdis1中的每个图像块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器(如选用型号SIM2HDR47ES4MB的显示器)的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15,在本实施例中取μ的值为10。
⑤对Gdis1中的每个图像块的四周向上、向下各填充h行0像素,向左、向右各填充h列0像素,得到Gdis1中的每个图像块对应的扩充图像,扩充图像的宽度为且高度为将对应的扩充图像记为然后以块步长为1,将每幅扩充图像划分成个相互重叠的尺寸大小为(2h+1)×(2h+1)的方块,将中的第j个方块记为接着将每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为 并将每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成一个行向量,将中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量记为再将每幅扩充图像中的所有方块对应的行向量排列构成一个矩阵,将中的所有方块对应的行向量排列构成的矩阵记为 其中,min()为取最小值函数,在本实施例中h的取值为2, 的维数为 表示中的第1个方块的中心像素点的像素值,表示的中心像素点的像素值,表示中的第个方块的中心像素点的像素值,也为中的所有像素点的像素值按序排列构成的列向量,的维数为1×(L-1),L表示每幅扩充图像中的每个方块中包含的像素点的总数目,L=(2h+1)×(2h+1),在本实施例中L的值为25,的维数为 表示中的第1个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量,表示中的第个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量。
⑥采用现有的自回归模型模拟使用每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量对该方块的中心像素点的像素值进行预测的预测过程,得到每幅扩充图像中的每个方块的中心像素点的预测像素值,将的中心像素点的预测像素值记为为采用现有的自回归模型模拟使用对进行预测的预测过程得到的,的值为与的乘积;然后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为的值为与的乘积;接着采用现有的最小二乘法求解,使每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量与每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成的列向量的差异最小,得到每幅扩充图像对应的预测系数列向量的最优值,将的最优值记为为通过采用现有的最小二乘法求解,使与的差异最小获得的;再获取每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值,将的最优值记为为与的乘积;之后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值中的所有值排列成尺寸大小为的图像,作为Gdis1中的每个图像块的预测块,将的预测块记为为中的所有值排列成尺寸大小为的图像;最后获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量,将Idis中与位置对应且尺寸大小相同的区域的局部感知预测特征向量记为 其中,表示自回归模型中与对应的预测系数列向量,的维数为(L-1)×1,为的转置。
⑦将Gdis1中的每个图像块的预测块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器(如选用型号SIM2HDR47ES4MB的显示器)的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块的预测块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15,在本实施例中取μ的值为10。
⑧根据Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量、第一局部亮度感知特征向量、第二局部亮度感知特征向量以及Idis的全局亮度感知特征向量,获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的张量域感知特征向量记为Fi,其中,Fi的维数为1×(L+5)。
⑨选取K幅失真高动态范围图像构成训练库;然后按照步骤①至步骤⑧的过程,以相同的方式获取训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量;再将训练库中的每幅失真高动态范围图像的主观评价分数(Mean Opinion Score,MOS)作为标签,将训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量作为输入样本,采用现有的支持向量回归(Support Vector Regression,SVR)技术进行训练,训练得到支持向量回归训练模型;其中,K≥30,在本实施例中直接从常用的高动态范围图像数据库中选取80%的失真高动态范围图像构成训练库,设定训练库中的每幅失真高动态范围图像的宽度也为W、高度也为H,在实际操作时训练库中的失真高动态范围图像的宽度和高度与Idis的宽度和高度可能一致或不一致。
⑩将Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量作为输入参数,输入到支持向量回归训练模型中,输出Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的客观质量评价值,将Idis中与位置对应且尺寸大小相同的区域的客观质量评价值记为qi;再获取Idis的客观质量评价值,记为qdis,在本实施例中,将用于构建步骤⑨中的训练库的高动态范围图像数据库中除去训练库中的失真高动态范围图像后剩下的所有失真高动态范围图像构成测试库,Idis从测试库中选取。
为了进一步说明本发明方法的可行性和有效性,进行实验。
在本实施例中,选取两个公开的权威高动态范围图像数据库进行实验,分别为Nantes高动态范围图像数据库、EPFL高动态范围图像数据库。表1中详细说明了每个高动态范围图像数据库的各项指标,包括参考图像数量、失真图像数量、失真类型、主观评价分数范围。
表1权威高动态范围图像数据库的各项指标
接下来,为了说明本发明方法的准确性和一致性,将从现有的VQEG建议的SROCC(Spearman Rank Order Correlation Coefficient)、PLCC(Pearson Linear CorrelationCoefficient)、RMSE(Root Mean Square Error)三个指标进行评估比较。SROCC用于评价预测模型的单调性,取值范围在0~1之间,越接近1表示评价方法的单调性越好,反之单调性越差;PLCC用于评价预测模型的准确性,取值范围在0~1之间,越接近1表示评价方法预测越准确,反之预测误差越大;RMSE用于评价预测模型的一致性,值越小表示评价方法的误差越小,性能更优。
分别选取上述Nantes高动态范围图像数据库和EPFL高动态范围图像数据库中的80%的失真高动态范围图像构成训练库,剩余20%的失真高动态范围图像构成测试库,分别按本发明方法的步骤①至步骤⑩的过程,采用相同的方式计算得到测试库中的每幅失真高动态范围图像的客观质量评价值。对实验得到的失真高动态范围图像的客观质量评价值与主观评价分数之间的相关性指标进行分析:首先获取失真高动态范围图像的客观质量评价值;然后将客观质量评价值使用现有的五参数Logistic函数进行非线性拟合,得到拟合后的客观评价结果;最后结合拟合后的客观评价结果与主观评价分数得到预测性能指标值。
为了验证本发明方法的有效性和优越性,对本发明方法与现有的性能较为先进的四种高动态范围图像质量客观评价方法在表1列出的两个高动态范围图像数据库上的预测性能进行比较分析,预测性能指标如表2所列。表2中参与比较的四种方法分别为:基于传统的低动态范围图像质量评价的PSNR方法(简称:PU-PSNR),该方法对失真高动态范围图像先进行PU编码运算,再计算其PSNR;基于传统的低动态范围图像质量评价的SSIM方法(简称:PU-SSIM),该方法对失真高动态范围图像先进行PU编码运算,再计算其SSIM;Mantiuk等人提出的经典的HDR图像质量评价方法HDR-VDP-2;Narwaria等人提出的用于HDR视频质量评价的方法HDR-VQM。这些对比方法都是全参考的评价方法,目前,学术界对无参考的评价方法的研究还比较缺乏。其中只有HDR-VDP-2和HDR-VQM是针对高动态范围内容质量评价设计的,其余方法均为基于典型的低动态范围图像质量评价的方法。由表2中所列的数据可见:本发明方法在Nantes高动态范围图像数据库上表现最优,SROCC和PLCC分别达到了0.9399和0.9502;在NFPL高动态范围图像数据库上也具有较好的预测性能,SROCC和PLCC分别达到了0.9356和0.9471,接近于全参考评价方法HDR-VDP-2的0.9564和0.9604。因此,在两个高动态范围图像数据库上按本发明方法计算得到的失真高动态范围图像的客观质量评价值与主观评价分数之间都有很好的一致性,表明了本发明方法的客观评价结果与人眼主观感知的结果较为一致,并且评价效果稳定,充分说明了本发明方法的有效性。
表2本发明方法与现有的性能较为先进的四种高动态范围图像质量客观评价方法的性能比较
Claims (1)
1.一种无参考高动态范围图像客观质量评价方法,其特征在于包括以下步骤:
①将待评价的失真高动态范围图像记为Idis;然后将Idis表示成三阶张量的形式,记为Vdis;接着利用张量的Tucker3分解算法对Vdis进行3模式积运算,得到Vdis的核张量,记为Gdis;再将Gdis的第1个通道作为Idis的第一特征图像,记为Gdis1;其中,Idis的宽度为W且高度为H,Gdis、Gdis1的宽度也均为W、高度也均为H;
②将Gdis1中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,将得到的线性映射图像记为Gdis1 #;然后计算Gdis1 #中亮度值超过2400cd/m2的像素点的总个数占Gdis1 #中的所有像素点的总个数的比例,记为Rglobal;并计算Gdis1 #的动态范围,记为DRglobal,再将Rglobal和DRglobal联合,得到Idis的全局亮度感知特征向量,记为fglobal,fglobal=[Rglobal,DRglobal];其中,Lmax表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,Lmin表示Gdis1 #中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
③将Gdis1划分成m×n个互不重叠的尺寸大小为的图像块,将Gdis1中的第i个图像块记为其中,m表示Gdis1在横向上包含的图像块的数目,n表示Gdis1在纵向上包含的图像块的数目,符号为向下取整运算符号,1≤i≤N,N表示Gdis1中包含的图像块的总数目,N=m×n;
④将Gdis1中的每个图像块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第一局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
⑤对Gdis1中的每个图像块的四周向上、向下各填充h行0像素,向左、向右各填充h列0像素,得到Gdis1中的每个图像块对应的扩充图像,扩充图像的宽度为且高度为将对应的扩充图像记为然后以块步长为1,将每幅扩充图像划分成个相互重叠的尺寸大小为(2h+1)×(2h+1)的方块,将中的第j个方块记为接着将每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为 并将每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成一个行向量,将中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量记为再将每幅扩充图像中的所有方块对应的行向量排列构成一个矩阵,将中的所有方块对应的行向量排列构成的矩阵记为 其中,min()为取最小值函数, 的维数为 表示中的第1个方块的中心像素点的像素值,表示的中心像素点的像素值,表示中的第个方块的中心像素点的像素值,也为中的所有像素点的像素值按序排列构成的列向量,的维数为1×(L-1),L表示每幅扩充图像中的每个方块中包含的像素点的总数目,L=(2h+1)×(2h+1),的维数为 表示中的第1个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量,表示中的第个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量;
⑥采用自回归模型模拟使用每幅扩充图像中的每个方块中除中心像素点外的其余所有像素点的像素值按序排列构成的行向量对该方块的中心像素点的像素值进行预测的预测过程,得到每幅扩充图像中的每个方块的中心像素点的预测像素值,将的中心像素点的预测像素值记为 为采用自回归模型模拟使用对进行预测的预测过程得到的,的值为与的乘积;然后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成一个列向量,将中的所有方块的中心像素点的像素值按序排列构成的列向量记为 的值为与的乘积;接着采用最小二乘法求解,使每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量与每幅扩充图像中的所有方块的中心像素点的像素值按序排列构成的列向量的差异最小,得到每幅扩充图像对应的预测系数列向量的最优值,将的最优值记为 为通过采用最小二乘法求解,使与的差异最小获得的;再获取每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值,将的最优值记为 为与的乘积;之后将每幅扩充图像中的所有方块的中心像素点的预测像素值按序排列构成的列向量的最优值中的所有值排列成尺寸大小为的图像,作为Gdis1中的每个图像块的预测块,将的预测块记为 为中的所有值排列成尺寸大小为的图像;最后获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量,将Idis中与位置对应且尺寸大小相同的区域的局部感知预测特征向量记为 其中,表示自回归模型中与对应的预测系数列向量,的维数为(L-1)×1,为的转置;
⑦将Gdis1中的每个图像块的预测块中的所有像素点的像素值线性映射到专用于显示高动态范围图像的显示器的设定亮度范围0.03cd/m2~4250cd/m2内,得到Gdis1中的每个图像块的预测块对应的线性映射图像,将对应的线性映射图像记为然后计算Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例,将中亮度值超过2400cd/m2的像素点的总个数占中的所有像素点的总个数的比例记为并计算Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围,将的动态范围记为 再将Gdis1中的每个图像块的预测块对应的线性映射图像中亮度值超过2400cd/m2的像素点的总个数占Gdis1中的每个图像块的预测块对应的线性映射图像中的所有像素点的总个数的比例和Gdis1中的每个图像块的预测块对应的线性映射图像的动态范围联合,得到Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的第二局部亮度感知特征向量记为由和联合得到,其中,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最大亮度值,表示中的所有像素点的亮度值按从大到小的顺序排列再去除前μ%和后μ%的亮度值后剩下的所有亮度值中的最小亮度值,5≤μ≤15;
⑧根据Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的局部感知预测特征向量、第一局部亮度感知特征向量、第二局部亮度感知特征向量以及Idis的全局亮度感知特征向量,获取Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量,将Idis中与位置对应且尺寸大小相同的区域的张量域感知特征向量记为Fi,其中,Fi的维数为1×(L+5);
⑨选取K幅失真高动态范围图像构成训练库;然后按照步骤①至步骤⑧的过程,以相同的方式获取训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量;再将训练库中的每幅失真高动态范围图像的主观评价分数作为标签,将训练库中的每幅失真高动态范围图像中的m×n个互不重叠的尺寸大小为的区域各自的张量域感知特征向量作为输入样本,采用支持向量回归技术进行训练,训练得到支持向量回归训练模型;其中,K≥30,设定训练库中的每幅失真高动态范围图像的宽度也为W、高度也为H;
⑩将Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的张量域感知特征向量作为输入参数,输入到支持向量回归训练模型中,输出Idis中与Gdis1中的每个图像块位置对应且尺寸大小相同的区域的客观质量评价值,将Idis中与位置对应且尺寸大小相同的区域的客观质量评价值记为qi;再获取Idis的客观质量评价值,记为qdis,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810042480.6A CN108322733B (zh) | 2018-01-17 | 2018-01-17 | 一种无参考高动态范围图像客观质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810042480.6A CN108322733B (zh) | 2018-01-17 | 2018-01-17 | 一种无参考高动态范围图像客观质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108322733A true CN108322733A (zh) | 2018-07-24 |
CN108322733B CN108322733B (zh) | 2019-09-03 |
Family
ID=62895049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810042480.6A Active CN108322733B (zh) | 2018-01-17 | 2018-01-17 | 一种无参考高动态范围图像客观质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108322733B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754390A (zh) * | 2018-12-11 | 2019-05-14 | 西北大学 | 一种基于混合视觉特征的无参考图像质量评价方法 |
CN109871852A (zh) * | 2019-01-05 | 2019-06-11 | 天津大学 | 一种无参考色调映射图像质量评价方法 |
CN110570420A (zh) * | 2019-09-16 | 2019-12-13 | 中山大学 | 一种无参考对比度失真图像质量评价方法 |
CN111292336A (zh) * | 2020-01-21 | 2020-06-16 | 宁波大学 | 基于分段式球面投影格式的全向图像无参考质量评价方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130027568A1 (en) * | 2011-07-29 | 2013-01-31 | Dekun Zou | Support vector regression based video quality prediction |
CN103581661A (zh) * | 2013-10-28 | 2014-02-12 | 宁波大学 | 一种立体图像视觉舒适度评价方法 |
CN104581143A (zh) * | 2015-01-14 | 2015-04-29 | 宁波大学 | 一种基于机器学习的无参考立体图像质量客观评价方法 |
CN105828064A (zh) * | 2015-01-07 | 2016-08-03 | 中国人民解放军理工大学 | 融合局部和全局时空特性的无参考视频质量评估方法 |
CN107040775A (zh) * | 2017-03-20 | 2017-08-11 | 宁波大学 | 一种基于局部特征的色调映射图像质量客观评价方法 |
CN107105223A (zh) * | 2017-03-20 | 2017-08-29 | 宁波大学 | 一种基于全局特征的色调映射图像质量客观评价方法 |
CN107274388A (zh) * | 2017-05-22 | 2017-10-20 | 浙江科技学院 | 一种基于全局信息的无参考屏幕图像质量评价方法 |
CN107464222A (zh) * | 2017-07-07 | 2017-12-12 | 宁波大学 | 基于张量空间的无参考高动态范围图像客观质量评价方法 |
-
2018
- 2018-01-17 CN CN201810042480.6A patent/CN108322733B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130027568A1 (en) * | 2011-07-29 | 2013-01-31 | Dekun Zou | Support vector regression based video quality prediction |
CN103581661A (zh) * | 2013-10-28 | 2014-02-12 | 宁波大学 | 一种立体图像视觉舒适度评价方法 |
CN105828064A (zh) * | 2015-01-07 | 2016-08-03 | 中国人民解放军理工大学 | 融合局部和全局时空特性的无参考视频质量评估方法 |
CN104581143A (zh) * | 2015-01-14 | 2015-04-29 | 宁波大学 | 一种基于机器学习的无参考立体图像质量客观评价方法 |
CN107040775A (zh) * | 2017-03-20 | 2017-08-11 | 宁波大学 | 一种基于局部特征的色调映射图像质量客观评价方法 |
CN107105223A (zh) * | 2017-03-20 | 2017-08-29 | 宁波大学 | 一种基于全局特征的色调映射图像质量客观评价方法 |
CN107274388A (zh) * | 2017-05-22 | 2017-10-20 | 浙江科技学院 | 一种基于全局信息的无参考屏幕图像质量评价方法 |
CN107464222A (zh) * | 2017-07-07 | 2017-12-12 | 宁波大学 | 基于张量空间的无参考高动态范围图像客观质量评价方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754390A (zh) * | 2018-12-11 | 2019-05-14 | 西北大学 | 一种基于混合视觉特征的无参考图像质量评价方法 |
CN109754390B (zh) * | 2018-12-11 | 2023-04-07 | 西北大学 | 一种基于混合视觉特征的无参考图像质量评价方法 |
CN109871852A (zh) * | 2019-01-05 | 2019-06-11 | 天津大学 | 一种无参考色调映射图像质量评价方法 |
CN109871852B (zh) * | 2019-01-05 | 2023-05-26 | 天津大学 | 一种无参考色调映射图像质量评价方法 |
CN110570420A (zh) * | 2019-09-16 | 2019-12-13 | 中山大学 | 一种无参考对比度失真图像质量评价方法 |
CN110570420B (zh) * | 2019-09-16 | 2023-04-07 | 中山大学 | 一种无参考对比度失真图像质量评价方法 |
CN111292336A (zh) * | 2020-01-21 | 2020-06-16 | 宁波大学 | 基于分段式球面投影格式的全向图像无参考质量评价方法 |
CN111292336B (zh) * | 2020-01-21 | 2023-06-06 | 宁波大学 | 基于分段式球面投影格式的全向图像无参考质量评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108322733B (zh) | 2019-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108322733B (zh) | 一种无参考高动态范围图像客观质量评价方法 | |
CN102333233B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN100559881C (zh) | 一种基于人工神经网络的视频质量评价方法 | |
CN103581661B (zh) | 一种立体图像视觉舒适度评价方法 | |
WO2021022929A1 (zh) | 一种单帧图像超分辨率重建方法 | |
CN108428227A (zh) | 基于全卷积神经网络的无参考图像质量评价方法 | |
CN104811691B (zh) | 一种基于小波变换的立体视频质量客观评价方法 | |
CN107105223B (zh) | 一种基于全局特征的色调映射图像质量客观评价方法 | |
CN101562675B (zh) | 基于Contourlet变换的无参考型图像质量评测方法 | |
CN103281554B (zh) | 一种基于人眼视觉特性的视频客观质量评价方法 | |
CN107464222B (zh) | 基于张量空间的无参考高动态范围图像客观质量评价方法 | |
CN109389591A (zh) | 基于彩色描述子的彩色图像质量评价方法 | |
CN102209257A (zh) | 一种立体图像质量客观评价方法 | |
CN108010024A (zh) | 一种盲参考色调映射图像质量评价方法 | |
CN101378519A (zh) | 一种基于Contourlet变换的质降参考图像质量评价方法 | |
CN104202594B (zh) | 一种基于三维小波变换的视频质量评价方法 | |
CN105894522B (zh) | 一种多失真立体图像质量客观评价方法 | |
CN110443800A (zh) | 视频图像质量的评价方法 | |
CN106791822A (zh) | 一种基于单双目特征学习的无参考立体图像质量评价方法 | |
CN110120034A (zh) | 一种与视觉感知相关的图像质量评价方法 | |
Tang et al. | Training-free referenceless camera image blur assessment via hypercomplex singular value decomposition | |
CN105898279B (zh) | 一种立体图像质量客观评价方法 | |
CN107767367A (zh) | 一种针对hdr图的无参考质量客观评价方法 | |
CN110910347A (zh) | 一种基于图像分割的色调映射图像无参考质量评价方法 | |
CN105069794B (zh) | 一种基于双目竞争的全盲立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |