CN103108209A - 基于视觉阈值与通道融合的立体图像客观质量评价方法 - Google Patents
基于视觉阈值与通道融合的立体图像客观质量评价方法 Download PDFInfo
- Publication number
- CN103108209A CN103108209A CN2012105857360A CN201210585736A CN103108209A CN 103108209 A CN103108209 A CN 103108209A CN 2012105857360 A CN2012105857360 A CN 2012105857360A CN 201210585736 A CN201210585736 A CN 201210585736A CN 103108209 A CN103108209 A CN 103108209A
- Authority
- CN
- China
- Prior art keywords
- image
- org
- channel
- value
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 title claims abstract description 40
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 31
- 230000010354 integration Effects 0.000 title abstract 4
- 230000008447 perception Effects 0.000 claims abstract description 26
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims description 55
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000006835 compression Effects 0.000 claims description 17
- 238000007906 compression Methods 0.000 claims description 17
- 230000004927 fusion Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 229910044991 metal oxide Inorganic materials 0.000 claims description 11
- 150000004706 metal oxides Chemical class 0.000 claims description 11
- 239000004065 semiconductor Substances 0.000 claims description 11
- 230000000873 masking effect Effects 0.000 claims description 9
- 239000004576 sand Substances 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000012803 optimization experiment Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241001182632 Akko Species 0.000 description 1
- HEFNNWSXXWATRW-UHFFFAOYSA-N Ibuprofen Chemical compound CC(C)CC1=CC=C(C(C)C(O)=O)C=C1 HEFNNWSXXWATRW-UHFFFAOYSA-N 0.000 description 1
- 206010021403 Illusion Diseases 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- YYJNOYZRYGDPNH-MFKUBSTISA-N fenpyroximate Chemical compound C=1C=C(C(=O)OC(C)(C)C)C=CC=1CO/N=C/C=1C(C)=NN(C)C=1OC1=CC=CC=C1 YYJNOYZRYGDPNH-MFKUBSTISA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其通过对无失真的立体图像和失真的立体图像的左视点图像和右视点图像分通道进行视觉阈值分析和奇异值分解;然后通过对无失真的立体图像和失真的立体图像的左右视点图像的绝对视差图像的差值图像分通道进行视觉阈值分析和奇异值分解,采用线性组合方式得到立体感知评价度量;最后将客观评价尺度度量和立体感知评价度量两者进行线性加权结合,得到立体图像的总体质量评价客观值,不仅有效利用了恰可察觉失真的视觉阈值、视觉掩盖效应以及立体感知等人眼视觉特性,而且在评价左右视点图像质量的基础上,同时评价了立体感知,因此提高了客观质量评价结果与主观感知之间的相关性。
Description
技术领域
本发明涉及一种立体图像质量评价方法,尤其是涉及一种基于视觉阈值与通道融合的立体图像客观质量评价方法。
背景技术
立体图像作为一种能够提供立体感的新型图像,已成为三维立体研究的重要方向,并已受到广泛的关注与应用。与传统的多媒体相比,立体视频能够为大众创造更加直观、真实的场景感受,但其需要处理的数据至少多一倍。因此,立体图像在提高编码压缩效率的同时,还需要保证立体图像的主观感知。由于立体图像质量的主观评价方法不仅容易受到客观条件、主观情绪和观察者自身条件等各种因素的影响,而且复杂费时,评测结果因人而异,评价结果极不稳定。因此,建立与主观感知相一致的立体图像客观质量评价模型显得十分重要。目前,很多研究者将平面图像质量评价方法直接用于立体图像的评价,如基于奇异值分解的质量评价和基于结构相似度的评价等,这些方法评价平面图像质量效果比较好,但是评价立体图像的效果却不很理想,这是因为它们没有考虑人眼视觉特性因素以及立体图像特有的深度感知特性,从而导致最终的客观评价与人眼主观评价不是很吻合。
发明内容
本发明所要解决的技术问题是提供一种能够有效提高立体图像客观评价结果与主观感知之间的相关性的基于视觉阈值与通道融合的立体图像客观质量评价方法。
本发明解决上述技术问题所采用的技术方案为:一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis;
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=|Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号;
③获取Lorg的视觉阈值图,记为将Lorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
获取Rorg的视觉阈值图,记为将Rorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt'(i,j)=α'(i,j)×G'(i,j)+β'(i,j), G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图分成RGB三个通道的图像,并将Lorg的视觉阈值图的第u个通道的图像记为将Rorg的视觉阈值图分成RGB三个通道的图像,并将Rorg的视觉阈值图的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记为将的第u个通道的图像中的第k个图像块的奇异值矩阵记为其中,为向下取整符号,
⑥计算Dl的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u,其中,w表示失真判断值,w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑦计算Dr的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u,其中,w表示失真判断值,w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs,其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1;
⑨获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为将Lorg的全局双目恰可觉察失真阈值图中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值记为 其中,j′=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j′)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j′)=TC(bgorg(i,j′))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j'))表示右视点图像在给定bgorg(i,j′)的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j'))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将分成RGB三个通道的图像,并将的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
将DD的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记为其中,为向下取整符号,
计算DD的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd, 其中,w'表示失真判断值,w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
根据Sdis相对于Sorg的客观评价尺度度量Qs和Sdis相对于Sorg的立体感知评价度量Qd,计算Sdis的总体质量评价客观值,记为Q,Q=Wtype×Qs+(1-Wtype)×Qd,其中,Wtype表示在同一种失真类型下Qs的权重值。
所述的步骤③中C取值为0.3。
所述的步骤⑧中当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu。
所述的步骤⑨中取λ=1.25。
根据步骤①至步骤的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量Qs和每幅失真的立体图像相对于对应的无失真的立体图像的立体感知评价度量Qd,得到该种失真类型下Qs的权重值Wtype。
所述的步骤中当失真类型为高斯模糊失真时,取Wtype=0.82;当失真类型为JPEG压缩时,取Wtype=0.52;当失真类型为JPEG2000压缩时,取Wtype=0.78;当失真类型为白噪声失真时,取Wtype=0.70;当失真类型为H.264编码失真时,取Wtype=0.80。
与现有技术相比,本发明的优点在于:通过分别对无失真的立体图像和失真的立体图像的左视点图像和右视点图像分通道进行视觉阈值分析和奇异值分解,各通道的权重系数由大量的统计实验得到;然后,通过对无失真的立体图像和失真的立体图像的左右视点图像的绝对视差图像的差值图像分通道进行视觉阈值分析和奇异值分解,采用线性组合的方式得到立体感知评价度量;最后将客观评价尺度度量和立体感知评价度量两者进行线性加权结合,得到总体质量评价客观值,不仅有效利用了恰可察觉失真的视觉阈值、视觉掩盖效应以及立体感知等人眼视觉特性,而且在评价左视点图像和右视点图像质量的基础上,同时评价立体感知,因此提高了立体图像客观质量评价结果与主观感知之间的相关性。
附图说明
图1a为Akko & Kayo(640×480)立体图像;
图1b为Alt Moabit(1024×768)立体图像;
图1c为Balloons(1024×768)立体图像;
图1d为Door Flowers(1024×768)立体图像;
图1e为Kendo(1024×768)立体图像;
图1f为Leaving Laptop(1024×768)立体图像;
图1g为Lovebird1(1024×768)立体图像;
图1h为Newspaper(1024×768)立体图像;
图1i为Xmas(640×480)立体图像;
图1j为Puppy(720×480)立体图像;
图1k为Soccer2(720×480)立体图像;
图1l为Horse(480×270)立体图像;
图2a为低通滤波器的算子模板的示意图;
图2b为高通滤波器的水平方向的算子模板的示意图;
图2c为高通滤波器的垂直方向的算子模板的示意图;
图2d为高通滤波器的45°方向的算子模板的示意图;
图2e为高通滤波器的135°方向的算子模板的示意图;
图3a为边缘垂直算子模板的示意图;
图3b为边缘水平算子模板的示意图;
图4a为高斯模糊失真图像与评价指标CC的拟合曲线;
图4b为jpeg压缩失真图像与评价指标CC的拟合曲线;
图4c为jpeg2000压缩失真图像与评价指标CC的拟合曲线;
图4d为高斯白噪声失真图像与评价指标CC的拟合曲线;
图4e为H.264编码失真图像与评价指标CC的拟合曲线。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其分别评价了左右视点图像质量以及立体图像的立体感知效果,并将这两部分评价的结果进行线性结合,得到对立体图像质量的最终评价结果。本发明方法具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis。
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号。
③获取Lorg的视觉阈值图,记为将Lorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值(即人眼能够容忍的失真临界值,该值越大,则人眼能够容忍的失真程度就越大)记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器(如图2a所示)中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器(分别如图2b、图2c、图2d和图2e所示)滤波后得到的四个值中的最大值,即利用水平方向、垂直方向、45°方向和135°方向4个不同方向的高通滤波器对Lorg中坐标位置为(i,j)的像素点进行滤波处理,再从滤波后得到的四个值中取其中的最大值赋值给G(i,j),C为加权系数,min()为取最小值函数。
获取Rorg的视觉阈值图,记为将Rorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值(即人眼能够容忍的失真临界值,该值越大,则人眼能够容忍的失真程度就越大)记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt′(i,j)=α'(i,j)×G'(i,j)+β'(i,j), G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数。
在此,由于考虑到亮度掩蔽效应和纹理掩蔽效应的重叠,因此C取值为0.3。
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图分成RGB三个通道的图像,并将Lorg的视觉阈值图的第u个通道的图像记为将Rorg的视觉阈值图分成RGB三个通道的图像,并将Rorg的视觉阈值图的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道。
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记为将的第u个通道的图像中的第k个图像块的奇异值矩阵记为其中,为向下取整符号,
⑥计算Dl的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u,其中,w表示失真判断值,w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值。
⑦计算Dr的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u,其中,w表示失真判断值,w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值。
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs,其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1。在此,通过左右视点质量的线性加权能够较好地评价立体图像内容的质量。
在此,wl和wr的取值与失真类型有关,当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
⑨利用现有技术(图3a和图3b所示的垂直和水平算子模板)获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg,其中,bgorg和ehorg的分辨率为W×H;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为将Lorg的全局双目恰可觉察失真阈值图中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值(即人眼能够容忍的最大视差失真)记为 其中,j'=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j')的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j')=TC(bgorg(i,j'))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j′))表示右视点图像在给定bgorg(i,j')的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j′))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数,在本实施例中,λ的值设为1.25。
在此,也可以通过计算Lorg的背景亮度图像和边缘强度图像,再以Lorg为参考图像,来获取Rorg的全局双目恰可觉察失真阈值图。
在本实施例中,d(i,j)是通过视差匹配软件match-v3.3获得的,在具体获取过程中可将视差搜索范围设置为(-31,31),并以右视点图像为参考图像,获取左视点图像的水平视差值。
在本实施例中,对图1a至图1l所示的12幅无失真的立体图像,利用如图3a和图3b所示的垂直和水平算子模板,计算这12幅原始的立体图像的右视点图像中的每个像素点的背景亮度值和边缘强度值,进而计算左视点图像加入的能够引起双目感知失真的最大随机噪声幅度。
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将分成RGB三个通道的图像,并将的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道。
将DD的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记其中,为向下取整符号,
计算DD的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd, 其中,w'表示失真判断值,w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值。
根据Sdis相对于Sorg的客观评价尺度度量Qs和Sdis相对于Sorg的立体感知评价度量Qd,计算Sdis的总体质量评价客观值,记为Q,Q=Wtype×Qs+(1-Wtype)×Qd,其中,Wtype表示在同一种失真类型下Qs的权重值。
在本实施例中,Wtype的获取过程为:
根据步骤①至步骤的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量Qs和每幅失真的立体图像相对于对应的无失真的立体图像的立体感知评价度量Qd,得到该种失真类型下Qs的权重值Wtype。在此,针对不同类型失真的立体图像,本发明做了大量的优化实验,取质量客观评价值最好时的权重值Wtype,具体实验如下:利用图1a至图1l所示的12幅无失真的立体图像建立了312幅失真的立体图像,对上述312幅失真的立体图像和12幅无失真的立体图像按本发明方法的步骤①至步骤相同的操作计算得到每幅失真的立体图像相应的Qd和Qs;然后采用线性加权得到这312幅失真的立体图像的DMOS与Qd和Qs的函数关系式。图4a给出了高斯模糊失真图像与评价指标CC的拟合曲线,图4b给出了JPEG压缩图像与评价指标CC的拟合曲线,图4c给出了JPEG2000压缩图像与评价指标CC的拟合曲线,图4d给出了高斯白噪声失真图像与评价指标CC的拟合曲线,图4e给出了H.264编码失真图像与评价指标CC的拟合曲线,图4a至图4e中横坐标表示不同类型失真立体图像的Wtype,纵坐标表示CC值,Wtype值的大小决定Qd和Qs对立体图像最终的评价值Q的贡献大小。Wtype代表不同失真类型下Qs的权重值,由于人眼对不同的失真敏感度也有所不同,对不同的失真程度也不同,根据这个特性,本发明统计大量的参数,进行重复性的实验,当Q与主观感知之间的一致性最好时,取得不同失真类型的Wtype值,即当失真类型为高斯模糊失真时,取Wtype=0.82;当失真类型为JPEG压缩时,取Wtype=0.52;当失真类型为JPEG2000压缩时,取Wtype=0.78;当失真类型为白噪声失真时,取Wtype=0.70;当失真类型为H.264编码失真时,取Wtype=0.80。
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像。
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100]。
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu。
实际上,不同通道的权重值bu的取值由人眼对红、绿、蓝不同颜色的敏感度决定的,人眼对红光敏感的锥状体占65%,对绿光敏感的锥状体占33%,而对蓝光敏感的锥状体只占2%。因此在此针对不同类型失真的立体图像对,做了大量的优化实验,取质量客观评价(CC)最好时的权重取值。具体实验如下:利用图1a、图1b、图1c、图1d、图1e、图1f、图1g、图1h、图1i、图1j、图1k和图1l所示的12幅无失真的立体图像建立了不同失真类型不同失真程度的失真立体图像集,失真类型包括JPEG压缩、JPEG2000压缩、白噪声失真、高斯模糊失真、H.264编码失真,该失真立体图像集共包括312幅失真的立体图像,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,白噪声失真的立体图像共60幅,高斯模糊失真的立体图像共60幅,H.264编码失真的立体图像共72幅。对上述312幅失真的立体图像采用公知的主观质量评价方法进行主观质量评价,得到这312幅失真的立体图像各自的平均主观评分差值(DMOS,Difference Mean Opinion Scores),即每幅失真的立体图像的主观质量评分值。DMOS为主观评分均值(MOS)和满分(100)的差值,即DMOS=100-MOS。因此,DMOS值越大表示失真的立体图像的质量越差,DMOS值越小表示失真的立体图像的质量越好,且DMOS的取值范围为[0,100];另一方面,对上述312幅失真的立体图像按本发明方法的步骤①至步骤⑦实施分通道和视觉阈值分析计算奇异值距离得到Ql,u和Qr,u;这里,利用评估图像质量评价方法常用的一个客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Correlation Coefficient,CC),该参数反映失真的立体图像评价函数这一客观模型的精确性,CC值越大,说明评价性能越好,反之亦然;然后采用线性拟合方法拟合这312幅失真的立体图像的DMOS与Ql,u和Qr,u,取CC值最大时的bu值,即
为说明本发明方法的有效性和可行性,分析本发明方法的客观评价结果与主观评分DMOS之间的相关性。在此,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的CC、Spearman相关系数(Spearman Rank-Order CorrelationCoefficient,ROCC)和RMSE,CC反映所建客观模型预测的精确性,SROCC反映客观模型预测的单调性,RMSE反映立体图像客观评价模型的预测准确性。将按本实施例计算得到的失真的立体图像的总体质量评价客观值Q做四参数Logistic函数非线性拟合,CC和SROCC值越接近1说明客观评价方法与DMOS相关性越好,RMSE值越低说明客观评价方法与DMOS相关性越好。反映准确性和单调性的CC、SROCC和RMSE系数如表1所示,根据表1所列的数据可见,本发明方法的整体混合失真CC值和SROCC值都能达到0.94之上,均方根误差RMSE低于5.9,按本实施例得到的失真的立体图像的总体质量评价客观值Q与主观评分DMOS之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,说明了本发明方法的有效性。
表1失真的立体图像的总体质量评价客观值与主观评分之间的相关性
Claims (8)
1.一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis;
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号;
③获取Lorg的视觉阈值图,记为将Lorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
获取Rorg的视觉阈值图,记为将Rorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值记为 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值, 表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt′(i,j)=α'(i,j)×G'(i,j)+β'(i,j), G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图分成RGB三个通道的图像,并将Lorg的视觉阈值图的第u个通道的图像记为将Rorg的视觉阈值图分成RGB三个通道的图像,并将Rorg的视觉阈值图的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记为将的第u个通道的图像中的第k个图像块的奇异值矩阵记为其中,为向下取整符号,
⑥计算Dl的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u,其中,w表示失真判断值,w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑦计算Dr的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u,其中,w表示失真判断值,w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs,其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1;
⑨获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为将Lorg的全局双目恰可觉察失真阈值图中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值记为 其中,j'=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j′)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j′)=TC(bgorg(i,j′))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j'))表示右视点图像在给定bgorg(i,j′)的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j'))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将分成RGB三个通道的图像,并将的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
将DD的RGB三个通道的图像、的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将的第u个通道的图像中的第k个图像块的奇异值矩阵记为其中,为向下取整符号,
计算DD的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd, 其中,w'表示失真判断值,w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,表示中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
2.根据权利要求1所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤③中C取值为0.3。
3.根据权利要求1或2所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑧中当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu。
5.根据权利要求4所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑧和所述的步骤中取
6.根据权利要求5所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑨中取λ=1.25。
7.根据权利要求6所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤中Wtype的获取过程为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210585736.0A CN103108209B (zh) | 2012-12-28 | 2012-12-28 | 基于视觉阈值与通道融合的立体图像客观质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210585736.0A CN103108209B (zh) | 2012-12-28 | 2012-12-28 | 基于视觉阈值与通道融合的立体图像客观质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103108209A true CN103108209A (zh) | 2013-05-15 |
CN103108209B CN103108209B (zh) | 2015-03-11 |
Family
ID=48315729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210585736.0A Expired - Fee Related CN103108209B (zh) | 2012-12-28 | 2012-12-28 | 基于视觉阈值与通道融合的立体图像客观质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103108209B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617568A (zh) * | 2013-12-06 | 2014-03-05 | 国家电网公司 | 稳态电能质量预警机制中的异常数据判定阈值设定方法 |
CN104853183A (zh) * | 2015-05-22 | 2015-08-19 | 天津大学 | 感知立体图像立体感的客观评价方法 |
CN105719264A (zh) * | 2014-11-30 | 2016-06-29 | 中国科学院沈阳自动化研究所 | 一种基于人眼视觉特性的图像增强评价方法 |
CN108830790A (zh) * | 2018-05-16 | 2018-11-16 | 宁波大学 | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 |
CN112435231A (zh) * | 2020-11-20 | 2021-03-02 | 深圳市慧鲤科技有限公司 | 图像质量标尺生成方法、评测图像质量的方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102209257A (zh) * | 2011-06-17 | 2011-10-05 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN102663747A (zh) * | 2012-03-23 | 2012-09-12 | 宁波大学 | 一种基于视觉感知的立体图像客观质量评价方法 |
CN102708567A (zh) * | 2012-05-11 | 2012-10-03 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102708568A (zh) * | 2012-05-11 | 2012-10-03 | 宁波大学 | 一种基于结构失真的立体图像客观质量评价方法 |
CN102843572A (zh) * | 2012-06-29 | 2012-12-26 | 宁波大学 | 一种基于相位的立体图像质量客观评价方法 |
-
2012
- 2012-12-28 CN CN201210585736.0A patent/CN103108209B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102209257A (zh) * | 2011-06-17 | 2011-10-05 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN102663747A (zh) * | 2012-03-23 | 2012-09-12 | 宁波大学 | 一种基于视觉感知的立体图像客观质量评价方法 |
CN102708567A (zh) * | 2012-05-11 | 2012-10-03 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102708568A (zh) * | 2012-05-11 | 2012-10-03 | 宁波大学 | 一种基于结构失真的立体图像客观质量评价方法 |
CN102843572A (zh) * | 2012-06-29 | 2012-12-26 | 宁波大学 | 一种基于相位的立体图像质量客观评价方法 |
Non-Patent Citations (1)
Title |
---|
张艳等: "视觉关注度的立体图像质量评价", 《中国图象图形学报》, vol. 17, no. 6, 30 June 2012 (2012-06-30) * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617568A (zh) * | 2013-12-06 | 2014-03-05 | 国家电网公司 | 稳态电能质量预警机制中的异常数据判定阈值设定方法 |
CN103617568B (zh) * | 2013-12-06 | 2017-02-15 | 国家电网公司 | 稳态电能质量预警机制中的异常数据判定阈值设定方法 |
CN105719264A (zh) * | 2014-11-30 | 2016-06-29 | 中国科学院沈阳自动化研究所 | 一种基于人眼视觉特性的图像增强评价方法 |
CN105719264B (zh) * | 2014-11-30 | 2018-08-21 | 中国科学院沈阳自动化研究所 | 一种基于人眼视觉特性的图像增强评价方法 |
CN104853183A (zh) * | 2015-05-22 | 2015-08-19 | 天津大学 | 感知立体图像立体感的客观评价方法 |
CN108830790A (zh) * | 2018-05-16 | 2018-11-16 | 宁波大学 | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 |
CN108830790B (zh) * | 2018-05-16 | 2022-09-13 | 宁波大学 | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 |
CN112435231A (zh) * | 2020-11-20 | 2021-03-02 | 深圳市慧鲤科技有限公司 | 图像质量标尺生成方法、评测图像质量的方法及装置 |
CN112435231B (zh) * | 2020-11-20 | 2024-07-16 | 深圳市慧鲤科技有限公司 | 图像质量标尺生成方法、评测图像质量的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103108209B (zh) | 2015-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102333233B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN101872479B (zh) | 一种立体图像客观质量评价方法 | |
CN104954778B (zh) | 一种基于感知特征集的立体图像质量客观评价方法 | |
CN102708567B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
CN104394403B (zh) | 一种面向压缩失真的立体视频质量客观评价方法 | |
CN103108209B (zh) | 基于视觉阈值与通道融合的立体图像客观质量评价方法 | |
CN109255358B (zh) | 一种基于视觉显著性和深度图的3d图像质量评价方法 | |
CN103517065B (zh) | 一种质降参考立体图像质量客观评价方法 | |
CN103136748B (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
CN103413298B (zh) | 一种基于视觉特性的立体图像质量客观评价方法 | |
CN102843572B (zh) | 一种基于相位的立体图像质量客观评价方法 | |
CN109242834A (zh) | 一种基于卷积神经网络的无参考立体图像质量评价方法 | |
CN109523513A (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
Geng et al. | A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property | |
CN104811691A (zh) | 一种基于小波变换的立体视频质量客观评价方法 | |
CN103354617B (zh) | 一种基于dct域的边缘强度压缩的图像质量客观评价方法 | |
CN102903107B (zh) | 一种基于特征融合的立体图像质量客观评价方法 | |
CN108322733B (zh) | 一种无参考高动态范围图像客观质量评价方法 | |
CN103841411B (zh) | 一种基于双目信息处理的立体图像质量评价方法 | |
CN104144339B (zh) | 一种基于人眼感知的质降参考立体图像质量客观评价方法 | |
CN102708568A (zh) | 一种基于结构失真的立体图像客观质量评价方法 | |
CN102737380B (zh) | 一种基于梯度结构张量的立体图像质量客观评价方法 | |
CN103200420B (zh) | 一种基于三维视觉注意力的立体图像质量客观评价方法 | |
CN102999911B (zh) | 一种基于能量图的立体图像质量客观评价方法 | |
CN107492085B (zh) | 基于双树复小波变换的立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150311 Termination date: 20181228 |
|
CF01 | Termination of patent right due to non-payment of annual fee |