CN103108209A - 基于视觉阈值与通道融合的立体图像客观质量评价方法 - Google Patents

基于视觉阈值与通道融合的立体图像客观质量评价方法 Download PDF

Info

Publication number
CN103108209A
CN103108209A CN2012105857360A CN201210585736A CN103108209A CN 103108209 A CN103108209 A CN 103108209A CN 2012105857360 A CN2012105857360 A CN 2012105857360A CN 201210585736 A CN201210585736 A CN 201210585736A CN 103108209 A CN103108209 A CN 103108209A
Authority
CN
China
Prior art keywords
image
org
channel
value
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105857360A
Other languages
English (en)
Other versions
CN103108209B (zh
Inventor
郁梅
孔真真
蒋刚毅
彭宗举
邵枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201210585736.0A priority Critical patent/CN103108209B/zh
Publication of CN103108209A publication Critical patent/CN103108209A/zh
Application granted granted Critical
Publication of CN103108209B publication Critical patent/CN103108209B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其通过对无失真的立体图像和失真的立体图像的左视点图像和右视点图像分通道进行视觉阈值分析和奇异值分解;然后通过对无失真的立体图像和失真的立体图像的左右视点图像的绝对视差图像的差值图像分通道进行视觉阈值分析和奇异值分解,采用线性组合方式得到立体感知评价度量;最后将客观评价尺度度量和立体感知评价度量两者进行线性加权结合,得到立体图像的总体质量评价客观值,不仅有效利用了恰可察觉失真的视觉阈值、视觉掩盖效应以及立体感知等人眼视觉特性,而且在评价左右视点图像质量的基础上,同时评价了立体感知,因此提高了客观质量评价结果与主观感知之间的相关性。

Description

基于视觉阈值与通道融合的立体图像客观质量评价方法
技术领域
本发明涉及一种立体图像质量评价方法,尤其是涉及一种基于视觉阈值与通道融合的立体图像客观质量评价方法。
背景技术
立体图像作为一种能够提供立体感的新型图像,已成为三维立体研究的重要方向,并已受到广泛的关注与应用。与传统的多媒体相比,立体视频能够为大众创造更加直观、真实的场景感受,但其需要处理的数据至少多一倍。因此,立体图像在提高编码压缩效率的同时,还需要保证立体图像的主观感知。由于立体图像质量的主观评价方法不仅容易受到客观条件、主观情绪和观察者自身条件等各种因素的影响,而且复杂费时,评测结果因人而异,评价结果极不稳定。因此,建立与主观感知相一致的立体图像客观质量评价模型显得十分重要。目前,很多研究者将平面图像质量评价方法直接用于立体图像的评价,如基于奇异值分解的质量评价和基于结构相似度的评价等,这些方法评价平面图像质量效果比较好,但是评价立体图像的效果却不很理想,这是因为它们没有考虑人眼视觉特性因素以及立体图像特有的深度感知特性,从而导致最终的客观评价与人眼主观评价不是很吻合。
发明内容
本发明所要解决的技术问题是提供一种能够有效提高立体图像客观评价结果与主观感知之间的相关性的基于视觉阈值与通道融合的立体图像客观质量评价方法。
本发明解决上述技术问题所采用的技术方案为:一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=|Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号;
③获取Lorg的视觉阈值图,记为将Lorg的视觉阈值图
Figure BDA00002671693600022
中坐标位置为(i,j)的像素点的视觉阈值记为
Figure BDA00002671693600023
JND org l ( i , j ) = T l ( i , j ) + T t ( i , j ) - C × min { T l ( i , j ) , T t ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure BDA00002671693600025
表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure BDA00002671693600027
I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), α ( i , j ) = 0.0001 × I ( i , j ) ‾ + 0.115 , β ( i , j ) = 0.5 - 0.01 × I ( i , j ) ‾ , G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
获取Rorg的视觉阈值图,记为将Rorg的视觉阈值图
Figure BDA000026716936000211
中坐标位置为(i,j)的像素点的视觉阈值记为
Figure BDA000026716936000212
JND org r ( i , j ) = T r ( i , j ) + T t ′ ( i , j ) - C × min { T r ( i , j ) , T t ′ ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure BDA00002671693600031
Figure BDA00002671693600032
表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure BDA00002671693600033
I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt'(i,j)=α'(i,j)×G'(i,j)+β'(i,j), α ′ ( i , j ) = 0.0001 × I ′ ( i , j ) ‾ + 0.115 , β ′ ( i , j ) = 0.5 - 0.01 × I ′ ( i , j ) ‾ , G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图分成RGB三个通道的图像,并将Lorg的视觉阈值图
Figure BDA00002671693600037
的第u个通道的图像记为
Figure BDA00002671693600038
将Rorg的视觉阈值图
Figure BDA00002671693600039
分成RGB三个通道的图像,并将Rorg的视觉阈值图
Figure BDA000026716936000310
的第u个通道的图像记为其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure BDA000026716936000312
的RGB三个通道的图像、
Figure BDA000026716936000313
的RGB三个通道的图像分别分割成
Figure BDA000026716936000314
个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure BDA000026716936000315
的RGB三个通道的图像、的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将
Figure BDA000026716936000317
的第u个通道的图像中的第k个图像块的奇异值矩阵记为
Figure BDA000026716936000319
Figure BDA000026716936000320
的第u个通道的图像
Figure BDA000026716936000321
中的第k个图像块的奇异值矩阵记为
Figure BDA00002671693600041
其中,
Figure BDA00002671693600042
为向下取整符号,
Figure BDA00002671693600043
⑥计算Dl的每个通道的图像中的每个图像块与
Figure BDA00002671693600044
的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与
Figure BDA00002671693600045
的第u个通道的图像
Figure BDA00002671693600046
中的第k个图像块之间的奇异值距离记为 d u , k l = Σ x = 1 8 Σ y = 1 8 ( w × ( S l _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u
Figure BDA00002671693600049
其中,w表示失真判断值,
Figure BDA000026716936000410
w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936000411
表示
Figure BDA000026716936000412
中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936000413
“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与
Figure BDA000026716936000414
的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑦计算Dr的每个通道的图像中的每个图像块与的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与
Figure BDA000026716936000416
的第u个通道的图像
Figure BDA000026716936000417
中的第k个图像块之间的奇异值距离记为
Figure BDA000026716936000418
d u , k r = Σ x = 1 8 Σ y = 1 8 ( w × ( S l _ u _ k ( x , y ) - S org _ u _ k r ( x , y ) ) ) 2 , 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u
Figure BDA000026716936000420
其中,w表示失真判断值,
Figure BDA000026716936000421
w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936000422
表示
Figure BDA000026716936000423
中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与
Figure BDA00002671693600052
的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs
Figure BDA00002671693600053
其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1;
⑨获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为
Figure BDA00002671693600054
将Lorg的全局双目恰可觉察失真阈值图
Figure BDA00002671693600055
中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值记为
Figure BDA00002671693600056
BJND org l ( i , j ) = T C , lim ( i , j ′ ) × ( 1 - ( n r ( i , j ′ ) T C , lim ( i , j ′ ) ) λ ) 1 / λ , 其中,j′=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j′)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j′)=TC(bgorg(i,j′))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j'))表示右视点图像在给定bgorg(i,j′)的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j'))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将
Figure BDA00002671693600061
分成RGB三个通道的图像,并将
Figure BDA00002671693600062
的第u个通道的图像记为
Figure BDA00002671693600063
其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
Figure BDA00002671693600064
将DD的RGB三个通道的图像、
Figure BDA00002671693600065
的RGB三个通道的图像分别分割成
Figure BDA00002671693600066
个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、
Figure BDA00002671693600067
的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将
Figure BDA00002671693600068
的第u个通道的图像
Figure BDA00002671693600069
中的第k个图像块的奇异值矩阵记为
Figure BDA000026716936000610
其中,
Figure BDA000026716936000611
为向下取整符号,
Figure BDA000026716936000612
Figure BDA000026716936000613
计算DD的每个通道的图像中的每个图像块与
Figure BDA000026716936000614
的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与
Figure BDA000026716936000615
的第u个通道的图像中的第k个图像块之间的奇异值距离记为 d u , k DD = Σ x = 1 8 Σ y = 1 8 ( w ′ × ( S DD _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd Q d = Σ u = 1 3 b u × ( 1 K Σ k = 1 K | d u , k DD - D median _ DD , u | ) , 其中,w'表示失真判断值,
Figure BDA000026716936000620
w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,表示
Figure BDA000026716936000622
中坐标位置为(x,y)处的奇异值,
Figure BDA00002671693600071
“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与
Figure BDA00002671693600072
的第u个通道的图像
Figure BDA00002671693600073
中的所有图像块对应图像块之间的奇异值距离的中值;
Figure BDA00002671693600074
根据Sdis相对于Sorg的客观评价尺度度量Qs和Sdis相对于Sorg的立体感知评价度量Qd,计算Sdis的总体质量评价客观值,记为Q,Q=Wtype×Qs+(1-Wtype)×Qd,其中,Wtype表示在同一种失真类型下Qs的权重值。
所述的步骤③中C取值为0.3。
所述的步骤⑧中当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
所述的步骤⑧和所述的步骤
Figure BDA00002671693600075
中bu的获取过程为:
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu
所述的步骤⑧和所述的步骤
Figure BDA00002671693600081
中取 b u = 0.54 u = 1 0.38 u = 2 0.08 u = 3 .
所述的步骤⑨中取λ=1.25。
所述的步骤
Figure BDA00002671693600083
中Wtype的获取过程为:
Figure BDA00002671693600084
采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
Figure BDA00002671693600085
采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
Figure BDA00002671693600086
根据步骤①至步骤的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量Qs和每幅失真的立体图像相对于对应的无失真的立体图像的立体感知评价度量Qd,得到该种失真类型下Qs的权重值Wtype
所述的步骤
Figure BDA00002671693600088
中当失真类型为高斯模糊失真时,取Wtype=0.82;当失真类型为JPEG压缩时,取Wtype=0.52;当失真类型为JPEG2000压缩时,取Wtype=0.78;当失真类型为白噪声失真时,取Wtype=0.70;当失真类型为H.264编码失真时,取Wtype=0.80。
与现有技术相比,本发明的优点在于:通过分别对无失真的立体图像和失真的立体图像的左视点图像和右视点图像分通道进行视觉阈值分析和奇异值分解,各通道的权重系数由大量的统计实验得到;然后,通过对无失真的立体图像和失真的立体图像的左右视点图像的绝对视差图像的差值图像分通道进行视觉阈值分析和奇异值分解,采用线性组合的方式得到立体感知评价度量;最后将客观评价尺度度量和立体感知评价度量两者进行线性加权结合,得到总体质量评价客观值,不仅有效利用了恰可察觉失真的视觉阈值、视觉掩盖效应以及立体感知等人眼视觉特性,而且在评价左视点图像和右视点图像质量的基础上,同时评价立体感知,因此提高了立体图像客观质量评价结果与主观感知之间的相关性。
附图说明
图1a为Akko & Kayo(640×480)立体图像;
图1b为Alt Moabit(1024×768)立体图像;
图1c为Balloons(1024×768)立体图像;
图1d为Door Flowers(1024×768)立体图像;
图1e为Kendo(1024×768)立体图像;
图1f为Leaving Laptop(1024×768)立体图像;
图1g为Lovebird1(1024×768)立体图像;
图1h为Newspaper(1024×768)立体图像;
图1i为Xmas(640×480)立体图像;
图1j为Puppy(720×480)立体图像;
图1k为Soccer2(720×480)立体图像;
图1l为Horse(480×270)立体图像;
图2a为低通滤波器的算子模板的示意图;
图2b为高通滤波器的水平方向的算子模板的示意图;
图2c为高通滤波器的垂直方向的算子模板的示意图;
图2d为高通滤波器的45°方向的算子模板的示意图;
图2e为高通滤波器的135°方向的算子模板的示意图;
图3a为边缘垂直算子模板的示意图;
图3b为边缘水平算子模板的示意图;
图4a为高斯模糊失真图像与评价指标CC的拟合曲线;
图4b为jpeg压缩失真图像与评价指标CC的拟合曲线;
图4c为jpeg2000压缩失真图像与评价指标CC的拟合曲线;
图4d为高斯白噪声失真图像与评价指标CC的拟合曲线;
图4e为H.264编码失真图像与评价指标CC的拟合曲线。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其分别评价了左右视点图像质量以及立体图像的立体感知效果,并将这两部分评价的结果进行线性结合,得到对立体图像质量的最终评价结果。本发明方法具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号。
③获取Lorg的视觉阈值图,记为
Figure BDA00002671693600101
将Lorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值(即人眼能够容忍的失真临界值,该值越大,则人眼能够容忍的失真程度就越大)记为
Figure BDA00002671693600103
JND org l ( i , j ) = T l ( i , j ) + T t ( i , j ) - C × min { T l ( i , j ) , T t ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure BDA00002671693600105
Figure BDA00002671693600106
表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure BDA00002671693600107
I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器(如图2a所示)中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), α ( i , j ) = 0.0001 × I ( i , j ) ‾ + 0.115 , β ( i , j ) = 0 . 5 - 0.01 × I ( i , j ) ‾ , G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器(分别如图2b、图2c、图2d和图2e所示)滤波后得到的四个值中的最大值,即利用水平方向、垂直方向、45°方向和135°方向4个不同方向的高通滤波器对Lorg中坐标位置为(i,j)的像素点进行滤波处理,再从滤波后得到的四个值中取其中的最大值赋值给G(i,j),C为加权系数,min()为取最小值函数。
获取Rorg的视觉阈值图,记为
Figure BDA00002671693600111
将Rorg的视觉阈值图中坐标位置为(i,j)的像素点的视觉阈值(即人眼能够容忍的失真临界值,该值越大,则人眼能够容忍的失真程度就越大)记为
Figure BDA00002671693600113
JND org r ( i , j ) = T r ( i , j ) + T t ′ ( i , j ) - C × min { T r ( i , j ) , T t ′ ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure BDA00002671693600115
Figure BDA00002671693600116
表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure BDA00002671693600117
I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt′(i,j)=α'(i,j)×G'(i,j)+β'(i,j), α ′ ( i , j ) = 0.0001 × I ′ ( i , j ) ‾ + 0.115 , β ′ ( i , j ) = 0.5 - 0.01 × I ′ ( i , j ) ‾ , G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数。
在此,由于考虑到亮度掩蔽效应和纹理掩蔽效应的重叠,因此C取值为0.3。
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图
Figure BDA000026716936001110
分成RGB三个通道的图像,并将Lorg的视觉阈值图
Figure BDA000026716936001111
的第u个通道的图像记为将Rorg的视觉阈值图
Figure BDA000026716936001113
分成RGB三个通道的图像,并将Rorg的视觉阈值图
Figure BDA000026716936001114
的第u个通道的图像记为
Figure BDA000026716936001115
其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道。
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure BDA000026716936001116
的RGB三个通道的图像、
Figure BDA00002671693600121
的RGB三个通道的图像分别分割成
Figure BDA00002671693600122
个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure BDA00002671693600123
的RGB三个通道的图像、
Figure BDA00002671693600124
的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将
Figure BDA00002671693600125
的第u个通道的图像
Figure BDA00002671693600126
中的第k个图像块的奇异值矩阵记为
Figure BDA00002671693600127
的第u个通道的图像
Figure BDA00002671693600129
中的第k个图像块的奇异值矩阵记为
Figure BDA000026716936001210
其中,为向下取整符号,
Figure BDA000026716936001212
⑥计算Dl的每个通道的图像中的每个图像块与
Figure BDA000026716936001213
的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与
Figure BDA000026716936001214
的第u个通道的图像
Figure BDA000026716936001215
中的第k个图像块之间的奇异值距离记为
Figure BDA000026716936001216
d u , k l = Σ x = 1 8 Σ y = 1 8 ( w × ( S l _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u
Figure BDA000026716936001218
其中,w表示失真判断值,
Figure BDA000026716936001219
w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936001220
表示
Figure BDA000026716936001221
中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936001222
“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与
Figure BDA000026716936001223
的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值。
⑦计算Dr的每个通道的图像中的每个图像块与
Figure BDA000026716936001224
的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与
Figure BDA000026716936001225
的第u个通道的图像
Figure BDA000026716936001226
中的第k个图像块之间的奇异值距离记为
Figure BDA000026716936001227
d u , k r = Σ x = 1 8 Σ y = 1 8 ( w × ( S r _ u _ k ( x , y ) - S org _ u _ k r ( x , y ) ) ) 2 , 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u
Figure BDA00002671693600132
其中,w表示失真判断值,
Figure BDA00002671693600133
w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,
Figure BDA00002671693600134
表示
Figure BDA00002671693600135
中坐标位置为(x,y)处的奇异值,
Figure BDA00002671693600136
“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与
Figure BDA00002671693600137
的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值。
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1。在此,通过左右视点质量的线性加权能够较好地评价立体图像内容的质量。
在此,wl和wr的取值与失真类型有关,当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
⑨利用现有技术(图3a和图3b所示的垂直和水平算子模板)获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg,其中,bgorg和ehorg的分辨率为W×H;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为
Figure BDA00002671693600141
将Lorg的全局双目恰可觉察失真阈值图中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值(即人眼能够容忍的最大视差失真)记为
Figure BDA00002671693600143
BJND org l ( i , j ) = T C , lim ( i , j ′ ) × ( 1 - ( n r ( i , j ′ ) T C , lim ( i , j ′ ) ) λ ) 1 / λ , 其中,j'=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j')的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j')=TC(bgorg(i,j'))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j′))表示右视点图像在给定bgorg(i,j')的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j′))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数,在本实施例中,λ的值设为1.25。
在此,也可以通过计算Lorg的背景亮度图像和边缘强度图像,再以Lorg为参考图像,来获取Rorg的全局双目恰可觉察失真阈值图。
在本实施例中,d(i,j)是通过视差匹配软件match-v3.3获得的,在具体获取过程中可将视差搜索范围设置为(-31,31),并以右视点图像为参考图像,获取左视点图像的水平视差值。
在本实施例中,对图1a至图1l所示的12幅无失真的立体图像,利用如图3a和图3b所示的垂直和水平算子模板,计算这12幅原始的立体图像的右视点图像中的每个像素点的背景亮度值和边缘强度值,进而计算左视点图像加入的能够引起双目感知失真的最大随机噪声幅度。
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将
Figure BDA00002671693600151
分成RGB三个通道的图像,并将
Figure BDA00002671693600152
的第u个通道的图像记为
Figure BDA00002671693600153
其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道。
Figure BDA00002671693600154
将DD的RGB三个通道的图像、
Figure BDA00002671693600155
的RGB三个通道的图像分别分割成
Figure BDA00002671693600156
个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、
Figure BDA00002671693600157
的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将
Figure BDA00002671693600158
的第u个通道的图像
Figure BDA00002671693600159
中的第k个图像块的奇异值矩阵记
Figure BDA000026716936001510
其中,
Figure BDA000026716936001511
为向下取整符号,
Figure BDA000026716936001512
Figure BDA000026716936001513
计算DD的每个通道的图像中的每个图像块与
Figure BDA000026716936001514
的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与的第u个通道的图像中的第k个图像块之间的奇异值距离记为 d u , k DD = Σ x = 1 8 Σ y = 1 8 ( w ′ × ( S DD _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd Q d = Σ u = 1 3 b u × ( 1 K Σ k = 1 K | d u , k DD - D median _ DD , u | ) , 其中,w'表示失真判断值,
Figure BDA000026716936001520
w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936001521
表示
Figure BDA000026716936001522
中坐标位置为(x,y)处的奇异值,
Figure BDA000026716936001523
“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与
Figure BDA00002671693600161
的第u个通道的图像
Figure BDA00002671693600162
中的所有图像块对应图像块之间的奇异值距离的中值。
Figure BDA00002671693600163
根据Sdis相对于Sorg的客观评价尺度度量Qs和Sdis相对于Sorg的立体感知评价度量Qd,计算Sdis的总体质量评价客观值,记为Q,Q=Wtype×Qs+(1-Wtype)×Qd,其中,Wtype表示在同一种失真类型下Qs的权重值。
在本实施例中,Wtype的获取过程为:
Figure BDA00002671693600164
采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像。
Figure BDA00002671693600165
采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100]。
Figure BDA00002671693600166
根据步骤①至步骤
Figure BDA00002671693600167
的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量Qs和每幅失真的立体图像相对于对应的无失真的立体图像的立体感知评价度量Qd,得到该种失真类型下Qs的权重值Wtype。在此,针对不同类型失真的立体图像,本发明做了大量的优化实验,取质量客观评价值最好时的权重值Wtype,具体实验如下:利用图1a至图1l所示的12幅无失真的立体图像建立了312幅失真的立体图像,对上述312幅失真的立体图像和12幅无失真的立体图像按本发明方法的步骤①至步骤
Figure BDA00002671693600168
相同的操作计算得到每幅失真的立体图像相应的Qd和Qs;然后采用线性加权得到这312幅失真的立体图像的DMOS与Qd和Qs的函数关系式。图4a给出了高斯模糊失真图像与评价指标CC的拟合曲线,图4b给出了JPEG压缩图像与评价指标CC的拟合曲线,图4c给出了JPEG2000压缩图像与评价指标CC的拟合曲线,图4d给出了高斯白噪声失真图像与评价指标CC的拟合曲线,图4e给出了H.264编码失真图像与评价指标CC的拟合曲线,图4a至图4e中横坐标表示不同类型失真立体图像的Wtype,纵坐标表示CC值,Wtype值的大小决定Qd和Qs对立体图像最终的评价值Q的贡献大小。Wtype代表不同失真类型下Qs的权重值,由于人眼对不同的失真敏感度也有所不同,对不同的失真程度也不同,根据这个特性,本发明统计大量的参数,进行重复性的实验,当Q与主观感知之间的一致性最好时,取得不同失真类型的Wtype值,即当失真类型为高斯模糊失真时,取Wtype=0.82;当失真类型为JPEG压缩时,取Wtype=0.52;当失真类型为JPEG2000压缩时,取Wtype=0.78;当失真类型为白噪声失真时,取Wtype=0.70;当失真类型为H.264编码失真时,取Wtype=0.80。
在此具体实施例中,步骤⑧和步骤
Figure BDA00002671693600171
中bu的获取过程如下:
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像。
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100]。
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu
实际上,不同通道的权重值bu的取值由人眼对红、绿、蓝不同颜色的敏感度决定的,人眼对红光敏感的锥状体占65%,对绿光敏感的锥状体占33%,而对蓝光敏感的锥状体只占2%。因此在此针对不同类型失真的立体图像对,做了大量的优化实验,取质量客观评价(CC)最好时的权重取值。具体实验如下:利用图1a、图1b、图1c、图1d、图1e、图1f、图1g、图1h、图1i、图1j、图1k和图1l所示的12幅无失真的立体图像建立了不同失真类型不同失真程度的失真立体图像集,失真类型包括JPEG压缩、JPEG2000压缩、白噪声失真、高斯模糊失真、H.264编码失真,该失真立体图像集共包括312幅失真的立体图像,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,白噪声失真的立体图像共60幅,高斯模糊失真的立体图像共60幅,H.264编码失真的立体图像共72幅。对上述312幅失真的立体图像采用公知的主观质量评价方法进行主观质量评价,得到这312幅失真的立体图像各自的平均主观评分差值(DMOS,Difference Mean Opinion Scores),即每幅失真的立体图像的主观质量评分值。DMOS为主观评分均值(MOS)和满分(100)的差值,即DMOS=100-MOS。因此,DMOS值越大表示失真的立体图像的质量越差,DMOS值越小表示失真的立体图像的质量越好,且DMOS的取值范围为[0,100];另一方面,对上述312幅失真的立体图像按本发明方法的步骤①至步骤⑦实施分通道和视觉阈值分析计算奇异值距离得到Ql,u和Qr,u;这里,利用评估图像质量评价方法常用的一个客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Correlation Coefficient,CC),该参数反映失真的立体图像评价函数这一客观模型的精确性,CC值越大,说明评价性能越好,反之亦然;然后采用线性拟合方法拟合这312幅失真的立体图像的DMOS与Ql,u和Qr,u,取CC值最大时的bu值,即 b u = 0.54 u = 1 0.38 u = 2 0.08 u = 3 .
为说明本发明方法的有效性和可行性,分析本发明方法的客观评价结果与主观评分DMOS之间的相关性。在此,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的CC、Spearman相关系数(Spearman Rank-Order CorrelationCoefficient,ROCC)和RMSE,CC反映所建客观模型预测的精确性,SROCC反映客观模型预测的单调性,RMSE反映立体图像客观评价模型的预测准确性。将按本实施例计算得到的失真的立体图像的总体质量评价客观值Q做四参数Logistic函数非线性拟合,CC和SROCC值越接近1说明客观评价方法与DMOS相关性越好,RMSE值越低说明客观评价方法与DMOS相关性越好。反映准确性和单调性的CC、SROCC和RMSE系数如表1所示,根据表1所列的数据可见,本发明方法的整体混合失真CC值和SROCC值都能达到0.94之上,均方根误差RMSE低于5.9,按本实施例得到的失真的立体图像的总体质量评价客观值Q与主观评分DMOS之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,说明了本发明方法的有效性。
表1失真的立体图像的总体质量评价客观值与主观评分之间的相关性
Figure BDA00002671693600182

Claims (8)

1.一种基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为失真的立体图像,将原始的无失真的立体图像Sorg的左视点图像记为Lorg,将原始的无失真的立体图像Sorg的右视点图像记为Rorg,将失真的立体图像Sdis的左视点图像记为Ldis,将失真的立体图像Sdis的右视点图像记为Rdis
②计算Lorg与Ldis的差值图,记为Dl,Dl=|Lorg-Ldis|,并计算Rorg与Rdis的差值图,记为Dr,Dr=|Rorg-Rdis|,然后计算Lorg与Rorg的差值图,记为Dorg,Dorg=Lorg-Rorg|,并计算Ldis与Rdis的差值图,记为Ddis,Ddis=|Ldis-Rdis|,再计算Dorg与Ddis的差值图,记为DD,DD=|Dorg-Ddis|,其中,“||”为取绝对值符号;
③获取Lorg的视觉阈值图,记为
Figure FDA00002671693500011
将Lorg的视觉阈值图
Figure FDA00002671693500012
中坐标位置为(i,j)的像素点的视觉阈值记为
Figure FDA00002671693500013
JND org l ( i , j ) = T l ( i , j ) + T t ( i , j ) - C × min { T l ( i , j ) , T t ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tl(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure FDA00002671693500015
Figure FDA00002671693500016
表示Lorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure FDA00002671693500017
I(i,j)表示Lorg中坐标位置为(i,j)的像素点的亮度值,I(i-3+m,j-3+n)表示Lorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt(i,j)表示Lorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt(i,j)=α(i,j)×G(i,j)+β(i,j), α ( i , j ) = 0.0001 × I ( i , j ) ‾ + 0.115 , β ( i , j ) = 0.5 - 0.01 × I ( i , j ) ‾ , G(i,j)表示Lorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
获取Rorg的视觉阈值图,记为
Figure FDA00002671693500021
将Rorg的视觉阈值图
Figure FDA00002671693500022
中坐标位置为(i,j)的像素点的视觉阈值记为
Figure FDA00002671693500023
JND org r ( i , j ) = T r ( i , j ) + T t ′ ( i , j ) - C × min { T r ( i , j ) , T t ′ ( i , j ) } , 其中,1≤i≤W,1≤j≤H,W表示立体图像的宽度,H表示立体图像的高度,Tr(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的亮度阈值,
Figure FDA00002671693500025
Figure FDA00002671693500026
表示Rorg中坐标位置为(i,j)的像素点的亮度值的均值,
Figure FDA00002671693500027
I'(i,j)表示Rorg中坐标位置为(i,j)的像素点的亮度值,I'(i-3+m,j-3+n)表示Rorg中坐标位置为(i-3+m,j-3+n)的像素点的亮度值,B(m,n)表示5×5的低通滤波器中坐标位置为(m,n)处的值,Tt′(i,j)表示Rorg中坐标位置为(i,j)的像素点对应的纹理阈值,Tt′(i,j)=α'(i,j)×G'(i,j)+β'(i,j), α ′ ( i , j ) = 0.0001 × I ′ ( i , j ) ‾ + 0.115 , β ′ ( i , j ) = 0.5 - 0.01 × I ′ ( i , j ) ‾ , G'(i,j)表示Rorg中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④将Lorg与Ldis的差值图Dl分成RGB三个通道的图像,并将Lorg与Ldis的差值图Dl的第u个通道的图像记为Dl_u;将Rorg与Rdis的差值图Dr分成RGB三个通道的图像,并将Rorg与Rdis的差值图Dr的第u个通道的图像记为Dr_u;将Lorg的视觉阈值图
Figure FDA000026716935000210
分成RGB三个通道的图像,并将Lorg的视觉阈值图
Figure FDA000026716935000211
的第u个通道的图像记为
Figure FDA000026716935000212
将Rorg的视觉阈值图
Figure FDA000026716935000213
分成RGB三个通道的图像,并将Rorg的视觉阈值图
Figure FDA000026716935000218
的第u个通道的图像记为
Figure FDA000026716935000214
其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
⑤将Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure FDA000026716935000215
的RGB三个通道的图像、
Figure FDA000026716935000216
的RGB三个通道的图像分别分割成个互不重叠的尺寸大小为8×8的图像块,然后对Dl的RGB三个通道的图像、Dr的RGB三个通道的图像、
Figure FDA00002671693500031
的RGB三个通道的图像、
Figure FDA00002671693500032
的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将Dl的第u个通道的图像Dl_u中的第k个图像块的奇异值矩阵记为Sl_u_k,将Dr的第u个通道的图像Dr_u中的第k个图像块的奇异值矩阵记为Sr_u_k,将
Figure FDA00002671693500033
的第u个通道的图像
Figure FDA00002671693500034
中的第k个图像块的奇异值矩阵记为
Figure FDA00002671693500035
Figure FDA00002671693500036
的第u个通道的图像
Figure FDA00002671693500037
中的第k个图像块的奇异值矩阵记为其中,
Figure FDA00002671693500039
为向下取整符号,
Figure FDA000026716935000310
⑥计算Dl的每个通道的图像中的每个图像块与
Figure FDA000026716935000311
的对应通道的图像中的对应图像块之间的奇异值距离,将Dl的第u个通道的图像Dl_u中的第k个图像块与
Figure FDA000026716935000312
的第u个通道的图像中的第k个图像块之间的奇异值距离记为
Figure FDA000026716935000314
d u , k l = Σ x = 1 8 Σ y = 1 8 ( w × ( S l _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Ldis的每个通道的全局失真程度值,将Ldis的第u个通道的全局失真程度值记为Ql,u
Figure FDA000026716935000316
其中,w表示失真判断值,
Figure FDA000026716935000317
w=1时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dl的第u个通道的图像Dl_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sl_u_k(x,y)表示Sl_u_k中坐标位置为(x,y)处的奇异值,表示
Figure FDA000026716935000319
中坐标位置为(x,y)处的奇异值,
Figure FDA000026716935000320
“||”为取绝对值符号,Dmedian_l,u表示Dl的第u个通道的图像中的所有图像块与的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑦计算Dr的每个通道的图像中的每个图像块与
Figure FDA000026716935000322
的对应通道的图像中的对应图像块之间的奇异值距离,将Dr的第u个通道的图像Dr_u中的第k个图像块与
Figure FDA000026716935000323
的第u个通道的图像
Figure FDA000026716935000324
中的第k个图像块之间的奇异值距离记为
Figure FDA000026716935000325
d u , k r = Σ x = 1 8 Σ y = 1 8 ( w × ( S r _ u _ k ( x , y ) - S org _ u _ k r ( x , y ) ) ) 2 , 然后计算Rdis的每个通道的全局失真程度值,将Rdis的第u个通道的全局失真程度值记为Qr,u
Figure FDA00002671693500041
其中,w表示失真判断值,
Figure FDA00002671693500042
w=1时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点失真,w=0时表示Dr的第u个通道的图像Dr_u中的第k个图像块中坐标位置为(x,y)的像素点不失真,Sr_u_k(x,y)表示Sr_u_k中坐标位置为(x,y)处的奇异值,
Figure FDA00002671693500043
表示
Figure FDA00002671693500044
中坐标位置为(x,y)处的奇异值,
Figure FDA00002671693500045
“||”为取绝对值符号,Dmedian_r,u表示Dr的第u个通道的图像中的所有图像块与
Figure FDA00002671693500046
的第u个通道的图像中的所有图像块对应图像块之间的奇异值距离的中值;
⑧根据Ldis的每个通道的全局失真程度值和Rdis的每个通道的全局失真程度值,计算Sdis相对于Sorg的客观评价尺度度量,记为Qs
Figure FDA00002671693500047
其中,bu表示第u个通道的权重值,wl表示在一种失真类型下左视点图像质量在立体图像质量中所占的权重,wr表示在同一种失真类型下右视点图像质量在立体图像质量中所占的权重,wl+wr=1;
⑨获取Rorg的背景亮度图像和边缘强度图像,分别记为bgorg和ehorg;然后根据Rorg的背景亮度图像bgorg和边缘强度图像ehorg,以Rorg为参考图像,获取Lorg的全局双目恰可觉察失真阈值图,记为
Figure FDA00002671693500048
将Lorg的全局双目恰可觉察失真阈值图中坐标位置为(i,j)的像素点的全局双目恰可觉察失真阈值记为 BJND org l ( i , j ) = T C , lim ( i , j ′ ) × ( 1 - ( n r ( i , j ′ ) T C , lim ( i , j ′ ) ) λ ) 1 / λ , 其中,j'=j+d(i,j),d(i,j)表示Lorg中坐标位置为(i,j)的像素点相对于Rorg中坐标位置为(i,j)的像素点的水平视差值,Lorg中坐标位置为(i,j')的像素点为通过坐标位置为(i,j)的像素点在水平方向上向右移动d(i,j)个像素点获得,TC,lim(i,j')表示Lorg中坐标位置为(i,j′)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(i,j′)=TC(bgorg(i,j′))+K(bgorg(i,j′))×ehorg(i,j′),TC(bgorg(i,j'))表示右视点图像在给定bgorg(i,j′)的情况下引发感知差异的最小噪声幅值,K(bgorg(i,j'))表示依据主观实验结果建立的增大因子拟合函数,K(bgorg(i,j'))=-10(-6)×(0.7×bgorg(i,j')2+32×bgorg(i,j′))+0.07,bgorg(i,j′)表示bgorg中坐标位置为(i,j')的像素点的像素值,ehorg(i,j')表示ehorg中坐标位置为(i,j′)的像素点的像素值,nr(i,j')表示Rorg中坐标位置为(i,j′)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑩将DD分成RGB三个通道的图像,并将DD的第u个通道的图像记为DDu;将
Figure FDA00002671693500051
分成RGB三个通道的图像,并将
Figure FDA00002671693500052
的第u个通道的图像记为
Figure FDA00002671693500053
其中,u=1,2,3,u=1表示R通道,u=2表示G通道,u=3表示B通道;
将DD的RGB三个通道的图像、
Figure FDA00002671693500055
的RGB三个通道的图像分别分割成
Figure FDA00002671693500056
个互不重叠的尺寸大小为8×8的图像块,然后对DD的RGB三个通道的图像、
Figure FDA00002671693500057
的RGB三个通道的图像中的每个图像块进行奇异值分解,得到每个图像块各自对应的奇异值矩阵,将DD的第u个通道的图像DDu中的第k个图像块的奇异值矩阵记为SDD_u_k,将
Figure FDA00002671693500058
的第u个通道的图像
Figure FDA00002671693500059
中的第k个图像块的奇异值矩阵记为其中,
Figure FDA000026716935000511
为向下取整符号,
Figure FDA000026716935000512
Figure FDA000026716935000513
计算DD的每个通道的图像中的每个图像块与
Figure FDA000026716935000514
的对应通道的图像中的对应图像块之间的奇异值距离,将DD的第u个通道的图像DDu中的第k个图像块与
Figure FDA000026716935000515
的第u个通道的图像
Figure FDA000026716935000516
中的第k个图像块之间的奇异值距离记为
Figure FDA000026716935000517
d u , k DD = Σ x = 1 8 Σ y = 1 8 ( w ′ × ( S DD _ u _ k ( x , y ) - S org _ u _ k l ( x , y ) ) ) 2 , 然后计算Sdis相对于Sorg的立体感知评价度量,记为Qd Q d = Σ u = 1 3 b u × ( 1 K Σ k = 1 K | d u , k DD - D median _ DD , u | ) , 其中,w'表示失真判断值,
Figure FDA00002671693500061
w'=1时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点失真,w'=0时表示DD的第u个通道的图像DDu中的第k个图像块中坐标位置为(x,y)的像素点不失真,SDD_u_k(x,y)表示SDD_u_k中坐标位置为(x,y)处的奇异值,
Figure FDA00002671693500062
表示
Figure FDA00002671693500063
中坐标位置为(x,y)处的奇异值,“||”为取绝对值符号,bu表示第u个通道的权重值,Dmedian_DD,u表示DD的第u个通道的图像DDu中的所有图像块与
Figure FDA00002671693500065
的第u个通道的图像
Figure FDA00002671693500066
中的所有图像块对应图像块之间的奇异值距离的中值;
Figure FDA00002671693500067
根据Sdis相对于Sorg的客观评价尺度度量Qs和Sdis相对于Sorg的立体感知评价度量Qd,计算Sdis的总体质量评价客观值,记为Q,Q=Wtype×Qs+(1-Wtype)×Qd,其中,Wtype表示在同一种失真类型下Qs的权重值。
2.根据权利要求1所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤③中C取值为0.3。
3.根据权利要求1或2所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑧中当失真类型为高斯模糊失真时,取wl=0.10,wr=0.90;当失真类型为JPEG压缩时,取wl=0.50,wr=0.50;当失真类型为JPEG2000压缩时,取wl=0.15,wr=0.85;当失真类型为白噪声失真时,取wl=0.20,wr=0.80;当失真类型为H.264编码失真时,取wl=0.10,wr=0.90。
4.根据权利要求3所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑧和所述的步骤
Figure FDA00002671693500068
中bu的获取过程为:
A、采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
B、采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
C、根据步骤①至步骤⑦的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像的左视点图像的第u个通道的全局失真程度值Ql,u和右视点图像的第u个通道的全局失真程度值Qr,u,得到每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量最佳时第u个通道的权重值bu
5.根据权利要求4所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑧和所述的步骤中取 b u = 0.54 u = 1 0.38 u = 2 0.08 u = 3 .
6.根据权利要求5所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤⑨中取λ=1.25。
7.根据权利要求6所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤中Wtype的获取过程为:
Figure FDA00002671693500074
采用多幅无失真的立体图像建立其在不同失真类型不同失真程度下的失真立体图像集,该失真立体图像集包括多幅失真的立体图像;
Figure FDA00002671693500075
采用主观质量评价方法,获取该失真立体图像集中的每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
Figure FDA00002671693500076
根据步骤①至步骤
Figure FDA00002671693500077
的操作过程,采用线性加权的拟合方法拟合该失真立体图像集中的每幅失真的立体图像的平均主观评分差值DMOS及每幅失真的立体图像相对于对应的无失真的立体图像的客观评价尺度度量Qs和每幅失真的立体图像相对于对应的无失真的立体图像的立体感知评价度量Qd,得到该种失真类型下Qs的权重值Wtype
8.根据权利要求7所述的基于视觉阈值与通道融合的立体图像客观质量评价方法,其特征在于所述的步骤
Figure FDA00002671693500078
中当失真类型为高斯模糊失真时,取Wtype=0.82;当失真类型为JPEG压缩时,取Wtype=0.52;当失真类型为JPEG2000压缩时,取Wtype=0.78;当失真类型为白噪声失真时,取Wtype=0.70;当失真类型为H.264编码失真时,取Wtype=0.80。
CN201210585736.0A 2012-12-28 2012-12-28 基于视觉阈值与通道融合的立体图像客观质量评价方法 Expired - Fee Related CN103108209B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210585736.0A CN103108209B (zh) 2012-12-28 2012-12-28 基于视觉阈值与通道融合的立体图像客观质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210585736.0A CN103108209B (zh) 2012-12-28 2012-12-28 基于视觉阈值与通道融合的立体图像客观质量评价方法

Publications (2)

Publication Number Publication Date
CN103108209A true CN103108209A (zh) 2013-05-15
CN103108209B CN103108209B (zh) 2015-03-11

Family

ID=48315729

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210585736.0A Expired - Fee Related CN103108209B (zh) 2012-12-28 2012-12-28 基于视觉阈值与通道融合的立体图像客观质量评价方法

Country Status (1)

Country Link
CN (1) CN103108209B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617568A (zh) * 2013-12-06 2014-03-05 国家电网公司 稳态电能质量预警机制中的异常数据判定阈值设定方法
CN104853183A (zh) * 2015-05-22 2015-08-19 天津大学 感知立体图像立体感的客观评价方法
CN105719264A (zh) * 2014-11-30 2016-06-29 中国科学院沈阳自动化研究所 一种基于人眼视觉特性的图像增强评价方法
CN108830790A (zh) * 2018-05-16 2018-11-16 宁波大学 一种基于精简卷积神经网络的快速视频超分辨率重建方法
CN112435231A (zh) * 2020-11-20 2021-03-02 深圳市慧鲤科技有限公司 图像质量标尺生成方法、评测图像质量的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102209257A (zh) * 2011-06-17 2011-10-05 宁波大学 一种立体图像质量客观评价方法
CN102663747A (zh) * 2012-03-23 2012-09-12 宁波大学 一种基于视觉感知的立体图像客观质量评价方法
CN102708567A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于视觉感知的立体图像质量客观评价方法
CN102708568A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于结构失真的立体图像客观质量评价方法
CN102843572A (zh) * 2012-06-29 2012-12-26 宁波大学 一种基于相位的立体图像质量客观评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102209257A (zh) * 2011-06-17 2011-10-05 宁波大学 一种立体图像质量客观评价方法
CN102663747A (zh) * 2012-03-23 2012-09-12 宁波大学 一种基于视觉感知的立体图像客观质量评价方法
CN102708567A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于视觉感知的立体图像质量客观评价方法
CN102708568A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于结构失真的立体图像客观质量评价方法
CN102843572A (zh) * 2012-06-29 2012-12-26 宁波大学 一种基于相位的立体图像质量客观评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张艳等: "视觉关注度的立体图像质量评价", 《中国图象图形学报》, vol. 17, no. 6, 30 June 2012 (2012-06-30) *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617568A (zh) * 2013-12-06 2014-03-05 国家电网公司 稳态电能质量预警机制中的异常数据判定阈值设定方法
CN103617568B (zh) * 2013-12-06 2017-02-15 国家电网公司 稳态电能质量预警机制中的异常数据判定阈值设定方法
CN105719264A (zh) * 2014-11-30 2016-06-29 中国科学院沈阳自动化研究所 一种基于人眼视觉特性的图像增强评价方法
CN105719264B (zh) * 2014-11-30 2018-08-21 中国科学院沈阳自动化研究所 一种基于人眼视觉特性的图像增强评价方法
CN104853183A (zh) * 2015-05-22 2015-08-19 天津大学 感知立体图像立体感的客观评价方法
CN108830790A (zh) * 2018-05-16 2018-11-16 宁波大学 一种基于精简卷积神经网络的快速视频超分辨率重建方法
CN108830790B (zh) * 2018-05-16 2022-09-13 宁波大学 一种基于精简卷积神经网络的快速视频超分辨率重建方法
CN112435231A (zh) * 2020-11-20 2021-03-02 深圳市慧鲤科技有限公司 图像质量标尺生成方法、评测图像质量的方法及装置
CN112435231B (zh) * 2020-11-20 2024-07-16 深圳市慧鲤科技有限公司 图像质量标尺生成方法、评测图像质量的方法及装置

Also Published As

Publication number Publication date
CN103108209B (zh) 2015-03-11

Similar Documents

Publication Publication Date Title
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN101872479B (zh) 一种立体图像客观质量评价方法
CN104954778B (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN103517065B (zh) 一种质降参考立体图像质量客观评价方法
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN102843572B (zh) 一种基于相位的立体图像质量客观评价方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN104811691A (zh) 一种基于小波变换的立体视频质量客观评价方法
CN103354617B (zh) 一种基于dct域的边缘强度压缩的图像质量客观评价方法
CN102903107B (zh) 一种基于特征融合的立体图像质量客观评价方法
CN108322733B (zh) 一种无参考高动态范围图像客观质量评价方法
CN103841411B (zh) 一种基于双目信息处理的立体图像质量评价方法
CN104144339B (zh) 一种基于人眼感知的质降参考立体图像质量客观评价方法
CN102708568A (zh) 一种基于结构失真的立体图像客观质量评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN103200420B (zh) 一种基于三维视觉注意力的立体图像质量客观评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法
CN107492085B (zh) 基于双树复小波变换的立体图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150311

Termination date: 20181228

CF01 Termination of patent right due to non-payment of annual fee