发明内容
本发明所要解决的技术问题是提供一种能够有效地提高客观评价结果与主观感知的相关性的基于特征图的立体图像质量客观评价方法。
本发明解决上述技术问题所采用的技术方案为:一种基于特征图的立体图像质量客观评价方法,其特征在于它的处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。
上述的一种基于特征图的立体图像质量客观评价方法,其具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值;
③利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{L
dis(x,y)}的双目最小可察觉变化图像,记为
其中,
表示
中坐标位置为(x,y)的像素点的双目最小可察觉变化值;
④采用块匹配法计算{L
org(x,y)}与{R
org(x,y)}之间的视差图像,记为
然后计算
的视差梯度图像,记为
将
中坐标位置为(x,y)的像素点的梯度值记为
其中,
表示
中坐标位置为(x,y)的像素点的像素值,
表示
中坐标位置为(x,y)的像素点的水平梯度值,
表示
中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号;
⑤根据{L
dis(x,y)}的双目最小可察觉变化图像
和
的视差梯度图像
计算S
org的视差空间图{DSI
org(x,y,d)}和S
dis的视差空间图{DSI
dis(x,y,d)}之间的结构相似度,得到S
dis的图像质量客观评价预测值,记为Q;
⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1;
⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。
所述的步骤②中Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:
②-a1、将{Lorg(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-a3、选取d
max个与d
0各不相同的视差值,分别记为
然后分别计算当前第一像素点和当前第二像素点在该d
max个各不相同的视差值下的视差空间值,对应的分别记为
DSI
org(x
1,y
1,d
1)=|L
org(x
1,y
1)-R
org(x
1-d
1,y
1)|,DSI
org(x
1,y
1,d
2)=|L
org(x
1,y
1)-R
org(x
1-d
2,y
1)|,DSI
org(x
1,y
1,d
i)=|L
org(x
1,y
1)-R
org(x
1-d
i,y
1)|,
其中,1≤i≤d
max,d
i=d
0+i,
DSI
org(x
1,y
1,d
1)表示当前第一像素点和当前第二像素点在视差值d
1下的视差空间值,DSI
org(x
1,y
1,d
2)表示当前第一像素点和当前第二像素点在视差值d
2下的视差空间值,DSI
org(x
1,y
1,d
i)表示当前第一像素点和当前第二像素点在视差值d
i下的视差空间值,
表示当前第一像素点和当前第二像素点在视差值
下的视差空间值,R
org(x
1-d
1,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
1,y
1)的像素点的像素值,R
org(x
1-d
2,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
2,y
1)的像素点的像素值,R
org(x
1-d
i,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
i,y
1)的像素点的像素值,
表示{R
org(x,y)}中坐标位置为
的像素点的像素值;
②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,
所述的步骤②中Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:
②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-b3、选取d
max个与d
0各不相同的视差值,分别记为
然后分别计算当前第一像素点和当前第二像素点在该d
max个各不相同的视差值下的视差空间值,对应的分别记为
DSI
dis(x
1,y
1,d
1)=|L
dis(x
1,y
1)-R
dis(x
1-d
1,y
1)|,DSI
dis(x
1,y
1,d
2)=|L
dis(x
1,y
1)-R
dis(x
1-d
2,y
1)|,DSI
dis(x
1,y
1,d
i)=|L
dis(x
1,y
1)-R
dis(x
1-d
i,y
1)|,
其中,1≤i≤d
max,d
i=d
0+i,
DSI
dis(x
1,y
1,d
1)表示当前第一像素点和当前第二像素点在视差值d
1下的视差空间值,DSI
dis(x
1,y
1,d
2)表示当前第一像素点和当前第二像素点在视差值d
2下的视差空间值,DSI
dis(x
1,y
1,d
i)表示当前第一像素点和当前第二像素点在视差值d
i下的视差空间值,
表示当前第一像素点和当前第二像素点在视差值
下的视差空间值,R
dis(x
1-d
1,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
1,y
1)的像素点的像素值,R
dis(x
1-d
2,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
2,y
1)的像素点的像素值,R
dis(x
1-d
i,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
i,y
1)的像素点的像素值,
表示{R
dis(x,y)}中坐标位置为
的像素点的像素值;
②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,
所述的步骤③的具体过程为:
③-1、计算{L
dis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{T
l(x,y)},
其中,T
l(x,y)表示{L
dis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bg
l(x,y)表示{L
dis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;
③-3、对{L
dis(x,y)}的亮度掩蔽效应的可视化阈值集合{T
l(x,y)}和对比度掩蔽效应的可视化阈值集合{T
c(x,y)}进行融合,得到{L
dis(x,y)}的双目最小可察觉变化图像,记为
将
中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为
所述的步骤⑤的具体过程为:
⑤-1、将{DSI
org(x,y,d)}和{DSI
dis(x,y,d)}分别划分成
个互不重叠的尺寸大小为α×β×γ的单元,其中,d
max表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度;
⑤-2、将{DSI
org(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为
将{DSI
dis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为
其中,
(u
1,v
1,w
1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u
1≤α,1≤v
1≤β,1≤w
1≤γ,
表示当前第一单元中坐标位置为(u
1,v
1,w
1)的像素点的像素值,
表示当前第二单元中坐标位置为(u
1,v
1,w
1)的像素点的像素值;
⑤-3、根据{L
dis(x,y)}的双目最小可察觉变化图像
计算当前第一单元的第一均值和第一标准差,分别记为
和
计算当前第二单元的第一均值和第一标准差,分别记为
和
其中,
表示
中坐标位置为(u
1,v
1)的像素点的双目最小可察觉变化值,DSI
dis(u
1,v
1,w
1)表示{DSI
dis(x,y,d)}中坐标位置为(u
1,v
1,w
1)的像素点的视差空间值,T
l为控制参数;
⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q
1,l,
其中,C
1和C
2均为控制参数;
⑤-5、根据
的视差梯度图像
计算当前第一单元的第二均值和第二标准差,分别记为
和
计算当前第二单元的第二均值和第二标准差,分别记为
和
其中,
表示
中坐标位置为(u
1,v
1)的像素点的梯度值;
⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q
2,l,
⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数;
⑤-8、令l″=l+1,l=l″,将{DSI
org(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSI
dis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSI
org(x,y,d)}和{DSI
dis(x,y,d)}中的所有单元均处理完毕,得到{DSI
org(x,y,d)}中的每个单元与{DSI
dis(x,y,d)}中对应的单元之间的结构相似度,将{DSI
org(x,y,d)}中的所有单元与{DSI
dis(x,y,d)}中对应的单元之间的结构相似度的集合记为
其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号;
⑤-9、将
中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为
然后取
中的前ρ%个结构相似度来计算S
dis的图像质量客观评价预测值,记为Q,
其中,
表示
中的第l个结构相似度,
所述的步骤⑤-1中取α=5、β=5、γ=5。
所述的控制参数Tl的值为1;所述的控制参数C1的值为6.5025,所述的控制参数C2的值为58.5225。
所述的步骤⑤-7中取τ=0.6、υ=-0.1。
所述的步骤⑤-9中取ρ=2。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到视差对立体感知的影响,分别构造原始的无失真的立体图像和待评价的失真的立体图像的视差空间图,这样避免了复杂的视差估计操作,并且所构造的视差空间图能够很好地反映不同视差对立体图像质量的影响,并且只对结构相似度较低的单元进行评价,从而有效地提高了客观评价结果与主观感知的相关性。
2)本发明方法根据特征图(双目最小可察觉变化图像和视差梯度图像),分别计算两个视差空间图之间的第一结构相似度和第二结构相似度,这样能够较好地反映立体图像的质量变化情况,使得评价结果更加感觉符合人类视觉系统,从而有效地提高了客观评价结果与主观感知的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2a为Akko(尺寸为640×480)立体图像的左视点图像;
图2b为Akko(尺寸为640×480)立体图像的右视点图像;
图3a为Altmoabit(尺寸为1024×768)立体图像的左视点图像;
图3b为Altmoabit(尺寸为1024×768)立体图像的右视点图像;
图4a为Balloons(尺寸为1024×768)立体图像的左视点图像;
图4b为Balloons(尺寸为1024×768)立体图像的右视点图像;
图5a为Doorflower(尺寸为1024×768)立体图像的左视点图像;
图5b为Doorflower(尺寸为1024×768)立体图像的右视点图像;
图6a为Kendo(尺寸为1024×768)立体图像的左视点图像;
图6b为Kendo(尺寸为1024×768)立体图像的右视点图像;
图7a为LeaveLaptop(尺寸为1024×768)立体图像的左视点图像;
图7b为LeaveLaptop(尺寸为1024×768)立体图像的右视点图像;
图8a为Lovebierd1(尺寸为1024×768)立体图像的左视点图像;
图8b为Lovebierd1(尺寸为1024×768)立体图像的右视点图像;
图9a为Newspaper(尺寸为1024×768)立体图像的左视点图像;
图9b为Newspaper(尺寸为1024×768)立体图像的右视点图像;
图10a为Puppy(尺寸为720×480)立体图像的左视点图像;
图10b为Puppy(尺寸为720×480)立体图像的右视点图像;
图11a为Soccer2(尺寸为720×480)立体图像的左视点图像;
图11b为Soccer2(尺寸为720×480)立体图像的右视点图像;
图12a为Horse(尺寸为720×480)立体图像的左视点图像;
图12b为Horse(尺寸为720×480)立体图像的右视点图像;
图13a为Xmas(尺寸为640×480)立体图像的左视点图像;
图13b为Xmas(尺寸为640×480)立体图像的右视点图像;
图14为失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于特征图的立体图像质量客观评价方法,其总体实现框图如图1所示,其处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据特征图即待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。
本发明的立体图像质量客观评价方法,其具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值,在本实施例中,取dmax=31。
在此具体实施例中,Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:
②-a1、将{Lorg (x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点。
②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。
②-a3、选取d
max个与d
0各不相同的视差值,分别记为
然后分别计算当前第一像素点和当前第二像素点在该d
max个各不相同的视差值下的视差空间值,对应的分别记为
DSI
org(x
1,y
1,d
1)=|L
org(x
1,y
1)-R
org(x
1-d
1,y
1)|,DSI
org(x
1,y
1,d
2)=|L
org(x
1,y
1)-R
org(x
1-d
2,y
1)|,DSI
org(x
1,y
1,d
i)=|L
org(x
1,y
1)-R
org(x
1-d
i,y
1)|,
其中,1≤i≤d
max,d
i=d
0+i,
DSI
org(x
1,y
1,d
1)表示当前第一像素点和当前第二像素点在视差值d
1下的视差空间值,DSI
org(x
1,y
1,d
2)表示当前第一像素点和当前第二像素点在视差值d
2下的视差空间值,DSI
org(x
1,y
1,d
i)表示当前第一像素点和当前第二像素点在视差值d
i下的视差空间值,
表示当前第一像素点和当前第二像素点在视差值
下的视差空间值,R
org(x
1-d
1,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
1,y
1)的像素点的像素值,R
org(x
1-d
2,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
2,y
1)的像素点的像素值,R
org(x
1-d
i,y
1)表示{R
org(x,y)}中坐标位置为(x
1-d
i,y
1)的像素点的像素值,
表示{R
org(x,y)}中坐标位置为
的像素点的像素值。
②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,
在此具体实施例中,Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:
②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点。
②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。
②-b3、选取d
max个与d
0各不相同的视差值,分别记为
然后分别计算当前第一像素点和当前第二像素点在该d
max个各不相同的视差值下的视差空间值,对应的分别记为
DSI
dis(x
1,y
1,d
1)=|L
dis(x
1,y
1)-R
dis(x
1-d
1,y
1)|,DSI
dis(x
1,y
1,d
2)=|L
dis(x
1,y
1)-R
dis(x
1-d
2,y
1)|,DSI
dis(x
1,y
1,d
i)=|L
dis(x
1,y
1)-R
dis(x
1-d
i,y
1)|,
其中,1≤i≤d
max,d
i=d
0+i,
DSI
dis(x
1,y
1,d
1)表示当前第一像素点和当前第二像素点在视差值d
1下的视差空间值,DSI
dis(x
1,y
1,d
2)表示当前第一像素点和当前第二像素点在视差值d
2下的视差空间值,DSI
dis(x
1,y
1,d
i)表示当前第一像素点和当前第二像素点在视差值d
i下的视差空间值,
表示当前第一像素点和当前第二像素点在视差值
下的视差空间值,R
dis(x
1-d
1,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
1,y
1)的像素点的像素值,R
dis(x
1-d
2,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
2,y
1)的像素点的像素值,R
dis(x
1-d
i,y
1)表示{R
dis(x,y)}中坐标位置为(x
1-d
i,y
1)的像素点的像素值,
表示{R
dis(x,y)}中坐标位置为
的像素点的像素值。
②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,
③人类视觉特性表明,人眼对图像中变化较小的属性或噪声是不可感知的,除非该属性或噪声的变化强度超过某一阈值,该阈值就是最小可察觉失真(Just noticeabledifference,JND)。然而人眼的视觉掩蔽效应是一种局部效应,其受背景照度、纹理复杂度等因素的影响,背景越亮,纹理越复杂,界限值就越高。因此本发明利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{L
dis(x,y)}的双目最小可察觉变化图像,记为
其中,
表示
中坐标位置为(x,y)的像素点的双目最小可察觉变化值。
在此具体实施例中,步骤③的具体过程为:
③-1、计算{L
dis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{T
l(x,y)},
其中,T
l(x,y)表示{L
dis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bg
l(x,y)表示{L
dis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值。
③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07。
③-3、对{L
dis(x,y)}的亮度掩蔽效应的可视化阈值集合{T
l(x,y)}和对比度掩蔽效应的可视化阈值集合{T
c(x,y)}进行融合,得到{L
dis(x,y)}的双目最小可察觉变化图像,记为
将
中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为
④采用块匹配法计算{L
org(x,y)}与{R
org(x,y)}之间的视差图像,记为
然后计算
的视差梯度图像,记为
将
中坐标位置为(x,y)的像素点的梯度值记为
其中,
表示
中坐标位置为(x,y)的像素点的像素值,
表示
中坐标位置为(x,y)的像素点的水平梯度值,
表示
中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号。
⑤根据{L
dis(x,y)}的双目最小可察觉变化图像
和
的视差梯度图像
计算S
org的视差空间图{DSI
org(x,y,d)}和S
dis的视差空间图{DSI
dis(x,y,d)}之间的结构相似度,得到S
dis的图像质量客观评价预测值,记为Q。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度,不同尺寸大小的单元对后续计算两个单元的结构相似度存在影响,通过大量实验验证,当α、β和γ的值均取5时,效果最优,因此在本实施例中,取α=5、β=5、γ=5。
⑤-2、将{DSI
org(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为
将{DSI
dis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为
其中,
(u
1,v
1,w
1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u
1≤α,1≤v
1≤β,1≤w
1≤γ,
表示当前第一单元中坐标位置为(u
1,v
1,w
1)的像素点的像素值,
表示当前第二单元中坐标位置为(u
1,v
1,w
1)的像素点的像素值。
⑤-3、根据{L
dis(x,y)}的双目最小可察觉变化图像
计算当前第一单元的第一均值和第一标准差,分别记为
和
计算当前第二单元的第一均值和第一标准差,分别记为
和
其中,
表示
中坐标位置为(u
1,v
1)的像素点的双目最小可察觉变化值,DSI
dis(u
1,v
1,w
1)表示{DSI
dis(x,y,d)}中坐标位置为(u
1,v
1,w
1)的像素点的视差空间值,T
l为控制参数,在本实施例中,取T
l=1。
⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q
1,l,
其中,C
1和C
2均为控制参数,在本实施例中,取C
1=6.5025,C
2=58.5225。
⑤-5、根据
的视差梯度图像
计算当前第一单元的第二均值和第二标准差,分别记为
和
计算当前第二单元的第二均值和第二标准差,分别记为
和
其中,
表示
中坐标位置为(u
1,v
1)的像素点的梯度值。
⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q
2,l,
⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数,在本实施例中,取τ=0.6、υ=-0.1。
⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号。
⑤-9、将
中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为
然后取
中的前ρ%个结构相似度来计算S
dis的图像质量客观评价预测值,记为Q,
其中,
表示
中的第l个结构相似度,
在本实施例中,取ρ=2。
⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1。
在本实施例中,利用如图2a和图2b构成的立体图像、图3a和图3b构成的立体图像、图4a和图4b构成的立体图像、图5a和图5b构成的立体图像、图6a和图6b构成的立体图像、图7a和图7b构成的立体图像、图8a和图8b构成的立体图像、图9a和图9b构成的立体图像、图10a和图10b构成的立体图像、图11a和图11b构成的立体图像、图12a和图12b构成的立体图像、图13a和图13b构成的立体图像共12幅(n=12)无失真的立体图像建立了其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合共包括4种失真类型的252幅失真的立体图像,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,高斯模糊(Gaussian Blur)的失真的立体图像共60幅,H.264编码的失真的立体图像共72幅。
⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。
采用图2a至图13b所示的12幅无失真的立体图像在不同程度的JPEG压缩、JPEG2000压缩、高斯模糊和H.264编码失真情况下的252幅失真的立体图像来分析本实施例得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squarederror,RMSE),PLCC和RMSE反映失真的立体图像评价客观模型的准确性,SROCC和KROCC反映其单调性。将分别采用本发明方法与不采用本发明方法得到失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差进行比较,比较结果分别如表1、表2、表3和表4所示,从表1、表2、表3和表4中可以看出,采用本发明方法得到的失真的立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,充分表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
图14给出了失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评介结果与主观感知的一致性越好。从图14中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。
表1利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数比较
表2利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Spearman相关系数比较
失真类型 |
JPEG压 |
JPEG2000 |
高斯模 |
白噪声 |
H.264编 |
所有失 |
|
缩 |
压缩 |
糊 |
|
码 |
真 |
不利用本发明方法 |
0.9087 |
0.8340 |
0.9610 |
0.7345 |
0.8679 |
0.9081 |
利用本发明方法 |
0.9266 |
0.9203 |
0.9594 |
0.9188 |
0.9329 |
0.9458 |
表3利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Kendall相关系数比较
表4利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的均方误差比较