CN103581661B - 一种立体图像视觉舒适度评价方法 - Google Patents

一种立体图像视觉舒适度评价方法 Download PDF

Info

Publication number
CN103581661B
CN103581661B CN201310522750.0A CN201310522750A CN103581661B CN 103581661 B CN103581661 B CN 103581661B CN 201310522750 A CN201310522750 A CN 201310522750A CN 103581661 B CN103581661 B CN 103581661B
Authority
CN
China
Prior art keywords
sub
block
value
pixel
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310522750.0A
Other languages
English (en)
Other versions
CN103581661A (zh
Inventor
邵枫
姜求平
蒋刚毅
郁梅
李福翠
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xianxuan (Shanghai) Information Technology Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310522750.0A priority Critical patent/CN103581661B/zh
Publication of CN103581661A publication Critical patent/CN103581661A/zh
Application granted granted Critical
Publication of CN103581661B publication Critical patent/CN103581661B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种立体图像视觉舒适度评价方法,其首先通过提取右视点图像的图像显著图和右视差图像的深度显著图,得到右视点图像的立体显著图,然后根据立体显著图加权提取出视差幅度、视差梯度和空间频率特征,得到立体图像的特征矢量,再利用支持向量回归对立体图像集合中的所有立体图像的特征矢量进行训练,最后利用训练得到的支持向量回归训练模型对立体图像集合中的每幅立体图像进行测试,得到每幅立体图像的客观视觉舒适度评价预测值,优点是获得的立体图像的特征矢量信息具有较强的稳定性且能够较好地反映立体图像的视觉舒适度变化情况,从而有效地提高了客观评价结果与主观感知的相关性。

Description

一种立体图像视觉舒适度评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种立体图像视觉舒适度评价方法。
背景技术
随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,立体视频的视觉体验质量(QoE,quality of experience)是立体视频系统设计中的一个重要问题,而视觉舒适度(VC,visual comfort)是影响立体视频的视觉体验质量的重要因素。目前,对立体视频/立体图像的质量评价研究主要考虑内容失真对于图像质量的影响,而很少考虑视觉舒适度等因素的影响。因此,为了提高观看者的视觉体验质量,研究立体视频/立体图像的视觉舒适度客观评价模型对指导3D内容的制作和后期处理具有十分重要的作用。
传统的立体图像视觉舒适度评价方法主要采用全局的视差统计特征来预测视觉舒适度。然而,根据人眼立体视觉注意力特性,人眼只对部分视觉重要区域的视觉舒适/不舒适比较敏感,如果以此全局的视差统计特征来预测视觉重要区域的视觉舒适程度,则会导致无法精确预测得到客观评价值。因此,如何在评价过程中有效地根据视觉显著性来提取出视觉舒适度特征,使得客观评价结果更加感觉符合人类视觉系统,是在对立体图像进行客观视觉舒适度评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉舒适度评价方法,其能够有效地提高客观评价结果与主观感知的相关性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉舒适度评价方法,其特征在于包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用多个不同尺度对{IR(x,y)}进行分块处理,然后获取{IR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{IR(x,y)}在不同尺度下的每个子块的特征矢量,获取{IR(x,y)}在不同尺度下的每个子块的显著值,进而获得{IR(x,y)}在不同尺度下的图像显著图,最后将{IR(x,y)}在不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},其中,SMimg(x,y)表示{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值;
③采用多个不同尺度对{dR(x,y)}进行分块处理,然后获取{dR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{dR(x,y)}在不同尺度下的每个子块的特征矢量,获取{dR(x,y)}在不同尺度下的每个子块的显著值,进而获得{dR(x,y)}在不同尺度下的深度显著图,最后将{dR(x,y)}在不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},其中,SMdep(x,y)表示{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值;
④根据{IR(x,y)}的图像显著图{SMimg(x,y)}和{dR(x,y)}的深度显著图{SMdep(x,y)},获取{IR(x,y)}的立体显著图,记为{SM3D(x,y)},将{SM3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为SM3D(x,y),其中,表示SMimg(x,y)的权重,表示SMdep(x,y)的权重,
⑤根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值和视差梯度,对应记为ξ1和ξ2;并根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3;然后将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号;
⑥采用n副各不相同的立体图像以及每幅立体图像对应的右视差图像建立一个立体图像集合,其中,n≥1;然后利用主观质量评价方法分别获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第i幅立体图像的视觉舒适度的平均主观评分均值记为MOSi,其中,1≤i≤n,MOSi∈[1,5];再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式分别获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第i幅立体图像的特征矢量记为Xi
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,训练得到最优的权重矢量wopt和最优的偏置项bopt,接着利用wopt和bopt构造得到支持向量回归训练模型,再根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k′幅立体图像的客观视觉舒适度评价预测值记为Qk′,Qk′=f(Xk′),其中,1≤k′≤K′,K′表示测试样本数据集合中包含的立体图像的幅数,f()为函数表示形式,Xk′表示测试样本数据集合中的第k′幅立体图像的特征矢量,(wopt)T为wopt的转置矢量,表示Xk′的线性函数;
之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
所述的步骤②的具体过程为:
②-1、采用J个不同尺度对{IR(x,y)}进行分块处理,在第j个尺度hj下将{IR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号;
②-2、将{IR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第一子块,其中,
②-3、将当前第一子块记为{fj,l(x2,y2)},其中,(x2,y2)表示当前第一子块{fj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,fj,l(x2,y2)表示当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值;
②-4、获取当前第一子块{fj,l(x2,y2)}中的每个像素点的水平梯度值和垂直梯度值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的红-绿颜色分量及蓝-黄颜色分量,获取当前第一子块{fj,l(x2,y2)}中的每个像素点经Log-Gabor滤波后得到的振幅;
②-5、根据步骤②-4获取的当前第一子块{fj,l(x2,y2)}中的每个像素点的多个图像感知特征,以及当前第一子块{fj,l(x2,y2)}中的每个像素点的坐标位置,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,将当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l f ( x 2 , y 2 ) = [ GX f ( x 2 , y 2 ) , GY f ( x 2 , y 2 ) , L ( x 2 , y 2 ) , a ( x 2 , y 2 ) , b ( x 2 , y 2 ) , ΔRG ( x 2 , y 2 ) , ΔBY ( x 2 , y 2 ) , LG ( x 2 , y 2 ) , x 2 , y 2 ] ,其中,符号“[]”为矢量表示符号,的维数为10,GXf(x2,y2)和GYf(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,L(x2,y2)、a(x2,y2)及b(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,ΔRG(x2,y2)和ΔBY(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的红-绿颜色分量和蓝-黄颜色分量,LG(x2,y2)为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经Log-Gabor滤波后得到的振幅;
②-6、根据当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第一子块{fj,l(x2,y2)}的协方差矩阵,记为 C j , l f = 1 h j × h j - 1 Σ x 2 = 1 h j Σ y 2 = 1 h j ( X j , l f ( x 2 , y 2 ) - μ j , l f ) ( X j , l f ( x 2 , y 2 ) - μ j , l f ) T , 其中,表示当前第一子块{fj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为10×10;
②-7、对当前第一子块{fj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第一子块{fj,l(x2,y2)}的Sigma特征集,记为 S j , l f = [ 10 × L ( 1 ) , . . . , 10 × L ( l ′ ) , . . . , 10 × L ( 10 ) , - 10 × L ( 1 ) , . . . , - 10 × L ( l ′ ) , . . . , - 10 × L ( 10 ) , μ j , l f ] , 其中,LT为L的转置矩阵,此处1≤i′≤10,L(1)表示L的第1列向量,L(i′)表示L的第i′列向量,L(10)表示L的第10列向量,的维数为10×21;
②-8、计算当前第一子块{fj,l(x2,y2)}的显著值,记为 SM j , l f = Σ l ′ ∈ N ( l ) k ( y j , l ′ f , y j , min f ) · y j , l ′ f Σ l ′ ∈ N ( l ) k ( y j , l ′ f , y j , min f ) , 其中,N(l)表示以当前第一子块{fj,l(x2,y2)}为中心的邻域窗口,表示当前第一子块{fj,l(x2,y2)}的Sigma特征集与相邻的第l′个子块的Sigma特征集之间的欧式距离,符号“|| ||”为求欧式距离符号,此处xl表示当前第一子块{fj,l(x2,y2)}的中心像素点的坐标位置,此处xl′表示与当前第一子块{fj,l(x2,y2)}相邻的第l′个子块的中心像素点的坐标位置,表示N(l)内的所有子块的Sigma特征集与当前第一子块{fj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值,h为控制系数;
②-9、根据人眼的中心偏移特性,计算当前第一子块{fj,l(x2,y2)}的最终的显著值,记为其中,符号“|| ||”为求欧式距离符号,xc表示{IR(x,y)}的中心像素点的坐标位置,Z为控制系数;
②-10、将当前第一子块{fj,l(x2,y2)}的最终的显著值作为当前第一子块{fj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{IR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第一子块,再返回步骤②-3继续执行,直至{IR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{IR(x,y)}的图像显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值;
②-11、令j=j+1,然后返回步骤②-2继续执行,直至得到{IR(x,y)}在J个不同尺度下的图像显著图,再将{IR(x,y)}在J个不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},将{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMimg(x,y), SM img ( x , y ) = G σ ( x , y ) * Π 1 ≤ j ≤ J SM h j f ( x , y ) , 其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数。
所述的步骤②-1中取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64;所述的步骤②-8中取N(l)的大小为7×7,取h=0.5;所述的步骤②-9中取所述的步骤②-11中取σ=0.02×H。
所述的步骤③的具体过程为:
③-1、采用J个不同尺度对{dR(x,y)}进行分块处理,在第j个尺度hj下将{dR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号;
③-2、将{dR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第二子块,其中,
③-3、将当前第二子块记为{gj,l(x2,y2)},其中,(x2,y2)表示当前第二子块{gj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,gj,l(x2,y2)表示当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值;
③-4、获取当前第二子块{gj,l(x2,y2)}中的每个像素点的像素值、水平梯度值和垂直梯度值,获取当前第二子块{gj,l(x2,y2)}中的每个像素点经高斯差分算子后得到的响应值;
③-5、根据步骤③-4获取的当前第二子块{gj,l(x2,y2)}中的每个像素点的多个深度感知特征,获取当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,将当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l g ( x 2 , y 2 ) = [ d R ( x 2 , y 2 ) , GX g ( x 2 , y 2 ) , GY g ( x 2 , y 2 ) , DoG ( x 2 , y 2 ) ] , 其中,符号“[]”为矢量表示符号,的维数为4,dR(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值,GXg(x2,y2)和GYg(x2,y2)对应为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,DoG(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经高斯差分算子后得到的响应值;
③-6、根据当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第二子块{gj,l(x2,y2)}的协方差矩阵,记为 C j , l g = 1 h j × h j - 1 Σ x 2 = 1 h j Σ y 2 = 1 h j ( X j , l g ( x 2 , y 2 ) - μ j , l g ) ( X j , l g ( x 2 , y 2 ) - μ j , l g ) T , 其中,表示当前第二子块{gj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为4×4;
③-7、对当前第二子块{gj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第二子块{gj,l(x2,y2)}的Sigma特征集,记为 S j , l g = [ 4 × L ′ ( 1 ) , . . . , 4 × L ′ ( i ′ ) , . . . , 4 × L ′ ( 4 ) , - 4 × L ′ ( 1 ) , . . . , - 4 × L ′ ( i ′ ) , . . . , - 4 × L ′ ( 4 ) , μ j , l g ] , 其中,L′T为L′的转置矩阵,此处1≤i′≤4,L′(1)表示L′的第1列向量,L′(i′)表示L′的第i′列向量,L′(4)表示L′的第4列向量,的维数为4×9;
③-8、计算当前第二子块{gj,l(x2,y2)}的显著值,记为 SM j , l g = Σ l ′ ∈ N ′ ( l ) k ( y j , l ′ g , y j , min g ) · y j , l ′ g Σ l ′ ∈ N ′ ( l ) k ( y j , l ′ g , y j , min g ) , 其中,N′(l)表示以当前第二子块{gj,l(x2,y2)}为中心的邻域窗口,表示当前第二子块{gj,l(x2,y2)}的Sigma特征集与相邻的第l′个子块的Sigma特征集之间的欧式距离,符号“|| ||”为求欧式距离符号,此处xl表示当前第二子块{gj,l(x2,y2)}的中心像素点的坐标位置,此处xl′表示与当前第二子块{gj,l(x2,y2)}相邻的第l′个子块的中心像素点的坐标位置,表示N′(l)内的所有子块的Sigma特征集与当前第二子块{gj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值,h为控制系数;
③-9、将当前第二子块{gj,l(x2,y2)}的显著值作为当前第二子块{gj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{dR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第二子块,再返回步骤③-3继续执行,直至{dR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{dR(x,y)}的深度显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值;
③-10、令j=j+1,然后返回步骤③-2继续执行,直至得到{dR(x,y)}在J个不同尺度下的深度显著图,再将{dR(x,y)}在J个不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},将{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMdep(x,y), SM dep ( x , y ) = G σ ( x , y ) * Π 1 ≤ j ≤ J SM h j g ( x , y ) , 其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数。
所述的步骤③-1中取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64;所述的步骤③-8中取N′(l)的大小为3×3,取h=0.5;所述的步骤③-10中取σ=0.02×H。
所述的步骤④中取
所述的步骤⑤的具体过程为:
⑤-1、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值,记为ξ1 ξ 1 = Σ x = 1 W Σ y = 1 H SM 3 D ( x , y ) · | d R ( x , y ) | Σ x = 1 W Σ y = 1 H SM 3 D ( x , y ) , 其中,符号“|| ||”为取绝对值符号;
⑤-2、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差梯度,记为ξ2 &xi; 2 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; | &Delta;d R ( x , y ) | &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , ΔdR(x,y)=(dR(x+1,y)+dR(x-1,y)+dR(x,y+1)+dR(x,y-1))/4-dR(x,y),其中,符号“|| ||”为取绝对值符号,dR(x+1,y)表示{dR(x,y)}中坐标位置为(x+1,y)的像素点的像素值,dR(x-1,y)表示{dR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,dR(x,y+1)表示{dR(x,y)}中坐标位置为(x,y+1)的像素点的像素值,dR(x,y-1)表示{dR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x+1>W,则dR(x+1,y)的值由dR(W,y)的值替代,如果x-1<1,则dR(x-1,y)的值由dR(1,y)的值替代,如果y+1>H,则dR(x,y+1)的值由dR(x,H)的值替代,如果y-1<1,则dR(x,y-1)的值由dR(x,1)的值替代;
⑤-3、根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3 &xi; 3 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; c ( x , y ) &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , c ( x , y ) = ( I R ( x , y ) - I R ( x - 1 , y ) ) 2 + ( I R ( x , y ) - I R ( x , y - 1 ) ) 2 , 其中,IR(x-1,y)表示{IR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,IR(x,y-1)表示{IR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x-1<1,则IR(x-1,y)的值由IR(1,y)的值替代,如果y-1<1,则IR(x,y-1)的值由IR(x,1)的值替代;
⑤-4、将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号,X的维数为3。
所述的步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K′=n-t幅立体图像构成测试集,其中,符号为向上取整符号;
⑦-2、将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为Ωt,{Xk,MOSk}∈Ωt,其中,Xk表示训练样本数据集合Ωt中的第k幅立体图像的特征矢量,MOSk表示训练样本数据集合Ωt中的第k幅立体图像的平均主观评分均值,1≤k≤t;
⑦-3、构造训练样本数据集合Ωt中的每幅立体图像的特征矢量的回归函数,将Xk的回归函数记为f(Xk),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xk的线性函数,D(Xk,Xl′)为支持向量回归中的核函数,Xl′为训练样本数据集合Ωt中的第l′幅立体图像的特征矢量,1≤l′≤t,γ为核参数,exp()表示以e为底的指数函数,e=2.71828183,符号“|| ||”为求欧式距离符号;
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt), ( w opt , b opt ) = arg min ( w , b ) &Element; &Psi; &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 , 利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练的所有的权重矢量和偏置项的组合的集合, arg min ( w , b ) &Element; &Psi; &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 表示使得 &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
⑦-5、将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k'幅立体图像的客观视觉舒适度评价预测值记为Qk′,Qk′=f(Xk′),其中,1≤k′≤K′,Xk′表示测试样本数据集合中的第k′幅立体图像的特征矢量,表示Xk′的线性函数;
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K′=n-t幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,再将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
所述的步骤⑦-3中取γ=54。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到视觉重要区域对视觉舒适度的影响,因此通过提取右视点图像的图像显著图和右视差图像的深度显著图得到右视点图像的立体显著图,然后根据立体显著图加权提取出反映视觉舒适度的特征矢量,从而有效地提高了客观评价结果与主观感知的相关性。
2)本发明方法根据用于反映立体图像的右视差图像的视差幅值、视差梯度和用于反映立体图像的右视点图像的空间频率,得到立体图像的特征矢量,然后利用支持向量回归对立体图像集合中的所有立体图像的特征矢量进行训练,计算得到立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值,由于获得的立体图像的特征矢量信息具有较强的稳定性且能够较好地反映立体图像的视觉舒适度变化情况,因此有效地提高了客观评价结果与主观感知的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2a为“purse”的右视点图像;
图2b为“purse”的右视差图像;
图2c为“purse”的右视点图像的图像显著图;
图2d为“purse”的右视差图像的深度显著图;
图2e为“purse”的右视点图像的立体显著图;
图3a为“redcup”的右视点图像;
图3b为“redcup”的右视差图像;
图3c为“redcup”的右视点图像的图像显著图;
图3d为“redcup”的右视差图像的深度显著图;
图3e为“redcup”的右视点图像的立体显著图;
图4a为“desktop”的右视点图像;
图4b为“desktop”的右视差图像;
图4c为“desktop”的右视点图像的图像显著图;
图4d为“desktop”的右视差图像的深度显著图;
图4e为“desktop”的右视点图像的立体显著图;
图5为采用视差幅度和视差梯度两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图;
图6为采用视差幅度和空间频率两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图;
图7为采用视差梯度和空间频率两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图;
图8为采用视差幅度、视差梯度和空间频率三个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉舒适度评价方法,其总体实现框图如图1所示,其包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用多个不同尺度对{IR(x,y)}进行分块处理,然后获取{IR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{IR(x,y)}在不同尺度下的每个子块的特征矢量,获取{IR(x,y)}在不同尺度下的每个子块的显著值,进而获得{IR(x,y)}在不同尺度下的图像显著图,最后将{IR(x,y)}在不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},其中,SMimg(x,y)表示{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤②的具体过程为:
②-1、采用J个不同尺度对{IR(x,y)}进行分块处理,在第j个尺度hj下将{IR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号。在此,取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64。
②-2、将{IR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第一子块,其中,
②-3、将当前第一子块记为{fj,l(x2,y2)},其中,(x2,y2)表示当前第一子块{fj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,fj,l(x2,y2)表示当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值。
②-4、获取当前第一子块{fj,l(x2,y2)}中的每个像素点的水平梯度值和垂直梯度值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的红-绿颜色分量及蓝-黄颜色分量,获取当前第一子块{fj,l(x2,y2)}中的每个像素点经Log-Gabor滤波后得到的振幅。
②-5、根据步骤②-4获取的当前第一子块{fj,l(x2,y2)}中的每个像素点的多个图像感知特征,以及当前第一子块{fj,l(x2,y2)}中的每个像素点的坐标位置,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,将当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l f ( x 2 , y 2 ) = [ GX f ( x 2 , y 2 ) , GY f ( x 2 , y 2 ) , L ( x 2 , y 2 ) , a ( x 2 , y 2 ) , b ( x 2 , y 2 ) , &Delta;RG ( x 2 , y 2 ) , &Delta;BY ( x 2 , y 2 ) , LG ( x 2 , y 2 ) , x 2 , y 2 ] ,其中,符号“[]”为矢量表示符号,的维数为10,GXf(x2,y2)和GYf(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,L(x2,y2)、a(x2,y2)及b(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,ΔRG(x2,y2)和ΔBY(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的红-绿颜色分量和蓝-黄颜色分量,LG(x2,y2)为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经Log-Gabor滤波后得到的振幅。
②-6、根据当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第一子块{fj,l(x2,y2)}的协方差矩阵,记为 C j , l f = 1 h j &times; h j - 1 &Sigma; x 2 = 1 h j &Sigma; y 2 = 1 h j ( X j , l f ( x 2 , y 2 ) - &mu; j , l f ) ( X j , l f ( x 2 , y 2 ) - &mu; j , l f ) T , 其中,表示当前第一子块{fj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为10×10。
②-7、对当前第一子块{fj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第一子块{fj,l(x2,y2)}的Sigma特征集(Sigma set),记为 S j , l f = [ 10 &times; L ( 1 ) , . . . , 10 &times; L ( i &prime; ) , . . . , 10 &times; L ( 10 ) , - 10 &times; L ( 1 ) , . . . , - 10 &times; L ( i &prime; ) , . . . , - 10 &times; L ( 10 ) , &mu; j , l f ] , 其中,LT为L的转置矩阵,此处1≤i′≤10,L(1)表示L的第1列向量,L(i′)表示L的第i′列向量,L(10)表示L的第10列向量,的维数为10×21。
②-8、计算当前第一子块{fj,l(x2,y2)}的显著值,记为 SM j , l f = &Sigma; l &prime; &Element; N ( l ) k ( y j , l &prime; f , y j , min f ) &CenterDot; y j , l &prime; f &Sigma; l &prime; &Element; N ( l ) k ( y j , l &prime; f , y j , min f ) , 其中,N(l)表示以当前第一子块{fj,l(x2,y2)}为中心的邻域窗口,在此取N(l)的大小为7×7,表示当前第一子块{fj,l(x2,y2)}的Sigma特征集与相邻的第l′个子块的Sigma特征集之间的欧式距离,符号“|| ||”为求欧式距离符号,此处xl表示当前第一子块{fj,l(x2,y2)}的中心像素点的坐标位置,此处xl′表示与当前第一子块{fj,l(x2,y2)}相邻的第l′个子块的中心像素点的坐标位置,表示N(l)内的所有子块的Sigma特征集与当前第一子块{fj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值, k ( y j , l &prime; f , f j , min f ) = e - ( y j , l &prime; f - y j , min f ) 2 h , h为控制系数,在此取h=0.5。
②-9、根据人眼的中心偏移(center-bias)特性,计算当前第一子块{fj,l(x2,y2)}的最终的显著值,记为其中,符号“|| ||”为求欧式距离符号,xc表示{IR(x,y)}的中心像素点的坐标位置,Z为控制系数,在此取 Z = ( W / 2 ) 2 + ( H / 2 ) 2 .
②-10、将当前第一子块{fj,l(x2,y2)}的最终的显著值作为当前第一子块{fj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{IR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第一子块,再返回步骤②-3继续执行,直至{IR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{IR(x,y)}的图像显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值。
②-11、令j=j+1,然后返回步骤②-2继续执行,直至得到{IR(x,y)}在J个不同尺度下的图像显著图,再将{IR(x,y)}在J个不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},将{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMimg(x,y), SM img ( x , y ) = G &sigma; ( x , y ) * &Pi; 1 &le; j &le; J SM h j f ( x , y ) , 其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数,在此取σ=0.02×H。
③采用多个不同尺度对{dR(x,y)}进行分块处理,然后获取{dR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{dR(x,y)}在不同尺度下的每个子块的特征矢量,获取{dR(x,y)}在不同尺度下的每个子块的显著值,进而获得{dR(x,y)}在不同尺度下的深度显著图,最后将{dR(x,y)}在不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},其中,SMdep(x,y)表示{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤③的具体过程为:
③-1、采用J个不同尺度对{dR(x,y)}进行分块处理,在第j个尺度hj下将{dR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号。在此,取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64。
③-2、将{dR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第二子块,其中,
③-3、将当前第二子块记为{gj,l(x2,y2)},其中,(x2,y2)表示当前第二子块{gj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,gj,l(x2,y2)表示当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值。
③-4、获取当前第二子块{gj,l(x2,y2)}中的每个像素点的像素值、水平梯度值和垂直梯度值,获取当前第二子块{gj,l(x2,y2)}中的每个像素点经高斯差分(DoG,Difference ofGaussian)算子后得到的响应值。
③-5、根据步骤③-4获取的当前第二子块{gj,l(x2,y2)}中的每个像素点的多个深度感知特征,获取当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,将当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l g ( x 2 , y 2 ) = [ d R ( x 2 , y 2 ) , GX g ( x 2 , y 2 ) , GY g ( x 2 , y 2 ) , DoG ( x 2 , y 2 ) ] , 其中,符号“[]”为矢量表示符号,的维数为4,dR(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值,GXg(x2,y2)和GYg(x2,y2)对应为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,DoG(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经高斯差分算子后得到的响应值。
③-6、根据当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第二子块{gj,l(x2,y2)}的协方差矩阵,记为 C j , l g = 1 h j &times; h j - 1 &Sigma; x 2 = 1 h j &Sigma; y 2 = 1 h j ( X j , l g ( x 2 , y 2 ) - &mu; j , l g ) ( X j , l g ( x 2 , y 2 ) - &mu; j , l g ) T , 其中,表示当前第二子块{gj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为4×4。
③-7、对当前第二子块{gj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第二子块{gj,l(x2,y2)}的Sigma特征集,记为 S j , l g = [ 4 &times; L &prime; ( 1 ) , . . . , 4 &times; L &prime; ( i &prime; ) , . . , 4 &times; L &prime; ( 4 ) , - 4 &times; L &prime; ( 1 ) , . . . , - 4 &times; L &prime; ( i &prime; ) , . . . , - 4 &times; L &prime; ( 4 ) , &mu; j , l g ] , 其中,L′T为L′的转置矩阵,此处1≤i′≤4,L′(1)表示L′的第1列向量,L′(i′)表示L′的第i′列向量,L′(4)表示L′的第4列向量,的维数为4×9。
③-8、计算当前第二子块{gj,l(x2,y2)}的显著值,记为 SM j , l g = &Sigma; l &prime; &Element; N &prime; ( l ) k ( y j , l &prime; g , y j , min g ) &CenterDot; y j , l &prime; g &Sigma; l &prime; &Element; N &prime; ( l ) k ( y j , l &prime; g , y j , min g ) , 其中,N′(l)表示以当前第二子块{gj,l(x2,y2)}为中心的邻域窗口,在此取N′(l)的大小为3×3,表示当前第二子块{gj,l(x2,y2)}的Sigma特征集与相邻的第l′个子块的Sigma特征集之间的欧式距离,符号“|| ||”为求欧式距离符号,此处xl表示当前第二子块{gj,l(x2,y2)}的中心像素点的坐标位置,此处xl′表示与当前第二子块{gj,l(x2,y2)}相邻的第l′个子块的中心像素点的坐标位置,表示N′(l)内的所有子块的Sigma特征集与当前第二子块{gj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值, k ( y j , l &prime; g , y j , min g ) = e - ( y j , l &prime; g - y j , min g ) 2 h , h为控制系数,在此取h=0.5。
③-9、将当前第二子块{gj,l(x2,y2)}的显著值作为当前第二子块{gj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{dR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第二子块,再返回步骤③-3继续执行,直至{dR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{dR(x,y)}的深度显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值。
③-10、令j=j+1,然后返回步骤③-2继续执行,直至得到{dR(x,y)}在J个不同尺度下的深度显著图,再将{dR(x,y)}在J个不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},将{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMdep(x,y), SM dep ( x , y ) = G &sigma; ( x , y ) * &Pi; 1 &le; j &le; J SM h j g ( x , y ) , 其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数,在此取σ=0.02×H。
④根据{IR(x,y)}的图像显著图{SMimg(x,y)}和{dR(x,y)}的深度显著图{SMdep(x,y)},获取{IR(x,y)}的立体显著图,记为{SM3D(x,y)},将{SM3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为SM3D(x,y),其中,表示SMimg(x,y)的权重,表示SMdep(x,y)的权重,在此取
在此,截取三组典型的立体图像来说明本发明方法中获取的待评价的立体图像的右视点图像的立体显著图的性能。图2a和图2b分别给出了“purse”的右视点图像和右视差图像,图2c给出了“purse”的右视点图像的图像显著图,图2d给出了“purse”的右视差图像的深度显著图,图2e给出了“purse”的右视点图像的立体显著图;图3a和图3b分别给出了“redcup”的右视点图像和右视差图像,图3c给出了“redcup”的右视点图像的图像显著图,图3d给出了“redcup”的右视差图像的深度显著图,图3e给出了“redcup”的右视点图像的立体显著图;图4a和图4b分别给出了“desktop”的右视点图像和右视差图像,图4c给出了“desktop”的右视点图像的图像显著图,图4d给出了“desktop”的右视差图像的深度显著图,图4e给出了“desktop”的右视点图像的立体显著图。从图2e、图3e和图4e中可以看出,采用本发明方法得到的立体显著图,能够很好地反映人眼视觉舒适程度。
⑤根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值和视差梯度,对应记为ξ1和ξ2;并根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3;然后将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值,记为ξ1 &xi; 1 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; | d R ( x , y ) | &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , 其中,符号“|| ||”为取绝对值符号。
⑤-2、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差梯度,记为ξ2 &xi; 2 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; | &Delta;d R ( x , y ) | &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , ΔdR(x,y)=(dR(x+1,y)+dR(x-1,y)+dR(x,y+1)+dR(x,y-1))/4-dR(x,y),其中,符号“|| ||”为取绝对值符号,dR(x+1,y)表示{dR(x,y)}中坐标位置为(x+1,y)的像素点的像素值,dR(x-1,y)表示{dR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,dR(x,y+1)表示{dR(x,y)}中坐标位置为(x,y+1)的像素点的像素值,dR(x,y-1)表示{dR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x+1>W,则dR(x+1,y)的值由dR(W,y)的值替代,如果x-1<1,则dR(x-1,y)的值由dR(1,y)的值替代,如果y+1>H,则dR(x,y+1)的值由dR(x,H)的值替代,如果y-1<1,则dR(x,y-1)的值由dR(x,1)的值替代。
⑤-3、根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3 &xi; 3 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; c ( x , y ) &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , c ( x , y ) = ( I R ( x , y ) - I R ( x - 1 , y ) ) 2 + ( I R ( x , y ) - I R ( x , y - 1 ) ) 2 , 其中,IR(x-1,y)表示{IR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,IR(x,y-1)表示{IR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x-1<1,则IR(x-1,y)的值由IR(1,y)的值替代,如果y-1<1,则IR(x,y-1)的值由IR(x,1)的值替代。
⑤-4、将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号,X的维数为3。
⑥采用n副各不相同的立体图像以及每幅立体图像对应的右视差图像建立一个立体图像集合,其中,n≥1;然后利用主观质量评价方法分别获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第i幅立体图像的视觉舒适度的平均主观评分均值记为MOSi,其中,1≤i≤n,MOSi∈[1,5];再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式分别获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第i幅立体图像的特征矢量记为Xi
在本实施例中,采用韩国科学技术院图像和视频系统实验室提供的立体图像数据库作为立体图像集合,该立体图像数据库包含120幅立体图像以及对应的右视差图像,该立体图像数据库包含了各种场景深度的室内和室外图像,并给出了每副立体图像的视觉舒适度的平均主观评分均值。
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,训练得到最优的权重矢量wopt和最优的偏置项bopt,接着利用wopt和bopt构造得到支持向量回归训练模型,再根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k′幅立体图像的客观视觉舒适度评价预测值记为Qk′,Qk′=f(Xk′),其中,1≤k′≤K′,K′表示测试样本数据集合中包含的立体图像的幅数,f()为函数表示形式,Xk′表示测试样本数据集合中的第k′幅立体图像的特征矢量,(wopt)T为wopt的转置矢量,表示Xk′的线性函数;
之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
在此具体实施例中,步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K′=n-t幅立体图像构成测试集,其中,符号为向上取整符号。
⑦-2、将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为Ωt,{Xk,MOSk}∈Ωt,其中,Xk表示训练样本数据集合Ωt中的第k幅立体图像的特征矢量,MOSk表示训练样本数据集合Ωt中的第k幅立体图像的平均主观评分均值,1≤k≤t。
⑦-3、构造训练样本数据集合Ωt中的每幅立体图像的特征矢量的回归函数,将Xk的回归函数记为f(Xk),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xk的线性函数,D(Xk,Xl′)为支持向量回归中的核函数,Xl′为训练样本数据集合Ωt中的第l′幅立体图像的特征矢量,1≤l′≤t,γ为核参数,在此取γ=54,exp()表示以e为底的指数函数,e=2.71828183,符号“|| ||”为求欧式距离符号。
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt), ( w opt , b opt ) = arg min ( w , b ) &Element; &Psi; &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 , 利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练的所有的权重矢量和偏置项的组合的集合, arg min ( w , b ) &Element; &Psi; &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 表示使得 &Sigma; k = 1 t ( f ( X k ) - MOS k ) 2 最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
⑦-5、将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k′幅立体图像的客观视觉舒适度评价预测值记为Qk′其中,1≤k′≤K′,Xk′表示测试样本数据集合中的第k′幅立体图像的特征矢量,表示Xk′的线性函数。
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K′=n-t幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,再将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squarederror,RMSE),PLCC和RMSE反映客观评价预测值的准确性,SROCC和KROCC反映其单调性。将计算得到的120幅立体图像的客观视觉舒适度评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高、RMSE值越小说明本发明方法的评价结果与平均主观评分均值的相关性越好。表1给出了采用不同特征组合得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性,从表1中可以看出,只采用两个特征组合得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性均不是最优的,并且由视差幅度特征构成的特征对评价性能的影响比其他两个特征要大,这说明了本发明方法提取的视差幅度、视差梯度和空间频率特征是有效的,使得得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性更强,这足以说明本发明方法是有效的。
图5给出了采用视差幅度和视差梯度两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图,图6给出了采用视差幅度和空间频率两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图,图7给出了采用视差梯度和空间频率两个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图,图8给出了采用视差幅度、视差梯度和空间频率三个特征得到的客观视觉舒适度评价预测值与平均主观评分均值的散点图,散点图中的散点越集中,说明客观评价结果与主观感知的一致性越好。从图5至图8中可以看出,采用本发明方法得到的散点图中的散点比较集中,与主观评价数据之间的吻合度较高。
表1 采用不同特征组合得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性
特征矢量 X=[ξ12] X=[ξ13] X=[ξ23] X=[ξ123]
PLCC 0.7478 0.7726 0.6472 0.7996
SROCC 0.7881 0.8101 0.6800 0.8192
KROCC 0.5849 0.6038 0.5016 0.6123
RMSE 0.5341 0.5109 0.6133 0.4732

Claims (6)

1.一种立体图像视觉舒适度评价方法,其特征在于包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用多个不同尺度对{IR(x,y)}进行分块处理,然后获取{IR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{IR(x,y)}在不同尺度下的每个子块的特征矢量,获取{IR(x,y)}在不同尺度下的每个子块的显著值,进而获得{IR(x,y)}在不同尺度下的图像显著图,最后将{IR(x,y)}在不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},其中,SMimg(x,y)表示{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤②的具体过程为:
②-1、采用J个不同尺度对{IR(x,y)}进行分块处理,在第j个尺度hj下将{IR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号;
②-2、将{IR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第一子块,其中,
②-3、将当前第一子块记为{fj,l(x2,y2)},其中,(x2,y2)表示当前第一子块{fj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,fj,l(x2,y2)表示当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值;
②-4、获取当前第一子块{fj,l(x2,y2)}中的每个像素点的水平梯度值和垂直梯度值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的红-绿颜色分量及蓝-黄颜色分量,获取当前第一子块{fj,l(x2,y2)}中的每个像素点经Log-Gabor滤波后得到的振幅;
②-5、根据步骤②-4获取的当前第一子块{fj,l(x2,y2)}中的每个像素点的多个图像感知特征,以及当前第一子块{fj,l(x2,y2)}中的每个像素点的坐标位置,获取当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,将当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l f ( x 2 , y 2 ) , X j , l f ( x 2 , y 2 ) = [ GX f ( x 2 , y 2 ) , GY f ( x 2 , y 2 ) , L ( x 2 , y 2 ) , a ( x 2 , y 2 ) , b ( x 2 , y 2 ) , &Delta;RG ( x 2 , y 2 ) , &Delta;BY ( x 2 , y 2 ) , LG ( x 2 , y 2 ) , x 2 , y 2 ] ,其中,符号“[]”为矢量表示符号,的维数为10,GXf(x2,y2)和GYf(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,L(x2,y2)、a(x2,y2)及b(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点从RGB颜色空间转换到CIELAB颜色空间后亮度分量L的颜色值、色度分量a的颜色值及色度分量b的颜色值,ΔRG(x2,y2)和ΔBY(x2,y2)对应为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的红-绿颜色分量和蓝-黄颜色分量,LG(x2,y2)为当前第一子块{fj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经Log-Gabor滤波后得到的振幅;
②-6、根据当前第一子块{fj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第一子块{fj,l(x2,y2)}的协方差矩阵,记为 C j , l f , C j , l f = 1 h j &times; h j - 1 &Sigma; x 2 = 1 h j &Sigma; y 2 = 1 h j ( X j , l f ( x 2 , y 2 ) - &mu; j , l f ) ( X j , l f ( x 2 , y 2 ) - &mu; j , l f ) T , 其中,表示当前第一子块{fj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为10×10;
②-7、对当前第一子块{fj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第一子块{fj,l(x2,y2)}的Sigma特征集,记为 S j , l f = [ 10 &times; L ( 1 ) , . . . , 10 &times; L ( i &prime; ) , . . . , 10 &times; L ( 10 ) , - 10 &times; L ( 1 ) , . . . , - 10 &times; L ( i &prime; ) , . . . , - 10 &times; L ( 10 ) , &mu; j , l f ] , 其中,LT为L的转置矩阵,此处1≤i'≤10,L(1)表示L的第1列向量,L(i')表示L的第i'列向量,L(10)表示L的第10列向量,的维数为10×21;
②-8、计算当前第一子块{fj,l(x2,y2)}的显著值,记为 SM j , l f = &Sigma; l &prime; &Element; N ( l ) k ( y j , l &prime; f , y j , min f ) &CenterDot; y j , l &prime; f &Sigma; l &prime; &Element; N ( l ) k ( y j , l &prime; f , y j , min f ) , 其中,N(l)表示以当前第一子块{fj,l(x2,y2)}为中心的邻域窗口,表示当前第一子块{fj,l(x2,y2)}的Sigma特征集与相邻的第l'个子块的Sigma特征集之间的欧式距离,符号“||||”为求欧式距离符号,此处xl表示当前第一子块{fj,l(x2,y2)}的中心像素点的坐标位置,此处xl'表示与当前第一子块{fj,l(x2,y2)}相邻的第l'个子块的中心像素点的坐标位置,表示N(l)内的所有子块的Sigma特征集与当前第一子块{fj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值,h为控制系数;
②-9、根据人眼的中心偏移特性,计算当前第一子块{fj,l(x2,y2)}的最终的显著值,记为 其中,符号“||||”为求欧式距离符号,xc表示{IR(x,y)}的中心像素点的坐标位置,Z为控制系数;
②-10、将当前第一子块{fj,l(x2,y2)}的最终的显著值作为当前第一子块{fj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{IR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第一子块,再返回步骤②-3继续执行,直至{IR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{IR(x,y)}的图像显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值;
②-11、令j=j+1,然后返回步骤②-2继续执行,直至得到{IR(x,y)}在J个不同尺度下的图像显著图,再将{IR(x,y)}在J个不同尺度下的图像显著图进行融合,得到{IR(x,y)}的最终的图像显著图,记为{SMimg(x,y)},将{SMimg(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMimg(x,y),其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数;
③采用多个不同尺度对{dR(x,y)}进行分块处理,然后获取{dR(x,y)}在不同尺度下的每个子块的特征矢量,接着根据{dR(x,y)}在不同尺度下的每个子块的特征矢量,获取{dR(x,y)}在不同尺度下的每个子块的显著值,进而获得{dR(x,y)}在不同尺度下的深度显著图,最后将{dR(x,y)}在不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},其中,SMdep(x,y)表示{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤③的具体过程为:
③-1、采用J个不同尺度对{dR(x,y)}进行分块处理,在第j个尺度hj下将{dR(x,y)}划分成个互不重叠的尺寸大小为hj×hj的子块,其中,1≤j≤J,2≤J≤5,符号为向下取整符号;
③-2、将{dR(x,y)}在第j个尺度hj下当前待处理的第l个子块定义为当前第二子块,其中,
③-3、将当前第二子块记为{gj,l(x2,y2)},其中,(x2,y2)表示当前第二子块{gj,l(x2,y2)}中的像素点的坐标位置,1≤x2≤hj,1≤y2≤hj,gj,l(x2,y2)表示当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值;
③-4、获取当前第二子块{gj,l(x2,y2)}中的每个像素点的像素值、水平梯度值和垂直梯度值,获取当前第二子块{gj,l(x2,y2)}中的每个像素点经高斯差分算子后得到的响应值;
③-5、根据步骤③-4获取的当前第二子块{gj,l(x2,y2)}中的每个像素点的多个深度感知特征,获取当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,将当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的特征矢量记为 X j , l g ( x 2 , y 2 ) = [ d R ( x 2 , y 2 ) , GX g ( x 2 , y 2 ) , GY g ( x 2 , y 2 ) , DoG ( x 2 , y 2 ) ] , 其中,符号“[]”为矢量表示符号,的维数为4,dR(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的像素值,GXg(x2,y2)和GYg(x2,y2)对应为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点的水平梯度值和垂直梯度值,DoG(x2,y2)为当前第二子块{gj,l(x2,y2)}中坐标位置为(x2,y2)的像素点经高斯差分算子后得到的响应值;
③-6、根据当前第二子块{gj,l(x2,y2)}中的每个像素点的特征矢量,计算当前第二子块{gj,l(x2,y2)}的协方差矩阵,记为 C j , l g , C j , l g = 1 h j &times; h j - 1 &Sigma; x 2 = 1 h j &Sigma; y 2 = 1 h j ( X j , l g ( x 2 , y 2 ) - &mu; j , l g ) ( X j , l g ( x 2 , y 2 ) - &mu; j , l g ) T , 其中,表示当前第二子块{gj,l(x2,y2)}中的所有像素点的特征矢量的均值矢量,的转置矢量,的维数为4×4;
③-7、对当前第二子块{gj,l(x2,y2)}的协方差矩阵进行Cholesky分解,得到当前第二子块{gj,l(x2,y2)}的Sigma特征集,记为 S j , l g = [ 4 &times; L &prime; ( 1 ) , . . . , 4 &times; L &prime; ( i &prime; ) , . . . , 4 &times; L &prime; ( 4 ) , - 4 &times; L &prime; ( 1 ) , . . . , - 4 &times; L &prime; ( i &prime; ) , . . . , - 4 &times; L &prime; ( 4 ) , &mu; j , l g ] , 其中,L'T为L'的转置矩阵,此处1≤i'≤4,L'(1)表示L'的第1列向量,L'(i')表示L'的第i'列向量,L'(4)表示L'的第4列向量,的维数为4×9;
③-8、计算当前第二子块{gj,l(x2,y2)}的显著值,记为 SM j , l g , SM j , l g = &Sigma; l &prime; &Element; N &prime; ( l ) k ( y j , l &prime; g , y j , min g ) &CenterDot; y j , l &prime; g &Sigma; l &prime; &Element; N &prime; ( l ) k ( y j , l &prime; g , y j , min g ) , 其中,N'(l)表示以当前第二子块{gj,l(x2,y2)}为中心的邻域窗口,表示当前第二子块{gj,l(x2,y2)}的Sigma特征集与相邻的第l'个子块的Sigma特征集之间的欧式距离,符号“||||”为求欧式距离符号,此处xl表示当前第二子块{gj,l(x2,y2)}的中心像素点的坐标位置,此处xl'表示与当前第二子块{gj,l(x2,y2)}相邻的第l'个子块的中心像素点的坐标位置,表示N'(l)内的所有子块的Sigma特征集与当前第二子块{gj,l(x2,y2)}的Sigma特征集之间的欧氏距离中的最小值,h为控制系数;
③-9、将当前第二子块{gj,l(x2,y2)}的显著值作为当前第二子块{gj,l(x2,y2)}中的所有像素点的显著值,然后令l=l+1,将{dR(x,y)}在第j个尺度hj下下一个待处理的子块作为当前第二子块,再返回步骤③-3继续执行,直至{dR(x,y)}在第j个尺度hj下的所有子块均处理完毕,得到在第j个尺度hj下{dR(x,y)}的深度显著图,记为其中,l=l+1中的“=”为赋值符号,表示中坐标位置为(x,y)的像素点的像素值;
③-10、令j=j+1,然后返回步骤③-2继续执行,直至得到{dR(x,y)}在J个不同尺度下的深度显著图,再将{dR(x,y)}在J个不同尺度下的深度显著图进行融合,得到{dR(x,y)}的最终的深度显著图,记为{SMdep(x,y)},将{SMdep(x,y)}中坐标位置为(x,y)的像素点的像素值记为SMdep(x,y),其中,j=j+1中“=”为赋值符号,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数;
④根据{IR(x,y)}的图像显著图{SMimg(x,y)}和{dR(x,y)}的深度显著图{SMdep(x,y)},获取{IR(x,y)}的立体显著图,记为{SM3D(x,y)},将{SM3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为SM3D(x,y),其中,表示SMimg(x,y)的权重,表示SMdep(x,y)的权重,
⑤根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值和视差梯度,对应记为ξ1和ξ2;并根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3;然后将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号;
所述的步骤⑤的具体过程为:
⑤-1、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差幅值,记为ξ1其中,符号“||”为取绝对值符号;
⑤-2、根据{dR(x,y)}和{SM3D(x,y)},计算{dR(x,y)}中立体显著图加权的视差梯度,记为ξ2 &xi; 2 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; | &Delta; d R ( x , y ) | &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , ΔdR(x,y)=(dR(x+1,y)+dR(x-1,y)+dR(x,y+1)+dR(x,y-1))/4-dR(x,y),其中,符号“||”为取绝对值符号,dR(x+1,y)表示{dR(x,y)}中坐标位置为(x+1,y)的像素点的像素值,dR(x-1,y)表示{dR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,dR(x,y+1)表示{dR(x,y)}中坐标位置为(x,y+1)的像素点的像素值,dR(x,y-1)表示{dR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x+1>W,则dR(x+1,y)的值由dR(W,y)的值替代,如果x-1<1,则dR(x-1,y)的值由dR(1,y)的值替代,如果y+1>H,则dR(x,y+1)的值由dR(x,H)的值替代,如果y-1<1,则dR(x,y-1)的值由dR(x,1)的值替代;
⑤-3、根据{IR(x,y)}和{SM3D(x,y)},计算{IR(x,y)}中立体显著图加权的空间频率,记为ξ3 &xi; 3 = &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) &CenterDot; c ( x , y ) &Sigma; x = 1 W &Sigma; y = 1 H SM 3 D ( x , y ) , c ( x , y ) = ( I R ( x , y ) - I R ( x - 1 , y ) ) 2 + ( I R ( x , y ) - I R ( x , y - 1 ) ) 2 , 其中,IR(x-1,y)表示{IR(x,y)}中坐标位置为(x-1,y)的像素点的像素值,IR(x,y-1)表示{IR(x,y)}中坐标位置为(x,y-1)的像素点的像素值,如果x-1<1,则IR(x-1,y)的值由IR(1,y)的值替代,如果y-1<1,则IR(x,y-1)的值由IR(x,1)的值替代;
⑤-4、将ξ1、ξ2和ξ3按顺序进行排列构成待评价的立体图像的用于反映视觉舒适度的特征矢量,记为X,X=[ξ123],其中,此处符号“[]”为矢量表示符号,X的维数为3;
⑥采用n副各不相同的立体图像以及每幅立体图像对应的右视差图像建立一个立体图像集合,其中,n≥1;然后利用主观质量评价方法分别获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第i幅立体图像的视觉舒适度的平均主观评分均值记为MOSi,其中,1≤i≤n,MOSi∈[1,5];再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式分别获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第i幅立体图像的特征矢量记为Xi
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,训练得到最优的权重矢量wopt和最优的偏置项bopt,接着利用wopt和bopt构造得到支持向量回归训练模型,再根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k'幅立体图像的客观视觉舒适度评价预测值记为Qk'其中,1≤k'≤K',K'表示测试样本数据集合中包含的立体图像的幅数,f()为函数表示形式,Xk'表示测试样本数据集合中的第k'幅立体图像的特征矢量,(wopt)T为wopt的转置矢量,表示Xk'的线性函数;
之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
2.根据权利要求1所述的一种立体图像视觉舒适度评价方法,其特征在于所述的步骤②-1中取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64;所述的步骤②-8中取N(l)的大小为7×7,取h=0.5;所述的步骤②-9中取所述的步骤②-11中取σ=0.02×H。
3.根据权利要求1所述的一种立体图像视觉舒适度评价方法,其特征在于所述的步骤③-1中取J=4,j=1时取h1=8,j=2时取h2=16,j=3时取h3=32,j=4时取h4=64;所述的步骤③-8中取N'(l)的大小为3×3,取h=0.5;所述的步骤③-10中取σ=0.02×H。
4.根据权利要求3所述的一种立体图像视觉舒适度评价方法,其特征在于所述的步骤④中取
5.根据权利要求1所述的一种立体图像视觉舒适度评价方法,其特征在于所述的步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K'=n-t幅立体图像构成测试集,其中,符号为向上取整符号;
⑦-2、将训练集中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为Ωt,{Xk,MOSk}∈Ωt,其中,Xk表示训练样本数据集合Ωt中的第k幅立体图像的特征矢量,MOSk表示训练样本数据集合Ωt中的第k幅立体图像的平均主观评分均值,1≤k≤t;
⑦-3、构造训练样本数据集合Ωt中的每幅立体图像的特征矢量的回归函数,将Xk的回归函数记为f(Xk),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xk的线性函数,D(Xk,Xl')为支持向量回归中的核函数,Xl'为训练样本数据集合Ωt中的第l'幅立体图像的特征矢量,1≤l'≤t,γ为核参数,exp()表示以e为底的指数函数,e=2.71828183,符号“||||”为求欧式距离符号;
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合Ωt中的所有立体图像的特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示使得最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
⑦-5、将测试集中的所有立体图像的特征矢量和平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每幅立体图像的特征矢量进行测试,预测得到测试样本数据集合中的每幅立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第k'幅立体图像的客观视觉舒适度评价预测值记为Qk',Qk'=f(Xk'),其中,1≤k'≤K',Xk'表示测试样本数据集合中的第k'幅立体图像的特征矢量,表示Xk'的线性函数;
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的K'=n-t幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的客观视觉舒适度评价预测值的平均值,再将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N的值取大于100。
6.根据权利要求5所述的一种立体图像视觉舒适度评价方法,其特征在于所述的步骤⑦-3中取γ=54。
CN201310522750.0A 2013-10-28 2013-10-28 一种立体图像视觉舒适度评价方法 Active CN103581661B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310522750.0A CN103581661B (zh) 2013-10-28 2013-10-28 一种立体图像视觉舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310522750.0A CN103581661B (zh) 2013-10-28 2013-10-28 一种立体图像视觉舒适度评价方法

Publications (2)

Publication Number Publication Date
CN103581661A CN103581661A (zh) 2014-02-12
CN103581661B true CN103581661B (zh) 2015-06-03

Family

ID=50052440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310522750.0A Active CN103581661B (zh) 2013-10-28 2013-10-28 一种立体图像视觉舒适度评价方法

Country Status (1)

Country Link
CN (1) CN103581661B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103873854B (zh) * 2014-02-26 2015-08-19 天津大学 一种立体图像主观评价被试者数量及实验数据的确定方法
CN103856775B (zh) * 2014-03-18 2015-07-01 天津大学 一种立体视频质量主观评价结果的处理方法
CN104243956B (zh) * 2014-09-12 2016-02-24 宁波大学 一种立体图像视觉显著图提取方法
CN104598908B (zh) * 2014-09-26 2017-11-28 浙江理工大学 一种农作物叶部病害识别方法
CN104469355B (zh) * 2014-12-11 2016-09-28 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN104581141B (zh) * 2015-01-09 2016-06-22 宁波大学 一种立体图像视觉舒适度评价方法
CN104811693B (zh) * 2015-04-14 2016-06-29 宁波大学 一种立体图像视觉舒适度客观评价方法
CN104954778B (zh) * 2015-06-04 2017-05-24 宁波大学 一种基于感知特征集的立体图像质量客观评价方法
CN104902267B (zh) * 2015-06-08 2017-02-01 浙江科技学院 一种基于梯度信息的无参考图像质量评价方法
CN105321175B (zh) * 2015-09-23 2017-09-19 宁波大学 一种基于结构纹理稀疏表示的立体图像质量客观评价方法
CN105335992B (zh) 2015-10-15 2020-02-04 北京邮电大学 一种三维动画场景帧评分模型确定方法及装置
CN106683072B (zh) * 2015-11-09 2020-02-21 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN105430370B (zh) * 2015-11-24 2017-05-03 宁波大学 一种基于排序学习的立体图像视觉舒适度评价方法
CN105407349B (zh) * 2015-11-30 2017-05-03 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
CN106097327B (zh) * 2016-06-06 2018-11-02 宁波大学 结合流形特征及双目特性的立体图像质量客观评价方法
CN106604012B (zh) * 2016-10-20 2019-01-22 吉林大学 一种针对垂直视差的3d视频舒适度评价方法
WO2018082130A1 (zh) * 2016-11-02 2018-05-11 华为技术有限公司 一种显著图生成方法及用户终端
CN106993183A (zh) * 2017-03-28 2017-07-28 天津大学 基于立体图像显著区域的舒适亮度定量方法
CN107360416A (zh) * 2017-07-12 2017-11-17 天津大学 基于局部多元高斯描述子的立体图像质量评价方法
CN107645661B (zh) * 2017-09-21 2019-05-03 北京牡丹电子集团有限责任公司数字电视技术中心 一种头戴显示设备视频图像舒适度等级的测评方法和系统
CN107977967B (zh) * 2017-12-22 2022-05-03 中国矿业大学 一种面向视角合成的无参考图像质量评价方法
CN108322733B (zh) * 2018-01-17 2019-09-03 宁波大学 一种无参考高动态范围图像客观质量评价方法
CN108682005B (zh) * 2018-04-25 2021-06-18 西北工业大学 基于协方差矩阵特征的半参考3d合成图像质量评价方法
CN109257593B (zh) * 2018-10-12 2020-08-18 天津大学 基于人眼视觉感知过程的沉浸式虚拟现实质量评价方法
KR102295652B1 (ko) * 2020-07-30 2021-08-30 국방과학연구소 딥러닝 기반 비디오 품질 측정 장치 및 방법
CN112738501B (zh) * 2020-12-29 2022-05-17 杭州电子科技大学 一种立体图像舒适度测试方法
KR102418000B1 (ko) * 2022-03-15 2022-07-07 광주과학기술원 컬러 이미지와 모노크롬 이미지를 이용하여 스테레오 매칭을 수행하는 방법 및 이를 이용한 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101448175A (zh) * 2008-12-25 2009-06-03 华东师范大学 一种无参考的流视频质量评估方法
CN101610425A (zh) * 2009-07-29 2009-12-23 清华大学 一种评测立体图像质量的方法和装置
CN102209257A (zh) * 2011-06-17 2011-10-05 宁波大学 一种立体图像质量客观评价方法
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029371A (ko) * 2006-09-29 2008-04-03 광운대학교 산학협력단 영상 화질 평가 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101448175A (zh) * 2008-12-25 2009-06-03 华东师范大学 一种无参考的流视频质量评估方法
CN101610425A (zh) * 2009-07-29 2009-12-23 清华大学 一种评测立体图像质量的方法和装置
CN102209257A (zh) * 2011-06-17 2011-10-05 宁波大学 一种立体图像质量客观评价方法
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
影响立体图像舒适度的亮度范围测定;臧艳军;《电子测量技术》;20120229;第35卷(第2期);全文 *
顾珊波,等.基于支持向量回归的立体图像客观质量评价模型.《电子与信息学报》.2012,第34卷(第2期), *

Also Published As

Publication number Publication date
CN103581661A (zh) 2014-02-12

Similar Documents

Publication Publication Date Title
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN105407349B (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN102750695B (zh) 一种基于机器学习的立体图像质量客观评价方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN104581143A (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN103338379B (zh) 一种基于机器学习的立体视频客观质量评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN104811691B (zh) 一种基于小波变换的立体视频质量客观评价方法
CN105744256A (zh) 基于图谱视觉显著的立体图像质量客观评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN104036502A (zh) 一种无参考模糊失真立体图像质量评价方法
CN105654465B (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN104144339B (zh) 一种基于人眼感知的质降参考立体图像质量客观评价方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN105898279B (zh) 一种立体图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191217

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200604

Address after: Room 501, office of market supervision bureau, Langchuan Avenue, Jianping Town, Langxi County, Xuancheng City, Anhui Province

Patentee after: Langxi pinxu Technology Development Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230803

Address after: 200120 building C, No. 888, Huanhu West 2nd Road, Lingang New Area, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai

Patentee after: Xianxuan (Shanghai) Information Technology Co.,Ltd.

Address before: 242000 Room 501, market supervision bureau office, Langchuan Avenue, Jianping Town, Langxi County, Xuancheng City, Anhui Province

Patentee before: Langxi pinxu Technology Development Co.,Ltd.