CN104811693B - 一种立体图像视觉舒适度客观评价方法 - Google Patents

一种立体图像视觉舒适度客观评价方法 Download PDF

Info

Publication number
CN104811693B
CN104811693B CN201510173232.1A CN201510173232A CN104811693B CN 104811693 B CN104811693 B CN 104811693B CN 201510173232 A CN201510173232 A CN 201510173232A CN 104811693 B CN104811693 B CN 104811693B
Authority
CN
China
Prior art keywords
stereo
picture
designated
vector
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510173232.1A
Other languages
English (en)
Other versions
CN104811693A (zh
Inventor
邵枫
姜求平
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Langxi pinxu Technology Development Co., Ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510173232.1A priority Critical patent/CN104811693B/zh
Publication of CN104811693A publication Critical patent/CN104811693A/zh
Application granted granted Critical
Publication of CN104811693B publication Critical patent/CN104811693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种立体图像视觉舒适度客观评价方法,其首先提取出立体图像的右视差图像的用于反映视觉舒适度的初级视觉特征矢量和高级视觉特征矢量,并融合得到立体图像的特征矢量,再利用支持向量回归对立体图像集合中的所有立体图像的特征矢量进行训练,最后利用训练得到的支持向量回归训练模型对立体图像集合中的每幅立体图像的特征矢量进行测试,得到每幅立体图像的客观视觉舒适度评价预测值;优点是根据立体图像的右视差图像的初级视觉特征矢量和高级视觉特征矢量获得的立体图像的特征矢量具有较强的稳定性,且能够较好地反映立体图像的视觉舒适度变化情况,从而有效地提高了客观评价结果与主观感知之间的相关性。

Description

一种立体图像视觉舒适度客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种立体图像视觉舒适度客观评价方法。
背景技术
随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,立体视频的视觉体验质量(QoE,QualityofExperience)是立体视频系统设计中的一个重要问题,而视觉舒适度(VC,VisualComfort)是影响立体视频的视觉体验质量的重要因素。目前,对立体视频/立体图像的质量评价研究主要考虑了内容失真对于图像质量的影响,而很少考虑视觉舒适度等因素的影响。因此,为了提高观看者的视觉体验质量,研究立体视频/立体图像的视觉舒适度客观评价模型对指导3D内容的制作和后期处理具有十分重要的作用。
传统的立体图像视觉舒适度客观评价方法主要采用全局的视差统计特性来预测视觉舒适度。然而,过大的双目视差、人眼焦点调节与辐辏机制冲突通常被认为是引起视觉不舒适的主要原因。人眼的双眼融合机制为具有水平视差的左、右眼物像融合成具有立体感的单一清晰物像提供了生理保证,然而如果水平视差过大,则会导致物像落在Panum融合区域外,人眼将无法正常形成双眼单视性,长时间观看容易造成严重的视觉疲劳;此外,不同于自然观看条件下人眼焦点调节与辐辏机制的一致性(调节距离和辐辏距离都在观看屏幕上),在观看立体图像时,人眼焦点调节与辐辏机制会产生不同程度的冲突,同样会影响观看者的视觉体验质量。因此,如何在评价过程中有效地表征上述人眼视觉处理机制,使得客观评价结果更加感觉符合人类视觉系统,是在对立体图像进行视觉舒适度客观评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉舒适度客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉舒适度客观评价方法,其特征在于包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示待评价的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待评价的立体图像的宽度,H表示待评价的立体图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②利用基于图论的视觉显著模型提取出{IR(x,y)}的显著图,记为{SMR(x,y)};然后根据{SMR(x,y)}和{dR(x,y)},获取{IR(x,y)}的视觉显著图,记为{Sstereo(x,y)},将{Sstereo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sstereo(x,y),其中,SMR(x,y)表示{SMR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示SMR(x,y)的权重,表示dR(x,y)的权重,
③根据{Sstereo(x,y)}和{dR(x,y)},获取{dR(x,y)}中的所有像素点的显著加权视差幅值f1、显著加权视差对比度f2、显著加权视差散度f3、显著加权视差偏度f4、平均最大视差f5和平均最小视差f6,然后将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号;
④利用视差转换算法计算{dR(x,y)}的角视差图像;然后利用不同神经元的视差调制函数对{dR(x,y)}的角视差图像进行调制操作,得到{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应;再根据{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应,获取{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示{dR(x,y)}的角视差图像中的第i个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量;
⑤将Fp和Fa组合成一个新的特征矢量,记为X,X=[Fp,Fa],然后将X作为待评价的立体图像的特征矢量,其中,符号“[]”为矢量表示符号,X=[Fp,Fa]表示将Fp和Fa连接起来形成一个新的特征矢量;
⑥将M副各不相同的立体图像构成一个立体图像集合;然后利用主观质量评价方法获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第m副立体图像的视觉舒适度的平均主观评分均值记为MOSm;再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第m副立体图像的特征矢量记为Xm;其中,M表示立体图像集合中包含的立体图像的幅数,M≥1,1≤m≤M,MOSm∈[1,5];
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合;然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;接着利用wopt和bopt构造得到支持向量回归训练模型;再根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,S表示训练集中包含的立体图像的幅数,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,(wopt)T为wopt的转置矩阵,表示测试样本数据集合中的第q个特征矢量的线性函数;之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
所述的步骤③的具体过程为:
③-1、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差幅值,记为f1其中,符号“||”为取绝对值符号,dmax为{dR(x,y)}的最大视差幅值;
③-2、利用高斯差分滤波器对{dR(x,y)}实施滤波操作,得到{dR(x,y)}的视差对比度图,记为{dC(x,y)},将{dC(x,y)}中坐标位置为(x,y)的像素点的像素值记为dC(x,y),其中, h σ ( x , y ) = 1 2 π σ 2 exp ( - x 2 + y 2 2 σ 2 ) - 1 2 π k ′ 2 σ 2 exp ( - x 2 + y 2 2 k ′ 2 σ 2 ) , σ表示高斯差分滤波器的尺度,k'表示高斯差分滤波器的滤波中心与环绕区域的比例,exp()表示以自然基数e为底的指数函数,符号“”为卷积操作符号;
③-3、根据{Sstereo(x,y)}和{dC(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差对比度,记为f2其中,符号“||”为取绝对值符号;
③-4、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差散度,记为f3 f 3 = 1 d max × Σ x = 1 W Σ y = 1 H S stereo ( x , y ) × ( d R ( x , y ) ) 2 Σ x = 1 W Σ y = 1 H S stereo ( x , y ) ;
③-5、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差偏度,记为f4其中,符号“||”为取绝对值符号;
③-6、计算{dR(x,y)}中的所有像素点的平均最大视差,记为f5其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从大到小的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合, N Ω p + = 0.1 × ( W × H ) ;
③-7、计算{dR(x,y)}中的所有像素点的平均最小视差,记为f6其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从小到大的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合, N Ω p - = 0.1 × ( W × H ) ;
③-8、将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号。
所述的步骤④的具体过程为:
④-1、利用视差转换算法计算{dR(x,y)}的角视差图像,记为{φR(x,y)};然后计算{φR(x,y)}的视差直方图,记为其中,φR(x,y)表示{φR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示{φR(x,y)}中像素值属于第k个视差区间的所有像素点的个数,L表示中的视差区间的总数;
④-2、利用13个不同神经元的视差调制函数对{φR(x,y)}进行调制操作,得到{φR(x,y)}中的不同神经元在不同视差区间的响应,将{φR(x,y)}中的第i个神经元在第k个视差区间的响应记为Ri,k其中,1≤i≤13,1≤k≤L,p(k|φR(x,y))表示φR(x,y)属于第k个视差区间的概率,如果φR(x,y)属于第k个视差区间,则p(k|φR(x,y))=1,如果φR(x,y)不属于第k个视差区间,则p(k|φR(x,y))=0,giR(x,y))表示第i个神经元的视差调制函数, g i ( φ R ( x , y ) ) = A i × e - 0.5 ( ( φ R ( x , y ) - d 0 i ) 2 / δ i 2 ) × cos ( 2 π f i × ( φ R ( x , y ) - d 0 i ) + Φ i ) , Ai表示第i个神经元的视差调制函数的振幅,Ai∈{44,67,73,42,110,124,51,77,46,121,49,31,92},表示第i个神经元的视差调制函数的中心, d 0 i ∈ { - 0.23 , - 0.46,0.15 , - 0.11 , - 0.04 , - 0.16 , - 0.02,0.04 , - 0.01,0.24,0.81,1.6 , - 0.23 } , δi表示第i个神经元的视差调制函数的高斯核宽度,δi∈{1.86,1.16,1.07,0.62,0.53,0.31,0.62,0.67,0.57,0.52,1.01,2.10,0.56},fi表示第i个神经元的视差调制函数的频率,fi∈{0.19,0.25,0.28,0.43,0.51,0.37,0.42,0.50,0.49,0.30,0.21,0.19,0.33},Φi表示第i个神经元的视差调制函数的相位,Φi∈{74,86,123,73,40,-51,-38,-55,-92,-61,-19,38,-162},cos()表示求余弦函数;
④-3、将{φR(x,y)}中的每个神经元在所有视差区间的响应构成一个向量,将{φR(x,y)}中的第i个神经元在所有视差区间的响应构成的向量记为xi,xi=[Ri,1,Ri,2,…,Ri,L];然后获取{φR(x,y)}中的每个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量,将xi经最大池化后得到的特征矢量记为xi其中,Ri,1、Ri,2和Ri,L对应表示{φR(x,y)}中的第i个神经元在第1个视差区间的响应、在第2个视差区间的响应、在第L个视差区间的响应,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值,符号“[]”为矢量表示符号;
④-4、计算{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示中的第k个元素的值。
所述的步骤④-3中的获取过程为:利用最大池化方法重新计算xi中的每个元素的值,将Ri,k经最大池化方法重新计算后得到的值记为 然后将xi中的所有元素各自的值经最大池化方法重新计算后得到的值按顺序排列构成一个特征矢量,记为 其中,max()为取最大值函数,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值。
所述的步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,其中,符号“”为向下取整符号;
⑦-2、将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,记为ΩS,{Xt,MOSt}∈ΩS,其中,Xt表示训练样本数据集合ΩS中的第t个特征矢量,MOSt表示训练样本数据集合ΩS中的第t个视觉舒适度的平均主观评分均值,1≤t≤S;
⑦-3、构造训练样本数据集合ΩS中的每个特征矢量的回归函数,将Xt的回归函数记为f(Xt),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矩阵,b为偏置项,表示Xt的线性函数,为支持向量回归中的核函数,Xl为训练样本数据集合ΩS中的第l个特征矢量,1≤l≤S,γ为核参数,exp()表示以自然基数e为底的指数函数,符号“||||”为求欧式距离符号;
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合ΩS中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合ΩS中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矩阵,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
⑦-5、将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,表示测试样本数据集合中的第q个特征矢量的线性函数;
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
与现有技术相比,本发明的优点在于:本发明方法考虑了人眼立体视觉注意机制(StereoVisualAttention)与人脑视皮层中颞区神经处理机制(MiddleTemporalNeuralActivity)对立体视觉舒适度的关系,分别提取出立体图像的右视差图像的初级视觉特征矢量和高级视觉特征矢量,用于反映立体视觉舒适性特性,由于根据立体图像的右视差图像的初级视觉特征矢量和高级视觉特征矢量获得的立体图像的特征矢量具有较强的稳定性,且能够较好地反映立体图像的视觉舒适度变化情况,因此有效地提高了客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉舒适度客观评价方法,其总体实现框图如图1所示,其包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示待评价的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待评价的立体图像的宽度,H表示待评价的立体图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值。
②利用现有的基于图论的视觉显著(Graph-BasedVisualSaliency,GBVS)模型提取出{IR(x,y)}的显著图,记为{SMR(x,y)};然后根据{SMR(x,y)}和{dR(x,y)},获取{IR(x,y)}的视觉显著图,记为{Sstereo(x,y)},将{Sstereo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sstereo(x,y),其中,SMR(x,y)表示{SMR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示SMR(x,y)的权重,表示dR(x,y)的权重,在本实施例中取
③根据{Sstereo(x,y)}和{dR(x,y)},获取{dR(x,y)}中的所有像素点的显著加权视差幅值f1、显著加权视差对比度f2、显著加权视差散度f3、显著加权视差偏度f4、平均最大视差f5和平均最小视差f6,然后将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号。
在此具体实施例中,步骤③的具体过程为:
③-1、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差幅值,记为f1其中,符号“||”为取绝对值符号,dmax为{dR(x,y)}的最大视差幅值,即dmax为{dR(x,y)}中的所有像素点的视差幅值的最大值,对于{dR(x,y)}中坐标位置为(x,y)的像素点的视差幅值为|dR(x,y)|。
③-2、利用高斯差分滤波器对{dR(x,y)}实施滤波操作,得到{dR(x,y)}的视差对比度图,记为{dC(x,y)},将{dC(x,y)}中坐标位置为(x,y)的像素点的像素值记为dC(x,y),其中, h σ ( x , y ) = 1 2 π σ 2 exp ( - x 2 + y 2 2 σ 2 ) - 1 2 π k ′ 2 σ 2 exp ( - x 2 + y 2 2 k ′ 2 σ 2 ) , σ表示高斯差分滤波器的尺度,k'表示高斯差分滤波器的滤波中心与环绕区域的比例,在本实施例中取σ=32、k'=1.6,exp()表示以自然基数e为底的指数函数,符号“”为卷积操作符号。
③-3、根据{Sstereo(x,y)}和{dC(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差对比度,记为f2其中,符号“||”为取绝对值符号。
③-4、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差散度,记为f3 f 3 = 1 d max × Σ x = 1 W Σ y = 1 H S stereo ( x , y ) × ( d R ( x , y ) ) 2 Σ x = 1 W Σ y = 1 H S stereo ( x , y ) ;
③-5、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差偏度,记为f4其中,符号“||”为取绝对值符号。
③-6、计算{dR(x,y)}中的所有像素点的平均最大视差,记为f5其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从大到小的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合,表示将{dR(x,y)}中的所有像素点各自的像素值按从大到小的顺序排列后、前10%的像素值的总个数。
③-7、计算{dR(x,y)}中的所有像素点的平均最小视差,记为f6其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从小到大的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合,表示将{dR(x,y)}中的所有像素点各自的像素值按从小到大的顺序排列后、前10%的像素值的总个数。
③-8、将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号。
④利用现有的视差转换算法计算{dR(x,y)}的角视差图像;然后利用不同神经元的视差调制函数对{dR(x,y)}的角视差图像进行调制操作,得到{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应;再根据{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应,获取{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示{dR(x,y)}的角视差图像中的第i个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量。
在此具体实施例中,步骤④的具体过程为:
④-1、利用现有的视差转换算法计算{dR(x,y)}的角视差图像,记为{φR(x,y)};然后计算{φR(x,y)}的视差直方图,记为其中,φR(x,y)表示{φR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示{φR(x,y)}中像素值属于第k个视差区间的所有像素点的个数,L表示中的视差区间的总数,在本实施例中取L=64。
④-2、利用13个不同神经元的视差调制函数对{φR(x,y)}进行调制操作,得到{φR(x,y)}中的不同神经元在不同视差区间的响应,将{φR(x,y)}中的第i个神经元在第k个视差区间的响应记为Ri,k其中,1≤i≤13,1≤k≤L,p(k|φR(x,y))表示φR(x,y)属于第k个视差区间的概率,如果φR(x,y)属于第k个视差区间,则p(k|φR(x,y))=1,如果φR(x,y)不属于第k个视差区间,则p(k|φR(x,y))=0,giR(x,y))表示第i个神经元的视差调制函数, g i ( φ R ( x , y ) ) = A i × e - 0.5 ( ( φ R ( x , y ) - d 0 i ) 2 / δ i 2 ) × cos ( 2 π f i × ( φ R ( x , y ) - d 0 i ) + Φ i ) , Ai表示第i个神经元的视差调制函数的振幅,Ai∈{44,67,73,42,110,124,51,77,46,121,49,31,92},表示第i个神经元的视差调制函数的中心, d 0 i ∈ { - 0.23 , - 0.46,0.15 , - 0.11 , - 0.04 , - 0.16 , - 0.02,0.04 , - 0.01,0.24,0.81,1.6 , - 0.23 } , δi表示第i个神经元的视差调制函数的高斯核宽度,δi∈{1.86,1.16,1.07,0.62,0.53,0.31,0.62,0.67,0.57,0.52,1.01,2.10,0.56},fi表示第i个神经元的视差调制函数的频率,fi∈{0.19,0.25,0.28,0.43,0.51,0.37,0.42,0.50,0.49,0.30,0.21,0.19,0.33},Φi表示第i个神经元的视差调制函数的相位,Φi∈{74,86,123,73,40,-51,-38,-55,-92,-61,-19,38,-162},cos()表示求余弦函数。
④-3、将{φR(x,y)}中的每个神经元在所有视差区间的响应构成一个向量,将{φR(x,y)}中的第i个神经元在所有视差区间的响应构成的向量记为xi,xi=[Ri,1,Ri,2,…,Ri,L];然后获取{φR(x,y)}中的每个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量,将xi经最大池化后得到的特征矢量记为 其中,Ri,1、Ri,2和Ri,L对应表示{φR(x,y)}中的第i个神经元在第1个视差区间的响应、在第2个视差区间的响应、在第L个视差区间的响应,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值,符号“[]”为矢量表示符号。
在此,的获取过程为:利用现有的最大池化方法重新计算xi中的每个元素的值,将Ri,k经最大池化方法重新计算后得到的值记为 然后将xi中的所有元素各自的值经最大池化方法重新计算后得到的值按顺序排列构成一个特征矢量,记为其中,max()为取最大值函数,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值,亦表示Ri,1经最大池化方法重新计算后得到的值,亦表示Ri,2经最大池化方法重新计算后得到的值,亦表示Ri,L经最大池化方法重新计算后得到的值。
④-4、计算{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示中的第k个元素的值。
⑤将Fp和Fa组合成一个新的特征矢量,记为X,X=[Fp,Fa],然后将X作为待评价的立体图像的特征矢量,其中,符号“[]”为矢量表示符号,X=[Fp,Fa]表示将Fp和Fa连接起来形成一个新的特征矢量。
⑥将M副各不相同的立体图像构成一个立体图像集合;然后利用主观质量评价方法获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第m副立体图像的视觉舒适度的平均主观评分均值记为MOSm;再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第m副立体图像的特征矢量记为Xm;其中,M表示立体图像集合中包含的立体图像的幅数,M≥1,1≤m≤M,MOSm∈[1,5]。
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合;然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;接着利用wopt和bopt构造得到支持向量回归训练模型;再根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,S表示训练集中包含的立体图像的幅数,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,Xq亦表示测试集中的第q幅立体图像的特征矢量,(wopt)T为wopt的转置矩阵,表示测试样本数据集合中的第q个特征矢量的线性函数;之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
在此具体实施例中,步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,其中,符号“”为向下取整符号。
⑦-2、将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,记为ΩS,{Xt,MOSt}∈ΩS,其中,Xt表示训练样本数据集合ΩS中的第t个特征矢量,Xt亦表示训练集中的第t幅立体图像的特征矢量,MOSt表示训练样本数据集合ΩS中的第t个视觉舒适度的平均主观评分均值,MOSt亦表示训练集中的第t幅立体图像的视觉舒适度的平均主观评分均值,1≤t≤S。
⑦-3、构造训练样本数据集合ΩS中的每个特征矢量的回归函数,将Xt的回归函数记为f(Xt),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矩阵,b为偏置项,表示Xt的线性函数,为支持向量回归中的核函数,Xl为训练样本数据集合ΩS中的第l个特征矢量,1≤l≤S,γ为核参数,在本实施例中取γ=54,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“||||”为求欧式距离符号。
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合ΩS中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合ΩS中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矩阵,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
⑦-5、将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,Xq亦表示测试集中的第q幅立体图像的特征矢量,表示测试样本数据集合中的第q个特征矢量的线性函数。
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
在本实施例中,采用宁波大学建立的立体图像数据库作为立体图像集合,该立体图像数据库包含200副立体图像以及对应的右视差图像,该立体图像数据库包含了各种场景深度的室内和室外图像,并给出了每副立体图像的视觉舒适度的平均主观评分均值。
在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相关系数(Spearmanrankordercorrelationcoefficient,SROCC)、Kendall相关系数(Kendallrank-ordercorrelationcoefficient,KROCC)、均方误差(rootmeansquarederror,RMSE),PLCC和RMSE反映客观评价预测值的准确性,SROCC和KROCC反映其单调性。利用本发明方法计算上述200副立体图像各自的最终的客观视觉舒适度评价预测值,将计算得到的200副立体图像各自的最终的客观视觉舒适度评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高、RMSE值越小说明利用本发明方法得到的客观评价结果与平均主观评分均值的相关性越好。表1给出了采用不同特征矢量得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性,从表1中可以看出,只采用部分特征得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性均不是最优的,这说明了本发明方法提取的立体图像的特征矢量是有效的,使得得到的客观视觉舒适度评价预测值与平均主观评分均值之间的相关性更强,这足以说明本发明方法是有效的。
表1采用不同特征矢量得到的客观视觉舒适度评价预测与平均主观评分均值之间的相关性

Claims (3)

1.一种立体图像视觉舒适度客观评价方法,其特征在于包括以下步骤:
①将待评价的立体图像的左视点图像记为{IL(x,y)},将待评价的立体图像的右视点图像记为{IR(x,y)},将待评价的立体图像的右视差图像记为{dR(x,y)},其中,此处(x,y)表示待评价的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待评价的立体图像的宽度,H表示待评价的立体图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②利用基于图论的视觉显著模型提取出{IR(x,y)}的显著图,记为{SMR(x,y)};然后根据{SMR(x,y)}和{dR(x,y)},获取{IR(x,y)}的视觉显著图,记为{Sstereo(x,y)},将{Sstereo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sstereo(x,y),其中,SMR(x,y)表示{SMR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示SMR(x,y)的权重,表示dR(x,y)的权重,
③根据{Sstereo(x,y)}和{dR(x,y)},获取{dR(x,y)}中的所有像素点的显著加权视差幅值f1、显著加权视差对比度f2、显著加权视差散度f3、显著加权视差偏度f4、平均最大视差f5和平均最小视差f6,然后将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号;
所述的步骤③的具体过程为:
③-1、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差幅值,记为f1其中,符号“||”为取绝对值符号,dmax为{dR(x,y)}的最大视差幅值;
③-2、利用高斯差分滤波器对{dR(x,y)}实施滤波操作,得到{dR(x,y)}的视差对比度图,记为{dC(x,y)},将{dC(x,y)}中坐标位置为(x,y)的像素点的像素值记为dC(x,y), d C ( x , y ) = h σ ( x , y ) ⊗ d R ( x , y ) , 其中, h σ ( x , y ) = 1 2 πσ 2 exp ( - x 2 + y 2 2 σ 2 ) - 1 2 πk ′ 2 σ 2 exp ( - x 2 + y 2 2 k ′ 2 σ 2 ) , σ表示高斯差分滤波器的尺度,k'表示高斯差分滤波器的滤波中心与环绕区域的比例,exp()表示以自然基数e为底的指数函数,符号为卷积操作符号;
③-3、根据{Sstereo(x,y)}和{dC(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差对比度,记为f2其中,符号“||”为取绝对值符号;
③-4、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差散度,记为f3 f 3 = 1 d m a x × Σ x = 1 W Σ y = 1 H S s t e r e o ( x , y ) × ( d R ( x , y ) ) 2 Σ x = 1 W Σ y = 1 H S s t e r e o ( x , y ) ;
③-5、根据{Sstereo(x,y)}和{dR(x,y)},计算{dR(x,y)}中的所有像素点的显著加权视差偏度,记为f4其中,符号“||”为取绝对值符号;
③-6、计算{dR(x,y)}中的所有像素点的平均最大视差,记为f5其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从大到小的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合, N Ω p + = 0.1 × ( W × H ) ;
③-7、计算{dR(x,y)}中的所有像素点的平均最小视差,记为f6其中,表示将{dR(x,y)}中的所有像素点各自的像素值按从小到大的顺序排列后、前10%的像素值对应的所有像素点的坐标位置构成的集合, N Ω p - = 0.1 × ( W × H ) ;
③-8、将f1、f2、f3、f4、f5和f6按顺序进行排列得到{dR(x,y)}的初级视觉特征矢量,记为Fp,Fp=[f1,f2,f3,f4,f5,f6],其中,Fp的维数为6,符号“[]”为矢量表示符号;
④利用视差转换算法计算{dR(x,y)}的角视差图像;然后利用不同神经元的视差调制函数对{dR(x,y)}的角视差图像进行调制操作,得到{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应;再根据{dR(x,y)}的角视差图像中的不同神经元在不同视差区间的响应,获取{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示{dR(x,y)}的角视差图像中的第i个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量;
所述的步骤④的具体过程为:
④-1、利用视差转换算法计算{dR(x,y)}的角视差图像,记为{φR(x,y)};然后计算{φR(x,y)}的视差直方图,记为其中,φR(x,y)表示{φR(x,y)}中坐标位置为(x,y)的像素点的像素值,表示{φR(x,y)}中像素值属于第k个视差区间的所有像素点的个数,L表示中的视差区间的总数;
④-2、利用13个不同神经元的视差调制函数对{φR(x,y)}进行调制操作,得到{φR(x,y)}中的不同神经元在不同视差区间的响应,将{φR(x,y)}中的第i个神经元在第k个视差区间的响应记为Ri,k R i , k = Σ x = 1 W Σ y = 1 H p ( k | φ R ( x , y ) ) × g i ( φ R ( x , y ) ) , 其中,1≤i≤13,1≤k≤L,p(k|φR(x,y))表示φR(x,y)属于第k个视差区间的概率,如果φR(x,y)属于第k个视差区间,则p(k|φR(x,y))=1,如果φR(x,y)不属于第k个视差区间,则p(k|φR(x,y))=0,giR(x,y))表示第i个神经元的视差调制函数, g i ( φ R ( x , y ) ) = A i × e - 0.5 ( ( φ R ( x , y ) - d 0 i ) 2 / δ i 2 ) × c o s ( 2 πf i × ( φ R ( x , y ) - d 0 i ) + Φ i ) , Ai表示第i个神经元的视差调制函数的振幅,Ai∈{44,67,73,42,110,124,51,77,46,121,49,31,92},表示第i个神经元的视差调制函数的中心, d 0 i ∈ { - 0.23 , - 0.46 , 0.15 , - 0.11 , - 0.04 , - 0.16 , - 0.02 , 0.04 , - 0.01 , 0.24 , 0.81 , 1.6 , - 0.23 } , δi表示第i个神经元的视差调制函数的高斯核宽度,δi∈{1.86,1.16,1.07,0.62,0.53,0.31,0.62,0.67,0.57,0.52,1.01,2.10,0.56},fi表示第i个神经元的视差调制函数的频率,fi∈{0.19,0.25,0.28,0.43,0.51,0.37,0.42,0.50,0.49,0.30,0.21,0.19,0.33},Φi表示第i个神经元的视差调制函数的相位,Φi∈{74,86,123,73,40,-51,-38,-55,-92,-61,-19,38,-162},cos()表示求余弦函数;
④-3、将{φR(x,y)}中的每个神经元在所有视差区间的响应构成一个向量,将{φR(x,y)}中的第i个神经元在所有视差区间的响应构成的向量记为xi,xi=[Ri,1,Ri,2,…,Ri,L];然后获取{φR(x,y)}中的每个神经元在所有视差区间的响应构成的向量经最大池化后得到的特征矢量,将xi经最大池化后得到的特征矢量记为 其中,Ri,1、Ri,2和Ri,L对应表示{φR(x,y)}中的第i个神经元在第1个视差区间的响应、在第2个视差区间的响应、在第L个视差区间的响应,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值,符号“[]”为矢量表示符号;
④-4、计算{dR(x,y)}的高级视觉特征矢量,记为Fa,Fa=[r1,r2,…,r13],其中,Fa的维数为13,符号“[]”为矢量表示符号,1≤i≤13,符号“||”为取绝对值符号,表示中的第k个元素的值;
⑤将Fp和Fa组合成一个新的特征矢量,记为X,X=[Fp,Fa],然后将X作为待评价的立体图像的特征矢量,其中,符号“[]”为矢量表示符号,X=[Fp,Fa]表示将Fp和Fa连接起来形成一个新的特征矢量;
⑥将M副各不相同的立体图像构成一个立体图像集合;然后利用主观质量评价方法获取立体图像集合中的每副立体图像的视觉舒适度的平均主观评分均值,将立体图像集合中的第m副立体图像的视觉舒适度的平均主观评分均值记为MOSm;再按照步骤①至步骤⑤获取待评价的立体图像的特征矢量X的操作,以相同的方式获取立体图像集合中的每幅立体图像的特征矢量,将立体图像集合中的第m副立体图像的特征矢量记为Xm;其中,M表示立体图像集合中包含的立体图像的幅数,M≥1,1≤m≤M,MOSm∈[1,5];
⑦将立体图像集合中的所有立体图像分成训练集和测试集,将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合;然后采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;接着利用wopt和bopt构造得到支持向量回归训练模型;再根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,S表示训练集中包含的立体图像的幅数,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,(wopt)T为wopt的转置矩阵,表示测试样本数据集合中的第q个特征矢量的线性函数;之后通过重新分配训练集和测试集,重新预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,经过N次迭代后计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
2.根据权利要求1所述的一种立体图像视觉舒适度客观评价方法,其特征在于所述的步骤④-3中的获取过程为:利用最大池化方法重新计算xi中的每个元素的值,将Ri,k经最大池化方法重新计算后得到的值记为 然后将xi中的所有元素各自的值经最大池化方法重新计算后得到的值按顺序排列构成一个特征矢量,记为 其中,max()为取最大值函数,对应表示中的第1个元素的值、第2个元素的值和第L个元素的值。
3.根据权利要求2所述的一种立体图像视觉舒适度客观评价方法,其特征在于所述的步骤⑦的具体过程为:
⑦-1、随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,其中,符号为向下取整符号;
⑦-2、将训练集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成训练样本数据集合,记为ΩS,{Xt,MOSt}∈ΩS,其中,Xt表示训练样本数据集合ΩS中的第t个特征矢量,MOSt表示训练样本数据集合ΩS中的第t个视觉舒适度的平均主观评分均值,1≤t≤S;
⑦-3、构造训练样本数据集合ΩS中的每个特征矢量的回归函数,将Xt的回归函数记为f(Xt),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矩阵,b为偏置项,表示Xt的线性函数,D(Xt,Xl)为支持向量回归中的核函数,Xl为训练样本数据集合ΩS中的第l个特征矢量,1≤l≤S,γ为核参数,exp()表示以自然基数e为底的指数函数,符号“||||”为求欧式距离符号;
⑦-4、采用支持向量回归作为机器学习的方法,对训练样本数据集合ΩS中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为其中,Ψ表示对训练样本数据集合ΩS中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矩阵,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
⑦-5、将测试集中的所有立体图像的特征矢量和视觉舒适度的平均主观评分均值构成测试样本数据集合,然后根据支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的立体图像的客观视觉舒适度评价预测值,将测试样本数据集合中的第q个特征矢量对应的立体图像的客观视觉舒适度评价预测值记为Qq,Qq=f(Xq),其中,1≤q≤M-S,f()为函数表示形式,Xq表示测试样本数据集合中的第q个特征矢量,表示测试样本数据集合中的第q个特征矢量的线性函数;
⑦-6、再重新随机选择立体图像集合中的幅立体图像构成训练集,将立体图像集合中剩余的M-S幅立体图像构成测试集,然后返回步骤⑦-2继续执行,在经过N次迭代后,计算立体图像集合中的每幅立体图像的多个客观视觉舒适度评价预测值的平均值,并将计算得到的平均值作为对应那幅立体图像的最终的客观视觉舒适度评价预测值,其中,N>100。
CN201510173232.1A 2015-04-14 2015-04-14 一种立体图像视觉舒适度客观评价方法 Active CN104811693B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510173232.1A CN104811693B (zh) 2015-04-14 2015-04-14 一种立体图像视觉舒适度客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510173232.1A CN104811693B (zh) 2015-04-14 2015-04-14 一种立体图像视觉舒适度客观评价方法

Publications (2)

Publication Number Publication Date
CN104811693A CN104811693A (zh) 2015-07-29
CN104811693B true CN104811693B (zh) 2016-06-29

Family

ID=53696144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510173232.1A Active CN104811693B (zh) 2015-04-14 2015-04-14 一种立体图像视觉舒适度客观评价方法

Country Status (1)

Country Link
CN (1) CN104811693B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683072B (zh) * 2015-11-09 2020-02-21 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN105430370B (zh) * 2015-11-24 2017-05-03 宁波大学 一种基于排序学习的立体图像视觉舒适度评价方法
CN105915883B (zh) * 2016-05-25 2017-10-24 浙江科技学院 基于极限学习和双目融合的盲参考立体图像质量评价方法
CN107909565A (zh) * 2017-10-29 2018-04-13 天津大学 基于卷积神经网络的立体图像舒适度评价方法
CN108665460B (zh) * 2018-05-23 2020-07-03 浙江科技学院 基于组合神经网络和分类神经网络的图像质量评价方法
CN109874198B (zh) * 2018-11-02 2021-03-12 中国计量大学 基于场景自动识别的商务宾馆客房照明控制装置
CN110827211B (zh) * 2019-10-10 2023-11-21 杭州智团信息技术有限公司 一种图像细节增强方法
CN111641822B (zh) * 2020-05-06 2021-08-24 宁波大学 一种重定位立体图像质量评价方法
CN112165615B (zh) * 2020-10-09 2023-03-24 长春理工大学 一种立体图像观看舒适性客观评价方法
CN112738501B (zh) * 2020-12-29 2022-05-17 杭州电子科技大学 一种立体图像舒适度测试方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125B (zh) * 2013-02-22 2015-03-04 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
KR101550065B1 (ko) * 2013-06-21 2015-09-07 한국과학기술원 시각적으로 편안한 입체 영상을 위한 스테레오스코픽 영상 촬영 방법 및 시스템
CN103347196B (zh) * 2013-06-27 2015-04-29 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法
CN103581661B (zh) * 2013-10-28 2015-06-03 宁波大学 一种立体图像视觉舒适度评价方法

Also Published As

Publication number Publication date
CN104811693A (zh) 2015-07-29

Similar Documents

Publication Publication Date Title
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN105407349B (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN107635136B (zh) 基于视觉感知和双目竞争的无参考立体图像质量评价方法
CN104581141B (zh) 一种立体图像视觉舒适度评价方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN104036502B (zh) 一种无参考模糊失真立体图像质量评价方法
CN108520510B (zh) 一种基于整体和局部分析的无参考立体图像质量评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN101610425A (zh) 一种评测立体图像质量的方法和装置
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
CN104853182A (zh) 基于幅度和相位的立体图像质量客观评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
Yang et al. No-reference stereoimage quality assessment for multimedia analysis towards Internet-of-Things
CN106210710A (zh) 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN105069794B (zh) 一种基于双目竞争的全盲立体图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191218

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200604

Address after: Room 501, office building, market supervision and Administration Bureau, Langchuan Avenue, Jianping Town, Langxi County, Xuancheng City, Anhui Province, 230000

Patentee after: Langxi pinxu Technology Development Co., Ltd

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.