CN105430370B - 一种基于排序学习的立体图像视觉舒适度评价方法 - Google Patents

一种基于排序学习的立体图像视觉舒适度评价方法 Download PDF

Info

Publication number
CN105430370B
CN105430370B CN201510827858.XA CN201510827858A CN105430370B CN 105430370 B CN105430370 B CN 105430370B CN 201510827858 A CN201510827858 A CN 201510827858A CN 105430370 B CN105430370 B CN 105430370B
Authority
CN
China
Prior art keywords
pixel
value
represent
pixel value
visual comfort
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510827858.XA
Other languages
English (en)
Other versions
CN105430370A (zh
Inventor
姜求平
邵枫
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Zhuimeng Information Technology Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510827858.XA priority Critical patent/CN105430370B/zh
Publication of CN105430370A publication Critical patent/CN105430370A/zh
Application granted granted Critical
Publication of CN105430370B publication Critical patent/CN105430370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于排序学习的立体图像视觉舒适度评价方法,其在训练阶段,通过选取多幅不同视觉舒适度等级的立体图像组成初始训练图像集,利用排序学习方法建立初始训练图像集中的所有立体图像的特征矢量与视觉舒适度等级之间的视觉舒适度排序模型,能够有效地模拟人眼主观评价中的多等级打分机制;在测试阶段,计算测试立体图像的特征矢量,并根据视觉舒适度排序模型预测对应的排序值,将排序值作为视觉舒适度客观评价预测值,由于主观评价的实质就是让主观测试者根据自身舒适度感受对测试立体图像进行多等级打分,视觉舒适度排序模型能够很好地模拟多等级打分机制,因此视觉舒适度客观评价预测值与主观评价值保持了较好的一致性。

Description

一种基于排序学习的立体图像视觉舒适度评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于排序学习的立体图像视觉舒适度评价方法。
背景技术
随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,立体视频的视觉体验质量(QoE,quality of experience)是立体视频系统设计中的一个重要问题,而视觉舒适度(VC,visual comfort)是影响立体视频的视觉体验质量的重要因素。目前,对立体视频/图像的质量评价研究主要考虑内容失真对于图像质量的影响,而很少考虑视觉舒适度等因素的影响。因此,为了提高观看者的视觉体验质量,研究立体视频/图像的视觉舒适度客观评价模型对指导3D内容的制作和后期处理具有十分重要的作用。
传统的立体图像视觉舒适度评价方法主要是基于机器学习的方法,其需要大量的样本数据在立体图像视觉舒适度特征和主观评价值之间建立回归模型,然而由于主观评价值的获取需要通过复杂的主观实验,因此非常耗时,并不适合应用于实际的图像处理系统中。考虑到人们在进行主观实验时通常采用多等级打分制对立体图像的视觉舒适度进行评价这一事实,如何在客观评价过程中有效地模拟多等级打分机制、如何将多等级打分结果映射到不同的舒适度等级,使得客观评价结果更加符合人类视觉主观评价,是在对立体图像进行客观视觉舒适度评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于排序学习的立体图像视觉舒适度评价方法,其无需获取立体图像的主观评价值,适合应用于实际的图像处理系统,且能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于排序学习的立体图像视觉舒适度评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、针对五个不同的视觉舒适度等级各选取M幅立体图像,将共选取的5×M幅立体图像构成初始训练图像集,记为Ω,Ω={Ci|1≤i≤5},其中,M≥1,Ci表示由针对第i个视觉舒适度等级选取的M幅立体图像构成的集合,Ci={Si,m|1≤m≤M},Si,m表示Ci中的第m幅立体图像;
①-2、计算Ω中的每幅立体图像的用于反映视觉舒适度的特征矢量,将Si,m的用于反映视觉舒适度的特征矢量记为Fi,m其中,Fi,m的维数为13,符号“[]”为矢量表示符号,对应表示Si,m的双目融合特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的离焦模糊特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的左视点图像的空间频率特征图中的所有像素点的像素值的均值、方差和熵值,χi,m、κi,m、σi,m对应表示Si,m的角视差图像中像素值最大的q%的像素点的像素值的均值、Si,m的角视差图像中像素值最小的q%的像素点的像素值的均值、Si,m的角视差图像的视差离差和Si,m的角视差图像的视差偏斜度;
①-3、采用排序学习方法求解得到最优的权值矢量,记为wopt,其中,min()为取最小值函数,w表示权值矢量,wT为w的转置矢量,符号“||||2”为矩阵的2-范数符号,λ1和λ2均为控制参数,δ1和δ2均为误差参数,且δ1≠δ2,s.t.表示“受约束于”,Fi+1,n表示由针对第i+1个视觉舒适度等级选取的M幅立体图像构成的集合Ci+1中的第n幅立体图像Si+1,n的用于反映视觉舒适度的特征矢量,符号表示“任意”,符号“||”为取绝对值符号,Fi,n表示Ci中的第n幅立体图像Si,n的用于反映视觉舒适度的特征矢量;
①-4、利用得到的最优的权值矢量wopt,构造视觉舒适度排序模型,记为f(F),f(F)=(wopt)TF,其中,f()为函数表示形式,F用于表示立体图像的用于反映视觉舒适度的特征矢量,且作为视觉舒适度排序模型的输入特征矢量,(wopt)T为wopt的转置矢量;
所述的测试阶段的具体步骤为:
②对于任意一幅测试立体图像Stest,按照步骤①-2的过程,以相同的操作获取Stest的用于反映视觉舒适度的特征矢量,记为Ftest;然后根据训练阶段构造的视觉舒适度排序模型f(F)=(wopt)TF,对Ftest进行测试,预测得到Ftest对应的排序值,将该排序值作为Stest的视觉舒适度客观评价预测值,记为Qtest
所述的步骤①-2中Si,m的用于反映视觉舒适度的特征矢量Fi,m的获取过程为:
A1、采用视差估计算法计算Si,m的左视点图像与右视点图像之间的视差图像,记为{di,m(x,y)},其中,1≤x≤W,1≤y≤H,W表示Ω中的立体图像的宽度,H表示Ω中的立体图像的高度,di,m(x,y)表示{di,m(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后采用视差转换算法对{di,m(x,y)}进行视差转换,得到Si,m的角视差图像,记为{φi,m(x,y)},其中,φi,m(x,y)表示{φi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,如果φi,m(x,y)>0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕前,如果φi,m(x,y)<0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕后,如果φi,m(x,y)=0,则表示Si,m中坐标位置为(x,y)的像素点在显示时恰好成像在屏幕上;
接着计算Si,m的双目融合特征图,记为{BFi,m(x,y)},其中,BFi,m(x,y)表示{BFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,符号“||”为取绝对值符号,θ表示双目可融合角视差极限值,exp()表示以自然基数e为底的指数函数,ε为指数衰减控制参数;
再计算{BFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 k1为{BFi,m(x,y)}中所包含的灰度级的总数目,BFi,m(l1)表示{BFi,m(x,y)}中的第l1个灰度级的灰度值,p[BFi,m(l1)]表示BFi,m(l1)在{BFi,m(x,y)}中出现的概率,表示{BFi,m(x,y)}中像素值等于BFi,m(l1)的像素点的总个数;
A2、计算Si,m的离焦模糊特征图,记为{DBi,m(x,y)},其中,DBi,m(x,y)表示{DBi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,R表示人眼的瞳孔直径,r0表示人眼眼球的晶状体长度,Di,m(x0,y0)表示人眼观看Si,m时会聚点(x0,y0)的深度值,Di,m(x,y)表示Si,m的深度图{Di,m(x,y)}中坐标位置为(x,y)的像素点的像素值,V表示观看者与显示器之间的距离,I表示人眼的瞳孔间距,Wx和Rx对应表示显示器的水平宽度和水平分辨率;
然后计算{DBi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l2≤k2,k2为{DBi,m(x,y)}中所包含的灰度级的总数目,DBi,m(l2)表示{DBi,m(x,y)}中的第l2个灰度级的灰度值,p[DBi,m(l2)]表示DBi,m(l2)在{DBi,m(x,y)}中出现的概率, 表示{DBi,m(x,y)}中像素值等于DBi,m(l2)的像素点的总个数;
A3、计算Si,m的左视点图像的相位一致性图作为其空间频率特征图,记为{SFi,m(x,y)},其中,SFi,m(x,y)表示{SFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后计算{SFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l3≤k3,k3为{SFi,m(x,y)}中所包含的灰度级的总数目,SFi,m(l3)表示{SFi,m(x,y)}中的第l3个灰度级的灰度值,p[SFi,m(l3)]表示SFi,m(l3)在{SFi,m(x,y)}中出现的概率,表示{SFi,m(x,y)}中像素值等于SFi,m(l3)的像素点的总个数;
A4、从{φi,m(x,y)}中提取出四个与视觉舒适度相关的视差统计特征,分别为{φi,m(x,y)}中像素值最大的q%的像素点的像素值的均值χi,m、{φi,m(x,y)}中像素值最小的q%的像素点的像素值的均值κi,m、{φi,m(x,y)}的视差离差σi,m、{φi,m(x,y)}的视差偏斜度 其中,1≤q≤50,表示{φi,m(x,y)}中像素值最大的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最大的q%的像素点的坐标位置构成的集合,表示{φi,m(x,y)}中像素值最小的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最小的q%的像素点的坐标位置构成的集合;
A5、将χi,m、κi,m、σi,m按顺序进行排列构成Fi,m
所述的步骤①-1中的五个不同的视觉舒适度等级分别为极端不舒适、不舒适、略微舒适、舒适和非常舒适。
与现有技术相比,本发明的优点在于:
1)本发明方法在训练阶段,通过选取多幅不同的视觉舒适度等级的立体图像组成初始训练图像集,利用现有的排序学习方法建立初始训练图像集中的所有立体图像的用于反映视觉舒适度的特征矢量与视觉舒适度等级之间的视觉舒适度排序模型,构造得到的视觉舒适度排序模型能够有效地模拟人眼主观评价中的多等级打分机制,因此与主观评价具有高度的一致性。
2)本发明方法在测试阶段,计算测试立体图像的用于反映视觉舒适度的特征矢量,并根据训练阶段构造的视觉舒适度排序模型,预测得到测试立体图像的用于反映视觉舒适度的特征矢量对应的排序值,将该排序值作为测试立体图像的视觉舒适度客观评价预测值,由于主观评价的实质就是让主观测试者根据自身舒适度感受对测试立体图像进行多等级打分,视觉舒适度排序模型能够很好地模拟这种多等级打分机制,因此得到的视觉舒适度客观评价预测值与主观评价值保持了较好的一致性,即视觉舒适度客观评价预测值与主观感知之间的相关性高。
3)本发明方法无需获取大量的立体图像的主观评价值,耗时少,适合应用于实际的图像处理系统中。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于排序学习的立体图像视觉舒适度评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、针对五个不同的视觉舒适度等级各选取M幅立体图像,将共选取的5×M幅立体图像构成初始训练图像集,记为Ω,Ω={Ci|1≤i≤5},其中,M≥1,在本实施例中取M=10,Ci表示由针对第i个视觉舒适度等级选取的M幅立体图像构成的集合,Ci={Si,m|1≤m≤M},Si,m表示Ci中的第m幅立体图像,符号“{}”为集合表示符号。
在具体实施时如可从宁波大学建立的立体图像视觉舒适度数据库中针对五个不同的视觉舒适度等级各选取M幅立体图像。
在此,五个不同的视觉舒适度等级分别为极端不舒适(extremelyuncomfortable)、不舒适(uncomfortable)、略微舒适(mildly comfortable)、舒适(comfortable)和非常舒适(very comfortable),即初始训练图像集由M幅极端不舒适的立体图像、M幅不舒适的立体图像、M幅略微舒适的立体图像、M幅舒适的立体图像和M幅非常舒适的立体图像构成。
①-2、计算Ω中的每幅立体图像的用于反映视觉舒适度的特征矢量,将Si,m的用于反映视觉舒适度的特征矢量记为Fi,m其中,Fi,m的维数为13,符号“[]”为矢量表示符号,对应表示Si,m的双目融合特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的离焦模糊特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的左视点图像的空间频率特征图中的所有像素点的像素值的均值、方差和熵值,χi,m、κi,m、σi,m对应表示Si,m的角视差图像中像素值最大的q%的像素点的像素值的均值、Si,m的角视差图像中像素值最小的q%的像素点的像素值的均值、Si,m的角视差图像的视差离差和Si,m的角视差图像的视差偏斜度。
在此具体实施例中,步骤①-2中Si,m的用于反映视觉舒适度的特征矢量Fi,m的获取过程为:
A1、采用现有的基于光流的视差估计算法计算Si,m的左视点图像与右视点图像之间的视差图像,记为{di,m(x,y)},其中,1≤x≤W,1≤y≤H,W表示Ω中的立体图像的宽度,H表示Ω中的立体图像的高度,di,m(x,y)表示{di,m(x,y)}中坐标位置为(x,y)的像素点的像素值。
然后采用现有的视差转换算法对{di,m(x,y)}进行视差转换,得到Si,m的角视差图像,记为{φi,m(x,y)},其中,φi,m(x,y)表示{φi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,如果φi,m(x,y)>0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕前,如果φi,m(x,y)<0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕后,如果φi,m(x,y)=0,则表示Si,m中坐标位置为(x,y)的像素点在显示时恰好成像在屏幕上。
接着计算Si,m的双目融合特征图,记为{BFi,m(x,y)},其中,BFi,m(x,y)表示{BFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,符号“||”为取绝对值符号,θ表示双目可融合角视差极限值,在本实施例中取θ=1°,exp()表示以自然基数e为底的指数函数,ε为指数衰减控制参数,在本实施例中取ε=0.3。
再计算{BFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 k1为{BFi,m(x,y)}中所包含的灰度级的总数目,BFi,m(l1)表示{BFi,m(x,y)}中的第l1个灰度级的灰度值,p[BFi,m(l1)]表示BFi,m(l1)在{BFi,m(x,y)}中出现的概率,表示{BFi,m(x,y)}中像素值等于BFi,m(l1)的像素点的总个数。
A2、计算Si,m的离焦模糊特征图,记为{DBi,m(x,y)},其中,DBi,m(x,y)表示{DBi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,R表示人眼的瞳孔直径,在本实施例中取R=0.3厘米,r0表示人眼眼球的晶状体长度,在本实施例中取r0=0.16厘米,Di,m(x0,y0)表示人眼观看Si,m时会聚点(x0,y0)的深度值,会聚点(x0,y0)的位置根据现有的视觉显著性检测方法确定,Di,m(x,y)表示Si,m的深度图{Di,m(x,y)}中坐标位置为(x,y)的像素点的像素值,{Di,m(x,y)}可以由Si,m的左视点图像与右视点图像之间的视差图像{di,m(x,y)}转换得到,V表示观看者与显示器之间的距离,在本实施例中取V等于显示器的垂直高度的三倍,I表示人眼的瞳孔间距,在本实施例中取I=6.5厘米,Wx和Rx对应表示显示器的水平宽度和水平分辨率。
然后计算{DBi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l2≤k2,k2为{DBi,m(x,y)}中所包含的灰度级的总数目,DBi,m(l2)表示{DBi,m(x,y)}中的第l2个灰度级的灰度值,p[DBi,m(l2)]表示DBi,m(l2)在{DBi,m(x,y)}中出现的概率, 表示{DBi,m(x,y)}中像素值等于DBi,m(l2)的像素点的总个数。
A3、采用现有技术计算Si,m的左视点图像的相位一致性图作为其空间频率特征图,记为{SFi,m(x,y)},其中,SFi,m(x,y)表示{SFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值。
然后计算{SFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l3≤k3,k3为{SFi,m(x,y)}中所包含的灰度级的总数目,SFi,m(l3)表示{SFi,m(x,y)}中的第l3个灰度级的灰度值,p[SFi,m(l3)]表示SFi,m(l3)在{SFi,m(x,y)}中出现的概率,表示{SFi,m(x,y)}中像素值等于SFi,m(l3)的像素点的总个数。
A4、从{φi,m(x,y)}中提取出四个与视觉舒适度相关的视差统计特征,分别为{φi,m(x,y)}中像素值最大的q%的像素点的像素值的均值χi,m、{φi,m(x,y)}中像素值最小的q%的像素点的像素值的均值κi,m、{φi,m(x,y)}的视差离差σi,m、{φi,m(x,y)}的视差偏斜度 其中,1≤q≤50,在本实施例中取q=10,表示{φi,m(x,y)}中像素值最大的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最大的q%的像素点的坐标位置构成的集合,表示{φi,m(x,y)}中像素值最小的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最小的q%的像素点的坐标位置构成的集合。
A5、将χi,m、κi,m、σi,m按顺序进行排列构成Fi,m
①-3、采用现有的排序学习方法求解得到最优的权值矢量,记为wopt,其中,min()为取最小值函数,w表示权值矢量,wT为w的转置矢量,符号“||||2”为矩阵的2-范数符号,λ1和λ2均为控制参数,在本实施例中取λ1=λ2=0.5,δ1和δ2均为误差参数,且δ1≠δ2,在本实施例中取δ1=0.15,δ2=0.08,s.t.表示“受约束于”,Fi+1,n表示由针对第i+1个视觉舒适度等级选取的M幅立体图像构成的集合Ci+1中的第n幅立体图像Si+1,n的用于反映视觉舒适度的特征矢量,符号表示“任意”,符号“||”为取绝对值符号,Fi,n表示Ci中的第n幅立体图像Si,n的用于反映视觉舒适度的特征矢量。
①-4、利用得到的最优的权值矢量wopt,构造视觉舒适度排序模型,记为f(F),f(F)=(wopt)TF,其中,f()为函数表示形式,F用于表示立体图像的用于反映视觉舒适度的特征矢量,且作为视觉舒适度排序模型的输入特征矢量,(wopt)T为wopt的转置矢量。
所述的测试阶段的具体步骤为:
②对于任意一幅测试立体图像Stest,按照步骤①-2的过程,以相同的操作获取Stest的用于反映视觉舒适度的特征矢量,记为Ftest;然后根据训练阶段构造的视觉舒适度排序模型f(F)=(wopt)TF,对Ftest进行测试,预测得到Ftest对应的排序值,将该排序值作为Stest的视觉舒适度客观评价预测值,记为Qtest
在此,Ftest的获取过程为:
B1、采用现有的基于光流的视差估计算法计算Stest的左视点图像与右视点图像之间的视差图像,记为{dtest(x′,y′)},其中,1≤x′≤W′,1≤y′≤H′,W′表示Stest的宽度,H′表示Stest的高度,dtest(x,y)表示{dtest(x,y)}中坐标位置为(x′,y′)的像素点的像素值。
然后采用现有的视差转换算法对{dtest(x′,y′)}进行视差转换,得到Stest的角视差图像,记为{φtest(x′,y′)},其中,φtest(x′,y′)表示{φtest(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,如果φtest(x′,y′)>0,则表示Stest中坐标位置为(x′,y′)的像素点在显示时成像在屏幕前,如果φtest(x′,y′)<0,则表示Stest中坐标位置为(x′,y′)的像素点在显示时成像在屏幕后,如果φtest(x′,y′)=0,则表示Stest中坐标位置为(x′,y′)的像素点在显示时恰好成像在屏幕上。
接着计算Stest的双目融合特征图,记为{BFtest(x′,y′)},其中,BFtest(x′,y′)表示{BFtest(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,
再计算{BFtest(x′,y′)}中的所有像素点的像素值的均值方差和熵值 k1′为{BFtest(x′,y′)}中所包含的灰度级的总数目,BFtest(l1′)表示{BFtest(x′,y′)}中的第l1′个灰度级的灰度值,p[BFtest(l1′)]表示BFtest(l1′)在{BFtest(x′,y′)}中出现的概率,表示{BFtest(x′,y′)}中像素值等于BFtest(l1′)的像素点的总个数。
B2、计算Stest的离焦模糊特征图,记为{DBtest(x′,y′)},其中,DBtest(x′,y′)表示{DBtest(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,Dtest(x0,y0)表示人眼观看Stest时会聚点(x0,y0)的深度值,会聚点(x0,y0)的位置根据现有的视觉显著性检测方法确定,Dtest(x′,y′)表示Stest的深度图{Dtest(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,{Dtest(x′,y′)}可以由Stest的左视点图像与右视点图像之间的视差图像{dtest(x′,y′)}转换得到,
然后计算{DBtest(x′,y′)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l2′≤k2′,k2′为{DBtest(x′,y′)}中所包含的灰度级的总数目,DBtest(l2′)表示{DBtest(x′,y′)}中的第l2′个灰度级的灰度值,p[DBtest(l2′)]表示DBtest(l2′)在{DBtest(x′,y′)}中出现的概率,表示{DBtest(x′,y′)}中像素值等于DBtest(l2′)的像素点的总个数。
B3、采用现有技术计算Stest的左视点图像的相位一致性图作为其空间频率特征图,记为{SFtest(x′,y′)},其中,SFtest(x′,y′)表示{SFtest(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值。
然后计算{SFtest(x′,y′)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l3′≤k3′,k3′为{SFtest(x′,y′)}中所包含的灰度级的总数目,SFtest(l3′)表示{SFtest(x′,y′)}中的第l3′个灰度级的灰度值,p[SFtest(l3′)]表示SFtest(l3′)在{SFtest(x′,y′)}中出现的概率, 表示{SFtest(x′,y′)}中像素值等于SFtest(l3′)的像素点的总个数。
B4、从{φtest(x′,y′)}中提取出四个与视觉舒适度相关的视差统计特征,分别为{φtest(x′,y′)}中像素值最大的q%的像素点的像素值的均值χtest、{φtest(x′,y′)}中像素值最小的q%的像素点的像素值的均值κtest、{φtest(x′,y′)}的视差离差σtest、{φtest(x′,y′)}的视差偏斜度 其中,表示{φtest(x′,y′)}中像素值最大的q%的像素点的总个数,表示{φtest(x′,y′)}中像素值最大的q%的像素点的坐标位置构成的集合,表示{φtest(x′,y′)}中像素值最小的q%的像素点的总个数,表示{φtest(x′,y′)}中像素值最小的q%的像素点的坐标位置构成的集合。
B5、将χtest、κtest、σtest按顺序进行排列构成Ftest
在本实施例中,采用宁波大学建立的立体图像数据库中剩下的150幅立体图像作为测试立体图像,该立体图像数据库包含立体图像以及对应的视差图像,该立体图像数据库包含了各种场景深度的室内和室外图像,并给出了每幅立体图像的视觉舒适度的平均主观评分均值。利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson线性相关系数(Pearson linear correlation coefficient,PLCC)、Spearman秩等级相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall秩等级相关系数(Kendall rank-order correlation coefficient,KROCC)、均方根误差(Root mean squared error,RMSE),PLCC和RMSE反映客观评价预测值的准确性,SROCC和KROCC反映其单调性。将利用本发明方法计算得到的150幅立体图像各自的视觉舒适度客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高、RMSE值越小说明本发明方法的评价结果与视觉舒适度的平均主观评分均值的相关性越好。表1给出了采用不同舒适度特征组合得到的视觉舒适度客观评价预测值与视觉舒适度的平均主观评分均值之间的相关性,从表1中可以看出,只采用部分特征组合得到的视觉舒适度客观评价预测值与视觉舒适度的平均主观评分均值之间的相关性并不是最优的,这说明了本发明方法提取的特征信息是有效的,同时也说明了本发明方法建立的基于排序学习的视觉舒适度排序模型是准确的,使得得到的视觉舒适度客观评价预测值与视觉舒适度的平均主观评分均值之间的相关性更强,这足以说明本发明方法是可行且有效的。
表1采用不同特征组合得到的视觉舒适度客观评价预测值与视觉舒适度的平均主观评分均值之间的相关性
上述表1中,F1代表第1种特征组合情况下立体图像的特征矢量,F1由立体图像的双目融合特征图中的所有像素点的像素值的均值μ(BF)、方差υ(BF)和熵值η(BF)构成;F2代表第2种特征组合情况下立体图像的特征矢量,F2由立体图像的离焦模糊特征图中的所有像素点的像素值的均值μ(DB)、方差υ(DB)和熵值η(DB)构成;F3代表第3种特征组合情况下立体图像的特征矢量,F3由立体图像的左视点图像的空间频率特征图中的所有像素点的像素值的均值μ(SF)、方差υ(SF)和熵值η(SF)构成;F4代表第4种特征组合情况下立体图像的特征矢量,F4由立体图像的角视差图像中像素值最大的q%的像素点的像素值的均值χ、立体图像的角视差图像中像素值最小的q%的像素点的像素值的均值κ、立体图像的角视差图像的视差离差σ和立体图像的角视差图像的视差偏斜度构成;F代表利用本发明方法得到的立体图像的特征矢量。

Claims (2)

1.一种基于排序学习的立体图像视觉舒适度评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、针对五个不同的视觉舒适度等级各选取M幅立体图像,将共选取的5×M幅立体图像构成初始训练图像集,记为Ω,Ω={Ci|1≤i≤5},其中,M≥1,Ci表示由针对第i个视觉舒适度等级选取的M幅立体图像构成的集合,Ci={Si,m|1≤m≤M},Si,m表示Ci中的第m幅立体图像;
①-2、计算Ω中的每幅立体图像的用于反映视觉舒适度的特征矢量,将Si,m的用于反映视觉舒适度的特征矢量记为Fi,m其中,Fi,m的维数为13,符号“[]”为矢量表示符号,对应表示Si,m的双目融合特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的离焦模糊特征图中的所有像素点的像素值的均值、方差和熵值,对应表示Si,m的左视点图像的空间频率特征图中的所有像素点的像素值的均值、方差和熵值,χi,m、κi,m、σi,m对应表示Si,m的角视差图像中像素值最大的q%的像素点的像素值的均值、Si,m的角视差图像中像素值最小的q%的像素点的像素值的均值、Si,m的角视差图像的视差离差和Si,m的角视差图像的视差偏斜度;
所述的步骤①-2中Si,m的用于反映视觉舒适度的特征矢量Fi,m的获取过程为:
A1、采用视差估计算法计算Si,m的左视点图像与右视点图像之间的视差图像,记为{di,m(x,y)},其中,1≤x≤W,1≤y≤H,W表示Ω中的立体图像的宽度,H表示Ω中的立体图像的高度,di,m(x,y)表示{di,m(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后采用视差转换算法对{di,m(x,y)}进行视差转换,得到Si,m的角视差图像,记为{φi,m(x,y)},其中,φi,m(x,y)表示{φi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,如果φi,m(x,y)>0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕前,如果φi,m(x,y)<0,则表示Si,m中坐标位置为(x,y)的像素点在显示时成像在屏幕后,如果φi,m(x,y)=0,则表示Si,m中坐标位置为(x,y)的像素点在显示时恰好成像在屏幕上;
接着计算Si,m的双目融合特征图,记为{BFi,m(x,y)},其中,BFi,m(x,y)表示{BFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,符号“||”为取绝对值符号,θ表示双目可融合角视差极限值,exp()表示以自然基数e为底的指数函数,ε为指数衰减控制参数;
再计算{BFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 1≤l1≤k1,k1为{BFi,m(x,y)}中所包含的灰度级的总数目,BFi,m(l1)表示{BFi,m(x,y)}中的第l1个灰度级的灰度值,p[BFi,m(l1)]表示BFi,m(l1)在{BFi,m(x,y)}中出现的概率, 表示{BFi,m(x,y)}中像素值等于BFi,m(l1)的像素点的总个数;
A2、计算Si,m的离焦模糊特征图,记为{DBi,m(x,y)},其中,DBi,m(x,y)表示{DBi,m(x,y)}中坐标位置为(x,y)的像素点的像素值,R表示人眼的瞳孔直径,r0表示人眼眼球的晶状体长度,Di,m(x0,y0)表示人眼观看Si,m时会聚点(x0,y0)的深度值,Di,m(x,y)表示Si,m的深度图{Di,m(x,y)}中坐标位置为(x,y)的像素点的像素值,V表示观看者与显示器之间的距离,I表示人眼的瞳孔间距,Wx和Rx对应表示显示器的水平宽度和水平分辨率;
然后计算{DBi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l2≤k2,k2为{DBi,m(x,y)}中所包含的灰度级的总数目,DBi,m(l2)表示{DBi,m(x,y)}中的第l2个灰度级的灰度值,p[DBi,m(l2)]表示DBi,m(l2)在{DBi,m(x,y)}中出现的概率, 表示{DBi,m(x,y)}中像素值等于DBi,m(l2)的像素点的总个数;
A3、计算Si,m的左视点图像的相位一致性图作为其空间频率特征图,记为{SFi,m(x,y)},其中,SFi,m(x,y)表示{SFi,m(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后计算{SFi,m(x,y)}中的所有像素点的像素值的均值方差和熵值 其中,1≤l3≤k3,k3为{SFi,m(x,y)}中所包含的灰度级的总数目,SFi,m(l3)表示{SFi,m(x,y)}中的第l3个灰度级的灰度值,p[SFi,m(l3)]表示SFi,m(l3)在{SFi,m(x,y)}中出现的概率, 表示{SFi,m(x,y)}中像素值等于SFi,m(l3)的像素点的总个数;
A4、从{φi,m(x,y)}中提取出四个与视觉舒适度相关的视差统计特征,分别为{φi,m(x,y)}中像素值最大的q%的像素点的像素值的均值χi,m、{φi,m(x,y)}中像素值最小的q%的像素点的像素值的均值κi,m、{φi,m(x,y)}的视差离差σi,m、{φi,m(x,y)}的视差偏斜度 其中,1≤q≤50,表示{φi,m(x,y)}中像素值最大的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最大的q%的像素点的坐标位置构成的集合,表示{φi,m(x,y)}中像素值最小的q%的像素点的总个数,表示{φi,m(x,y)}中像素值最小的q%的像素点的坐标位置构成的集合;
A5、将χi,m、κi,m、σi,m按顺序进行排列构成Fi,m
①-3、采用排序学习方法求解得到最优的权值矢量,记为wopt,其中,min()为取最小值函数,w表示权值矢量,wT为w的转置矢量,符号“||||2”为矩阵的2-范数符号,λ1和λ2均为控制参数,δ1和δ2均为误差参数,且δ1≠δ2,s.t.表示“受约束于”,Fi+1,n表示由针对第i+1个视觉舒适度等级选取的M幅立体图像构成的集合Ci+1中的第n幅立体图像Si+1,n的用于反映视觉舒适度的特征矢量,符号表示“任意”,符号“||”为取绝对值符号,Fi,n表示Ci中的第n幅立体图像Si,n的用于反映视觉舒适度的特征矢量;
①-4、利用得到的最优的权值矢量wopt,构造视觉舒适度排序模型,记为f(F),f(F)=(wopt)TF,其中,f()为函数表示形式,F用于表示立体图像的用于反映视觉舒适度的特征矢量,且作为视觉舒适度排序模型的输入特征矢量,(wopt)T为wopt的转置矢量;
所述的测试阶段的具体步骤为:
②对于任意一幅测试立体图像Stest,按照步骤①-2的过程,以相同的操作获取Stest的用于反映视觉舒适度的特征矢量,记为Ftest;然后根据训练阶段构造的视觉舒适度排序模型f(F)=(wopt)TF,对Ftest进行测试,预测得到Ftest对应的排序值,将该排序值作为Stest的视觉舒适度客观评价预测值,记为Qtest
2.根据权利要求1所述的一种基于排序学习的立体图像视觉舒适度评价方法,其特征在于所述的步骤①-1中的五个不同的视觉舒适度等级分别为极端不舒适、不舒适、略微舒适、舒适和非常舒适。
CN201510827858.XA 2015-11-24 2015-11-24 一种基于排序学习的立体图像视觉舒适度评价方法 Active CN105430370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510827858.XA CN105430370B (zh) 2015-11-24 2015-11-24 一种基于排序学习的立体图像视觉舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510827858.XA CN105430370B (zh) 2015-11-24 2015-11-24 一种基于排序学习的立体图像视觉舒适度评价方法

Publications (2)

Publication Number Publication Date
CN105430370A CN105430370A (zh) 2016-03-23
CN105430370B true CN105430370B (zh) 2017-05-03

Family

ID=55508267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510827858.XA Active CN105430370B (zh) 2015-11-24 2015-11-24 一种基于排序学习的立体图像视觉舒适度评价方法

Country Status (1)

Country Link
CN (1) CN105430370B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959679B (zh) * 2016-04-27 2017-09-19 宁波大学 一种立体图像视觉舒适度和深度感联合优化方法
CN110163901A (zh) * 2019-04-15 2019-08-23 福州瑞芯微电子股份有限公司 一种后处理评价方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103581661A (zh) * 2013-10-28 2014-02-12 宁波大学 一种立体图像视觉舒适度评价方法
CN104581141A (zh) * 2015-01-09 2015-04-29 宁波大学 一种立体图像视觉舒适度评价方法
CN104811693A (zh) * 2015-04-14 2015-07-29 宁波大学 一种立体图像视觉舒适度客观评价方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101550065B1 (ko) * 2013-06-21 2015-09-07 한국과학기술원 시각적으로 편안한 입체 영상을 위한 스테레오스코픽 영상 촬영 방법 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103581661A (zh) * 2013-10-28 2014-02-12 宁波大学 一种立体图像视觉舒适度评价方法
CN104581141A (zh) * 2015-01-09 2015-04-29 宁波大学 一种立体图像视觉舒适度评价方法
CN104811693A (zh) * 2015-04-14 2015-07-29 宁波大学 一种立体图像视觉舒适度客观评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
New Stereo Visual Comfort Assessment Method Based on Scene Mode Classification;Hongwei Ying ET AL;《Quality of Multimedia Experience,2015 Seventh International Workshop on》;20150529;第1-6页 *
基于显著性分析的立体图像视觉舒适度预测;邵枫等;《光学精密工程》;20140630;第22卷(第6期);第1631-1638页 *
基于视差空间图的立体图像质量客观评价方法;姜求平等;《光电子激光》;20131231;第24卷(第12期);第2409-2415页 *

Also Published As

Publication number Publication date
CN105430370A (zh) 2016-03-23

Similar Documents

Publication Publication Date Title
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN104011741B (zh) 多路视频流的图像配准的系统和方法
TWI528781B (zh) 用以訂製立體內容之三維效果的方法及裝置
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN104581141B (zh) 一种立体图像视觉舒适度评价方法
CN109167996B (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
Oh et al. Enhancement of visual comfort and sense of presence on stereoscopic 3D images
CN106791822B (zh) 一种基于单双目特征学习的无参考立体图像质量评价方法
CN108520510B (zh) 一种基于整体和局部分析的无参考立体图像质量评价方法
Shao et al. Learning sparse representation for no-reference quality assessment of multiply distorted stereoscopic images
Spjut et al. Toward standardized classification of foveated displays
CN108805825A (zh) 一种重定位图像质量评价方法
CN105430370B (zh) 一种基于排序学习的立体图像视觉舒适度评价方法
CN106210710A (zh) 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN105898279B (zh) 一种立体图像质量客观评价方法
CN110691236B (zh) 一种全景视频质量评价方法
CN108259893A (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN106530231A (zh) 一种基于深层协作表达的超分辨率图像的重建方法及系统
Jiang et al. Visual comfort assessment for stereoscopic images based on sparse coding with multi-scale dictionaries
Kim et al. Visual comfort aware-reinforcement learning for depth adjustment of stereoscopic 3d images
CN109345520A (zh) 一种图像清晰度的质量评价方法
CN108377387A (zh) 基于3d卷积神经网络的虚拟现实视频质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191219

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210507

Address after: 226600 Building 1, 8 Xiaoxing Avenue, Chengdong Town, Hai'an City, Nantong City, Jiangsu Province

Patentee after: Jiangsu Zhuimeng Information Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right