CN112770105A - 一种基于结构特征的重定位立体图像质量评价方法 - Google Patents
一种基于结构特征的重定位立体图像质量评价方法 Download PDFInfo
- Publication number
- CN112770105A CN112770105A CN202011416906.3A CN202011416906A CN112770105A CN 112770105 A CN112770105 A CN 112770105A CN 202011416906 A CN202011416906 A CN 202011416906A CN 112770105 A CN112770105 A CN 112770105A
- Authority
- CN
- China
- Prior art keywords
- ret
- org
- coordinate position
- pixel
- sift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于结构特征的重定位立体图像质量评价方法,其计算重定位虚拟视点图像的局部信息保持特征、原始虚拟视点图像的前向信息损失、从原始虚拟视点图像中重构的虚拟视点图像的后向信息损失,获得重定位虚拟视点图像的空间结构特征矢量,计算重定位立体图像的左、右视点图像之间的视差图像中的所有各属于匹配区域、属于视觉舒适区域、属于交叉视差区域的像素点的视差幅值特征及所有属于遮挡区域的像素点的相对宽度特征,获得深度结构特征矢量,最终得到重定位立体图像的结构特征矢量;然后利用支持向量回归对所有结构特征矢量进行训练,得到支持向量回归训练模型;优点是提高了客观评价结果与人眼主观感知之间的相关性。
Description
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于结构特征的重定位立体图像质量评价方法。
背景技术
随着具有不同分辨率和屏幕高宽比的智能手机、平板电脑、电视等终端显示设备的应用普及,当需要显示的图像或视频的分辨率与屏幕的分辨率不相符时,如何在尽可能不改变用户观看体验的前提下,改变图像或视频的分辨率使之适应不同尺寸的终端显示设备,这就是适配显示问题。当前典型的适配显示方法有:缩放(scaling)、裁切(cropping)和变形(warping)等。然而,这些适配显示方法没有充分利用终端显示设备的尺寸优势,降低了用户体验效果,因此对不同适配显示方法的性能进行客观评价是十分必要的。
传统的平面重定位方法,如裁剪、均匀缩放等,其在调整图像的分辨率的同时,将图像的重要区域的几何形变和信息损失最小化。然而,立体图像的质量不仅包含图像内容本身,而且过大的双目视差、双目不对称以及双眼调节和辐辏冲突等因素都会严重影响立体图像的观看舒适度。因此,相比于平面重定位方法,立体图像重定位技术需要考虑的几何失真因素更多,这也大大增加了立体图像重定位技术的复杂度。因此,在客观评价过程中如何有效地提取出结构失真信息,使得客观评价结果更加感觉符合人类视觉系统,是在对重定位立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于结构特征的重定位立体图像质量评价方法,其能够有效地提高客观评价结果与人眼主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于结构特征的重定位立体图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Sorg表示原始的立体图像,令Sret表示Sorg对应的重定位立体图像;将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sret的左视点图像记为{Lret(x',y)},将Sret的右视点图像记为{Rret(x',y)};其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Sorg的宽度,W'表示Sret的宽度,H表示Sorg和Sret的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Lret(x',y)表示{Lret(x',y)}中坐标位置为(x',y)的像素点的像素值,Rret(x',y)表示{Rret(x',y)}中坐标位置为(x',y)的像素点的像素值;
步骤二:根据{Lorg(x,y)}与{Rorg(x,y)}之间的双向匹配关系,获得Sorg的虚拟视点图像,记为{Vorg(x,y)};同样,根据{Lret(x',y)}与{Rret(x',y)}之间的双向匹配关系,获得Sret的虚拟视点图像,记为{Vret(x',y)};其中,Vorg(x,y)表示{Vorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Vret(x',y)表示{Vret(x',y)}中坐标位置为(x',y)的像素点的像素值;
步骤三:采用SIFT-Flow方法建立{Vorg(x,y)}与{Vret(x',y)}之间的匹配关系,得到{Vorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Vorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为vo(x,y),然后根据{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Vorg(x,y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,用于表示水平方向,用于表示垂直方向,表示vo(x,y)的水平偏移量,表示vo(x,y)的垂直偏移量,表示中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号;
同样,采用SIFT-Flow方法建立{Vret(x',y)}与{Vorg(x,y)}之间的匹配关系,得到{Vret(x',y)}中的每个像素点的SIFT-Flow向量,将{Vret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为vr(x',y),然后根据{Vret(x',y)}中的所有像素点的SIFT-Flow向量,从{Vret(x',y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,表示vr(x',y)的水平偏移量,表示vr(x',y)的垂直偏移量,表示中坐标位置为(x,y)的像素点的像素值,中的“=”为赋值符号;
步骤四:采用超像素分割技术将{Vorg(x,y)}分割成Num个互不重叠的六边形网格,将{Vorg(x,y)}中的第h个六边形网格构成的区域记为SPorg,h,SPorg,h以其6个网格顶点构成的集合来描述,其中,Num≥1,1≤h≤Num,对应表示SPorg,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述,
然后根据{Vorg(x,y)}中的每个六边形网格构成的区域的6个网格顶点的SIFT-Flow向量,确定{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格,将{Vorg(x,y)}中的第h个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域记为SPret,h,SPret,h以其6个网格顶点构成的集合来描述,其中,对应表示SPret,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量;
步骤五:采用基于图论的视觉显著模型提取出{Vorg(x,y)}的显著图,记为{Zorg(x,y)};其中,Zorg(x,y)表示{Zorg(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后根据{Zorg(x,y)}和{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Zorg(x,y)}中重构得到{Vret(x',y)}的显著图,记为{Zret(x',y)},将{Zret(x',y)}中坐标位置为的像素点的像素值记为 其中,Zret(x',y)表示{Zret(x',y)}中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号;
步骤六:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图;然后根据两幅重要性区域掩码图,计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,进而计算{Vret(x',y)}的局部信息保持特征;通过计算{Vret(x',y)}和各自中的所有像素点的亮度分量的直方图,计算{Vorg(x,y)}的前向信息损失;并通过计算{Vorg(x,y)}和各自中的所有像素点的亮度分量的直方图,计算的后向信息损失;再根据{Vret(x',y)}的局部信息保持特征、{Vorg(x,y)}的前向信息损失、的后向信息损失,获得{Vret(x',y)}的空间结构特征矢量,记为FG;其中,FG的维数为1×3;
步骤七:根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}中的每个像素点的深度值;然后根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征和所有属于遮挡区域的像素点的相对宽度特征;并根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像及{Lret(x',y)}中的所有像素点的深度值,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征和所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征;再根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征、所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征、所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征、所有属于遮挡区域的像素点的相对宽度特征,获得{Vret(x',y)}的深度结构特征矢量,记为FD;其中,FD的维数为1×4;
步骤八:根据FG和FD,获取Sret的结构特征矢量,记为F,F=[FG,FD];其中,F的维数为1×7,[FG,FD]表示将FG和FD连接起来形成一个特征矢量;
步骤九:将n'幅原始的立体图像对应的共n幅重定位立体图像构成重定位立体图像集合;然后采用主观质量评价方法,获取重定位立体图像集合中的每幅重定位立体图像的平均主观评分差值,将重定位立体图像集合中的第j幅重定位立体图像的平均主观评分差值记为DMOSj;并按照步骤一至步骤八的过程,以相同的方式获取重定位立体图像集合中的每幅重定位立体图像的结构特征矢量,将重定位立体图像集合中的第j幅重定位立体图像的结构特征矢量记为Fj;其中,n'为正整数,n'>1,n为正整数,n≥n',j为正整数,1≤j≤n,DMOSj∈[0,100],Fj的维数为1×7;
步骤十:从重定位立体图像集合中随机选择m幅重定位立体图像构成训练集,将重定位立体图像集合中剩余的n-m幅重定位立体图像构成测试集;然后将训练集中的所有重定位立体图像的结构特征矢量和平均主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有结构特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分差值之间的误差最小,拟合得到最优的权重矢量和最优的偏置项再利用得到的最优的权重矢量和最优的偏置项构造重定位立体图像的支持向量回归训练模型,记为s(Finp),其中,m为正整数,1≤m<n,s()为函数表示形式,Finp表示重定位立体图像的支持向量回归训练模型的输入矢量,为重定位立体图像的结构特征矢量,Finp的维数为1×7,为的转置,表示重定位立体图像的支持向量回归训练模型的输入矢量Finp的线性函数;
步骤十一:将测试集中的所有重定位立体图像的结构特征矢量构成测试样本数据集合;然后根据构造得到的重定位立体图像的支持向量回归训练模型,对测试样本数据集合中的每个结构特征矢量进行测试,预测得到测试样本数据集合中的每个结构特征矢量对应的重定位立体图像的客观质量评价预测值,将测试样本数据集合中的第η个结构特征矢量对应的重定位立体图像的客观质量评价预测值记为Qη,Qη=s(Fη),其中,η为正整数,1≤η≤n-m,Fη表示测试样本数据集合中的第η个结构特征矢量,Fη的维数为1×7,表示Fη的线性函数;
步骤十二:重复执行步骤十至步骤十一共Number次,并使重定位立体图像集合中的每幅重定位立体图像至少有一次属于测试集,经过Number次执行后计算重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值,再将重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值作为该幅重定位立体图像的最终的客观质量评价预测值;其中,Number为正整数,Number≥100。
所述的步骤二中,{Vorg(x,y)}的获取过程为:
步骤A1:采用SIFT-Flow方法建立{Lorg(x,y)}与{Rorg(x,y)}之间的匹配关系,得到{Lorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Lorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为 其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量;
步骤A2:采用SIFT-Flow方法建立{Rorg(x,y)}与{Lorg(x,y)}之间的匹配关系,得到{Rorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Rorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为 其中,表示的水平偏移量,表示的垂直偏移量;
步骤A3:根据{Lorg(x,y)}中的所有像素点的SIFT-Flow向量和{Rorg(x,y)}中的所有像素点的SIFT-Flow向量,获得Sorg的虚拟视点图像{Vorg(x,y)},其中, 表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Lorg(x,y)}中坐标位置为的像素点的像素值,表示{Rorg(x,y)}中坐标位置为的像素点的像素值;
所述的步骤二中,{Vret(x',y)}的获取过程为:
步骤B1:采用SIFT-Flow方法建立{Lret(x',y)}与{Rret(x',y)}之间的匹配关系,得到{Lret(x',y)}中的每个像素点的SIFT-Flow向量,将{Lret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为 其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量;
步骤B2:采用SIFT-Flow方法建立{Rret(x',y)}与{Lret(x',y)}之间的匹配关系,得到{Rret(x',y)}中的每个像素点的SIFT-Flow向量,将{Rret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为 其中,表示的水平偏移量,表示的垂直偏移量;
步骤B3:根据{Lret(x',y)}中的所有像素点的SIFT-Flow向量和{Rret(x',y)}中的所有像素点的SIFT-Flow向量,获得Sret的虚拟视点图像{Vret(x',y)},其中, 表示{Rret(x',y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Rret(x',y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Lret(x',y)}中坐标位置为的像素点的像素值,表示{Rret(x',y)}中坐标位置为的像素点的像素值。
所述的步骤六中,FG的获取过程为:
步骤C1:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,记为{Borg(x,y)},将{Borg(x,y)}中坐标位置为(x,y)的像素点的像素值记为Borg(x,y),并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图,记为{Bret(x',y)},将{Bret(x',y)}中坐标位置为(x',y)的像素点的像素值记为Bret(x',y),其中,th表示阈值;
步骤C2:根据{Borg(x,y)}和{Bret(x',y)},计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,将SPret,h的局部信息保持特征记为gh,其中,表示计算{Borg(x,y)}中与SPorg,h对应的区域中像素值为1的所有像素点占该区域的面积大小,表示计算{Bret(x',y)}中与SPret,h对应的区域中像素值为1的所有像素点占该区域的面积大小,C为控制参数;
步骤C4:计算{Vorg(x,y)}中的所有像素点的亮度分量的直方图,记为qorg;同样,计算中的所有像素点的亮度分量的直方图,记为计算{Vret(x',y)}中的所有像素点的亮度分量的直方图,记为qret;同样,计算中的所有像素点的亮度分量的直方图,记为其中,qorg、qret和的维数均为1×256;
步骤C6:根据f1、f2和f3,获得{Vret(x',y)}的空间结构特征矢量FG,FG=[f1,f2,f3];其中,FG的维数为1×3,[f1,f2,f3]表示将f1、f2和f3连接起来形成一个特征矢量。
所述的步骤七中,FD的获取过程为:
步骤D1:计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像,记为{dL(x',y)},将{dL(x',y)}中坐标位置为(x',y)的像素点的像素值记为dL(x',y),如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为匹配像素点,并令dL(x',y)=x'*-x';如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中不能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为遮挡像素点,并令dL(x',y)=255;再将{dL(x',y)}中的所有匹配像素点构成匹配区域,将{dL(x',y)}中的所有遮挡像素点构成遮挡区域;其中,x'*表示{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中找到的匹配的像素点的横坐标;
步骤D2:根据{dL(x',y)},计算{Lret(x',y)}中的每个像素点的深度值,将{Lret(x',y)}中坐标位置为(x',y)的像素点的深度值记为depthL(x',y),其中,e表示待处理的立体图像的左视点与右视点之间的水平基线距离,J表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wdisplay表示显示器的水平宽度,Rdisplay表示显示器的水平分辨率;
步骤D4:计算{dL(x',y)}中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征,记为f5,其中,匹配区域中的视觉舒适区域满足条件CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角;
步骤D7:根据f4、f5、f6和f7,获得{Vret(x',y)}的深度结构特征矢量FD,FD=[f4,f5,f6,f7];其中,FD的维数为1×4,[f4,f5,f6,f7]表示将f4、f5、f6和f7连接起来形成一个特征矢量。
与现有技术相比,本发明的优点在于:
本发明方法考虑了结构失真对立体图像重定位的影响,通过从原始的立体图像和重定位立体图像中获得对应的虚拟视点图像,计算重定位的虚拟视点图像的局部信息保持特征、原始的虚拟视点图像的前向信息损失、从原始的虚拟视点图像中重构得到的虚拟视点图像的后向信息损失,获得重定位的虚拟视点图像的空间结构特征矢量,计算重定位立体图像的左视点图像与右视点图像之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征、所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征、所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征和所有属于遮挡区域的像素点的相对宽度特征,获得重定位的虚拟视点图像的深度结构特征矢量,最终得到重定位立体图像的结构特征矢量;然后在训练阶段利用支持向量回归对训练样本数据集合中的所有结构特征矢量进行训练,构造得到支持向量回归训练模型;在测试阶段利用构造的支持向量回归训练模型,预测得到测试样本数据集合中的每个结构特征矢量对应的重定位立体图像的客观质量评价预测值,由于获得的结构特征矢量具有较强的稳定性且能够较好地反映重定位立体图像的结构失真情况,因此有效地提高了客观评价结果与人眼主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于结构特征的重定位立体图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
步骤一:令Sorg表示原始的立体图像,令Sret表示Sorg对应的重定位立体图像;将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sret的左视点图像记为{Lret(x',y)},将Sret的右视点图像记为{Rret(x',y)};其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Sorg的宽度,W'表示Sret的宽度,H表示Sorg和Sret的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Lret(x',y)表示{Lret(x',y)}中坐标位置为(x',y)的像素点的像素值,Rret(x',y)表示{Rret(x',y)}中坐标位置为(x',y)的像素点的像素值。
步骤二:根据{Lorg(x,y)}与{Rorg(x,y)}之间的双向匹配关系,获得Sorg的虚拟视点图像,记为{Vorg(x,y)};同样,根据{Lret(x',y)}与{Rret(x',y)}之间的双向匹配关系,获得Sret的虚拟视点图像,记为{Vret(x',y)};其中,Vorg(x,y)表示{Vorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Vret(x',y)表示{Vret(x',y)}中坐标位置为(x',y)的像素点的像素值。
在此具体实施例中,步骤二中,{Vorg(x,y)}的获取过程为:
步骤A1:采用现有的SIFT-Flow方法建立{Lorg(x,y)}与{Rorg(x,y)}之间的匹配关系,得到{Lorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Lorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为 其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量。
步骤A2:采用现有的SIFT-Flow方法建立{Rorg(x,y)}与{Lorg(x,y)}之间的匹配关系,得到{Rorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Rorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为 其中,表示的水平偏移量,表示的垂直偏移量。
步骤A3:根据{Lorg(x,y)}中的所有像素点的SIFT-Flow向量和{Rorg(x,y)}中的所有像素点的SIFT-Flow向量,获得Sorg的虚拟视点图像{Vorg(x,y)},其中, 表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Lorg(x,y)}中坐标位置为的像素点的像素值,表示{Rorg(x,y)}中坐标位置为的像素点的像素值。
在此具体实施例中,步骤二中,{Vret(x',y)}的获取过程为:
步骤B1:采用现有的SIFT-Flow方法建立{Lret(x',y)}与{Rret(x',y)}之间的匹配关系,得到{Lret(x',y)}中的每个像素点的SIFT-Flow向量,将{Lret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为 其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量。
步骤B2:采用现有的SIFT-Flow方法建立{Rret(x',y)}与{Lret(x',y)}之间的匹配关系,得到{Rret(x',y)}中的每个像素点的SIFT-Flow向量,将{Rret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为 其中,表示的水平偏移量,表示的垂直偏移量。
步骤B3:根据{Lret(x',y)}中的所有像素点的SIFT-Flow向量和{Rret(x',y)}中的所有像素点的SIFT-Flow向量,获得Sret的虚拟视点图像{Vret(x',y)},其中, 表示{Rret(x',y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Rret(x',y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Lret(x',y)}中坐标位置为的像素点的像素值,表示{Rret(x',y)}中坐标位置为的像素点的像素值。
步骤三:采用现有的SIFT-Flow方法建立{Vorg(x,y)}与{Vret(x',y)}之间的匹配关系,得到{Vorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Vorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为vo(x,y),然后根据{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Vorg(x,y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,用于表示水平方向,用于表示垂直方向,表示vo(x,y)的水平偏移量,表示vo(x,y)的垂直偏移量,表示中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号。
同样,采用现有的SIFT-Flow方法建立{Vret(x',y)}与{Vorg(x,y)}之间的匹配关系,得到{Vret(x',y)}中的每个像素点的SIFT-Flow向量,将{Vret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为vr(x',y),然后根据{Vret(x',y)}中的所有像素点的SIFT-Flow向量,从{Vret(x',y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,表示vr(x',y)的水平偏移量,表示vr(x',y)的垂直偏移量,表示中坐标位置为(x,y)的像素点的像素值,中的“=”为赋值符号。
步骤四:采用现有的超像素分割技术将{Vorg(x,y)}分割成Num个互不重叠的六边形网格,将{Vorg(x,y)}中的第h个六边形网格构成的区域记为SPorg,h,可将{Vorg(x,y)}表示为Num个区域的集合,记为{SPorg,h|1≤h≤Num},SPorg,h以其6个网格顶点构成的集合来描述,其中,Num≥1,在本实施例中取Num=400,1≤h≤Num,对应表示SPorg,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述,
然后根据{Vorg(x,y)}中的每个六边形网格构成的区域的6个网格顶点的SIFT-Flow向量,确定{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格,将{Vorg(x,y)}中的第h个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域记为SPret,h,可将{Vret(x',y)}表示为Num个区域的集合,记为{SPret,h|1≤h≤Num},SPret,h以其6个网格顶点构成的集合来描述,其中,对应表示SPret,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量。
步骤五:采用现有的基于图论的视觉显著(Graph-Based Visual Saliency,GBVS)模型提取出{Vorg(x,y)}的显著图,记为{Zorg(x,y)};其中,Zorg(x,y)表示{Zorg(x,y)}中坐标位置为(x,y)的像素点的像素值。
然后根据{Zorg(x,y)}和{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Zorg(x,y)}中重构得到{Vret(x',y)}的显著图,记为{Zret(x',y)},将{Zret(x',y)}中坐标位置为的像素点的像素值记为 其中,Zret(x',y)表示{Zret(x',y)}中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号。
步骤六:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图;然后根据两幅重要性区域掩码图,计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,进而计算{Vret(x',y)}的局部信息保持特征;通过计算{Vret(x',y)}和各自中的所有像素点的亮度分量的直方图,计算{Vorg(x,y)}的前向信息损失;并通过计算{Vorg(x,y)}和各自中的所有像素点的亮度分量的直方图,计算的后向信息损失;再根据{Vret(x',y)}的局部信息保持特征、{Vorg(x,y)}的前向信息损失、的后向信息损失,获得{Vret(x',y)}的空间结构特征矢量,记为FG;其中,FG的维数为1×3。
在此具体实施例中,步骤六中,FG的获取过程为:
步骤C1:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,记为{Borg(x,y)},将{Borg(x,y)}中坐标位置为(x,y)的像素点的像素值记为Borg(x,y),并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图,记为{Bret(x',y)},将{Bret(x',y)}中坐标位置为(x',y)的像素点的像素值记为Bret(x',y),其中,th表示阈值,在本实施例中取th=0.25。
步骤C2:根据{Borg(x,y)}和{Bret(x',y)},计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,将SPret,h的局部信息保持特征记为gh,其中,表示计算{Borg(x,y)}中与SPorg,h对应的区域中像素值为1的所有像素点占该区域的面积大小,表示计算{Bret(x',y)}中与SPret,h对应的区域中像素值为1的所有像素点占该区域的面积大小,C为控制参数,在本实施例中取C=10-6。
步骤C4:计算{Vorg(x,y)}中的所有像素点的亮度分量的直方图,记为qorg;同样,计算中的所有像素点的亮度分量的直方图,记为计算{Vret(x',y)}中的所有像素点的亮度分量的直方图,记为qret;同样,计算中的所有像素点的亮度分量的直方图,记为其中,qorg、qret和的维数均为1×256。
步骤C6:根据f1、f2和f3,获得{Vret(x',y)}的空间结构特征矢量FG,FG=[f1,f2,f3];其中,FG的维数为1×3,[f1,f2,f3]表示将f1、f2和f3连接起来形成一个特征矢量。
步骤七:根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}中的每个像素点的深度值;然后根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征和所有属于遮挡区域的像素点的相对宽度特征;并根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像及{Lret(x',y)}中的所有像素点的深度值,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征和所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征;再根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征、所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征、所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征、所有属于遮挡区域的像素点的相对宽度特征,获得{Vret(x',y)}的深度结构特征矢量,记为FD;其中,FD的维数为1×4。
在此具体实施例中,步骤七中,FD的获取过程为:
步骤D1:计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像,记为{dL(x',y)},将{dL(x',y)}中坐标位置为(x',y)的像素点的像素值记为dL(x',y),如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为匹配像素点,并令dL(x',y)=x'*-x';如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中不能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为遮挡像素点,并令dL(x',y)=255;再将{dL(x',y)}中的所有匹配像素点构成匹配区域,将{dL(x',y)}中的所有遮挡像素点构成遮挡区域;其中,x'*表示{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中找到的匹配的像素点的横坐标。
步骤D2:根据{dL(x',y)},计算{Lret(x',y)}中的每个像素点的深度值,将{Lret(x',y)}中坐标位置为(x',y)的像素点的深度值记为depthL(x',y),其中,e表示待处理的立体图像的左视点与右视点之间的水平基线距离,J表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wdisplay表示显示器的水平宽度,Rdisplay表示显示器的水平分辨率,在本实施例中的e、J、Wdisplay和Rdisplay的值根据具体的立体图像和观看条件确定。
步骤D4:计算{dL(x',y)}中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征,记为f5,其中,匹配区域中的视觉舒适区域满足条件CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,在本实施例中取η1=-1°,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,在本实施例中取η2=1°。
步骤D7:根据f4、f5、f6和f7,获得{Vret(x',y)}的深度结构特征矢量FD,FD=[f4,f5,f6,f7];其中,FD的维数为1×4,[f4,f5,f6,f7]表示将f4、f5、f6和f7连接起来形成一个特征矢量。
步骤八:根据FG和FD,获取Sret的结构特征矢量,记为F,F=[FG,FD];其中,F的维数为1×7,[FG,FD]表示将FG和FD连接起来形成一个特征矢量。
步骤九:将n'幅原始的立体图像对应的共n幅重定位立体图像构成重定位立体图像集合;然后采用现有的主观质量评价方法,获取重定位立体图像集合中的每幅重定位立体图像的平均主观评分差值,将重定位立体图像集合中的第j幅重定位立体图像的平均主观评分差值记为DMOSj;并按照步骤一至步骤八的过程,以相同的方式获取重定位立体图像集合中的每幅重定位立体图像的结构特征矢量,将重定位立体图像集合中的第j幅重定位立体图像的结构特征矢量记为Fj;其中,n'为正整数,n'>1,如取n'=45,n为正整数,n≥n',如取n=720,j为正整数,1≤j≤n,DMOSj∈[0,100],Fj的维数为1×7。
步骤十:从重定位立体图像集合中随机选择m幅重定位立体图像构成训练集,将重定位立体图像集合中剩余的n-m幅重定位立体图像构成测试集;然后将训练集中的所有重定位立体图像的结构特征矢量和平均主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有结构特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分差值之间的误差最小,拟合得到最优的权重矢量和最优的偏置项再利用得到的最优的权重矢量和最优的偏置项构造重定位立体图像的支持向量回归训练模型,记为s(Finp),其中,m为正整数,1≤m<n,s()为函数表示形式,Finp表示重定位立体图像的支持向量回归训练模型的输入矢量,为重定位立体图像的结构特征矢量,Finp的维数为1×7,为的转置,表示重定位立体图像的支持向量回归训练模型的输入矢量Finp的线性函数。
步骤十一:将测试集中的所有重定位立体图像的结构特征矢量构成测试样本数据集合;然后根据构造得到的重定位立体图像的支持向量回归训练模型,对测试样本数据集合中的每个结构特征矢量进行测试,预测得到测试样本数据集合中的每个结构特征矢量对应的重定位立体图像的客观质量评价预测值,将测试样本数据集合中的第η个结构特征矢量对应的重定位立体图像的客观质量评价预测值记为Qη,Qη=s(Fη),其中,η为正整数,1≤η≤n-m,Fη表示测试样本数据集合中的第η个结构特征矢量,Fη的维数为1×7,表示Fη的线性函数。
步骤十二:重复执行步骤十至步骤十一共Number次,并使重定位立体图像集合中的每幅重定位立体图像至少有一次属于测试集,经过Number次执行后计算重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值,再将重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值作为该幅重定位立体图像的最终的客观质量评价预测值;其中,Number为正整数,Number≥100。
为了进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
在本实施例中,采用本发明方法对宁波大学建立的重定位立体图像数据库进行测试,该重定位立体图像数据库包含45幅原始的立体图像,采用8种不同重定位方法对每幅原始的立体图像进行50%和75%两种比例的重定位操作,这样该重定位立体图像数据库共有720幅重定位立体图像,并给出了每幅重定位立体图像的平均主观评分差值。这里,利用评估图像质量评价方法的3个常用客观参量作为客观评价结果的评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、均方误差(root meansquared error,RMSE),PLCC和RMSE反映重定位立体图像的客观评价结果的准确性,SROCC反映其单调性。
将采用本发明方法计算得到的720幅重定位立体图像各自的最终的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高、RMSE值越小说明客观评价结果与平均主观评分差值之间的相关性越好。表1给出了采用本发明方法得到的最终的客观质量评价预测值与平均主观评分差值之间的相关性。
表1采用本发明方法得到的最终的客观质量评价预测值与平均主观评分差值之间的相关性
方法 | PLCC | SROCC | RMSE |
本发明方法 | 0.8076 | 0.7986 | 8.7806 |
从表1中可以看出,采用本发明方法得到的最终的客观质量评价预测值与平均主观评分差值之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
Claims (4)
1.一种基于结构特征的重定位立体图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Sorg表示原始的立体图像,令Sret表示Sorg对应的重定位立体图像;将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sret的左视点图像记为{Lret(x',y)},将Sret的右视点图像记为{Rret(x',y)};其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Sorg的宽度,W'表示Sret的宽度,H表示Sorg和Sret的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Lret(x',y)表示{Lret(x',y)}中坐标位置为(x',y)的像素点的像素值,Rret(x',y)表示{Rret(x',y)}中坐标位置为(x',y)的像素点的像素值;
步骤二:根据{Lorg(x,y)}与{Rorg(x,y)}之间的双向匹配关系,获得Sorg的虚拟视点图像,记为{Vorg(x,y)};同样,根据{Lret(x',y)}与{Rret(x',y)}之间的双向匹配关系,获得Sret的虚拟视点图像,记为{Vret(x',y)};其中,Vorg(x,y)表示{Vorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Vret(x',y)表示{Vret(x',y)}中坐标位置为(x',y)的像素点的像素值;
步骤三:采用SIFT-Flow方法建立{Vorg(x,y)}与{Vret(x',y)}之间的匹配关系,得到{Vorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Vorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为vo(x,y),然后根据{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Vorg(x,y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,用于表示水平方向,用于表示垂直方向,表示vo(x,y)的水平偏移量,表示vo(x,y)的垂直偏移量,表示中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号;
同样,采用SIFT-Flow方法建立{Vret(x',y)}与{Vorg(x,y)}之间的匹配关系,得到{Vret(x',y)}中的每个像素点的SIFT-Flow向量,将{Vret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为vr(x',y),然后根据{Vret(x',y)}中的所有像素点的SIFT-Flow向量,从{Vret(x',y)}中重构得到虚拟视点图像,记为将中坐标位置为的像素点的像素值记为再找出中的所有空洞像素点,并将值0作为中的每个空洞像素点的像素值;其中,表示vr(x',y)的水平偏移量,表示vr(x',y)的垂直偏移量,表示中坐标位置为(x,y)的像素点的像素值,中的“=”为赋值符号;
步骤四:采用超像素分割技术将{Vorg(x,y)}分割成Num个互不重叠的六边形网格,将{Vorg(x,y)}中的第h个六边形网格构成的区域记为SPorg,h,SPorg,h以其6个网格顶点构成的集合来描述,其中,Num≥1,1≤h≤Num,对应表示SPorg,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述,
然后根据{Vorg(x,y)}中的每个六边形网格构成的区域的6个网格顶点的SIFT-Flow向量,确定{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格,将{Vorg(x,y)}中的第h个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域记为SPret,h,SPret,h以其6个网格顶点构成的集合来描述,其中,对应表示SPret,h的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点、第5个网格顶点、第6个网格顶点,以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 以的水平坐标位置和垂直坐标位置来描述, 表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Vorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量;
步骤五:采用基于图论的视觉显著模型提取出{Vorg(x,y)}的显著图,记为{Zorg(x,y)};其中,Zorg(x,y)表示{Zorg(x,y)}中坐标位置为(x,y)的像素点的像素值;
然后根据{Zorg(x,y)}和{Vorg(x,y)}中的所有像素点的SIFT-Flow向量,从{Zorg(x,y)}中重构得到{Vret(x',y)}的显著图,记为{Zret(x',y)},将{Zret(x',y)}中坐标位置为的像素点的像素值记为 其中,Zret(x',y)表示{Zret(x',y)}中坐标位置为(x',y)的像素点的像素值,中的“=”为赋值符号;
步骤六:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图;然后根据两幅重要性区域掩码图,计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,进而计算{Vret(x',y)}的局部信息保持特征;通过计算{Vret(x',y)}和各自中的所有像素点的亮度分量的直方图,计算{Vorg(x,y)}的前向信息损失;并通过计算{Vorg(x,y)}和各自中的所有像素点的亮度分量的直方图,计算的后向信息损失;再根据{Vret(x',y)}的局部信息保持特征、{Vorg(x,y)}的前向信息损失、的后向信息损失,获得{Vret(x',y)}的空间结构特征矢量,记为FG;其中,FG的维数为1×3;
步骤七:根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}中的每个像素点的深度值;然后根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征和所有属于遮挡区域的像素点的相对宽度特征;并根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像及{Lret(x',y)}中的所有像素点的深度值,计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征和所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征;再根据{Lret(x',y)}与{Rret(x',y)}之间的视差图像中的所有属于匹配区域的像素点的视差幅值特征、所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征、所有属于匹配区域中的交叉视差区域的像素点的视差幅值特征、所有属于遮挡区域的像素点的相对宽度特征,获得{Vret(x',y)}的深度结构特征矢量,记为FD;其中,FD的维数为1×4;
步骤八:根据FG和FD,获取Sret的结构特征矢量,记为F,F=[FG,FD];其中,F的维数为1×7,[FG,FD]表示将FG和FD连接起来形成一个特征矢量;
步骤九:将n'幅原始的立体图像对应的共n幅重定位立体图像构成重定位立体图像集合;然后采用主观质量评价方法,获取重定位立体图像集合中的每幅重定位立体图像的平均主观评分差值,将重定位立体图像集合中的第j幅重定位立体图像的平均主观评分差值记为DMOSj;并按照步骤一至步骤八的过程,以相同的方式获取重定位立体图像集合中的每幅重定位立体图像的结构特征矢量,将重定位立体图像集合中的第j幅重定位立体图像的结构特征矢量记为Fj;其中,n'为正整数,n'>1,n为正整数,n≥n',j为正整数,1≤j≤n,DMOSj∈[0,100],Fj的维数为1×7;
步骤十:从重定位立体图像集合中随机选择m幅重定位立体图像构成训练集,将重定位立体图像集合中剩余的n-m幅重定位立体图像构成测试集;然后将训练集中的所有重定位立体图像的结构特征矢量和平均主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有结构特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分差值之间的误差最小,拟合得到最优的权重矢量和最优的偏置项再利用得到的最优的权重矢量和最优的偏置项构造重定位立体图像的支持向量回归训练模型,记为s(Finp),其中,m为正整数,1≤m<n,s()为函数表示形式,Finp表示重定位立体图像的支持向量回归训练模型的输入矢量,为重定位立体图像的结构特征矢量,Finp的维数为1×7,为的转置,表示重定位立体图像的支持向量回归训练模型的输入矢量Finp的线性函数;
步骤十一:将测试集中的所有重定位立体图像的结构特征矢量构成测试样本数据集合;然后根据构造得到的重定位立体图像的支持向量回归训练模型,对测试样本数据集合中的每个结构特征矢量进行测试,预测得到测试样本数据集合中的每个结构特征矢量对应的重定位立体图像的客观质量评价预测值,将测试样本数据集合中的第η个结构特征矢量对应的重定位立体图像的客观质量评价预测值记为Qη,Qη=s(Fη),其中,η为正整数,1≤η≤n-m,Fη表示测试样本数据集合中的第η个结构特征矢量,Fη的维数为1×7,表示Fη的线性函数;
步骤十二:重复执行步骤十至步骤十一共Number次,并使重定位立体图像集合中的每幅重定位立体图像至少有一次属于测试集,经过Number次执行后计算重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值,再将重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值作为该幅重定位立体图像的最终的客观质量评价预测值;其中,Number为正整数,Number≥100。
2.根据权利要求1所述的一种基于结构特征的重定位立体图像质量评价方法,其特征在于所述的步骤二中,{Vorg(x,y)}的获取过程为:
步骤A1:采用SIFT-Flow方法建立{Lorg(x,y)}与{Rorg(x,y)}之间的匹配关系,得到{Lorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Lorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量;
步骤A2:采用SIFT-Flow方法建立{Rorg(x,y)}与{Lorg(x,y)}之间的匹配关系,得到{Rorg(x,y)}中的每个像素点的SIFT-Flow向量,将{Rorg(x,y)}中坐标位置为(x,y)的像素点的SIFT-Flow向量记为其中,表示的水平偏移量,表示的垂直偏移量;
步骤A3:根据{Lorg(x,y)}中的所有像素点的SIFT-Flow向量和{Rorg(x,y)}中的所有像素点的SIFT-Flow向量,获得Sorg的虚拟视点图像{Vorg(x,y)},其中, 表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的水平偏移量,表示{Rorg(x,y)}中坐标位置为的像素点的SIFT-Flow向量的垂直偏移量,表示{Lorg(x,y)}中坐标位置为的像素点的像素值,表示{Rorg(x,y)}中坐标位置为的像素点的像素值;
所述的步骤二中,{Vret(x',y)}的获取过程为:
步骤B1:采用SIFT-Flow方法建立{Lret(x',y)}与{Rret(x',y)}之间的匹配关系,得到{Lret(x',y)}中的每个像素点的SIFT-Flow向量,将{Lret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为其中,用于表示水平方向,用于表示垂直方向,表示的水平偏移量,表示的垂直偏移量;
步骤B2:采用SIFT-Flow方法建立{Rret(x',y)}与{Lret(x',y)}之间的匹配关系,得到{Rret(x',y)}中的每个像素点的SIFT-Flow向量,将{Rret(x',y)}中坐标位置为(x',y)的像素点的SIFT-Flow向量记为其中,表示的水平偏移量,表示的垂直偏移量;
3.根据权利要求1或2所述的一种基于结构特征的重定位立体图像质量评价方法,其特征在于所述的步骤六中,FG的获取过程为:
步骤C1:根据{Zorg(x,y)}提取出{Vorg(x,y)}的重要性区域掩码图,记为{Borg(x,y)},将{Borg(x,y)}中坐标位置为(x,y)的像素点的像素值记为Borg(x,y),并根据{Zret(x',y)}提取出{Vret(x',y)}的重要性区域掩码图,记为{Bret(x',y)},将{Bret(x',y)}中坐标位置为(x',y)的像素点的像素值记为Bret(x',y),其中,th表示阈值;
步骤C2:根据{Borg(x,y)}和{Bret(x',y)},计算{Vorg(x,y)}中的每个六边形网格在{Vret(x',y)}中匹配的六边形网格构成的区域的局部信息保持特征,将SPret,h的局部信息保持特征记为gh,其中,表示计算{Borg(x,y)}中与SPorg,h对应的区域中像素值为1的所有像素点占该区域的面积大小,表示计算{Bret(x',y)}中与SPret,h对应的区域中像素值为1的所有像素点占该区域的面积大小,C为控制参数;
步骤C4:计算{Vorg(x,y)}中的所有像素点的亮度分量的直方图,记为qorg;同样,计算中的所有像素点的亮度分量的直方图,记为计算{Vret(x',y)}中的所有像素点的亮度分量的直方图,记为qret;同样,计算中的所有像素点的亮度分量的直方图,记为其中,qorg、qret和的维数均为1×256;
步骤C6:根据f1、f2和f3,获得{Vret(x',y)}的空间结构特征矢量FG,FG=[f1,f2,f3];其中,FG的维数为1×3,[f1,f2,f3]表示将f1、f2和f3连接起来形成一个特征矢量。
4.根据权利要求3所述的一种基于结构特征的重定位立体图像质量评价方法,其特征在于所述的步骤七中,FD的获取过程为:
步骤D1:计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像,记为{dL(x',y)},将{dL(x',y)}中坐标位置为(x',y)的像素点的像素值记为dL(x',y),如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为匹配像素点,并令dL(x',y)=x'*-x';如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中不能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为遮挡像素点,并令dL(x',y)=255;再将{dL(x',y)}中的所有匹配像素点构成匹配区域,将{dL(x',y)}中的所有遮挡像素点构成遮挡区域;其中,x'*表示{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中找到的匹配的像素点的横坐标;
步骤D2:根据{dL(x',y)},计算{Lret(x',y)}中的每个像素点的深度值,将{Lret(x',y)}中坐标位置为(x',y)的像素点的深度值记为depthL(x',y),其中,e表示待处理的立体图像的左视点与右视点之间的水平基线距离,J表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wdisplay表示显示器的水平宽度,Rdisplay表示显示器的水平分辨率;
步骤D4:计算{dL(x',y)}中的所有属于匹配区域中的视觉舒适区域的像素点的视差幅值特征,记为f5,其中,匹配区域中的视觉舒适区域满足条件CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角;
步骤D7:根据f4、f5、f6和f7,获得{Vret(x',y)}的深度结构特征矢量FD,FD=[f4,f5,f6,f7];其中,FD的维数为1×4,[f4,f5,f6,f7]表示将f4、f5、f6和f7连接起来形成一个特征矢量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011416906.3A CN112770105B (zh) | 2020-12-07 | 2020-12-07 | 一种基于结构特征的重定位立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011416906.3A CN112770105B (zh) | 2020-12-07 | 2020-12-07 | 一种基于结构特征的重定位立体图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112770105A true CN112770105A (zh) | 2021-05-07 |
CN112770105B CN112770105B (zh) | 2022-06-03 |
Family
ID=75693534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011416906.3A Active CN112770105B (zh) | 2020-12-07 | 2020-12-07 | 一种基于结构特征的重定位立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112770105B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2525812A1 (en) * | 2003-08-22 | 2005-03-03 | Nippon Telegraph And Telephone Corporation | Video quality assessing apparatus, video quality assessing method, video quality assessing program, video aligning apparatus, video aligning method, and video aligning program |
CA2762848A1 (en) * | 2009-05-21 | 2010-11-25 | Visiongate, Inc. | System and method for detecting poor quality in 3d reconstructions |
CN102333233A (zh) * | 2011-09-23 | 2012-01-25 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102930528A (zh) * | 2012-09-24 | 2013-02-13 | 宁波大学 | 一种基于三维结构相似度的立体图像质量客观评价方法 |
CN103136748A (zh) * | 2013-01-21 | 2013-06-05 | 宁波大学 | 一种基于特征图的立体图像质量客观评价方法 |
CN105049838A (zh) * | 2015-07-10 | 2015-11-11 | 天津大学 | 一种用于压缩立体视频质量的客观评价方法 |
CN107862678A (zh) * | 2017-10-19 | 2018-03-30 | 宁波大学 | 一种眼底图像无参考质量评价方法 |
CN108805825A (zh) * | 2018-05-03 | 2018-11-13 | 宁波大学 | 一种重定位图像质量评价方法 |
CN108848365A (zh) * | 2018-05-31 | 2018-11-20 | 宁波大学 | 一种重定位立体图像质量评价方法 |
CN110555434A (zh) * | 2019-09-03 | 2019-12-10 | 浙江科技学院 | 一种局部对比和全局指导的立体图像视觉显著性检测方法 |
CN111641822A (zh) * | 2020-05-06 | 2020-09-08 | 宁波大学 | 一种重定位立体图像质量评价方法 |
-
2020
- 2020-12-07 CN CN202011416906.3A patent/CN112770105B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2525812A1 (en) * | 2003-08-22 | 2005-03-03 | Nippon Telegraph And Telephone Corporation | Video quality assessing apparatus, video quality assessing method, video quality assessing program, video aligning apparatus, video aligning method, and video aligning program |
CA2762848A1 (en) * | 2009-05-21 | 2010-11-25 | Visiongate, Inc. | System and method for detecting poor quality in 3d reconstructions |
CN102333233A (zh) * | 2011-09-23 | 2012-01-25 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102930528A (zh) * | 2012-09-24 | 2013-02-13 | 宁波大学 | 一种基于三维结构相似度的立体图像质量客观评价方法 |
CN103136748A (zh) * | 2013-01-21 | 2013-06-05 | 宁波大学 | 一种基于特征图的立体图像质量客观评价方法 |
CN105049838A (zh) * | 2015-07-10 | 2015-11-11 | 天津大学 | 一种用于压缩立体视频质量的客观评价方法 |
CN107862678A (zh) * | 2017-10-19 | 2018-03-30 | 宁波大学 | 一种眼底图像无参考质量评价方法 |
CN108805825A (zh) * | 2018-05-03 | 2018-11-13 | 宁波大学 | 一种重定位图像质量评价方法 |
CN108848365A (zh) * | 2018-05-31 | 2018-11-20 | 宁波大学 | 一种重定位立体图像质量评价方法 |
CN110555434A (zh) * | 2019-09-03 | 2019-12-10 | 浙江科技学院 | 一种局部对比和全局指导的立体图像视觉显著性检测方法 |
CN111641822A (zh) * | 2020-05-06 | 2020-09-08 | 宁波大学 | 一种重定位立体图像质量评价方法 |
Non-Patent Citations (5)
Title |
---|
SALAH ADDIN MOHAMMED MAHYOUB MOHAMMED: "《立体图像重定向及其质量评价研究》", 《中国博士学位论文》 * |
Y. LIU, L. SUN, W. ZHU AND S. YANG: "《A metric of stereoscopic image retargeting quality assessment》", 《2015 IEEE CHINA SUMMIT AND INTERNATIONAL CONFERENCE ON SIGNAL AND INFORMATION PROCESSING (CHINASIP)》 * |
富振奇等: "三维重定向图像主观和客观质量评价方法", 《计算机应用》 * |
段芬芳,邵枫,蒋刚毅,郁梅,李福翠: "《基于三维结构张量的立体图像质量客观评价方法》", 《光电子.激光》 * |
毛香英等: "基于结构失真分析的立体图像质量客观评价模型", 《计算机辅助设计与图形学学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112770105B (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102333233B (zh) | 一种基于视觉感知的立体图像质量客观评价方法 | |
Yue et al. | Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry | |
CN108805825B (zh) | 一种重定位图像质量评价方法 | |
CN107481236A (zh) | 一种屏幕图像的质量评价方法 | |
CN111641822B (zh) | 一种重定位立体图像质量评价方法 | |
CN105282543B (zh) | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 | |
CN105357519B (zh) | 基于自相似度特征的无参考立体图像质量客观评价方法 | |
CN102595185A (zh) | 一种立体图像质量客观评价方法 | |
CN108053396B (zh) | 一种多失真图像质量的无参考评价方法 | |
CN107146220B (zh) | 一种通用型无参考图像质量评价方法 | |
CN111709914B (zh) | 一种基于hvs特性的无参考图像质量评价方法 | |
CN104408716A (zh) | 一种基于视觉保真度的立体图像质量客观评价方法 | |
CN112950596B (zh) | 基于多区域多层次的色调映射全向图像质量评价方法 | |
CN107945151B (zh) | 一种基于相似性变换的重定位图像质量评价方法 | |
CN107360416A (zh) | 基于局部多元高斯描述子的立体图像质量评价方法 | |
CN110691236B (zh) | 一种全景视频质量评价方法 | |
CN105898279B (zh) | 一种立体图像质量客观评价方法 | |
Liu et al. | Blind stereoscopic image quality assessment accounting for human monocular visual properties and binocular interactions | |
CN103745457B (zh) | 一种立体图像客观质量评价方法 | |
CN108848365B (zh) | 一种重定位立体图像质量评价方法 | |
CN103914835A (zh) | 一种针对模糊失真立体图像的无参考质量评价方法 | |
CN105488792A (zh) | 基于字典学习和机器学习的无参考立体图像质量评价方法 | |
CN112770105B (zh) | 一种基于结构特征的重定位立体图像质量评价方法 | |
CN104820988B (zh) | 一种无参考立体图像质量客观评价方法 | |
CN113192003B (zh) | 一种拼接图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |