CN105282543B - 一种基于立体视觉感知的全盲立体图像质量客观评价方法 - Google Patents

一种基于立体视觉感知的全盲立体图像质量客观评价方法 Download PDF

Info

Publication number
CN105282543B
CN105282543B CN201510701937.6A CN201510701937A CN105282543B CN 105282543 B CN105282543 B CN 105282543B CN 201510701937 A CN201510701937 A CN 201510701937A CN 105282543 B CN105282543 B CN 105282543B
Authority
CN
China
Prior art keywords
dis
org
image
picture
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510701937.6A
Other languages
English (en)
Other versions
CN105282543A (zh
Inventor
周武杰
王中鹏
邱薇薇
周扬
吴茗蔚
翁剑枫
葛丁飞
王新华
孙丽慧
陈寿法
郑卫红
李鑫
吴洁雯
文小军
金国英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiaxing Qiyuan Network Information Technology Co.,Ltd.
Original Assignee
Zhejiang Lover Health Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lover Health Science and Technology Development Co Ltd filed Critical Zhejiang Lover Health Science and Technology Development Co Ltd
Priority to CN201510701937.6A priority Critical patent/CN105282543B/zh
Publication of CN105282543A publication Critical patent/CN105282543A/zh
Application granted granted Critical
Publication of CN105282543B publication Critical patent/CN105282543B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于立体视觉感知的全盲立体图像质量客观评价方法,其在训练阶段,先获取每幅原始的无失真立体图像的融合视点图像的去均值归一化图像,然后输入到实证密度函数中得到纹理信息向量,并进行四个方向的滤波处理得到方向信息向量,再将所有纹理信息向量和方向信息向量输入到高斯分布模型中,得到无失真高斯分布模型;在测试阶段,采用相同的方式得到失真高斯分布模型,然后采用马氏距离公式衡量无失真高斯分布模型和失真高斯分布模型之间的误差,将误差作为待评价的失真立体图像的图像质量客观评价预测值;优点是其能够充分考虑到立体视觉感知特性,从而能够有效地提高客观评价结果与主观感知之间的相关性。

Description

一种基于立体视觉感知的全盲立体图像质量客观评价方法
技术领域
本发明涉及一种立体图像质量客观评价方法,尤其是涉及一种基于立体视觉感知的全盲立体图像质量客观评价方法。
背景技术
进入二十一世纪以来,随着立体图像/视频系统处理技术的日趋成熟,以及计算机网络与通信技术的快速发展,已引起人们对立体图像/视频系统的强烈需求。相比传统的单视点图像/视频系统,立体图像/视频系统由于能够提供深度信息来增强视觉的真实感,给用户以身临其境的全新视觉体验而越来越受到人们的欢迎,已被认为是下一代媒体主要的发展方向,已引发了学术界、产业界的广泛关注。然而,人们为了获得更好的立体临场感和视觉体验,对立体视觉主观感知质量提出了更高的要求。在立体图像/视频系统中,采集、编码、传输、解码及显示等处理环节都会引入一定失真,这些失真将对立体视觉主观感知质量产生不同程度的影响,因此如何有效地进行无参考质量评价是亟需解决的难点问题。综上,评价立体图像质量,并建立与主观质量评价相一致的客观评价模型显得尤为重要。
目前,研究人员提出了不少针对单视点图像质量的无参考评价方法,然而由于缺乏系统理论深入研究立体视觉感知特性,因此还没有有效地无参考立体图像质量评价方法。现有的无参考立体图像质量评价方法主要是通过机器学习来预测立体图像质量,不仅计算复杂度较高,而且需要测试数据库(包括大量不同失真类型的失真立体图像及相应的主观评价值),使得该无参考立体图像质量评价方法并不适用于实际的应用场合,存在一定的局限性。因此,如何深入挖掘立体视觉感知;以及如何在无参考模型构建中采用全盲方法,都是无参考质量评价研究中需要重点解决的技术问题。
发明内容
本发明所要解决的技术问题是提供一种基于立体视觉感知的全盲立体图像质量客观评价方法,其能够充分考虑到立体视觉感知特性,从而能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:
①-1、选取K幅原始的无失真立体图像,其中,K≥1,原始的无失真立体图像的宽度为M,原始的无失真立体图像的高度为N;
①-2、采用双目融合技术对每幅原始的无失真立体图像的左视点图像和右视点图像进行融合,得到每幅原始的无失真立体图像的融合视点图像;
①-3、对每幅原始的无失真立体图像的融合视点图像进行去均值归一化操作,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像;
①-4、将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像输入到实证密度函数中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量;
①-5、对每幅原始的无失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到非对称广义高斯分布模型中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的方向信息向量;
①-6、将所有原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到高斯分布模型中,得到所有原始的无失真立体图像对应的无失真高斯分布模型;
所述的测试阶段过程的具体步骤如下:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像;
②-2、采用双目融合技术对待评价的失真立体图像的左视点图像和右视点图像进行融合,得到待评价的失真立体图像的融合视点图像;
②-3、对待评价的失真立体图像的融合视点图像进行去均值归一化操作,得到待评价的失真立体图像的融合视点图像的去均值归一化图像;
②-4、将待评价的失真立体图像的融合视点图像的去均值归一化图像输入到实证密度函数中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量;
②-5、对待评价的失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到非对称广义高斯分布模型中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的方向信息向量;
②-6、将待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到高斯分布模型中,得到待评价的失真立体图像对应的失真高斯分布模型;
②-7、采用马氏距离公式衡量步骤①-6中得到的所有原始的无失真立体图像对应的无失真高斯分布模型与步骤②-6中得到的待评价的失真立体图像对应的失真高斯分布模型之间的误差,将衡量得到的误差作为待评价的失真立体图像的图像质量客观评价预测值。
所述的步骤①-3中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像记为{Gk,org,L,R(m,n)},将{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gk,org,L,R(m,n),其中,1≤k≤K,1≤m≤M,1≤n≤N,Rk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像{Rk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的均值,σk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的方差。
所述的步骤①-5中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hk,org,L,R(m,n)}、{Vk,org,L,R(m,n)}、{Dk,org,L,R(m,n)}和将{Hk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n),将{Vk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vk,org,L,R(m,n),将{Dk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Dk,org,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m,n+1),Vk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n),Dk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n+1),其中,1≤k≤K,1≤m≤M,1≤n≤N,Gk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gk,org,L,R(m,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N),Gk,org,L,R(m,N)表示{Gk,org,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gk,org,L,R(m+1,n)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n),Gk,org,L,R(M,n)表示{Gk,org,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gk,org,L,R(m+1,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N),若m+1>M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N),Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,N)和Gk,org,L,R(M,N)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gk,org,L,R(m+1,n-1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1),若m+1>M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1),Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,1)和Gk,org,L,R(M,1)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N)、Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1)和Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1)中的“=”为赋值符号。
所述的步骤②-3中,将待评价的失真立体图像的融合视点图像的去均值归一化图像记为{Gdis,L,R(m,n)},将{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gdis,L,R(m,n),其中,1≤m≤M,1≤n≤N,Rdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像{Rdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的均值,σdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的方差。
所述的步骤②-5中,将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hdis,L,R(m,n)}、{Vdis,L,R(m,n)}、{Ddis,L,R(m,n)}和将{Hdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n),将{Vdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vdis,L,R(m,n),将{Ddis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Ddis,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m,n+1),
Vdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n),
Ddis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n+1),
其中,1≤m≤M,1≤n≤N,Gdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像的去均值归一化图像{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gdis,L,R(m,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gdis,L,R(m,n+1)=Gdis,L,R(m,N),Gdis,L,R(m,N)表示{Gdis,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gdis,L,R(m+1,n)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gdis,L,R(m+1,n)=Gdis,L,R(M,n),Gdis,L,R(M,n)表示{Gdis,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gdis,L,R(m+1,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N),若m+1>M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N),Gdis,L,R(M,n+1)、Gdis,L,R(m+1,N)和Gdis,L,R(M,N)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gdis,L,R(m+1,n-1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1),若m+1>M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1),Gdis,L,R(M,n-1)、Gdis,L,R(m+1,1)和Gdis,L,R(M,1)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gdis,L,R(m,n+1)=Gdis,L,R(m,N)、Gdis,L,R(m+1,n)=Gdis,L,R(M,n)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1)、Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N)、Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1)、Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1)和Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1)中的“=”为赋值符号。
与现有技术相比,本发明的优点在于:
1)本发明方法由于充分利用了立体视觉感知特性,即获取了原始的无失真立体图像和待评价的失真立体图像各自的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量,充分考虑到了立体视觉纹理和方向特性,因此有效地提高了客观评价模型的预测性能,即:可以使得到的待评价的失真立体图像的图像质量客观评价预测值能够准确地反映人眼视觉主观感知质量,能够有效地提高客观评价结果与主观感知之间的相关性。
2)本发明方法通过无监督学习方式构造所有原始的无失真立体图像对应的无失真高斯分布模型和待评价的失真立体图像对应的失真高斯分布模型,这样有效地避免了复杂的机器学习训练过程,降低了计算复杂度,并且本发明方法在训练阶段不需要预知各训练失真立体图像及其主观评价值,因此更加适用于实际的应用场合。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于立体视觉感知的全盲立体图像质量客观评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:
①-1、选取K幅原始的无失真立体图像,其中,K≥1,在本实施例中取K=20,原始的无失真立体图像的宽度为M,原始的无失真立体图像的高度为N。
①-2、采用现有的双目融合技术对每幅原始的无失真立体图像的左视点图像和右视点图像进行融合,得到每幅原始的无失真立体图像的融合视点图像。
①-3、对每幅原始的无失真立体图像的融合视点图像进行去均值归一化操作,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像。
在此具体实施例中,在步骤①-3中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像记为{Gk,org,L,R(m,n)},将{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gk,org,L,R(m,n),其中,1≤k≤K,1≤m≤M,1≤n≤N,Rk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像{Rk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的均值,σk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的方差。
①-4、将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像输入到现有的实证密度函数中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量。
①-5、对每幅原始的无失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到现有的非对称广义高斯分布模型中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的方向信息向量。
在此具体实施例中,在步骤①-5中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hk,org,L,R(m,n)}、{Vk,org,L,R(m,n)}、{Dk,org,L,R(m,n)}和将{Hk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n),将{Vk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vk,org,L,R(m,n),将{Dk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Dk,org,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m,n+1),
Vk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n),
Dk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n+1),
其中,1≤k≤K,1≤m≤M,1≤n≤N,Gk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gk,org,L,R(m,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N),Gk,org,L,R(m,N)表示{Gk,org,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gk,org,L,R(m+1,n)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n),Gk,org,L,R(M,n)表示{Gk,org,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gk,org,L,R(m+1,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N),若m+1>M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N),Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,N)和Gk,org,L,R(M,N)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gk,org,L,R(m+1,n-1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1),若m+1>M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1),Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,1)和Gk,org,L,R(M,1)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N)、Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1)和Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1)中的“=”为赋值符号。
①-6、将所有原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到现有的高斯分布模型中,得到所有原始的无失真立体图像对应的无失真高斯分布模型。
所述的测试阶段过程的具体步骤如下:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像。
②-2、采用现有的双目融合技术对待评价的失真立体图像的左视点图像和右视点图像进行融合,得到待评价的失真立体图像的融合视点图像。
②-3、对待评价的失真立体图像的融合视点图像进行去均值归一化操作,得到待评价的失真立体图像的融合视点图像的去均值归一化图像。
在此具体实施例中,在步骤②-3中,将待评价的失真立体图像的融合视点图像的去均值归一化图像记为{Gdis,L,R(m,n)},将{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gdis,L,R(m,n),其中,1≤m≤M,1≤n≤N,Rdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像{Rdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的均值,σdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的方差。
②-4、将待评价的失真立体图像的融合视点图像的去均值归一化图像输入到现有的实证密度函数中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量。
②-5、对待评价的失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到现有的非对称广义高斯分布模型中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的方向信息向量。
在此具体实施例中,在步骤②-5中,将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hdis,L,R(m,n)}、{Vdis,L,R(m,n)}、{Ddis,L,R(m,n)}和将{Hdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n),将{Vdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vdis,L,R(m,n),将{Ddis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Ddis,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m,n+1),Vdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n),Ddis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n+1),其中,1≤m≤M,1≤n≤N,Gdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像的去均值归一化图像{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gdis,L,R(m,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gdis,L,R(m,n+1)=Gdis,L,R(m,N),Gdis,L,R(m,N)表示{Gdis,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gdis,L,R(m+1,n)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gdis,L,R(m+1,n)=Gdis,L,R(M,n),Gdis,L,R(M,n)表示{Gdis,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gdis,L,R(m+1,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N),若m+1>M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N),Gdis,L,R(M,n+1)、Gdis,L,R(m+1,N)和Gdis,L,R(M,N)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gdis,L,R(m+1,n-1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1),若m+1>M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1),Gdis,L,R(M,n-1)、Gdis,L,R(m+1,1)和Gdis,L,R(M,1)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gdis,L,R(m,n+1)=Gdis,L,R(m,N)、Gdis,L,R(m+1,n)=Gdis,L,R(M,n)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1)、Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N)、Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1)、Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1)和Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1)中的“=”为赋值符号。
②-6、将待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到现有的高斯分布模型中,得到待评价的失真立体图像对应的失真高斯分布模型。
②-7、采用现有的马氏距离公式衡量步骤①-6中得到的所有原始的无失真立体图像对应的无失真高斯分布模型与步骤②-6中得到的待评价的失真立体图像对应的失真高斯分布模型之间的误差,将衡量得到的误差作为待评价的失真立体图像的图像质量客观评价预测值。
为验证本发明方法的可行性和有效性,进行实验。
在此,采用LIVE立体图像库来分析利用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。这里,利用评估图像质量评价方法的Spearman相关系数(Spearman rank order correlation coefficient,SROCC)作为评价指标,SROCC反映客观评价结果的单调性。
利用本发明方法计算LIVE立体图像库中的每幅失真立体图像的图像质量客观评价预测值,再利用现有的主观评价方法获得LIVE立体图像库中的每幅失真立体图像的平均主观评分差值。将按本发明方法计算得到的失真立体图像的图像质量客观评价预测值做五参数Logistic函数非线性拟合,SROCC值越高,说明客观评价方法的客观评价结果与平均主观评分差值之间的相关性越好。反映本发明方法的质量评价性能的SROCC相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的失真立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性

Claims (5)

1.一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:
①-1、选取K幅原始的无失真立体图像,其中,K≥1,原始的无失真立体图像的宽度为M,原始的无失真立体图像的高度为N;
①-2、采用双目融合技术对每幅原始的无失真立体图像的左视点图像和右视点图像进行融合,得到每幅原始的无失真立体图像的融合视点图像;
①-3、对每幅原始的无失真立体图像的融合视点图像进行去均值归一化操作,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像;
①-4、将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像输入到实证密度函数中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量;
①-5、对每幅原始的无失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到非对称广义高斯分布模型中,得到每幅原始的无失真立体图像的融合视点图像的去均值归一化图像的方向信息向量;
①-6、将所有原始的无失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到高斯分布模型中,得到所有原始的无失真立体图像对应的无失真高斯分布模型;
所述的测试阶段过程的具体步骤如下:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像;
②-2、采用双目融合技术对待评价的失真立体图像的左视点图像和右视点图像进行融合,得到待评价的失真立体图像的融合视点图像;
②-3、对待评价的失真立体图像的融合视点图像进行去均值归一化操作,得到待评价的失真立体图像的融合视点图像的去均值归一化图像;
②-4、将待评价的失真立体图像的融合视点图像的去均值归一化图像输入到实证密度函数中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量;
②-5、对待评价的失真立体图像的融合视点图像的去均值归一化图像进行四个方向的滤波处理,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像;然后将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像输入到非对称广义高斯分布模型中,得到待评价的失真立体图像的融合视点图像的去均值归一化图像的方向信息向量;
②-6、将待评价的失真立体图像的融合视点图像的去均值归一化图像的纹理信息向量和方向信息向量作为输入参数,输入到高斯分布模型中,得到待评价的失真立体图像对应的失真高斯分布模型;
②-7、采用马氏距离公式衡量步骤①-6中得到的所有原始的无失真立体图像对应的无失真高斯分布模型与步骤②-6中得到的待评价的失真立体图像对应的失真高斯分布模型之间的误差,将衡量得到的误差作为待评价的失真立体图像的图像质量客观评价预测值。
2.根据权利要求1所述的一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于所述的步骤①-3中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像记为{Gk,org,L,R(m,n)},将{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gk,org,L,R(m,n), G k , o r g , L , R ( m , n ) = R k , o r g , L , R ( m , n ) - &mu; k , o r g , L , R &sigma; k , o r g , L , R + 1 , 其中,1≤k≤K,1≤m≤M,1≤n≤N,Rk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像{Rk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的均值,σk,org,L,R表示{Rk,org,L,R(m,n)}中的所有像素点的像素值的方差。
3.根据权利要求1或2所述的一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于所述的步骤①-5中,将第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hk,org,L,R(m,n)}、{Vk,org,L,R(m,n)}、{Dk,org,L,R(m,n)}和将{Hk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n),将{Vk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vk,org,L,R(m,n),将{Dk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Dk,org,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m,n+1),Vk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n),Dk,org,L,R(m,n)=Gk,org,L,R(m,n)×Gk,org,L,R(m+1,n+1), D ^ k , o r g , L , R ( m , n ) = G k , o r g , L , R ( m , n ) &times; G k , o r g , L , R ( m + 1 , n - 1 ) , 其中,1≤k≤K,1≤m≤M,1≤n≤N,Gk,org,L,R(m,n)表示第k幅原始的无失真立体图像的融合视点图像的去均值归一化图像{Gk,org,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gk,org,L,R(m,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N),Gk,org,L,R(m,N)表示{Gk,org,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gk,org,L,R(m+1,n)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n),Gk,org,L,R(M,n)表示{Gk,org,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gk,org,L,R(m+1,n+1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N),若m+1>M且n+1>N,则令Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N),Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,N)和Gk,org,L,R(M,N)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gk,org,L,R(m+1,n-1)表示{Gk,org,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1),若m+1>M且n-1<1,则令Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1),Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,1)和Gk,org,L,R(M,1)对应表示{Gk,org,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gk,org,L,R(m,n+1)=Gk,org,L,R(m,N)、Gk,org,L,R(m+1,n)=Gk,org,L,R(M,n)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,n+1)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(m+1,N)、Gk,org,L,R(m+1,n+1)=Gk,org,L,R(M,N)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,n-1)、Gk,org,L,R(m+1,n-1)=Gk,org,L,R(m+1,1)和Gk,org,L,R(m+1,n-1)=Gk,org,L,R(M,1)中的“=”为赋值符号。
4.根据权利要求1所述的一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于所述的步骤②-3中,将待评价的失真立体图像的融合视点图像的去均值归一化图像记为{Gdis,L,R(m,n)},将{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Gdis,L,R(m,n), G d i s , L , R ( m , n ) = R d i s , L , R ( m , n ) - &mu; d i s , L , R &sigma; d i s , L , R + 1 , 其中,1≤m≤M,1≤n≤N,Rdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像{Rdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值,μdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的均值,σdis,L,R表示{Rdis,L,R(m,n)}中的所有像素点的像素值的方差。
5.根据权利要求1或4所述的一种基于立体视觉感知的全盲立体图像质量客观评价方法,其特征在于所述的步骤②-5中,将待评价的失真立体图像的融合视点图像的去均值归一化图像的水平方向信息图像、垂直方向信息图像、主对角线方向信息图像和副对角线方向信息图像对应记为{Hdis,L,R(m,n)}、{Vdis,L,R(m,n)}、{Ddis,L,R(m,n)}和将{Hdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n),将{Vdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Vdis,L,R(m,n),将{Ddis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值记为Ddis,L,R(m,n),将中坐标位置为(m,n)的像素点的像素值记为Hdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m,n+1),Vdis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n),Ddis,L,R(m,n)=Gdis,L,R(m,n)×Gdis,L,R(m+1,n+1), D ^ d i s , L , R ( m , n ) = G d i s , L , R ( m , n ) &times; G d i s , L , R ( m + 1 , n - 1 ) , 其中,1≤m≤M,1≤n≤N,Gdis,L,R(m,n)表示待评价的失真立体图像的融合视点图像的去均值归一化图像{Gdis,L,R(m,n)}中坐标位置为(m,n)的像素点的像素值;Gdis,L,R(m,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m,n+1)的像素点的像素值,若n+1>N,则令Gdis,L,R(m,n+1)=Gdis,L,R(m,N),Gdis,L,R(m,N)表示{Gdis,L,R(m,n)}中坐标位置为(m,N)的像素点的像素值;Gdis,L,R(m+1,n)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n)的像素点的像素值,若m+1>M,则令Gdis,L,R(m+1,n)=Gdis,L,R(M,n),Gdis,L,R(M,n)表示{Gdis,L,R(m,n)}中坐标位置为(M,n)的像素点的像素值;Gdis,L,R(m+1,n+1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n+1)的像素点的像素值,若m+1>M且1≤n+1≤N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1),若1≤m+1≤M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N),若m+1>M且n+1>N,则令Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N),Gdis,L,R(M,n+1)、Gdis,L,R(m+1,N)和Gdis,L,R(M,N)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n+1)、(m+1,N)和(M,N)的像素点的像素值;Gdis,L,R(m+1,n-1)表示{Gdis,L,R(m,n)}中坐标位置为(m+1,n-1)的像素点的像素值,若m+1>M且1≤n-1≤N,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1),若1≤m+1≤M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1),若m+1>M且n-1<1,则令Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1),Gdis,L,R(M,n-1)、Gdis,L,R(m+1,1)和Gdis,L,R(M,1)对应表示{Gdis,L,R(m,n)}中坐标位置为(M,n-1)、(m+1,1)和(M,1)的像素点的像素值;上述,Gdis,L,R(m,n+1)=Gdis,L,R(m,N)、Gdis,L,R(m+1,n)=Gdis,L,R(M,n)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,n+1)、Gdis,L,R(m+1,n+1)=Gdis,L,R(m+1,N)、Gdis,L,R(m+1,n+1)=Gdis,L,R(M,N)、Gdis,L,R(m+1,n-1)=Gdis,L,R(M,n-1)、Gdis,L,R(m+1,n-1)=Gdis,L,R(m+1,1)和Gdis,L,R(m+1,n-1)=Gdis,L,R(M,1)中的“=”为赋值符号。
CN201510701937.6A 2015-10-26 2015-10-26 一种基于立体视觉感知的全盲立体图像质量客观评价方法 Active CN105282543B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510701937.6A CN105282543B (zh) 2015-10-26 2015-10-26 一种基于立体视觉感知的全盲立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510701937.6A CN105282543B (zh) 2015-10-26 2015-10-26 一种基于立体视觉感知的全盲立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN105282543A CN105282543A (zh) 2016-01-27
CN105282543B true CN105282543B (zh) 2017-03-22

Family

ID=55150756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510701937.6A Active CN105282543B (zh) 2015-10-26 2015-10-26 一种基于立体视觉感知的全盲立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN105282543B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105979253B (zh) * 2016-05-06 2017-11-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN106023152B (zh) * 2016-05-09 2018-06-26 浙江科技学院 一种无参考立体图像质量客观评价方法
WO2018016151A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法
CN106162163A (zh) * 2016-08-02 2016-11-23 浙江科技学院 一种高效视觉质量客观评价方法
CN106791801A (zh) * 2016-11-22 2017-05-31 深圳大学 一种三维图像的质量评价方法及系统
CN106778772B (zh) * 2016-11-23 2019-07-26 浙江科技学院 一种立体图像视觉显著提取方法
CN106791822B (zh) * 2017-01-13 2018-11-30 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN107040775B (zh) * 2017-03-20 2019-01-15 宁波大学 一种基于局部特征的色调映射图像质量客观评价方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101610425B (zh) * 2009-07-29 2011-06-15 清华大学 一种评测立体图像质量的方法和装置
CN102209257B (zh) * 2011-06-17 2013-11-20 宁波大学 一种立体图像质量客观评价方法
CN102333233B (zh) * 2011-09-23 2013-11-06 宁波大学 一种基于视觉感知的立体图像质量客观评价方法
CN102547368B (zh) * 2011-12-16 2014-05-07 宁波大学 一种立体图像质量客观评价方法
CN102595185B (zh) * 2012-02-27 2014-06-25 宁波大学 一种立体图像质量客观评价方法
CN103200420B (zh) * 2013-03-19 2015-03-25 宁波大学 一种基于三维视觉注意力的立体图像质量客观评价方法
CN104243976B (zh) * 2014-09-23 2016-04-20 浙江科技学院 一种立体图像客观质量评价方法
CN104902268B (zh) * 2015-06-08 2016-12-07 浙江科技学院 基于局部三元模式的无参考立体图像客观质量评价方法
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法

Also Published As

Publication number Publication date
CN105282543A (zh) 2016-01-27

Similar Documents

Publication Publication Date Title
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN104658001B (zh) 一种无参考非对称失真立体图像客观质量评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN105407349B (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN105979253B (zh) 基于广义回归神经网络的无参考立体图像质量评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN104581143B (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN106791822B (zh) 一种基于单双目特征学习的无参考立体图像质量评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN104036502A (zh) 一种无参考模糊失真立体图像质量评价方法
CN102903107B (zh) 一种基于特征融合的立体图像质量客观评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN105898279B (zh) 一种立体图像质量客观评价方法
CN106023152B (zh) 一种无参考立体图像质量客观评价方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN106210711B (zh) 一种无参考立体图像质量评价方法
CN105069794A (zh) 一种基于双目竞争的全盲立体图像质量评价方法
CN102708568A (zh) 一种基于结构失真的立体图像客观质量评价方法
CN106780432B (zh) 一种基于稀疏特征相似度的立体图像质量客观评价方法
CN105915883B (zh) 基于极限学习和双目融合的盲参考立体图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210531

Address after: No.1063, building 13, industrial zone, Wuhan, Hubei 430000

Patentee after: Wuhan Tuozhijia Information Technology Co.,Ltd.

Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou

Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211130

Address after: 314500 01, No. 4, South Zaoqiang street, No. 1, Nanmen Gongnong Road, Chongfu Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee after: Jiaxing Qiyuan Network Information Technology Co.,Ltd.

Address before: No.1063, building 13, industrial zone, Wuhan, Hubei 430000

Patentee before: Wuhan Tuozhijia Information Technology Co.,Ltd.