CN105488792A - 基于字典学习和机器学习的无参考立体图像质量评价方法 - Google Patents
基于字典学习和机器学习的无参考立体图像质量评价方法 Download PDFInfo
- Publication number
- CN105488792A CN105488792A CN201510835634.3A CN201510835634A CN105488792A CN 105488792 A CN105488792 A CN 105488792A CN 201510835634 A CN201510835634 A CN 201510835634A CN 105488792 A CN105488792 A CN 105488792A
- Authority
- CN
- China
- Prior art keywords
- dis
- org
- image
- picture
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Abstract
本发明公开了一种基于字典学习和机器学习的无参考立体图像质量评价方法,其首先对左、右视点图像实施log-Gabor滤波,得到各自的幅值和相位信息,然后对幅值和相位信息进行局部二值化操作,得到左、右视点图像的局部二值化模式特征图像;其次,采用双目能量模型对左、右视点图像的幅值和相位信息进行融合,得到双目能量信息,并获取双目能量信息的局部二值化模式特征图像;接着,采用协作表示算法,对左、右视点图像和双目能量信息的局部二值化模式特征图像进行字典学习,得到双目视觉感知稀疏特征信息,最后获得待评价的失真立体图像的客观质量评价预测值;优点是其能够充分考虑到立体视觉感知特性,能够有效地提高客观评价结果与主观感知之间的相关性。
Description
技术领域
本发明涉及一种立体图像质量客观评价方法,尤其是涉及一种基于字典学习和机器学习的无参考立体图像质量评价方法。
背景技术
进入二十一世纪以来,随着立体图像/视频系统处理技术的日趋成熟,以及计算机网络与通信技术的快速发展,已引起人们对立体图像/视频系统的强烈需求。相比传统的单视点图像/视频系统,立体图像/视频系统由于能够提供深度信息来增强视觉的真实感,给用户以身临其境的全新视觉体验而越来越受到人们的欢迎,已被认为是下一代媒体主要的发展方向,已引发了学术界、产业界的广泛关注。然而,人们为了获得更好的立体临场感和视觉体验,对立体视觉主观感知质量提出了更高的要求。在立体图像/视频系统中,采集、编码、传输、解码及显示等处理环节都会引入一定失真,这些失真将对立体视觉主观感知质量产生不同程度的影响,由于在大多数的应用系统中原始无失真参考图像是不可得的,因此如何有效地进行无参考质量评价是亟需解决的难点问题。综上,评价立体图像质量,并建立与主观质量评价相一致的客观评价模型显得尤为重要。
目前,研究人员提出了不少针对单视点视觉质量的无参考评价方法,然而由于缺乏系统理论深入研究立体视觉感知特性,因此还没有有效地无参考立体图像质量评价方法。相比单视点视觉质量无参考评价模型,无参考立体图像质量评价模型需要考虑不同失真类型立体掩蔽效应以及与之相关的双目竞争/抑制和双目融合等立体感知因素对视觉质量的影响。因此,不能简单地把现有的单视点视觉质量无参考评价模型直接扩展到无参考立体图像质量评价方法中。现有的无参考质量客观评价方法主要是通过机器学习来预测评价模型的,但针对立体图像,现有的立体图像评价方法还是平面图像评价方法的简单扩展,并没有考虑双目视觉特性,因此,如何在评价过程中有效地提取特征信息,在评价过程中进行双目视觉特性结合,使得客观评价结果更加符合人类视觉感知系统,是立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于字典学习和机器学习的无参考立体图像质量评价方法,其能够充分考虑到立体视觉感知特性,从而能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、选取K幅原始的无失真立体图像,将第k幅原始的无失真立体图像的左视点图像和右视点图像对应记为{Lorg,k(x,y)}和{Rorg,k(x,y)},其中,K≥1,1≤k≤K,1≤x≤W,1≤y≤H,在此W表示原始的无失真立体图像的宽度,在此H表示原始的无失真立体图像的高度,Lorg,k(x,y)表示{Lorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,k(x,y)表示{Rorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-2、对每幅原始的无失真立体图像的左视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像,将{Lorg,k(x,y)}的幅值图像和相位图像对应记为{GL_org,k(x,y)}和{PL_org,k(x,y)},其中,GL_org,k(x,y)表示{GL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_org,k(x,y)表示{PL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,对每幅原始的无失真立体图像的右视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的右视点图像的幅值图像和相位图像,将{Rorg,k(x,y)}的幅值图像和相位图像对应记为{GR_org,k(x,y)}和{PR_org,k(x,y)},其中,GR_org,k(x,y)表示{GR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_org,k(x,y)表示{PR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-3、采用块匹配方法计算每幅原始的无失真立体图像的左视点图像与右视点图像之间的视差图像,将{Lorg,k(x,y)}与{Rorg,k(x,y)}之间的视差图像记为{dorg,k(x,y)},其中,dorg,k(x,y)表示{dorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-4、根据每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左视点图像与右视点图像之间的视差图像,计算每幅原始的无失真立体图像的左右视点特征融合图像,将第k幅原始的无失真立体图像的左右视点特征融合图像记为{Forg,k(x,y)},其中,Forg,k(x,y)表示{Forg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-5、采用局部二值化模式操作对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像进行处理,得到各自的局部二值化模式特征图像,将{GL_org,k(x,y)}的局部二值化模式特征图像记为{LMPL_org,k(x,y)},将{PL_org,k(x,y)}的局部二值化模式特征图像记为{LPPL_org,k(x,y)},将{GR_org,k(x,y)}的局部二值化模式特征图像记为{LMPR_org,k(x,y)},将{PR_org,k(x,y)}的局部二值化模式特征图像记为{LPPR_org,k(x,y)},将{Forg,k(x,y)}的局部二值化模式特征图像记为{LEPL_R_org,k(x,y)},其中,LMPL_org,k(x,y)表示{LMPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_org,k(x,y)∈[0,P+1],LPPL_org.k(x,y)表示{LPPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_org,k(x,y)∈[0,P+1],LMPR_org,k(x,y)表示{LMPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_org,k(x,y)∈[0,P+1],LPPR_org,k(x,y)表示{LPPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_org,k(x,y)∈[0,P+1],LEPL_R_org,k(x,y)表示{LEPL_R_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_org,k(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;
①-6、采用直方图统计方法对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像各自的局部二值化模式特征图像进行统计操作,得到各自的直方图统计特征向量,将{GL_org,k(x,y)}的直方图统计特征向量记为HL_M_org,k,将{PL_org,k(x,y)}的直方图统计特征向量记为HL_P_org,k,将{GR_org,k(x,y)}的直方图统计特征向量记为HR_M_org,k,将{PR_org,k(x,y)}的直方图统计特征向量记为HR_P_org,k,将{Forg,k(x,y)}的直方图统计特征向量记为HL_R_E_org,k;
然后采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的幅值图像的直方图统计特征向量和右视点图像的幅值图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争幅值特性统计向量,将对HL_M_org,k和HR_M_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争幅值特性统计向量记为HL_R_M_org,k;同样,采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的相位图像的直方图统计特征向量和右视点图像的相位图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争相位特性统计向量,将对HL_P_org,k和HR_P_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争相位特性统计向量记为HL_R_P_org,k;
其中,HL_M_org,k、HL_P_org,k、HR_M_org,k、HR_P_org,k、HL_R_E_org,k的维数均为m'×1维,HL_M_org,k中的第m个元素为HL_M_org,k(m),HL_P_org,k中的第m个元素为HL_P_org,k(m),HR_M_org,k中的第m个元素为HR_M_org,k(m),HR_P_org,k中的第m个元素为HR_P_org,k(m),HL_R_E_org,k中的第m个元素为HL_R_E_org,k(m),1≤m≤m',m'=P+2,HL_R_M_org,k和HL_R_P_org,k的维数均为m'×1维,HL_R_M_org,k中的第m个元素为HL_R_M_org,k(m),HL_R_P_org,k中的第m个元素为HL_R_P_org,k(m);
①-7、将所有原始的无失真立体图像的双目竞争幅值特性统计向量、双目竞争相位特性统计向量、左右视点特征融合图像的直方图统计特征向量组成字典学习特征矩阵,记为Horg,其中,Horg的维数为3m'×K,Horg中第k列的3m'个元素依次为HL_R_M_org,k中的m'个元素、HL_R_P_org,k中的m'个元素、HL_R_E_org,k中的m'个元素;
所述的测试阶段的具体步骤为:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像,并记为Sdis,将Sdis的左视点图像和右视点图像对应记为{Ldis(x,y)}和{Rdis(x,y)},其中,1≤x≤W,1≤y≤H,在此W表示Sdis的宽度,在此H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-2、对{Ldis(x,y)}和{Rdis(x,y)}两幅图像分别实施log-Gabor滤波,得到{Ldis(x,y)}和{Rdis(x,y)}各自的幅值图像和相位图像,将{Ldis(x,y)}的幅值图像和相位图像对应记为{GL_dis(x,y)}和{PL_dis(x,y)},将{Rdis(x,y)}的幅值图像和相位图像对应记为{GR_dis(x,y)}和{PR_dis(x,y)},其中,GL_dis(x,y)表示{GL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_dis(x,y)表示{PL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,GR_dis(x,y)表示{GR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_dis(x,y)表示{PR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-3、采用块匹配方法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)},其中,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-4、根据{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点特征融合图像,记为{Fdis(x,y)},其中,Fdis(x,y)表示{Fdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-5、采用局部二值化模式操作对{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}进行处理,得到{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}各自的局部二值化模式特征图像,对应记为{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)},其中,LMPL_dis(x,y)表示{LMPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_dis(x,y)∈[0,P+1],LPPL_dis(x,y)表示{LPPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_dis(x,y)∈[0,P+1],LMPR_dis(x,y)表示{LMPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_dis(x,y)∈[0,P+1],LPPR_dis(x,y)表示{LPPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_dis(x,y)∈[0,P+1],LEPL_R_dis(x,y)表示{LEPL_R_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_dis(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;
②-6、采用直方图统计方法分别对{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)}进行统计操作,得到{GL_dis(x,y)}、{PL_dis(x,y)}、{GR_dis(x,y)}、{PR_dis(x,y)}、{Fdis(x,y)}各自的直方图统计特征向量,对应记为HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis;
然后采用双目竞争算法,对HL_M_dis和HR_M_dis进行融合,得到Sdis的双目竞争幅值特性统计向量,记为HL_R_M_dis;同样,采用双目竞争算法,对HL_P_dis和HR_P_dis进行融合,得到Sdis的双目竞争相位特性统计向量,记为HL_R_P_dis;
其中,HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis的维数均为m'×1维,HL_M_dis中的第m个元素为HL_M_dis(m),HL_P_dis中的第m个元素为HL_P_dis(m),HR_M_dis中的第m个元素为HR_M_dis(m),HR_P_dis中的第m个元素为HR_P_dis(m),HL_R_E_dis中的第m个元素为HL_R_E_dis(m),1≤m≤m',m'=P+2,HL_R_M_dis和HL_R_P_dis的维数均为m'×1维,HL_R_M_dis中的第m个元素为HL_R_M_dis(m),HL_R_P_dis中的第m个元素为HL_R_P_dis(m);
②-7、将HL_R_M_dis、HL_R_P_dis、HL_R_E_dis组成Sdis的特征向量,记为Hdis,其中,Hdis的维数为3m'×1;
②-8、根据Horg和Hdis,利用协作表示算法,获取Sdis的双目视觉感知稀疏特征向量,记为X,X=((Horg)THorg+λ×I)-1(Horg)THdis,其中,X的维数为K×1,(Horg)T为Horg的转置矩阵,λ为常数,I为K×K维的单位矩阵;
②-9、采用n”幅宽度为W且高度为H的原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤②-1至步骤②-8的操作,以相同的方式获取训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量,将训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量记为Xj;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Xj的维数为K×1;
②-10、计算Sdis的双目视觉感知稀疏特征向量X与训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量之间的距离,将Sdis的双目视觉感知稀疏特征向量X与训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量Xj之间的距离记为Ddis,j,Ddis,j=|X-Xj|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K'个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K'个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K'},其中,1≤K'≤N',DMOS'1,DMOS'2,…,DMOS'K'对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K'个距离对应的训练集中的失真立体图像的平均主观评分值;
②-11、计算Sdis的客观质量评价预测值,记为Qdis,其中,D'dis,k'表示{D'dis,j|1≤j≤N'}中的第k'个距离,DMOS'k'表示D'dis,k'对应的训练集中的失真立体图像的平均主观评分值。
所述的步骤①-4中,其中,GR_org,k(x+dorg,k(x,y),y)表示{GR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,PR_org,k(x+dorg,k(x,y),y)表示{PR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,cos()为取余弦函数。
所述的步骤②-4中,其中,GR_dis(x+ddis(x,y),y)表示{GR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,PR_dis(x+ddis(x,y),y)表示{PR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,cos()为取余弦函数。
所述的步骤①-5和所述的步骤②-5中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑了单双目能量,即不仅考虑了单目的幅值特性和相位特性,而且考虑了双目融合特性和双目竞争特性,利用这些特性获取特征矩阵来模拟双目视觉特性,使得本发明方法能够充分考虑到立体视觉感知特性。
2)本发明方法在充分利用了双目视觉感知特性的基础上,采用字典学习的方法获取双目视觉感知稀疏特征信息,双目视觉感知稀疏特征信息能够有效地表示主观视觉特性,因此能有效地提高客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于字典学习和机器学习的无参考立体图像质量评价方法,其总体实现框图如图1所示,首先对失真立体图像的左、右视点图像实施log-Gabor滤波,得到左、右视点图像的幅值信息和相位信息,然后对幅值信息和相位信息进行局部二值化操作,得到左、右视点图像的局部二值化模式特征图像;其次,采用双目能量模型对左、右视点图像的幅值信息和相位信息进行融合,得到双目能量信息,采用局部二值化操作,得到双目能量信息的局部二值化模式特征图像;接着,采用协作表示算法,对左、右视点图像的局部二值化模式特征图像和得到双目能量信息的局部二值化模式特征图像进行字典学习,得到双目视觉感知稀疏特征信息,最后根据双目视觉感知稀疏特征信息,获取待评价的失真立体图像的客观质量评价预测值。
本发明方法包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、选取K幅原始的无失真立体图像,将第k幅原始的无失真立体图像的左视点图像和右视点图像对应记为{Lorg,k(x,y)}和{Rorg,k(x,y)},其中,K≥1,在本实施例中取K=30,1≤k≤K,1≤x≤W,1≤y≤H,在此W表示原始的无失真立体图像的宽度,在此H表示原始的无失真立体图像的高度,Lorg,k(x,y)表示{Lorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,k(x,y)表示{Rorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
①-2、对每幅原始的无失真立体图像的左视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像,将{Lorg,k(x,y)}的幅值图像和相位图像对应记为{GL_org,k(x,y)}和{PL_org,k(x,y)},其中,GL_org,k(x,y)表示{GL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,GL_org,k(x,y)亦表示{Lorg,k(x,y)}中坐标位置为(x,y)的像素点的幅值,PL_org,k(x,y)表示{PL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_org,k(x,y)亦表示{Lorg,k(x,y)}中坐标位置为(x,y)的像素点的相位。
同样,对每幅原始的无失真立体图像的右视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的右视点图像的幅值图像和相位图像,将{Rorg,k(x,y)}的幅值图像和相位图像对应记为{GR_org,k(x,y)}和{PR_org,k(x,y)},其中,GR_org,k(x,y)表示{GR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,GR_org,k(x,y)亦表示{Rorg,k(x,y)}中坐标位置为(x,y)的像素点的幅值,PR_org,k(x,y)表示{PR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_org,k(x,y)亦表示{Rorg,k(x,y)}中坐标位置为(x,y)的像素点的相位。
①-3、采用现有的块匹配方法计算每幅原始的无失真立体图像的左视点图像与右视点图像之间的视差图像,将{Lorg,k(x,y)}与{Rorg,k(x,y)}之间的视差图像记为{dorg,k(x,y)},其中,dorg,k(x,y)表示{dorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
①-4、根据每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左视点图像与右视点图像之间的视差图像,计算每幅原始的无失真立体图像的左右视点特征融合图像,将第k幅原始的无失真立体图像的左右视点特征融合图像记为{Forg,k(x,y)},其中,Forg,k(x,y)表示{Forg,k(x,y)}中坐标位置为(x,y)的像素点的像素值,,GR_org,k(x+dorg,k(x,y),y)表示{GR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,PR_org,k(x+dorg,k(x,y),y)表示{PR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,cos()为取余弦函数。
①-5、采用现有的局部二值化模式操作对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像进行处理,得到各自的局部二值化模式特征图像,将{GL_org,k(x,y)}的局部二值化模式特征图像记为{LMPL_org,k(x,y)},将{PL_org,k(x,y)}的局部二值化模式特征图像记为{LPPL_org,k(x,y)},将{GR_org,k(x,y)}的局部二值化模式特征图像记为{LMPR_org,k(x,y)},将{PR_org,k(x,y)}的局部二值化模式特征图像记为{LPPR_org,k(x,y)},将{Forg,k(x,y)}的局部二值化模式特征图像记为{LEPL_R_org,k(x,y)},其中,LMPL_org,k(x,y)表示{LMPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_org,k(x,y)∈[0,P+1],LPPL_org.k(x,y)表示{LPPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_org,k(x,y)∈[0,P+1],LMPR_org,k(x,y)表示{LMPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_org,k(x,y)∈[0,P+1],LPPR_org,k(x,y)表示{LPPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_org,k(x,y)∈[0,P+1],LEPL_R_org,k(x,y)表示{LEPL_R_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_org,k(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数。
在本实施例中,局部二值化模式操作中的领域参数P取值为8。
①-6、采用现有的直方图统计方法对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像各自的局部二值化模式特征图像进行统计操作,得到各自的直方图统计特征向量,将{GL_org,k(x,y)}的直方图统计特征向量记为HL_M_org,k,将{PL_org,k(x,y)}的直方图统计特征向量记为HL_P_org,k,将{GR_org,k(x,y)}的直方图统计特征向量记为HR_M_org,k,将{PR_org,k(x,y)}的直方图统计特征向量记为HR_P_org,k,将{Forg,k(x,y)}的直方图统计特征向量记为HL_R_E_org,k。
然后采用现有的双目竞争算法,对每幅原始的无失真立体图像的左视点图像的幅值图像的直方图统计特征向量和右视点图像的幅值图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争幅值特性统计向量,将对HL_M_org,k和HR_M_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争幅值特性统计向量记为HL_R_M_org,k;同样,采用现有的双目竞争算法,对每幅原始的无失真立体图像的左视点图像的相位图像的直方图统计特征向量和右视点图像的相位图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争相位特性统计向量,将对HL_P_org,k和HR_P_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争相位特性统计向量记为HL_R_P_org,k。
其中,HL_M_org,k、HL_P_org,k、HR_M_org,k、HR_P_org,k、HL_R_E_org,k的维数均为m'×1维,HL_M_org,k中的第m个元素为HL_M_org,k(m),HL_P_org,k中的第m个元素为HL_P_org,k(m),HR_M_org,k中的第m个元素为HR_M_org,k(m),HR_P_org,k中的第m个元素为HR_P_org,k(m),HL_R_E_org,k中的第m个元素为HL_R_E_org,k(m),1≤m≤m',m'=P+2,HL_R_M_org,k和HL_R_P_org,k的维数均为m'×1维,HL_R_M_org,k中的第m个元素为HL_R_M_org,k(m),HL_R_P_org,k中的第m个元素为HL_R_P_org,k(m)。
①-7、将所有原始的无失真立体图像的双目竞争幅值特性统计向量、双目竞争相位特性统计向量、左右视点特征融合图像的直方图统计特征向量组成字典学习特征矩阵,记为Horg,其中,Horg的维数为3m'×K,Horg中第k列的3m'个元素依次为HL_R_M_org,k中的m'个元素、HL_R_P_org,k中的m'个元素、HL_R_E_org,k中的m'个元素。
所述的测试阶段的具体步骤为:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像,并记为Sdis,将Sdis的左视点图像和右视点图像对应记为{Ldis(x,y)}和{Rdis(x,y)},其中,1≤x≤W,1≤y≤H,在此W表示Sdis的宽度,在此H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②-2、对{Ldis(x,y)}和{Rdis(x,y)}两幅图像分别实施log-Gabor滤波,得到{Ldis(x,y)}和{Rdis(x,y)}各自的幅值图像和相位图像,将{Ldis(x,y)}的幅值图像和相位图像对应记为{GL_dis(x,y)}和{PL_dis(x,y)},将{Rdis(x,y)}的幅值图像和相位图像对应记为{GR_dis(x,y)}和{PR_dis(x,y)},其中,GL_dis(x,y)表示{GL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,GL_dis(x,y)亦表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的幅值,PL_dis(x,y)表示{PL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_dis(x,y)亦表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的相位,GR_dis(x,y)表示{GR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,GR_dis(x,y)亦表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的幅值,PR_dis(x,y)表示{PR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_dis(x,y)亦表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的相位。
②-3、采用现有的块匹配方法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)},其中,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②-4、根据{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点特征融合图像,记为{Fdis(x,y)},其中,Fdis(x,y)表示{Fdis(x,y)}中坐标位置为(x,y)的像素点的像素值,,其中,GR_dis(x+ddis(x,y),y)表示{GR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,PR_dis(x+ddis(x,y),y)表示{PR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,cos()为取余弦函数。
②-5、采用现有的局部二值化模式操作对{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}进行处理,得到{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}各自的局部二值化模式特征图像,对应记为{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)},其中,LMPL_dis(x,y)表示{LMPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_dis(x,y)∈[0,P+1],LPPL_dis(x,y)表示{LPPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_dis(x,y)∈[0,P+1],LMPR_dis(x,y)表示{LMPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_dis(x,y)∈[0,P+1],LPPR_dis(x,y)表示{LPPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_dis(x,y)∈[0,P+1],LEPL_R_dis(x,y)表示{LEPL_R_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_dis(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数。
在本实施例中,局部二值化模式操作中的领域参数P取值为8。
②-6、采用现有的直方图统计方法分别对{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)}进行统计操作,得到{GL_dis(x,y)}、{PL_dis(x,y)}、{GR_dis(x,y)}、{PR_dis(x,y)}、{Fdis(x,y)}各自的直方图统计特征向量,对应记为HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis。
然后采用现有的双目竞争算法,对HL_M_dis和HR_M_dis进行融合,得到Sdis的双目竞争幅值特性统计向量,记为HL_R_M_dis;同样,采用现有的双目竞争算法,对HL_P_dis和HR_P_dis进行融合,得到Sdis的双目竞争相位特性统计向量,记为HL_R_P_dis。
其中,HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis的维数均为m'×1维,HL_M_dis中的第m个元素为HL_M_dis(m),HL_P_dis中的第m个元素为HL_P_dis(m),HR_M_dis中的第m个元素为HR_M_dis(m),HR_P_dis中的第m个元素为HR_P_dis(m),HL_R_E_dis中的第m个元素为HL_R_E_dis(m),1≤m≤m',m'=P+2,HL_R_M_dis和HL_R_P_dis的维数均为m'×1维,HL_R_M_dis中的第m个元素为HL_R_M_dis(m),HL_R_P_dis中的第m个元素为HL_R_P_dis(m)。
②-7、将HL_R_M_dis、HL_R_P_dis、HL_R_E_dis组成Sdis的特征向量,记为Hdis,其中,Hdis的维数为3m'×1。
②-8、根据Horg和Hdis,利用协作表示(CollaborativeRepresentation)算法,获取Sdis的双目视觉感知稀疏特征向量,记为X,X=((Horg)THorg+λ×I)-1(Horg)THdis,其中,X的维数为K×1,(Horg)T为Horg的转置矩阵,λ为常数,在本实施例中取λ=0.01,I为K×K维的单位矩阵。
②-9、采用n”幅宽度为W且高度为H的原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用现有的主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤②-1至步骤②-8的操作,以相同的方式获取训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量,将训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量记为Xj;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,在本实施例中N'≥10,0≤DMOSj≤100,Xj的维数为K×1。
②-10、计算Sdis的双目视觉感知稀疏特征向量X与训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量之间的距离,将Sdis的双目视觉感知稀疏特征向量X与训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量Xj之间的距离记为Ddis,j,Ddis,j=|X-Xj|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K'个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K'个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K'},其中,1≤K'≤N',DMOS'1,DMOS'2,…,DMOS'K'对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K'个距离对应的训练集中的失真立体图像的平均主观评分值。
②-11、计算Sdis的客观质量评价预测值,记为Qdis,其中,D'dis,k'表示{D'dis,j|1≤j≤N'}中的第k'个距离,DMOS'k'表示D'dis,k'对应的训练集中的失真立体图像的平均主观评分值。
为了进一步验证本发明方法的可行性和有效性,进行实验。
在此,采用LIVE立体图像失真库来分析利用本发明方法得到的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性。这里,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相关系数(Spearmanrankordercorrelationcoefficient,SROCC),PLCC反映失真立体图像的客观质量评价预测值的准确性,SROCC反映其单调性。
利用本发明方法计算LIVE立体图像失真库中的每幅失真立体图像的客观质量评价预测值,再利用现有的主观评价方法获得LIVE立体图像失真库中的每幅失真立体图像的平均主观评分值。将按本发明方法计算得到的失真立体图像的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高说明客观评价方法的客观评价结果与平均主观评分值之间的相关性越好。反映本发明方法的质量评价性能的PLCC和SROCC相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法得到的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性
Claims (4)
1.一种基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤为:
①-1、选取K幅原始的无失真立体图像,将第k幅原始的无失真立体图像的左视点图像和右视点图像对应记为{Lorg,k(x,y)}和{Rorg,k(x,y)},其中,K≥1,1≤k≤K,1≤x≤W,1≤y≤H,在此W表示原始的无失真立体图像的宽度,在此H表示原始的无失真立体图像的高度,Lorg,k(x,y)表示{Lorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,k(x,y)表示{Rorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-2、对每幅原始的无失真立体图像的左视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像,将{Lorg,k(x,y)}的幅值图像和相位图像对应记为{GL_org,k(x,y)}和{PL_org,k(x,y)},其中,GL_org,k(x,y)表示{GL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_org,k(x,y)表示{PL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,对每幅原始的无失真立体图像的右视点图像实施log-Gabor滤波,得到每幅原始的无失真立体图像的右视点图像的幅值图像和相位图像,将{Rorg,k(x,y)}的幅值图像和相位图像对应记为{GR_org,k(x,y)}和{PR_org,k(x,y)},其中,GR_org,k(x,y)表示{GR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_org,k(x,y)表示{PR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-3、采用块匹配方法计算每幅原始的无失真立体图像的左视点图像与右视点图像之间的视差图像,将{Lorg,k(x,y)}与{Rorg,k(x,y)}之间的视差图像记为{dorg,k(x,y)},其中,dorg,k(x,y)表示{dorg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-4、根据每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左视点图像与右视点图像之间的视差图像,计算每幅原始的无失真立体图像的左右视点特征融合图像,将第k幅原始的无失真立体图像的左右视点特征融合图像记为{Forg,k(x,y)},其中,Forg,k(x,y)表示{Forg,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①-5、采用局部二值化模式操作对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像进行处理,得到各自的局部二值化模式特征图像,将{GL_org,k(x,y)}的局部二值化模式特征图像记为{LMPL_org,k(x,y)},将{PL_org,k(x,y)}的局部二值化模式特征图像记为{LPPL_org,k(x,y)},将{GR_org,k(x,y)}的局部二值化模式特征图像记为{LMPR_org,k(x,y)},将{PR_org,k(x,y)}的局部二值化模式特征图像记为{LPPR_org,k(x,y)},将{Forg,k(x,y)}的局部二值化模式特征图像记为{LEPL_R_org,k(x,y)},其中,LMPL_org,k(x,y)表示{LMPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_org,k(x,y)∈[0,P+1],LPPL_org.k(x,y)表示{LPPL_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_org,k(x,y)∈[0,P+1],LMPR_org,k(x,y)表示{LMPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_org,k(x,y)∈[0,P+1],LPPR_org,k(x,y)表示{LPPR_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_org,k(x,y)∈[0,P+1],LEPL_R_org,k(x,y)表示{LEPL_R_org,k(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_org,k(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;
①-6、采用直方图统计方法对每幅原始的无失真立体图像的左视点图像的幅值图像和相位图像、右视点图像的幅值图像和相位图像、左右视点特征融合图像各自的局部二值化模式特征图像进行统计操作,得到各自的直方图统计特征向量,将{GL_org,k(x,y)}的直方图统计特征向量记为HL_M_org,k,将{PL_org,k(x,y)}的直方图统计特征向量记为HL_P_org,k,将{GR_org,k(x,y)}的直方图统计特征向量记为HR_M_org,k,将{PR_org,k(x,y)}的直方图统计特征向量记为HR_P_org,k,将{Forg,k(x,y)}的直方图统计特征向量记为HL_R_E_org,k;
然后采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的幅值图像的直方图统计特征向量和右视点图像的幅值图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争幅值特性统计向量,将对HL_M_org,k和HR_M_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争幅值特性统计向量记为HL_R_M_org,k;同样,采用双目竞争算法,对每幅原始的无失真立体图像的左视点图像的相位图像的直方图统计特征向量和右视点图像的相位图像的直方图统计特征向量进行融合,得到每幅原始的无失真立体图像的双目竞争相位特性统计向量,将对HL_P_org,k和HR_P_org,k进行融合后得到的第k幅原始的无失真立体图像的双目竞争相位特性统计向量记为HL_R_P_org,k;
其中,HL_M_org,k、HL_P_org,k、HR_M_org,k、HR_P_org,k、HL_R_E_org,k的维数均为m'×1维,HL_M_org,k中的第m个元素为HL_M_org,k(m),HL_P_org,k中的第m个元素为HL_P_org,k(m),HR_M_org,k中的第m个元素为HR_M_org,k(m),HR_P_org,k中的第m个元素为HR_P_org,k(m),HL_R_E_org,k中的第m个元素为HL_R_E_org,k(m),1≤m≤m',m'=P+2,HL_R_M_org,k和HL_R_P_org,k的维数均为m'×1维,HL_R_M_org,k中的第m个元素为HL_R_M_org,k(m),HL_R_P_org,k中的第m个元素为HL_R_P_org,k(m);
①-7、将所有原始的无失真立体图像的双目竞争幅值特性统计向量、双目竞争相位特性统计向量、左右视点特征融合图像的直方图统计特征向量组成字典学习特征矩阵,记为Horg,其中,Horg的维数为3m'×K,Horg中第k列的3m'个元素依次为HL_R_M_org,k中的m'个元素、HL_R_P_org,k中的m'个元素、HL_R_E_org,k中的m'个元素;
所述的测试阶段的具体步骤为:
②-1、对于任意一幅尺寸大小与步骤①-1中选取的原始的无失真立体图像的尺寸大小一致的失真立体图像,将该失真立体图像作为待评价的失真立体图像,并记为Sdis,将Sdis的左视点图像和右视点图像对应记为{Ldis(x,y)}和{Rdis(x,y)},其中,1≤x≤W,1≤y≤H,在此W表示Sdis的宽度,在此H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-2、对{Ldis(x,y)}和{Rdis(x,y)}两幅图像分别实施log-Gabor滤波,得到{Ldis(x,y)}和{Rdis(x,y)}各自的幅值图像和相位图像,将{Ldis(x,y)}的幅值图像和相位图像对应记为{GL_dis(x,y)}和{PL_dis(x,y)},将{Rdis(x,y)}的幅值图像和相位图像对应记为{GR_dis(x,y)}和{PR_dis(x,y)},其中,GL_dis(x,y)表示{GL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PL_dis(x,y)表示{PL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,GR_dis(x,y)表示{GR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,PR_dis(x,y)表示{PR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-3、采用块匹配方法计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)},其中,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-4、根据{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点特征融合图像,记为{Fdis(x,y)},其中,Fdis(x,y)表示{Fdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②-5、采用局部二值化模式操作对{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}进行处理,得到{GL_dis(x,y)}和{PL_dis(x,y)}、{GR_dis(x,y)}和{PR_dis(x,y)}、{Fdis(x,y)}各自的局部二值化模式特征图像,对应记为{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)},其中,LMPL_dis(x,y)表示{LMPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPL_dis(x,y)∈[0,P+1],LPPL_dis(x,y)表示{LPPL_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPL_dis(x,y)∈[0,P+1],LMPR_dis(x,y)表示{LMPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LMPR_dis(x,y)∈[0,P+1],LPPR_dis(x,y)表示{LPPR_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LPPR_dis(x,y)∈[0,P+1],LEPL_R_dis(x,y)表示{LEPL_R_dis(x,y)}中坐标位置为(x,y)的像素点的像素值,LEPL_R_dis(x,y)∈[0,P+1],P表示局部二值化模式操作中的领域参数;
②-6、采用直方图统计方法分别对{LMPL_dis(x,y)}、{LPPL_dis(x,y)}、{LMPR_dis(x,y)}、{LPPR_dis(x,y)}、{LEPL_R_dis(x,y)}进行统计操作,得到{GL_dis(x,y)}、{PL_dis(x,y)}、{GR_dis(x,y)}、{PR_dis(x,y)}、{Fdis(x,y)}各自的直方图统计特征向量,对应记为HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis;
然后采用双目竞争算法,对HL_M_dis和HR_M_dis进行融合,得到Sdis的双目竞争幅值特性统计向量,记为HL_R_M_dis;同样,采用双目竞争算法,对HL_P_dis和HR_P_dis进行融合,得到Sdis的双目竞争相位特性统计向量,记为HL_R_P_dis;
其中,HL_M_dis、HL_P_dis、HR_M_dis、HR_P_dis、HL_R_E_dis的维数均为m'×1维,HL_M_dis中的第m个元素为HL_M_dis(m),HL_P_dis中的第m个元素为HL_P_dis(m),HR_M_dis中的第m个元素为HR_M_dis(m),HR_P_dis中的第m个元素为HR_P_dis(m),HL_R_E_dis中的第m个元素为HL_R_E_dis(m),1≤m≤m',m'=P+2,HL_R_M_dis和HL_R_P_dis的维数均为m'×1维,HL_R_M_dis中的第m个元素为HL_R_M_dis(m),HL_R_P_dis中的第m个元素为HL_R_P_dis(m);
②-7、将HL_R_M_dis、HL_R_P_dis、HL_R_E_dis组成Sdis的特征向量,记为Hdis,其中,Hdis的维数为3m'×1;
②-8、根据Horg和Hdis,利用协作表示算法,获取Sdis的双目视觉感知稀疏特征向量,记为X,X=((Horg)THorg+λ×I)-1(Horg)THdis,其中,X的维数为K×1,(Horg)T为Horg的转置矩阵,λ为常数,I为K×K维的单位矩阵;
②-9、采用n”幅宽度为W且高度为H的原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤②-1至步骤②-8的操作,以相同的方式获取训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量,将训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量记为Xj;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Xj的维数为K×1;
②-10、计算Sdis的双目视觉感知稀疏特征向量X与训练集中的每幅失真立体图像的双目视觉感知稀疏特征向量之间的距离,将Sdis的双目视觉感知稀疏特征向量X与训练集中的第j幅失真立体图像的双目视觉感知稀疏特征向量Xj之间的距离记为Ddis,j,Ddis,j=|X-Xj|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K'个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K'个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K'},其中,1≤K'≤N',DMOS'1,DMOS'2,…,DMOS'K'对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K'个距离对应的训练集中的失真立体图像的平均主观评分值;
②-11、计算Sdis的客观质量评价预测值,记为Qdis,其中,D'dis,k'表示{D'dis,j|1≤j≤N'}中的第k'个距离,DMOS'k'表示D'dis,k'对应的训练集中的失真立体图像的平均主观评分值。
2.根据权利要求1所述的基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于所述的步骤①-4中,其中,GR_org,k(x+dorg,k(x,y),y)表示{GR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,PR_org,k(x+dorg,k(x,y),y)表示{PR_org,k(x,y)}中坐标位置为(x+dorg,k(x,y),y)的像素点的像素值,cos()为取余弦函数。
3.根据权利要求1或2所述的基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于所述的步骤②-4中,其中,GR_dis(x+ddis(x,y),y)表示{GR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,PR_dis(x+ddis(x,y),y)表示{PR_dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,cos()为取余弦函数。
4.根据权利要求3所述的基于字典学习和机器学习的无参考立体图像质量评价方法,其特征在于所述的步骤①-5和所述的步骤②-5中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510835634.3A CN105488792B (zh) | 2015-11-26 | 2015-11-26 | 基于字典学习和机器学习的无参考立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510835634.3A CN105488792B (zh) | 2015-11-26 | 2015-11-26 | 基于字典学习和机器学习的无参考立体图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105488792A true CN105488792A (zh) | 2016-04-13 |
CN105488792B CN105488792B (zh) | 2017-11-28 |
Family
ID=55675757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510835634.3A Active CN105488792B (zh) | 2015-11-26 | 2015-11-26 | 基于字典学习和机器学习的无参考立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105488792B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023152A (zh) * | 2016-05-09 | 2016-10-12 | 浙江科技学院 | 一种无参考立体图像质量客观评价方法 |
CN106791822A (zh) * | 2017-01-13 | 2017-05-31 | 浙江科技学院 | 一种基于单双目特征学习的无参考立体图像质量评价方法 |
CN106780441A (zh) * | 2016-11-30 | 2017-05-31 | 杭州电子科技大学 | 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法 |
CN106803248A (zh) * | 2016-12-18 | 2017-06-06 | 南京邮电大学 | 模糊车牌图像模糊度评价方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201023618A (en) * | 2008-08-29 | 2010-06-16 | Thomson Licensing | View synthesis with boundary-splatting |
WO2011081646A1 (en) * | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
CN104243976A (zh) * | 2014-09-23 | 2014-12-24 | 浙江科技学院 | 一种立体图像客观质量评价方法 |
CN104361583A (zh) * | 2014-10-27 | 2015-02-18 | 浙江科技学院 | 一种非对称失真立体图像客观质量评价方法 |
CN104658001A (zh) * | 2015-03-10 | 2015-05-27 | 浙江科技学院 | 一种无参考非对称失真立体图像客观质量评价方法 |
CN104658002A (zh) * | 2015-03-10 | 2015-05-27 | 浙江科技学院 | 一种无参考图像客观质量评价方法 |
CN104902267A (zh) * | 2015-06-08 | 2015-09-09 | 浙江科技学院 | 一种基于梯度信息的无参考图像质量评价方法 |
CN104902268A (zh) * | 2015-06-08 | 2015-09-09 | 浙江科技学院 | 基于局部三元模式的无参考立体图像客观质量评价方法 |
CN105069794A (zh) * | 2015-08-12 | 2015-11-18 | 浙江科技学院 | 一种基于双目竞争的全盲立体图像质量评价方法 |
-
2015
- 2015-11-26 CN CN201510835634.3A patent/CN105488792B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201023618A (en) * | 2008-08-29 | 2010-06-16 | Thomson Licensing | View synthesis with boundary-splatting |
WO2011081646A1 (en) * | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
CN104243976A (zh) * | 2014-09-23 | 2014-12-24 | 浙江科技学院 | 一种立体图像客观质量评价方法 |
CN104361583A (zh) * | 2014-10-27 | 2015-02-18 | 浙江科技学院 | 一种非对称失真立体图像客观质量评价方法 |
CN104658001A (zh) * | 2015-03-10 | 2015-05-27 | 浙江科技学院 | 一种无参考非对称失真立体图像客观质量评价方法 |
CN104658002A (zh) * | 2015-03-10 | 2015-05-27 | 浙江科技学院 | 一种无参考图像客观质量评价方法 |
CN104902267A (zh) * | 2015-06-08 | 2015-09-09 | 浙江科技学院 | 一种基于梯度信息的无参考图像质量评价方法 |
CN104902268A (zh) * | 2015-06-08 | 2015-09-09 | 浙江科技学院 | 基于局部三元模式的无参考立体图像客观质量评价方法 |
CN105069794A (zh) * | 2015-08-12 | 2015-11-18 | 浙江科技学院 | 一种基于双目竞争的全盲立体图像质量评价方法 |
Non-Patent Citations (4)
Title |
---|
WUJIE ZHOU 等: "No-reference steroscopic image quality measurement based on generalized local ternary patterns of binocular energy response", 《MEASUREMENT SCIENCE AND TECHNOLOGY》 * |
WUJIE ZHOU 等: "Reduced-reference steroscopic image quality assessment based on view and disparity zero-watermarks", 《SIGNAL PROCESSING:IMAGE COMMUNICATION》 * |
周武杰 等: "立体图像质量评价方法研究", 《PROCEEDINGS OF INTERNATIONAL CONFERENCE OF CHINA COMMUNICATION AND INFORMATION TECHNOLOGY(ICCCIT2010)》 * |
李柯蒙 等: "基于稀疏表示的立体图像客观质量评价方法", 《光电子激光》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023152A (zh) * | 2016-05-09 | 2016-10-12 | 浙江科技学院 | 一种无参考立体图像质量客观评价方法 |
CN106023152B (zh) * | 2016-05-09 | 2018-06-26 | 浙江科技学院 | 一种无参考立体图像质量客观评价方法 |
CN106780441A (zh) * | 2016-11-30 | 2017-05-31 | 杭州电子科技大学 | 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法 |
CN106780441B (zh) * | 2016-11-30 | 2020-01-10 | 杭州电子科技大学 | 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法 |
CN106803248A (zh) * | 2016-12-18 | 2017-06-06 | 南京邮电大学 | 模糊车牌图像模糊度评价方法 |
CN106803248B (zh) * | 2016-12-18 | 2019-11-05 | 南京邮电大学 | 模糊车牌图像模糊度评价方法 |
CN106791822A (zh) * | 2017-01-13 | 2017-05-31 | 浙江科技学院 | 一种基于单双目特征学习的无参考立体图像质量评价方法 |
CN106791822B (zh) * | 2017-01-13 | 2018-11-30 | 浙江科技学院 | 一种基于单双目特征学习的无参考立体图像质量评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105488792B (zh) | 2017-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104658001B (zh) | 一种无参考非对称失真立体图像客观质量评价方法 | |
CN105376563B (zh) | 基于双目融合特征相似度的无参考立体图像质量评价方法 | |
CN103347196B (zh) | 一种基于机器学习的立体图像视觉舒适度评价方法 | |
CN104902268B (zh) | 基于局部三元模式的无参考立体图像客观质量评价方法 | |
CN105979253B (zh) | 基于广义回归神经网络的无参考立体图像质量评价方法 | |
CN105282543B (zh) | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 | |
CN105357519B (zh) | 基于自相似度特征的无参考立体图像质量客观评价方法 | |
CN104811693B (zh) | 一种立体图像视觉舒适度客观评价方法 | |
CN101610425B (zh) | 一种评测立体图像质量的方法和装置 | |
CN105407349A (zh) | 基于双目视觉感知的无参考立体图像质量客观评价方法 | |
CN104902267A (zh) | 一种基于梯度信息的无参考图像质量评价方法 | |
CN106791822B (zh) | 一种基于单双目特征学习的无参考立体图像质量评价方法 | |
CN104036501A (zh) | 一种基于稀疏表示的立体图像质量客观评价方法 | |
CN104408716A (zh) | 一种基于视觉保真度的立体图像质量客观评价方法 | |
CN103136748B (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
CN104361583B (zh) | 一种确定非对称失真立体图像客观质量的方法 | |
CN104581143A (zh) | 一种基于机器学习的无参考立体图像质量客观评价方法 | |
CN105574901A (zh) | 一种基于局部对比度模式的通用无参考图像质量评价方法 | |
CN105488792A (zh) | 基于字典学习和机器学习的无参考立体图像质量评价方法 | |
CN104036502A (zh) | 一种无参考模糊失真立体图像质量评价方法 | |
CN106023152B (zh) | 一种无参考立体图像质量客观评价方法 | |
CN105898279B (zh) | 一种立体图像质量客观评价方法 | |
CN105069794B (zh) | 一种基于双目竞争的全盲立体图像质量评价方法 | |
CN103914835A (zh) | 一种针对模糊失真立体图像的无参考质量评价方法 | |
CN108492275B (zh) | 基于深度神经网络的无参考立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210913 Address after: 510670 room 517, No. 91 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province Patentee after: Guangzhou Fangwei Intellectual Property Operation Co.,Ltd. Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY |