CN104036501A - 一种基于稀疏表示的立体图像质量客观评价方法 - Google Patents

一种基于稀疏表示的立体图像质量客观评价方法 Download PDF

Info

Publication number
CN104036501A
CN104036501A CN201410243607.2A CN201410243607A CN104036501A CN 104036501 A CN104036501 A CN 104036501A CN 201410243607 A CN201410243607 A CN 201410243607A CN 104036501 A CN104036501 A CN 104036501A
Authority
CN
China
Prior art keywords
mrow
msup
msubsup
test
prime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410243607.2A
Other languages
English (en)
Other versions
CN104036501B (zh
Inventor
邵枫
李柯蒙
王珊珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuangkebang Shandong Technology Service Co Ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410243607.2A priority Critical patent/CN104036501B/zh
Publication of CN104036501A publication Critical patent/CN104036501A/zh
Application granted granted Critical
Publication of CN104036501B publication Critical patent/CN104036501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于稀疏表示的立体图像客观质量评价方法,其在训练阶段,选择多幅原始的无失真立体图像的左视点图像构成训练图像集,采用高斯差分滤波对训练图像集中的每幅图像进行滤波得到不同尺度的滤波图像,并采用K-SVD方法对由不同尺度的所有滤波图像中的所有子块构成的集合进行字典训练操作构造视觉字典表;在测试阶段,对任意一副测试立体图像和其原始的无失真的立体图像实施高斯差分滤波得到不同尺度的滤波图像,然后对不同尺度的滤波图像进行非重叠的分块处理,根据已构造的视觉字典表,计算得到测试图像的图像质量客观评价预测值;优点是在训练阶段不需要复杂的机器学习训练过程,在测试阶段只需要通过稀疏系数矩阵来计算图像质量客观评价预测值,且与主观评价值的一致性较好。

Description

一种基于稀疏表示的立体图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于稀疏表示的立体图像质量客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左视点图像和右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。
由于影响立体图像质量的因素较多,如左视点和右视点质量失真情况、立体感知情况、观察者视觉疲劳等,因此如何有效地进行立体图像质量评价是亟需解决的难点问题。目前已有方法是通过机器学习来预测评价模型,但其计算复杂度较高,并且训练模型需要预知各评价图像的主观评价值,并不适用于实际的应用场合,存在一定的局限性。稀疏表示将信号在已知的函数集上进行分解,力求在变换域上用尽量少的基函数来对原始信号进行逼近,目前的研究主要集中在字典构造和稀疏分解两方面。稀疏表示的一个关键问题就是如何有效地构造字典来表征图像的本质特征。目前已提出的字典构造算法包括:1)有学习过程的字典构造方法:通过机器学习来训练得到字典信息,如支持向量机等;2)无学习过程的字典构造方法:直接利用图像的特征来构造字典,如多尺度Gabor字典、多尺度高斯字典等。因此,如何进行无学习过程的字典构造,如何根据字典来进行质量估计,都是在立体图像质量评价研究中需要重点解决的技术问题。
发明内容
本发明所要解决的技术问题是提供一种基于稀疏表示的立体图像质量客观评价方法,其计算复杂度低,且能够有效地提高客观评价结果与主观感知的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于稀疏表示的立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,具体步骤如下:
①选取N幅原始的无失真立体图像的左视点图像构成训练图像集,记为{Li,org|1≤i≤N},其中,N≥1,Li,org表示{Li,org|1≤i≤N}中的第i幅图像;
②利用高斯差分滤波器对{Li,org|1≤i≤N}中的每幅图像实施高斯差分滤波,得到{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像;
③对{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像进行非重叠的分块处理;然后采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典;再将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S},其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,Dj表示第j个尺度下的目标训练字典,Dj亦表示第j个尺度下的N幅滤波图像的视觉字典表,Dj亦表示D中的第j个视觉字典;
④对于任意一副测试立体图像Stest,假设Stest对应的原始的无失真立体图像为Sorg,则首先利用高斯差分滤波器对Stest的左视点图像和右视点图像及Sorg的左视点图像和右视点图像分别实施高斯差分滤波,得到各自在不同尺度下的滤波图像;然后对每幅图像在每个尺度下的滤波图像进行非重叠的分块处理;接着根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵;再根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,计算Stest的局部图像质量客观评价预测值,并根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素,计算Stest的全局图像质量客观评价预测值;最后根据Stest的局部图像质量客观评价预测值和全局图像质量客观评价预测值,计算Stest的图像质量客观评价预测值。
所述的步骤③的具体过程为:
③-1、将{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块;然后将每个尺度下的N幅滤波图像中的所有子块构成一个集合,将由第j个尺度下的N幅滤波图像中的所有子块构成的集合记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,W表示选取的原始的无失真立体图像的宽度,H表示选取的原始的无失真立体图像的高度,表示由第j个尺度下的N幅滤波图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
③-2、采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典,将第j个尺度下的目标训练字典记为Dj,Dj通过K-SVD方法求解得到,其中,min()为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,Yj的维数为64×M,中的第1个列向量,中的第t个列向量,中的第M个列向量,Xj表示第j个尺度下的稀疏矩阵, 表示Xj中的第1个列向量,表示Xj中的第t个列向量,表示Xj中的第M个列向量,Xj的维数为K×M,K表示设定的字典的个数,K≥1,符号“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,τ为误差系数,Dj的维数为64×K;
③-3、将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S}。
所述的步骤③-2中取τ=0.1。
所述的步骤④的具体过程为:
④-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Sorg的左视点图像记为Lorg,将Sorg的右视点图像记为Rorg,然后利用高斯差分滤波器对Ltest、Rtest、Lorg和Rorg分别实施高斯差分滤波,对应得到Ltest、Rtest、Lorg和Rorg各自在不同尺度下的滤波图像,将Ltest在第j个尺度下的滤波图像记为将Rtest在第j个尺度下的滤波图像记为将Lorg在第j个尺度下的滤波图像记为将Rorg在第j个尺度下的滤波图像记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数;
④-2、将Ltest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Ltest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,W表示Stest和Sorg的宽度,与步骤①中选取的原始的无失真立体图像的宽度一致,H表示Stest和Sorg的高度,与步骤①中选取的原始的无失真立体图像的高度一致,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Rtest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rtest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Lorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Lorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Rorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
④-3、根据Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , test j = ( D j ) - 1 · y t ′ , L , test j , 其中,(Dj)-1为Dj的逆矩阵;
根据Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , test j = ( D j ) - 1 · y t ′ , R , test j ;
根据Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , org j = ( D j ) - 1 · y t ′ , L , org j ;
根据Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , org j = ( D j ) - 1 · y t ′ , R , org j ;
④-4、计算Ltest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , L j = | | ( x t ′ , L , test j ) T · x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 · | | x t ′ , L , org j | | 2 + C · ( 1 - | | x t ′ , L , test j - x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , L , org j | | 2 + C ) , 其中,的转置矩阵,符号“|| ||2”为求取矩阵的2-范数符号,C为控制参数;
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , R j = | | ( x t ′ , R , test j ) T · x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 · | | x t ′ , R , org j | | 2 + C · ( 1 - | | x t ′ , R , test j - x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 + | | x t ′ , R , org j | | 2 + C ) , 其中,的转置矩阵;
④-5、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,计算Stest的局部图像质量客观评价预测值,记为Qlocal z t ′ j = w t ′ , L j · z t ′ , L j + w t ′ , R j · z t ′ , R j , 其中, w t ′ , L j = | | x t ′ , L , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 , w t ′ , R j = | | x t ′ , R , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 ;
④-6、计算Ltest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 其中,PSNR()为峰值信噪比计算函数;
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 u t ′ , R j = PSNR ( y t ′ , R , test j , y t ′ , R , org j ) ;
④-7、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,计算Stest的全局图像质量客观评价预测值,记为Qglobal u t ′ j = w t ′ , L j × u t ′ , L j + w t ′ , R j × u t ′ , R j ;
④-8、根据Stest的局部图像质量客观评价预测值Qlocal和全局图像质量客观评价预测值Qglobal,计算Stest的图像质量客观评价预测值,记为Q,Q=wlocal×Qlocal+(1-wlocal)×Qglobal,其中,wlocal为Qlocal的权值比重。
所述的步骤④-4中取C=0.02。
所述的步骤④-8中取wlocal=0.95。
与现有技术相比,本发明的优点在于:
1)本发明方法在训练阶段,通过无监督学习方式对由无失真立体图像的左视点图像构成的训练图像集构造视觉字典表,在测试阶段不需要再计算视觉字典表,这样避免了复杂的机器学习训练过程,降低了计算复杂度。
2)本发明方法在测试阶段,根据在训练阶段估计得到的视觉字典表,估计测试用的失真立体图像和其对应的无失真立体图像中的每个子块的稀疏系数矩阵,并通过稀疏系数矩阵来计算失真立体图像的局部图像质量客观评价预测值,使得最终计算得到的失真立体图像的图像质量客观评价预测值与主观评价值保持了较好的一致性。
附图说明
图1为本发明方法的总体实现框图。
图2为利用本发明方法得到的宁波大学立体图像库中的每幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图;
图3为利用本发明方法得到的LIVE立体图像库中的每幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于稀疏表示的立体图像质量客观评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程:在训练阶段,选择多幅原始的无失真立体图像的左视点图像构成训练图像集,通过采用高斯差分滤波对训练图像集中的每幅图像进行滤波得到不同尺度下的滤波图像,然后对不同尺度下的滤波图像进行非重叠的分块处理,然后采用K-SVD方法对由不同尺度下的所有滤波图像中的所有子块构成的集合进行字典训练操作,得到不同尺度下的目标训练字典作为各尺度下的所有滤波图像的视觉字典表,构造得到训练图像集的视觉字典表;在测试阶段,对任意一副测试立体图像和其对应的原始的无失真立体图像实施高斯差分滤波得到不同尺度下的滤波图像,然后对不同尺度下的滤波图像进行非重叠的分块处理,再根据已构造的视觉字典表,计算得到测试立体图像的图像质量客观评价预测值。本发明方法的具体步骤如下:
①选取N幅原始的无失真立体图像的左视点图像构成训练图像集,记为{Li,org|1≤i≤N},其中,N≥1,Li,org表示{Li,org|1≤i≤N}中的第i幅图像,即表示第i幅原始的无失真立体图像的左视点图像,符号“{}”为集合表示符号。
在具体实施时,原始的无失真立体图像选取的幅数应当适当,如果N的值越大,则通过训练得到的视觉字典表的精度也就越高,但计算复杂度也就越高,因此在本实施例中取N=10。
②利用高斯差分滤波器对{Li,org|1≤i≤N}中的每幅图像实施高斯差分滤波,得到{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像,将由第j个尺度下的N幅滤波图像构成的集合记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,在本实施例中取S=5,1≤x≤W,1≤y≤H,W表示选取的原始的无失真立体图像的宽度,H表示选取的原始的无失真立体图像的高度,表示Li,org在第j个尺度下的滤波图像中坐标位置为(x,y)的像素点的像素值。
③对{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像进行非重叠的分块处理;然后采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典;再将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S},其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,Dj表示第j个尺度下的目标训练字典,Dj亦表示第j个尺度下的N幅滤波图像的视觉字典表,Dj亦表示D中的第j个视觉字典。
在此具体实施例中,步骤③的具体过程为:
③-1、将{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块;然后将每个尺度下的N幅滤波图像中的所有子块构成一个集合,将由第j个尺度下的N幅滤波图像中的所有子块构成的集合记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,W表示选取的原始的无失真立体图像的宽度,H表示选取的原始的无失真立体图像的高度,表示由第j个尺度下的N幅滤波图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1。
③-2、采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典,将第j个尺度下的目标训练字典记为Dj,Dj通过K-SVD方法求解得到,其中,min()为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,Yj的维数为64×M,中的第1个列向量,亦表示由第j个尺度下的N幅滤波图像中的第1个子块中的所有像素点组成的列向量,中的第t个列向量,亦表示由第j个尺度下的N幅滤波图像中的第t个子块中的所有像素点组成的列向量,中的第M个列向量,亦表示由第j个尺度下的N幅滤波图像中的第M个子块中的所有像素点组成的列向量,Xj表示第j个尺度下的稀疏矩阵, 表示Xj中的第1个列向量,表示Xj中的第t个列向量,表示Xj中的第M个列向量,Xj的维数为K×M,K表示设定的字典的个数,K≥1,K的取值过大会出现过聚类现象,K的取值过小会出现欠聚类现象,在本实施例中取K=128,符号“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,τ为误差系数,在本实施例中取τ=0.1,Dj的维数为64×K。
③-3、将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S}。
④对于任意一副测试用的失真立体图像Stest,假设Stest对应的原始的无失真立体图像为Sorg,则首先利用高斯差分滤波器对Stest的左视点图像和右视点图像及Sorg的左视点图像和右视点图像分别实施高斯差分滤波,得到各自在不同尺度下的滤波图像;然后对每幅图像在每个尺度下的滤波图像进行非重叠的分块处理;接着根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵;再根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,计算Stest的局部图像质量客观评价预测值,并根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素,计算Stest的全局图像质量客观评价预测值;最后根据Stest的局部图像质量客观评价预测值和全局图像质量客观评价预测值,计算Stest的图像质量客观评价预测值。
在此具体实施例中,步骤④的具体过程为:
④-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Sorg的左视点图像记为Lorg,将Sorg的右视点图像记为Rorg,然后利用高斯差分滤波器对Ltest、Rtest、Lorg和Rorg分别实施高斯差分滤波,对应得到Ltest、Rtest、Lorg和Rorg各自在不同尺度下的滤波图像,将Ltest在第j个尺度下的滤波图像记为将Rtest在第j个尺度下的滤波图像记为将Lorg在第j个尺度下的滤波图像记为将Rorg在第j个尺度下的滤波图像记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数。
④-2、将Ltest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Ltest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,W表示Stest和Sorg的宽度,与步骤①中选取的原始的无失真立体图像的宽度一致,H表示Stest和Sorg的高度,与步骤①中选取的原始的无失真立体图像的高度一致,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1。
将Rtest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rtest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1。
将Lorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Lorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1。
将Rorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1。
④-3、根据Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , test j = ( D j ) - 1 · y t ′ , L , test j , 其中,(Dj)-1为Dj的逆矩阵。
根据Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , test j = ( D j ) - 1 · y t ′ , R , test j .
根据Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , org j = ( D j ) - 1 · y t ′ , L , org j .
根据Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , org j = ( D j ) - 1 · y t ′ , R , org j .
④-4、计算Ltest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , L j = | | ( x t ′ , L , test j ) T · x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 · | | x t ′ , L , org j | | 2 + C · ( 1 - | | x t ′ , L , test j - x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , L , org j | | 2 + C ) , 其中,的转置矩阵,符号“|| ||2”为求取矩阵的2-范数符号,C为控制参数,在本实施例中取C=0.02。
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , R j = | | ( x t ′ , R , test j ) T · x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 · | | x t ′ , R , org j | | 2 + C · ( 1 - | | x t ′ , R , test j - x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 + | | x t ′ , R , org j | | 2 + C ) , 其中的转置矩阵。
④-5、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,计算Stest的局部图像质量客观评价预测值,记为Qlocal z t ′ j = w t ′ , L j · z t ′ , L j + w t ′ , R j · z t ′ , R j , 其中, w t ′ , L j = | | x t ′ , L , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 , w t ′ , R j = | | x t ′ , R , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 .
④-6、计算Ltest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 u t ′ , R j = PSNR ( y t ′ , L , test j , y t ′ , L , org j ) , 其中,PSNR()为峰值信噪比计算函数。
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 u t ′ , R j = PSNR ( y t ′ , R , test j , y t ′ , R , org j ) .
④-7、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,计算Stest的全局图像质量客观评价预测值,记为Qglobal u t ′ j = w t ′ , L j × u t ′ , L j + w t ′ , R j × u t ′ , R j .
④-8、根据Stest的局部图像质量客观评价预测值Qlocal和全局图像质量客观评价预测值Qglobal,计算Stest的图像质量客观评价预测值,记为Q,Q=wlocal×Qlocal+(1-wlocal)×Qglobal,其中,wlocal为Qlocal的权值比重,在本实施例中取wlocal=0.95。
这里,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映失真的立体图像客观评价结果的准确性,SROCC和KROCC反映其单调性。
利用本发明方法计算宁波大学立体图像库中的每幅失真的立体图像的图像质量客观评价预测值和LIVE立体图像库中的每幅失真的立体图像的图像质量客观评价预测值,再利用现有的主观评价方法获得宁波大学立体图像库中的每幅失真的立体图像的平均主观评分差值和LIVE立体图像库中的每幅失真的立体图像的平均主观评分差值。将按本发明方法计算得到的失真的立体图像的图像质量客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高,RMSE值越低说明客观评价方法与平均主观评分差值相关性越好。表1、表2、表3和表4给出了采用本发明方法得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差。从表1、表2、表3和表4中可以看出,采用本发明方法得到的失真的立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,表明了客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
图2给出了利用本发明方法得到的宁波大学立体图像库中的每幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,图3给出了利用本发明方法得到的LIVE立体图像库中的每幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评价结果与主观感知的一致性越好。从图2和图3中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。
表1利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的Pearson相关系数比较
表2利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的Spearman相关系数比较
表3利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的Kendall相关系数比较
表4利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的均方误差比较

Claims (6)

1.一种基于稀疏表示的立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,具体步骤如下:
①选取N幅原始的无失真立体图像的左视点图像构成训练图像集,记为{Li,org|1≤i≤N},其中,N≥1,Li,org表示{Li,org|1≤i≤N}中的第i幅图像;
②利用高斯差分滤波器对{Li,org|1≤i≤N}中的每幅图像实施高斯差分滤波,得到{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像;
③对{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像进行非重叠的分块处理;然后采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典;再将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S},其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,Dj表示第j个尺度下的目标训练字典,Dj亦表示第j个尺度下的N幅滤波图像的视觉字典表,Dj亦表示D中的第j个视觉字典;
④对于任意一副测试立体图像Stest,假设Stest对应的原始的无失真立体图像为Sorg,则首先利用高斯差分滤波器对Stest的左视点图像和右视点图像及Sorg的左视点图像和右视点图像分别实施高斯差分滤波,得到各自在不同尺度下的滤波图像;然后对每幅图像在每个尺度下的滤波图像进行非重叠的分块处理;接着根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵;再根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,计算Stest的局部图像质量客观评价预测值,并根据每幅图像在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素,计算Stest的全局图像质量客观评价预测值;最后根据Stest的局部图像质量客观评价预测值和全局图像质量客观评价预测值,计算Stest的图像质量客观评价预测值。
2.根据权利要求1所述的一种基于稀疏表示的立体图像质量客观评价方法,其特征在于所述的步骤③的具体过程为:
③-1、将{Li,org|1≤i≤N}中的每幅图像在不同尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块;然后将每个尺度下的N幅滤波图像中的所有子块构成一个集合,将由第j个尺度下的N幅滤波图像中的所有子块构成的集合记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数,W表示选取的原始的无失真立体图像的宽度,H表示选取的原始的无失真立体图像的高度,表示由第j个尺度下的N幅滤波图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
③-2、采用K-SVD方法对由每个尺度下的N幅滤波图像中的所有子块构成的集合进行字典训练操作,获得每个尺度下的目标训练字典,将第j个尺度下的目标训练字典记为Dj,Dj通过K-SVD方法求解得到,其中,min()为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,Yj的维数为64×M, { y t j | 1 ≤ t ≤ M } 中的第1个列向量, { y t j | 1 ≤ t ≤ M } 中的第t个列向量,中的第M个列向量,Xj表示第j个尺度下的稀疏矩阵, 表示Xj中的第1个列向量,表示Xj中的第t个列向量,表示Xj中的第M个列向量,Xj的维数为K×M,K表示设定的字典的个数,K≥1,符号“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,τ为误差系数,Dj的维数为64×K;
③-3、将每个尺度下的目标训练字典作为该尺度下的N幅滤波图像的视觉字典表,构造得到{Li,org|1≤i≤N}的视觉字典表,记为D,D={Dj|1≤j≤S}。
3.根据权利要求2所述的一种基于稀疏表示的立体图像质量客观评价方法,其特征在于所述的步骤③-2中取τ=0.1。
4.根据权利要求1至3中任一项所述的一种基于稀疏表示的立体图像质量客观评价方法,其特征在于所述的步骤④的具体过程为:
④-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Sorg的左视点图像记为Lorg,将Sorg的右视点图像记为Rorg,然后利用高斯差分滤波器对Ltest、Rtest、Lorg和Rorg分别实施高斯差分滤波,对应得到Ltest、Rtest、Lorg和Rorg各自在不同尺度下的滤波图像,将Ltest在第j个尺度下的滤波图像记为将Rtest在第j个尺度下的滤波图像记为将Lorg在第j个尺度下的滤波图像记为将Rorg在第j个尺度下的滤波图像记为其中,j的初始值为1,1≤j≤S,S表示高斯差分滤波器的尺度个数;
④-2、将Ltest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Ltest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,W表示Stest和Sorg的宽度,与步骤①中选取的原始的无失真立体图像的宽度一致,H表示Stest和Sorg的高度,与步骤①中选取的原始的无失真立体图像的高度一致,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Rtest在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rtest在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Lorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Lorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
将Rorg在每个尺度下的滤波图像划分成个互不重叠的尺寸大小为8×8的子块,然后将Rorg在每个尺度下的滤波图像中的所有子块构成一个集合,将由中的所有子块构成的集合记为其中,表示由中的第t'个子块中的所有像素点组成的列向量,的维数为64×1;
④-3、根据Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Ltest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , test j = ( D j ) - 1 · y t ′ , L , test j , 其中,(Dj)-1为Dj的逆矩阵;
根据Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rtest在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , test j = ( D j ) - 1 · y t ′ , R , test j ;
根据Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Lorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , L , org j = ( D j ) - 1 · y t ′ , L , org j ;
根据Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素和在训练阶段构造得到的视觉字典表D,获取Rorg在每个尺度下的滤波图像中的所有子块构成的集合中的每个元素的稀疏系数矩阵,对于中的每个元素的稀疏系数矩阵,根据中的每个元素和视觉字典表D中的第j个视觉字典Dj获得,将的稀疏系数矩阵记为 x t ′ , R , org j = ( D j ) - 1 · y t ′ , R , org j ;
④-4、计算Ltest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , L j = | | ( x t ′ , L , test j ) T · x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 · | | x t ′ , L , org j | | 2 + C · ( 1 - | | x t ′ , L , test j - x t ′ , L , org j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , L , org j | | 2 + C ) , 其中,的转置矩阵,符号“|| ||2”为求取矩阵的2-范数符号,C为控制参数;
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的局部客观评价度量值记为 z t ′ , R j = | | ( x t ′ , R , test j ) T · x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 · | | x t ′ , R , org j | | 2 + C · ( 1 - | | x t ′ , R , test j - x t ′ , R , org j | | 2 | | x t ′ , R , test j | | 2 + | | x t ′ , R , org j | | 2 + C ) , 其中,的转置矩阵;
④-5、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,计算Stest的局部图像质量客观评价预测值,记为Qlocal z t ′ j = w t ′ , L j · z t ′ , L j + w t ′ , R j · z t ′ , R j , 其中, w t ′ , L j = | | x t ′ , L , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 , w t ′ , R j = | | x t ′ , R , test j | | 2 | | x t ′ , L , test j | | 2 + | | x t ′ , R , test j | | 2 ;
④-6、计算Ltest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 其中,PSNR()为峰值信噪比计算函数;
计算Rtest在每个尺度下的滤波图像中的每个子块的局部客观评价度量值,对于中的第t'个子块的全局客观评价度量值记为 u t ′ , R j = PSNR ( y t ′ , R , test j , y t ′ , R , org j ) ;
④-7、根据Ltest和Rtest在每个尺度下的滤波图像中的每个子块的全局客观评价度量值,计算Stest的全局图像质量客观评价预测值,记为Qglobal u t ′ j = w t ′ , L j × u t ′ , L j + w t ′ , R j × u t ′ , R j ;
④-8、根据Stest的局部图像质量客观评价预测值Qlocal和全局图像质量客观评价预测值Qglobal,计算Stest的图像质量客观评价预测值,记为Q,Q=wlocal×Qlocal+(1-wlocal)×Qglobal,其中,wlocal为Qlocal的权值比重。
5.根据权利要求4所述的一种基于稀疏表示的立体图像质量客观评价方法,其特征在于所述的步骤④-4中取C=0.02。
6.根据权利要求5所述的一种基于稀疏表示的立体图像质量客观评价方法,其特征在于所述的步骤④-8中取wlocal=0.95。
CN201410243607.2A 2014-06-03 2014-06-03 一种基于稀疏表示的立体图像质量客观评价方法 Active CN104036501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410243607.2A CN104036501B (zh) 2014-06-03 2014-06-03 一种基于稀疏表示的立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410243607.2A CN104036501B (zh) 2014-06-03 2014-06-03 一种基于稀疏表示的立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN104036501A true CN104036501A (zh) 2014-09-10
CN104036501B CN104036501B (zh) 2016-08-24

Family

ID=51467260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410243607.2A Active CN104036501B (zh) 2014-06-03 2014-06-03 一种基于稀疏表示的立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN104036501B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408716A (zh) * 2014-11-24 2015-03-11 宁波大学 一种基于视觉保真度的立体图像质量客观评价方法
CN104581143A (zh) * 2015-01-14 2015-04-29 宁波大学 一种基于机器学习的无参考立体图像质量客观评价方法
CN104820988A (zh) * 2015-05-06 2015-08-05 宁波大学 一种无参考立体图像质量客观评价方法
CN105243385A (zh) * 2015-09-23 2016-01-13 宁波大学 一种基于非监督学习的图像质量评价方法
CN105321175A (zh) * 2015-09-23 2016-02-10 宁波大学 一种基于结构纹理稀疏表示的立体图像质量客观评价方法
CN105472393A (zh) * 2015-11-24 2016-04-06 宁波大学 一种基于联合字典的彩色与深度图像后处理方法
CN106023267A (zh) * 2016-05-23 2016-10-12 郑州轻工业学院 稀疏性相关度图像质量评价方法
CN106097327A (zh) * 2016-06-06 2016-11-09 宁波大学 结合流形特征及双目特性的立体图像质量客观评价方法
CN106683079A (zh) * 2016-12-14 2017-05-17 浙江科技学院 一种基于结构失真的无参考图像客观质量评价方法
CN106682599A (zh) * 2016-12-15 2017-05-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN107590796A (zh) * 2017-07-20 2018-01-16 天津大学 基于稀疏分解残差的全参考混合失真图像质量评价方法
CN105894522B (zh) * 2016-04-28 2018-05-25 宁波大学 一种多失真立体图像质量客观评价方法
CN108520510A (zh) * 2018-03-19 2018-09-11 天津大学 一种基于整体和局部分析的无参考立体图像质量评价方法
CN105913413B (zh) * 2016-03-31 2019-02-22 宁波大学 一种基于在线流形学习的彩色图像质量客观评价方法
CN109635874A (zh) * 2018-12-19 2019-04-16 中国人民解放军军事科学院评估论证研究中心 一种特征字典映射的图像盲评价方法和装置
CN109886927A (zh) * 2019-01-23 2019-06-14 华南理工大学 一种基于核稀疏编码的图像质量评估方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ABDUL REHMAN ET AL: "SSIM-inspired image restoration using sparse representation", 《EURASIP JOURNAL ON ADVANCES IN SIGNAL PROCESSING》 *
ALEXANDRE BENOIT ET AL: "Quality Assessment of Stereoscopic Images", 《EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING》 *
KEMENG LI ET AL: "Objective quality assessment for stereoscopic images based on structure-texture decomposition", 《WSEAS TRANSACTIONS ON COMPUTERS》 *
TANAYA GUHA ET AL: "Sparse Representation-based Image Quality Assessment", 《JOURNAL OF LATEX CLASS FILES》 *
YUNHUI SHI ET AL: "Two Dimensional K-SVD for the Analysis Sparse Dictionary", 《PCM 2012》 *
蒋刚毅 等: "图像质量评价方法研究进展", 《电子与信息学报》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408716A (zh) * 2014-11-24 2015-03-11 宁波大学 一种基于视觉保真度的立体图像质量客观评价方法
CN104581143A (zh) * 2015-01-14 2015-04-29 宁波大学 一种基于机器学习的无参考立体图像质量客观评价方法
CN104820988A (zh) * 2015-05-06 2015-08-05 宁波大学 一种无参考立体图像质量客观评价方法
CN104820988B (zh) * 2015-05-06 2017-12-15 宁波大学 一种无参考立体图像质量客观评价方法
CN105243385A (zh) * 2015-09-23 2016-01-13 宁波大学 一种基于非监督学习的图像质量评价方法
CN105321175A (zh) * 2015-09-23 2016-02-10 宁波大学 一种基于结构纹理稀疏表示的立体图像质量客观评价方法
CN105243385B (zh) * 2015-09-23 2018-11-09 宁波大学 一种基于非监督学习的图像质量评价方法
CN105321175B (zh) * 2015-09-23 2017-09-19 宁波大学 一种基于结构纹理稀疏表示的立体图像质量客观评价方法
CN105472393B (zh) * 2015-11-24 2018-04-17 宁波大学 一种基于联合字典的彩色与深度图像后处理方法
CN105472393A (zh) * 2015-11-24 2016-04-06 宁波大学 一种基于联合字典的彩色与深度图像后处理方法
CN105913413B (zh) * 2016-03-31 2019-02-22 宁波大学 一种基于在线流形学习的彩色图像质量客观评价方法
CN105894522B (zh) * 2016-04-28 2018-05-25 宁波大学 一种多失真立体图像质量客观评价方法
CN106023267A (zh) * 2016-05-23 2016-10-12 郑州轻工业学院 稀疏性相关度图像质量评价方法
CN106097327A (zh) * 2016-06-06 2016-11-09 宁波大学 结合流形特征及双目特性的立体图像质量客观评价方法
CN106097327B (zh) * 2016-06-06 2018-11-02 宁波大学 结合流形特征及双目特性的立体图像质量客观评价方法
CN106683079A (zh) * 2016-12-14 2017-05-17 浙江科技学院 一种基于结构失真的无参考图像客观质量评价方法
CN106683079B (zh) * 2016-12-14 2019-05-17 浙江科技学院 一种基于结构失真的无参考图像客观质量评价方法
CN106682599B (zh) * 2016-12-15 2020-04-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN106682599A (zh) * 2016-12-15 2017-05-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN107590796A (zh) * 2017-07-20 2018-01-16 天津大学 基于稀疏分解残差的全参考混合失真图像质量评价方法
CN107590796B (zh) * 2017-07-20 2021-01-26 天津大学 基于稀疏分解残差的全参考混合失真图像质量评价方法
CN108520510A (zh) * 2018-03-19 2018-09-11 天津大学 一种基于整体和局部分析的无参考立体图像质量评价方法
CN108520510B (zh) * 2018-03-19 2021-10-19 天津大学 一种基于整体和局部分析的无参考立体图像质量评价方法
CN109635874A (zh) * 2018-12-19 2019-04-16 中国人民解放军军事科学院评估论证研究中心 一种特征字典映射的图像盲评价方法和装置
CN109886927A (zh) * 2019-01-23 2019-06-14 华南理工大学 一种基于核稀疏编码的图像质量评估方法
CN109886927B (zh) * 2019-01-23 2021-09-21 华南理工大学 一种基于核稀疏编码的图像质量评估方法

Also Published As

Publication number Publication date
CN104036501B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN104581143B (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN102209257B (zh) 一种立体图像质量客观评价方法
CN104036502B (zh) 一种无参考模糊失真立体图像质量评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN102547368B (zh) 一种立体图像质量客观评价方法
CN104658001A (zh) 一种无参考非对称失真立体图像客观质量评价方法
Shen et al. No-reference stereoscopic image quality assessment based on global and local content characteristics
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN102903107B (zh) 一种基于特征融合的立体图像质量客观评价方法
CN103136748A (zh) 一种基于特征图的立体图像质量客观评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN103200420B (zh) 一种基于三维视觉注意力的立体图像质量客观评价方法
CN102999912B (zh) 一种基于失真图的立体图像质量客观评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191217

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211109

Address after: Room 302, 3 / F, building A6, electronic information industrial park, Gaoxin 7th Road, high tech Zone, Rizhao City, Shandong Province

Patentee after: Chuangkebang (Shandong) Technology Service Co., Ltd

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.