CN104036502B - 一种无参考模糊失真立体图像质量评价方法 - Google Patents

一种无参考模糊失真立体图像质量评价方法 Download PDF

Info

Publication number
CN104036502B
CN104036502B CN201410245174.4A CN201410245174A CN104036502B CN 104036502 B CN104036502 B CN 104036502B CN 201410245174 A CN201410245174 A CN 201410245174A CN 104036502 B CN104036502 B CN 104036502B
Authority
CN
China
Prior art keywords
dis
image
org
visual
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410245174.4A
Other languages
English (en)
Other versions
CN104036502A (zh
Inventor
邵枫
王珊珊
李柯蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuangkebang Shandong Technology Service Co Ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410245174.4A priority Critical patent/CN104036502B/zh
Publication of CN104036502A publication Critical patent/CN104036502A/zh
Application granted granted Critical
Publication of CN104036502B publication Critical patent/CN104036502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种无参考模糊失真立体图像质量评价方法,其在训练阶段,选择多幅无失真立体图像和对应的模糊失真立体图像构成训练图像集,然后采用Fast‑ICA方法进行字典训练操作,构造训练图像集中的每幅图像的视觉字典表;通过计算每副无失真立体图像和对应的模糊失真立体图像的视觉字典表之间的距离,构造每副失真立体图像的视觉字典表的视觉质量表;在测试阶段,对于任意一副测试立体图像,对测试立体图像的左视点图像和右视点图像进行非重叠的分块处理,然后根据已构造的视觉字典表和视觉质量表,获取测试立体图像的图像质量客观评价预测值;优点是计算复杂度低,且客观评价结果与主观感知的相关性好。

Description

一种无参考模糊失真立体图像质量评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种无参考模糊失真立体图像质量评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左视点图像和右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。
由于影响立体图像质量的因素较多,如左视点和右视点质量失真情况、立体感知情况、观察者视觉疲劳等,因此如何有效地进行无参考质量评价是亟需解决的难点问题。目前的无参考质量评价通常采用机器学习来预测评价模型,计算复杂度较高,并且训练模型需要预知各评价图像的主观评价值,并不适用于实际的应用场合,存在一定的局限性。稀疏表示将信号在已知的函数集上进行分解,力求在变换域上用尽量少的基函数来对原始信号进行逼近,目前的研究主要集中在字典构造和稀疏分解两方面。稀疏表示的一个关键问题就是如何有效地构造字典来表征图像的本质特征。目前已提出的字典构造算法包括:1)有学习过程的字典构造方法:通过机器学习来训练得到字典信息,如支持向量机等;2)无学习过程的字典构造方法:直接利用图像的特征来构造字典,如多尺度Gabor字典、多尺度高斯字典等。因此,如何进行无学习过程的字典构造,如何根据字典来进行无参考的质量估计,都是在无参考质量评价研究中需要重点解决的技术问题。
发明内容
本发明所要解决的技术问题是提供一种无参考模糊失真立体图像质量评价方法,其计算复杂度低,且能够有效地提高客观评价结果与主观感知的相关性。
本发明解决上述技术问题所采用的技术方案为:一种无参考模糊失真立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,其中,
训练阶段包括以下步骤:
①-1、选取N幅原始的无失真立体图像,然后将选取的N幅原始的无失真立体图像和每幅原始的无失真立体图像对应的模糊失真立体图像构成训练图像集,记为{Si,org,Si,dis|1≤i≤N},其中,Si,org表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像,Si,dis表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像对应的模糊失真立体图像;
①-2、对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像进行非重叠的分块处理,然后采用Fast-ICA方法对由每幅模糊失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的左视点图像的视觉字典表,将Si,dis的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数;
对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅模糊失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的右视点图像的视觉字典表,将Si,dis的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中包含的视觉字典的总个数一致;
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅原始的无失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的左视点图像的视觉字典表,将Si,org的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致;
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅原始的无失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的右视点图像的视觉字典表,将Si,org的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致;
①-3、通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表与对应的模糊失真立体图像的左视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表的视觉质量表,将Si,dis的左视点图像的视觉字典表的视觉质量表记为 Q L i = { q L i , k | 1 &le; k &le; K } , q L i , k = 1 1 + 6 &times; ( | | g L , dis i , k - g L , org i , k | | C 1 &times; ( arccos ( < g L , dis i , k , > g L , org i , k | | g L , dis i , k | | &CenterDot; | | g L , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,符号“||||”为求欧氏距离符号,arccos()为取反余弦函数,符号“<>”为求内积符号,C1和C2为控制参数,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;
通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表与对应的模糊失真立体图像的右视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表的视觉质量表,将Si,dis的右视点图像的视觉字典表的视觉质量表记为 Q R i = { q R i , k | 1 &le; k &le; K } , q R i , k = 1 1 + 6 &times; ( | | g R , dis i , k - g R , org i , k | | C 1 &times; ( arccos ( < g R , dis i , k , > g R , org i , k | | g R , dis i , k | | &CenterDot; | | g R , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;
测试阶段包括以下步骤:
②对于任意一副测试立体图像Stest,分别对Stest的左视点图像和右视点图像进行非重叠的分块处理;然后根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表、对应的模糊失真立体图像的左视点图像的视觉字典表及其视觉质量表,计算Stest的左视点图像中的每个子块的客观评价度量值,同样根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表、对应的模糊失真立体图像的右视点图像的视觉字典表及其视觉质量表,计算Stest的右视点图像中的每个子块的客观评价度量值;再根据Stest的左视点图像和右视点图像中的每个子块的客观评价度量值,获取Stest的图像质量客观评价预测值。
所述的步骤①-2中Si,dis的左视点图像的视觉字典表的获取过程为:
a1、将Si,dis的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,di s的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,dis的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
a2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,dis的左视点图像的视觉字典表,记为 其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,dis的右视点图像的视觉字典表的获取过程为:
b1、将Si,dis的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,dis的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,di s的宽,H表示Si,org和Si,dis的高,表示由Si,dis的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
b2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,dis的右视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,org的左视点图像的视觉字典表的获取过程为:
c1、将Si,org的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,org的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
c2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的左视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,org的右视点图像的视觉字典表的获取过程为:
d1、将Si,org的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,org的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
d2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的右视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
所述的步骤①-3中取C1=0.6,C2=0.5。
所述的步骤②的具体过程为:
②-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Ltest和Rtest均划分成个互不重叠的尺寸大小为8×8的子块,然后将由Ltest中的所有子块构成的集合记为将由Rtest中的所有子块构成的集合记为其中,W表示Stest的宽,与Si,org和Si,dis的宽一致,H表示Stest的高,与Si,org和Si,dis的高一致,表示Ltest中的第t个子块中的所有像素点组成的列向量,表示Rtest中的第t个子块中的所有像素点组成的列向量,的维数均为64×1;
②-2、根据{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K;
②-3、计算Ltest中的每个子块的客观评价度量值,将Ltest中的第t个子块的客观评价度量值记为 z L t , z L t = &Sigma; i = 1 N z L t , i &CenterDot; exp ( - &delta; L t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; L t , i / &lambda; ) , z L t , i = &tau; L , dis t , i &CenterDot; ( Q L i ) T , &delta; L t , i = | | &tau; L , dis t , i - &tau; L , org t , i | | , 其中,的转置矩阵,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“||||”为求欧氏距离符号,λ为控制参数;
同样,计算Rtest中的每个子块的客观评价度量值,将Rtest中的第t个子块的客观评价度量值记为 z R t , z R t = &Sigma; i = 1 N z R t , i &CenterDot; exp ( - &delta; R t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; R t , i / &lambda; ) , z R t , i = &tau; R , dis t , i &CenterDot; ( Q R i ) T , &delta; R t , i = | | &tau; R , dis t , i - &tau; R , org t , i | | , 其中,的转置矩阵;
②-4、根据Ltest和Rtest中的每个子块的客观评价度量值,计算Stest的图像质量客观评价预测值,记为Q, Q = w L &times; ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z L t ) + w R ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z R t ) , 其中,wL表示Ltest的客观评价度量值的权值比重,wR表示Rtest的客观评价度量值的权值比重,
w L = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 , w R = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i .
所述的步骤②-3中取λ=300。
与现有技术相比,本发明的优点在于:
1)本发明方法通过无监督学习方式构造视觉字典表和视觉质量表,这样避免了复杂的机器学习训练过程,降低了计算复杂度,并且本发明方法在训练阶段不需要预知各训练图像的主观评价值,因此更加适用于实际的应用场合。
2)本发明方法在测试阶段,只需要通过简单的稀疏系数矩阵计算就能预测得到图像质量客观评价预测值,大大降低了测试过程的计算复杂度,并且预测得到的图像质量客观评价预测值与主观评价值保持了较好的一致性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种无参考模糊失真立体图像质量评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程:在训练阶段,选择多幅原始的无失真立体图像和对应的模糊失真立体图像构成训练图像集,然后采用Fast-ICA方法进行字典训练操作,构造训练图像集中的每幅图像的视觉字典表;通过计算训练图像集中的每副原始的无失真立体图像和对应的模糊失真立体图像的视觉字典表之间的距离,构造每副失真立体图像的视觉字典表对应的视觉质量表;在测试阶段,对于任意一副测试立体图像,首先对测试立体图像的左视点图像和右视点图像进行非重叠的分块处理,然后根据已构造的视觉字典表和视觉质量表,计算得到测试立体图像的图像质量客观评价预测值。
本发明方法的训练阶段包括以下步骤:
①-1、选取N幅原始的无失真立体图像,然后将选取的N幅原始的无失真立体图像和每幅原始的无失真立体图像对应的模糊失真立体图像构成训练图像集,记为{Si,org,Si,dis|1≤i≤N},其中,N≥1,在具体实施时图像的幅数可自行设定,但是,如果N的值越大,则通过训练得到的视觉字典表和视觉质量表的精度也就越高,同时计算复杂度也就越高,因此折衷考虑一般可选取所采用的图像库中的部分模糊失真图像进行处理,Si,org表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像,Si,dis表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像对应的模糊失真立体图像,符号“{}”为集合表示符号。
在此,采用宁波大学立体图像库和LIVE立体图像库中的模糊失真立体图像来构造训练图像集。宁波大学立体图像库中选择由6幅无失真立体图像在不同程度的高斯模糊失真情况下的30幅失真立体图像,LIVE立体图像库中选择由6幅无失真立体图像在不同程度的高斯模糊失真情况下的20幅失真立体图像,这样在本实施例中,N=50。
①-2、对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像进行非重叠的分块处理,然后采用现有的Fast-ICA方法对由每幅模糊失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的左视点图像的视觉字典表,将Si,dis的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,K≥1,K的值可自行设定,但如果K的值过大则会出现过聚类现象,如果K的值过小则会出现欠聚类现象,因此在本实施例中取K=8,符号“{}”为集合表示符号。
在此具体实施例中,Si,dis的左视点图像的视觉字典表的获取过程为:
a1、将Si,dis的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,dis的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,dis的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1。
a2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,dis的左视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像进行非重叠的分块处理;然后采用现有的Fast-ICA方法对由每幅模糊失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的右视点图像的视觉字典表,将Si,dis的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中包含的视觉字典的总个数一致,K≥1。
在此具体实施例中,Si,dis的右视点图像的视觉字典表的获取过程为:
b1、将Si,dis的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,dis的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,dis的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1。
b2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为的右视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像进行非重叠的分块处理;然后采用现有的Fast-ICA方法对由每幅原始的无失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的左视点图像的视觉字典表,将Si,org的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致,K≥1。
在此具体实施例中,Si,org的左视点图像的视觉字典表的获取过程为:
c1、将Si,org的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,org的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1。
c2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的左视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像进行非重叠的分块处理;然后采用现有的Fast-ICA方法对由每幅原始的无失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的右视点图像的视觉字典表,将Si,org的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致,K≥1。
在此具体实施例中,Si,org的右视点图像的视觉字典表的获取过程为:
d1、将Si,org的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Siorg的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1。
d2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的右视点图像的视觉字典表,记为 其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
①-3、通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表与对应的模糊失真立体图像的左视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表的视觉质量表,将Si,dis的左视点图像的视觉字典表的视觉质量表记为 Q L i = { q L i , k | 1 &le; k &le; K } , q L i , k = 1 1 + 6 &times; ( | | g L , dis i , k - g L , org i , k | | C 1 &times; ( arccos ( < g L , dis i , k , > g L , org i , k | | g L , dis i , k | | &CenterDot; | | g L , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,符号“||||”为求欧氏距离符号,arccos()为取反余弦函数,符号“<>”为求内积符号,C1和C2为控制参数,在本实施例中取C1=0.6,C2=0.5,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K,符号“{}”为集合表示符号。
通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表与对应的模糊失真立体图像的右视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表的视觉质量表,将的右视点图像的视觉字典表的视觉质量表记为 Q R i = { q R i , k | 1 &le; k &le; K } , q R i , k = 1 1 + 6 &times; ( | | g R , dis i , k - g R , org i , k | | C 1 &times; ( arccos ( < g R , dis i , k , > g R , org i , k | | g R , dis i , k | | &CenterDot; | | g R , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,C1和C2为控制参数,在本实施例中取C1=0.6,C2=0.5,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K。
本发明方法的测试阶段包括以下步骤:
②对于任意一副测试立体图像Stest,分别对Stest的左视点图像和右视点图像进行非重叠的分块处理;然后根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表、对应的模糊失真立体图像的左视点图像的视觉字典表及其视觉质量表,计算Stest的左视点图像中的每个子块的客观评价度量值,同样根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表、对应的模糊失真立体图像的右视点图像的视觉字典表及其视觉质量表,计算Stest的右视点图像中的每个子块的客观评价度量值;再根据Stest的左视点图像和右视点图像中的每个子块的客观评价度量值,获取Stest的图像质量客观评价预测值。
在此具体实施例中,步骤②的具体过程为:
②-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Ltest和Rtest均划分成个互不重叠的尺寸大小为8×8的子块,然后将由Ltest中的所有子块构成的集合记为将由Rtest中的所有子块构成的集合记为其中,W表示Stest的宽,与Si,org和Si,dis的宽一致,H表示Stest的高,与Si,org和Si,dis的高一致,表示Ltest中的第t个子块中的所有像素点组成的列向量,表示Rtest中的第t个子块中的所有像素点组成的列向量,的维数均为64×1。
②-2、根据{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K。
根据中的每幅原始的无失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K。
根据{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K。
根据{Si,org,S i,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为其中,的逆矩阵,的维数为1×K。
②-3、计算Ltest中的每个子块的客观评价度量值,将Ltest中的第t个子块的客观评价度量值记为 z L t , z L t = &Sigma; i = 1 N z L t , i &CenterDot; exp ( - &delta; L t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; L t , i / &lambda; ) , z L t , i = &tau; L , dis t , i &CenterDot; ( Q L i ) T , &delta; L t , i = | | &tau; L , dis t , i - &tau; L , org t , i | | , 其中,的转置矩阵,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“||||”为求欧氏距离符号,λ为控制参数,在本实施例中取λ=300。
同样,计算Rtest中的每个子块的客观评价度量值,将Rtest中的第t个子块的客观评价度量值记为 z R t , z R t = &Sigma; i = 1 N z R t , i &CenterDot; exp ( - &delta; R t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; R t , i / &lambda; ) , z R t , i = &tau; R , dis t , i &CenterDot; ( Q R i ) T , &delta; R t , i = | | &tau; R , dis t , i - &tau; R , org t , i | | , 其中,的转置矩阵。
②-4、根据Ltest和Rtest中的每个子块的客观评价度量值,计算Stest的图像质量客观评价预测值,记为Q, Q = w L &times; ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z L t ) + w R ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z R t ) , 其中,wL表示Ltest的客观评价度量值的权值比重,wR表示Rtest的客观评价度量值的权值比重,
w L = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 , w R = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i .
在此,采用宁波大学立体图像库和LIVE立体图像库来分析利用本发明方法得到的模糊失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。这里,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SRCC)、Kendall相关系数(Kendallrank-order correlation coefficient,KRCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映失真立体图像的客观评价结果的准确性,SRCC和KRCC反映其单调性。
利用本发明方法计算宁波大学立体图像库中的每幅模糊失真立体图像的图像质量客观评价预测值和LIVE立体图像库中的每幅模糊失真立体图像的图像质量客观评价预测值,再利用现有的主观评价方法获得宁波大学立体图像库中的每幅模糊失真立体图像的平均主观评分差值和LIVE立体图像库中的每幅模糊失真立体图像的平均主观评分差值。将按本发明方法计算得到的模糊失真立体图像的图像质量客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SRCC和KRCC值越高,RMSE值越低说明客观评价方法与平均主观评分差值相关性越好。反映本发明方法的质量评价性能的PLCC、SRCC、KRCC和RMSE相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的模糊失真立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
表1 利用本发明方法计算得到的模糊失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性

Claims (5)

1.一种无参考模糊失真立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,其中,
训练阶段包括以下步骤:
①-1、选取N幅原始的无失真立体图像,然后将选取的N幅原始的无失真立体图像和每幅原始的无失真立体图像对应的模糊失真立体图像构成训练图像集,记为{Si,org,Si,dis|1≤i≤N},其中,Si,org表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像,Si,dis表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像对应的模糊失真立体图像;
①-2、对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像进行非重叠的分块处理,然后采用Fast-ICA方法对由每幅模糊失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的左视点图像的视觉字典表,将Si,dis的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数;
对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅模糊失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的右视点图像的视觉字典表,将Si,dis的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中包含的视觉字典的总个数一致;
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅原始的无失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的左视点图像的视觉字典表,将Si,org的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致;
对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast-ICA方法对由每幅原始的无失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的右视点图像的视觉字典表,将Si,org的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与 中各自包含的视觉字典的总个数一致;
①-3、通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表与对应的模糊失真立体图像的左视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表的视觉质量表,将Si,dis的左视点图像的视觉字典表的视觉质量表记为 Q L i = { q L i , k | 1 &le; k &le; K } , q L i , k = 1 1 + 6 &times; ( | | g L , dis i , k - g L , org i , k | | C 1 &times; ( arccos ( < g L , dis i , k , > g L , org i , k | | g L , dis i , k | | &CenterDot; | | g L , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,符号“||||”为求欧氏距离符号,arccos()为取反余弦函数,符号“<>”为求内积符号,C1和C2为控制参数,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;
通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表与对应的模糊失真立体图像的右视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表的视觉质量表,将Si,dis的右视点图像的视觉字典表的视觉质量表记为 Q R i = { q R i , k | 1 &le; k &le; K } , q R i , k = 1 1 + 6 &times; ( | | g R , dis i , k - g R , org i , k | | C 1 &times; ( arccos ( < g R , dis i , k , > g R , org i , k | | g R , dis i , k | | &CenterDot; | | g R , org i , k | | ) ) C 2 ) - 2 , 其中,表示中的第k个视觉字典的视觉质量,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;
测试阶段包括以下步骤:
②对于任意一副测试立体图像Stest,分别对Stest的左视点图像和右视点图像进行非重叠的分块处理;然后根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表、对应的模糊失真立体图像的左视点图像的视觉字典表及其视觉质量表,计算Stest的左视点图像中的每个子块的客观评价度量值,同样根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表、对应的模糊失真立体图像的右视点图像的视觉字典表及其视觉质量表,计算Stest的右视点图像中的每个子块的客观评价度量值;再根据Stest的左视点图像和右视点图像中的每个子块的客观评价度量值,获取Stest的图像质量客观评价预测值。
2.根据权利要求1所述的一种无参考模糊失真立体图像质量评价方法,其特征在于所述的步骤①-2中Si,dis的左视点图像的视觉字典表的获取过程为:
a1、将Si,dis的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,dis的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,dis的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
a2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,dis的左视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,d i s的右视点图像的视觉字典表的获取过程为:
b1、将Si,dis的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,dis的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,dis的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
b2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,dis的右视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,org的左视点图像的视觉字典表的获取过程为:
c1、将Si,org的左视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,org的左视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的左视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
c2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的左视点图像的视觉字典表,记为其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数;
所述的步骤①-2中Si,org的右视点图像的视觉字典表的获取过程为:
d1、将Si,org的右视点图像划分成个互不重叠的尺寸大小为8×8的子块,将由Si,org的右视点图像中的所有子块构成的集合记为其中,W表示Si,org和Si,dis的宽,H表示Si,org和Si,dis的高,表示由Si,org的右视点图像中的第t个子块中的所有像素点组成的列向量,的维数为64×1;
d2、采用Fast-ICA方法对进行字典训练操作,将得到的目标训练字典作为Si,org的右视点图像的视觉字典表,记为 其中,表示中的第k个视觉字典,的维数为64×1,的维数为64×K,K表示中包含的视觉字典的总个数。
3.根据权利要求1或2所述的一种无参考模糊失真立体图像质量评价方法,其特征在于所述的步骤①-3中取C1=0.6,C2=0.5。
4.根据权利要求3所述的一种无参考模糊失真立体图像质量评价方法,其特征在于所述的步骤②的具体过程为:
②-1、将Stest的左视点图像记为Ltest,将Stest的右视点图像记为Rtest,将Ltest和Rtest均划分成个互不重叠的尺寸大小为8×8的子块,然后将由Ltest中的所有子块构成的集合记为将由Rtest中的所有子块构成的集合记为其中,W表示Stest的宽,与Si,org和Si,dis的宽一致,H表示Stest的高,与Siorg和Si,dis的高一致,表示Ltest中的第t个子块中的所有像素点组成的列向量,表示Rtest中的第t个子块中的所有像素点组成的列向量,的维数均为64×1;
②-2、根据中的每幅模糊失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为 其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为 其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为 其中,的逆矩阵,的维数为1×K;
根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表,获取中的每个列向量的一个稀疏系数矩阵,对于中的第t个列向量共获得N个稀疏系数矩阵,将根据计算得到的的稀疏系数矩阵记为 其中,的逆矩阵,的维数为1×K;
②-3、计算Ltest中的每个子块的客观评价度量值,将Ltest中的第t个子块的客观评价度量值记为 z L t , z L t = &Sigma; i = 1 N z L t , i &CenterDot; exp ( - &delta; L t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; L t , i / &lambda; ) , z L t , i = &tau; L , dis t , i &CenterDot; ( Q L i ) T , &delta; L t , i = | | &tau; L , dis t , i - &tau; L , org t , i | | , 其中,的转置矩阵,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“||||”为求欧氏距离符号,λ为控制参数;
同样,计算Rtest中的每个子块的客观评价度量值,将Rtest中的第t个子块的客观评价度量值记为 z R t , z R t = &Sigma; i = 1 N z R t , i &CenterDot; exp ( - &delta; R t , i / &lambda; ) &Sigma; i = 1 N exp ( - &delta; R t , i / &lambda; ) , z R t , i = &tau; R , dis t , i &CenterDot; ( Q R i ) T , &delta; R t , i = | | &tau; R , dis t , i - &tau; R , org t , i | | , 其中,的转置矩阵;
②-4、根据Ltest和Rtest中的每个子块的客观评价度量值,计算Stest的图像质量客观评价预测值,记为Q, Q = w L &times; ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z L t ) + w R ( 8 &times; 8 W &times; H &times; &Sigma; t = 1 W &times; H 8 &times; 8 z R t ) , 其中,wL表示Ltest的客观评价度量值的权值比重,wR表示Rtest的客观评价度量值的权值比重,
w L = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 , w R = &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; L t , i + &Sigma; i = 1 N &Sigma; t = 1 W &times; H 8 &times; 8 &delta; R t , i .
5.根据权利要求4所述的一种无参考模糊失真立体图像质量评价方法,其特征在于所述的步骤②-3中取λ=300。
CN201410245174.4A 2014-06-03 2014-06-03 一种无参考模糊失真立体图像质量评价方法 Active CN104036502B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410245174.4A CN104036502B (zh) 2014-06-03 2014-06-03 一种无参考模糊失真立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410245174.4A CN104036502B (zh) 2014-06-03 2014-06-03 一种无参考模糊失真立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN104036502A CN104036502A (zh) 2014-09-10
CN104036502B true CN104036502B (zh) 2016-08-24

Family

ID=51467261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410245174.4A Active CN104036502B (zh) 2014-06-03 2014-06-03 一种无参考模糊失真立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN104036502B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268590B (zh) * 2014-09-17 2017-08-11 电子科技大学 基于互补性组合特征与多相回归的盲图像质量评价方法
CN104820988B (zh) * 2015-05-06 2017-12-15 宁波大学 一种无参考立体图像质量客观评价方法
CN105243385B (zh) * 2015-09-23 2018-11-09 宁波大学 一种基于非监督学习的图像质量评价方法
CN105472393B (zh) * 2015-11-24 2018-04-17 宁波大学 一种基于联合字典的彩色与深度图像后处理方法
CN105976361B (zh) * 2016-04-28 2019-03-26 西安电子科技大学 基于多级字典集的无参考图像质量评价方法
CN106023267A (zh) * 2016-05-23 2016-10-12 郑州轻工业学院 稀疏性相关度图像质量评价方法
CN106791801A (zh) * 2016-11-22 2017-05-31 深圳大学 一种三维图像的质量评价方法及系统
CN107040775B (zh) * 2017-03-20 2019-01-15 宁波大学 一种基于局部特征的色调映射图像质量客观评价方法
CN109409380B (zh) * 2018-08-27 2021-01-12 浙江科技学院 一种基于双学习网络的立体图像视觉显著提取方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08195888A (ja) * 1995-01-13 1996-07-30 Nec Corp 画質評価装置
CN102708568A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于结构失真的立体图像客观质量评价方法
CN102999912A (zh) * 2012-11-27 2013-03-27 宁波大学 一种基于失真图的立体图像质量客观评价方法
CN103200421A (zh) * 2013-04-07 2013-07-10 北京理工大学 一种基于Curvelet变换和相位一致的无参考图像质量评价方法
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08195888A (ja) * 1995-01-13 1996-07-30 Nec Corp 画質評価装置
CN102708568A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于结构失真的立体图像客观质量评价方法
CN102999912A (zh) * 2012-11-27 2013-03-27 宁波大学 一种基于失真图的立体图像质量客观评价方法
CN103200421A (zh) * 2013-04-07 2013-07-10 北京理工大学 一种基于Curvelet变换和相位一致的无参考图像质量评价方法
CN103347196A (zh) * 2013-06-27 2013-10-09 宁波大学 一种基于机器学习的立体图像视觉舒适度评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于BEMD的无参考模糊失真;王珊珊 等;《光电工程》;20130930;第40卷(第9期);第28-34页 *

Also Published As

Publication number Publication date
CN104036502A (zh) 2014-09-10

Similar Documents

Publication Publication Date Title
CN104036502B (zh) 一种无参考模糊失真立体图像质量评价方法
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN104581143B (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN109360178B (zh) 基于融合图像的无参考立体图像质量评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN102209257B (zh) 一种立体图像质量客观评价方法
CN104658001B (zh) 一种无参考非对称失真立体图像客观质量评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
Wang et al. Novel spatio-temporal structural information based video quality metric
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
Shen et al. No-reference stereoscopic image quality assessment based on global and local content characteristics
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN102547368B (zh) 一种立体图像质量客观评价方法
CN103780895B (zh) 一种立体视频质量评价方法
CN103517065B (zh) 一种质降参考立体图像质量客观评价方法
CN105574901B (zh) 一种基于局部对比度模式的通用无参考图像质量评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN115063492B (zh) 一种抵抗jpeg压缩的对抗样本的生成方法
CN109859166A (zh) 一种基于多列卷积神经网络的无参3d图像质量评估方法
CN103914835B (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN104902268A (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
Jiang et al. Stereoscopic image quality assessment by learning non-negative matrix factorization-based color visual characteristics and considering binocular interactions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191217

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211112

Address after: 276800 Room 302, floor 3, plant A6, electronic information industrial park, Gaoxin seventh Road, high tech Zone, Rizhao City, Shandong Province

Patentee after: Chuangkebang (Shandong) Technology Service Co., Ltd

Address before: 313000 room 1020, first floor, Nanxun science and technology entrepreneurship Park, No. 666, Chaoyang Road, Nanxun Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee before: Huzhou Youyan Intellectual Property Service Co., Ltd