CN104240255A - 基于非线性眼优势视差补偿的立体图像质量评价方法 - Google Patents
基于非线性眼优势视差补偿的立体图像质量评价方法 Download PDFInfo
- Publication number
- CN104240255A CN104240255A CN201410491116.XA CN201410491116A CN104240255A CN 104240255 A CN104240255 A CN 104240255A CN 201410491116 A CN201410491116 A CN 201410491116A CN 104240255 A CN104240255 A CN 104240255A
- Authority
- CN
- China
- Prior art keywords
- image
- quality evaluation
- image quality
- compensation
- evaluation method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于非线性眼优势视差补偿的立体图像质量评价方法,步骤:第一步、利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);第二步、基于眼优势模型,给予Q(L),Q(R)不同的权重,得到第三步、计算左右眼2D图像质量之间的非线性补偿,得到FN;第四步、计算基于显著性的视差程度补偿量,得到FSP;第五步、将加权后的图像质量与基于显著性的视差程度补偿量FSP相加,并减去非线性补偿FN,得到最终的3D无参考质量评价分数。本发明具有优越的预测精度,而且兼具计算复杂度低的特点。
Description
技术领域
本发明涉及立体图像质量评价领域,具体地,涉及一种基于非线性补充模型、眼优势模型、视差补偿模型的无参考立体图像质量评价方法。
背景技术
3D成像是一个广泛的研究领域,从娱乐(包括视频和游戏)到专业应用(教育,医疗等)。与此同时,3D领域也涉及到越来越多的图像处理技术,对于高效评估3D图像质量的需求也愈加显现。尽管近年来在2D图像,视频的质量评价方面已经取得了相当大的成果,在3D图像质量评价上的进展仍是屈指可数,这主要是因为人眼对3D图像和2D图像的视觉感知有着很大不同。现有的3D质量评价方法可分为全参考,半参考和无参考三种。全参考要求全部的原始立体图像信息,这在实际应用中很难满足。因此,无参考的3D质量评价有着更大的应用前景与实际意义,但与此同时也面临着更多的困难。
为此,Akhter等人2010年在《Proceedings of Proc.SPIE》上发表了“No-referencestereoscopic image quality assessment”,提出了一种无参考的3D质量评价方法,它不仅结合了传统的失真类型(块效应),而且将视差图(Disparity map)考虑在内。这种方法符合人眼对3D图像的视觉感知。但是它十分依赖于对视差图的估计,而目前对于视差图缺乏深入的理解,准确地计算视差图也是非常困难的。因此此方法效果一般。
发明内容
针对现有技术中的缺陷,本发明的目的是本发明提出一种基于非线性补充模型、眼优势模型、和以显著性为基础的视差补偿的无参考立体图像质量评价方法,有效地提高了3D质量评价的准确度。
为实现以上目的,本发明提供一种基于非线性眼优势视差补偿的立体图像质量评价方法NOSPDM,包括以下步骤:
第一步、利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);
第二步、基于眼优势模型,给予Q(L),Q(R)不同的权重,得到
第三步、计算左右眼2D图像质量之间的非线性补偿,得到FN;
第四步、计算基于显著性的视差程度补偿量,得到FSP;
第五步、将加权后的图像质量与基于显著性的视差程度补偿量FSP相加,并减去非线性补偿FN,得到最终的3D无参考质量评价分数NOSPDM。
本发明的原理是:尽管人眼对2D,3D图像的视觉感知有所不同,但2D,3D图像的质量仍有着紧密的联系。本发明首先利用眼优势模型,给予右眼图像质量更大的权重。其次,本发明利用非线性模型补偿左右眼图像质量整合中的重叠效应,从而建立起了2D,3D图像质量之间的联系。与此同时,由于图像内容与3D质量也有关系。本发明计算出了以显著性为基础的视差偏移量,以补偿图像内容对3D图像质量的影响。最后,本发明将2D图像质量,眼优势模型,非线性补充模型,以及视差偏移量结合起来,通过线性组合得到了新的D无参考的质量评价分数。
与现有技术相比,本发明具有如下的有益效果:
本发明首先利用眼优势模型给予右眼图像质量更大的权重。其次,本发明利用非线性模型来补偿左右眼图像质量整合中的重叠效应。此外,3D图像质量与不同的图像内容相关。因此,本发明计算出了左右眼图像的视差偏移程度以消除图像内容的影响。在计算视差偏移程度时,本发明引入了视觉注意力模型(显著性模型)以改进方法。实验结果证实本发明所述的基于非线性眼优势视差补偿的立体图像质量评价方法NOSPDM具有优越的预测精度,而且兼具计算复杂度低的特点。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明实施例总体流程图;
图2是仅利用2D图像质量评价分数得到的3D质量分数(NOSPDM1),在Toyama图像质量数据库上与主观评价值MOS的对比图;
图3是仅利用2D图像质量评价分数和眼优势权重模型得到的3D质量分数(NOSPDM2),在Toyama图像质量数据库上与主观评价值MOS的对比图;
图4是仅利用2D图像质量评价分数,眼优势权重和非线性补充模型得到的3D质量分数(NOSPDM4),在Toyama图像质量数据库上与主观评价值MOS对比图;
图5是利用2D图像质量评价分数,眼优势模型,非线性补充模型,视差补偿模型得到的最终3D质量分数(NOSPDM12),在Toyama图像质量数据库上与主观评价值MOS对比图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
实施例
本实施例提供一种基于非线性眼优势视差补偿的立体图像质量评价方法,整个过程的综合流程如图1所示,包括以下步骤:
第一步,分别计算左右眼2D图像质量分数,得到Q(L),Q(R);方法如下:
i)分别利用下述公式计算左右眼图像L,R水平方向上的块效应Dh,水平方向上的模糊效应Ah,Zh:
其中:M,N分别指图像的高度和宽度,B指块的大小,dh、zh分别指图像特征的计算函数;i,j分别指图像的第i行和第j列;Bj指的是第j个图像块;
ii)根据同样的方法,计算出左右眼图像L,R垂直方向上的块效应Dv,垂直方向上的模糊效应Av,Zv。计算水平和垂直特征的平均值即可得到全部特征:
Dh,Ah,Zh是垂直方向上的特征,Zv,Dv,Av是水平方向上的特征。
iii)最后,所有特征通过一个全局非线性方程进行拟合,得到左右眼2D图像的质量分数:
其中:α、β、γ1、γ2和γ3是模型参数,在图像数据库上训练得到,在一实施例中,可以取值:α=-245.8909;β=261.9373;γ1=-239.8886;γ2=160.1664;γ3=64.2859。
第二步,计算眼优势权重模型方法如下:
其中:μR代表右眼图像权重,此处令μR=1.04。
第三步,计算非线性补偿FN,方法如下:
FN=λ·max{Q(L),Q(R)}
其中λ为权重系数,此处令λ=0.67。
第四步,计算基于显著性的视差补偿FSP,方法如下:
其中:S代表图像的显著性区域,ωS为模型参数,通过训练得到,比如本实施例中ωS取值为0.62;
第五步,将左右眼图像的2D质量分数,眼优势模型,非线性模型与视差补偿进行线性组合,得到最终的3D无参考图像质量分数NOSPDM。具体方法如下:
其中:由第二步获得,FN由第三步获得,FSP由第四步获得。
实施效果
依据上述步骤,本发明对Toyama3D数据库的所有3D图像进行了无参考质量评价,并利用视频质量专家组(VQEG)推荐的指标与[1]方法进行了比较,指标包括:PearsonLinear Correlation Coefficient(PLCC)、Spearman Rank-order Correlation Coefficient(SRCC)、Kendall’s Rank-order Correlation Coefficient(KRCC)、Average Absolute Error(AAE)以及Root Mean-Squared Error(RMSE)。比较结果见表1,可以发现本发明的NOSPDM12准确性优于[1]方法。NOSPDM1,NOSPDM2,NOSPDM4,NOSPDM12在Toyama3D图像质量数据库上与主观评价值MOS的对比图分别如图2、图3、图4、图5所示。
表1
方法 | PLCC | SRCC | KRCC | AAE | RMSE |
[1](testing) | 0.9350 | — | — | 0.3500 | 0.4210 |
[1](training) | 0.9600 | — | — | 0.2920 | 0.3670 |
NOSPDM1 | 0.8934 | 0.8897 | 0.7066 | 0.4136 | 0.5234 |
NOSPDM2 | 0.8943 | 0.8912 | 0.7097 | 0.4120 | 0.5212 |
NOSPDM4 | 0.9360 | 0.9325 | 0.7699 | 0.3269 | 0.4100 |
NOSPDM12 | 0.9711 | 0.9660 | 0.8442 | 0.2114 | 0.2782 |
表1中所述的图像质量评价方法具体是指:
[1]:Z.M.P.Sazzad等人在2012年《Advances in Multimedia》发表的“Objectiveno-reference stereoscopic image quality prediction based on 2d image features and relativedisparity”
NOSPDM1:NOSPDM1=Q(L)+Q(R)
NOSPDM2:
NOSPDM4:其中FN=λ·max{Q(L),Q(R)}
NOSPDM12: 其中
本发明基于非线性补偿模型,眼优势模型,以及以显著性为基础的视差补偿模型。由于右眼图像的响应对于立体图像质量有更高的冲击,本发明首先利用眼优势模型给予右眼图像质量更大的权重;其次,本发明利用非线性模型补偿左右眼图像质量整合中的重叠效应。此外,3D图像质量与不同的图像内容相关。因此,本发明计算出了左右眼图像的视差偏移程度以消除图像内容的影响。值得注意的是,在计算视差偏移程度时,本发明引入了视觉注意力模型(显著性模型)以改进方法。实验结果证实了NOSPDM具有优越的预测精度,而且兼具计算复杂度低的特点。实验结果证实本发明所述的基于非线性眼优势视差补偿的立体图像质量评价方法NOSPDM具有优越的预测精度,而且兼具计算复杂度低的特点。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (5)
1.一种基于非线性眼优势视差补偿的立体图像质量评价方法,其特征在于,包括以下步骤:
第一步、利用2D无参考质量评价方法计算出左眼右眼图像的质量分数,得到Q(L),Q(R);
第二步、基于眼优势模型,给予Q(L),Q(R)不同的权重,得到
第三步、计算左右眼2D图像质量之间的非线性补偿,得到FN;
第四步、计算基于显著性的视差程度补偿量,得到FSP;
第五步、将加权后的图像质量与基于显著性的视差程度补偿量FSP相加,并减去非线性补偿FN,得到最终的3D无参考质量评价分数。
2.根据权利要求1所述的一种基于非线性眼优势视差补偿的立体图像质量评价方法,其特征在于,第一步中,所述的左右眼图像质量分数的计算方法:
i)分别利用下述公式计算左右眼图像L,R水平方向上的块效应Dh,水平方向上的模糊效应Ah,Zh:
其中:M,N分别指图像的高度和宽度,B指块的大小,dh、zh分别指图像特征的计算函数;i,j分别指图像的第i行和第j列;Bj指的是第j个图像块;
ii)根据同样的方法,计算出左右眼图像L,R垂直方向上的块效应Dv,垂直方向上的模糊效应Av,Zv,计算水平和垂直特征的平均值即得到全部特征:
Dh,Ah,Zh是垂直方向上的特征,Zv,Dv,Av是水平方向上的特征;
iii)最后,所有特征通过一个全局非线性方程进行拟合,得到左右眼2D图像的质量分数:
其中:α、β、γ1、γ2和γ3是模型参数,在图像数据库上训练得到。
3.根据权利要求1所述的一种基于非线性眼优势视差补偿的立体图像质量评价方法,其特征在于,第二步中,所述的眼优势权重模型
其中μR代表右眼图像权重。
4.根据权利要求1所述的一种基于非线性眼优势视差补偿的立体图像质量评价方法,其特征在于,第三步中,所述的非线性补偿FN:
FN=λ·max{Q(L),Q(R)};
其中λ为权重系数。
5.根据权利要求1-4任一项所述的一种基于非线性眼优势视差补偿的立体图像质量评价方法,其特征在于,第四步中,所述的基于显著性的视差补偿FSP:
其中:S代表图像的显著性区域,ωS为模型参数,通过训练得到;
L指左视图,R指右视图,S指视觉注意力区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410491116.XA CN104240255A (zh) | 2014-09-23 | 2014-09-23 | 基于非线性眼优势视差补偿的立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410491116.XA CN104240255A (zh) | 2014-09-23 | 2014-09-23 | 基于非线性眼优势视差补偿的立体图像质量评价方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104240255A true CN104240255A (zh) | 2014-12-24 |
Family
ID=52228261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410491116.XA Pending CN104240255A (zh) | 2014-09-23 | 2014-09-23 | 基于非线性眼优势视差补偿的立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104240255A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108269253A (zh) * | 2018-01-11 | 2018-07-10 | 天津大学 | 基于小波变换和局部结构特征的立体图像质量评价方法 |
CN110610476A (zh) * | 2019-07-07 | 2019-12-24 | 南京美基森信息技术有限公司 | 一种视差图质量评估方法 |
CN112233089A (zh) * | 2020-10-14 | 2021-01-15 | 西安交通大学 | 一种无参考立体混合失真图像质量评价方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914835A (zh) * | 2014-03-20 | 2014-07-09 | 宁波大学 | 一种针对模糊失真立体图像的无参考质量评价方法 |
CN103927734A (zh) * | 2013-01-11 | 2014-07-16 | 华中科技大学 | 一种基于无参考的模糊图像质量评价方法 |
CN103945218A (zh) * | 2014-04-25 | 2014-07-23 | 厦门大学 | 一种基于双眼视觉融合的立体图像质量评测方法 |
CN103996192A (zh) * | 2014-05-12 | 2014-08-20 | 同济大学 | 基于高质量自然图像统计量模型的无参考图像质量评价方法 |
-
2014
- 2014-09-23 CN CN201410491116.XA patent/CN104240255A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927734A (zh) * | 2013-01-11 | 2014-07-16 | 华中科技大学 | 一种基于无参考的模糊图像质量评价方法 |
CN103914835A (zh) * | 2014-03-20 | 2014-07-09 | 宁波大学 | 一种针对模糊失真立体图像的无参考质量评价方法 |
CN103945218A (zh) * | 2014-04-25 | 2014-07-23 | 厦门大学 | 一种基于双眼视觉融合的立体图像质量评测方法 |
CN103996192A (zh) * | 2014-05-12 | 2014-08-20 | 同济大学 | 基于高质量自然图像统计量模型的无参考图像质量评价方法 |
Non-Patent Citations (1)
Title |
---|
KE GU ET AL: "No-Reference Stereoscopic IQA Approach:From Nonlinear Effect to Parallax Compensation", 《JOURNAL OF ELECTRICAL AND COMPUTER ENGINEERING》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108269253A (zh) * | 2018-01-11 | 2018-07-10 | 天津大学 | 基于小波变换和局部结构特征的立体图像质量评价方法 |
CN110610476A (zh) * | 2019-07-07 | 2019-12-24 | 南京美基森信息技术有限公司 | 一种视差图质量评估方法 |
CN112233089A (zh) * | 2020-10-14 | 2021-01-15 | 西安交通大学 | 一种无参考立体混合失真图像质量评价方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103581661B (zh) | 一种立体图像视觉舒适度评价方法 | |
CN102750695B (zh) | 一种基于机器学习的立体图像质量客观评价方法 | |
CN103347196B (zh) | 一种基于机器学习的立体图像视觉舒适度评价方法 | |
CN106462771A (zh) | 一种3d图像的显著性检测方法 | |
CN104394403B (zh) | 一种面向压缩失真的立体视频质量客观评价方法 | |
CN106952222A (zh) | 一种交互式图像虚化方法及装置 | |
CN107396095B (zh) | 一种无参考三维图像质量评价方法 | |
CN110033446A (zh) | 基于孪生网络的增强图像质量评价方法 | |
CN103049893B (zh) | 一种图像融合质量评价的方法及装置 | |
CN102663747B (zh) | 一种基于视觉感知的立体图像客观质量评价方法 | |
CN101976444B (zh) | 一种基于像素类型的结构类似性图像质量客观评价方法 | |
CN104036501A (zh) | 一种基于稀疏表示的立体图像质量客观评价方法 | |
CN103426173B (zh) | 一种立体图像质量的客观评价方法 | |
CN102436671B (zh) | 一种基于深度值非线性变换的虚拟视点绘制方法 | |
CN104811693B (zh) | 一种立体图像视觉舒适度客观评价方法 | |
CN102982535A (zh) | 基于psnr和ssim的立体图像质量评价方法 | |
CN103136748B (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
CN105407349A (zh) | 基于双目视觉感知的无参考立体图像质量客观评价方法 | |
CN107784651A (zh) | 一种基于模糊检测加权的模糊图像质量评价方法 | |
CN101833766A (zh) | 基于gssim的立体图像客观质量评价算法 | |
CN104036502A (zh) | 一种无参考模糊失真立体图像质量评价方法 | |
CN112004078B (zh) | 基于生成对抗网络的虚拟现实视频质量评价方法及系统 | |
CN106875443A (zh) | 基于灰度约束的三维数字散斑的整像素搜索方法及装置 | |
CN105654465A (zh) | 一种采用视差补偿视点间滤波的立体图像质量评价方法 | |
CN104240255A (zh) | 基于非线性眼优势视差补偿的立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141224 |
|
RJ01 | Rejection of invention patent application after publication |