CN112233089B - 一种无参考立体混合失真图像质量评价方法 - Google Patents

一种无参考立体混合失真图像质量评价方法 Download PDF

Info

Publication number
CN112233089B
CN112233089B CN202011097823.2A CN202011097823A CN112233089B CN 112233089 B CN112233089 B CN 112233089B CN 202011097823 A CN202011097823 A CN 202011097823A CN 112233089 B CN112233089 B CN 112233089B
Authority
CN
China
Prior art keywords
quality
image
distortion
stereo
right eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011097823.2A
Other languages
English (en)
Other versions
CN112233089A (zh
Inventor
张译
禹冬晔
牟轩沁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202011097823.2A priority Critical patent/CN112233089B/zh
Publication of CN112233089A publication Critical patent/CN112233089A/zh
Application granted granted Critical
Publication of CN112233089B publication Critical patent/CN112233089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种无参考立体混合失真图像质量评价方法,本发明能够分析左、右眼视图的失真信息,自适应构建符合人眼立体视觉特性的双目融合图像,同时通过预测左、右眼视图和融合图像的失真参数,实现立体混合失真图像质量的无参考评价。本发明可以在不依赖现有图像数据库的MOS/DMOS值的情况下训练图像质量评价模型,在多个立体图像数据库上的测试表明,本发明与其他无参考立体图像质量评价方法相比,具有更高的准确性。

Description

一种无参考立体混合失真图像质量评价方法
技术领域
本发明属于图像质量评价领域,具体涉及一种无参考立体混合失真图像质量评价方法。
背景技术
近年来,虚拟现实技术的迅速发展为各种立体视觉应用的普及提供重要基础。这些立体视觉内容在最终呈现给消费者之前通常要经过多个处理阶段(例如图像的采集、压缩、传输、接收、显示等),每个阶段都会产生不同类型的失真,从而影响人们的立体视觉体验。降低甚至彻底杜绝图像质量退化是图像消费者和使用者的共同愿望。因此,设计符合测试者主观感受的立体图像质量评价算法成为计算机视觉领域的重要研究课题。然而,目前多数算法都只针对单类型失真(即图像只包含一种失真类型),且模型训练过程需要现有立体图像数据库中测试者主观评价数据(即MOS或DMOS值)的配合,故算法的应用范围受到限制。由于在现实生活中立体图像质量更易受到多种失真因素的影响,因此设计不依赖现有图像数据库信息的完全无参考立体混合失真图像质量评价模型,具有广阔的应用前景和实用价值。
发明内容
本发明的目的在于克服上述不足,提供一种无参考立体混合失真图像质量评价方法,该方法通过分析左右眼视图的失真信息,自适应构建符合人眼立体视觉特性的双目融合图像,同时通过预测左右眼视图以及双目融合图像的失真参数,实现对立体混合失真图像质量进行无参考评价。
为了达到上述目的,本发明包括以下步骤:
步骤一,识别立体图像的左、右眼视图的失真类型,计算失真类型的失真参数,获得左、右眼视图的质量评分;
步骤二,构建符合人眼立体视觉特性的双目融合图像,并得出双目融合图像的质量评分;
步骤三,将步骤一得到的左、右眼视图的质量评分与步骤二得到的双目融合图像的质量评分相结合,得出立体图像质量的最终评分。
步骤一的具体方法如下:
第一步,采用双层分类模型,通过特征提取,区分所有失真类型的所有组合形式;
第二步,采用回归模型计算所有失真类型对应的失真参数;
第三步,拟合失真参数与图像质量的关系,利用混合失真联合降质效应,得到左、右眼视图的质量评分。
训练双层分类模型时,通过对原始图像添加失真类型生成失真图像数据库,并从失真图像中提取特征作为训练数据,使用支持向量机(SVM)进行训练;每个分类模型都有两个的输出,即分类标签和分类概率,分类标签和分类概率与相应的回归模型结合,采用概率加权求和的方法计算失真参数值。
步骤二的具体方法如下:
第一步,采用C-BM3D算法对左、右眼视图进行降噪处理;
第二步,利用光流算法计算得到视差图;
第三步,采用基于质量补偿的多通道对比度增益控制模型(quality-compensatedmultipathway contrast gain-control model,QC-MCM),构建双目融合图像;
第四步,识别双目融合图像的左、右眼视图的失真类型,计算失真类型的失真参数,得出双目融合图像的质量评分。
在构建双目融合图像的过程中,质量差的视图通过被赋予大权重进行补偿;当低质量视图不含噪声且估计的JPEG压缩参数小于某一阈值QT时,对质量较好的视图进行JPEG压缩,新压缩的图像将作为计算双目融合图像的输入。
步骤三的具体方法如下:
将步骤一得出的左、右眼视图质量评分进行对比度加权,得出两视图的组合质量,将两视图的组合质量与步骤二得出的双目融合图像质量评分的乘积的开方,得到立体图像的最终质量评分。
与现有技术相比,本发明能够分析左、右眼视图的失真信息,自适应构建符合人眼立体视觉特性的双目融合图像,同时通过预测左、右眼视图和融合图像的失真参数,实现立体混合失真图像质量的无参考评价。本发明可以在不依赖现有图像数据库的MOS/DMOS值的情况下训练图像质量评价模型,在多个立体图像数据库上的测试表明,本发明与其他无参考立体图像质量评价方法相比,具有更高的准确性。
附图说明
图1为本发明的方法框架图;
图2为本发明用于识别失真类型的双层分类模型框架图;
图3为本发明用于计算每种失真类型的失真参数的双层回归模型框架图;
图4为本发明的四个失真参数值与VIF质量分数的多项式拟合散点图;其中,(a)为高斯模糊参数σG与VIF质量分数的散点图,(b)为高斯噪声参数
Figure BDA0002724327880000031
与VIF质量分数的散点图,(c)为JPEG压缩参数Q与VIF质量分数的散点图,(d)为JPEG2000压缩参数
Figure BDA0002724327880000032
与VIF质量分数的散点图;
图5为本发明的算法在不同立体图像数据库上的测试结果;其中,(a)为NBU-MDSIDPhase I数据库的测试结果,(b)为NBU-MDSID Phase II数据库的测试结果,(c)为LIVEPhase I数据库的测试结果,(d)为LIVE Phase II数据库的测试结果,(e)为Waterloo IVCPhase I数据库的测试结果,(f)为Waterloo IVC Phase II数据库的测试结果,(g)为NBU数据库的测试结果,(h)为IRCCy/IVC数据库的测试结果。
具体实施方式
下面结合附图对本发明做进一步说明。
本发明包括以下步骤:
步骤一,识别立体图像的左、右眼视图的失真类型,计算失真类型的失真参数,获得左、右眼视图的质量评分;
步骤二,构建符合人眼立体视觉特性的双目融合图像,并计算双目融合图像的质量评分;
步骤三,将步骤一得到的左、右眼视图的质量评分与步骤二得到的双目融合图像的质量评分相结合,得出立体图像质量的最终评分。
实施例:
如图1所示,本发明一种基于双目立体视觉感知的无参考立体混合失真图像质量评价方法,包括以下步骤:
步骤一:通过MUSIQUE算法,识别立体图像的左、右眼视图的失真类型,计算相应失真参数,进而获得左、右眼视图的质量评分。
如图2所示,失真类型识别具体过程如下:
四种失真类型包括:高斯噪声(WN)、高斯模糊(Gblur)、JPEG压缩和JPEG2000压缩(JP2K),相应的失真等级控制变量为:噪声方差σN、高斯卷积核方差σG、JPEG压缩质量因子Q、JPEG2000压缩率R。本发明中定义:噪声失真参数
Figure BDA0002724327880000041
JPEG2000压缩参数
Figure BDA0002724327880000042
高斯模糊和JPEG压缩的失真参数分别为σG和Q。采用双层分类模型,第一层分类器(Class-I)把图像失真分成“只含高斯噪声”、“高斯噪声+高斯模糊/JPEG/JPEG2000”、以及“高斯模糊/JPEG/JPEG2000”三种类型。第二层的两个并行子分类模型(Class-II和Class-III)进一步区分在图像包含和不包含噪声两种情况下的四个子类,从而区分出9种失真类型组合:Gblur,JPEG,JP2K,WN,Gblur+JPEG,Gblur+WN,JPEG+WN,JP2K+WN和Gblur+JPEG+WN。
为了训练双层分类模型,将四种失真类型添加到Berkeley分割数据库中的125幅原始自然图像以及高分辨率立体数据集中的20幅原始立体图像的左视图中,生成一个大的失真图像数据集,并从失真图像中提取特征作为训练数据,使用支持向量机进行训练;每个分类模型都有两个输出,即分类标签和分类概率,这些信息与相应的回归模型结合,采用概率加权求和的方法计算失真参数值。
如图3所示,计算失真参数的具体过程如下:
Regress-I-N表示在WN和WN+Gblur/JPEG/JP2K失真图像上训练的两个回归模型。
噪声失真参数
Figure BDA0002724327880000051
计算式为:
Figure BDA0002724327880000052
其中,
Figure BDA0002724327880000053
为回归模型Regress-I-N的两个输出;p1,p2为分类器Class-I的输出分类概率;L1为预测的分类标签;数字1,2,3表示图2对应的失真类型。
高斯模糊参数σG计算式为:
Figure BDA0002724327880000054
JPEG压缩参数Q计算式为:
Figure BDA0002724327880000055
JPEG2000压缩参数
Figure BDA0002724327880000056
计算式为:
Figure BDA0002724327880000061
式(2)~(4)中,σG2,σG3分别为回归模型Regress-II-G、Regress-III-G的输出;Q2,Q3分别为回归模型Regress-II-Q、Regress-III-Q的输出;
Figure BDA0002724327880000062
分别为回归模型Regress-II-R、Regress-III-R的输出;p1,p2,p3为分类器Class-I的输出分类概率;L1为预测的分类标签;数字1,2,3表示图2对应的失真类型,ω为
Figure BDA0002724327880000063
经过Sigmoid传递函数后的参数:
Figure BDA0002724327880000064
其中,t1=6,t2=1.25。令A=1,B=0,所以0<ω<1。
分类回归模型中进行了特征优化,即仅采用部分原始MUSIQUE算法特征,这些特征在表1列出(具体的特征提取方法请参考MUSIQUE算法)。图2中每个分类回归模型提取的图像特征为表1所示的特征的组合,其组合方式如表2所示。这样的特征优化可以显著提高算法速度,并仍然保持同等的算法性能。
表1本发明算法需提取的图像特征清单
Figure BDA0002724327880000065
表2图3所示的各分类回归模型从左右视图中提取的特征,其中“√”表示表1中的相应特征被提取
Figure BDA0002724327880000066
Figure BDA0002724327880000071
为了利用失真参数预测图像质量,采用多项式拟合的方法,将失真参数值映射为图像质量分数。如图4所示,采用四参数三阶多项式把四个失真参数映射为VIF质量分数。
y=λ1·x32·x23·x+λ4 (6)
其中,λi(i=1,2,3,4)是多项式拟合系数,取值如表3所示。
表3针对四种失真类型的多项式拟合系数取值
Figure BDA0002724327880000072
用VIFG、VIFN、VIFQ、和VIFR分别表示高斯模糊、高斯噪声、JPEG压缩、JPEG2000压缩的失真参数经式(6)拟合后的质量分数,则对应于四种失真类型的图像质量退化分数(分别用DG、DN、DQ、和DR表示)为:
DG=1-VIFG, (7)
DN=1-(VIFN1), (8)
DQ=1-(VIFQ2), (9)
DR=1-VIFR, (10)
式(8)、(9)中,β1和β2是使映射图像质量在不同失真类型之间更合理的两个偏移量。
综合得到左、右眼视图最终质量评分S:
Figure BDA0002724327880000073
其中,DGR为DG和DR的最大值;ρ=1.15用于建模混合失真对图像质量的影响;D1和D2是分别针对不同的噪声等级计算的两个质量估计值:当图像包含少量噪声时,计算D1;当图像被大量噪声污染时,计算D2,在这种情况下,其他失真则因图像局部对比度显著增大而被掩蔽。为了计算同时被噪声和其他失真类型破坏的图像的整体质量退化水平,D1和D2基于控制参数γ进行自适应组合,γ由参数
Figure BDA0002724327880000081
通过式(5)确定。D1和D2的计算公式如下:
Figure BDA0002724327880000082
Figure BDA0002724327880000083
式(12)中,d1和d2为DGR、DQ、DN中较大的两个值,且d1>d2;式(13)中,β3和β4用于建模大量噪声引起的掩蔽效应。设置以下参数值:β1=β2=β3=-0.1,β4=0,A=1,B=0,t1=3,t2=0.5,以使得在不同立体图像数据库中获得最佳性能。
步骤二:通过基于质量补偿的多通道对比度增益控制模型,构建符合人眼立体视觉特性的双目融合图像。之后,遵循步骤一中的过程,得出双目融合图像的质量评分。
在四种失真类型中,噪声是准确计算视差图的最大干扰因素。因此,在计算视差图之前,首先采用C-BM3D算法,对左右眼视图进行降噪处理,然后使用中的光流算法,计算降噪后立体图像的视差图。
在视差图的基础上,利用基于质量补偿的多通道对比度增益控制模型构建双目融合图像。为获得更好的融合图像质量评价效果,构建两幅融合图像,一幅基于图像像素点亮度,另一幅基于图像局部对比度,后者计算公式如下:
Figure BDA0002724327880000084
其中,L表示亮度值,LB(x,y)表示以像素(x,y)为中心的9×9图像块的平均亮度值,K=0.001是一个防止除数为零的常数。
对每个像素点(x,y),计算双目立体视觉感知到的图像亮度和对比度:
Figure BDA0002724327880000091
其中,Ii,L/R(i=1,2)表示左右视图的亮度和对比度;dx,y=D(x,y)表示计算的视差图;γ2=0.5;α=β=1;
Figure BDA0002724327880000092
CL和CR表示立体图像左右视图的局部对比度图,γ1=1.5,ρ=10;对于参考图像,ηL=ηR=1;对于失真图像,若
Figure BDA0002724327880000093
则ηL=1,ηR=0.9;若
Figure BDA0002724327880000094
则ηL=0.9,ηR=1。EL和ER是两个补偿因子,在本发明中定义为:
Figure BDA0002724327880000095
Figure BDA0002724327880000096
式(16)(17)中,SL,SR分别表示左、右眼视图的质量分数;u(·)为阶跃函数,l(·)为线性分段函数,用于控制质量较差视图的权重补偿,在本发明中定义为:
Figure BDA0002724327880000097
s(ω)为Sigmoid函数,其表达式与式(5)相同,参数设置为A=50,B=1,t1=-20,t2=0.75;变量
Figure BDA0002724327880000098
用于表征左右眼视图的对比度差异。
为获得失真图像的对比度信息,本发明采用计算CSF滤波图像的RMS对比度和FISH锐度图的方法,即:
Figure BDA0002724327880000099
其中,CL和CR表示立体图像左右视图的局部对比度图,FL和FR表示使用FISH算法计算得到的左右眼视图的锐度图,nt和NT表示锐度图中具有较大值(前1%)的像素点的位置和个数。
如前所述,当低质量视图不含噪声且估计的JPEG压缩参数小于阈值QT时,对质量较好的视图进行JPEG压缩,其压缩参数为:
Figure BDA0002724327880000101
其中,QL、QR分别表示步骤一中预测的左右眼视图的JPEG参数。之后,利用原始的低质量视图和新压缩的视图,计算融合后的亮度和对比度图像。
为了训练双层分类回归模型预测融合图像的失真参数,选定50幅原始立体图像(其中30幅来自Middlebury高分辨率立体图像数据集,其余20幅来源于富士Real 3D相机拍摄),通过计算机编程模拟失真并记录相应失真参数的方法构建大数据样本进行模型训练。所有训练图像均采用对称失真模式(即左右眼视图的失真等级一致),在这种情况下,融合图像的失真参数与左右视图的失真参数相同。遵循步骤二中的过程计算融合图像,并提取相应特征(如表4所示)用于模型训练。
表4图3所示的各分类回归模型从融合图像中提取的特征,其中“√”表示表1中的相应特征被提取
Figure BDA0002724327880000102
在获得融合图像失真参数后,遵循步骤一中的过程综合得出双目融合图像的质量评分。其中,DGR=max(DG,DR)-0.05,β1=0,β3=-0.2,β4=-0.05,其他参数与步骤一相同。
步骤三:将步骤一得出的左右眼视图质量评分与步骤二得出的双目融合图像的质量评分相结合,得出立体图像质量的最终评分;
如图1所示,将步骤一得出的左、右眼视图质量评分SL和SR进行对比度加权,得出两视图的组合质量S2D
Figure BDA0002724327880000111
其中,EL、ER、CL、CR与式(16)~(18)中对应的同名参数的含义和计算方法一致;PL和PR用于建模低质量JPEG压缩视图的权重补偿,计算公式为:
Figure BDA0002724327880000112
Figure BDA0002724327880000113
式(21)、(22)中,QT=15表示JPEG压缩参数阈值;QL、QR表示步骤一中预测的左、右眼视图的JPEG参数;r、SL、SR与式(16)(17)中对应的同名参数的含义和计算方法一致。
立体图像的最终质量评分S3D为:
Figure BDA0002724327880000114
其中,S2D为左、右眼视图的组合质量;Scyc表示步骤二得出的双目融合图像的质量评分。
表5本发明算法(MUSIQUE-3D)与其他全参考/无参考图像质量评价方法在不同立体图像数据库上的实验结果(SROCC)。
Figure BDA0002724327880000115
Figure BDA0002724327880000121
表6本发明算法(MUSIQUE-3D)与其他全参考/无参考图像质量评价方法在不同立体图像数据库上针对每种失真类型的实验结果(SROCC)。
Figure BDA0002724327880000122
表5和表6展示了本发明算法与其他全参考/无参考图像质量评价方法在不同立体图像数据库上的测试性能,性能指标为算法的客观评价分数与主观分数之间的相关系数(Spearman rank-order correlation coefficient,SROCC)。其中,LIVE-3D、WaterlooIVC-3D、NBU-3D、IRCCyN/IVC-3D为立体单失真图像数据库,NBU-MDSID为立体混合失真图像数据库;Cyclopean MS-SSIM、FI-PSNR、SOIQE为全参考算法,其他为无参考算法。StereoQUE和SINQ的测试结果为算法在LIVE-3D Phase II数据库上训练,然后在其他数据库上测试获得;BRISQUE、GM-LOG、GWH-GLBP的测试结果为算法使用本发明构建的融合亮度图像和相应的VIF质量评分进行训练,然后在待测数据库的融合亮度图像上测试获得。图5为MUSIQUE-3D方法在各立体图像数据库上的评价结果的散点分布图。实验结果表明,无论是混合失真还是单失真立体图像数据库,MUSIQUE-3D方法结果与主观评价分数都有较高的一致性,更加符合人类视觉的主观感受。
总之,本发明一种基于双目立体视觉感知的无参考立体混合失真图像质量评价方法,通过MUSIQUE算法,识别立体图像左、右眼视图的失真类型,计算相应失真参数,进而获得左、右眼视图的质量评分;通过基于质量补偿的多通道对比度增益控制模型,构建符合人眼立体视觉特性的双目融合图像,同时通过预测左、右眼视图和双目融合图像的失真参数,对立体混合失真图像的质量进行无参考评价。本发明可以在不依赖现有图像数据库的MOS/DMOS值的情况下训练图像质量评价模型,在多个立体图像数据库上的测试表明,本发明与其他无参考立体图像质量评价方法相比,具有更高的准确性。

Claims (4)

1.一种无参考立体混合失真图像质量评价方法,其特征在于,包括以下步骤:
步骤一,识别立体图像的左、右眼视图的失真类型,计算失真类型的失真参数,获得左、右眼视图的质量评分;
步骤二,构建符合人眼立体视觉特性的双目融合图像,并得出双目融合图像的质量评分;具体方法如下:
第一步,采用C-BM3D算法对左、右眼视图进行降噪处理;
第二步,利用光流算法计算得到视差图;
第三步,采用基于质量补偿的多通道对比度增益控制模型,构建双目融合图像;
第四步,识别双目融合图像的左、右眼视图的失真类型,计算失真类型的失真参数,得出双目融合图像的质量评分;
在构建双目融合图像的过程中,质量差的视图通过被赋予大权重进行补偿;当低质量视图不含噪声且估计的JPEG压缩参数小于某一阈值QT时,对质量较好的视图进行JPEG压缩,新压缩的图像将作为计算双目融合图像的输入;
步骤三,将步骤一得到的左、右眼视图的质量评分与步骤二得到的双目融合图像的质量评分相结合,得出立体图像质量的最终评分。
2.根据权利要求1所述的一种无参考立体混合失真图像质量评价方法,其特征在于,步骤一的具体方法如下:
第一步,采用双层分类模型,通过特征提取,区分所有失真类型的所有组合形式;
第二步,采用回归模型计算所有失真类型对应的失真参数;
第三步,拟合失真参数与图像质量的关系,利用混合失真联合降质效应,得到左、右眼视图的质量评分。
3.根据权利要求2所述的一种无参考立体混合失真图像质量评价方法,其特征在于,训练双层分类模型时,通过对原始图像添加失真类型生成失真图像数据库,并从失真图像中提取特征作为训练数据,使用支持向量机进行训练;每个分类模型都有两个的输出,即分类标签和分类概率,分类标签和分类概率与相应的回归模型结合,采用概率加权求和的方法计算失真参数值。
4.根据权利要求1所述的一种无参考立体混合失真图像质量评价方法,其特征在于,步骤三的具体方法如下:
将步骤一得出的左、右眼视图质量评分进行对比度加权,得出两视图的组合质量,将两视图的组合质量与步骤二得出的双目融合图像质量评分的乘积的开方,得到立体图像的最终质量评分。
CN202011097823.2A 2020-10-14 2020-10-14 一种无参考立体混合失真图像质量评价方法 Active CN112233089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011097823.2A CN112233089B (zh) 2020-10-14 2020-10-14 一种无参考立体混合失真图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011097823.2A CN112233089B (zh) 2020-10-14 2020-10-14 一种无参考立体混合失真图像质量评价方法

Publications (2)

Publication Number Publication Date
CN112233089A CN112233089A (zh) 2021-01-15
CN112233089B true CN112233089B (zh) 2022-10-25

Family

ID=74112777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011097823.2A Active CN112233089B (zh) 2020-10-14 2020-10-14 一种无参考立体混合失真图像质量评价方法

Country Status (1)

Country Link
CN (1) CN112233089B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362315B (zh) * 2021-06-22 2022-09-30 中国科学技术大学 基于多算法融合的图像质量评价方法及评价模型

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243977A (zh) * 2014-09-23 2014-12-24 上海交通大学 基于眼优势理论和视差补偿的立体图像质量评价方法
CN108401150A (zh) * 2018-03-22 2018-08-14 浙江科技学院 一种模拟视觉主观感知的压缩感知重建算法质量统计评价方法
CN109255358A (zh) * 2018-08-06 2019-01-22 浙江大学 一种基于视觉显著性和深度图的3d图像质量评价方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103533343B (zh) * 2013-09-29 2015-05-20 宁波大学 一种基于数字水印的立体图像质量客观评价方法
CN103763552B (zh) * 2014-02-17 2015-07-22 福州大学 基于视觉感知特性的立体图像无参考质量评价方法
CN104240255A (zh) * 2014-09-23 2014-12-24 上海交通大学 基于非线性眼优势视差补偿的立体图像质量评价方法
US9706111B2 (en) * 2015-07-08 2017-07-11 Santa Clara No-reference image and video quality evaluation
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法
CN105338343B (zh) * 2015-10-20 2017-05-31 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105744256B (zh) * 2016-03-31 2017-12-05 天津大学 基于图谱视觉显著的立体图像质量客观评价方法
CN105959684B (zh) * 2016-05-26 2019-05-14 天津大学 基于双目融合的立体图像质量评价方法
CN106780441B (zh) * 2016-11-30 2020-01-10 杭州电子科技大学 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法
CN107371016A (zh) * 2017-07-25 2017-11-21 天津大学 基于非对称失真的无参考3d立体图像质量评价方法
CN107578403B (zh) * 2017-08-22 2019-11-08 浙江大学 基于梯度信息指导双目视图融合的立体图像质量评价方法
CN107578404B (zh) * 2017-08-22 2019-11-15 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN107578406A (zh) * 2017-09-06 2018-01-12 天津大学 基于网格与韦泊统计特性的无参考立体图像质量评价方法
CN108470336B (zh) * 2018-03-29 2021-06-29 天津大学 基于堆栈式自动编码器的立体图像质量评价方法
CN108765414B (zh) * 2018-06-14 2021-12-03 上海大学 基于小波分解和自然场景统计的无参考立体图像质量评价方法
CN109345502B (zh) * 2018-08-06 2021-03-26 浙江大学 一种基于视差图立体结构信息提取的立体图像质量评价方法
CN109345552A (zh) * 2018-09-20 2019-02-15 天津大学 基于区域权重的立体图像质量评价方法
CN109788275A (zh) * 2018-12-28 2019-05-21 天津大学 自然性、结构和双目不对称无参考立体图像质量评价方法
CN109872305B (zh) * 2019-01-22 2020-08-18 浙江科技学院 一种基于质量图生成网络的无参考立体图像质量评价方法
CN109714592A (zh) * 2019-01-31 2019-05-03 天津大学 基于双目融合网络的立体图像质量评价方法
CN110111304B (zh) * 2019-04-04 2023-08-29 天津大学 基于局部到全局特征回归的无参考立体图像质量评价方法
CN110517308A (zh) * 2019-07-12 2019-11-29 重庆邮电大学 一种无参考非对称失真立体图像质量评价方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243977A (zh) * 2014-09-23 2014-12-24 上海交通大学 基于眼优势理论和视差补偿的立体图像质量评价方法
CN108401150A (zh) * 2018-03-22 2018-08-14 浙江科技学院 一种模拟视觉主观感知的压缩感知重建算法质量统计评价方法
CN109255358A (zh) * 2018-08-06 2019-01-22 浙江大学 一种基于视觉显著性和深度图的3d图像质量评价方法

Also Published As

Publication number Publication date
CN112233089A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN108765414B (zh) 基于小波分解和自然场景统计的无参考立体图像质量评价方法
CN109727246A (zh) 一种基于孪生网络的对比学习图像质量评估方法
CN103426173B (zh) 一种立体图像质量的客观评价方法
CN107146220B (zh) 一种通用型无参考图像质量评价方法
CN112767385B (zh) 基于显著性策略与特征融合无参考图像质量评价方法
CN112950596B (zh) 基于多区域多层次的色调映射全向图像质量评价方法
CN111047543A (zh) 图像增强方法、装置和存储介质
CN109685772A (zh) 一种基于配准失真表示的无参照立体图像质量评估方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN109788275A (zh) 自然性、结构和双目不对称无参考立体图像质量评价方法
CN107635136A (zh) 基于视觉感知和双目竞争的无参考立体图像质量评价方法
CN110706196B (zh) 基于聚类感知的无参考色调映射图像质量评价算法
CN110782413A (zh) 一种图像处理方法、装置、设备及存储介质
CN108830829B (zh) 联合多种边缘检测算子的无参考质量评价算法
CN105894507B (zh) 基于图像信息量自然场景统计特征的图像质量评价方法
CN110910365A (zh) 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法
CN115526891B (zh) 一种缺陷数据集的生成模型的训练方法及相关装置
CN111462002B (zh) 一种基于卷积神经网络的水下图像增强与复原方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN110910347B (zh) 一种基于图像分割的色调映射图像无参考质量评价方法
CN109257592B (zh) 基于深度学习的立体视频质量客观评价方法
CN112233089B (zh) 一种无参考立体混合失真图像质量评价方法
CN113222902B (zh) 一种无参考图像质量评价方法及系统
CN113128517A (zh) 色调映射图像混合视觉特征提取模型建立及质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant