CN109872305A - 一种基于质量图生成网络的无参考立体图像质量评价方法 - Google Patents

一种基于质量图生成网络的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN109872305A
CN109872305A CN201910058364.8A CN201910058364A CN109872305A CN 109872305 A CN109872305 A CN 109872305A CN 201910058364 A CN201910058364 A CN 201910058364A CN 109872305 A CN109872305 A CN 109872305A
Authority
CN
China
Prior art keywords
dis
output end
convolutional layer
layer
characteristic patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910058364.8A
Other languages
English (en)
Other versions
CN109872305B (zh
Inventor
周武杰
张爽爽
何成
王海江
邱薇薇
陈芳妮
张宇来
楼宋江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lover Health Science and Technology Development Co Ltd
Zhejiang University of Science and Technology ZUST
Original Assignee
Zhejiang Lover Health Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lover Health Science and Technology Development Co Ltd filed Critical Zhejiang Lover Health Science and Technology Development Co Ltd
Priority to CN201910058364.8A priority Critical patent/CN109872305B/zh
Publication of CN109872305A publication Critical patent/CN109872305A/zh
Application granted granted Critical
Publication of CN109872305B publication Critical patent/CN109872305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于质量图生成网络的无参考立体图像质量评价方法,其在训练阶段,构建一个质量图生成网络,将训练集中的所有失真平面图像的归一化图像依次输入到质量图生成网络中,并将对应的质量图作为监督,训练得到最优的质量图生成网络模型;在测试阶段,利用最优的质量图生成网络模型提取出待评价的失真立体图像的左视点图像、右视点图像和融合图像各自的归一化图像的预测质量图,并获取各自的显著特征图,然后根据对应的预测质量图和显著特征图,求取各自的预测质量得分,再融合三个预测质量得分得到最终的预测质量得分;优点是其能充分考虑到立体图像的多种特性对视觉质量的影响,从而能提高客观评价结果与双目主观感知之间的相关性。

Description

一种基于质量图生成网络的无参考立体图像质量评价方法
技术领域
本发明涉及一种图像质量评价技术,尤其是涉及一种基于质量图生成网络的无参考立体图像质量评价方法。
背景技术
随着立体图像应用的飞速发展,很多相关的立体图像技术和服务已经被引入到人们的日常生活以及许多专业领域中。在收集、传输、处理和显示立体图像的时候,可能会发生各种各样的失真。因此,建立一种高性能的立体图像质量评价方法具有重大的实用意义。立体图像质量评价分为主观评价和客观评价两种方式。主观评价是人们直接对立体图像进行主观评价,由于人类视觉系统(Human Visual System,HSV)是立体图像的最终接收者,因此主观评价是非常具有说服力的。然而在实际应用中,由于主观评价非常的耗时和费力,达不到实时应用系统的要求,因此客观评价在立体图像质量评价中占据着主导地位。客观立体图像质量评价方法主要有三类,分别为全参考评价方法、半参考评价方法和无参考评价方法。全参考评价方法是利用无失真的原始图像与失真图像进行对比,从而获得它们之间的差异性。半参考评价方法利用了部分原始图像信息。而无参考评价方法则完全没有利用原始图像信息。由于原始图像在实际应用中很难得到,因此无参考评价方法具有更高的研究价值。
现有的大多数立体图像质量评价方法都无法精确判断立体图像的质量,并且很少考虑模型的通用性,都是在一个数据库上进行训练及测试,也没有将图像显著性作为考虑对象。立体图像的左视点与右视点权重分配问题也严重影响着立体图像的质量,在现有的立体图像质量评价方法中也很少考虑。因此,如何在评价过程中有效地提取特征信息,并有效地学习特征信息,在评价过程中考虑模型的通用性,并考虑立体图像的显著性,使得客观评价结果更加符合人类视觉感知系统,是对立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于质量图生成网络的无参考立体图像质量评价方法,其能够充分考虑到立体图像的多种特性对视觉质量的影响,从而能够提高客观评价结果与双目主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于质量图生成网络的无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程;
所述的训练阶段过程的具体步骤为:
步骤1_1、选取nwsz幅原始的无失真平面图像,建立其在不同失真类型不同失真程度下的失真平面图像集合,将该失真平面图像集合作为训练集,训练集中包含多幅失真平面图像,将训练集中的第i幅失真平面图像记为{Idis,i(x',y')},将{Idis,i(x',y')}相应的原始的无失真平面图像记为{Iref,i(x',y')};其中,nwsz为正整数,nwsz>1,i为正整数,i的初始值为1,1≤i≤nsz,nsz表示训练集中包含的失真平面图像的总幅数,1≤x'≤W',1≤y'≤H',W'表示{Idis,i(x',y')}和{Iref,i(x',y')}的宽度,H'表示{Idis,i(x',y')}和{Iref,i(x',y')}的高度,Idis,i(x',y')表示{Idis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,Iref,i(x',y')表示{Iref,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_2、采用基于结构相似度的质量图求取方法,结合训练集中的每幅失真平面图像及其相应的原始的无失真平面图像,获取训练集中的每幅失真平面图像的质量图,将{Idis,i(x',y')}的质量图记为{Qdis,i(x',y')},{Qdis,i(x',y')}为结合{Idis,i(x',y')}和{Iref,i(x',y')}得到;其中,Qdis,i(x',y')表示{Qdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
采用归一化方法,对训练集中的每幅失真平面图像进行归一化处理,得到训练集中的每幅失真平面图像的归一化图像,将{Idis,i(x',y')}的归一化图像记为{Ndis,i(x',y')};其中,Ndis,i(x',y')表示{Ndis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_3、构建一个质量图生成网络:质量图生成网络是U-Net改进的卷积神经网络,质量图生成网络包括输入层、中间层和输出层,中间层由24个卷积层、4个最大池化层、4个上采样层、4个联接层组成;其中,所有卷积层各自的卷积核大小为3×3、步长为2、使用的激活函数为ReLU,第1个、第2个、第20个、第21个、第22个、第23个卷积层各自的卷积核个数为16,第3个、第4个、第17个、第18个、第19个卷积层各自的卷积核个数为32,第5个、第6个、第14个、第15个、第16个卷积层各自的卷积核个数为64,第7个、第8个、第11个、第12个、第13个卷积层各自的卷积核个数为128,第9个、第10个卷积层各自的卷积核个数为256,第24个卷积层的卷积核个数为1,所有最大池化层各自的池化窗口大小为3×3、步长为2,所有上采样层各自的上采样步长为2,所有联接层均采用concat联接函数;
对于输入层,输入层的输入端接收一幅输入图像,输入层的输出端输出输入图像给中间层;其中,要求输入层的输入端接收的输入图像的宽度为W'、高度为H';
对于中间层,第1个卷积层的输入端接收输入层的输出端输出的输入图像,第1个卷积层的输出端输出16幅特征图;第2个卷积层的输入端接收第1个卷积层的输出端输出的所有特征图,第2个卷积层的输出端输出16幅特征图;第1个最大池化层的输入端接收第2个卷积层的输出端输出的所有特征图,第1个最大池化层的输出端输出16幅特征图;第3个卷积层的输入端接收第1个最大池化层的输出端输出的所有特征图,第3个卷积层的输出端输出32幅特征图;第4个卷积层的输入端接收第3个卷积层的输出端输出的所有特征图,第4个卷积层的输出端输出32幅特征图;第2个最大池化层的输入端接收第4个卷积层的输出端输出的所有特征图,第2个最大池化层的输出端输出32幅特征图;第5个卷积层的输入端接收第2个最大池化层的输出端输出的所有特征图,第5个卷积层的输出端输出64幅特征图;第6个卷积层的输入端接收第5个卷积层的输出端输出的所有特征图,第6个卷积层的输出端输出64幅特征图;第3个最大池化层的输入端接收第6个卷积层的输出端输出的所有特征图,第3个最大池化层的输出端输出64幅特征图;第7个卷积层的输入端接收第3个最大池化层的输出端输出的所有特征图,第7个卷积层的输出端输出128幅特征图;第8个卷积层的输入端接收第7个卷积层的输出端输出的所有特征图,第8个卷积层的输出端输出128幅特征图;第4个最大池化层的输入端接收第8个卷积层的输出端输出的所有特征图,第4个最大池化层的输出端输出128幅特征图;第9个卷积层的输入端接收第4个最大池化层的输出端输出的所有特征图,第9个卷积层的输出端输出256幅特征图;第10个卷积层的输入端接收第9个卷积层的输出端输出的所有特征图,第10个卷积层的输出端输出256幅特征图;第1个上采样层的输入端接收第10个卷积层的输出端输出的所有特征图,第1个上采样层的输出端输出256幅特征图;第11个卷积层的输入端接收第1个上采样层的输出端输出的所有特征图,第11个卷积层的输出端输出128幅特征图;第1个联接层的输入端接收第11个卷积层的输出端输出的所有特征图和第8个卷积层的输出端输出的所有特征图,第1个联接层的输出端输出256幅特征图;第12个卷积层的输入端接收第1个联接层的输出端输出的所有特征图,第12个卷积层的输出端输出128幅特征图;第13个卷积层的输入端接收第12个卷积层的输出端输出的所有特征图,第13个卷积层的输出端输出128幅特征图;第2个上采样层的输入端接收第13个卷积层的输出端输出的所有特征图,第2个上采样层的输出端输出128幅特征图;第14个卷积层的输入端接收第2个上采样层的输出端输出的所有特征图,第14个卷积层的输出端输出64幅特征图;第2个联接层的输入端接收第14个卷积层的输出端输出的所有特征图和第6个卷积层的输出端输出的所有特征图,第2个联接层的输出端输出128幅特征图;第15个卷积层的输入端接收第2个联接层的输出端输出的所有特征图,第15个卷积层的输出端输出64幅特征图;第16个卷积层的输入端接收第15个卷积层的输出端输出的所有特征图,第16个卷积层的输出端输出64幅特征图;第3个上采样层的输入端接收第16个卷积层的输出端输出的所有特征图,第3个上采样层的输出端输出64幅特征图;第17个卷积层的输入端接收第3个上采样层的输出端输出的所有特征图,第17个卷积层的输出端输出32幅特征图;第3个联接层的输入端接收第17个卷积层的输出端输出的所有特征图和第4个卷积层的输出端输出的所有特征图,第3个联接层的输出端输出64幅特征图;第18个卷积层的输入端接收第3个联接层的输出端输出的所有特征图,第18个卷积层的输出端输出32幅特征图;第19个卷积层的输入端接收第18个卷积层的输出端输出的所有特征图,第19个卷积层的输出端输出32幅特征图;第4个上采样层的输入端接收第19个卷积层的输出端输出的所有特征图,第4个上采样层的输出端输出32幅特征图;第20个卷积层的输入端接收第4个上采样层的输出端输出的所有特征图,第20个卷积层的输出端输出16幅特征图;第4个联接层的输入端接收第20个卷积层的输出端输出的所有特征图和第2个卷积层的输出端输出的所有特征图,第4个联接层的输出端输出32幅特征图;第21个卷积层的输入端接收第4个联接层的输出端输出的所有特征图,第21个卷积层的输出端输出16幅特征图;第22个卷积层的输入端接收第21个卷积层的输出端输出的所有特征图,第22个卷积层的输出端输出16幅特征图;第23个卷积层的输入端接收第22个卷积层的输出端输出的所有特征图,第23个卷积层的输出端输出16幅特征图;第24个卷积层的输入端接收第23个卷积层的输出端输出的所有特征图,第24个卷积层的输出端输出1幅特征图;
对于输出层,输出层的输入端接收第24个卷积层的输出端输出的1幅特征图,输出层的输出端输出1幅特征图作为输入图像的预测质量图;
步骤1_4、将训练集中的所有失真平面图像的归一化图像依次作为输入图像输入到质量图生成网络中,并将对应的质量图作为质量图生成网络的监督,对质量图生成网络进行训练,训练得到最优的质量图生成网络模型;
所述的测试阶段过程的具体步骤为:
步骤2_1、令Sref表示原始的无失真立体图像,令Sdis为Sref经失真处理后得到的失真立体图像,并将Sdis作为待评价的失真立体图像;将Sref的左视点图像记为{Lref(x,y)},将Sref的右视点图像记为{Rref(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sref和Sdis的宽度,H表示Sref和Sdis的高度,Lref(x,y)表示{Lref(x,y)}中坐标位置为(x,y)的像素点的像素值,Rref(x,y)表示{Rref(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_2、采用融合图像生成方法,对{Ldis(x,y)}和{Rdis(x,y)}进行融合处理,得到Sdis的融合图像,记为{Mdis(x,y)};其中,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_3、采用归一化方法,对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为{NL,dis(x,y)};同样,采用归一化方法,对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为{NR,dis(x,y)};采用归一化方法,对{Mdis(x,y)}进行归一化处理,得到{Mdis(x,y)}的归一化图像,记为{NM,dis(x,y)};其中,NL,dis(x,y)表示{NL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NR,dis(x,y)表示{NR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NM,dis(x,y)表示{NM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_4、利用最优的质量图生成网络模型提取出{NL,dis(x,y)}的预测质量图,记为同样,利用最优的质量图生成网络模型提取出{NR,dis(x,y)}的预测质量图,记为利用最优的质量图生成网络模型提取出{NM,dis(x,y)}的预测质量图,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
步骤2_5、采用基于先验信息的显著图检测方法,对{Ldis(x,y)}进行显著图提取,得到{Ldis(x,y)}的显著特征图,记为{XL,dis(x,y)};同样,采用基于先验信息的显著图检测方法,对{Rdis(x,y)}进行显著图提取,得到{Rdis(x,y)}的显著特征图,记为{XR,dis(x,y)};采用基于先验信息的显著图检测方法,对{Mdis(x,y)}进行显著图提取,得到{Mdis(x,y)}的显著特征图,记为{XM,dis(x,y)};其中,XL,dis(x,y)表示{XL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XR,dis(x,y)表示{XR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XM,dis(x,y)表示{XM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_6、采用显著性加权方法,结合和{XL,dis(x,y)},求取得到{Ldis(x,y)}的预测质量得分,记为qL,dis;同样,采用显著性加权方法,结合和{XR,dis(x,y)},求取得到{Rdis(x,y)}的预测质量得分,记为qR,dis;采用显著性加权方法,结合和{XM,dis(x,y)},求取得到{Mdis(x,y)}的预测质量得分,记为qM,dis
步骤2_7、采用左右视点质量值加权融合方法,对qL,dis和qR,dis进行加权融合,得到左右视点图像的加权融合质量得分,记为qLR,dis;再将qLR,dis和qM,dis进行加权融合,得到Sdis的预测质量得分,记为q。
所述的步骤1_2中,Qdis,i(x',y')的获取过程为:
步骤1_2a、计算{Iref,i(x',y')}的局部均值映射图,记为{μref,i(x',y')};并计算{Idis,i(x',y')}的局部均值映射图,记为{μdis,i(x',y')};计算{Iref,i(x',y')}的局部标准差映射图,记为{σref,i(x',y')};计算{Idis,i(x',y')}的局部标准差映射图,记为{σdis,i(x',y')};计算{Iref,i(x',y')}与{Idis,i(x',y')}的局部协方差映射图,记为{σref,dis,i(x',y')};其中,μref,i(x',y')表示{μref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,μdis,i(x',y')表示{μdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,i(x',y')表示{σref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σdis,i(x',y')表示{σdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,dis,i(x',y')表示{σref,dis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_2b、根据{μref,i(x',y')}、{μdis,i(x',y')}、{σref,i(x',y')}、{σdis,i(x',y')}和{σref,dis,i(x',y')},获得{Qdis,i(x',y')},
其中,C1和C2均为用于防止分母为0的小常数。
所述的步骤2_7中,qLR,dis的获取过程为:qLR,dis=βL×qL,disR×qR,dis,其中,βL表示qL,dis的权重,βR表示qR,dis的权重, EL,dis(x,y)表示{Ldis(x,y)}的能量图,ER,dis(x,y)表示{Rdis(x,y)}的能量图, EL,ref(x,y)表示{Lref(x,y)}的能量图,ER,ref(x,y)表示{Rref(x,y)}的能量图。
所述的步骤2_7中,q的获取过程为:q=βLR×qLR,disM×qM,dis,其中,βLR=0.2,βM=0.8。
与现有技术相比,本发明的优点在于:
1)在训练阶段,通过构建一个质量图生成网络,将训练集中的所有失真平面图像的归一化图像依次作为输入图像输入到质量图生成网络中,并将对应的质量图作为质量图生成网络的监督,对质量图生成网络进行训练,这样在测试阶段可直接利用训练得到的最优的质量图生成网络模型分别作为左视点图像、右视点图像以及融合图像各自的归一化图像的预测质量图的提取器,由于本发明方法构建的质量图生成网络是U-Net改进的卷积神经网络,因此能够准确预测出相应的预测质量图,符合人眼神经学的生理特征,与人眼感知特性高度一致。
2)显著性是图像的一个重要特征,人类视觉系统对图像显著部分的关注度会更高,因此本发明方法对得到的预测质量图进行显著性加权平均,得到左视点图像、右视点图像以及融合图像各自的预测质量得分,能够很好地反映图像卷积特征以及显著性特征等多种因素变化对图像质量的影响,符合质量评价特征的要求。
3)对左视点图像的预测质量得分和右视点图像的预测质量得分进行加权和,然后再与融合图像的预测质量得分进行加权和,最终得到立体图像的预测质量得分,由于充分考虑了左视点图像、右视点图像和融合图像分别对立体图像的影响,因此能有效地提高客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2为本发明方法构建的质量图生成网络的结构图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于质量图生成网络的无参考立体图像质量评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程;
所述的训练阶段过程的具体步骤为:
步骤1_1、选取nwsz幅原始的无失真平面图像,建立其在不同失真类型不同失真程度下的失真平面图像集合,将该失真平面图像集合作为训练集,训练集中包含多幅失真平面图像,将训练集中的第i幅失真平面图像记为{Idis,i(x',y')},将{Idis,i(x',y')}相应的原始的无失真平面图像记为{Iref,i(x',y')};其中,nwsz为正整数,nwsz>1,如取nwsz=6000,i为正整数,i的初始值为1,1≤i≤nsz,nsz表示训练集中包含的失真平面图像的总幅数,1≤x'≤W',1≤y'≤H',W'表示{Idis,i(x',y')}和{Iref,i(x',y')}的宽度,H'表示{Idis,i(x',y')}和{Iref,i(x',y')}的高度,Idis,i(x',y')表示{Idis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,Iref,i(x',y')表示{Iref,i(x',y')}中坐标位置为(x',y')的像素点的像素值。
步骤1_2、采用现有的基于结构相似度(Structural Similarity,SSIM)的质量图求取方法,结合训练集中的每幅失真平面图像及其相应的原始的无失真平面图像,获取训练集中的每幅失真平面图像的质量图,将{Idis,i(x',y')}的质量图记为{Qdis,i(x',y')},{Qdis,i(x',y')}为结合{Idis,i(x',y')}和{Iref,i(x',y')}得到;其中,Qdis,i(x',y')表示{Qdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值。
采用归一化方法,对训练集中的每幅失真平面图像进行归一化处理,得到训练集中的每幅失真平面图像的归一化图像,将{Idis,i(x',y')}的归一化图像记为{Ndis,i(x',y')};其中,Ndis,i(x',y')表示{Ndis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,
在此具体实施例中,步骤1_2中,Qdis,i(x',y')的获取过程为:
步骤1_2a、计算{Iref,i(x',y')}的局部均值映射图,记为{μref,i(x',y')};并计算{Idis,i(x',y')}的局部均值映射图,记为{μdis,i(x',y')};计算{Iref,i(x',y')}的局部标准差映射图,记为{σref,i(x',y')};计算{Idis,i(x',y')}的局部标准差映射图,记为{σdis,i(x',y')};计算{Iref,i(x',y')}与{Idis,i(x',y')}的局部协方差映射图,记为{σref,dis,i(x',y')};其中,μref,i(x',y')表示{μref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,μdis,i(x',y')表示{μdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,i(x',y')表示{σref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σdis,i(x',y')表示{σdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,dis,i(x',y')表示{σref,dis,i(x',y')}中坐标位置为(x',y')的像素点的像素值。
步骤1_2b、根据{μref,i(x',y')}、{μdis,i(x',y')}、{σref,i(x',y')}、{σdis,i(x',y')}和{σref,dis,i(x',y')},获得{Qdis,i(x',y')},
其中,C1和C2均为用于防止分母为0的小常数,在本实施例中取C1=C2=0.001。
步骤1_3、构建一个质量图生成网络:质量图生成网络是U-Net改进的卷积神经网络,如图2所示,质量图生成网络包括输入层、中间层和输出层,中间层由24个卷积层、4个最大池化层、4个上采样层、4个联接层组成;其中,所有卷积层各自的卷积核大小为3×3、步长为2、使用的激活函数为ReLU,第1个、第2个、第20个、第21个、第22个、第23个卷积层各自的卷积核个数为16,第3个、第4个、第17个、第18个、第19个卷积层各自的卷积核个数为32,第5个、第6个、第14个、第15个、第16个卷积层各自的卷积核个数为64,第7个、第8个、第11个、第12个、第13个卷积层各自的卷积核个数为128,第9个、第10个卷积层各自的卷积核个数为256,第24个卷积层的卷积核个数为1,所有最大池化层各自的池化窗口大小为3×3、步长为2,所有上采样层各自的上采样步长为2,所有联接层均采用concat联接函数。
对于输入层,输入层的输入端接收一幅输入图像,输入层的输出端输出输入图像给中间层;其中,要求输入层的输入端接收的输入图像的宽度为W'、高度为H'。
对于中间层,第1个卷积层的输入端接收输入层的输出端输出的输入图像,第1个卷积层的输出端输出16幅特征图;第2个卷积层的输入端接收第1个卷积层的输出端输出的所有特征图,第2个卷积层的输出端输出16幅特征图;第1个最大池化层的输入端接收第2个卷积层的输出端输出的所有特征图,第1个最大池化层的输出端输出16幅特征图;第3个卷积层的输入端接收第1个最大池化层的输出端输出的所有特征图,第3个卷积层的输出端输出32幅特征图;第4个卷积层的输入端接收第3个卷积层的输出端输出的所有特征图,第4个卷积层的输出端输出32幅特征图;第2个最大池化层的输入端接收第4个卷积层的输出端输出的所有特征图,第2个最大池化层的输出端输出32幅特征图;第5个卷积层的输入端接收第2个最大池化层的输出端输出的所有特征图,第5个卷积层的输出端输出64幅特征图;第6个卷积层的输入端接收第5个卷积层的输出端输出的所有特征图,第6个卷积层的输出端输出64幅特征图;第3个最大池化层的输入端接收第6个卷积层的输出端输出的所有特征图,第3个最大池化层的输出端输出64幅特征图;第7个卷积层的输入端接收第3个最大池化层的输出端输出的所有特征图,第7个卷积层的输出端输出128幅特征图;第8个卷积层的输入端接收第7个卷积层的输出端输出的所有特征图,第8个卷积层的输出端输出128幅特征图;第4个最大池化层的输入端接收第8个卷积层的输出端输出的所有特征图,第4个最大池化层的输出端输出128幅特征图;第9个卷积层的输入端接收第4个最大池化层的输出端输出的所有特征图,第9个卷积层的输出端输出256幅特征图;第10个卷积层的输入端接收第9个卷积层的输出端输出的所有特征图,第10个卷积层的输出端输出256幅特征图;第1个上采样层的输入端接收第10个卷积层的输出端输出的所有特征图,第1个上采样层的输出端输出256幅特征图;第11个卷积层的输入端接收第1个上采样层的输出端输出的所有特征图,第11个卷积层的输出端输出128幅特征图;第1个联接层的输入端接收第11个卷积层的输出端输出的所有特征图和第8个卷积层的输出端输出的所有特征图,第1个联接层的输出端输出256幅特征图;第12个卷积层的输入端接收第1个联接层的输出端输出的所有特征图,第12个卷积层的输出端输出128幅特征图;第13个卷积层的输入端接收第12个卷积层的输出端输出的所有特征图,第13个卷积层的输出端输出128幅特征图;第2个上采样层的输入端接收第13个卷积层的输出端输出的所有特征图,第2个上采样层的输出端输出128幅特征图;第14个卷积层的输入端接收第2个上采样层的输出端输出的所有特征图,第14个卷积层的输出端输出64幅特征图;第2个联接层的输入端接收第14个卷积层的输出端输出的所有特征图和第6个卷积层的输出端输出的所有特征图,第2个联接层的输出端输出128幅特征图;第15个卷积层的输入端接收第2个联接层的输出端输出的所有特征图,第15个卷积层的输出端输出64幅特征图;第16个卷积层的输入端接收第15个卷积层的输出端输出的所有特征图,第16个卷积层的输出端输出64幅特征图;第3个上采样层的输入端接收第16个卷积层的输出端输出的所有特征图,第3个上采样层的输出端输出64幅特征图;第17个卷积层的输入端接收第3个上采样层的输出端输出的所有特征图,第17个卷积层的输出端输出32幅特征图;第3个联接层的输入端接收第17个卷积层的输出端输出的所有特征图和第4个卷积层的输出端输出的所有特征图,第3个联接层的输出端输出64幅特征图;第18个卷积层的输入端接收第3个联接层的输出端输出的所有特征图,第18个卷积层的输出端输出32幅特征图;第19个卷积层的输入端接收第18个卷积层的输出端输出的所有特征图,第19个卷积层的输出端输出32幅特征图;第4个上采样层的输入端接收第19个卷积层的输出端输出的所有特征图,第4个上采样层的输出端输出32幅特征图;第20个卷积层的输入端接收第4个上采样层的输出端输出的所有特征图,第20个卷积层的输出端输出16幅特征图;第4个联接层的输入端接收第20个卷积层的输出端输出的所有特征图和第2个卷积层的输出端输出的所有特征图,第4个联接层的输出端输出32幅特征图;第21个卷积层的输入端接收第4个联接层的输出端输出的所有特征图,第21个卷积层的输出端输出16幅特征图;第22个卷积层的输入端接收第21个卷积层的输出端输出的所有特征图,第22个卷积层的输出端输出16幅特征图;第23个卷积层的输入端接收第22个卷积层的输出端输出的所有特征图,第23个卷积层的输出端输出16幅特征图;第24个卷积层的输入端接收第23个卷积层的输出端输出的所有特征图,第24个卷积层的输出端输出1幅特征图。
对于输出层,输出层的输入端接收第24个卷积层的输出端输出的1幅特征图,输出层的输出端输出1幅特征图作为输入图像的预测质量图。
步骤1_4、将训练集中的所有失真平面图像的归一化图像依次作为输入图像输入到质量图生成网络中,并将对应的质量图作为质量图生成网络的监督,对质量图生成网络进行训练,训练得到最优的质量图生成网络模型。
所述的测试阶段过程的具体步骤为:
步骤2_1、令Sref表示原始的无失真立体图像,令Sdis为Sref经失真处理后得到的失真立体图像,并将Sdis作为待评价的失真立体图像;将Sref的左视点图像记为{Lref(x,y)},将Sref的右视点图像记为{Rref(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sref和Sdis的宽度,H表示Sref和Sdis的高度,W可与W'一致或不一致,H可与H'一致或不一致,Lref(x,y)表示{Lref(x,y)}中坐标位置为(x,y)的像素点的像素值,Rref(x,y)表示{Rref(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
步骤2_2、采用现有的融合图像生成方法,对{Ldis(x,y)}和{Rdis(x,y)}进行融合处理,得到Sdis的融合图像,记为{Mdis(x,y)};其中,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
步骤2_3、采用归一化方法,对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为{NL,dis(x,y)};同样,采用归一化方法,对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为{NR,dis(x,y)};采用归一化方法,对{Mdis(x,y)}进行归一化处理,得到{Mdis(x,y)}的归一化图像,记为{NM,dis(x,y)};其中,NL,dis(x,y)表示{NL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NR,dis(x,y)表示{NR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NM,dis(x,y)表示{NM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,
步骤2_4、利用最优的质量图生成网络模型提取出{NL,dis(x,y)}的预测质量图,记为同样,利用最优的质量图生成网络模型提取出{NR,dis(x,y)}的预测质量图,记为利用最优的质量图生成网络模型提取出{NM,dis(x,y)}的预测质量图,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值。
步骤2_5、采用现有的基于先验信息的显著图检测方法(Saliency Detectionbycombining Simple Priors,SDSP),对{Ldis(x,y)}进行显著图提取,得到{Ldis(x,y)}的显著特征图,记为{XL,dis(x,y)};同样,采用现有的基于先验信息的显著图检测方法,对{Rdis(x,y)}进行显著图提取,得到{Rdis(x,y)}的显著特征图,记为{XR,dis(x,y)};采用现有的基于先验信息的显著图检测方法,对{Mdis(x,y)}进行显著图提取,得到{Mdis(x,y)}的显著特征图,记为{XM,dis(x,y)};其中,XL,dis(x,y)表示{XL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XR,dis(x,y)表示{XR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XM,dis(x,y)表示{XM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值。
步骤2_6、采用显著性加权方法,结合和{XL,dis(x,y)},求取得到{Ldis(x,y)}的预测质量得分,记为qL,dis;同样,采用显著性加权方法,结合和{XR,dis(x,y)},求取得到{Rdis(x,y)}的预测质量得分,记为qR,dis;采用显著性加权方法,结合和{XM,dis(x,y)},求取得到{Mdis(x,y)}的预测质量得分,记为qM,dis
步骤2_7、采用现有的左右视点质量值加权融合方法,对qL,dis和qR,dis进行加权融合,得到左右视点图像的加权融合质量得分,记为qLR,dis;再将qLR,dis和qM,dis进行加权融合,得到Sdis的预测质量得分,记为q。
在此具体实施例中,步骤2_7中,qLR,dis的获取过程为:qLR,dis=βL×qL,disR×qR,dis,其中,βL表示qL,dis的权重,βR表示qR,dis的权重, EL,dis(x,y)表示{Ldis(x,y)}的能量图,ER,dis(x,y)表示{Rdis(x,y)}的能量图, EL,ref(x,y)表示{Lref(x,y)}的能量图,ER,ref(x,y)表示{Rref(x,y)}的能量图。
在此具体实施例中,步骤2_7中,q的获取过程为:q=βLR×qLR,disM×qM,dis,其中,βLR=0.2,βM=0.8。
为了进一步验证本发明方法的可行性和有效性,进行实验。
在此,选用两个立体图像数据库LIVE Phase I和LIVE Phase II来分析采用本发明方法得到的失真立体图像的预测质量得分与主观评分之间的相关性。这里,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearmanrankorder correlation coefficient,SROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映失真立体图像的预测质量得分的准确性,SROCC反映其单调性。
采用本发明方法计算立体图像数据库中的每幅失真立体图像的预测质量得分,再利用现有的主观质量评价方法获得立体图像数据库中的每幅失真立体图像的主观评分。将按本发明方法计算得到的失真立体图像的预测质量得分做五参数Logistic函数非线性拟合,PLCC和SROCC值越高,RMSE值越低说明客观评价方法的客观评价结果与主观评分之间的相关性越好。反映本发明方法的质量评价性能的PLCC、SROCC和RMSE相关系数如表1和表2所列。从表1和表2所列的数据可知,按本发明方法得到的失真立体图像的预测质量得分与主观评分之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的泛化性和有效性。
表1采用本发明方法得到的LIVE Phase I数据库中的失真立体图像的预测质量得分与主观评分之间的相关性
表2采用本发明方法得到的LIVE Phase II数据库中的失真立体图像的预测质量得分与主观评分之间的相关性

Claims (4)

1.一种基于质量图生成网络的无参考立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程;
所述的训练阶段过程的具体步骤为:
步骤1_1、选取nwsz幅原始的无失真平面图像,建立其在不同失真类型不同失真程度下的失真平面图像集合,将该失真平面图像集合作为训练集,训练集中包含多幅失真平面图像,将训练集中的第i幅失真平面图像记为{Idis,i(x',y')},将{Idis,i(x',y')}相应的原始的无失真平面图像记为{Iref,i(x',y')};其中,nwsz为正整数,nwsz>1,i为正整数,i的初始值为1,1≤i≤nsz,nsz表示训练集中包含的失真平面图像的总幅数,1≤x'≤W',1≤y'≤H',W'表示{Idis,i(x',y')}和{Iref,i(x',y')}的宽度,H'表示{Idis,i(x',y')}和{Iref,i(x',y')}的高度,Idis,i(x',y')表示{Idis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,Iref,i(x',y')表示{Iref,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_2、采用基于结构相似度的质量图求取方法,结合训练集中的每幅失真平面图像及其相应的原始的无失真平面图像,获取训练集中的每幅失真平面图像的质量图,将{Idis,i(x',y')}的质量图记为{Qdis,i(x',y')},{Qdis,i(x',y')}为结合{Idis,i(x',y')}和{Iref,i(x',y')}得到;其中,Qdis,i(x',y')表示{Qdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
采用归一化方法,对训练集中的每幅失真平面图像进行归一化处理,得到训练集中的每幅失真平面图像的归一化图像,将{Idis,i(x',y')}的归一化图像记为{Ndis,i(x',y')};其中,Ndis,i(x',y')表示{Ndis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_3、构建一个质量图生成网络:质量图生成网络是U-Net改进的卷积神经网络,质量图生成网络包括输入层、中间层和输出层,中间层由24个卷积层、4个最大池化层、4个上采样层、4个联接层组成;其中,所有卷积层各自的卷积核大小为3×3、步长为2、使用的激活函数为ReLU,第1个、第2个、第20个、第21个、第22个、第23个卷积层各自的卷积核个数为16,第3个、第4个、第17个、第18个、第19个卷积层各自的卷积核个数为32,第5个、第6个、第14个、第15个、第16个卷积层各自的卷积核个数为64,第7个、第8个、第11个、第12个、第13个卷积层各自的卷积核个数为128,第9个、第10个卷积层各自的卷积核个数为256,第24个卷积层的卷积核个数为1,所有最大池化层各自的池化窗口大小为3×3、步长为2,所有上采样层各自的上采样步长为2,所有联接层均采用concat联接函数;
对于输入层,输入层的输入端接收一幅输入图像,输入层的输出端输出输入图像给中间层;其中,要求输入层的输入端接收的输入图像的宽度为W'、高度为H';
对于中间层,第1个卷积层的输入端接收输入层的输出端输出的输入图像,第1个卷积层的输出端输出16幅特征图;第2个卷积层的输入端接收第1个卷积层的输出端输出的所有特征图,第2个卷积层的输出端输出16幅特征图;第1个最大池化层的输入端接收第2个卷积层的输出端输出的所有特征图,第1个最大池化层的输出端输出16幅特征图;第3个卷积层的输入端接收第1个最大池化层的输出端输出的所有特征图,第3个卷积层的输出端输出32幅特征图;第4个卷积层的输入端接收第3个卷积层的输出端输出的所有特征图,第4个卷积层的输出端输出32幅特征图;第2个最大池化层的输入端接收第4个卷积层的输出端输出的所有特征图,第2个最大池化层的输出端输出32幅特征图;第5个卷积层的输入端接收第2个最大池化层的输出端输出的所有特征图,第5个卷积层的输出端输出64幅特征图;第6个卷积层的输入端接收第5个卷积层的输出端输出的所有特征图,第6个卷积层的输出端输出64幅特征图;第3个最大池化层的输入端接收第6个卷积层的输出端输出的所有特征图,第3个最大池化层的输出端输出64幅特征图;第7个卷积层的输入端接收第3个最大池化层的输出端输出的所有特征图,第7个卷积层的输出端输出128幅特征图;第8个卷积层的输入端接收第7个卷积层的输出端输出的所有特征图,第8个卷积层的输出端输出128幅特征图;第4个最大池化层的输入端接收第8个卷积层的输出端输出的所有特征图,第4个最大池化层的输出端输出128幅特征图;第9个卷积层的输入端接收第4个最大池化层的输出端输出的所有特征图,第9个卷积层的输出端输出256幅特征图;第10个卷积层的输入端接收第9个卷积层的输出端输出的所有特征图,第10个卷积层的输出端输出256幅特征图;第1个上采样层的输入端接收第10个卷积层的输出端输出的所有特征图,第1个上采样层的输出端输出256幅特征图;第11个卷积层的输入端接收第1个上采样层的输出端输出的所有特征图,第11个卷积层的输出端输出128幅特征图;第1个联接层的输入端接收第11个卷积层的输出端输出的所有特征图和第8个卷积层的输出端输出的所有特征图,第1个联接层的输出端输出256幅特征图;第12个卷积层的输入端接收第1个联接层的输出端输出的所有特征图,第12个卷积层的输出端输出128幅特征图;第13个卷积层的输入端接收第12个卷积层的输出端输出的所有特征图,第13个卷积层的输出端输出128幅特征图;第2个上采样层的输入端接收第13个卷积层的输出端输出的所有特征图,第2个上采样层的输出端输出128幅特征图;第14个卷积层的输入端接收第2个上采样层的输出端输出的所有特征图,第14个卷积层的输出端输出64幅特征图;第2个联接层的输入端接收第14个卷积层的输出端输出的所有特征图和第6个卷积层的输出端输出的所有特征图,第2个联接层的输出端输出128幅特征图;第15个卷积层的输入端接收第2个联接层的输出端输出的所有特征图,第15个卷积层的输出端输出64幅特征图;第16个卷积层的输入端接收第15个卷积层的输出端输出的所有特征图,第16个卷积层的输出端输出64幅特征图;第3个上采样层的输入端接收第16个卷积层的输出端输出的所有特征图,第3个上采样层的输出端输出64幅特征图;第17个卷积层的输入端接收第3个上采样层的输出端输出的所有特征图,第17个卷积层的输出端输出32幅特征图;第3个联接层的输入端接收第17个卷积层的输出端输出的所有特征图和第4个卷积层的输出端输出的所有特征图,第3个联接层的输出端输出64幅特征图;第18个卷积层的输入端接收第3个联接层的输出端输出的所有特征图,第18个卷积层的输出端输出32幅特征图;第19个卷积层的输入端接收第18个卷积层的输出端输出的所有特征图,第19个卷积层的输出端输出32幅特征图;第4个上采样层的输入端接收第19个卷积层的输出端输出的所有特征图,第4个上采样层的输出端输出32幅特征图;第20个卷积层的输入端接收第4个上采样层的输出端输出的所有特征图,第20个卷积层的输出端输出16幅特征图;第4个联接层的输入端接收第20个卷积层的输出端输出的所有特征图和第2个卷积层的输出端输出的所有特征图,第4个联接层的输出端输出32幅特征图;第21个卷积层的输入端接收第4个联接层的输出端输出的所有特征图,第21个卷积层的输出端输出16幅特征图;第22个卷积层的输入端接收第21个卷积层的输出端输出的所有特征图,第22个卷积层的输出端输出16幅特征图;第23个卷积层的输入端接收第22个卷积层的输出端输出的所有特征图,第23个卷积层的输出端输出16幅特征图;第24个卷积层的输入端接收第23个卷积层的输出端输出的所有特征图,第24个卷积层的输出端输出1幅特征图;
对于输出层,输出层的输入端接收第24个卷积层的输出端输出的1幅特征图,输出层的输出端输出1幅特征图作为输入图像的预测质量图;
步骤1_4、将训练集中的所有失真平面图像的归一化图像依次作为输入图像输入到质量图生成网络中,并将对应的质量图作为质量图生成网络的监督,对质量图生成网络进行训练,训练得到最优的质量图生成网络模型;
所述的测试阶段过程的具体步骤为:
步骤2_1、令Sref表示原始的无失真立体图像,令Sdis为Sref经失真处理后得到的失真立体图像,并将Sdis作为待评价的失真立体图像;将Sref的左视点图像记为{Lref(x,y)},将Sref的右视点图像记为{Rref(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sref和Sdis的宽度,H表示Sref和Sdis的高度,Lref(x,y)表示{Lref(x,y)}中坐标位置为(x,y)的像素点的像素值,Rref(x,y)表示{Rref(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_2、采用融合图像生成方法,对{Ldis(x,y)}和{Rdis(x,y)}进行融合处理,得到Sdis的融合图像,记为{Mdis(x,y)};其中,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_3、采用归一化方法,对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为{NL,dis(x,y)};同样,采用归一化方法,对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为{NR,dis(x,y)};采用归一化方法,对{Mdis(x,y)}进行归一化处理,得到{Mdis(x,y)}的归一化图像,记为{NM,dis(x,y)};其中,NL,dis(x,y)表示{NL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NR,dis(x,y)表示{NR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,NM,dis(x,y)表示{NM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_4、利用最优的质量图生成网络模型提取出{NL,dis(x,y)}的预测质量图,记为同样,利用最优的质量图生成网络模型提取出{NR,dis(x,y)}的预测质量图,记为利用最优的质量图生成网络模型提取出{NM,dis(x,y)}的预测质量图,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
步骤2_5、采用基于先验信息的显著图检测方法,对{Ldis(x,y)}进行显著图提取,得到{Ldis(x,y)}的显著特征图,记为{XL,dis(x,y)};同样,采用基于先验信息的显著图检测方法,对{Rdis(x,y)}进行显著图提取,得到{Rdis(x,y)}的显著特征图,记为{XR,dis(x,y)};采用基于先验信息的显著图检测方法,对{Mdis(x,y)}进行显著图提取,得到{Mdis(x,y)}的显著特征图,记为{XM,dis(x,y)};其中,XL,dis(x,y)表示{XL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XR,dis(x,y)表示{XR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,XM,dis(x,y)表示{XM,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤2_6、采用显著性加权方法,结合和{XL,dis(x,y)},求取得到{Ldis(x,y)}的预测质量得分,记为qL,dis;同样,采用显著性加权方法,结合和{XR,dis(x,y)},求取得到{Rdis(x,y)}的预测质量得分,记为qR,dis;采用显著性加权方法,结合和{XM,dis(x,y)},求取得到{Mdis(x,y)}的预测质量得分,记为qM,dis
步骤2_7、采用左右视点质量值加权融合方法,对qL,dis和qR,dis进行加权融合,得到左右视点图像的加权融合质量得分,记为qLR,dis;再将qLR,dis和qM,dis进行加权融合,得到Sdis的预测质量得分,记为q。
2.根据权利要求1所述的一种基于质量图生成网络的无参考立体图像质量评价方法,其特征在于所述的步骤1_2中,Qdis,i(x',y')的获取过程为:
步骤1_2a、计算{Iref,i(x',y')}的局部均值映射图,记为{μref,i(x',y')};并计算{Idis,i(x',y')}的局部均值映射图,记为{μdis,i(x',y')};计算{Iref,i(x',y')}的局部标准差映射图,记为{σref,i(x',y')};计算{Idis,i(x',y')}的局部标准差映射图,记为{σdis,i(x',y')};计算{Iref,i(x',y')}与{Idis,i(x',y')}的局部协方差映射图,记为{σref,dis,i(x',y')};其中,μref,i(x',y')表示{μref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,μdis,i(x',y')表示{μdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,i(x',y')表示{σref,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σdis,i(x',y')表示{σdis,i(x',y')}中坐标位置为(x',y')的像素点的像素值,σref,dis,i(x',y')表示{σref,dis,i(x',y')}中坐标位置为(x',y')的像素点的像素值;
步骤1_2b、根据{μref,i(x',y')}、{μdis,i(x',y')}、{σref,i(x',y')}、{σdis,i(x',y')}和{σref,dis,i(x',y')},获得{Qdis,i(x',y')},
其中,C1和C2均为用于防止分母为0的小常数。
3.根据权利要求1或2所述的一种基于质量图生成网络的无参考立体图像质量评价方法,其特征在于所述的步骤2_7中,qLR,dis的获取过程为:qLR,dis=βL×qL,disR×qR,dis,其中,βL表示qL,dis的权重,βR表示qR,dis的权重, EL,dis(x,y)表示{Ldis(x,y)}的能量图,ER,dis(x,y)表示{Rdis(x,y)}的能量图,EL,ref(x,y)表示{Lref(x,y)}的能量图,ER,ref(x,y)表示{Rref(x,y)}的能量图。
4.根据权利要求3所述的一种基于质量图生成网络的无参考立体图像质量评价方法,其特征在于所述的步骤2_7中,q的获取过程为:q=βLR×qLR,disM×qM,dis,其中,βLR=0.2,βM=0.8。
CN201910058364.8A 2019-01-22 2019-01-22 一种基于质量图生成网络的无参考立体图像质量评价方法 Active CN109872305B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910058364.8A CN109872305B (zh) 2019-01-22 2019-01-22 一种基于质量图生成网络的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910058364.8A CN109872305B (zh) 2019-01-22 2019-01-22 一种基于质量图生成网络的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN109872305A true CN109872305A (zh) 2019-06-11
CN109872305B CN109872305B (zh) 2020-08-18

Family

ID=66917919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910058364.8A Active CN109872305B (zh) 2019-01-22 2019-01-22 一种基于质量图生成网络的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN109872305B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110278415A (zh) * 2019-07-02 2019-09-24 浙江大学 一种网络摄像机视频质量提升方法
CN110738645A (zh) * 2019-10-11 2020-01-31 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN110751632A (zh) * 2019-10-11 2020-02-04 浙江科技学院 基于卷积神经网络的多尺度图像质量检测方法
CN111127587A (zh) * 2019-12-16 2020-05-08 杭州电子科技大学 一种基于对抗生成网络的无参考图像质量地图生成方法
CN111882516A (zh) * 2020-02-19 2020-11-03 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN112233089A (zh) * 2020-10-14 2021-01-15 西安交通大学 一种无参考立体混合失真图像质量评价方法
CN112561993A (zh) * 2020-12-07 2021-03-26 宁波大学 一种立体图像重定位方法
CN113205503A (zh) * 2021-05-11 2021-08-03 宁波海上鲜信息技术股份有限公司 一种卫星海岸带影像质量评价方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243976A (zh) * 2014-09-23 2014-12-24 浙江科技学院 一种立体图像客观质量评价方法
CN104361583A (zh) * 2014-10-27 2015-02-18 浙江科技学院 一种非对称失真立体图像客观质量评价方法
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法
CN105744256A (zh) * 2016-03-31 2016-07-06 天津大学 基于图谱视觉显著的立体图像质量客观评价方法
CN107578404A (zh) * 2017-08-22 2018-01-12 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN109167996A (zh) * 2018-09-21 2019-01-08 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243976A (zh) * 2014-09-23 2014-12-24 浙江科技学院 一种立体图像客观质量评价方法
CN104361583A (zh) * 2014-10-27 2015-02-18 浙江科技学院 一种非对称失真立体图像客观质量评价方法
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法
CN105744256A (zh) * 2016-03-31 2016-07-06 天津大学 基于图谱视觉显著的立体图像质量客观评价方法
CN107578404A (zh) * 2017-08-22 2018-01-12 浙江大学 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN109167996A (zh) * 2018-09-21 2019-01-08 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIN ZHANG ET AL.: "SDSP: A NOVEL SALIENCY DETECTION METHOD BY COMBINING SIMPLE PRIORS", 《IEEE》 *
MING-JUN CHEN ET AL.: "Full-reference quality assessment of stereopairs accounting for rivalry", 《ELSEVIER》 *
VIJAY BADRINARAYANAN ET AL.: "SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110278415B (zh) * 2019-07-02 2020-04-28 浙江大学 一种网络摄像机视频质量提升方法
CN110278415A (zh) * 2019-07-02 2019-09-24 浙江大学 一种网络摄像机视频质量提升方法
CN110751632B (zh) * 2019-10-11 2022-05-31 浙江科技学院 基于卷积神经网络的多尺度图像质量检测方法
CN110751632A (zh) * 2019-10-11 2020-02-04 浙江科技学院 基于卷积神经网络的多尺度图像质量检测方法
CN110738645A (zh) * 2019-10-11 2020-01-31 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN110738645B (zh) * 2019-10-11 2022-06-10 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN111127587A (zh) * 2019-12-16 2020-05-08 杭州电子科技大学 一种基于对抗生成网络的无参考图像质量地图生成方法
CN111127587B (zh) * 2019-12-16 2023-06-23 杭州电子科技大学 一种基于对抗生成网络的无参考图像质量地图生成方法
CN111882516A (zh) * 2020-02-19 2020-11-03 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN111882516B (zh) * 2020-02-19 2023-07-07 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN112233089A (zh) * 2020-10-14 2021-01-15 西安交通大学 一种无参考立体混合失真图像质量评价方法
CN112561993A (zh) * 2020-12-07 2021-03-26 宁波大学 一种立体图像重定位方法
CN112561993B (zh) * 2020-12-07 2023-04-28 宁波大学 一种立体图像重定位方法
CN113205503A (zh) * 2021-05-11 2021-08-03 宁波海上鲜信息技术股份有限公司 一种卫星海岸带影像质量评价方法

Also Published As

Publication number Publication date
CN109872305B (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN109872305A (zh) 一种基于质量图生成网络的无参考立体图像质量评价方法
CN109167996B (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN109410261B (zh) 基于金字塔池化模块的单目图像深度估计方法
CN107027023B (zh) 基于神经网络的VoIP无参考视频通信质量客观评价方法
CN108537191B (zh) 一种基于结构光摄像头的三维人脸识别方法
CN108428227A (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN102421007B (zh) 基于多尺度结构相似度加权综合的图像质量评价方法
CN103258157B (zh) 一种基于手指信息的在线笔迹认证方法及系统
CN108665460A (zh) 基于组合神经网络和分类神经网络的图像质量评价方法
CN110059741A (zh) 基于语义胶囊融合网络的图像识别方法
CN110175986A (zh) 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN103996192A (zh) 基于高质量自然图像统计量模型的无参考图像质量评价方法
CN110009210A (zh) 一种基于关注度和专注度的学生听课水平综合评估方法
CN110059728A (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN110246148A (zh) 多模态的深度信息融合和注意力学习的显著性检测方法
CN112257741B (zh) 一种基于复数神经网络的生成性对抗虚假图片的检测方法
CN112785205A (zh) 一种基于教育大数据的智慧教学综合分析系统
CN104778466A (zh) 一种联合多种上下文线索的图像关注区域检测方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN106023214A (zh) 基于中央凹视梯度结构相似性的图像质量评价方法及系统
CN104506852B (zh) 一种面向视频会议编码的客观质量评估方法
CN103366369B (zh) 一种评价图像中块效应的方法及装置
CN107578406A (zh) 基于网格与韦泊统计特性的无参考立体图像质量评价方法
CN104408736A (zh) 基于特征相似性的合成人脸画像质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant