CN109167996B - 一种基于卷积神经网络的无参考立体图像质量评价方法 - Google Patents

一种基于卷积神经网络的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN109167996B
CN109167996B CN201811104375.7A CN201811104375A CN109167996B CN 109167996 B CN109167996 B CN 109167996B CN 201811104375 A CN201811104375 A CN 201811104375A CN 109167996 B CN109167996 B CN 109167996B
Authority
CN
China
Prior art keywords
dis
convolutional layer
conv3
layer
conv2
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811104375.7A
Other languages
English (en)
Other versions
CN109167996A (zh
Inventor
周武杰
张爽爽
张宇来
邱薇薇
周扬
向坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Benxi Steel Group Information Automation Co ltd
Original Assignee
Zhejiang University of Science and Technology ZUST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Science and Technology ZUST filed Critical Zhejiang University of Science and Technology ZUST
Priority to CN201811104375.7A priority Critical patent/CN109167996B/zh
Publication of CN109167996A publication Critical patent/CN109167996A/zh
Application granted granted Critical
Publication of CN109167996B publication Critical patent/CN109167996B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的无参考立体图像质量评价方法,其利用卷积神经网络提取出失真立体图像的左视点图像和右视点图像各自的归一化图像的特征图;然后利用全卷积神经网络提取出两类特征图的联合特征图,并将联合特征图展平成一维向量作为特征向量;接着利用深度神经网络对用于训练的失真立体图像各自的主观评分及特征向量进行训练,得到全局最优的深度神经网络模型;最后利用全局最优的深度神经网络模型对用于测试的失真立体图像的特征向量进行测试,预测得到用于测试的失真立体图像的客观质量评价预测值;优点是其能够充分考虑到立体图像的多种特性对视觉质量的影响,从而能够有效地提高客观评价结果与双目主观感知之间的相关性。

Description

一种基于卷积神经网络的无参考立体图像质量评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于卷积神经网络的无参考立体图像质量评价方法。
背景技术
随着三维(3D)技术的快速发展,越来越多的3D内容电影产生,同时也给人们带来了许多新的问题和挑战。在数字信息大爆炸的今天,立体技术不断成熟,立体产品也不断丰富着人们的生活。越来越多的立体电影占据了荧幕,使人们能更加生动形象地感受到画面,视频电话、3D游戏、手机、电视也越来越多的运用立体技术获得更好的视觉体验。除此之外,立体图像/视频技术还广泛应用于医疗、农业、智能生活、教育、军事等领域。然而,常见的立体图像处理技术包括立体图像/视频的采集、编码、传输、显示和评价等,这一系列的过程会不可避免地引入失真,从而影响了立体图像/视频的立体感及观看舒适度,并有可能带给人们错误的认知,这也严重制约着立体产品的推广及普及。因此,建立一套有效的系统来衡量立体图像的质量是非常有必要的。立体图像质量评价技术作为促进立体图像/视频技术发展的重要技术,已经成为了立体图像处理技术领域的研究热点之一。
现有的大多数立体图像质量评价方法都无法精确判断出立体图像的质量,并且现有的无参考立体图像质量评价方法还是无参考平面图像质量评价方法的简单扩展,没有考虑双目视觉特性,也没有充分学习特征数据的能力,因此,如何在评价过程中有效地提取特征信息,并有效地学习特征信息,在评价过程中进行双目视觉特性结合,并使用有效的特征学习模型,使得客观评价结果更加符合人类视觉感知系统,是对立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于卷积神经网络的无参考立体图像质量评价方法,其能够充分考虑到立体图像的多种特性对视觉质量的影响,从而能够有效地提高客观评价结果与双目主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于卷积神经网络的无参考立体图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤二:采用归一化方法对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为 同样,采用归一化方法对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为
步骤三:利用卷积神经网络提取出的特征图,记为同样,利用卷积神经网络提取出的特征图,记为其中,卷积神经网络包括依次设置的第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层,第一卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第一最大池化层的步长为2,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第二最大池化层的步长为2,第三卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第三最大池化层的步长为2,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=W/23,Nconv3=H/23表示中坐标位置为(mconv3,nconv3)的像素点的像素值,表示中坐标位置为(mconv3,nconv3)的像素点的像素值;
步骤四:利用全卷积神经网络提取出的联合特征图,记为{Fdis,FullConv4(m,n)};其中,全卷积神经网络包括依次设置的第一卷积层、第二卷积层、第三卷积层、第四卷积层,第一卷积层的卷积核的个数为64、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第三卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第四卷积层的卷积核的个数为1、卷积核的尺寸大小为3×3,第四卷积层使用的激活函数为ReLU,1≤m≤M,1≤n≤N,M=W/2,N=H/2,Fdis,FullConv4(m,n)表示{Fdis,FullConv4(m,n)}中坐标位置为(m,n)的像素点的像素值;
步骤五:将{Fdis,FullConv4(m,n)}展平为一维向量,作为Sdis的特征向量,记为Fdis;其中,Fdis的维数为1×(M×N),Fdis中的第i个元素为{Fdis,FullConv4(m,n)}中的第i个像素点的像素值,i为正整数,1≤i≤(M×N);
步骤六:选取n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;再按照步骤一至步骤五的操作,以相同的方式获取训练集中的每幅失真立体图像的特征向量,将训练集中的第j幅失真立体图像的特征向量记为Fdis,j;其中,n>1,j的初始值为1,j为正整数,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Fdis,j的维数为1×(M×N);
步骤七:利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络模型;其中,深度神经网络包括依次设置的第一全连接层、第二全连接层、第三全连接层,第一全连接层的神经元节点的个数为128、使用的激活函数为ReLU,第二全连接层的神经元节点的个数为64、使用的激活函数为ReLU,第三全连接层的神经元节点的个数为1,第三全连接层作为输出层;
步骤八:利用全局最优的深度神经网络模型对Fdis进行预测,预测得到Sdis的客观质量评价预测值,记为Q,其中,f()为函数表示形式,α2(Fdis)表示全局最优的深度神经网络模型中的第二全连接层的输出,α1(Fdis)表示全局最优的深度神经网络模型中的第一全连接层的输出,α1(Fdis)=f(ω1 TFdis+b1),为ω3的转置,ω3表示全局最优的深度神经网络模型中的第三全连接层的权重参数,为ω2的转置,ω2表示全局最优的深度神经网络模型中的第二全连接层的权重参数,ω1 T为ω1的转置,ω1表示全局最优的深度神经网络模型中的第一全连接层的权重参数,b3表示全局最优的深度神经网络模型中的第三全连接层的偏置参数,b2表示全局最优的深度神经网络模型中的第二全连接层的偏置参数,b1表示全局最优的深度神经网络模型中的第一全连接层的偏置参数。
所述的步骤三中,的获取过程为:
A1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值;
A2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值;
A3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
所述的步骤三中,的获取过程为:
B1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值;
B2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值;
B3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
所述的步骤四中,{Fdis,FullConv4(m,n)}的获取过程为:
C1、将作为输入,输入到第一卷积层中,将第一卷积层的输出记为{Fdis,FullConv1(m,n)};其中,Fdis,FullConv1(m,n)表示{Fdis,FullConv1(m,n)}中坐标位置为(m,n)的像素点的像素值;
C2、{Fdis,FullConv1(m,n)}输入到第二卷积层中,将第二卷积层的输出记为{Fdis,FullConv2(m,n)};其中,Fdis,FullConv2(m,n)表示{Fdis,FullConv2(m,n)}中坐标位置为(m,n)的像素点的像素值;
C3、{Fdis,FullConv2(m,n)}输入到第三卷积层中,将第三卷积层的输出记为{Fdis,FullConv3(m,n)};其中,Fdis,FullConv3(m,n)表示{Fdis,FullConv3(m,n)}中坐标位置为(m,n)的像素点的像素值;
C4、{Fdis,FullConv3(m,n)}输入到第四卷积层中,第四卷积层的输出即为{Fdis,FullConv4(m,n)}。
与现有技术相比,本发明的优点在于:
1)本发明方法利用卷积神经网络提取左视点图像和右视点图像各自相关的特征图,由于卷积神经网络符合人眼神经学的生理特征,因此能够有效提取出与人眼感知高度一致的特征图。
2)本发明方法在充分利用了双目视觉感知特性的基础上,分别对左视点图像和右视点图像进行特征图提取,充分考虑了左视点图像和右视点图像分别对立体图像的影响,因此能有效地提高客观评价结果与主观感知之间的相关性。
3)本发明方法利用符合人脑机理特性的深度神经网络预测得到待评价的失真立体图像的客观质量评价预测值,使客观评价值能更加准确地预测失真立体图像的质量。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于卷积神经网络的无参考立体图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
步骤一:令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
步骤二:采用归一化方法对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为 同样,采用归一化方法对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为
步骤三:利用卷积神经网络提取出的特征图,记为同样,利用卷积神经网络提取出的特征图,记为其中,卷积神经网络包括依次设置的第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层,第一卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第一最大池化层的步长为2,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第二最大池化层的步长为2,第三卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第三最大池化层的步长为2,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=W/23,Nconv3=H/23表示中坐标位置为(mconv3,nconv3)的像素点的像素值,表示中坐标位置为(mconv3,nconv3)的像素点的像素值。
在本实施例中,步骤三中,的获取过程为:
A1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值。
A2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值。
A3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
在本实施例中,步骤三中,的获取过程为:
B1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值。
B2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值。
B3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
步骤四:利用全卷积神经网络提取出的联合特征图,记为{Fdis,FullConv4(m,n)};其中,全卷积神经网络包括依次设置的第一卷积层、第二卷积层、第三卷积层、第四卷积层,第一卷积层的卷积核的个数为64、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第三卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第四卷积层的卷积核的个数为1、卷积核的尺寸大小为3×3,第四卷积层使用的激活函数为ReLU,1≤m≤M,1≤n≤N,M=W/2,N=H/2,Fdis,FullConv4(m,n)表示{Fdis,FullConv4(m,n)}中坐标位置为(m,n)的像素点的像素值。
在本实施例中,步骤四中,{Fdis,FullConv4(m,n)}的获取过程为:
C1、将作为输入,输入到第一卷积层中,将第一卷积层的输出记为{Fdis,FullConv1(m,n)};其中,Fdis,FullConv1(m,n)表示{Fdis,FullConv1(m,n)}中坐标位置为(m,n)的像素点的像素值。
C2、{Fdis,FullConv1(m,n)}输入到第二卷积层中,将第二卷积层的输出记为{Fdis,FullConv2(m,n)};其中,Fdis,FullConv2(m,n)表示{Fdis,FullConv2(m,n)}中坐标位置为(m,n)的像素点的像素值。
C3、{Fdis,FullConv2(m,n)}输入到第三卷积层中,将第三卷积层的输出记为{Fdis,FullConv3(m,n)};其中,Fdis,FullConv3(m,n)表示{Fdis,FullConv3(m,n)}中坐标位置为(m,n)的像素点的像素值。
C4、{Fdis,FullConv3(m,n)}输入到第四卷积层中,第四卷积层的输出即为{Fdis,FullConv4(m,n)}。
步骤五:将{Fdis,FullConv4(m,n)}展平为一维向量,作为Sdis的特征向量,记为Fdis;其中,Fdis的维数为1×(M×N),Fdis中的第i个元素为{Fdis,FullConv4(m,n)}中的第i个像素点的像素值,i为正整数,1≤i≤(M×N)。
步骤六:选取n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用现有的主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;再按照步骤一至步骤五的操作,以相同的方式获取训练集中的每幅失真立体图像的特征向量,将训练集中的第j幅失真立体图像的特征向量记为Fdis,j;其中,n>1,如取n=100,j的初始值为1,j为正整数,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Fdis,j的维数为1×(M×N)。
步骤七:深度神经网络(Deep Neural Network,DNN)是基于人类大脑神经网络设计的机器学习方法,其可以有效地抑制过拟合问题,充分学习特征中所包含的图像信息,因此本发明利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络模型;其中,深度神经网络包括依次设置的第一全连接层、第二全连接层、第三全连接层,第一全连接层的神经元节点的个数为128、使用的激活函数为ReLU,第二全连接层的神经元节点的个数为64、使用的激活函数为ReLU,第三全连接层的神经元节点的个数为1,第三全连接层作为输出层,第三全连接层不使用任何激活函数。
步骤八:利用全局最优的深度神经网络模型对Fdis进行预测,预测得到Sdis的客观质量评价预测值,记为Q,其中,f()为函数表示形式,α2(Fdis)表示全局最优的深度神经网络模型中的第二全连接层的输出,α1(Fdis)表示全局最优的深度神经网络模型中的第一全连接层的输出,α1(Fdis)=f(ω1 TFdis+b1),为ω3的转置,ω3表示全局最优的深度神经网络模型中的第三全连接层的权重参数,为ω2的转置,ω2表示全局最优的深度神经网络模型中的第二全连接层的权重参数,ω1 T为ω1的转置,ω1表示全局最优的深度神经网络模型中的第一全连接层的权重参数,b3表示全局最优的深度神经网络模型中的第三全连接层的偏置参数,b2表示全局最优的深度神经网络模型中的第二全连接层的偏置参数,b1表示全局最优的深度神经网络模型中的第一全连接层的偏置参数。
为了进一步验证本发明方法的可行性和有效性,进行实验。
在此,选用对称失真LIVE立体图像失真库来分析采用本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性。这里,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearsonlinear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank ordercorrelation coefficient,SROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映失真立体图像的客观质量评价预测值的准确性,SROCC反映其单调性。
采用本发明方法计算对称失真LIVE立体图像失真库中的每幅失真立体图像的客观质量评价预测值,再利用现有的主观质量评价方法获得对称失真LIVE立体图像失真库中的每幅失真立体图像的主观评分。将按本发明方法计算得到的失真立体图像的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高,RMSE值越低说明客观评价方法的客观评价结果与主观评分之间的相关性越好。反映本发明方法的质量评价性能的PLCC、SROCC和RMSE相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1采用本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性

Claims (3)

1.一种基于卷积神经网络的无参考立体图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤二:采用归一化方法对{Ldis(x,y)}进行归一化处理,得到{Ldis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为 同样,采用归一化方法对{Rdis(x,y)}进行归一化处理,得到{Rdis(x,y)}的归一化图像,记为中坐标位置为(x,y)的像素点的像素值记为
步骤三:利用卷积神经网络提取出的特征图,记为同样,利用卷积神经网络提取出的特征图,记为其中,卷积神经网络包括依次设置的第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层,第一卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第一最大池化层的步长为2,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第二最大池化层的步长为2,第三卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第三最大池化层的步长为2,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=W/23,Nconv3=H/23表示中坐标位置为(mconv3,nconv3)的像素点的像素值,表示中坐标位置为(mconv3,nconv3)的像素点的像素值;
步骤四:利用全卷积神经网络提取出的联合特征图,记为{Fdis,FullConv4(m,n)};其中,全卷积神经网络包括依次设置的第一卷积层、第二卷积层、第三卷积层、第四卷积层,第一卷积层的卷积核的个数为64、卷积核的尺寸大小为3×3,第一卷积层使用的激活函数为ReLU,第二卷积层的卷积核的个数为32、卷积核的尺寸大小为3×3,第二卷积层使用的激活函数为ReLU,第三卷积层的卷积核的个数为16、卷积核的尺寸大小为3×3,第三卷积层使用的激活函数为ReLU,第四卷积层的卷积核的个数为1、卷积核的尺寸大小为3×3,第四卷积层使用的激活函数为ReLU,1≤m≤M,1≤n≤N,M=W/2,N=H/2,Fdis,FullConv4(m,n)表示{Fdis,FullConv4(m,n)}中坐标位置为(m,n)的像素点的像素值;
步骤五:将{Fdis,FullConv4(m,n)}展平为一维向量,作为Sdis的特征向量,记为Fdis;其中,Fdis的维数为1×(M×N),Fdis中的第i个元素为{Fdis,FullConv4(m,n)}中的第i个像素点的像素值,i为正整数,1≤i≤(M×N);
步骤六:选取n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;再按照步骤一至步骤五的操作,以相同的方式获取训练集中的每幅失真立体图像的特征向量,将训练集中的第j幅失真立体图像的特征向量记为Fdis,j;其中,n>1,j的初始值为1,j为正整数,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Fdis,j的维数为1×(M×N);
步骤七:利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络模型;其中,深度神经网络包括依次设置的第一全连接层、第二全连接层、第三全连接层,第一全连接层的神经元节点的个数为128、使用的激活函数为ReLU,第二全连接层的神经元节点的个数为64、使用的激活函数为ReLU,第三全连接层的神经元节点的个数为1,第三全连接层作为输出层;
步骤八:利用全局最优的深度神经网络模型对Fdis进行预测,预测得到Sdis的客观质量评价预测值,记为Q,其中,f()为函数表示形式,α2(Fdis)表示全局最优的深度神经网络模型中的第二全连接层的输出,α1(Fdis)表示全局最优的深度神经网络模型中的第一全连接层的输出, 为ω3的转置,ω3表示全局最优的深度神经网络模型中的第三全连接层的权重参数,为ω2的转置,ω2表示全局最优的深度神经网络模型中的第二全连接层的权重参数,为ω1的转置,ω1表示全局最优的深度神经网络模型中的第一全连接层的权重参数,b3表示全局最优的深度神经网络模型中的第三全连接层的偏置参数,b2表示全局最优的深度神经网络模型中的第二全连接层的偏置参数,b1表示全局最优的深度神经网络模型中的第一全连接层的偏置参数。
2.根据权利要求1所述的一种基于卷积神经网络的无参考立体图像质量评价方法,其特征在于所述的步骤三中,的获取过程为:
A1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值;
A2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值;
A3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
所述的步骤三中,的获取过程为:
B1、将作为输入,输入到第一卷积层中;然后第一卷积层的输出输入到第一最大池化层中,将第一最大池化层的输出记为其中,1≤mconv1≤Mconv1,1≤nconv1≤Nconv1,Mconv1=W/2,Nconv1=H/2,表示中坐标位置为(mconv1,nconv1)的像素点的像素值;
B2、输入到第二卷积层中;然后第二卷积层的输出输入到第二最大池化层中,将第二最大池化层的输出记为其中,1≤mconv2≤Mconv2,1≤nconv2≤Nconv2,Mconv2=Mconv1/2,Nconv2=Nconv1/2,表示中坐标位置为(mconv2,nconv2)的像素点的像素值;
B3、输入到第三卷积层中;然后第三卷积层的输出输入到第三最大池化层中,第三最大池化层的输出即为其中,1≤mconv3≤Mconv3,1≤nconv3≤Nconv3,Mconv3=Mconv2/2=W/23,Nconv3=Nconv2/2=H/23
3.根据权利要求1或2所述的一种基于卷积神经网络的无参考立体图像质量评价方法,其特征在于所述的步骤四中,{Fdis,FullConv4(m,n)}的获取过程为:
C1、将作为输入,输入到第一卷积层中,将第一卷积层的输出记为{Fdis,FullConv1(m,n)};其中,Fdis,FullConv1(m,n)表示{Fdis,FullConv1(m,n)}中坐标位置为(m,n)的像素点的像素值;
C2、{Fdis,FullConv1(m,n)}输入到第二卷积层中,将第二卷积层的输出记为{Fdis,FullConv2(m,n)};其中,Fdis,FullConv2(m,n)表示{Fdis,FullConv2(m,n)}中坐标位置为(m,n)的像素点的像素值;
C3、{Fdis,FullConv2(m,n)}输入到第三卷积层中,将第三卷积层的输出记为{Fdis,FullConv3(m,n)};其中,Fdis,FullConv3(m,n)表示{Fdis,FullConv3(m,n)}中坐标位置为(m,n)的像素点的像素值;
C4、{Fdis,FullConv3(m,n)}输入到第四卷积层中,第四卷积层的输出即为{Fdis,FullConv4(m,n)}。
CN201811104375.7A 2018-09-21 2018-09-21 一种基于卷积神经网络的无参考立体图像质量评价方法 Active CN109167996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811104375.7A CN109167996B (zh) 2018-09-21 2018-09-21 一种基于卷积神经网络的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811104375.7A CN109167996B (zh) 2018-09-21 2018-09-21 一种基于卷积神经网络的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN109167996A CN109167996A (zh) 2019-01-08
CN109167996B true CN109167996B (zh) 2019-10-29

Family

ID=64880068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811104375.7A Active CN109167996B (zh) 2018-09-21 2018-09-21 一种基于卷积神经网络的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN109167996B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886924A (zh) * 2019-01-19 2019-06-14 天津大学 基于cnn的屏幕失真图像无参考质量评价方法
CN109872305B (zh) * 2019-01-22 2020-08-18 浙江科技学院 一种基于质量图生成网络的无参考立体图像质量评价方法
CN109714593A (zh) * 2019-01-31 2019-05-03 天津大学 基于双目融合网络与显著性的立体视频质量评价方法
CN109714592A (zh) * 2019-01-31 2019-05-03 天津大学 基于双目融合网络的立体图像质量评价方法
CN110060236B (zh) * 2019-03-27 2023-08-11 天津大学 基于深度卷积神经网络的立体图像质量评价方法
CN110111304B (zh) * 2019-04-04 2023-08-29 天津大学 基于局部到全局特征回归的无参考立体图像质量评价方法
CN110636278A (zh) * 2019-06-27 2019-12-31 天津大学 基于稀疏双目融合卷积神经网络的立体图像质量评价方法
CN110458784A (zh) * 2019-08-31 2019-11-15 杭州当虹科技股份有限公司 一种基于图像感知质量的去压缩噪声方法
CN113205503B (zh) * 2021-05-11 2022-09-30 宁波海上鲜信息技术股份有限公司 一种卫星海岸带影像质量评价方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105376563A (zh) * 2015-11-17 2016-03-02 浙江科技学院 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN106023152A (zh) * 2016-05-09 2016-10-12 浙江科技学院 一种无参考立体图像质量客观评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN108492275A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于深度神经网络的无参考立体图像质量评价方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105376563A (zh) * 2015-11-17 2016-03-02 浙江科技学院 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN106023152A (zh) * 2016-05-09 2016-10-12 浙江科技学院 一种无参考立体图像质量客观评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN108492275A (zh) * 2018-01-24 2018-09-04 浙江科技学院 基于深度神经网络的无参考立体图像质量评价方法
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法

Also Published As

Publication number Publication date
CN109167996A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
CN109167996B (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN107027023B (zh) 基于神经网络的VoIP无参考视频通信质量客观评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN110060236B (zh) 基于深度卷积神经网络的立体图像质量评价方法
CN107396095B (zh) 一种无参考三维图像质量评价方法
Fang et al. Stereoscopic image quality assessment by deep convolutional neural network
CN106791822B (zh) 一种基于单双目特征学习的无参考立体图像质量评价方法
CN109872305A (zh) 一种基于质量图生成网络的无参考立体图像质量评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN103873854A (zh) 一种立体图像主观评价被试者数量及实验数据的确定方法
CN105376563A (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN108259893B (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN103338379A (zh) 一种基于机器学习的立体视频客观质量评价方法
CN109862350A (zh) 基于时空域特征提取的无参考视频质量评价方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN106023152B (zh) 一种无参考立体图像质量客观评价方法
CN107590804A (zh) 基于通道特征和卷积神经网络的屏幕图像质量评价方法
CN105898279B (zh) 一种立体图像质量客观评价方法
CN108492275A (zh) 基于深度神经网络的无参考立体图像质量评价方法
CN110473176A (zh) 图像处理方法及装置、眼底图像处理方法、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230119

Address after: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou

Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231115

Address after: 117000 No. 130, Guangyu Road, Pingshan District, Benxi City, Liaoning Province

Patentee after: BENXI STEEL (GROUP) INFORMATION AUTOMATION CO.,LTD.

Address before: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen dragon totem technology achievement transformation Co.,Ltd.