CN109360178A - 基于融合图像的无参考立体图像质量评价方法 - Google Patents
基于融合图像的无参考立体图像质量评价方法 Download PDFInfo
- Publication number
- CN109360178A CN109360178A CN201811208264.0A CN201811208264A CN109360178A CN 109360178 A CN109360178 A CN 109360178A CN 201811208264 A CN201811208264 A CN 201811208264A CN 109360178 A CN109360178 A CN 109360178A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- view
- blending
- right view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000002156 mixing Methods 0.000 title claims abstract description 30
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 30
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000013526 transfer learning Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000003646 Spearman's rank correlation coefficient Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 230000000638 stimulation Effects 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000001303 quality assessment method Methods 0.000 description 4
- 101150108558 PAD1 gene Proteins 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 101100406366 Caenorhabditis elegans pad-2 gene Proteins 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000009394 selective breeding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理领域,为提出无参考立体图像质量评价方法,更符合人眼特性,与人类的主观感知保持良好的一致性。为此,本发明采取的技术方案是,基于融合图像的无参考立体图像质量评价方法,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。本发明主要应用于图像处理场合。
Description
技术领域
本发明属于图像处理领域,涉及到立体图像质量评价方法的改进优化,以及人类视觉系统中的视觉显著性在立体图像质量客观评价中的应用。具体讲,涉及基于融合图像的无参考立体图像质量评价方法。
背景技术
近年来,随着多媒体技术的发展,立体图像受到越来越多的关注,而立体图像在采集、压缩、传输、显示等过程中均会产生降质问题,立体图像的质量会直接影响人们的视觉感受,因此,如何有效地评估立体图像的质量成为立体图像处理和计算机视觉领域的关键问题之一。
由于立体图像主观质量评价要求测试者在特定的情况下对立体图像进行打分得到,这类方法费时费力,成本较高,且极易受测试者主观情绪的影响,不适于实际应用;而立体图像客观质量评价方法是通过客观模型给出立体图像的分数,能够有效弥补主观评价方法带来的不足。
根据对参考图像的依赖程度,立体图像客观质量客观评价可以分为全参考图像质量评价、半参考图像质量评价和无参考图像质量评价。全参考图像质量评价需要测试图像和参考图像的全部信息,半参考图像质量评价需要获得参考图像的部分信息,但是在实际环境中这些信息可能没有或者很难获得,因此,这两类方法的应用范围有限。相比而言,无参考图像质量评价方法仅利用失真图像来进行评价,更符合实际应用的需要。
尽管平面图像的质量评价已取得显著成果,但对立体图像质量评价的研究尚不充分。最开始人们将平面图像质量评价方法[1-3]应用于立体图像的质量评价中,如峰值信噪比(PSNR)、均方误差(MSE)、结构相似度(SSIM)[4]等。由于该类方法未考虑立体图像的深度信息,因此不适合直接用于立体图像的质量评价。随后,一些文献提出基于双目视觉特性的立体图像质量评价方法。文献[5]提出了一种融合人类双目特性的立体图像评价方法,使之更符合双目特性。但是,目前对人类视觉系统的认知还很有限,传统的方法难以全面反映人类对于立体图像的视觉感受,因而研究人员采用能模拟人类大脑的神经网络方式进行立体图像质量评价,文献[6]提出了一种基于支持向量机(SVM)的立体图像质量评价方法。但是传统的机器学习方法需要人工选取立体图像特征,选取的特征不一定能够完全反映立体图像的质量情况,限制了立体图像质量技术的发展。2011年后,深度学习网络,特别是卷积神经网络快速发展 [7]。卷积神经网络(CNN)能够从图像中选取需要的特征,在图像分类、语音识别等方面能得到更高的正确率,比如2012年Hiton等人在计算机视觉识别挑战赛(ImageNet)上使用神经网络Alexnet[8]图像分类模型中夺得第一名,性能远超其它机器学习方法。基于卷积神经网络(CNN)在图像识别,对象检测和语义理解等领域的巨大成功,文献[9]提出了一种三通道五层卷积神经网络,网络初始化参数通过迁移学习训练二维图像得到,将立体图像的左视图、右视图和差值图分块分别作为网络输入,通过卷积提取立体图像特征,最终全连接加权得出最终的质量分数。文献[10]首先通过主成分分析法将左右视图融合,然后对融合图像进行减均值和对比度归一化操作,最后采用非重叠切块的方法将图像切成小块送入网络进行训练,通过卷积神经网络(CNN)建立图像特征与主观评分差值之间的关系模型。
发明内容
为克服现有技术的不足,本发明旨在提出无参考立体图像质量评价方法,更符合人眼特性,与人类的主观感知保持良好的一致性。为此,本发明采取的技术方案是,基于融合图像的无参考立体图像质量评价方法,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
将立体图像的左右视图进行融合具体步骤如下:
首先,左右视视图分别在RGB三个通道上进行滤波器Gabor滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数CSF滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像,在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强:
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;j和k分别是6和8,表示使用6个尺度:fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree),和8个方向:θ∈{kπ/8|k=0,1,…7} 的滤波器Gabor提取图像特征;εl,εr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βl,βr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限;
C(x,y)=Il(x,y)+Ir(x,y) (4)
存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加,用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1)。
利用神经网络Alexnet,修改其最后一层,改为二分类,该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数,该网络输入图像大小227x227。
更进一步地,神经网络(Alexnet)使用ReLU非线性激活函数;在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力;全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,防止过拟合,采用三层全连接层。
利用人眼的视觉显著特性对融合图像进行加权具体步骤如下,采用具有各向异性的高斯核函数模拟注意力由中央向四周扩散的中央偏移CB因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差;
通过公式(5)得到图像的中央偏移CB因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示。
验证步骤:采用皮尔森线性相关系数(PLCC),斯皮尔曼秩相关系数(SROCC)和均方误差(RMSE)指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
本发明的特点及有益效果是:
本发明提出了一种基于融合图像的无参考立体图像质量评价算法,取得了较好的分类效果。网络模型通过使用图像融合算法,更好地模拟了人眼处理立体图像的过程,减少了数据量;通过使用迁移学习,减少了调参这个繁琐的过程,大大缩短了训练的时间;最后利用人眼的视觉显著性特性来处理分类出来的图像小块,使其更符合人眼特性。结果表明本发明所提方法不论在对称和非对称立体图像数据库上较其它方法均取得了较好的结果,与人类的主观感知保持良好的一致性。
附图说明:
图1算法流程图。
图2基于视觉显著性的光亮度图。
具体实施方式
现有的方法很多都没有考虑到人眼的视觉显著特性,并且在对图像进行分块时采用的均是不重叠切块方法,这种方法可能会造成图像结构信息丢失。另外,在机器学习和数据挖掘算法中,迁移学习可以避免从头开始搭建一个网络进行调参的繁琐性,并且使带有标签的数据得到充分利用。基于以上问题,本发明提出了一种基于融合图像的无参考立体图像质量评价方法,通过将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络(Alexnet) 进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
本发明内容主要包括以下3个方面:1)图像融合,分别对左右视图提取图像特征,然后融合来模拟人脑处理图像的过程;2)迁移学习,将神经网络(Alexnet)用于迁移学习,通过使用改进后的神经网络(Alexnet)对数据库进行训练,能得到更为准确的分类模型;3)视觉显著性,权重系数通过中央偏移因子进行确定,进一步模拟人眼视觉系统的显著性特征。
本发明实验服务器CPU为3.5GHz的Intel xeon E5-2637v3,64G RAM,使用GPU并行加速,GPU为Titan X,显存12GB,Ubuntu 14.04系统,采用Caffe深度学习框架对网络进行训练。
本发明采用LIVE实验库提供的对称和非对称立体图像测试库LIVE3D phase-I、LIVE3D phase-II进行评价实验。LIVE3D phase-I数据库对左右视点图像进行同样的失真处理,共有 20种场景,包含5种失真,共有20对参考图像和365对失真图像图像;LIVE3Dphase-II数据库是对LIVE3D phase-I数据库的完善,左右视点图像的失真程度不一定相同,共有8种场景,包含5种失真,共有8对参考图像和360对失真图像。在本发明的模型中,挑选了80%的融合图像作为训练,剩余的20%作为测试,所有的融合图像被切成227x227大小的小块。
下面结合技术方案详细说明本方法:
一、图像融合
与平面图像相比,立体图像包含更多的视觉信息,能给观看者带来沉浸式的视觉体验。立体图像左右视图有所不同,通过视网膜传入人脑后,存在视觉多通道现象,同时也会产生双目融合和双目竞争[11],为了更好地模拟人眼视觉特性,本发明提出了一种融合图像的方法。
首先,左右视视图分别在RGB三个通道上进行滤波器(Gabor)滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数(CSF)滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像。在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强。
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;本发明中j和k分别是6 和8,表示使用6个尺度(fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree))和8个方向(θ∈{kπ/8|k=0,1,…7})的滤波器(Gabor)滤波器提取图像特征;εl,εr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βl,βr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限。
C(x,y)=Il(x,y)+Ir(x,y) (4)
本发明提出的融合图像方法是自适应的。存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加[11],可用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1),不过,自然场景下的所有图像都是高于这个阈值的。无论左视图和右视图的对比度刺激如何,总能找到合适的gei和gci,使其具有显著的增益控制和增益增强,所以本发明所提出的方法既适合对称失真也适合非对称失真。
二、神经网络(Alexnet)用于迁移学习
机器学习技术在分类、回归和聚类上取得了巨大的成功,但使用此类方法有一个重要的前提是:训练和测试数据必须从相同的特征空间去取得,且必须具有相同的分布。当分布改变时,就需要重新构造训练数据模型。在现实生活中,重新收集训练数据或重新构造一个数据模型的成本很高甚至是不可能的,而迁移学习可以充分利用带有标签的数据,将已经学习到的模型参数通过某种方式来分享给新模型从而加快并优化模型的学习效率,不用像大多数网络那样从零学习。迁移学习首先在[12]中被提出,用于解决多任务学习的问题。
基于卷积神经网络的立体图像质量评价方法通过在输入图像和输出质量值之间建立“端到端”的映射,并以轻型结构达到较好的性能效果。本发明利用神经网络(Alexnet),修改其最后一层,改为二分类。该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数。该网络输入图像大小227x227,各层参数如表1所示。
表1网络参数
Layer name | Configurations |
Conv-1 | Fm-96,kernel-11x11,stride-4 |
Pooling | Max,kernel-3x3,stride-2 |
Conv-2 | Fm-256,kernel-5x5,pad-2,group-2 |
Pooling | Max,kernel-3x3,stride-2 |
Conv-3 | Fm-384,kernel-3x3,pad-1 |
Conv-4 | Fm-384,kernel-3x3,pad-1 |
Conv-5 | Fm-256,kernel-3x3,pad-1,group-2 |
Pooling | Max,kernel-3x3,stride-2 |
Full-Connected-1 | FC-4096 |
Full-Connected-2 | FC-4096 |
Full-Connected-3 | FC-2 |
其中Layer name为每层的名字,包括卷积层(Conv-1、Conv-2、Conv-3、Conv-4、Conv-5)、池化层(Pooling)、全连接层(Full-Connected-1、Full-Connected-2、Full-Connected-3); Configurations为参数配置,Fm为特征图的数量,kernel为用于运算的核的大小,stride为运算的步长的大小,pad为对特征图尺寸扩展的大小,group-2为采用GPU并行加速,Max为池化层池化方法,FC为每个全连接层神经元的个数。
该网络使用ReLU非线性激活函数,加快网络的收敛速度,防止了梯度消失的问题。在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力。全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,有效的防止过拟合,采用三层全连接层实现更好的拟合效果。
三、视觉显著性
视觉心理物理学研究发现,在观看图像时人眼会不自觉的关注某些区域,并优先处理该区域的信息[13],这些区域就是显著性区域,这种特性称为视觉显著性。人眼对图像中央区域关注度比较高的成像机制,即中央偏移(Center Bias,CB)特性。人眼在观看图像时总是倾向于从图像的中心开始寻找视觉注视点,然后其注意力由中央向四周递减[14]。如图2 所示的光亮度图,像素的坐标位置越处于图像的中间位置,该像素越容易受到关注;中间区域亮度最亮,表示人们对此区域最敏感,所分配的权重最高,亮度向四周逐渐变暗,权重也依次递减。
可采用具有各向异性的高斯核函数[15]模拟注意力由中央向四周扩散的中央偏移(CB) 因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息。(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差。
通过公式(5)得到图像的中央偏移(CB)因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示。
四、性能比较与分析
本发明采用皮尔森线性相关系数(PLCC),斯皮尔曼秩相关系数(SROCC)和均方误差(RMSE) 指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
为了验证本发明方法的有效性,将本发明方法与3种全参考立体图像质量评价方法和4 种无参考立体图像质量评价方法进行了比较。对比的3种全参考立体图像质量评价方法为文献[16-18]。4种无参考立体图像质量评价方法为文献[10,19,21-22]。
表2所示为本发明方法与对比方法在LIVE3D phase-I和LIVE3D phase-II数据库上的各项性能指标。
表2各种评价方法的总体性能比较
PLCC,SROCC,RMSE三个指标均取得了非常好的结果,PLCC值超过0.986,SROCC值超过 0.99,这与神经网络(Alexnet)在分类任务上展现出的卓越的泛化能力不无关系。因为表1 所示为本发明方法与对比方法在LIVE3D phase-I和LIVE3D phase-II数据库上的各项性能指标。PLCC,SROCC,RMSE三个指标均取得了非常好的结果,PLCC值超过0.986,SROCC值超过 0.99,这与AlexNet在分类任务上展现出的卓越的泛化能力不无关系。因为神经网络(Alexnet) 在由数百万张图像组成的计算机视觉识别挑战赛(ImageNet)数据库上接受训练,提取了几乎完整的基向量,而构成图像的基向量是普适的,所以该网络也可作为迁移学习的网络用于立体图像质量评价。另外,无论是只有对称失真的LIVE3D phase-I数据库还是既有对称失真也由非对称失真的LIVE3D phase-II数据库,本发明所采用的方法均适用。最后,本发明的实验结果中的RMSE比文献的结果小很多,这与图像的预处理过程有很大关系。本发明将所实验的图像库按照图像的好坏分为两类,因此,本发明的RMSE的值比其他文献实验结果更小。且现有文献并未给出其在实验过程中对图像处理的具体过程,但不同的处理过程对实验结果有着重要的影响。
表3为在LIVE3D phase-I和LIVE3D phase-II上分开失真类型做的实验,该数据库包含 5种失真,分别是高斯模糊失真(BLUR)、快速衰落失真(FF)、JPEG压缩失真及JPEG2000压缩失真(JP2K)和白噪声失真(WN)。从表中所列的实验结果数据来看,本发明所提出的方法在不同失真类型上均展现出了非常好的效果,有些失真类型的PLCC和SROCC甚至达到了1, RMSE达到了0。但LIVE3D phase-I上的JPEG失真和LIVE3D phase-II上的FF失真,没有达到像其它失真一样的效果,说明本发明所提网络对于这两种失真的学习能力还有待提升。
表3不同失真类型的PLCC、SROCC以及RMSE
参考文献
[1]Carnec M,Le Callet P,Barba D.An image quality assessment methodbased on perception of structural information[C]//Image Processing,2003.ICIP2003.Proceedings.2003International Conference on.IEEE,2003,3:III-185.
[2]Wang,Zhou,and Eero P.Simoncelli."Reduced-reference image qualityassessment using a wavelet-domain natural image statistic model."ElectronicImaging 2005.
[3]Wang Z,Bovik A C.A universal image quality index[J].IEEE SignalProcessing Letters, 2002,9(3):81-84.
[4]You H,Xing L,Perkis A,et al.Perceptual quality assessment forstereoscopic images based on 2D image quality metrics and disparity analysis[C].Proceedings of International Workshop on Video Processing and QualityMetrics for Consumer Electronics,Scottsdale,AZ,USA,2010.
[5]Lin Y H,Wu J L.Quality assessment of stereoscopic 3D imagecompression by binocular integration behaviors[J].IEEE transactions on ImageProcessing,2014,23(4):1527-1542.
[6]Jung Y J,Sohn H,Lee S I,et al.Predicting visual discomfort ofstereoscopic images using human attention model[J].IEEE Transactions onCircuits and Systems for Video Technology,2013, 23(12):2077-2082.
[7]Lee H,Pham P,Largman Y,et al.Unsupervised feature learning foraudio classification using convolutional deep belief networks[C]//Advances inneural information processing systems. 2009:1096-1104.
[8]Alex Krizhevsky,Ilya Sutskever,and Geoffrey EHinton,“Imagenetclassification with deep convolutional neural networks,”in Advances in neuralinformation processing systems,pp. 1097–1105,2012
[9]Zhang W,Qu C,Ma L,et al.Learning structure of stereoscopic imagefor no-reference quality assessment with convolutional neural network[J].Pattern Recognition,2016,59:176-187.
[10]Q Sang,T Gu,C Li,X Wu.Stereoscopic Image Quality Assessment viaConvolutional Neural Networks.International Smart Cities Conference,2017:1-2
[11]Jian Ding,Stanley A.Klein and Dennis M.Levi.“Binocularcombination of phase and contrast explained by a gain-control and gain-enhancement model,”in Journal of Vision,2013.
[12]Sinno Jialin Pan,and Qiang Yang."A Survey on Transfer Learning."IEEE Transactions on Knowledge andData Engineering,vol.22,no.10,pp.1345-1359,2010.
[13]J.K.Tsotsos,S.M.Culhane,W.Y.K.Wai,Y.H.Lai,N.Davis,and F.Nuflo,“Modelling Visual Attention via Selective Tuning,”Artificial Intelligence,vol.78,no.1-2,pp.507–545,Oct. 1995.
[14]P.Tseng,R.Carmi,I.G.M.Camerson,et al.Quantifying center bias ofobservers in free viewing of dynamic natural scenes[J].Journal of Vision,2009,vol.9,no.7.
[15]Le Meur O.,Le Callet,P.,Barba,et al.A coherent computationalapproach to model bottom-up visual attention[J].Pattern Analysis and MachineIntelligence,IEEE Transactions on, 2006,28(5):802-817.
[16]Shao F,Jiang G,Yu M,et al.Binocular energy response based qualityassessment of stereoscopic images[J].Digital Signal Processing,2014,29:45-53.
[17]Larson E C,Chandler D M.Most apparent distortion:full-referenceimage quality assessment and the role of strategy[J].Journal of ElectronicImaging,2010,19(1): 011006-011006-21.
[18]Ma J,An P.Method to quality assessment of stereo images[C].VisualCommunications and Image Processing(VCIP),2016.IEEE,2016:1-4.
[19]Chen M J,Cormack L K,Bovik A C.No-Reference Quality Assessment ofNatural Stereopairs[J].IEEE Transactions on Image Processing,2013,22(9):3379-3391.
[20]Shao F,Lin W,Wang S,et al.Blind Image Quality Assessment forStereoscopic Images Using Binocular Guided Quality Lookup and Visual Codebook[J].IEEE Transactions on Broadcasting,2015,61(2):154-165.
[21]田维军,邵枫,蒋刚毅,等.基于深度学习的无参考立体图像质量评价[J].计算机辅助设计与图形学学报,2016,28(6):968-975.
[22]李苗苗,桑庆兵.一种基于图像融合的无参考立体图像质量评价方法[J].光学技术, 2017(1):25-32。
Claims (6)
1.一种基于融合图像的无参考立体图像质量评价方法,其特征是,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
2.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,将立体图像的左右视图进行融合具体步骤如下:首先,左右视视图分别在RGB三个通道上进行滤波器Gabor滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数CSF滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像,在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强:
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;j和k分别是6和8,表示使用6个尺度:fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree),和8个方向:θ∈{kπ/8|k=0,1,…7}的滤波器Gabor提取图像特征;εl,εr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βl,βr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限;
C(x,y)=Il(x,y)+Ir(x,y) (4)
存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加,用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1)。
3.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,利用神经网络Alexnet,修改其最后一层,改为二分类,该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数,该网络输入图像大小227x227。
4.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,更进一步地,神经网络Alexnet使用ReLU非线性激活函数;在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力;全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,防止过拟合,采用三层全连接层。
5.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,利用人眼的视觉显著特性对融合图像进行加权具体步骤如下,采用具有各向异性的高斯核函数模拟注意力由中央向四周扩散的中央偏移CB因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差;
通过公式(5)得到图像的中央偏移CB因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示
6.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,还包括验证步骤:采用皮尔森线性相关系数PLCC,斯皮尔曼秩相关系数SROCC和均方误差RMSE指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811208264.0A CN109360178B (zh) | 2018-10-17 | 2018-10-17 | 基于融合图像的无参考立体图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811208264.0A CN109360178B (zh) | 2018-10-17 | 2018-10-17 | 基于融合图像的无参考立体图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109360178A true CN109360178A (zh) | 2019-02-19 |
CN109360178B CN109360178B (zh) | 2021-11-19 |
Family
ID=65349484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811208264.0A Expired - Fee Related CN109360178B (zh) | 2018-10-17 | 2018-10-17 | 基于融合图像的无参考立体图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360178B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111304A (zh) * | 2019-04-04 | 2019-08-09 | 天津大学 | 基于局部到全局特征回归的无参考立体图像质量评价方法 |
CN110399881A (zh) * | 2019-07-11 | 2019-11-01 | 深圳大学 | 一种端到端的基于双目立体图像的质量增强方法及装置 |
CN110458829A (zh) * | 2019-08-13 | 2019-11-15 | 腾讯医疗健康(深圳)有限公司 | 基于人工智能的图像质控方法、装置、设备及存储介质 |
CN110458802A (zh) * | 2019-06-28 | 2019-11-15 | 天津大学 | 基于投影权值归一化的立体图像质量评价方法 |
CN110570406A (zh) * | 2019-08-27 | 2019-12-13 | 天津大学 | 从局部到全局特征回归无参考立体图像质量评价方法 |
CN110738645A (zh) * | 2019-10-11 | 2020-01-31 | 浙江科技学院 | 基于卷积神经网络的3d图像质量检测方法 |
CN110958449A (zh) * | 2019-12-19 | 2020-04-03 | 西北工业大学 | 三维视频主观感知质量预测方法 |
CN111882516A (zh) * | 2020-02-19 | 2020-11-03 | 南京信息工程大学 | 一种基于视觉显著性和深度神经网络的图像质量评价方法 |
CN112164056A (zh) * | 2020-09-30 | 2021-01-01 | 南京信息工程大学 | 基于交互式卷积神经网络的无参考立体图像质量评价方法 |
CN112508967A (zh) * | 2020-12-04 | 2021-03-16 | 武汉大学 | 一种图像质量评价方法及系统 |
CN112686847A (zh) * | 2020-12-23 | 2021-04-20 | 平安银行股份有限公司 | 身份证图像拍摄质量评价方法、装置、计算机设备和介质 |
CN112734733A (zh) * | 2021-01-12 | 2021-04-30 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN113379733A (zh) * | 2021-07-08 | 2021-09-10 | 湖南工商大学 | 无参考图像质量评价的分块标签权重度量方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105407349A (zh) * | 2015-11-30 | 2016-03-16 | 宁波大学 | 基于双目视觉感知的无参考立体图像质量客观评价方法 |
US20170046839A1 (en) * | 2015-08-14 | 2017-02-16 | Elucid Bioimaging Inc. | Systems and methods for analyzing pathologies utilizing quantitative imaging |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108520510A (zh) * | 2018-03-19 | 2018-09-11 | 天津大学 | 一种基于整体和局部分析的无参考立体图像质量评价方法 |
-
2018
- 2018-10-17 CN CN201811208264.0A patent/CN109360178B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170046839A1 (en) * | 2015-08-14 | 2017-02-16 | Elucid Bioimaging Inc. | Systems and methods for analyzing pathologies utilizing quantitative imaging |
CN105407349A (zh) * | 2015-11-30 | 2016-03-16 | 宁波大学 | 基于双目视觉感知的无参考立体图像质量客观评价方法 |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108520510A (zh) * | 2018-03-19 | 2018-09-11 | 天津大学 | 一种基于整体和局部分析的无参考立体图像质量评价方法 |
Non-Patent Citations (2)
Title |
---|
LV Y 等: "No-reference Stereoscopic Image Quality Assessment Using Binocular Self-similarity and Deep Neural Network", 《SIGNAL PROCESSING: IMAGE COMMUNICATION》 * |
李苗苗 等: "一种基于图像融合的无参考立体图像质量评价方法", 《光学技术》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111304B (zh) * | 2019-04-04 | 2023-08-29 | 天津大学 | 基于局部到全局特征回归的无参考立体图像质量评价方法 |
CN110111304A (zh) * | 2019-04-04 | 2019-08-09 | 天津大学 | 基于局部到全局特征回归的无参考立体图像质量评价方法 |
CN110458802A (zh) * | 2019-06-28 | 2019-11-15 | 天津大学 | 基于投影权值归一化的立体图像质量评价方法 |
CN110399881B (zh) * | 2019-07-11 | 2021-06-01 | 深圳大学 | 一种端到端的基于双目立体图像的质量增强方法及装置 |
CN110399881A (zh) * | 2019-07-11 | 2019-11-01 | 深圳大学 | 一种端到端的基于双目立体图像的质量增强方法及装置 |
CN110458829A (zh) * | 2019-08-13 | 2019-11-15 | 腾讯医疗健康(深圳)有限公司 | 基于人工智能的图像质控方法、装置、设备及存储介质 |
CN110458829B (zh) * | 2019-08-13 | 2024-01-30 | 腾讯医疗健康(深圳)有限公司 | 基于人工智能的图像质控方法、装置、设备及存储介质 |
CN110570406A (zh) * | 2019-08-27 | 2019-12-13 | 天津大学 | 从局部到全局特征回归无参考立体图像质量评价方法 |
CN110738645B (zh) * | 2019-10-11 | 2022-06-10 | 浙江科技学院 | 基于卷积神经网络的3d图像质量检测方法 |
CN110738645A (zh) * | 2019-10-11 | 2020-01-31 | 浙江科技学院 | 基于卷积神经网络的3d图像质量检测方法 |
CN110958449B (zh) * | 2019-12-19 | 2021-07-06 | 西北工业大学 | 三维视频主观感知质量预测方法 |
CN110958449A (zh) * | 2019-12-19 | 2020-04-03 | 西北工业大学 | 三维视频主观感知质量预测方法 |
CN111882516A (zh) * | 2020-02-19 | 2020-11-03 | 南京信息工程大学 | 一种基于视觉显著性和深度神经网络的图像质量评价方法 |
CN111882516B (zh) * | 2020-02-19 | 2023-07-07 | 南京信息工程大学 | 一种基于视觉显著性和深度神经网络的图像质量评价方法 |
CN112164056A (zh) * | 2020-09-30 | 2021-01-01 | 南京信息工程大学 | 基于交互式卷积神经网络的无参考立体图像质量评价方法 |
CN112164056B (zh) * | 2020-09-30 | 2023-08-29 | 南京信息工程大学 | 基于交互式卷积神经网络的无参考立体图像质量评价方法 |
CN112508967A (zh) * | 2020-12-04 | 2021-03-16 | 武汉大学 | 一种图像质量评价方法及系统 |
CN112686847A (zh) * | 2020-12-23 | 2021-04-20 | 平安银行股份有限公司 | 身份证图像拍摄质量评价方法、装置、计算机设备和介质 |
CN112686847B (zh) * | 2020-12-23 | 2024-05-14 | 平安银行股份有限公司 | 身份证图像拍摄质量评价方法、装置、计算机设备和介质 |
CN112734733B (zh) * | 2021-01-12 | 2022-11-01 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN112734733A (zh) * | 2021-01-12 | 2021-04-30 | 天津大学 | 基于通道重组与特征融合的无参考图像质量监测方法 |
CN113379733A (zh) * | 2021-07-08 | 2021-09-10 | 湖南工商大学 | 无参考图像质量评价的分块标签权重度量方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109360178B (zh) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360178A (zh) | 基于融合图像的无参考立体图像质量评价方法 | |
CN107633513B (zh) | 基于深度学习的3d图像质量的度量方法 | |
Niu et al. | 2D and 3D image quality assessment: A survey of metrics and challenges | |
Zhou et al. | Binocular responses for no-reference 3D image quality assessment | |
Ding et al. | No-reference stereoscopic image quality assessment using convolutional neural network for adaptive feature extraction | |
CN110060236B (zh) | 基于深度卷积神经网络的立体图像质量评价方法 | |
CN108389192A (zh) | 基于卷积神经网络的立体图像舒适度评价方法 | |
CN108391121B (zh) | 一种基于深度神经网络的无参考立体图像质量评价方法 | |
CN109831664B (zh) | 基于深度学习的快速压缩立体视频质量评价方法 | |
Shen et al. | No-reference stereoscopic image quality assessment based on global and local content characteristics | |
Liu et al. | Blind stereoscopic image quality assessment based on hierarchical learning | |
Lv et al. | No-reference stereoscopic image quality assessment using binocular self-similarity and deep neural network | |
CN108235003B (zh) | 基于3d卷积神经网络的立体视频质量评价方法 | |
CN109523513A (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
Kim et al. | Binocular fusion net: deep learning visual comfort assessment for stereoscopic 3D | |
Messai et al. | Adaboost neural network and cyclopean view for no-reference stereoscopic image quality assessment | |
Si et al. | A no-reference stereoscopic image quality assessment network based on binocular interaction and fusion mechanisms | |
CN108389189A (zh) | 基于字典学习的立体图像质量评价方法 | |
CN108259893B (zh) | 基于双流卷积神经网络的虚拟现实视频质量评价方法 | |
CN111882516B (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
Jiang et al. | Quality assessment for virtual reality technology based on real scene | |
CN111915589A (zh) | 基于空洞卷积的立体图像质量评价方法 | |
He et al. | TGP-PCQA: Texture and geometry projection based quality assessment for colored point clouds | |
CN116033279B (zh) | 一种夜晚监控相机的近红外图像彩色化方法、系统及设备 | |
CN107909565A (zh) | 基于卷积神经网络的立体图像舒适度评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211119 |