CN109360178A - 基于融合图像的无参考立体图像质量评价方法 - Google Patents

基于融合图像的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN109360178A
CN109360178A CN201811208264.0A CN201811208264A CN109360178A CN 109360178 A CN109360178 A CN 109360178A CN 201811208264 A CN201811208264 A CN 201811208264A CN 109360178 A CN109360178 A CN 109360178A
Authority
CN
China
Prior art keywords
image
layer
view
blending
right view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811208264.0A
Other languages
English (en)
Other versions
CN109360178B (zh
Inventor
李素梅
薛建伟
刘人赫
侯春萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201811208264.0A priority Critical patent/CN109360178B/zh
Publication of CN109360178A publication Critical patent/CN109360178A/zh
Application granted granted Critical
Publication of CN109360178B publication Critical patent/CN109360178B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理领域,为提出无参考立体图像质量评价方法,更符合人眼特性,与人类的主观感知保持良好的一致性。为此,本发明采取的技术方案是,基于融合图像的无参考立体图像质量评价方法,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。本发明主要应用于图像处理场合。

Description

基于融合图像的无参考立体图像质量评价方法
技术领域
本发明属于图像处理领域,涉及到立体图像质量评价方法的改进优化,以及人类视觉系统中的视觉显著性在立体图像质量客观评价中的应用。具体讲,涉及基于融合图像的无参考立体图像质量评价方法。
背景技术
近年来,随着多媒体技术的发展,立体图像受到越来越多的关注,而立体图像在采集、压缩、传输、显示等过程中均会产生降质问题,立体图像的质量会直接影响人们的视觉感受,因此,如何有效地评估立体图像的质量成为立体图像处理和计算机视觉领域的关键问题之一。
由于立体图像主观质量评价要求测试者在特定的情况下对立体图像进行打分得到,这类方法费时费力,成本较高,且极易受测试者主观情绪的影响,不适于实际应用;而立体图像客观质量评价方法是通过客观模型给出立体图像的分数,能够有效弥补主观评价方法带来的不足。
根据对参考图像的依赖程度,立体图像客观质量客观评价可以分为全参考图像质量评价、半参考图像质量评价和无参考图像质量评价。全参考图像质量评价需要测试图像和参考图像的全部信息,半参考图像质量评价需要获得参考图像的部分信息,但是在实际环境中这些信息可能没有或者很难获得,因此,这两类方法的应用范围有限。相比而言,无参考图像质量评价方法仅利用失真图像来进行评价,更符合实际应用的需要。
尽管平面图像的质量评价已取得显著成果,但对立体图像质量评价的研究尚不充分。最开始人们将平面图像质量评价方法[1-3]应用于立体图像的质量评价中,如峰值信噪比(PSNR)、均方误差(MSE)、结构相似度(SSIM)[4]等。由于该类方法未考虑立体图像的深度信息,因此不适合直接用于立体图像的质量评价。随后,一些文献提出基于双目视觉特性的立体图像质量评价方法。文献[5]提出了一种融合人类双目特性的立体图像评价方法,使之更符合双目特性。但是,目前对人类视觉系统的认知还很有限,传统的方法难以全面反映人类对于立体图像的视觉感受,因而研究人员采用能模拟人类大脑的神经网络方式进行立体图像质量评价,文献[6]提出了一种基于支持向量机(SVM)的立体图像质量评价方法。但是传统的机器学习方法需要人工选取立体图像特征,选取的特征不一定能够完全反映立体图像的质量情况,限制了立体图像质量技术的发展。2011年后,深度学习网络,特别是卷积神经网络快速发展 [7]。卷积神经网络(CNN)能够从图像中选取需要的特征,在图像分类、语音识别等方面能得到更高的正确率,比如2012年Hiton等人在计算机视觉识别挑战赛(ImageNet)上使用神经网络Alexnet[8]图像分类模型中夺得第一名,性能远超其它机器学习方法。基于卷积神经网络(CNN)在图像识别,对象检测和语义理解等领域的巨大成功,文献[9]提出了一种三通道五层卷积神经网络,网络初始化参数通过迁移学习训练二维图像得到,将立体图像的左视图、右视图和差值图分块分别作为网络输入,通过卷积提取立体图像特征,最终全连接加权得出最终的质量分数。文献[10]首先通过主成分分析法将左右视图融合,然后对融合图像进行减均值和对比度归一化操作,最后采用非重叠切块的方法将图像切成小块送入网络进行训练,通过卷积神经网络(CNN)建立图像特征与主观评分差值之间的关系模型。
发明内容
为克服现有技术的不足,本发明旨在提出无参考立体图像质量评价方法,更符合人眼特性,与人类的主观感知保持良好的一致性。为此,本发明采取的技术方案是,基于融合图像的无参考立体图像质量评价方法,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
将立体图像的左右视图进行融合具体步骤如下:
首先,左右视视图分别在RGB三个通道上进行滤波器Gabor滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数CSF滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像,在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强:
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;j和k分别是6和8,表示使用6个尺度:fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree),和8个方向:θ∈{kπ/8|k=0,1,…7} 的滤波器Gabor提取图像特征;εlr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βlr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限;
C(x,y)=Il(x,y)+Ir(x,y) (4)
存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加,用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1)。
利用神经网络Alexnet,修改其最后一层,改为二分类,该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数,该网络输入图像大小227x227。
更进一步地,神经网络(Alexnet)使用ReLU非线性激活函数;在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力;全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,防止过拟合,采用三层全连接层。
利用人眼的视觉显著特性对融合图像进行加权具体步骤如下,采用具有各向异性的高斯核函数模拟注意力由中央向四周扩散的中央偏移CB因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差;
通过公式(5)得到图像的中央偏移CB因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示。
验证步骤:采用皮尔森线性相关系数(PLCC),斯皮尔曼秩相关系数(SROCC)和均方误差(RMSE)指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
本发明的特点及有益效果是:
本发明提出了一种基于融合图像的无参考立体图像质量评价算法,取得了较好的分类效果。网络模型通过使用图像融合算法,更好地模拟了人眼处理立体图像的过程,减少了数据量;通过使用迁移学习,减少了调参这个繁琐的过程,大大缩短了训练的时间;最后利用人眼的视觉显著性特性来处理分类出来的图像小块,使其更符合人眼特性。结果表明本发明所提方法不论在对称和非对称立体图像数据库上较其它方法均取得了较好的结果,与人类的主观感知保持良好的一致性。
附图说明:
图1算法流程图。
图2基于视觉显著性的光亮度图。
具体实施方式
现有的方法很多都没有考虑到人眼的视觉显著特性,并且在对图像进行分块时采用的均是不重叠切块方法,这种方法可能会造成图像结构信息丢失。另外,在机器学习和数据挖掘算法中,迁移学习可以避免从头开始搭建一个网络进行调参的繁琐性,并且使带有标签的数据得到充分利用。基于以上问题,本发明提出了一种基于融合图像的无参考立体图像质量评价方法,通过将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络(Alexnet) 进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
本发明内容主要包括以下3个方面:1)图像融合,分别对左右视图提取图像特征,然后融合来模拟人脑处理图像的过程;2)迁移学习,将神经网络(Alexnet)用于迁移学习,通过使用改进后的神经网络(Alexnet)对数据库进行训练,能得到更为准确的分类模型;3)视觉显著性,权重系数通过中央偏移因子进行确定,进一步模拟人眼视觉系统的显著性特征。
本发明实验服务器CPU为3.5GHz的Intel xeon E5-2637v3,64G RAM,使用GPU并行加速,GPU为Titan X,显存12GB,Ubuntu 14.04系统,采用Caffe深度学习框架对网络进行训练。
本发明采用LIVE实验库提供的对称和非对称立体图像测试库LIVE3D phase-I、LIVE3D phase-II进行评价实验。LIVE3D phase-I数据库对左右视点图像进行同样的失真处理,共有 20种场景,包含5种失真,共有20对参考图像和365对失真图像图像;LIVE3Dphase-II数据库是对LIVE3D phase-I数据库的完善,左右视点图像的失真程度不一定相同,共有8种场景,包含5种失真,共有8对参考图像和360对失真图像。在本发明的模型中,挑选了80%的融合图像作为训练,剩余的20%作为测试,所有的融合图像被切成227x227大小的小块。
下面结合技术方案详细说明本方法:
一、图像融合
与平面图像相比,立体图像包含更多的视觉信息,能给观看者带来沉浸式的视觉体验。立体图像左右视图有所不同,通过视网膜传入人脑后,存在视觉多通道现象,同时也会产生双目融合和双目竞争[11],为了更好地模拟人眼视觉特性,本发明提出了一种融合图像的方法。
首先,左右视视图分别在RGB三个通道上进行滤波器(Gabor)滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数(CSF)滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像。在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强。
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;本发明中j和k分别是6 和8,表示使用6个尺度(fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree))和8个方向(θ∈{kπ/8|k=0,1,…7})的滤波器(Gabor)滤波器提取图像特征;εlr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βlr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限。
C(x,y)=Il(x,y)+Ir(x,y) (4)
本发明提出的融合图像方法是自适应的。存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加[11],可用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1),不过,自然场景下的所有图像都是高于这个阈值的。无论左视图和右视图的对比度刺激如何,总能找到合适的gei和gci,使其具有显著的增益控制和增益增强,所以本发明所提出的方法既适合对称失真也适合非对称失真。
二、神经网络(Alexnet)用于迁移学习
机器学习技术在分类、回归和聚类上取得了巨大的成功,但使用此类方法有一个重要的前提是:训练和测试数据必须从相同的特征空间去取得,且必须具有相同的分布。当分布改变时,就需要重新构造训练数据模型。在现实生活中,重新收集训练数据或重新构造一个数据模型的成本很高甚至是不可能的,而迁移学习可以充分利用带有标签的数据,将已经学习到的模型参数通过某种方式来分享给新模型从而加快并优化模型的学习效率,不用像大多数网络那样从零学习。迁移学习首先在[12]中被提出,用于解决多任务学习的问题。
基于卷积神经网络的立体图像质量评价方法通过在输入图像和输出质量值之间建立“端到端”的映射,并以轻型结构达到较好的性能效果。本发明利用神经网络(Alexnet),修改其最后一层,改为二分类。该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数。该网络输入图像大小227x227,各层参数如表1所示。
表1网络参数
Layer name Configurations
Conv-1 Fm-96,kernel-11x11,stride-4
Pooling Max,kernel-3x3,stride-2
Conv-2 Fm-256,kernel-5x5,pad-2,group-2
Pooling Max,kernel-3x3,stride-2
Conv-3 Fm-384,kernel-3x3,pad-1
Conv-4 Fm-384,kernel-3x3,pad-1
Conv-5 Fm-256,kernel-3x3,pad-1,group-2
Pooling Max,kernel-3x3,stride-2
Full-Connected-1 FC-4096
Full-Connected-2 FC-4096
Full-Connected-3 FC-2
其中Layer name为每层的名字,包括卷积层(Conv-1、Conv-2、Conv-3、Conv-4、Conv-5)、池化层(Pooling)、全连接层(Full-Connected-1、Full-Connected-2、Full-Connected-3); Configurations为参数配置,Fm为特征图的数量,kernel为用于运算的核的大小,stride为运算的步长的大小,pad为对特征图尺寸扩展的大小,group-2为采用GPU并行加速,Max为池化层池化方法,FC为每个全连接层神经元的个数。
该网络使用ReLU非线性激活函数,加快网络的收敛速度,防止了梯度消失的问题。在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力。全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,有效的防止过拟合,采用三层全连接层实现更好的拟合效果。
三、视觉显著性
视觉心理物理学研究发现,在观看图像时人眼会不自觉的关注某些区域,并优先处理该区域的信息[13],这些区域就是显著性区域,这种特性称为视觉显著性。人眼对图像中央区域关注度比较高的成像机制,即中央偏移(Center Bias,CB)特性。人眼在观看图像时总是倾向于从图像的中心开始寻找视觉注视点,然后其注意力由中央向四周递减[14]。如图2 所示的光亮度图,像素的坐标位置越处于图像的中间位置,该像素越容易受到关注;中间区域亮度最亮,表示人们对此区域最敏感,所分配的权重最高,亮度向四周逐渐变暗,权重也依次递减。
可采用具有各向异性的高斯核函数[15]模拟注意力由中央向四周扩散的中央偏移(CB) 因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息。(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差。
通过公式(5)得到图像的中央偏移(CB)因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示。
四、性能比较与分析
本发明采用皮尔森线性相关系数(PLCC),斯皮尔曼秩相关系数(SROCC)和均方误差(RMSE) 指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
为了验证本发明方法的有效性,将本发明方法与3种全参考立体图像质量评价方法和4 种无参考立体图像质量评价方法进行了比较。对比的3种全参考立体图像质量评价方法为文献[16-18]。4种无参考立体图像质量评价方法为文献[10,19,21-22]。
表2所示为本发明方法与对比方法在LIVE3D phase-I和LIVE3D phase-II数据库上的各项性能指标。
表2各种评价方法的总体性能比较
PLCC,SROCC,RMSE三个指标均取得了非常好的结果,PLCC值超过0.986,SROCC值超过 0.99,这与神经网络(Alexnet)在分类任务上展现出的卓越的泛化能力不无关系。因为表1 所示为本发明方法与对比方法在LIVE3D phase-I和LIVE3D phase-II数据库上的各项性能指标。PLCC,SROCC,RMSE三个指标均取得了非常好的结果,PLCC值超过0.986,SROCC值超过 0.99,这与AlexNet在分类任务上展现出的卓越的泛化能力不无关系。因为神经网络(Alexnet) 在由数百万张图像组成的计算机视觉识别挑战赛(ImageNet)数据库上接受训练,提取了几乎完整的基向量,而构成图像的基向量是普适的,所以该网络也可作为迁移学习的网络用于立体图像质量评价。另外,无论是只有对称失真的LIVE3D phase-I数据库还是既有对称失真也由非对称失真的LIVE3D phase-II数据库,本发明所采用的方法均适用。最后,本发明的实验结果中的RMSE比文献的结果小很多,这与图像的预处理过程有很大关系。本发明将所实验的图像库按照图像的好坏分为两类,因此,本发明的RMSE的值比其他文献实验结果更小。且现有文献并未给出其在实验过程中对图像处理的具体过程,但不同的处理过程对实验结果有着重要的影响。
表3为在LIVE3D phase-I和LIVE3D phase-II上分开失真类型做的实验,该数据库包含 5种失真,分别是高斯模糊失真(BLUR)、快速衰落失真(FF)、JPEG压缩失真及JPEG2000压缩失真(JP2K)和白噪声失真(WN)。从表中所列的实验结果数据来看,本发明所提出的方法在不同失真类型上均展现出了非常好的效果,有些失真类型的PLCC和SROCC甚至达到了1, RMSE达到了0。但LIVE3D phase-I上的JPEG失真和LIVE3D phase-II上的FF失真,没有达到像其它失真一样的效果,说明本发明所提网络对于这两种失真的学习能力还有待提升。
表3不同失真类型的PLCC、SROCC以及RMSE
参考文献
[1]Carnec M,Le Callet P,Barba D.An image quality assessment methodbased on perception of structural information[C]//Image Processing,2003.ICIP2003.Proceedings.2003International Conference on.IEEE,2003,3:III-185.
[2]Wang,Zhou,and Eero P.Simoncelli."Reduced-reference image qualityassessment using a wavelet-domain natural image statistic model."ElectronicImaging 2005.
[3]Wang Z,Bovik A C.A universal image quality index[J].IEEE SignalProcessing Letters, 2002,9(3):81-84.
[4]You H,Xing L,Perkis A,et al.Perceptual quality assessment forstereoscopic images based on 2D image quality metrics and disparity analysis[C].Proceedings of International Workshop on Video Processing and QualityMetrics for Consumer Electronics,Scottsdale,AZ,USA,2010.
[5]Lin Y H,Wu J L.Quality assessment of stereoscopic 3D imagecompression by binocular integration behaviors[J].IEEE transactions on ImageProcessing,2014,23(4):1527-1542.
[6]Jung Y J,Sohn H,Lee S I,et al.Predicting visual discomfort ofstereoscopic images using human attention model[J].IEEE Transactions onCircuits and Systems for Video Technology,2013, 23(12):2077-2082.
[7]Lee H,Pham P,Largman Y,et al.Unsupervised feature learning foraudio classification using convolutional deep belief networks[C]//Advances inneural information processing systems. 2009:1096-1104.
[8]Alex Krizhevsky,Ilya Sutskever,and Geoffrey EHinton,“Imagenetclassification with deep convolutional neural networks,”in Advances in neuralinformation processing systems,pp. 1097–1105,2012
[9]Zhang W,Qu C,Ma L,et al.Learning structure of stereoscopic imagefor no-reference quality assessment with convolutional neural network[J].Pattern Recognition,2016,59:176-187.
[10]Q SangT GuC LiX Wu.Stereoscopic Image Quality Assessment viaConvolutional Neural Networks.International Smart Cities Conference,2017:1-2
[11]Jian Ding,Stanley A.Klein and Dennis M.Levi.“Binocularcombination of phase and contrast explained by a gain-control and gain-enhancement model,”in Journal of Vision,2013.
[12]Sinno Jialin Pan,and Qiang Yang."A Survey on Transfer Learning."IEEE Transactions on Knowledge andData Engineering,vol.22,no.10,pp.1345-1359,2010.
[13]J.K.Tsotsos,S.M.Culhane,W.Y.K.Wai,Y.H.Lai,N.Davis,and F.Nuflo,“Modelling Visual Attention via Selective Tuning,”Artificial Intelligence,vol.78,no.1-2,pp.507–545,Oct. 1995.
[14]P.Tseng,R.Carmi,I.G.M.Camerson,et al.Quantifying center bias ofobservers in free viewing of dynamic natural scenes[J].Journal of Vision,2009,vol.9,no.7.
[15]Le Meur O.,Le Callet,P.,Barba,et al.A coherent computationalapproach to model bottom-up visual attention[J].Pattern Analysis and MachineIntelligence,IEEE Transactions on, 2006,28(5):802-817.
[16]Shao F,Jiang G,Yu M,et al.Binocular energy response based qualityassessment of stereoscopic images[J].Digital Signal Processing,2014,29:45-53.
[17]Larson E C,Chandler D M.Most apparent distortion:full-referenceimage quality assessment and the role of strategy[J].Journal of ElectronicImaging,2010,19(1): 011006-011006-21.
[18]Ma J,An P.Method to quality assessment of stereo images[C].VisualCommunications and Image Processing(VCIP),2016.IEEE,2016:1-4.
[19]Chen M J,Cormack L K,Bovik A C.No-Reference Quality Assessment ofNatural Stereopairs[J].IEEE Transactions on Image Processing,2013,22(9):3379-3391.
[20]Shao F,Lin W,Wang S,et al.Blind Image Quality Assessment forStereoscopic Images Using Binocular Guided Quality Lookup and Visual Codebook[J].IEEE Transactions on Broadcasting,2015,61(2):154-165.
[21]田维军,邵枫,蒋刚毅,等.基于深度学习的无参考立体图像质量评价[J].计算机辅助设计与图形学学报,2016,28(6):968-975.
[22]李苗苗,桑庆兵.一种基于图像融合的无参考立体图像质量评价方法[J].光学技术, 2017(1):25-32。

Claims (6)

1.一种基于融合图像的无参考立体图像质量评价方法,其特征是,将立体图像的左右视图进行融合,使用重叠切块的方法送给神经网络Alexnet进行迁移学习训练,预测得到立体图像的质量,最后再利用人眼的视觉显著特性对融合图像进行加权。
2.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,将立体图像的左右视图进行融合具体步骤如下:首先,左右视视图分别在RGB三个通道上进行滤波器Gabor滤波以模拟人眼的视觉多通道特性,获取其不同尺度和方向的结构特征,随后通过对比敏感度函数CSF滤除图像的不重要的频率信息,最后通过公式(1)获得融合图像,在每个通道中,两只眼睛会互相施加增益控制,其施加的增益控制与其能量成正比,并且每只眼睛会对另一只眼睛产生的增益控制进行控制,即增益增强:
其中,εi和βi分别用公式(2)和(3)表示为
C(x,y)是融合后的图像;Il(x,y),Ir(x,y)分别是左视图和右视图;j和k分别是6和8,表示使用6个尺度:fs∈{1.5,2.5,3.5,5,7,10}(cycles/degree),和8个方向:θ∈{kπ/8|k=0,1,…7}的滤波器Gabor提取图像特征;εlr是输入的左视图和右视图用于增益增强的视觉权重对比能量,βlr是左视图对右视图的增益控制和右视图对左视图的增益控制;gei,gci分别表示左视图对右视图的增益控制门限和右视图对左视图的增益控制门限;
C(x,y)=Il(x,y)+Ir(x,y) (4)
存在某一个确定的阈值,当左视图和右视图的对比刺激低于这个阈值时,融合图像是左右视图的线性叠加,用公式(4)来表示;反之,当左右视图的的对比刺激高于这个阈值时,融合图像是左右视图非线性叠加形成的,如公式(1)。
3.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,利用神经网络Alexnet,修改其最后一层,改为二分类,该网络结构一共有十层,第一层为输入层,输入图像块;第二层到第六层为卷积层,输入图像经过卷积层提取一系列特征;第七层到第九层为全连接层,全连接层将学到的特征通过权值的方法映射到样本的标记空间;第十层为网络的输出,即小块的质量分数,该网络输入图像大小227x227。
4.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,更进一步地,神经网络Alexnet使用ReLU非线性激活函数;在卷积层和池化层后经过局部响应归一化层,实现局部抑制,加快网络收敛速度,提高网络的泛化能力;全连接层使用Dropout层,随机让网络某些隐含层节点的权重不工作,防止过拟合,采用三层全连接层。
5.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,利用人眼的视觉显著特性对融合图像进行加权具体步骤如下,采用具有各向异性的高斯核函数模拟注意力由中央向四周扩散的中央偏移CB因子:
CB(x,y)表示像素点(x,y)对中心点(x0,y0)的偏移信息,(x0,y0)表示失真右视点的中心点坐标,(x,y)为像素点坐标,σh和σv分别表示图像水平方向和垂直方向的标准差;
通过公式(5)得到图像的中央偏移CB因子CB(x,y),归一化CB(x,y)得到图像对应的权值矩阵CBnormal(x,y),用公式(6)表示,其中M和N为图像的长和宽,(x,y)为图像的像素位置;将归一化的权值矩阵按原始图像分块的方式进行分块处理并求和得到块归一权值CBnormblock(i),用公式(7)表示,CBnormblock(i)为第i个图像块的权值;将对应位置的权值矩阵与输入图像块质量相乘,得到图像块的质量值,再将一幅图像所有图像块的质量值相加,即得到基于人眼视觉显著特性图像质量值value,其中T为图像分块的数量,为valueblock(i)为图像块i的质量值,用公式(8)表示
6.如权利要求1所述的基于融合图像的无参考立体图像质量评价方法,其特征是,还包括验证步骤:采用皮尔森线性相关系数PLCC,斯皮尔曼秩相关系数SROCC和均方误差RMSE指标作为衡量图像质量评价的尺度,SROCC和PLCC越接近于1,表示模型性能越好;RMSE越接近于0,表示性能越好。
CN201811208264.0A 2018-10-17 2018-10-17 基于融合图像的无参考立体图像质量评价方法 Expired - Fee Related CN109360178B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811208264.0A CN109360178B (zh) 2018-10-17 2018-10-17 基于融合图像的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811208264.0A CN109360178B (zh) 2018-10-17 2018-10-17 基于融合图像的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN109360178A true CN109360178A (zh) 2019-02-19
CN109360178B CN109360178B (zh) 2021-11-19

Family

ID=65349484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811208264.0A Expired - Fee Related CN109360178B (zh) 2018-10-17 2018-10-17 基于融合图像的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN109360178B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111304A (zh) * 2019-04-04 2019-08-09 天津大学 基于局部到全局特征回归的无参考立体图像质量评价方法
CN110399881A (zh) * 2019-07-11 2019-11-01 深圳大学 一种端到端的基于双目立体图像的质量增强方法及装置
CN110458829A (zh) * 2019-08-13 2019-11-15 腾讯医疗健康(深圳)有限公司 基于人工智能的图像质控方法、装置、设备及存储介质
CN110458802A (zh) * 2019-06-28 2019-11-15 天津大学 基于投影权值归一化的立体图像质量评价方法
CN110570406A (zh) * 2019-08-27 2019-12-13 天津大学 从局部到全局特征回归无参考立体图像质量评价方法
CN110738645A (zh) * 2019-10-11 2020-01-31 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN110958449A (zh) * 2019-12-19 2020-04-03 西北工业大学 三维视频主观感知质量预测方法
CN111882516A (zh) * 2020-02-19 2020-11-03 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN112164056A (zh) * 2020-09-30 2021-01-01 南京信息工程大学 基于交互式卷积神经网络的无参考立体图像质量评价方法
CN112508967A (zh) * 2020-12-04 2021-03-16 武汉大学 一种图像质量评价方法及系统
CN112686847A (zh) * 2020-12-23 2021-04-20 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质
CN112734733A (zh) * 2021-01-12 2021-04-30 天津大学 基于通道重组与特征融合的无参考图像质量监测方法
CN113379733A (zh) * 2021-07-08 2021-09-10 湖南工商大学 无参考图像质量评价的分块标签权重度量方法及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105407349A (zh) * 2015-11-30 2016-03-16 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
US20170046839A1 (en) * 2015-08-14 2017-02-16 Elucid Bioimaging Inc. Systems and methods for analyzing pathologies utilizing quantitative imaging
CN108389192A (zh) * 2018-02-11 2018-08-10 天津大学 基于卷积神经网络的立体图像舒适度评价方法
CN108520510A (zh) * 2018-03-19 2018-09-11 天津大学 一种基于整体和局部分析的无参考立体图像质量评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046839A1 (en) * 2015-08-14 2017-02-16 Elucid Bioimaging Inc. Systems and methods for analyzing pathologies utilizing quantitative imaging
CN105407349A (zh) * 2015-11-30 2016-03-16 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
CN108389192A (zh) * 2018-02-11 2018-08-10 天津大学 基于卷积神经网络的立体图像舒适度评价方法
CN108520510A (zh) * 2018-03-19 2018-09-11 天津大学 一种基于整体和局部分析的无参考立体图像质量评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LV Y 等: "No-reference Stereoscopic Image Quality Assessment Using Binocular Self-similarity and Deep Neural Network", 《SIGNAL PROCESSING: IMAGE COMMUNICATION》 *
李苗苗 等: "一种基于图像融合的无参考立体图像质量评价方法", 《光学技术》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111304B (zh) * 2019-04-04 2023-08-29 天津大学 基于局部到全局特征回归的无参考立体图像质量评价方法
CN110111304A (zh) * 2019-04-04 2019-08-09 天津大学 基于局部到全局特征回归的无参考立体图像质量评价方法
CN110458802A (zh) * 2019-06-28 2019-11-15 天津大学 基于投影权值归一化的立体图像质量评价方法
CN110399881B (zh) * 2019-07-11 2021-06-01 深圳大学 一种端到端的基于双目立体图像的质量增强方法及装置
CN110399881A (zh) * 2019-07-11 2019-11-01 深圳大学 一种端到端的基于双目立体图像的质量增强方法及装置
CN110458829A (zh) * 2019-08-13 2019-11-15 腾讯医疗健康(深圳)有限公司 基于人工智能的图像质控方法、装置、设备及存储介质
CN110458829B (zh) * 2019-08-13 2024-01-30 腾讯医疗健康(深圳)有限公司 基于人工智能的图像质控方法、装置、设备及存储介质
CN110570406A (zh) * 2019-08-27 2019-12-13 天津大学 从局部到全局特征回归无参考立体图像质量评价方法
CN110738645B (zh) * 2019-10-11 2022-06-10 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN110738645A (zh) * 2019-10-11 2020-01-31 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN110958449B (zh) * 2019-12-19 2021-07-06 西北工业大学 三维视频主观感知质量预测方法
CN110958449A (zh) * 2019-12-19 2020-04-03 西北工业大学 三维视频主观感知质量预测方法
CN111882516A (zh) * 2020-02-19 2020-11-03 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN111882516B (zh) * 2020-02-19 2023-07-07 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN112164056A (zh) * 2020-09-30 2021-01-01 南京信息工程大学 基于交互式卷积神经网络的无参考立体图像质量评价方法
CN112164056B (zh) * 2020-09-30 2023-08-29 南京信息工程大学 基于交互式卷积神经网络的无参考立体图像质量评价方法
CN112508967A (zh) * 2020-12-04 2021-03-16 武汉大学 一种图像质量评价方法及系统
CN112686847A (zh) * 2020-12-23 2021-04-20 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质
CN112686847B (zh) * 2020-12-23 2024-05-14 平安银行股份有限公司 身份证图像拍摄质量评价方法、装置、计算机设备和介质
CN112734733B (zh) * 2021-01-12 2022-11-01 天津大学 基于通道重组与特征融合的无参考图像质量监测方法
CN112734733A (zh) * 2021-01-12 2021-04-30 天津大学 基于通道重组与特征融合的无参考图像质量监测方法
CN113379733A (zh) * 2021-07-08 2021-09-10 湖南工商大学 无参考图像质量评价的分块标签权重度量方法及设备

Also Published As

Publication number Publication date
CN109360178B (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
CN109360178A (zh) 基于融合图像的无参考立体图像质量评价方法
CN107633513B (zh) 基于深度学习的3d图像质量的度量方法
Niu et al. 2D and 3D image quality assessment: A survey of metrics and challenges
Zhou et al. Binocular responses for no-reference 3D image quality assessment
Ding et al. No-reference stereoscopic image quality assessment using convolutional neural network for adaptive feature extraction
CN110060236B (zh) 基于深度卷积神经网络的立体图像质量评价方法
CN108389192A (zh) 基于卷积神经网络的立体图像舒适度评价方法
CN108391121B (zh) 一种基于深度神经网络的无参考立体图像质量评价方法
CN109831664B (zh) 基于深度学习的快速压缩立体视频质量评价方法
Shen et al. No-reference stereoscopic image quality assessment based on global and local content characteristics
Liu et al. Blind stereoscopic image quality assessment based on hierarchical learning
Lv et al. No-reference stereoscopic image quality assessment using binocular self-similarity and deep neural network
CN108235003B (zh) 基于3d卷积神经网络的立体视频质量评价方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
Kim et al. Binocular fusion net: deep learning visual comfort assessment for stereoscopic 3D
Messai et al. Adaboost neural network and cyclopean view for no-reference stereoscopic image quality assessment
Si et al. A no-reference stereoscopic image quality assessment network based on binocular interaction and fusion mechanisms
CN108389189A (zh) 基于字典学习的立体图像质量评价方法
CN108259893B (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
Jiang et al. Quality assessment for virtual reality technology based on real scene
CN111915589A (zh) 基于空洞卷积的立体图像质量评价方法
He et al. TGP-PCQA: Texture and geometry projection based quality assessment for colored point clouds
CN116033279B (zh) 一种夜晚监控相机的近红外图像彩色化方法、系统及设备
CN107909565A (zh) 基于卷积神经网络的立体图像舒适度评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20211119