CN108492275B - 基于深度神经网络的无参考立体图像质量评价方法 - Google Patents

基于深度神经网络的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN108492275B
CN108492275B CN201810066808.8A CN201810066808A CN108492275B CN 108492275 B CN108492275 B CN 108492275B CN 201810066808 A CN201810066808 A CN 201810066808A CN 108492275 B CN108492275 B CN 108492275B
Authority
CN
China
Prior art keywords
dis
qun
dep
mar
coordinate position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810066808.8A
Other languages
English (en)
Other versions
CN108492275A (zh
Inventor
周武杰
张爽爽
师磊磊
郑飘飘
潘婷
顾鹏笠
蔡星宇
胡慧敏
吕思嘉
袁建中
陈昱臻
金国英
王建芬
王新华
孙丽慧
吴洁雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Red Rabbit Code Information Technology Co ltd
Original Assignee
Zhejiang Lover Health Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lover Health Science and Technology Development Co Ltd filed Critical Zhejiang Lover Health Science and Technology Development Co Ltd
Priority to CN201810066808.8A priority Critical patent/CN108492275B/zh
Publication of CN108492275A publication Critical patent/CN108492275A/zh
Application granted granted Critical
Publication of CN108492275B publication Critical patent/CN108492275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度神经网络的无参考立体图像质量评价方法,其采用水平视差补偿技术对失真立体图像的右视点图像进行水平视差补偿,得到水平视差补偿后的图像,再采用双目空间活动模型,结合失真立体图像的左视点图像和水平视差补偿后的图像,获得失真立体图像的合成中央眼活动图像,该合成中央眼活动图像能够很好地模拟双目显著性感知特性;其在充分利用了双目视觉感知特性的基础上,提取梯度幅值和高斯拉普拉斯特征信息,因此能有效地提高客观评价结果与主观感知之间的相关性;其采用符合人脑机理特性的深度神经网络预测得到失真立体图像的客观质量评价预测值,使客观评价值能更加准确预测失真立体图像的质量。

Description

基于深度神经网络的无参考立体图像质量评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于深度神经网络的无参考立体图像质量评价方法。
背景技术
近几年来,随着计算机科学技术的快速发展,立体可视化吸引了越来越多人的兴趣,计算机图形学的应用在各个行业都得到了快速发展。随着计算机图像、计算机视觉、多媒体及其他相关技术的发展融合,新的视觉多媒体也得到了快速发展,给人们带来了不同于传统二维图像/视频的全新视觉体验。在数字信息大爆炸的今天,立体技术不断成熟,立体产品也不断丰富着人们的生活。越来越多的立体电影占据了荧幕,使人们能更加生动形象地感受到画面,视频电话、3D游戏、手机、电视也越来越多的运用立体技术获得更好的视觉体验。除此之外,立体图像/视频技术还广泛应用于医疗、农业、智能生活、教育、军事等领域。然而,常见的立体图像处理技术包括立体图像/视频的采集、编码、传输、显示和评价等,这一系列的过程会不可避免的引入失真,影响立体图像/视频的立体感及观看舒适度,并有可能带给人们错误的认知,这也严重制约着立体产品的推广及普及。对于立体图像而言,非常需要建立一套可靠有效的质量评价机制,对立体图像显示效果进行准确的评判。因此,立体图像质量评价技术作为促进立体图像/视频技术发展的重要技术,已经成为立体图像处理技术领域的研究热点之一。
现有的无参考质量评价方法主要是通过机器学习来预测评价模型的,但针对立体图像,现有的无参考立体图像质量评价方法还是无参考平面图像质量评价方法的简单扩展,并没有考虑双目视觉特性,也没有充分学习特征数据的能力,因此,如何在评价过程中有效地提取特征信息,并有效地学习特征信息,在评价过程中进行双目视觉特性结合,并使用有效的特征学习模型,使得客观评价结果更加符合人类视觉感知系统,是对立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于深度神经网络的无参考立体图像质量评价方法,其能够充分考虑到立体图像的多种特性对视觉质量的影响,从而能够提高客观评价结果与双目主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于深度神经网络的无参考立体图像质量评价方法,其特征在于包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用水平视差补偿技术,对{Rdis(x,y)}进行水平视差补偿,得到{Rdis(x,y)}水平视差补偿后的图像,记为{R′dis(x,y)};然后采用双目空间活动模型,结合{Ldis(x,y)}和{R′dis(x,y)},得到Sdis的合成中央眼活动图像,记为{Mdis(x,y)};其中,R′dis(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的像素值,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
采用双目产物图提取技术,对{Ldis(x,y)}和{Rdis(x,y)}进行双目产物图提取,得到Sdis的双目产物图像,记为{Pdis(x,y)};其中,Pdis(x,y)表示{Pdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
③采用梯度幅值特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行梯度幅值特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的梯度幅值特征图像,对应记为{Gdis,1(x,y)}、{Gdis,2(x,y)}、{Gdis,3(x,y)}、{Gdis,4(x,y)};并采用高斯拉普拉斯特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行高斯拉普拉斯特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的高斯拉普拉斯特征图像,对应记为{Odis,1(x,y)}、{Odis,2(x,y)}、{Odis,3(x,y)}、{Odis,4(x,y)};其中,Gdis,1(x,y)表示{Gdis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,2(x,y)表示{Gdis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,3(x,y)表示{Gdis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,4(x,y)表示{Gdis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,1(x,y)表示{Odis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,2(x,y)表示{Odis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,3(x,y)表示{Odis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,4(x,y)表示{Odis,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
④采用联合自适应归一化方法,对{Gdis,1(x,y)}和{Odis,1(x,y)}进行联合自适应归一化处理,得到{Gdis,1(x,y)}和{Odis,1(x,y)}各自的归一化特征图像,对应记为{G′dis,1(x,y)}和{O′dis,1(x,y)};同样,对{Gdis,2(x,y)}和{Odis,2(x,y)}进行联合自适应归一化处理,得到{Gdis,2(x,y)}和{Odis,2(x,y)}各自的归一化特征图像,对应记为{G′dis,2(x,y)}和{O′dis,2(x,y)};对{Gdis,3(x,y)}和{Odis,3(x,y)}进行联合自适应归一化处理,得到{Gdis,3(x,y)}和{Odis,3(x,y)}各自的归一化特征图像,对应记为{G′dis,3(x,y)}和{O′dis,3(x,y)};对{Gdis,4(x,y)}和{Odis,4(x,y)}进行联合自适应归一化处理,得到{Gdis,4(x,y)}和{Odis,4(x,y)}各自的归一化特征图像,对应记为{G′dis,4(x,y)}和{O′dis,4(x,y)};其中,G′dis,1(x,y)表示{G′dis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,1(x,y)表示{Odis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,2(x,y)表示{G′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,2(x,y)表示{O′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,3(x,y)表示{G′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,3(x,y)表示{O′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,4(x,y)表示{Gdis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,4(x,y)表示{O′dis,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤采用量化方法,分别对{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}进行量化处理,对应得到{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}各自的量化特征图像,对应记为{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}、{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}、{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}、{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)};其中,G′dis,qun,1(x,y)表示{Gdis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,1(x,y)表示{Odis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,2(x,y)表示{G′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,2(x,y)表示{O′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,3(x,y)表示{G′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,3(x,y)表示{O′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,4(x,y)表示{G′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,4(x,y)表示{O′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用边缘概率求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行边缘概率求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,1和O′dis,qun,mar,1;并采用独立分布求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行独立分布求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,1和O′dis,qun,dep,1;其中,G′dis,qun,mar,1和O′dis,qun,mar,1的维数均为1×m′维,G′dis,qun,dep,1和O′dis,qun,dep,1的维数均为1×m′维,m′表示边缘概率特征向量和独立分布特征向量的维数,m′>1;
采用边缘概率求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行边缘概率求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,2和O′dis,qun,mar,2;并采用独立分布求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行独立分布求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,2和O′dis,qun,dep,2;其中,G′dis,qun,mar,2和O′dis,qun,mar,2的维数均为1×m′维,G′dis,qun,dep,2和O′dis,qun,dep,2的维数均为1×m′维;
采用边缘概率求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行边缘概率求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,3和O′dis,qun,mar,3;并采用独立分布求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行独立分布求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,3和O′dis,qun,dep,3;其中,G′dis,qun,mar,3和O′dis,qun,mar,3的维数均为1×m′维,G′dis,qun,dep,3和O′dis,qun,dep,3的维数均为1×m′维;
采用边缘概率求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行边缘概率求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,4和O′dis,qun,mar,4;并采用独立分布求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行独立分布求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,4和O′dis,qun,dep,4;其中,G′dis,qun,mar,4和O′dis,qun,mar,4的维数均为1×m′维,G′dis,qun,dep,4和O′dis,qun,dep,4的维数均为1×m′维;
⑦采用n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;并按照步骤①至步骤⑥的操作,以相同的方式获取训练集中的每幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像和高斯拉普拉斯特征图像各自对应的边缘概率特征向量和独立分布特征向量,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的边缘概率特征向量对应记为G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的边缘概率特征向量对应记为O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的独立分布特征向量对应记为G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的独立分布特征向量对应记为O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j、O′dis,qun,dep,4,j;其中,n>1,j的初始值为1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j、O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j、G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j、O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j和O′dis,qun,dep,4,j的维数均为1×m′维;
⑧利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及对应的边缘概率特征向量和独立分布特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络训练模型,将全局最优的深度神经网络训练模型中的权重矩阵记为ω,将全局最优的深度神经网络训练模型中的偏置向量记为b;再根据全局最优的深度神经网络训练模型,对G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4进行测试,预测得到Sdis的客观质量评价预测值,记为Q,Q=y(x),
Figure GDA0002494067070000071
其中,Q是x的函数,y()为函数表示形式,x为输入,x代表G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4,ωi T为ωi的转置矢量,ωi为ω的第i行变量,bi为b的第i行变量,x的维数为1×m′,ωi的维数为1×m′,bi的维数为1×1。
所述的步骤②中,
Figure GDA0002494067070000072
其中,C为一个用于保证稳定性的小整数,(σL(x,y))2表示SL(x,y)的方差,SL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{Ldis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{Ldis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,(σR(x,y))2表示SR(x,y)的方差,SR(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{R′dis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{R′dis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,N>1。
所述的步骤②中,Pdis(x,y)=Ldis(x,y)×Rdis(x+dh(x,y),y),其中,Rdis(x+dh(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+dh(x,y),y)的像素点的像素值,dh(x,y)表示{Ldis(x,y)}与{Rdis(x,y)}的视差图像中坐标位置为(x,y)的像素点的水平视差值。
与现有技术相比,本发明的优点在于:
1)本发明方法采用水平视差补偿技术对失真立体图像的右视点图像进行水平视差补偿,得到水平视差补偿后的图像,再采用双目空间活动模型,结合失真立体图像的左视点图像和水平视差补偿后的图像,获得失真立体图像的合成中央眼活动图像,该合成中央眼活动图像能够很好地模拟双目显著性感知特性。
2)本发明方法在充分利用了双目视觉感知特性的基础上,提取梯度幅值和高斯拉普拉斯特征信息,因此能有效地提高客观评价结果与主观感知之间的相关性。
3)本发明方法采用符合人脑机理特性的深度神经网络预测得到失真立体图像的客观质量评价预测值,使客观评价值能更加准确预测失真立体图像的质量。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明方法提出了一种基于深度神经网络的无参考立体图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的水平视差补偿技术,对{Rdis(x,y)}进行水平视差补偿,得到{Rdis(x,y)}水平视差补偿后的图像,记为{R′dis(x,y)};然后采用现有的双目空间活动模型(Binocularspatial activity model),结合{Ldis(x,y)}和{R′dis(x,y)},得到Sdis的合成中央眼活动图像,记为{Mdis(x,y)};其中,R′dis(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的像素值,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤②中,
Figure GDA0002494067070000091
其中,C为一个用于保证稳定性的小整数,在本实施例中取C=0.01,(σL(x,y))2表示SL(x,y)的方差,SL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{Ldis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{Ldis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,(σR(x,y))2表示SR(x,y)的方差,SR(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{R′dis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{R′dis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,N>1,在本实施例中取N=17。
采用现有的双目产物图(Product Image)提取技术,对{Ldis(x,y)}和{Rdis(x,y)}进行双目产物图提取,得到Sdis的双目产物图像,记为{Pdis(x,y)};其中,Pdis(x,y)表示{Pdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤②中,Pdis(x,y)=Ldis(x,y)×Rdis(x+dh(x,y),y),其中,Rdis(x+dh(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+dh(x,y),y)的像素点的像素值,dh(x,y)表示{Ldis(x,y)}与{Rdis(x,y)}的视差图像中坐标位置为(x,y)的像素点的水平视差值。
③采用现有的梯度幅值特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行梯度幅值特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的梯度幅值特征图像,对应记为{Gdis,1(x,y)}、{Gdis,2(x,y)}、{Gdis,3(x,y)}、{Gdis,4(x,y)};并采用现有的高斯拉普拉斯特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行高斯拉普拉斯特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的高斯拉普拉斯特征图像,对应记为{Odis,1(x,y)}、{Odis,2(x,y)}、{Odis,3(x,y)}、{Odis,4(x,y)};其中,Gdis,1(x,y)表示{Gdis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,2(x,y)表示{Gdis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,3(x,y)表示{Gdis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,4(x,y)表示{Gdis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,1(x,y)表示{Odis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,2(x,y)表示{Odis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,3(x,y)表示{Odis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,4(x,y)表示{Odis,4(x,y)}中坐标位置为(x,y)的像素点的像素值。
④采用现有的联合自适应归一化方法(Joint adaptive normalization),对{Gdis,1(x,y)}和{Odis,1(x,y)}进行联合自适应归一化处理,得到{Gdis,1(x,y)}和{Odis,1(x,y)}各自的归一化特征图像,对应记为{G′dis,1(x,y)}和{O′dis,1(x,y)};同样,对{Gdis,2(x,y)}和{Odis,2(x,y)}进行联合自适应归一化处理,得到{Gdis,2(x,y)}和{Odis,2(x,y)}各自的归一化特征图像,对应记为{G′dis,2(x,y)}和{O′dis,2(x,y)};对{Gdis,3(x,y)}和{Odis,3(x,y)}进行联合自适应归一化处理,得到{Gdis,3(x,y)}和{Odis,3(x,y)}各自的归一化特征图像,对应记为{G′dis,3(x,y)}和{O′dis,3(x,y)};对{Gdis,4(x,y)}和{Odis,4(x,y)}进行联合自适应归一化处理,得到{Gdis,4(x,y)}和{Odis,4(x,y)}各自的归一化特征图像,对应记为{G′dis,4(x,y)}和{O′dis,4(x,y)};其中,G′dis,1(x,y)表示{G′dis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,1(x,y)表示{O′dis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,2(x,y)表示{G′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,2(x,y)表示{O′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,3(x,y)表示{G′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,3(x,y)表示{O′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,4(x,y)表示{G′dis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,4(x,y)表示{O′dis,4(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑤采用现有的量化方法,分别对{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}进行量化处理,对应得到{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}各自的量化特征图像,对应记为{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}、{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}、{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}、{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)};其中,G′dis,qun,1(x,y)表示{G′dis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,1(x,y)表示{O′dis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,2(x,y)表示{G′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,2(x,y)表示{O′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,3(x,y)表示{G′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,3(x,y)表示{O′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,4(x,y)表示{G′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,4(x,y)表示{O′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑥采用现有的边缘概率求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行边缘概率求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,1和O′dis,qun,mar,1;并采用现有的独立分布求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行独立分布求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,1和O′dis,qun,dep,1;其中,G′dis,qun,mar,1和O′dis,qun,mar,1的维数均为1×m′维,G′dis,qun,mar,1中的第m个元素为G′dis,qun,mar,1(m),O′dis,qun,mar,1中的第m个元素为O′dis,qun,mar,1(m),G′dis,qun,dep,1和O′dis,qun,dep,1的维数均为1×m′维,G′dis,qun,dep,1中的第m个元素为G′dis,qun,dep,1(m),O′dis,qun,dep,1中的第m个元素为O′dis,qun,dep,1(m),1≤m≤m′,m′表示边缘概率特征向量和独立分布特征向量的维数,m′>1,在本实施例中取m′=10。
采用现有的边缘概率求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行边缘概率求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,2和O′dis,qun,mar,2;并采用现有的独立分布求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行独立分布求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,2和O′dis,qun,dep,2;其中,G′dis,qun,mar,2和O′dis,qun,mar,2的维数均为1×m′维,G′dis,qun,mar,2中的第m个元素为G′dis,qun,mar,2(m),O′dis,qun,mar,2中的第m个元素为O′dis,qun,mar,2(m),G′dis,qun,dep,2和O′dis,qun,dep,2的维数均为1×m′维,G′dis,qun,dep,2中的第m个元素为G′dis,qun,dep,2(m),O′dis,qun,dep,2中的第m个元素为O′dis,qun,dep,2(m)。
采用现有的边缘概率求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行边缘概率求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,3和O′dis,qun,mar,3;并采用现有的独立分布求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行独立分布求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,3和O′dis,qun,dep,3;其中,G′dis,qun,mar,3和O′dis,qun,mar,3的维数均为1×m′维,G′dis,qun,mar,3中的第m个元素为G′dis,qun,mar,3(m),O′dis,qun,mar,3中的第m个元素为O′dis,qun,mar,3(m),G′dis,qun,dep,3和O′dis,qun,dep,3的维数均为1×m′维,G′dis,qun,dep,3中的第m个元素为G′dis,qun,dep,3(m),O′dis,qun,dep,3中的第m个元素为O′dis,qun,dep,3(m)。
采用现有的边缘概率求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行边缘概率求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,4和O′dis,qun,mar,4;并采用现有的独立分布求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行独立分布求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,4和O′dis,qun,dep,4;其中,G′dis,qun,mar,4和O′dis,qun,mar,4的维数均为1×m′维,G′dis,qun,mar,4中的第m个元素为G′dis,qun,mar,4(m),O′dis,qun,mar,4中的第m个元素为O′dis,qun,mar,4(m),G′dis,qun,dep,4和O′dis,qun,dep,4的维数均为1×m′维,G′dis,qun,dep,4中的第m个元素为G′dis,qun,dep,4(m),O′dis,qun,dep,4中的第m个元素为O′dis,qun,dep,4(m)。
⑦采用n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用现有的主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;并按照步骤①至步骤⑥的操作,以相同的方式获取训练集中的每幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像和高斯拉普拉斯特征图像各自对应的边缘概率特征向量和独立分布特征向量,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的边缘概率特征向量对应记为G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的边缘概率特征向量对应记为O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的独立分布特征向量对应记为G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的独立分布特征向量对应记为O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j、O′dis,qun,dep,4,j;其中,n>1,如取n=100,j的初始值为1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j、O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j、G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j、O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j和O′dis,qun,dep,4,j的维数均为1×m′维,G′dis,qun,mar,1,j中的第m个元素为G′dis,qun,mar,1,j(m),G′dis,qun,mar,2,j中的第m个元素为G′dis,qun,mar,2,j(m),G′dis,qun,mar,3,j中的第m个元素为G′dis,qun,mar,3,j(m),G′dis,qun,mar,4,j中的第m个元素为G′dis,qun,mar,4,j(m),O′dis,qun,mar,1,j中的第m个元素为O′dis,qun,mar,1,j(m),O′dis,qun,mar,2,j中的第m个元素为O′dis,qun,mar,2,j(m),O′dis,qun,mar,3,j中的第m个元素为O′dis,qun,mar,3,j(m),O′dis,qun,mar,4,j中的第m个元素为O′dis,qun,mar,4,j(m),G′dis,qun,dep,1,j中的第m个元素为G′dis,qun,dep,1,j(m),G′dis,qun,dep,2,j中的第m个元素为G′dis,qun,dep,2,j(m),G′dis,qun,dep,3,j中的第m个元素为G′dis,qun,dep,3,j(m),G′dis,qun,dep,4,j中的第m个元素为G′dis,qun,dep,4,j(m),O′dis,qun,dep,1,j中的第m个元素为O′dis,qun,dep,1,j(m),O′dis,qun,dep,2,j中的第m个元素为O′dis,qun,dep,2,j(m),O′dis,qun,dep,3,j中的第m个元素为O′dis,qun,dep,3,j(m),O′dis,qun,dep,4,j中的第m个元素为O′dis,qun,dep,4,j(m)。
⑧深度神经网络(Deep Neural Network,DNN)是基于人类大脑神经网络设计的机器学习方法,其可以有效地抑制过拟合问题,充分学习特征中所包含的图像信息,因此本发明利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及对应的边缘概率特征向量和独立分布特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络训练模型,将全局最优的深度神经网络训练模型中的权重矩阵记为ω,将全局最优的深度神经网络训练模型中的偏置向量记为b;再根据全局最优的深度神经网络训练模型,对G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4进行测试,预测得到Sdis的客观质量评价预测值,记为Q,Q=y(x),
Figure GDA0002494067070000141
其中,Q是x的函数,y()为函数表示形式,x为输入,x代表G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4,ωiT为ωi的转置矢量,ωi为ω的第i行变量,bi为b的第i行变量,x的维数为1×m′,ωi的维数为1×m′,bi的维数为1×1。
深度神经网络包括一层输入层、两层隐层、一层输出层,第一层输入层为全连接层,其神经元节点个数为300;中间两层隐层都为全连接层,其神经元节点个数分别为128、64;最后一层输出层,设置其神经元节点个数为1,输出监督训练的数据。其中前三层使用的激活函数都是修正线性单元函数(Rectified Linear Unit,ReLU),最后一层全连接作为输出,不使用任何激活函数。ReLU可以用f(y')=max(0,y')来表示,f()为函数表示形式,y'为输入变量,max()为取最大值函数。使用ReLU作为激活函数的原因是:ReLU可以通过简单地将零激活矩阵阈值化来实现;ReLU不会饱和,并且使用ReLU作为激活函数可以很大程度地加快随机梯度下降的收敛。
为了进一步验证本发明方法的可行性和有效性,进行实验。
在此,采用LIVE立体图像失真库来分析利用本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性。这里,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linearcorrelation coefficient,PLCC)、Spearman相关系数(Spearman rank ordercorrelation coefficient,SROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映失真立体图像的客观质量评价预测值的准确性,SROCC反映其单调性。
利用本发明方法计算LIVE立体图像失真库中的每幅失真立体图像的客观质量评价预测值,再利用现有的主观质量评价方法获得LIVE立体图像失真库中的每幅失真立体图像的主观评分。将按本发明方法计算得到的失真立体图像的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高,RMSE值越低说明客观评价方法的客观评价结果与主观评分之间的相关性越好。反映本发明方法的质量评价性能的PLCC、SROCC和RMSE相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法得到的失真立体图像的客观质量评价预测值与主观评分之间的相关性
Figure GDA0002494067070000161

Claims (3)

1.一种基于深度神经网络的无参考立体图像质量评价方法,其特征在于包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用水平视差补偿技术,对{Rdis(x,y)}进行水平视差补偿,得到{Rdis(x,y)}水平视差补偿后的图像,记为{R′dis(x,y)};然后采用双目空间活动模型,结合{Ldis(x,y)}和{R′dis(x,y)},得到Sdis的合成中央眼活动图像,记为{Mdis(x,y)};其中,R′dis(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的像素值,Mdis(x,y)表示{Mdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
采用双目产物图提取技术,对{Ldis(x,y)}和{Rdis(x,y)}进行双目产物图提取,得到Sdis的双目产物图像,记为{Pdis(x,y)};其中,Pdis(x,y)表示{Pdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
③采用梯度幅值特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行梯度幅值特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的梯度幅值特征图像,对应记为{Gdis,1(x,y)}、{Gdis,2(x,y)}、{Gdis,3(x,y)}、{Gdis,4(x,y)};并采用高斯拉普拉斯特征求取技术,分别对{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}进行高斯拉普拉斯特征提取,对应得到{Ldis(x,y)}、{Rdis(x,y)}、{Mdis(x,y)}、{Pdis(x,y)}各自的高斯拉普拉斯特征图像,对应记为{Odis,1(x,y)}、{Odis,2(x,y)}、{Odis,3(x,y)}、{Odis,4(x,y)};其中,Gdis,1(x,y)表示{Gdis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,2(x,y)表示{Gdis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,3(x,y)表示{Gdis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Gdis,4(x,y)表示{Gdis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,1(x,y)表示{Odis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,2(x,y)表示{Odis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,3(x,y)表示{Odis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,Odis,4(x,y)表示{Odis,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
④采用联合自适应归一化方法,对{Gdis,1(x,y)}和{Odis,1(x,y)}进行联合自适应归一化处理,得到{Gdis,1(x,y)}和{Odis,1(x,y)}各自的归一化特征图像,对应记为{G′dis,1(x,y)}和{O′dis,1(x,y)};同样,对{Gdis,2(x,y)}和{Odis,2(x,y)}进行联合自适应归一化处理,得到{Gdis,2(x,y)}和{Odis,2(x,y)}各自的归一化特征图像,对应记为{G′dis,2(x,y)}和{O′dis,2(x,y)};对{Gdis,3(x,y)}和{Odis,3(x,y)}进行联合自适应归一化处理,得到{Gdis,3(x,y)}和{Odis,3(x,y)}各自的归一化特征图像,对应记为{G′dis,3(x,y)}和{O′dis,3(x,y)};对{Gdis,4(x,y)}和{Odis,4(x,y)}进行联合自适应归一化处理,得到{Gdis,4(x,y)}和{Odis,4(x,y)}各自的归一化特征图像,对应记为{G′dis,4(x,y)}和{O′dis,4(x,y)};其中,G′dis,1(x,y)表示{G′dis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,1(x,y)表示{O′dis,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,2(x,y)表示{G′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,2(x,y)表示{O′dis,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,3(x,y)表示{G′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,3(x,y)表示{O′dis,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,4(x,y)表示{G′dis,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,4(x,y)表示{O′dis,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤采用量化方法,分别对{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}进行量化处理,对应得到{G′dis,1(x,y)}和{O′dis,1(x,y)}、{G′dis,2(x,y)}和{O′dis,2(x,y)}、{G′dis,3(x,y)}和{O′dis,3(x,y)}、{G′dis,4(x,y)}和{O′dis,4(x,y)}各自的量化特征图像,对应记为{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}、{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}、{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}、{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)};其中,G′dis,qun,1(x,y)表示{G′dis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,1(x,y)表示{O′dis,qun,1(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,2(x,y)表示{G′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,2(x,y)表示{O′dis,qun,2(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,3(x,y)表示{G′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,3(x,y)表示{O′dis,qun,3(x,y)}中坐标位置为(x,y)的像素点的像素值,G′dis,qun,4(x,y)表示{G′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值,O′dis,qun,4(x,y)表示{O′dis,qun,4(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用边缘概率求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行边缘概率求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,1和O′dis,qun,mar,1;并采用独立分布求取方法,联合{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}进行独立分布求取,得到{G′dis,qun,1(x,y)}和{O′dis,qun,1(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,1和O′dis,qun,dep,1;其中,G′dis,qun,mar,1和O′dis,qun,mar,1的维数均为1×m′维,G′dis,qun,dep,1和O′dis,qun,dep,1的维数均为1×m′维,m′表示边缘概率特征向量和独立分布特征向量的维数,m′>1;
采用边缘概率求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行边缘概率求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,2和O′dis,qun,mar,2;并采用独立分布求取方法,联合{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}进行独立分布求取,得到{G′dis,qun,2(x,y)}和{O′dis,qun,2(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,2和O′dis,qun,dep,2;其中,G′dis,qun,mar,2和O′dis,qun,mar,2的维数均为1×m′维,G′dis,qun,dep,2和O′dis,qun,dep,2的维数均为1×m′维;
采用边缘概率求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行边缘概率求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,3和O′dis,qun,mar,3;并采用独立分布求取方法,联合{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}进行独立分布求取,得到{G′dis,qun,3(x,y)}和{O′dis,qun,3(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,3和O′dis,qun,dep,3;其中,G′dis,qun,mar,3和O′dis,qun,mar,3的维数均为1×m′维,G′dis,qun,dep,3和O′dis,qun,dep,3的维数均为1×m′维;
采用边缘概率求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行边缘概率求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的边缘概率特征向量,对应记为G′dis,qun,mar,4和O′dis,qun,mar,4;并采用独立分布求取方法,联合{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}进行独立分布求取,得到{G′dis,qun,4(x,y)}和{O′dis,qun,4(x,y)}各自的独立分布特征向量,对应记为G′dis,qun,dep,4和O′dis,qun,dep,4;其中,G′dis,qun,mar,4和O′dis,qun,mar,4的维数均为1×m′维,G′dis,qun,dep,4和O′dis,qun,dep,4的维数均为1×m′维;
⑦采用n幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后采用主观质量评价方法评价出训练集中的每幅失真立体图像的主观评分,将训练集中的第j幅失真立体图像的主观评分记为DMOSj;并按照步骤①至步骤⑥的操作,以相同的方式获取训练集中的每幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像和高斯拉普拉斯特征图像各自对应的边缘概率特征向量和独立分布特征向量,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的边缘概率特征向量对应记为G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的边缘概率特征向量对应记为O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的梯度幅值特征图像对应的独立分布特征向量对应记为G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j,将训练集中的第j幅失真立体图像的左视点图像、右视点图像、合成中央眼活动图像、双目产物图像各自的高斯拉普拉斯特征图像对应的独立分布特征向量对应记为O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j、O′dis,qun,dep,4,j;其中,n>1,j的初始值为1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,G′dis,qun,mar,1,j、G′dis,qun,mar,2,j、G′dis,qun,mar,3,j、G′dis,qun,mar,4,j、O′dis,qun,mar,1,j、O′dis,qun,mar,2,j、O′dis,qun,mar,3,j、O′dis,qun,mar,4,j、G′dis,qun,dep,1,j、G′dis,qun,dep,2,j、G′dis,qun,dep,3,j、G′dis,qun,dep,4,j、O′dis,qun,dep,1,j、O′dis,qun,dep,2,j、O′dis,qun,dep,3,j和O′dis,qun,dep,4,j的维数均为1×m′维;
⑧利用深度神经网络对训练集中的所有失真立体图像各自的主观评分及对应的边缘概率特征向量和独立分布特征向量进行训练,使得经过训练得到的回归函数值与主观评分之间的误差最小,得到全局最优的深度神经网络训练模型,将全局最优的深度神经网络训练模型中的权重矩阵记为ω,将全局最优的深度神经网络训练模型中的偏置向量记为b;再根据全局最优的深度神经网络训练模型,对G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4进行测试,预测得到Sdis的客观质量评价预测值,记为Q,Q=y(x),
Figure FDA0002494067060000051
其中,Q是x的函数,y()为函数表示形式,x为输入,x代表G′dis,qun,mar,1、O′dis,qun,mar,1、G′dis,qun,dep,1、O′dis,qun,dep,1、G′dis,qun,mar,2、O′dis,qun,mar,2、G′dis,qun,dep,2、O′dis,qun,dep,2、G′dis,qun,mar,3、O′dis,qun,mar,3、G′dis,qun,dep,3、O′dis,qun,dep,3、G′dis,qun,mar,4、O′dis,qun,mar,4、G′dis,qun,dep,4、O′dis,qun,dep,4,ωi T为ωi的转置矢量,ωi为ω的第i行变量,bi为b的第i行变量,x的维数为1×m′,ωi的维数为1×m′,bi的维数为1×1。
2.根据权利要求1所述的基于深度神经网络的无参考立体图像质量评价方法,其特征在于所述的步骤②中,
Figure FDA0002494067060000061
其中,C为一个用于保证稳定性的小整数,(σL(x,y))2表示SL(x,y)的方差,SL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{Ldis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{Ldis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,(σR(x,y))2表示SR(x,y)的方差,SR(x,y)表示{R′dis(x,y)}中坐标位置为(x,y)的像素点的所有临近像素点的像素值的平均值,{R′dis(x,y)}中坐标位置为(x,y)的像素点的临近像素点是指以{R′dis(x,y)}中坐标位置为(x,y)的像素点为中心像素点的N×N窗口内除中心像素点外的每个像素点,N>1。
3.根据权利要求1或2所述的基于深度神经网络的无参考立体图像质量评价方法,其特征在于所述的步骤②中,Pdis(x,y)=Ldis(x,y)×Rdis(x+dh(x,y),y),其中,Rdis(x+dh(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+dh(x,y),y)的像素点的像素值,dh(x,y)表示{Ldis(x,y)}与{Rdis(x,y)}的视差图像中坐标位置为(x,y)的像素点的水平视差值。
CN201810066808.8A 2018-01-24 2018-01-24 基于深度神经网络的无参考立体图像质量评价方法 Active CN108492275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810066808.8A CN108492275B (zh) 2018-01-24 2018-01-24 基于深度神经网络的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810066808.8A CN108492275B (zh) 2018-01-24 2018-01-24 基于深度神经网络的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN108492275A CN108492275A (zh) 2018-09-04
CN108492275B true CN108492275B (zh) 2020-08-18

Family

ID=63343726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810066808.8A Active CN108492275B (zh) 2018-01-24 2018-01-24 基于深度神经网络的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN108492275B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109167996B (zh) * 2018-09-21 2019-10-29 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法
CN110738645B (zh) * 2019-10-11 2022-06-10 浙江科技学院 基于卷积神经网络的3d图像质量检测方法
CN112330666B (zh) * 2020-11-26 2022-04-29 成都数之联科技股份有限公司 基于改进孪生网络的图像处理方法及系统及装置及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105720A1 (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
CN104796623A (zh) * 2015-02-03 2015-07-22 中国人民解放军国防科学技术大学 基于金字塔块匹配和泛函优化的拼接视频去结构偏差方法
CN105160667A (zh) * 2015-08-26 2015-12-16 西安交通大学 联合梯度和拉普拉斯-高斯信号的盲图像质量评价方法
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105654142A (zh) * 2016-01-06 2016-06-08 上海大学 基于自然场景统计的无参考立体图像质量评价方法
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN107360416A (zh) * 2017-07-12 2017-11-17 天津大学 基于局部多元高斯描述子的立体图像质量评价方法
CN107578403A (zh) * 2017-08-22 2018-01-12 浙江大学 基于梯度信息指导双目视图融合的立体图像质量评价方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508581B2 (en) * 2009-10-29 2013-08-13 Industrial Technology Research Institute Pixel data transformation method and apparatus for three dimensional display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105720A1 (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
CN104796623A (zh) * 2015-02-03 2015-07-22 中国人民解放军国防科学技术大学 基于金字塔块匹配和泛函优化的拼接视频去结构偏差方法
CN105160667A (zh) * 2015-08-26 2015-12-16 西安交通大学 联合梯度和拉普拉斯-高斯信号的盲图像质量评价方法
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105654142A (zh) * 2016-01-06 2016-06-08 上海大学 基于自然场景统计的无参考立体图像质量评价方法
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN107360416A (zh) * 2017-07-12 2017-11-17 天津大学 基于局部多元高斯描述子的立体图像质量评价方法
CN107578403A (zh) * 2017-08-22 2018-01-12 浙江大学 基于梯度信息指导双目视图融合的立体图像质量评价方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Blind 3D image quality assessment based on self-similarity of binocular features;Zhou, WJ 等;《NEUROCOMPUTING》;20170228;第128-134页 *
Blind Stereoscopic Image Quality Assessment Using Cyclopean View and Neural Network;Oussama Messai 等;《GlobalSIP 2017》;20171130;第196-200页 *
Full-reference quality assessment of stereopairs;M. J. Chen 等;《 Signal Processing: Image Communication》;20131231;第1143-1155页 *
No-reference Stereoscopic Image Quality Assessment Using Binocular Self-similarity and Deep Neural Network;Yaqi Lv 等;《Signal Processing: Image Communication》;20160930;第346-357页 *
基于GA-SVR模型的无参考立体图像质量评价;马允 等;《计算机工程》;20170531;第234-247页 *
基于视觉感知和零水印的部分参考立体图像质量评价模型;周武杰 等;《电子与信息学报》;20120831;第1786-1792页 *
立体视觉信息客观质量评价算法研究;沈丽丽;《中国博士学位论文全文数据库信息科技辑》;20110715;第I138-117页 *

Also Published As

Publication number Publication date
CN108492275A (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
Zhang et al. Learning structure of stereoscopic image for no-reference quality assessment with convolutional neural network
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
Shao et al. Toward a blind deep quality evaluator for stereoscopic images based on monocular and binocular interactions
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
Ding et al. No-reference stereoscopic image quality assessment using convolutional neural network for adaptive feature extraction
Fang et al. Stereoscopic image quality assessment by deep convolutional neural network
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN109831664B (zh) 基于深度学习的快速压缩立体视频质量评价方法
Shao et al. Learning blind quality evaluator for stereoscopic images using joint sparse representation
Zhou et al. Blind binocular visual quality predictor using deep fusion network
CN108492275B (zh) 基于深度神经网络的无参考立体图像质量评价方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
Yan et al. Blind stereoscopic image quality assessment by deep neural network of multi-level feature fusion
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
Shao et al. Learning sparse representation for no-reference quality assessment of multiply distorted stereoscopic images
CN104811693A (zh) 一种立体图像视觉舒适度客观评价方法
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN109859166A (zh) 一种基于多列卷积神经网络的无参3d图像质量评估方法
Xu et al. EPES: Point cloud quality modeling using elastic potential energy similarity
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN108259893B (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
Li et al. No-reference stereoscopic image quality assessment based on visual attention and perception

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221020

Address after: 230000 b-1018, Woye Garden commercial office building, 81 Ganquan Road, Shushan District, Hefei City, Anhui Province

Patentee after: HEFEI WISDOM DRAGON MACHINERY DESIGN Co.,Ltd.

Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou

Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221209

Address after: No. 11, Xiangban Street, Ninghua Street, Taijiang District, Fuzhou City, 350000, Fujian Province (the south side of the original Shangpu Road), Fuli Center, Building C1 #, 9th Floor, Business Office

Patentee after: Fujian red rabbit code information technology Co.,Ltd.

Address before: 230000 b-1018, Woye Garden commercial office building, 81 Ganquan Road, Shushan District, Hefei City, Anhui Province

Patentee before: HEFEI WISDOM DRAGON MACHINERY DESIGN Co.,Ltd.