CN111105387A - 基于统计特征视角合成质量预测方法、信息数据处理终端 - Google Patents

基于统计特征视角合成质量预测方法、信息数据处理终端 Download PDF

Info

Publication number
CN111105387A
CN111105387A CN201911085501.3A CN201911085501A CN111105387A CN 111105387 A CN111105387 A CN 111105387A CN 201911085501 A CN201911085501 A CN 201911085501A CN 111105387 A CN111105387 A CN 111105387A
Authority
CN
China
Prior art keywords
image
quality
texture
coefficient
texture image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911085501.3A
Other languages
English (en)
Other versions
CN111105387B (zh
Inventor
李雷达
黄一珀
吴金建
石光明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201911085501.3A priority Critical patent/CN111105387B/zh
Publication of CN111105387A publication Critical patent/CN111105387A/zh
Application granted granted Critical
Publication of CN111105387B publication Critical patent/CN111105387B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像质量评价技术领域,公开了一种基于统计特征视角合成质量预测方法、信息数据处理终端,首先,基于高质量的深度图像的细节信息应该被纹理图像的细节信息所包含的事实,为了表征纹理图像和深度图像的相互作用对视角合成质量的影响,提出了基于物体边缘区域的小波域高频系数的融合方法;然后,用纹理图像的低频系数和融合后的高频系数进行图像重构得到融合后的图像;最后,分别从融合图像的自然场景区域和相互作用区域分别提取统计特征来预测视角合成图像的质量。本发明不需要实际的视角合成的过程,利用合成前的纹理图像和深度图像即可实现对视角合成图像的质量预测。

Description

基于统计特征视角合成质量预测方法、信息数据处理终端
技术领域
本发明属于图像质量评价技术领域,尤其涉及一种基于统计特征视角合成质量预测方法、信息数据处理终端。
背景技术
目前,最接近的现有技术:随着视觉媒体的发展,多视角和自由视角合成技术已经成为可视媒体的重要前沿性研究领域,具有非常广阔的应用前景。通常,多视角和自由视角视频的实现需要大量的视角图像,然而由于传输带宽和拍摄成本的限制,往往利用虚拟视角合成技术借助较少的已知视角来合成新的视角图像。其中,基于深度图的绘制方法(Depth Image Based Rendering,DIBR) 是目前视角合成的最常用的方法。该方法是通过利用已有视角的纹理图像和对应的深度图像来合成新的视角图像。然而,由于获取到的纹理图像或者深度图像的质量有限,利用现有的DIBR技术合成的新视角图像通常会出现两个方面的失真。一方面,纹理图像的失真直接作用于视角合成图像。另一方面,深度图像在指导视角合成时,与纹理图像相互作用而产生的失真。然而,现有的图像质量评价方法往往仅针对纹理图像进行设计,因此不能很好地描述深度图像在视角合成过程中对合成视角质量的影响。此外,视角合成的过程往往代价较高,因此如果能在合成之前就预测出合成后图像的质量,对指导视角合成来说具有非常重要的意义。
现有的针对视角合成图像的质量评价方法主要分为主观评价方法和客观评价方法。主观评价方法在评价结果上最为准确,但是费时费力,很难在实际中采用。因此,设计一种准确的客观质量评价方法具有重要的意义。目前,针对视角合成图像的质量评价算法有很多:Bosc等人在SSIM算法的基础上提出了一种改进型质量评价方法;在质量评价时对原始视角的纹理图像和合成图像中对应的边缘区域利用SSIM评价,最后将SSIM均值最为最终的质量分数;Conze 等人首先利用SSIM算法计算合成后的图像与合成前的纹理图像之间的失真图,然后分别计算纹理复杂度、梯度方向和对比度的加权图,并利用加权图对失真图进行加权,最终得到质量分数。Battisti等人首先对参考图像和合成图像进行分块处理,运用运动估计算法进行匹配。然后,对匹配后的图像块进行小波变换并计算系数直方图。最后,利用Kolmogorov-Smirnov距离计算得到质量分数。 Gu等人首先计算出视角合成图像的自回归图像,然后根据合成图像和自回归图像的差异来提取几何失真区域。再根据阈值将两幅图像的差值图像变换为二值图像。最后由二值图像和预测出来的自然图像之间的相似性数值作为合成图像的质量分数。这些方法虽然在评价视角合成图像质量取得了不错的效果,但是存在如下不足:(1)现有方法主要是针对视角合成后的图像设计的,而视角合成过程比较复杂,需要消耗较高的时间代价。(2)现有的方法忽略了深度图像在指导视角合成过程中的作用,不能全面的描述纹理图像和深度图像的相互作用对视角合成质量的影响。
综上所述,现有技术存在的问题是:
(1)现有方法主要是针对视角合成后的图像设计的,而视角合成过程比较复杂,需要消耗较高的时间代价。
(2)现有的方法忽略了深度图像在指导视角合成过程中的作用,不能全面的描述纹理图像和深度图像的相互作用对视角合成质量的影响。
解决上述技术问题的难度:上述技术问题的主要难点在于探究在视角合成过程中,纹理图像和深度图像之间的关系,以及如何量化由于纹理图像和深度图像的失真对合成后图像质量的影响,从而在不进行实际视角合成的前提下,预测出视角合成图像的质量。
解决上述技术问题的意义:上述技术方法只能用来评价视角合成后图像的质量,这不利于现实生活中的应用,因为视角合成的过程需要消耗很高的时间成本。如果能够在视角合成之前,利用纹理图像和深度图像之间的关系准确预测出合成后图像的质量,对于整个视角合成过程具有很重要的现实意义。
发明内容
针对现有技术存在的问题,本发明提供了一种基于统计特征视角合成质量预测方法、信息数据处理终端。
本发明是这样实现的,一种基于统计特征视角合成质量预测方法,所述基于统计特征视角合成质量预测方法首先,基于高质量的深度图像的细节信息应该被纹理图像的细节信息所包含的事实,为了表征纹理图像和深度图像的相互作用对视角合成质量的影响,提出基于物体边缘区域的小波域高频系数的融合方法;然后,用纹理图像的低频系数和融合后的高频系数进行图像重构得到融合后的图像;最后,分别从融合图像的自然场景区域和相互作用区域分别提取统计特征来预测视角合成图像的质量。
进一步,所述基于统计特征视角合成质量预测方法包括以下步骤:
第一步,搜集针对视角合成的包含深度图像、纹理图像和合成后图像质量分数的数据集;
第二步,把纹理图像和深度图像进行小波分解,并对纹理图像进行物体边缘区域检测;
第三步,在物体边缘区域信息的指导下,利用纹理图像和深度图像小波分解后的高频子带进行系数融合并重构出融合图像;
第四步,从自然场景区域和相互作用区域对重构图像分别统计去均值对比度归一化系数和切比雪夫矩系数分布;
第五步,用分布函数对第四步中的两个区域的统计分布进行拟合,用拟合的参数作为特征值送入支持向量机回归模型进行训练,建立合成后图像质量的预测装置;
第六步,对于待预测的纹理图像和深度图像,利用已建立的视角合成质量预测模型,实现视角合成后质量的预测。
进一步,所述第一步中搜集针对视角合成的包含深度图像、纹理图像和合成图像质量分数的数据集方法包括:
(1)获取用于视角合成图像质量评价的数据集,获取纹理图像和对应的深度图像以及相应的合成后图像的质量分数;
(2)将合成前的纹理图像和深度图像作为研究对象,把相应的合成后图像的质量分数作为研究对象的标签。
进一步,所述第二步中把纹理图像和深度图像进行小波分解,并对纹理图像进行物体边缘区域检测方法包括:
(1)将纹理图像和深度图像分别进行两层小波分解,分别得到一个低频子带和六个高频子带;
(2)对纹理图像进行物体边缘区域检测,得到图像中所有物体边缘对应的区域,并将物体边缘区域和非边缘区域用不同的颜色标记。
进一步,所述第三步中在物体边缘区域信息的指导下,利用纹理图像和深度图像小波分解后的高频子带进行系数融合并重构出融合图像方法包括:
(1)纹理图像和深度图像的相互作用引起的视角绘制失真主要分布在物体边缘区域,将第二步中得到的物体边缘对应的区域作为融合区域;
(2)将第二步中的纹理图像和深度图像分别小波分解后的六个高频子带进行系数加权融合,得到六个融合后的高频子带;
(3)对融合后的高频子带和纹理图像的低频子带利用小波反变换函数重构出融合图像。
进一步,基于高质量的深度图像的细节信息应该被纹理图像的细节所包含的事实,首先采取对纹理图像和深度图像的物体边缘区域融合的策略;选取了目前性能最好的HED预训练模型;然后对纹理图像和深度图像分别进行两层 Haar小波分解,用
Figure RE-GDA0002425670380000041
表示纹理图像的小波分解后的LH,HL和HH 子带系数;
Figure RE-GDA0002425670380000042
表示深度图像的小波分解后的LH,HL和HH子带系数;另外,
Figure RE-GDA0002425670380000043
表示纹理图像小波分解后的LL子带;其中,n∈[1,2]表示小波分解的层数,根据物体的边缘区域图IE,对高频子带的边缘区域进行系数融合:
Figure RE-GDA0002425670380000051
其中,
Figure RE-GDA0002425670380000052
表示融合后的高频系数;用纹理图像的低频系数
Figure RE-GDA0002425670380000053
和融合后高频系数的
Figure RE-GDA0002425670380000054
Figure RE-GDA0002425670380000055
Figure RE-GDA0002425670380000056
进行图像重构,得到融合图像。
进一步,所述第四步从自然场景区域和相互作用区域对重构图像分别统计去均值对比度归一化系数和切比雪夫矩系数分布方法包括:
(1)根据纹理图像和深度图像对视角合成的影响机理,将融合图像分成自然场景区域和相互作用区域;
(2)自然场景区域的失真特性类似于一般自然场景图像的失真,利用去均值对比度归一化系数进行统计;
(3)相互作用区域表现为物体轮廓的局部几何失真,切比雪夫矩具有很强的轮廓表征能力,利用切比雪夫矩系数进行统计。
进一步,MSCN系数计算,将图像I(i,j)像素处的图像变换为图像的亮度
Figure RE-GDA0002425670380000057
Figure RE-GDA0002425670380000058
其中,i∈1,2,3…M,j∈1,2,3…N,M和N分别表示图像的高度和宽度,μ(i,j) 和σ(i,j)分别表示局部平均和局部方差;
用广义高斯分布拟合MSCN系数分布,其中,广义高斯分布定义为:
Figure RE-GDA0002425670380000059
其中,
Figure RE-GDA00024256703800000510
Γ(·)为伽马函数,定义如下:
Figure RE-GDA00024256703800000511
选取α和σ2两个拟合参数作为评价自然场景区域质量的特征值;
采用离散正交矩描述相互作用区域的局部几何失真,通过统计切比雪夫离散正交矩系数来提取特征;具体方法为:首先,把相互作用区域对应的融合图像进行8*8分块,然后计算14阶矩(7+7),记为:
Figure RE-GDA0002425670380000061
之后,将相互作用区域的所有图像块的切比雪夫矩系数进行统计,然后用使用了非对称广义高斯分布拟合切比雪夫矩系数直方图;其中,非对称广义高斯分布定义为:
Figure RE-GDA0002425670380000062
Γ(·)为伽马函数,定义如下:
Figure RE-GDA0002425670380000063
其中;
Figure RE-GDA0002425670380000064
Figure RE-GDA0002425670380000065
v控制分布的形状,
Figure RE-GDA0002425670380000066
Figure RE-GDA0002425670380000067
控制左右两边的扩散程度;另外,计算了分布的均值:
Figure RE-GDA0002425670380000068
用v,
Figure RE-GDA0002425670380000069
和μ这四个参数作为相互作用区域的统计质量特征;
对融合图像进行了五个不同尺度的变化重复特征提取过程,一共得到30个用于预测视角合成质量的特征值。
进一步,所述第五步中用分布函数分别对第四步中两个区域的统计分布进行拟合,用拟合的参数作为特征值送入支持向量机回归模型进行训练,建立合成后图像质量的预测模型方法包括:
(1)把去均值对比度归一化系数分布拟合到广义高斯分布,用代表形状和方差的两个参数作为自然场景区域的特征值;
(2)把切比雪夫矩系数拟合到非对称广义高斯分布,用代表形状、均值、左方差和右方差的四个参数作为相互作用区域的特征值;
(3)将提取到的特征送入支持向量机回归模型用合成后图像的质量分数作为标签进行训练,最终建立合成后图像质量的预测模型。
本发明的另一目的在于提供一种应用所述基于统计特征视角合成质量预测方法的信息数据处理终端。
综上所述,本发明的优点及积极效果为:本发明利用融合的思想将视角合成前的纹理图像和深度图像在小波域进行融合,能够有效的表征纹理图像和深度图像对视角合成后图像质量的影响;根据影响视角合成后图像质量的两个方面,将融合图像分成自然场景区域和相互作用区域,能够有效地表征纹理图像和深度图像对合成图像质量的影响,从而达到预测视角合成后图像质量的目的。
附图说明
图1是本发明实施例提供的基于统计特征视角合成质量预测方法流程图。
图2是本发明实施例提供的基于统计特征视角合成质量预测方法的结构图。
图3是本发明实施例提供的MCL_3D数据库中的不同场景的9组图像以及利用本发明的预测结果示意图;
图中:(a)主观分数11.91,预测分数12;(b)主观分数8.53,预测分数8.50; (c)主观分数4.33,预测分数4.25;(d)主观分数7.66,预测分数7.75;(e) 主观分数5.71,预测分数5.67;(f)主观分数5.54,预测分数5.55;(g)主观分数8.9,预测分数9;(h)主观分数7.19,预测分数7.25;(i)主观分数7.61,预测分数7.58。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于统计特征视角合成质量预测方法、数据处理终端,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的基于统计特征视角合成质量预测方法包括以下步骤:
S101:搜集针对视角合成的包含深度图像、纹理图像和合成后图像质量分数的数据集;
S102:把纹理图像和深度图像进行小波分解,并对纹理图像进行物体边缘区域检测;
S103:在物体边缘区域信息的指导下,利用纹理图像和深度图像小波分解后的高频子带进行系数融合并重构出融合图像;
S104:从自然场景区域和相互作用区域对重构图像分别统计去均值对比度归一化系数和切比雪夫矩系数分布;
S105:用分布函数对第四步中的两个区域的统计分布进行拟合,用拟合的参数作为特征值送入支持向量机回归模型进行训练,建立合成后图像质量的预测装置。
S106:对于待预测的纹理图像和深度图像,利用已建立的视角合成质量预测模型,实现视角合成后质量的预测。
下面结合附图对本发明的技术方案作进一步的描述。
本发明针对视角合成前的纹理图像和深度图像,通过对物体边缘区域的融合设计了一种基于统计特征视角合成质量预测方法。本发明的目的是在不进行真实的视角合成过程的前提下,利用合成前的纹理图像和深度图像完成对视角合成图像质量的预测。基于高质量的深度图像的细节信息应该被纹理图像的细节所包含的事实,为了表征纹理图像和深度图像对视角合成的共同影响,本发明首先提出了一种基于物体边缘区域的小波域高频系数的融合方法。然后从引起视角合成图像失真的两个方面,将融合后的图像分成自然场景区域和相互作用区域分别提取统计特征;最后,通过训练支持向量机回归模型完成对视角合成图像的质量预测。具体实施方法如图2所示,本实施例主要包含了融合策略模块、特征提取模块和质量预测模块。融合策略模块包含了利用物体的边缘区域对纹理图像和深度图像的小波域高频子带进行系数融合,然后用融合后的高频子带和纹理图像的低频子带重构出融合图像;特征提取模块包含了将融合图像分成自然场景区域和相互作用区域,在自然场景区域直接利用自然场景统计模型提取质量特征;在相互作用区域,本发明提出了一种基于切比雪夫矩系数分布的统计特征提取方法;在质量预测模块,利用提取到的特征对支持向量机回归模型进行训练,建立合成后图像质量的预测模型。
(1)融合策略模块
基于高质量的深度图像的细节信息应该被纹理图像的细节所包含的事实,为了表征纹理图像和深度图像对视角合成的共同影响,首先采取对纹理图像和深度图像的物体边缘区域融合的策略。本发明为了实现物体的边缘区域检测,选取了目前性能最好的HED预训练模型。然后对纹理图像和深度图像分别进行两层Haar小波分解。用
Figure RE-GDA0002425670380000091
表示纹理图像的小波分解后的LH,HL和 HH子带系数。
Figure RE-GDA0002425670380000092
表示深度图像的小波分解后的LH,HL和HH子带系数。另外,
Figure RE-GDA0002425670380000093
表示纹理图像小波分解后的LL子带。其中,n∈[1,2]表示小波分解的层数。根据物体的边缘区域图IE,对高频子带的边缘区域进行系数融合:
Figure RE-GDA0002425670380000094
其中,
Figure RE-GDA0002425670380000095
表示融合后的高频系数。最后,本发明用纹理图像的低频系数
Figure RE-GDA0002425670380000096
和融合后高频系数的
Figure RE-GDA0002425670380000097
Figure RE-GDA0002425670380000098
进行图像重构,得到融合图像。
(2)特征提取模块
自然场景区域:由于视角合成过程中,纹理图像的失真直接传递到合成后的图像,而且这一类的失真特性类似于一般的自然场景图像质量失真。因此,将这部分直接来源于纹理图像的区域称为自然场景区域。由于去均值对比度归一化(MSCN)系数被广泛应用于自然场景统计中,且具有很好的效果。因此,首先统计自然场景区域的MSCN系数分布。
为了计算MSCN系数,首先将图像I(i,j)像素处的图像变换为图像的亮度
Figure RE-GDA0002425670380000101
即:
Figure RE-GDA0002389320240000109
其中,i∈1,2,3…M,j∈1,2,3…N。M和N分别表示图像的高度和宽度。μ(i,j) 和σ(i,j)分别表示局部平均和局部方差。
然后,用广义高斯分布拟合MSCN系数分布。其中,广义高斯分布定义为:
Figure RE-GDA00023893202400001010
其中;
Figure RE-GDA00023893202400001011
这里Γ(·)为伽马函数,定义如下:
Figure RE-GDA0002389320240000111
最后,选取α和σ2两个拟合参数作为评价自然场景区域质量的特征值。
相互作用区域:考虑到几何失真主要表现为形状的变化,而离散正交矩是有效的形状描述算子,所以本发明采用离散正交矩来描述相互作用区域的局部几何失真。本发明通过统计切比雪夫离散正交矩系数提取特征。具体方法为:首先,把相互作用区域对应的融合图像进行8*8分块,然后计算14阶矩(7+7),记为:
Figure RE-GDA0002389320240000112
之后,将相互作用区域的所有图像块的切比雪夫矩系数进行统计,然后用使用了非对称广义高斯分布(Asymmetric Generalized Gaussian Distribution)来拟合切比雪夫矩系数直方图。其中,非对称广义高斯分布定义为:
Figure RE-GDA0002425670380000111
这里Γ(·)为伽马函数,定义如下:
Figure RE-GDA0002425670380000112
其中,
Figure RE-GDA0002425670380000113
Figure RE-GDA0002425670380000114
这里,v控制分布的形状,
Figure RE-GDA0002425670380000115
Figure RE-GDA0002425670380000116
控制左右两边的扩散程度。另外,进一步计算了分布的均值:
Figure RE-GDA0002425670380000117
然后,用v,
Figure RE-GDA0002425670380000118
和μ这四个参数作为相互作用区域的统计质量特征。
最后,本发明专利对融合图像进行了五个不同尺度的变化重复特征提取过程,一共得到30个用于预测视角合成质量的特征值。
(3)质量预测模块
为了预测视角合成图像的质量,本模块通过训练支持向量机回归模型来实现合成图像质量分数的预测。本发明选择了基于径向基核函数的支持向量机回归模型,然后大量的特征值和对应的标签用于训练支持向量机回归模型。训练过程中采用了网格搜索法对径向基核函数的参数和惩罚因子进行优化处理,得到训练结果最优的支持向量机回归模型。
最后,将待预测图像的特征值送入训练好的支持向量机回归模型中进行合成图像质量分数的预测。
下面结合性能测试和实验分析对本发明的技术效果作详细的描述。
为了证明本发明的性能,在MCL_3D数据可上进行了训练和测试。并将本发明的方法与现有的其他方法进行了对比。在实验中,本发明选用了在质量评价领域常用于评价性能好坏的四个指标。其中,皮尔逊线性相关系数(PLCC) 和均方根误差(RMSE)用来测量预测结果的准确性,Spearman秩相关系数(SRCC) 和Kendall秩相关系数(KRCC)用于测量预测结果的单调性。
具体的实验方法是:首先,将MCL_3D数据库提供的648对用于视角合成的不同失真类型的纹理图像和深度图像,随机选取80%用于训练,剩下的20%用于测试。为了让性能指标更加可靠,重复了上述过程1000次。最后,取所有重复试验性能指标的中位数,作为最终的实验结果。结果如表1所示。其中, PLCC,SRCC和KRCC数值越高,说明相应的算法性能就越好,而RMSE的数值越低,说明相应算法的性能越好。
表1质量评价算法性能对比
序号 算法 PLCC SRCC KRCC RMSE
1 MW-PSNR 0.7720 0.7739 0.5774 1.6453
2 RMW-PSNR 0.7817 0.7835 0.5897 1.6087
3 MP-PSNR 0.7897 0.7930 0.5936 1.5916
4 RMP-PSNR 0.7774 0.7813 0.5862 1.6253
5 3DSwIM 0.6529 0.5680 0.4101 1.9658
6 LOGS 0.7614 0.7579 0.5630 1.6873
7 Bosc 0.4536 0.4330 0.3236 2.2980
8 APT 0.6433 0.6200 0.4310 1.9870
9 NIQSV 0.6460 0.5792 0.4068 1.9820
10 NIQSV+ 0.6138 0.6213 0.4372 2.0375
11 本发明 0.9401 0.9301 0.7813 0.8812
由上表可知,本发明在MCL_3D数据库上的性能明显高于所有的其他算法。另外,本发明并不是直接对视角合成图像进行评价,而是利用合成前的纹理图像和深度图像对视角合成图像质量进行预测的结果。这说明了本算法在不进行实际DIBR过程的前提下对视角合成质量的预测结果与主观上对视角合成图像质量的感知结果具有较高的一致性。
为了进一步验证本发明的正确性,从MCL_3D数据库的随机选出9种不同场景不同失真类型的纹理图像和深度图像进行验证。图3中展示了这些图像和他们对应主观分数以及用本发明算法的预测结果。从测试结果可以看出,本发明方法的预测分数与主观分数相比具有较小的误差值,能够准确地预测出视角合成图像的质量分数。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于统计特征视角合成质量预测方法,其特征在于,所述基于统计特征视角合成质量预测方法,首先基于高质量的深度图像的细节信息应该被纹理图像的细节信息所包含的事实,为了表征纹理图像和深度图像的相互作用对视角合成质量的影响,提出基于物体边缘区域的小波域高频系数的融合方法;然后,用纹理图像的低频系数和融合后的高频系数进行图像重构得到融合后的图像;最后,分别从融合图像的自然场景区域和相互作用区域分别提取统计特征来预测视角合成图像的质量。
2.如权利要求1所述的基于统计特征视角合成质量预测方法,其特征在于,所述基于统计特征视角合成质量预测方法包括以下步骤:
第一步,搜集针对视角合成的包含深度图像、纹理图像和合成后图像质量分数的数据集;
第二步,把纹理图像和深度图像进行小波分解,并对纹理图像进行物体边缘区域检测;
第三步,在物体边缘区域信息的指导下,利用纹理图像和深度图像小波分解后的高频子带进行系数融合并重构出融合图像;
第四步,从自然场景区域和相互作用区域对重构图像分别统计去均值对比度归一化系数和切比雪夫矩系数分布;
第五步,用分布函数对第四步中的两个区域的统计分布进行拟合,用拟合的参数作为特征值送入支持向量机回归模型进行训练,建立合成后图像质量的预测装置;
第六步,对于待预测的纹理图像和深度图像,利用已建立的视角合成质量预测模型,实现视角合成后质量的预测。
3.如权利要求2所述的基于统计特征视角合成质量预测方法,其特征在于,所述第一步中搜集针对视角合成的包含深度图像、纹理图像和合成图像质量分数的数据集方法包括:
(1)获取用于视角合成图像质量评价的数据集,获取纹理图像和对应的深度图像以及相应的合成后图像的质量分数;
(2)将合成前的纹理图像和深度图像作为研究对象,把相应的合成后图像的质量分数作为研究对象的标签。
4.如权利要求2所述的基于统计特征视角合成质量预测方法,其特征在于,所述第二步中把纹理图像和深度图像进行小波分解,并对纹理图像进行物体边缘区域检测方法包括:
(1)将纹理图像和深度图像分别进行两层小波分解,分别得到一个低频子带和六个高频子带;
(2)对纹理图像进行物体边缘区域检测,得到图像中所有物体边缘对应的区域,并将物体边缘区域和非边缘区域用不同的颜色标记。
5.如权利要求2所述的基于统计特征视角合成质量预测方法,其特征在于,所述第三步中在物体边缘区域信息的指导下,利用纹理图像和深度图像小波分解后的高频子带进行系数融合并重构出融合图像方法包括:
(1)纹理图像和深度图像的相互作用引起的视角绘制失真主要分布在物体边缘区域,将第二步中得到的物体边缘对应的区域作为融合区域;
(2)将第二步中的纹理图像和深度图像分别小波分解后的六个高频子带进行系数加权融合,得到六个融合后的高频子带;
(3)对融合后的高频子带和纹理图像的低频子带利用小波反变换函数重构出融合图像。
6.如权利要求5所述的基于统计特征视角合成质量预测方法,其特征在于,基于高质量的深度图像的细节信息应该被纹理图像的细节所包含的事实,首先采取对纹理图像和深度图像的物体边缘区域融合的策略;选取了目前性能最好的HED预训练模型;然后对纹理图像和深度图像分别进行两层Haar小波分解,用
Figure RE-FDA0002425670370000021
表示纹理图像的小波分解后的LH,HL和HH子带系数;
Figure RE-FDA0002425670370000022
Figure RE-FDA0002425670370000023
表示深度图像的小波分解后的LH,HL和HH子带系数;另外,
Figure RE-FDA0002425670370000024
表示纹理图像小波分解后的LL子带;其中,n∈[1,2]表示小波分解的层数,根据物体的边缘区域图IE,对高频子带的边缘区域进行系数融合:
Figure RE-FDA0002425670370000031
其中,
Figure RE-FDA0002425670370000032
表示融合后的高频系数;用纹理图像的低频系数
Figure RE-FDA0002425670370000033
和融合后高频系数的
Figure RE-FDA0002425670370000034
Figure RE-FDA0002425670370000035
进行图像重构,得到融合图像。
7.如权利要求2所述的基于统计特征视角合成质量预测方法,其特征在于,所述第四步从自然场景区域和相互作用区域对重构图像分别统计去均值对比度归一化系数和切比雪夫矩系数分布方法包括:
(1)根据纹理图像和深度图像对视角合成的影响机理,将融合图像分成自然场景区域和相互作用区域;
(2)自然场景区域的失真特性类似于一般自然场景图像的失真,利用去均值对比度归一化系数进行统计;
(3)相互作用区域表现为物体轮廓的局部几何失真,切比雪夫矩具有很强的轮廓表征能力,利用切比雪夫矩系数进行统计。
8.如权利要求7所述的基于统计特征视角合成质量预测方法,其特征在于,MSCN系数计算,将图像I(i,j)像素处的图像变换为图像的亮度
Figure RE-FDA0002425670370000036
Figure RE-FDA0002425670370000037
其中,i∈1,2,3…M,j∈1,2,3…N,M和N分别表示图像的高度和宽度,μ(i,j)和σ(i,j)分别表示局部平均和局部方差;
用广义高斯分布拟合MSCN系数分布,其中,广义高斯分布定义为:
Figure RE-FDA0002425670370000038
其中,
Figure RE-FDA0002425670370000039
Γ(·)为伽马函数,定义如下:
Figure RE-FDA00024256703700000310
选取α和σ2两个拟合参数作为评价自然场景区域质量的特征值;
采用离散正交矩描述相互作用区域的局部几何失真,通过统计切比雪夫离散正交矩系数来提取特征;具体方法为:首先,把相互作用区域对应的融合图像进行8*8分块,然后计算14阶矩(7+7),记为:
Figure RE-FDA0002425670370000041
之后,将相互作用区域的所有图像块的切比雪夫矩系数进行统计,然后用使用了非对称广义高斯分布拟合切比雪夫矩系数直方图;其中,非对称广义高斯分布定义为:
Figure RE-FDA0002425670370000042
Γ(·)为伽马函数,定义如下:
Figure RE-FDA0002425670370000043
其中;
Figure RE-FDA0002425670370000044
Figure RE-FDA0002425670370000045
v控制分布的形状,
Figure RE-FDA0002425670370000046
Figure RE-FDA0002425670370000047
控制左右两边的扩散程度;另外,计算了分布的均值:
Figure RE-FDA0002425670370000048
用v,
Figure RE-FDA0002425670370000049
和μ这四个参数作为相互作用区域的统计质量特征;
对融合图像进行了五个不同尺度的变化重复特征提取过程,一共得到30个用于预测视角合成质量的特征值。
9.如权利要求2所述的基于统计特征视角合成质量预测方法,其特征在于,所述第五步中用分布函数分别对第四步中两个区域的统计分布进行拟合,用拟合的参数作为特征值送入支持向量机回归模型进行训练,建立合成后图像质量的预测模型方法包括:
(1)把去均值对比度归一化系数分布拟合到广义高斯分布,用代表形状和方差的两个参数作为自然场景区域的特征值;
(2)把切比雪夫矩系数拟合到非对称广义高斯分布,用代表形状、均值、左方差和右方差的四个参数作为相互作用区域的特征值;
(3)将提取到的特征送入支持向量机回归模型用合成后图像的质量分数作为标签进行训练,最终建立合成后图像质量的预测模型。
10.一种应用权利要求1~9任意一项所述基于统计特征视角合成质量预测方法的信息数据处理终端。
CN201911085501.3A 2019-11-08 2019-11-08 基于统计特征视角合成质量预测方法、信息数据处理终端 Active CN111105387B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911085501.3A CN111105387B (zh) 2019-11-08 2019-11-08 基于统计特征视角合成质量预测方法、信息数据处理终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911085501.3A CN111105387B (zh) 2019-11-08 2019-11-08 基于统计特征视角合成质量预测方法、信息数据处理终端

Publications (2)

Publication Number Publication Date
CN111105387A true CN111105387A (zh) 2020-05-05
CN111105387B CN111105387B (zh) 2023-05-26

Family

ID=70420595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911085501.3A Active CN111105387B (zh) 2019-11-08 2019-11-08 基于统计特征视角合成质量预测方法、信息数据处理终端

Country Status (1)

Country Link
CN (1) CN111105387B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488974A (zh) * 2020-12-09 2021-03-12 广州品唯软件有限公司 图像合成方法、装置、计算机设备和存储介质
WO2023178662A1 (en) * 2022-03-25 2023-09-28 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image and video coding using multi-sensor collaboration and frequency adaptive processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600730A (zh) * 2018-03-26 2018-09-28 杭州同绘科技有限公司 一种基于合成图像质量度量的远程绘制方法
CN110046673A (zh) * 2019-04-25 2019-07-23 上海大学 基于多特征融合的无参考色调映射图像质量评价方法
WO2019174378A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于深度预测和增强子网络的高质量深度估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019174378A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于深度预测和增强子网络的高质量深度估计方法
CN108600730A (zh) * 2018-03-26 2018-09-28 杭州同绘科技有限公司 一种基于合成图像质量度量的远程绘制方法
CN110046673A (zh) * 2019-04-25 2019-07-23 上海大学 基于多特征融合的无参考色调映射图像质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张晶晶;方勇华;: "基于可见光的多波段偏振图像融合新算法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488974A (zh) * 2020-12-09 2021-03-12 广州品唯软件有限公司 图像合成方法、装置、计算机设备和存储介质
WO2023178662A1 (en) * 2022-03-25 2023-09-28 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image and video coding using multi-sensor collaboration and frequency adaptive processing

Also Published As

Publication number Publication date
CN111105387B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN105208374B (zh) 一种基于深度学习的无参考图像质量客观评价方法
CN103475898B (zh) 一种基于信息熵特征的无参考图像质量评价方法
CN106952228A (zh) 基于图像非局部自相似性的单幅图像的超分辨率重建方法
Yue et al. Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry
CN109831664B (zh) 基于深度学习的快速压缩立体视频质量评价方法
CN110751612A (zh) 多通道多尺度卷积神经网络的单幅图像去雨方法
CN103037212B (zh) 基于视觉感知的自适应块压缩传感图像编码方法
CN110782413B (zh) 一种图像处理方法、装置、设备及存储介质
CN105260998A (zh) 基于mcmc采样和阈值低秩逼近的图像去噪方法
CN105046664A (zh) 一种基于自适应epll算法的图像去噪方法
CN103945217B (zh) 基于熵的复小波域半盲图像质量评测方法和系统
CN107318014B (zh) 基于视觉显著区域和时空特性的视频质量评估方法
CN104658001A (zh) 一种无参考非对称失真立体图像客观质量评价方法
CN106127741A (zh) 基于改良自然场景统计模型的无参考图像质量评价方法
CN111612741A (zh) 一种基于失真识别的精确无参考图像质量评价方法
Yang et al. Blind assessment for stereo images considering binocular characteristics and deep perception map based on deep belief network
CN109978854A (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN104657951A (zh) 图像乘性噪声移除方法
CN111105387B (zh) 基于统计特征视角合成质量预测方法、信息数据处理终端
CN109740592B (zh) 基于记忆的图像质量无参评估方法
Chi et al. Blind tone mapped image quality assessment with image segmentation and visual perception
Nizami et al. Impact of visual saliency on multi-distorted blind image quality assessment using deep neural architecture
CN107292331B (zh) 基于无监督特征学习的无参考屏幕图像质量评价方法
CN110796635B (zh) 一种基于剪切波变换的光场图像质量评价方法
CN105721863B (zh) 视频质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant