CN108765414B - 基于小波分解和自然场景统计的无参考立体图像质量评价方法 - Google Patents

基于小波分解和自然场景统计的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN108765414B
CN108765414B CN201810611301.6A CN201810611301A CN108765414B CN 108765414 B CN108765414 B CN 108765414B CN 201810611301 A CN201810611301 A CN 201810611301A CN 108765414 B CN108765414 B CN 108765414B
Authority
CN
China
Prior art keywords
image
sub
wavelet decomposition
quality
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810611301.6A
Other languages
English (en)
Other versions
CN108765414A (zh
Inventor
沈礼权
马亚男
耿显球
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201810611301.6A priority Critical patent/CN108765414B/zh
Publication of CN108765414A publication Critical patent/CN108765414A/zh
Application granted granted Critical
Publication of CN108765414B publication Critical patent/CN108765414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种立体图像质量评价方法,提出了一种基于小波分解和自然场景统计的无参考立体图像质量评价算法。首先,利用改进的立体视差估计算法估计左右图像的视差图像;对左右视点图像和视差图像进行2个尺度6个方向的小波分解,利用小波子带的总能量作为权值因子,将左右视点图像和视差图像合成中央眼图像;其次,对中央眼图像、立体视差图像和左右视点图像的小波分解系数进行自然场景统计分析,利用广义高斯分布来对这种分布进行拟合,同时提取广义高斯分布的模型参数作为特征来反映不同失真图像质量之间的差异;最后,运用机器学习的方法预测立体图像的质量。本发明提出的算法能够准确有效地预测立体图像的质量。

Description

基于小波分解和自然场景统计的无参考立体图像质量评价 方法
技术领域
本发明涉及一种基于特征提取的图像质量评价方法,尤其是涉及一种基于小波分解和自然场景统计的无参考立体图像质量评价方法。
背景技术
随着人类物质文化精神需求的增长以及多媒体互联网技术的发展,立体图像/视频技术得到了广泛的应用。除了能满足人们日常的需求(3D电影、3D游戏等),在远程医疗、兵器模拟和航空航天等诸多领域都发挥着重要的作用。立体图像/视频能创造更加真实直观的场面感受,但在立体图像/视频的处理、传输和显示过程中容易被各种图像噪声污染而导致失真,而图像质量评价(Stereo Image Quality Assessment,SIQA)一方面可以用来检验压缩性能的好坏,另一方面又可以指导编码系统,选择最优的编码模式。快速地对图像质量进行评价有助于在实时监控中获取较高质量的图像,也有助于提高视觉质量体验。因此,能够快速方便有效地对立体图像质量进行评估成为了研究热点。
由于在大多数场合原始图像难以获取,因此无参考图像质量评价算法一直是关注重点。目前无参考图像质量评价算法已发展到通用型,可以分为两种:一种是基于机器学习思想,通过学习训练来构建模型,再通过测试集评估其性能。另一种是直接提取特征将其映射,得到图像质量的评估值,不需要模型训练过程。
(一)结构相似度衡量准则
该算法先计算参考图像和失真图像的亮度、对比度与结构信息之间的相似度指数,然后将这三个相似度指数进行融合得到一个质量因子来表示失真图像的质量。
假设x和y分别表示参考图像和失真图像,则它们之间的亮度、对比度和结构信息相似函数分别定义为:
Figure BDA0001695623430000011
Figure BDA0001695623430000012
Figure BDA0001695623430000013
故结构相似度指数为:
SSIM(x,y)=[l(x,y)]α·[c(x,y)]β·[s(x,y)]γ (4)
其中,x和y分别表示左图像和右图像;μx是图像块x的均值,代表其亮度信息;σx是图像块x的方差,代表其对比度信息;σxy是图像块x与图像块y之间的协方差;c1,c2,c3是常量,防止分母为0;α、β和γ分别表示l(x,y)、c(x,y)和s(x,y)的权值参数。
(二)自然场景统计特征
自然场景统计分析表明自然图像具有某种统计特性,失真的存在改变了图像的自然场景统计分布。根据其分布的规律,利用参数分布函数对这种分布进行拟合,提取的模型参数作为特征来反映不同失真图像质量之间的差异,用于质量评价。本方法中用广义高斯分布的模型参数α和σ2作为特征。
零均值的广义高斯密度函数可以表示为:
Figure BDA0001695623430000021
其中,α是形状参数,控制广义高斯分布的包络,σ2表示广义高斯分布的方差,尺度参数特征
Figure BDA0001695623430000022
Γ(·)是伽马函数,其表达式为:
Figure BDA0001695623430000023
本发明提出了一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,属于第一种算法,其涉及的基础背景技术主要有结构相似度衡量准则、小波分析和自然场景统计特征。
发明内容
本发明的目的是为了提高无参考立体图像质量评价技术的性能及主观一致性,降低提取的特征之间的相关性以及提高算法的效率,提供了一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,能够准确有效地预测立体图像的质量。
本发明的具体构思是:
本发明主要分为特征提取阶段以及训练回归阶段。首先估计左右图像的视差图像,然后合成立体图像的中央眼图像;其次分别对左右图像、双目视差图像以及合成的中央眼图像提取自然场景统计特征;最后运用机器学习的方法预测立体图像的质量。
根据上述的构思,本发明采用下述技术方案:
一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,步骤如下:
步骤1.双目视差计算:利用改进的立体视差估计算法计算左右视点图像的视差图像;
步骤2.中央眼图像的合成:分别对左右图像进行2个尺度和6个方向的小波分解,各得到12条小波子带
Figure BDA0001695623430000031
其中α∈{l,r}表示左图像和右图像,β∈{1,2}表示尺度,θ∈{0°,30°,60°,90°,120°,150°}表示方向;将左右图像小波分解后得到的所有子带的能量总和作为增益控制模型的权重,模拟双目融合过程,得到中央眼图像;
步骤3.特征提取:分别在左视图、右视图、中央眼图像和双目视差图上进行2个尺度和6个方向的小波分解,并对小波分解系数进行自然场景统计分析,来提取代表立体图像质量的特征;并将提取的特征值构成的特征矩阵进行主成分分析(Principal ComponentAnalysis,PCA)处理,达到降低维数的效果;
步骤4.训练模型并预测:将训练集经过上述步骤提取的统计特征及相应的立体图像主观质量分数构成数据集,使用数据集训练支持向量回归器SVR;测试时,将待测立体图像的统计特征输入训练好的支持向量机模型,得到图像客观质量分数。
本发明与现有技术相比,具有如下显而易见的实质性特点和显著的进步:
1.本发明提出的方法改进的双目视差估计算法更符合双目视觉感知特性;
2.本发明提出方法对特征向量进行独立成分分析处理,达到降维的效果,优化了算法,提高了算法的效率;
3.本发明提出的方法能够更准确、更有效地评价立体图像的质量。
附图说明
图1是本发明提出的无参考立体图像质量评价算法的总框图。
图2基于结构相似度最大准则计算双目视差的示意图。
图3是单尺度子带的概率密度函数分布曲线图。
图4是子带间空间相关性的概率密度函数分布曲线图。
图5是子带间差值的概率密度函数分布曲线图。
图6是PCA处理后不同的特征个数所对应的SROCC的值。
图7是支持向量机的训练和测试过程。
具体实施方式
本发明的优选实施例结合附图做详细说明。
参见图1,一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,本实施例在epsilon-SVR类型的支持向量机、Matlab 2016a以及LIVE 3D数据库(一)和LIVE3D数据库(二)上进行了实施。
具体实施步骤如下:
步骤1.双目视差计算:利用改进的立体视差估计算法计算左右视点图像的视差图像;
步骤2.中央眼图像的合成:分别对左右图像进行2个尺度和6个方向的小波分解,各得到12条小波子带
Figure BDA0001695623430000041
其中α∈{l,r},β∈{1,2},θ∈{0°,30°,60°,90°,120°,150°};将左右图像小波分解后得到的所有子带的能量总和作为增益控制模型的权重,模拟双目融合过程,得到中央眼图像;
步骤3.特征提取:分别在左视图、右视图、中央眼图像和双目视差图上进行2个尺度和6个方向的小波分解,并对小波分解系数进行自然场景统计分析,来提取代表立体图像质量的特征;并将提取的特征值构成的特征矩阵进行PCA处理,达到降低维数的效果;
步骤4.训练模型并预测:将训练集经过上述步骤提取的统计特征及相应的立体图像主观质量分数构成数据集,使用数据集训练支持向量回归器SVR;测试时,将待测立体图像的统计特征输入训练好的支持向量机模型,得到图像客观质量分数。
所述步骤1中,双目视差的计算,具体步骤为:
步骤1.1.采用现有的无参考图像质量评价算法计算左右图像的质量,质量较好的那幅图像作为基准图像,而另一幅图像作为辅助图像;本案例采用Mittal等人提出的无参考图像质量评价算法;
步骤1.2.以左图像作为基准图像为例,假设[xl,yl]是左图像中的一点,本发明改进的算法则在右图像[xl-range,yl]到[xl+range,yl]的区间内搜索其匹配点,range取值为5;用结构相似度准则计算左右图像像素块的结构相似度指数SSIM,利用大小为5的旋转对称高斯滤波器核函数对所有的SSIM值进行融合来寻找最佳匹配块,SSIM值最大时匹配到的右图像的像素块即为最佳匹配块;
步骤1.3.如图2给出了基于结构相似度最大准则计算双目视差的示意图,步骤1.2中搜索到的最佳匹配块与对应的基准图像中的像素块之间的位置差值就是双目视差。
所述步骤2中,中央眼图合成的具体步骤为:
步骤2.1.对左右图像进行2个尺度和6个方向的小波分解,分别得到12条小波子带
Figure BDA0001695623430000042
α∈{l,r}表示左图像和右图像,β∈{1,2}表示尺度,θ∈{0°,30°,60°,90°,120°,150°}表示方向,计算左图像经小波分解后所有子带能量的总和GEL以及右图像经小波分解后所有子带能量的总和GER,即
Figure BDA0001695623430000043
Figure BDA0001695623430000051
步骤2.2.选择左图像IL(x,y)与右图像IR(x,y)中质量较好的图像作为基准图像,另一幅为辅助图像,以选择左图像作为基准图像为例,则中央眼图IC(x,y)的合成过程为:
IC(x,y)=ωL(x,y)·IL(x,y)+ωR(x-DL(x,y),y)·IR(x-DL(x,y),y) (9)
其中,
Figure BDA0001695623430000052
Figure BDA0001695623430000053
且DL(x,y)是利用步骤1的方法计算的双目视差。
所述步骤3中,提取特征值,具体步骤为:
步骤3.1.分别对左右图像、双目视差图像以及合成的中央眼图像进行2个尺度和6个方向的小波分解,各得到12条小波子带,以中央眼图像IC(x,y)为例,经小波分解后,得到的子带为
Figure BDA0001695623430000054
其中β∈{1,2},θ∈{0°,30°,60°,90°,12°0,15°0},并对子带系数进行自然场景统计分析;
图3、图4、图5分别是以中央眼图像IC(x,y)为例的单尺度小波子带系数、子带间空间相关性和子带间差值的概率密度函数分布图;可以看出,图像经小波分解后,相同尺度不同方向的子带以及不同尺度相同方向的子带间存在一定的空间相关性分布;单尺度小波子带系数、子带间空间相关性和子带间差值的概率密度函数分布图近似服从广义高斯分布,可以用广义高斯分布函数进行拟合,而且不同失真的图像具有不同的分布特性。因此,可以利用广义高斯分布的模型参数作为特征来反映不同失真图像质量之间的差异。
步骤3.1.1.对步骤3.1中得到的子带系数进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,利用式(5)和式(6)估计出广义高斯分布的模型参数α和σ2,并将其作为特征;
步骤3.1.2.对步骤3.1中得到的相同尺度不同方向的子带系数以及不同尺度相同方向的子带系数进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,估计出广义高斯分布的模型参数α和σ2,并将其作为特征;
步骤3.1.3.对相同尺度的子带系数差值进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,估计出广义高斯分布的模型参数α和σ2,并将其作为特征;其中,相同尺度不同方向的子带间的差值的计算方法如下:
第一尺度不同方向的子带间的差值
Figure BDA0001695623430000061
第二尺度不同方向的子带间的差值
Figure BDA0001695623430000062
其中,θi∈{0°},θj={30°,60°,90°,120°,150°};
步骤3.2.PCA降维处理:本发明针对每一幅立体图像最终提取了144个特征,而这些特征之间不可避免地存在一定的相关性或者信息的冗余,从而降低了算法的效果,因此,将步骤3.1得到n幅图像的特征向量组成的特征矩阵
Figure BDA0001695623430000063
d表示特征向量的长度,并进行独立成分分析(PCA)处理,即对X的协方差矩阵进行特征值分解,取其中最大的m个特征值及其对应的特征向量构成一个变换矩阵
Figure BDA0001695623430000064
m<d,再将变换矩阵与矩阵X做乘积,使矩阵维数降为m,以达到降低相关性、降低维数的效果。
如图6是特征矩阵经过PCA处理后,不同的特征个数所对应的SROCC(Spearman’sRank Order Correlation Coefficient)的值,SROCC值越大算法性能越好。可以看出,经过PCA处理后,特征之间的相关性有所降低,由此带来算法性能的提高。在本实例中m取54,此时算法获得最佳性能。
所述步骤4中,训练模型并预测,如图7所示,具体步骤为:
步骤4.1.在数据库上进行了80%训练-20%测试的试验,即80%的数据用于训练支持向量回归器SVR,剩下的20%的数据用于测试,训练数据和测试数据不存在内容的重叠;
步骤4.2.把测试集中每张立体图像的统计特征输入训练好的SVR模型,输出预测的图像质量分数。
本发明的算法在LIVE 3D数据库(一)和LIVE 3D数据库(二)进行了实施。该数据库包含五种失真类型:JP2K压缩、JPEG压缩、白噪声(WN)、快速衰减(FF)和模糊(Blur)。实验中选择了几种目前表现优秀的3D图像质量评价算法作为对比算法,使用了三个常用的评价指标PLCC(Pearson Linear Correlation Coefficient)、SROCC(Spearman’s Rank OrderCorrelation Coefficient)、RMSE(Root Mean Square Error)来衡量算法性能,PLCC和SROCC的值越大,RMSE的值越小,表明客观图像质量评价算法越好。
为了提高算法的准确性,实验采取了将训练-测试过程在支持向量机上执行1000次,最后取这1000次结果的均值来表示算法的性能结果。表1-3分别给出了本发明与其它优秀算法在LIVE 3D数据库(一)和LIVE 3D数据库(二)上的总体性能以及不同失真类型的性能比较,可以看出本发明的算法的总体性能明显优于其他几种算法的性能。
另外,针对不同失真类型的性能评估(见表2和表3)。斜体的是全参考立体图像质量评价算法,算法性能最好的两种算法已用黑体标出。可以看出本发明提出的算法始终位列算法性能最好的两种算法之中,故本发明的算法能够更准确、更有效地评价立体图像的质量。
表1本发明的算法同几种主流的无参考算法在LIVE 3D数据库上的总体性能比较
Figure BDA0001695623430000071
表2本文算法和其他全参考以及无参考立体图像质量评价算法在LIVE 3D数据库(一)上针对不同失真类型的性能评估
Figure BDA0001695623430000072
表3本文算法和其他全参考以及无参考立体图像质量评价算法在LIVE 3D数据库(二)上针对不同失真类型的性能评估
Figure BDA0001695623430000081
以上实施例仅用于说明本发明的技术方案,并非用于限制本发明的范围,凡在本发明精神和原则之内所做的任何修改、等同替换和改进等,均含于本发明的保护范围之内。

Claims (5)

1.一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,其特征在于,具体步骤如下:
步骤1.双目视差计算:
利用改进的立体视差估计算法计算左右视点图像的视差图像;
步骤2.中央眼图像的合成:
分别对左右图像进行2个尺度和6个方向的小波分解,各得到12条小波子带
Figure FDA0003201420360000011
其中α∈{l,r}表示左图像和右图像,β∈{1,2}表示尺度,θ∈{0°,30°,60°,90°,120°,150°}表示方向;将左右图像小波分解后得到的所有子带的能量总和作为增益控制模型的权重,模拟双目融合过程,得到中央眼图像;
步骤3.特征提取:
分别在左视图、右视图、中央眼图像和双目视差图上进行2个尺度和6个方向的小波分解,并对小波分解系数进行自然场景统计分析,来提取代表立体图像质量的特征;并将提取的特征值构成的特征矩阵进行主成分分析处理,达到降低维数的效果;
步骤4.训练模型并预测:
将训练集经过上述步骤3提取的统计特征及相应的立体图像主观质量分数构成数据集,使用数据集训练支持向量回归器SVR;测试时,将待测立体图像的统计特征输入训练好的支持向量机模型,得到图像客观质量分数。
2.根据权利要求1所述的一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,其特征在于,所述步骤1中,改进的立体视差估计算法的步骤为:
步骤1.1.用现有的无参考图像质量评价算法来计算左右图像的质量,质量较好的那幅图像作为基准图像,而另一幅图像作为辅助图像;
步骤1.2.在辅助图像中逐个寻找与基准图像匹配的像素块,以左图像作为基准图像为例,假设[xl,yl]是左图像中的一点,改进的算法则在右图像[xl-range,yl]到[xl+range,yl]的区间内搜索其匹配点,range取值为N;用结构相似度准则计算左右图像像素块的结构相似度指数SSIM,利用大小为N的旋转对称高斯滤波器核函数对所有的SSIM值进行融合来寻找最佳匹配块,SSIM值最大时,匹配到的右图像的像素块即为最佳匹配块。
3.根据权利要求1所述的一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,其特征在于,所述步骤2中,中央眼图像的合成过程如下:
步骤2.1.对左右图像进行2个尺度和6个方向的小波分解,各得到12条小波子带
Figure FDA0003201420360000012
α∈{l,r}表示左图像和右图像,β∈{1,2}表示尺度,θ∈{0°,30°,60°,90°,120°,150°}表示方向,计算左图像经小波分解后所有子带能量的总和GEL以及右图像经小波分解后所有子带能量的总和GER,即
Figure FDA0003201420360000021
步骤2.2.选择左图像IL(x,y)与右图像IR(x,y)中质量较好的图像作为基准图像,另一幅为辅助图像;以选择左图像作为基准图像为例,则中央眼图IC(x,y)的合成过程为:
IC(x,y)=ωL(x,y)·IL(x,y)+ωR(x-DL(x,y),y)·IR(x-DL(x,y),y)
其中,
Figure FDA0003201420360000022
Figure FDA0003201420360000023
且DL(x,y)是利用步骤1的方法计算的双目视差。
4.根据权利要求1所述的一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,其特征在于,所述步骤3中提取代表立体图像质量的特征,这些特征包括单尺度子带的特征、子带间空间相关性的特征以及子带间差值的特征,其具体步骤为:
步骤3.1.分别在左视图、右视图、中央眼图像和双目视差图上进行2个尺度和6个方向的小波分解,各得到的12条小波子带
Figure FDA0003201420360000024
β∈{1,2}表示尺度,θ∈{0°,30°,60°,90°,120°,150°}表示方向,并对子带系数进行自然场景统计分析;
步骤3.2.将步骤3.1得到的特征值构成的特征矩阵X,并进行独立成分分析处理,即对X的协方差矩阵进行特征值分解,将步骤3.1得到n幅图像的特征向量组成的特征矩阵
Figure FDA0003201420360000025
d表示特征向量的长度,并进行独立成分分析(PCA)处理,即对X的协方差矩阵进行特征值分解,取其中最大的m个特征值及其对应的特征向量构成一个变换矩阵
Figure FDA0003201420360000026
其中d表示特征向量的长度,再将变换矩阵与矩阵X做乘积,达到降低维数的效果。
5.根据权利要求4所述的一种基于小波分解和自然场景统计的无参考立体图像质量评价方法,其特征在于,所述步骤3.1的具体过程如下:
步骤3.1.1.对步骤3.1中得到的子带系数进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,估计出广义高斯分布的模型参数α和σ2,并将其作为特征;
步骤3.1.2.对步骤3.1中得到的相同尺度不同方向的子带系数以及不同尺度相同方向的子带系数进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,估计出广义高斯分布的模型参数α和σ2,并将其作为特征;
步骤3.1.3.对相同尺度的子带系数差值进行概率密度统计分析,利用广义高斯分布来拟合单尺度小波子带系数的概率密度函数分布,估计出广义高斯分布的模型参数α和σ2,并将其作为特征;其中,相同尺度不同方向的子带间的差值的计算方法如下:
第一尺度不同方向的子带间的差值
Figure FDA0003201420360000031
第二尺度不同方向的子带间的差值
Figure FDA0003201420360000032
其中,θi∈{0°},θj={30°,60°,90°,120°,150°}。
CN201810611301.6A 2018-06-14 2018-06-14 基于小波分解和自然场景统计的无参考立体图像质量评价方法 Active CN108765414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810611301.6A CN108765414B (zh) 2018-06-14 2018-06-14 基于小波分解和自然场景统计的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810611301.6A CN108765414B (zh) 2018-06-14 2018-06-14 基于小波分解和自然场景统计的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN108765414A CN108765414A (zh) 2018-11-06
CN108765414B true CN108765414B (zh) 2021-12-03

Family

ID=64022277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810611301.6A Active CN108765414B (zh) 2018-06-14 2018-06-14 基于小波分解和自然场景统计的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN108765414B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110634126A (zh) * 2019-04-04 2019-12-31 天津大学 基于小波包分解的无参考3d立体图像质量评价方法
CN110428415B (zh) * 2019-08-05 2022-05-13 上海联影医疗科技股份有限公司 医学图像的质量评估方法、装置、设备及存储介质
CN111445435B (zh) * 2019-12-10 2023-08-15 西南技术物理研究所 一种基于多区块小波变换的无参考图像质量评价方法
CN111145150B (zh) * 2019-12-20 2022-11-11 中国科学院光电技术研究所 一种通用型无参考图像质量评价方法
CN111179242B (zh) * 2019-12-25 2023-06-02 Tcl华星光电技术有限公司 图像处理方法及其装置
CN111311667B (zh) * 2020-02-14 2022-05-17 苏州浪潮智能科技有限公司 一种内容自适应双目匹配方法和装置
CN111489333B (zh) * 2020-03-31 2022-06-03 天津大学 一种无参考夜间自然图像质量评价方法
CN112233089B (zh) * 2020-10-14 2022-10-25 西安交通大学 一种无参考立体混合失真图像质量评价方法
CN113643262A (zh) * 2021-08-18 2021-11-12 上海大学 一种无参考全景图像质量评价方法、系统、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102572499A (zh) * 2010-12-07 2012-07-11 江南大学 基于小波变换多分辨率预测的无参考图像质量评价方法
CN102754126A (zh) * 2010-02-12 2012-10-24 高等技术学校 使用图像的多级分解确定用于图像的质量计量的方法和系统
CN103186898A (zh) * 2011-12-29 2013-07-03 中国科学院沈阳自动化研究所 基于图像信息人眼可感知度的图像质量表征方法
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105654142A (zh) * 2016-01-06 2016-06-08 上海大学 基于自然场景统计的无参考立体图像质量评价方法
CN107071423A (zh) * 2017-04-24 2017-08-18 天津大学 视觉多通道模型在立体视频质量客观评价中的应用方法
CN107194926A (zh) * 2017-06-13 2017-09-22 复旦大学 互补色小波域图像质量盲评价方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102754126A (zh) * 2010-02-12 2012-10-24 高等技术学校 使用图像的多级分解确定用于图像的质量计量的方法和系统
CN102572499A (zh) * 2010-12-07 2012-07-11 江南大学 基于小波变换多分辨率预测的无参考图像质量评价方法
CN103186898A (zh) * 2011-12-29 2013-07-03 中国科学院沈阳自动化研究所 基于图像信息人眼可感知度的图像质量表征方法
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN105654142A (zh) * 2016-01-06 2016-06-08 上海大学 基于自然场景统计的无参考立体图像质量评价方法
CN107071423A (zh) * 2017-04-24 2017-08-18 天津大学 视觉多通道模型在立体视频质量客观评价中的应用方法
CN107194926A (zh) * 2017-06-13 2017-09-22 复旦大学 互补色小波域图像质量盲评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CMMB图像质量的客观评价与分析;赵慧敏;《电视技术》;20110131;第35卷(第351期);第100-106页 *
Full-reference quality assessment of stereoscopic images by learning binocular visual properties;Jian Ma et.al;《Optical Society of America》;20171010;第1-8页 *
No-Reference Image Quality Assessment Based on Statistics of Convolution Feature Maps;Xiaoxin Lva et.al;《Advances in Materials, Machinery, Electronics II》;20180418;第1-6页 *

Also Published As

Publication number Publication date
CN108765414A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108765414B (zh) 基于小波分解和自然场景统计的无参考立体图像质量评价方法
CN110033446B (zh) 基于孪生网络的增强图像质量评价方法
CN110473196B (zh) 一种基于深度学习的腹部ct图像目标器官配准方法
Yue et al. Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry
CN109523513B (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN105654142B (zh) 基于自然场景统计的无参考立体图像质量评价方法
CN104867138A (zh) 基于pca和ga-elm的立体图像质量客观评价方法
CN101872479A (zh) 一种立体图像客观质量评价方法
CN108389189B (zh) 基于字典学习的立体图像质量评价方法
CN109831664B (zh) 基于深度学习的快速压缩立体视频质量评价方法
Bhateja et al. Fast SSIM index for color images employing reduced-reference evaluation
CN109788275A (zh) 自然性、结构和双目不对称无参考立体图像质量评价方法
CN107371016A (zh) 基于非对称失真的无参考3d立体图像质量评价方法
CN104866864A (zh) 一种用于立体图像质量客观评价的极端学习机
WO2016145571A1 (zh) 基于条件直方图码书的盲图像质量评价方法
CN108259893B (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN114648482A (zh) 立体全景图像的质量评价方法、系统
Liu et al. Blind stereoscopic image quality assessment accounting for human monocular visual properties and binocular interactions
CN107492085B (zh) 基于双树复小波变换的立体图像质量评价方法
CN106210710A (zh) 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN109887023B (zh) 一种基于加权梯度幅度的双目融合立体图像质量评价方法
CN110796635A (zh) 一种基于剪切波变换的光场图像质量评价方法
Peng et al. Multiple levels perceptual noise backed visual information fidelity for picture quality assessment
CN113627367B (zh) 一种基于多维信息聚合的立体视频显著性检测方法
CN112233089B (zh) 一种无参考立体混合失真图像质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant