CN101621709B - 一种全参考型图像客观质量评价方法 - Google Patents

一种全参考型图像客观质量评价方法 Download PDF

Info

Publication number
CN101621709B
CN101621709B CN2009101009638A CN200910100963A CN101621709B CN 101621709 B CN101621709 B CN 101621709B CN 2009101009638 A CN2009101009638 A CN 2009101009638A CN 200910100963 A CN200910100963 A CN 200910100963A CN 101621709 B CN101621709 B CN 101621709B
Authority
CN
China
Prior art keywords
image
perceptual map
attention focus
quality
structural similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009101009638A
Other languages
English (en)
Other versions
CN101621709A (zh
Inventor
陈耀武
张桦
田翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2009101009638A priority Critical patent/CN101621709B/zh
Publication of CN101621709A publication Critical patent/CN101621709A/zh
Application granted granted Critical
Publication of CN101621709B publication Critical patent/CN101621709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于结构相似度的全参考型图像客观质量评价方法,包括以下步骤:(1)利用空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;(2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),计算失真图像相对质量,并求失真严重的位置;(3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;(4)用生成的视觉感知图加权结构相似度,获得图像质量的客观评价。本发明方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较,对图像的评价结果更加符合人类主观评价,有着广泛的应用前景。

Description

一种全参考型图像客观质量评价方法
技术领域
本发明涉及数字视频技术领域,具体来说是一种基于结构相似度的全参考型图像客观质量评价方法。
背景技术
数字图像广泛应用于多媒体产品,在获取、压缩、存储和传输的过程中会造成质量损失。人类在使用这些多媒体产品的同时,成为数字图像的最终接收者。因而人类对数字图像的主观质量评价(DMOS)被认为是最可靠的。然而,主观质量评价的过程费时费力,并且结果不可重复。因而多年来科学家对数字图像客观质量评价方法进行了大量研究。根据对原始图像的参考,客观质量评价方法分为全参考型、部分参考型和无参考型3种。全参考型适用于编码器设计和不同编码器的性能比较;部分参考型和无参考型适用于带宽有限的多媒体应用。由于全参考型可以利用原始图像的全部信息,其对图像的评价结果更加符合人类主观评价。
文献[1]Wang Z,Bovik A C,Sheikh H R,Simoncelli E P.Image qualityassessment:from error visibility to structural similarity.IEEE Transactions onImage Processing,2004,3(4):600-612根据人眼对结构信息敏感的特性,提出了基于结构相似度的评价方法(SSIM)。文献[1]中通过比较原始图像x与待评价图像y之间的亮度、对比度和结构相似度,量化图像的失真程度,其数学模型如下:
S(x,y)=l(x,y)·c(x,y)·s(x,y)        (1)
l ( x , y ) = 2 μ x μ y μ x 2 + μ y 2
c ( x , y ) = 2 σ x σ y σ x 2 + σ y 2 - - - ( 2 )
s ( x , y ) = σ xy σ x σ y
l(x,y)、c(x,y)和s(x,y)分别表示亮度计算因子、对比度计算因子和结构相似度计算因子,其中μx,μy,σx,σy,σxy分别代表原始图像x和待评价图像y的亮度均值、标准差和协方差。文献[1]中以像素坐标(i,j)为中心,由公式(1)计算滑动窗口M×M(M=11)内的结构相似度,滑动窗口从图像左上角至右下角,获得结构相似度图SSIM(i,j),并计算SSIM(i,j)的平均值作为该待评价图像的客观质量评价值。
由于文献[1]中评价方法利用了原始图像的信息,是一种典型的全参考性评价方法,该方法计算模型简单,预测的客观评价与主观评价较为一致,因而受到广泛关注。近年来,一些改进的方法不断出现:文献[2]Zhang M,Mou X.A psychovisual image quality metric based on multi-scale structuresimilarity.IEEE International Conference on Image Processing,San Diego,CA,Oct.,2008:381-384对图像进行DWT分解,将不同分辨率下的亮度、对比度、结构相似度和噪声等特征融合进行客观评价;文献[3]Wang B,Wang Z,Liao Y,Lin X.HVS-based structural similarity for image qualityassessment.9th International Conference on Signal Processing,Beijing,Oct.2008:1194-1197等人利用人类视觉系统的特性,直接将纹理和空间位置特征引入SSIM计算模型,代替结构相似度计算因子;文献[4]杨威,赵剡,许东.基于人眼视觉的结构相似度图像质量评价方法.北京航空航天大学学报,2008,34(1):1-4根据亮度、纹理和空间位置特征获得视觉感知图,并对SSIM的计算结果进行加权。文献[5]Niebur E,Koch C.Computationalarchitectures for attention,Parasuraman R.The Attentive Brain,Cambridge,Mass.:MIT Press,1998:163-186中提出了基于视觉特征驱动(stimuli-driven)的自底向上(bottom-up)可计算架构,用于摸拟人类视觉系统分析视觉场景的能力。同时,文献[6]Moorthy A K,Bovik A C.Visualimportance pooling for image quality assessment.IEEE Journal of SelectedTopics in Signal Processing,2009,3(2):193-201中提出在图像质量的评价过程中,视觉注意焦点在不断转移,失真严重的区域往往更能吸引人类的注意。
文献[3]和[4]中提出的基于结构相似度的图像质量评价方法基于文献[5]的理论,更为真实反映视觉感知质量,但是,这2种方法均忽略了文献[6]中提出的严重失真对视觉注意焦点选择的影响:人在观察图像的过程中,随着时间的推移,视觉注意焦点由人的主观意志控制而发生转移;决定视觉注意焦点转移的因素可以是显著的视觉特征或严重的视觉失真;也就是说通常图像中视觉特征显著的区域会首先吸引人的注意,随着观察的进行,如果图像中存在失真严重的区域,人的注意往往会从原先视觉特征显著的区域转移到失真严重的区域。
全参考型图像客观质量评价方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较:如文献[7]Brooks A C,Pappas T N.Usingstructural similarity quality metrics to evaluate image compression techniques.IEEE International Conference on Acoustics,Speech and Signal Processing.Honolulu,HI,USA:2007,1:873-876利用基于小波域结构相似度的全参考型图像客观质量评价方法,对经过JPEG、JPEG2000和SPIHT等编码方式的图像,进行客观质量评价,比较不同编码方式的效果;文献[8]Do Q B,Beghdadi A,Luong M,et al.A perceptual pyramidal watermarking technique.IEEE International Conference on Multimedia and Expo.Hannover,Germany:2008,281-284利用PSNR或基于结构相似度的全参考型图像客观质量评价方法,对嵌入水印的图像进行水印隐藏性评价,判断水印的嵌入是否影响图像质量。
发明内容
本发明提供了一种基于结构相似度的全参考型图像客观质量评价方法,能够使对图像的评价结果更加符合人类主观评价。
一种基于结构相似度的全参考型图像客观质量评价方法,包括:
(1)利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;
(2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像的相对质量,并求失真严重的位置;
(3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;
(4)用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价。
所述的利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置包括以下步骤:
1)计算原始图像的亮度标准差,获得亮度对比度感知图;
2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;
3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;
4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;
5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。
所述的基于结构相似度的评价方法采用文献[1]所公开的方法进行评价,求得原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像的相对质量,并求失真严重的位置,具体过程如下:
1)利用基于结构相似度的评价方法,求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块,计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n),其中(m,n)为8×8块坐标;
2)利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);
3)将相对质量最差的的位置作为失真图像失真严重的位置。
所述的定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图包括以下步骤:
1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;
2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;
3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,生成视觉注意焦点转移后的视觉感知图。
所述的用(1)和(3)生成的视觉感知图对结构相似度加权,获得图像质量的客观评价包括以下步骤:
1)利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权,获得图像质量的客观评价。
本发明的有益效果:
本发明提供了一种基于结构相似度的全参考型图像客观质量评价方法。该方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较。由于全参考型评价方法可以利用原始图像的全部信息,因此相对部分参考型和无参考型评价方法,全参考型对图像的评价结果更加符合人类主观评价,有着广泛的应用前景。
附图说明
图1为本发明的方法流程图;
图2为本发明的互不重叠的8×8块划分示意图,以(m,n)为坐标;
图3为本发明的视觉特征感知图;其中:
(a)失真图像(b)失真区域局部放大图(c)结构相似度图(d)亮度对比度感知图(e)纹理复杂度感知图(f)空间位置感知图(g)视觉感知图(h)注意焦点转移后的空间位置感知图(i)注意焦点转移后的视觉感知图。
图4为本发明的客观质量与主观质量的拟合结果图。
图5为本发明的客观质量与主观质量的测试结果图。
具体实施方式
如图1所示,一种采用本发明基于结构相似度的全参考型图像客观质量评价方法,包括:
(1)利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;
(2)求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置;
(3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;
(4)用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价。
利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著位置的具体过程包括以下步骤:
1)计算原始图像的亮度标准差,获得亮度对比度感知图;
将原始图像的亮度分量I(i,j)划分为互不重叠的8×8块,按整幅图像划分为小块,每块的大小8×8像素,块的边缘紧挨,但是互相不重叠,如图2所示。以(m,n)为坐标,那么第(m,n)块的亮度对比度用块内亮度标准差表示,亮度对比度感知图Ic(m,n)为
I c ( m , n ) = 1 8 × 8 Σ j = n × 8 + 1 n × 8 + 8 Σ i = m × 8 + 1 m × 8 + 8 ( I ( i , j ) - I ‾ ( m , n ) ) 2 - - - ( 3 )
I ‾ ( m , n ) = 1 8 × 8 Σ j = n × 8 + 1 n × 8 + 8 Σ i = m × 8 + 1 m × 8 + 8 I ( i , j )
Ic(m,n)值越大的区域,亮度对比度越明显。
2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;
a)设原始图像的亮度分量为I(i,j),利用边缘检测Canny算子得到相应的边缘轮廓E(i,j)。如果像素点属于边缘轮廓,则E(i,j)为1;如果像素点不属于边缘轮廓,则E(i,j)为0。
b)将I(i,j)划分为互不重叠的8×8块(如图2所示),计算块内每个像象素点的梯度方向。
θ ( i , j ) = arctan G ver ( i , j ) G hor ( i , j ) - - - ( 4 )
Gver(i,j)和Ghor(i,j)分别代表像素点(i,j)的垂直和水平梯度,θ(i,j)为像素点(i,j)的梯度方向,计算后的θ(i,j)分为4种方向:
θ′(i,j)∈{0°或180°,45°或225°,90°或270°,135°或315°}。
c)统计每个8×8块内方向的种类数cd和总边缘点数ne(ne为该8×8块内边缘轮廓E(i,j)值为1的像素点总个数)。当总边缘点数大于给定阈值ne *(ne *=16),则置标号ce(ce是一个标志符,用于公式(5)的计算,标志着该8×8块内属于边缘轮廓的像素点比较多)为1,否则为0。那么该块的纹理复杂度感知图Tc(m,n)由下式表示,(m,n)为块索引
T c ( m , n ) = 0.5 , if ( c d = 0 ) 1.0 , if ( c d = 1 ) ( 2 - c e ) / 2 , if ( c d = 2 ) ( 1 - c e ) / 2 , if ( c d = 3 ) 0 , else - - - ( 5 )
d)对Tc(m,n)使用[0,1,0;1,2,1;0,1,0]的3×3滤波器滤波,Tc(m,n)的范围为[0,1],数值越低表示该区域纹理越丰富。
3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;
选取原始图像的中央作为视觉注意焦点,其空间位置感知图S1(m,n)如下:
S 1 ( m , n ) = e c e c + e 1 - - - ( 6 )
其中e1为第(m,n)块到视觉注意焦点(mc,nc)(即原始图像中央)的距离与最大距离的比值,ec为常量(ec根据文献Umesh R,Ian V D L,Alan C B,et al..Foveated analysis of image features at fixations[J].Vision Research,2007,47(25):3160-3172设定为2.3)。
4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;
综合以上亮度对比度、纹理复杂度和空间位置等感知图对视觉感知的影响,定义视觉感知图P1(m,n)如下公式(7),α1、α2用于调整各感知系数的权重(由实验设定α1=α2=1)。
P1(m,n)=log(α1+Ic(m,n))(α2+Tc(m,n))2S1(m,n)  (7)
5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。
视觉感知图P1(m,n)中感知系数越大,代表视觉特征的显著性越高。因而将视觉感知图中感知系数最大的位置(mp,np)作为视觉感知特征显著的位置。
(mp,np)|P1(mp,np)=max(P1(m,n))    (8)
利用文献[1]求原始图像和失真图像之间的结构相似度图SSIM(i,j)其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置的具体过程如下:
1)利用文献[1],求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块(如图2所示),计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n)(其中(m,n)为8×8块坐标);
a)利用文献[1],求原始图像和失真图像之间的结构相似度图SSIM(i,j)。
b)将结构相似度图SSIM(i,j)划分为互不重叠的8×8块(如图2所示),计算块内结构相似度的平均值Sblock(m,n)。
S block ( m , n ) = 1 8 × 8 Σ j = n × 8 + 1 n × 8 + 8 Σ i = m × 8 + 1 m × 8 + 8 SSIM ( i , j ) - - - ( 9 )
2)利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);
失真图像的相对质量Sr(m,n)为
S r ( m , n ) = S 1 _ mean S mean , if S 1 _ min ≤ 0 S 1 _ max - S 1 _ min S 1 _ max + S 1 _ min , otherwise - - - ( 10 )
其中S1_mean、S1_max和S1_min分别是以第(m,n)个块为中心,大小为3×3个块的滑动窗口内,块结构相似度Sblock(m,n)的平均值,最大值和最小值;Smean是全部块结构相似度的平均值。对获得的相对质量Sr(m,n)使用3×3均值滤波器滤波。Sr(m,n)的范围为[0,1],数值越大表示该区域相对质量越差,失真越严重。
3)将相对质量最差的的位置作为失真图像失真严重的位置。
失真图像相对失真Sr(m,n)值越大,代表相对质量越差,失真越严重。因而将相对质量Sr(m,n)最大的位置(ms,ns)作为失真严重的位置。如果Sr(m,n)最大值的位置有多个,则取距离图像中央最近的那个位置。
(ms,ns)|Sr(ms,ns)=max(Sr(m,n))      (11)
定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图的具体过程如下:
1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;
视觉注意焦点转移原则转移原则如下:
( m c &prime; , n c &prime; ) = ( m s , n s ) , if S r _ max > &epsiv; 1 and S min < S mean 2 ( m p , n p ) , otherwise - - - ( 12 )
当相对质量Sr(m,n)的最大值Sr_max大于阈值ε1(相对质量Sr(m,n)的范围为[0,1],数值越接近1表示该区域相对质量越差,失真越严重。实验发现,当相对质量Sr(m,n)大于ε1时,失真很容易被人眼发现。ε1的取值范围为[0,1],本领域技术人员由实验经验获得,一般ε1设定为0.3),且块结构相似度Sblock(m,n)的最小值Smin小于块结构相似度Sblock(m,n)平均值Smean的二分之一时,视觉注意焦点由失真图像中央位置(mc,nc)转移至失真严重位置(ms,ns),否则视觉注意焦点转移至视觉特征显著位置(mp,np)。
2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;
视觉注意焦点转移后的空间位置感知图S2(m,n)如下:
S 2 ( m , n ) = e c e c + e 2 - - - ( 13 )
其中e2为第(m,n)块到视觉注意焦点(m′c,n′c)的距离与最大距离的比值,ec为常量(ec根据文献Umesh R,Ian V D L,Alan C B,et al..Foveated analysisof image features at fixations[J].Vision Research,2007,47(25):3160-3172设定为2.3)
3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,获得视觉注意焦点转移后的视觉感知图。
视觉注意焦点转移后的视觉感知图P2(m,n)为
P 2 ( m , n ) = log ( &alpha; 1 + 1 ) ( &alpha; 2 + T c ) 2 S 2 , if ( m c &prime; , n c &prime; ) = ( m s , n s ) and S r &GreaterEqual; &epsiv; 2 log ( &alpha; 1 + I c ) ( &alpha; 2 + T c ) 2 S 2 , otherwise - - - ( 14 )
即当视觉注意焦点因失真严重而转移至位置(ms,ns),并且块的相对质量Sr(m,n)大于等于阈值ε2,相对质量Sr(m,n)的范围为[0,1],数值越接近1表示该区域相对质量越差,失真越严重。实验发现,当相对质量Sr(m,n)大于ε2时,失真很容易被人眼发现。ε2的取值范围为[0,1],本领域技术人员由实验经验获得,一般ε2设定为0.3。那么该块的亮度对比度感知系数Ic(m,n)直接被提升至最大值1;否则由亮度对比度Ic(m,n)、纹理复杂度Tc(m,n)和转移后的空间位置S2(m,n)生成视觉感知图。其中α1、α2用于调整各感知系数的权重,由于亮度对比度感知系数Ic(m,n)和纹理复杂度感知系数Tc(m,n)的最大值为1,α1、α2值越大,Ic(m,n)、Tc(m,n)感知系数对视觉感知图的影响越小,可以根据需要调节α1、α2的大小来控制各感知系数对视觉感知图的影响,本发明在实验中设定α1=α2=1。
用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价包括以下步骤:
1)利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权,获得图像质量的客观评价。
失真图像客观质量评价Qp由视觉感知图P1(m,n),视觉注意焦点转移后的视觉感知图P2(m,n)和块结构相似度Sblock(m,n)加权获得
Qp=β1Q12Q2         (15)
其中β1和β2用于调整两次视觉注意焦点对评价结果的影响(由实验设定β1=β2=50),Q1与Q2由下式得出:
Q k = &Sigma;&Sigma; ( P k ( m , n ) &CenterDot; S block ( m , n ) ) &Sigma;&Sigma; ( P k ( m , n ) ) , k = 1,2 - - - ( 16 )
实验采用LIVE实验室提供的原始图像数据库和失真图像数据库(H.R.Sheikh,Z.Wang,A.C.Bovik,et al.LIVE image quality assessmentdatabase release 2.http://live.ece.utexas.edu/research/quality),包括29张原始图像、779张失真图像及其相应的主观评价(DMOS)。779张失真图像由29张原始图像经过5种失真方式处理获得,反映了不同类型和不同强度的图像失真。其中JPEG2000(JP2):169张;JPEG:175张;白噪声(Noise):145张;高斯模糊(Blur):145张;快速衰减(Fast-fade)(传输过程中码流有错误的JPEG2000图像):145张。为了验证本发明方法的有效性,用本发明方法对数据库中的失真图像进行客观质量评价,然后与数据库中包含的各待评价图像对应的主观质量评价(DMOS)进行比较。
图3是快速衰减数据库中img82(原始图像为Womanhat)的视觉特征感知图计算结果。图3a和图3b是失真图像img82和失真区域局部放大图,从图3b中可以看出,白色项链右下侧的平滑皮肤区域有严重失真,用圈标记。图3c是块结构相似度图Sblock(m,n),图中亮度越低表示结构差异越大,右下角皮肤区域有明显失真。图3d~图3g分别是亮度对比度感知图Ic(m,n)、纹理复杂度感知图Tc(m,n)、空间位置感知图S1(m,n)以及生成的视觉感知图P1(m,n),图中亮度越大表示感知系数权重越大,从图3g可以看出,人脸五官和白色项链为视觉特征显著区域,然而根据视觉注意焦点转移原则(式(12)),右下角皮肤区域的严重失真满足转移条件,使视觉注意焦点转移至该失真区域,见图3h。图3i是视觉注意焦点转移后的视觉感知图P2(m,n),对比图3g可以看出,右下角失真区域由于亮度对比度感知系数直接被提升至最大值1,使该区域的视觉感知系数权重明显提高,而距离注意焦点较远的五官和帽沿区域视觉感知系数权重有所下降。
将779张失真图像分为拟合和测试两个集合,随机抽取50%失真图像(390张)用于多参数非线性方程(公式(17))的拟合,剩余389张用于客观质量评价的测试。图像的客观质量Qp由公式(15)获得。
DMOS=β1logistic(β2,(Qp3))+β4Qp5
log istic ( &tau; , x ) = 1 2 - 1 1 + exp ( &tau;x ) , - - - ( 17 )
图4和图5分别是本发明方法进行图像的客观质量Qp与主观质量DMOS的拟合和测试结果。图4中x轴表示本发明方法得出的图像客观质量Qp,y轴表示图像的主观质量DMOS,符号“+”表示用于方程拟合的图像,黑色实线表示经过拟合获得的曲线;图5中x轴表示本发明方法得出的图像客观质量经过非线性转换(公式(17))后的值DMOSp,y轴表示图像的主观质量DMOS,符号“о”表示用于测试的图像,黑色虚线表示DMOSp与DMOS完全相等的标准线。
文献[9]Sheikh H R,Sabir M F,Bovik A C.A statistical evaluation ofrecent full reference image quality assessment algorithms IEEE Transactionson Image Processing,2006,15(11):3440-3451,该文献规定了验证图像客观质量评价方法有效性的方法,定义了3个评价指标的计算方法,即客观质量与主观质量的Pearson相关系数,Spearman相关系数和Outlier率。
根据上述文献公开的方法进行计算,本发明方法,以及其他两种客观质量评价方法(PSNR和文献[1]的SSIM方法)得出的客观质量与主观质量的Pearson相关系数,Spearman相关系数和Outlier率,分别用于表示预测方法的精确性,单调性和一致性。Pearson相关系数和Spearman相关系数值越高表示预测方法的准确性和单调性越好,Outlier率值越低表示一致性越好。表1为本发明方法与PSNR,SSIM方法性能比较,从表1的比较可以看出,本发明方法评价全部失真图像集合准确性、单调性和一致性比PSNR方法分别高出10.5%、9.8%和8.2%,比SSIM方法都分别高出3.7%、3.8%和2.9%。
因此从客观上看,用本发明方法预测的图像客观质量评价,与图像主观质量评价更加一致。
表1
Figure G2009101009638D00121

Claims (5)

1.一种基于结构相似度的全参考型图像客观质量评价方法,包括以下步骤:
(1)利用亮度对比度、纹理复杂度和空间位置获得原始图像的视觉感知图,并求视觉感知特征显著的位置;
(2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置;
(3)将视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;
(4)用(1)和(3)生成的视觉感知图加权结构相似度,将二者加权之后,获得图像质量的客观评价。
2.根据权利要求1所述的全参考型图像客观质量评价方法,其特征在于,步骤(1)包括以下步骤:
1)计算原始图像的亮度标准差,获得亮度对比度感知图;
2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;
3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;
4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;
5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。
3.根据权利要求2所述的全参考型图像客观质量评价方法,其特征在于,步骤(2)的具体过程如下:
1)求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块,以(m,n)为坐标;计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n),利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);
2)将相对质量最差的位置作为失真图像失真严重的位置。
4.根据权利要求3所述的全参考型图像客观质量评价方法,其特征 在于,步骤(3)包括以下步骤:
1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;
2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;
3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,生成视觉注意焦点转移后的视觉感知图。
5.根据权利要求4所述的全参考型图像客观质量评价方法,其特征在于,步骤(4)所述的视觉感知图加权结构相似度包括利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权;
所述的步骤(4)中获得的图像质量的客观评价Qp为:
Qp=β1Q12Q2
Figure FSB00000227808400021
其中,P1(m,n)为步骤(1)获得的原始图像的视觉感知图,P2(m,n)为步骤(3)获得的视觉注意焦点转移后的视觉感知图,Sblock(m,n)为块的结构相似度,β1和β2为权值,用于调整两次视觉注意焦点对评价结果的影响。 
CN2009101009638A 2009-08-10 2009-08-10 一种全参考型图像客观质量评价方法 Active CN101621709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101009638A CN101621709B (zh) 2009-08-10 2009-08-10 一种全参考型图像客观质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101009638A CN101621709B (zh) 2009-08-10 2009-08-10 一种全参考型图像客观质量评价方法

Publications (2)

Publication Number Publication Date
CN101621709A CN101621709A (zh) 2010-01-06
CN101621709B true CN101621709B (zh) 2011-01-05

Family

ID=41514697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101009638A Active CN101621709B (zh) 2009-08-10 2009-08-10 一种全参考型图像客观质量评价方法

Country Status (1)

Country Link
CN (1) CN101621709B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515182B2 (en) * 2009-02-11 2013-08-20 Ecole De Technologie Superieure Method and system for determining a quality measure for an image using multi-level decomposition of images
CN101976444B (zh) * 2010-11-11 2012-02-08 浙江大学 一种基于像素类型的结构类似性图像质量客观评价方法
CN102036098B (zh) * 2010-12-01 2012-08-29 北京航空航天大学 一种基于视觉信息量差异的全参考型图像质量评价方法
CN102143378B (zh) * 2010-12-30 2012-11-28 无锡银泰微电子有限公司 一种图像品质的判断方法
CN102769772B (zh) * 2011-05-05 2014-12-10 浙江大学 一种视频序列失真评价方法和装置
CN102170581B (zh) * 2011-05-05 2013-03-20 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102883179B (zh) * 2011-07-12 2015-05-27 中国科学院计算技术研究所 一种视频质量客观评价方法
CN102231844B (zh) * 2011-07-21 2013-04-03 西安电子科技大学 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN102421007B (zh) * 2011-11-28 2013-09-04 浙江大学 基于多尺度结构相似度加权综合的图像质量评价方法
CN102685547B (zh) * 2012-04-26 2014-02-05 华北电力大学 一种基于块效应和噪声的低码率视频质量检测方法
WO2013177779A1 (en) * 2012-05-31 2013-12-05 Thomson Licensing Image quality measurement based on local amplitude and phase spectra
CN104185022B (zh) * 2013-09-18 2016-03-30 电子科技大学 基于视觉信息失真分解的全参考视频质量评估方法
CN103634591A (zh) * 2013-11-20 2014-03-12 华为技术有限公司 一种视频质量评估的方法、装置和系统
CN103584888B (zh) * 2013-12-02 2015-12-02 深圳市恩普电子技术有限公司 超声目标运动追踪方法
CN104079925B (zh) * 2014-07-03 2016-05-18 中国传媒大学 基于视觉感知特性的超高清视频图像质量客观评价方法
CN104112272B (zh) * 2014-07-04 2017-04-12 上海交通大学 基于结构降化模型的半参考图像质量评价方法
CN104112274B (zh) * 2014-07-04 2018-08-03 上海交通大学 基于混合尺度变换的图像质量评价方法
CN104318562B (zh) * 2014-10-22 2018-02-23 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN104574363B (zh) * 2014-12-12 2017-09-29 南京邮电大学 一种考虑梯度方向差异的全参考图像质量评价方法
CN104539962B (zh) 2015-01-20 2017-12-01 北京工业大学 一种融合视觉感知特征的可分层视频编码方法
CN104796690B (zh) * 2015-04-17 2017-01-25 浙江理工大学 一种基于人脑记忆模型的无参考视频质量评价方法
CN105528776B (zh) * 2015-08-07 2019-05-10 上海仙梦软件技术有限公司 针对jpeg图像格式的显著性细节保持的质量评价方法
CN105184819B (zh) * 2015-09-14 2018-01-12 浙江大学 用于医学图像重建参数寻优的客观图像质量评价方法
JP6041957B1 (ja) * 2015-10-01 2016-12-14 株式会社日立製作所 超音波診断装置
CN107087163B (zh) * 2017-06-26 2018-10-12 杭州当虹科技股份有限公司 一种提升hdr视频主观质量的编码方法
CN107220974A (zh) * 2017-07-21 2017-09-29 北京印刷学院 一种全参考图像质量评价方法和装置
CN107465914B (zh) * 2017-08-18 2019-03-12 电子科技大学 基于局部纹理特征和全局亮度特征的视频质量评价方法
CN107657608B (zh) * 2017-09-25 2021-06-04 北京小米移动软件有限公司 图像质量确定方法、装置及电子设备
CN109785418B (zh) * 2018-12-21 2023-04-11 广东工业大学 基于视觉感知模型的注视点渲染优化算法
CN111836038B (zh) * 2019-04-17 2023-02-28 北京地平线机器人技术研发有限公司 确定成像质量的方法、装置、存储介质及电子设备
CN110572573B (zh) * 2019-09-17 2021-11-09 Oppo广东移动通信有限公司 对焦方法和装置、电子设备、计算机可读存储介质
CN117041531B (zh) * 2023-09-04 2024-03-15 无锡维凯科技有限公司 一种基于图像质量评估的手机摄像头聚焦检测方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5861865A (en) * 1995-08-14 1999-01-19 General Electric Company Audio/visual entertainment system for use with a magnetic resonance imaging device with adjustable video signal
CN101336824A (zh) * 2008-08-08 2009-01-07 浙江大学 图像纹理复杂度的视觉感知响应强度检测装置
CN101488220A (zh) * 2009-01-05 2009-07-22 浙江大学 基于视觉注意力的实时的视频和图像抽象化方法
CN101489141A (zh) * 2009-01-20 2009-07-22 浙江大学 基于主观质量失真预测的自适应帧内宏块刷新方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5861865A (en) * 1995-08-14 1999-01-19 General Electric Company Audio/visual entertainment system for use with a magnetic resonance imaging device with adjustable video signal
CN101336824A (zh) * 2008-08-08 2009-01-07 浙江大学 图像纹理复杂度的视觉感知响应强度检测装置
CN101488220A (zh) * 2009-01-05 2009-07-22 浙江大学 基于视觉注意力的实时的视频和图像抽象化方法
CN101489141A (zh) * 2009-01-20 2009-07-22 浙江大学 基于主观质量失真预测的自适应帧内宏块刷新方法

Also Published As

Publication number Publication date
CN101621709A (zh) 2010-01-06

Similar Documents

Publication Publication Date Title
CN101621709B (zh) 一种全参考型图像客观质量评价方法
Shen et al. Hybrid no-reference natural image quality assessment of noisy, blurry, JPEG2000, and JPEG images
CN103369349B (zh) 一种数字视频质量控制方法及其装置
Ma et al. Reduced-reference video quality assessment of compressed video sequences
CN109978854B (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN104243973B (zh) 基于感兴趣区域的视频感知质量无参考客观评价方法
CN107292830B (zh) 低照度图像增强及评价方法
CN101184221A (zh) 基于视觉关注度的视频编码方法
CN101478691B (zh) Motion Jpeg2000视频客观质量的无参考评估方法
CN102368821A (zh) 一种噪声强度自适应的视频去噪方法和系统
CN101605272A (zh) 一种部分参考型图像客观质量评价方法
CN103607589B (zh) 基于层次选择性视觉注意力机制的jnd阈值计算方法
CN109754390B (zh) 一种基于混合视觉特征的无参考图像质量评价方法
He et al. Video quality assessment by compact representation of energy in 3D-DCT domain
CN106934770B (zh) 一种评价雾霾图像去雾效果的方法和装置
Cheng et al. Image quality assessment using natural image statistics in gradient domain
CN110121109A (zh) 面向监控系统数字视频实时溯源方法、城市视频监控系统
CN101426148A (zh) 一种视频客观质量评价方法
CN102497576A (zh) 基于Gabor特征互信息的全参考图像质量评价方法
Okarma Colour image quality assessment using the combined full-reference metric
Chen et al. A universal reference-free blurriness measure
Okarma Video quality assessment using the combined full-reference approach
CN104079934A (zh) 一种实时视频通信中的感兴趣区域提取方法
Zhang et al. Local binary pattern statistics feature for reduced reference image quality assessment
CN111127392B (zh) 一种基于对抗生成网络的无参考图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant