CN103281554A - 一种基于人眼视觉特性的视频客观质量评价方法 - Google Patents

一种基于人眼视觉特性的视频客观质量评价方法 Download PDF

Info

Publication number
CN103281554A
CN103281554A CN2013101444630A CN201310144463A CN103281554A CN 103281554 A CN103281554 A CN 103281554A CN 2013101444630 A CN2013101444630 A CN 2013101444630A CN 201310144463 A CN201310144463 A CN 201310144463A CN 103281554 A CN103281554 A CN 103281554A
Authority
CN
China
Prior art keywords
current
image
pixel
distortion
dis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101444630A
Other languages
English (en)
Other versions
CN103281554B (zh
Inventor
蒋刚毅
朱宏
郁梅
陈芬
邵枫
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310144463.0A priority Critical patent/CN103281554B/zh
Publication of CN103281554A publication Critical patent/CN103281554A/zh
Application granted granted Critical
Publication of CN103281554B publication Critical patent/CN103281554B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人眼视觉特性的视频客观质量评价方法,其将失真视频序列中的图像划分为边缘、纹理和平滑区域,然后根据无失真视频序列中的图像的时域恰可察觉失真图,将边缘区域中的像素点分为可见和不可见失真点,接着对可见和不可见失真点进行不同程度的感知加权,再根据边缘区域中的每个像素点的感知加权后的结构相似度值、纹理区域和平滑区域中的每个像素点的结构相似度值,获取失真视频序列中的图像的质量分,最后根据低通滤波后的质量分获取失真视频序列的总体质量评价客观值,整个过程不仅有效地利用了人眼视觉特性,而且在评价平面视频图像质量的基础上,引入了时域特性,因此有效地提高了客观质量评价结果与主观感知之间的相关性。

Description

一种基于人眼视觉特性的视频客观质量评价方法
技术领域
本发明涉及一种视频质量评价方法,尤其是涉及一种基于人眼视觉特性的视频客观质量评价方法。
背景技术
随着互联网、通信、多媒体信息和图像处理技术的快速发展,视频编解码技术已经受到了广泛的关注和应用,如应用于数字电视、云点播、电视会议、消费电子等诸多领域。然而,在视频采集、编码压缩、网络传输、解码等视频处理过程中会不可避免的引入失真,从而会造成视频质量的损伤。因此,如何去界定和衡量视频质量的损失程度就显得尤为重要。由于人眼是视觉感知的终端,主观质量评价更接近于人眼主观感知,较为可靠,但是主观质量评价会耗费大量的人力和物力,且难于集成于实时系统中,难以得到大规模的推广应用。因此,如何建立一种有效可靠并且符合人眼视觉感知的视频客观质量评价方法是当前的研究热点之一。目前,很多学者和科研机构将平面图像质量评价方法结合运动信息应用于视频质量评价,如基于梯度和运动估计的质量评价方法、基于结构相似度的质量评价方法等,这些质量评价方法没有考虑到人眼感兴趣模型、掩蔽效应和不对称感知等人眼视觉特性,因此客观质量评价结果与主观感知之间的一致性不是很好。
发明内容
本发明所要解决的技术问题是提供一种基于人眼视觉特性的视频客观质量评价方法,其能够有效地提高视频客观质量评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于人眼视觉特性的视频客观质量评价方法,其特征在于包括以下步骤:
①令Vorg为原始的无失真的视频序列,令Vdis为失真的视频序列,将Vorg中当前待处理的第n帧图像定义为当前第一图像,将Vdis中当前待处理的第n帧图像定义为当前第二图像,其中,1≤n≤frames,frames表示Vorg和Vdis各自包含的图像的帧数;
②将当前第一图像记为Yorg_n,将当前第二图像记为Ydis_n
③首先,计算当前第一图像中的每个像素点的梯度幅值,并计算当前第二图像中的每个像素点的梯度幅值;然后根据当前第一图像和当前第二图像中的每个像素点的梯度幅值,将当前第二图像划分为边缘区域、纹理区域和平滑区域;
④首先,计算当前第一图像的时域恰可察觉失真图;然后根据当前第一图像与当前第二图像的绝对差值图及当前第一图像的时域恰可察觉失真图,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点;
⑤首先,计算当前第二图像中的每个像素点的结构相似度值;然后,计算当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子;再利用当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值;
⑥根据当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值、当前第二图像中的纹理区域中的每个像素点的结构相似度值、当前第二图像中的平滑区域中的每个像素点的结构相似度值,并采用线性加权方法,计算当前第二图像的质量分,记为qn q n = a 1 × 1 N 1 Σ k 1 = 1 N 1 ssim e ′ ( k 1 ) + a 2 × 1 N 2 Σ k 2 = 1 N 2 ssim t ( k 2 ) + a 3 × 1 N 3 Σ k 3 = 1 N 3 ssim s ( k 3 ) , 其中,a1表示当前第二图像中的边缘区域的加权权重,a2表示当前第二图像中的纹理区域的加权权重,a3表示当前第二图像中的平滑区域的加权权重,a1+a2+a3=1,a1≥a2≥a3,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,ssime′(k1)表示当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值,ssimt(k2)表示当前第二图像中的纹理区域中的第k2个像素点的结构相似度值,ssims(k3)表示当前第二图像中的平滑区域中的第k3个像素点的结构相似度值;
⑦令n=n+1,将Vorg中下一帧待处理的图像作为当前第一图像,将Vdis中下一帧待处理的图像作为当前第二图像,然后返回步骤②继续执行,直至Vorg和Vdis中的所有图像均处理完毕,得到Vdis中的每帧图像的质量分,其中,n=n+1中的“=”为赋值符号;
⑧对Vdis中的每帧图像的质量分进行低通滤波处理,得到Vdis中的每帧图像的滤波处理后的质量分,将Vdis中的第n帧图像的滤波处理后的质量分记为qn′;然后将Vdis中由滤波处理后的质量分最低的h%帧图像构成的集合定义为较差图像集合;再根据较差图像集合中的每帧较差图像的滤波处理后的质量分,计算Vdis的总体质量评价客观值,记为Q,
Figure BDA00003088239000031
其中,NH表示较差图像集合中的较差图像的帧数,NH=h%×frames,h表示最差加权策略参数,1≤n′≤NH,qn′′表示较差图像集合中的第n′帧较差图像的滤波处理后的质量分。
所述的步骤③的具体过程为:
③-1、利用水平方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿水平方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxd(i,j);利用垂直方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿垂直方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyd(i,j);利用时间方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿时间方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtd(i,j);其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度;
③-2、根据当前第一图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第一图像中的每个像素点的梯度幅值,将当前第一图像中坐标位置为(i,j)的像素点的梯度幅值记为Gorg_n(i,j), G org _ n ( i , j ) = g xr 2 ( i , j ) + g yr 2 ( i , j ) + g tr 2 ( i , j ) ;
根据当前第二图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第二图像中的每个像素点的梯度幅值,将当前第二图像中坐标位置为(i,j)的像素点的梯度幅值记为Gdis_n(i,j), G dis _ n ( i , j ) = g xd 2 ( i , j ) + g yd 2 ( i , j ) + g td 2 ( i , j ) ;
③-3、从当前第一图像中的所有像素点的梯度幅值中找出值最大的梯度幅值,将该值最大的梯度幅值记为Gorg,max
③-4、根据Gorg,max,计算第一区域划分阈值T1和第二区域划分阈值T2,T1=α×Gorg,max,T2=β×Gorg,max,其中,α和β均表示区域划分参数,α>β;
③-5、根据当前第一图像中的每个像素点的梯度幅值、当前第二图像中的每个像素点的梯度幅值、T1和T2,将当前第二图像划分为边缘区域、纹理区域和平滑区域。
所述的步骤③-4中取α=0.12,取β=0.06。
所述的步骤③-5的具体过程为:
③-5-a、将当前第一图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第一像素点,将当前第二图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第二像素点;
③-5-b、当当前第一像素点的梯度幅值Gorg_n(i,j)大于T1或当前第二像素点的梯度幅值Gdis_n(i,j)大于T1时,将当前第二像素点归属于边缘区域;当当前第一像素点的梯度幅值Gorg_n(i,j)小于T2且当前第二像素点的梯度幅值Gdis_n(i,j)小于T1时,将当前第二像素点归属于纹理区域;当为其他情况时,将当前第二像素点归属于平滑区域;
③-5-c、令i=i+1,j=j+1,将当前第一图像中下一个待处理的像素点作为当前第一像素点,将当前第二图像中下一个待处理的像素点作为当前第二像素点,然后返回步骤③-5-b继续执行,直至当前第一图像和当前第二图像中的所有像素点均处理完毕,得到当前第二图像的边缘区域、纹理区域和平滑区域,其中,i=i+1,j=j+1中的“=”为赋值符号。
所述的步骤④的具体过程为:
④-1、计算当前第一图像与当前第二图像的绝对差值图,记为Dn,Dn=|Yorg_n-Ydis_n|,其中,符号“||”为取绝对值符号;
④-2、计算当前第一图像的时域恰可察觉失真图,记为JNDorg_n,将JNDorg_n中坐标位置为(i,j)的像素点的时域恰可察觉失真值记为jnd(i,j),jnd(i,j)=jndl(i,j)+jndt(i,j)-C×min{jndl(i,j),jndt(i,j)},其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度,jndl(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度阈值, jnd l ( i , j ) = 17 ( 1 - I ( i , j ) &OverBar; 127 ) + 3 0 &le; I ( i , j ) &OverBar; &le; 127 3 128 ( I ( i , j ) &OverBar; - 127 ) + 3 127 < I ( i , j ) &OverBar; &le; 255 ,
Figure BDA00003088239000052
表示当前第一图像中坐标位置为(i,j)的像素点的亮度均值,
Figure BDA00003088239000054
,I(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度值,I(i-3+x,j-3+y)表示当前第一图像中坐标位置为(i-3+x,j-3+y)的像素点的亮度值,B(x,y)表示5×5的低通滤波器中坐标位置为(x,y)处的值,jndt(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的纹理阈值,jndt(i,j)=α'×G(i,j)+β',α'和β'为加权因子, &alpha; &prime; = 0.0001 &times; I ( i , j ) &OverBar; + 0.115 , &beta; &prime; = 0.5 - 0.01 &times; I ( i , j ) &OverBar; , G(i,j)表示当前第一图像中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波处理后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④-3、根据Dn和JNDorg_n,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点,具体过程为:假设当前第二图像中坐标位置为(i,j)的像素点属于当前第二图像中的边缘区域,则判断jnd(i,j)是否小于Dn中坐标位置为(i,j)的像素点的像素值Dn(i,j),如果是,则确定当前第二图像中坐标位置为(i,j)的像素点为可见失真点,否则,确定当前第二图像中坐标位置为(i,j)的像素点为不可见失真点;其中,此处(i,j)∈Se,Se表示当前第二图像中的边缘区域中的所有像素点的坐标位置的集合。
所述的步骤④-2中取C=0.3。
所述的步骤⑤的具体过程为:
⑤-1、计算当前第二图像中的每个像素点的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的结构相似度值记为ssime(k1),将当前第二图像中的纹理区域中的第k2个像素点的结构相似度值记为ssimt(k2),将当前第二图像中的平滑区域中的第k3个像素点的结构相似度值记为ssims(k3),其中,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数;
⑤-2、计算当前第二图像中的边缘区域中的像素点的感知加权因子,记为λ,
Figure BDA00003088239000061
其中,ω1表示当前第二图像中由边缘区域中的所有可见失真点构成的感兴趣区域的感兴趣系数,ω2表示当前第二图像中由除边缘区域中的所有可见失真点外的所有像素点构成的非感兴趣区域的感兴趣系数,
Figure BDA00003088239000063
S1表示当前第二图像中的感兴趣区域所包含的像素点的个数,S2表示当前第二图像中的非感兴趣区域所包含的像素点的个数;
⑤-3、利用当前第二图像中的边缘区域中的像素点的感知加权因子λ,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值记为ssime'(k1),ssime'(k1)=λ×ssime(k1)。
所述的步骤⑥中取a1=0.9,取a2=0.05,取a3=0.05。
所述的步骤⑧中 q n &prime; = q n - 1 + a _ &times; ( q n - q n - 1 ) ( q n - q n - 1 ) &le; 0,1 < n &le; frames q n - 1 + a + &times; ( q n - q n - 1 ) ( q n - q n - 1 ) > 0,1 < n &le; frames q n n = 1 , 其中,qn-1表示Vdis中的第n-1帧图像的质量分,qn表示Vdis中的第n帧图像的质量分,a-和a+均为低通滤波加权参数,a-<a+,a-=0.04,a+=0.5。
所述的步骤⑧中h的获取过程为:
⑧-1、采用多个无失真的视频序列建立在不同失真类型不同失真程度下的失真视频库,该失真视频库包括多个失真的视频序列;
⑧-2、采用主观质量评价方法,获取该失真视频库中的每个失真的视频序列的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
⑧-3、根据步骤①至步骤⑧的操作过程,获取该失真视频库中的每个失真视频序列的总体质量评价客观值Q,然后采用线性加权的拟合方法拟合该失真视频库中的每个失真视频序列的平均主观评分差值DMOS和每个失真视频序列的总体质量评价客观值Q,得到每个失真视频序列相对于对应的无失真的视频序列的客观评价尺度度量最优时的最差加权策略参数h。
与现有技术相比,本发明的优点在于:其首先将失真的视频序列中的图像划分为边缘区域、纹理区域和平滑区域,然后根据无失真的视频序列中的图像的时域恰可察觉失真图,将边缘区域中的像素点分为可见失真点和不可见失真点,接着对边缘区域中的可见失真点和不可见失真点进行不同程度的感知加权,再根据边缘区域中的每个像素点的感知加权后的结构相似度值、纹理区域中的每个像素点的结构相似度值和平滑区域中的每个像素点的结构相似度值,获取失真的视频序列中的图像的质量分,之后对失真的视频序列中的图像的质量分进行低通滤波,最后根据低通滤波后的质量分获取失真的视频序列的总体质量评价客观值,整个质量评价过程不仅有效地利用了时域恰可察觉失真、人眼基于内容的敏感性、不对称感知以及视觉感兴趣模型等人眼视觉特性,而且在评价平面视频图像质量的基础上,同时引入了时域特性,因此有效地提高了视频客观质量评价结果与主观感知之间的相关性。
附图说明
图1a为水平方向即x方向上的三维Sobel矩阵的示意图;
图1b为垂直方向即y方向上的三维Sobel矩阵的示意图;
图1c为时间方向即t方向上的三维Sobel矩阵的示意图;
图2a为5×5的低通滤波器的算子模板的示意图;
图2b为水平方向的高通滤波器的算子模板的示意图;
图2c为垂直方向的高通滤波器的算子模板的示意图;
图2d为45°方向的高通滤波器的算子模板的示意图;
图2e为135°方向的高通滤波器的算子模板的示意图;
图3a为针对LIVE实验室提供的LIVE Video Database视频质量数据库提供的10组共150个失真的视频序列的客观模型预测值DMOSp与平均主观评分差值DMOS之间的散点图;
图3b为针对LIVE实验室提供的LIVE Video Database视频质量数据库提供的10组共150个失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;
图3c为存在无线传输失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;
图3d为存在IP网络传输失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;
图3e为存在H.264编码失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;
图3f为存在MPEG-2编码失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;
图4为本发明方法的流程框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于人眼视觉特性的视频客观质量评价方法,其流程框图如图4所示,其具体包括以下步骤:
①令Vorg为原始的无失真的视频序列,令Vdis为失真的视频序列,将Vorg中当前待处理的第n帧图像定义为当前第一图像,将Vdis中当前待处理的第n帧图像定义为当前第二图像,其中,1≤n≤frames,frames表示Vorg和Vdis各自包含的图像的帧数。
②将当前第一图像记为Yorg_n,将当前第二图像记为Ydis_n
③首先,计算当前第一图像中的每个像素点的梯度幅值,并计算当前第二图像中的每个像素点的梯度幅值;然后根据当前第一图像和当前第二图像中的每个像素点的梯度幅值,将当前第二图像划分为边缘区域、纹理区域和平滑区域。
在此具体实施例中,步骤③的具体过程为:
③-1、利用水平方向即x方向上的三维Sobel矩阵(如图1a所示),分别计算当前第一图像和当前第二图像中的每个像素点沿水平方向即x方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxd(i,j);利用垂直方向即y方向上的三维Sobel矩阵(如图1b所示),分别计算当前第一图像和当前第二图像中的每个像素点沿垂直方向即y方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyd(i,j);利用时间方向即t方向上的三维Sobel矩阵(如图1c所示),分别计算当前第一图像和当前第二图像中的每个像素点沿时间方向即t方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtd(i,j);其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度。
③-2、根据当前第一图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第一图像中的每个像素点的梯度幅值,将当前第一图像中坐标位置为(i,j)的像素点的梯度幅值记为Gorg_n(i,j), G org _ n ( i , j ) = g xr 2 ( i , j ) + g yr 2 ( i , j ) + g tr 2 ( i , j ) .
根据当前第二图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第二图像中的每个像素点的梯度幅值,将当前第二图像中坐标位置为(i,j)的像素点的梯度幅值记为Gdis_n(i,j), G dis _ n ( i , j ) = g xd 2 ( i , j ) + g yd 2 ( i , j ) + g td 2 ( i , j ) .
③-3、从当前第一图像中的所有像素点的梯度幅值中找出值最大的梯度幅值,将该值最大的梯度幅值记为Gorg,max
③-4、根据Gorg,max,计算第一区域划分阈值T1和第二区域划分阈值T2,T1=α×Gorg,max,T2=β×Gorg,max,其中,α和β均表示区域划分参数,α>β,在本实施例中取α=0.12,取β=0.06。
③-5、根据当前第一图像中的每个像素点的梯度幅值、当前第二图像中的每个像素点的梯度幅值、T1和T2,将当前第二图像划分为边缘区域、纹理区域和平滑区域,具体过程为:
③-5-a、将当前第一图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第一像素点,将当前第二图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第二像素点。
③-5-b、当当前第一像素点的梯度幅值Gorg_n(i,j)大于T1或当前第二像素点的梯度幅值Gdis_n(i,j)大于T1时,将当前第二像素点归属于边缘区域;当当前第一像素点的梯度幅值Gorg_n(i,j)小于T2且当前第二像素点的梯度幅值Gdis_n(i,j)小于T1时,将当前第二像素点归属于纹理区域;当为其他情况时,将当前第二像素点归属于平滑区域。
③-5-c、令i=i+1,j=j+1,将当前第一图像中下一个待处理的像素点作为当前第一像素点,将当前第二图像中下一个待处理的像素点作为当前第二像素点,然后返回步骤③-5-b继续执行,直至当前第一图像和当前第二图像中的所有像素点均处理完毕,得到当前第二图像的边缘区域、纹理区域和平滑区域,其中,i=i+1,j=j+1中的“=”为赋值符号。
④首先,计算当前第一图像的时域恰可察觉失真图;然后根据当前第一图像与当前第二图像的绝对差值图及当前第一图像的时域恰可察觉失真图,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点。在此,通过利用时域恰可察觉失真这一人眼视觉特性获取了当前第一图像的时域恰可察觉失真图。
在此具体实施例中,步骤④的具体过程为:
④-1、计算当前第一图像与当前第二图像的绝对差值图,记为Dn,Dn=|Yorg_n-Ydis_n|,其中,符号“||”为取绝对值符号。
④-2、计算当前第一图像的时域恰可察觉失真图,记为JNDorg_n,将JNDorg_n中坐标位置为(i,j)的像素点的时域恰可察觉失真值记为jnd(i,j),jnd(i,j)=jndl(i,j)+jndt(i,j)-C×min{jndl(i,j),jndt(i,j)},时域恰可察觉失真值表示人眼能够容忍的失真临界值,该值越大,则人眼能够容忍的失真程度就越大,其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度,jndl(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度阈值, jnd l ( i , j ) = 17 ( 1 - I ( i , j ) &OverBar; 127 ) + 3 0 &le; I ( i , j ) &OverBar; &le; 127 3 128 ( I ( i , j ) &OverBar; - 127 ) + 3 127 < I ( i , j ) &OverBar; &le; 255 ,
Figure BDA00003088239000112
表示当前第一图像中坐标位置为(i,j)的像素点的亮度均值,
Figure BDA00003088239000121
,I(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度值,I(i-3+x,j-3+y)表示当前第一图像中坐标位置为(i-3+x,j-3+y)的像素点的亮度值,B(x,y)表示5×5的低通滤波器中坐标位置为(x,y)处的值,图2a给出了5×5的低通滤波器的算子模板的示意图,jndt(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的纹理阈值,jndt(i,j)=α'×G(i,j)+β',α'和β'为加权因子,
Figure BDA00003088239000123
Figure BDA00003088239000124
G(i,j)表示当前第一图像中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波处理后得到的四个值中的最大值,
Figure BDA00003088239000125
max()为取最大值函数,符号“||”为取绝对值符号,gradk(i,j)表示当前第一图像中坐标位置为(i,j)的像素点通过第k个高通滤波器滤波处理后得到的值,第k=1个高通滤波器为水平方向的高通滤波器,第k=2个高通滤波器为垂直方向的高通滤波器,第k=3个高通滤波器为45°方向的高通滤波器,第k=4个高通滤波器为135°方向的高通滤波器,图2b给出了水平方向的高通滤波器的算子模板的示意图,图2c给出了垂直方向的高通滤波器的算子模板的示意图,图2d给出了45°方向的高通滤波器的算子模板的示意图,图2e给出了135°方向的高通滤波器的算子模板的示意图,C为加权系数,在本实施例中由于考虑到亮度掩蔽效应和纹理掩蔽效应的重叠,因此取C=0.3,min()为取最小值函数。
④-3、根据Dn和JNDorg_n,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点,具体过程为:假设当前第二图像中坐标位置为(i,j)的像素点属于当前第二图像中的边缘区域,则判断jnd(i,j)是否小于Dn中坐标位置为(i,j)的像素点的像素值Dn(i,j),如果是,则确定当前第二图像中坐标位置为(i,j)的像素点为可见失真点,否则,确定当前第二图像中坐标位置为(i,j)的像素点为不可见失真点;其中,此处(i,j)∈Se,Se表示当前第二图像中的边缘区域中的所有像素点的坐标位置的集合。
⑤首先,计算当前第二图像中的每个像素点的结构相似度值;然后,计算当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子;再利用当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值。在此,利用视觉感兴趣模型这一人眼视觉特性获取当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子;赋予边缘区域中的可见失真点和不可见失真点不同的权值即感知加权因子,并进行线性加权,充分体现了人眼基于内容的敏感性这一人眼视觉特性。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、计算当前第二图像中的每个像素点的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的结构相似度值记为ssime(k1),将当前第二图像中的纹理区域中的第k2个像素点的结构相似度值记为ssimt(k2),将当前第二图像中的平滑区域中的第k3个像素点的结构相似度值记为ssims(k3),其中,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数。
⑤-2、利用视觉感兴趣模型这一人眼视觉特性,计算当前第二图像中的边缘区域中的像素点的感知加权因子,记为λ,
Figure BDA00003088239000131
其中,ω1表示当前第二图像中由边缘区域中的所有可见失真点构成的感兴趣区域的感兴趣系数,
Figure BDA00003088239000132
ω2表示当前第二图像中由除边缘区域中的所有可见失真点外的所有像素点构成的非感兴趣区域的感兴趣系数,
Figure BDA00003088239000133
S1表示当前第二图像中的感兴趣区域所包含的像素点的个数即表示当前第二图像中的边缘区域中的可见失真点的个数,S2表示当前第二图像中的非感兴趣区域所包含的像素点的个数。
⑤-3、利用当前第二图像中的边缘区域中的像素点的感知加权因子λ,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值记为ssime′(k1),ssime′(k1)=λ×ssime(k1)。
⑥根据当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值、当前第二图像中的纹理区域中的每个像素点的结构相似度值、当前第二图像中的平滑区域中的每个像素点的结构相似度值,并采用线性加权方法,计算当前第二图像的质量分,记为qn q n = a 1 &times; 1 N 1 &Sigma; k 1 = 1 N 1 ssim e &prime; ( k 1 ) + a 2 &times; 1 N 2 &Sigma; k 2 = 1 N 2 ssim t ( k 2 ) + a 3 &times; 1 N 3 &Sigma; k 3 = 1 N 3 ssim s ( k 3 ) , 其中,a1表示当前第二图像中的边缘区域的加权权重,a2表示当前第二图像中的纹理区域的加权权重,a3表示当前第二图像中的平滑区域的加权权重,a1+a2+a3=1,由于人眼对于边缘区域比纹理区域敏感,对于纹理区域比平滑区域敏感,因此选择a1≥a2≥a3,在本实施例中取a1=0.9,取a2=0.05,取a3=0.05,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,ssime′(k1)表示当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值,ssimt(k2)表示当前第二图像中的纹理区域中的第k2个像素点的结构相似度值,ssims(k3)表示当前第二图像中的平滑区域中的第k3个像素点的结构相似度值。在此,赋予边缘区域、纹理区域和平滑区域不同权值并进行线性加权,充分利用了人眼基于内容的敏感性这一人眼视觉特性。
⑦令n=n+1,将Vorg中下一帧待处理的图像作为当前第一图像,将Vdis中下一帧待处理的图像作为当前第二图像,然后返回步骤②继续执行,直至Vorg和Vdis中的所有图像均处理完毕,得到Vdis中的每帧图像的质量分,其中,n=n+1中的“=”为赋值符号。
⑧对Vdis中的每帧图像的质量分进行低通滤波处理,得到Vdis中的每帧图像的滤波处理后的质量分,将Vdis中的第n帧图像的滤波处理后的质量分记为qn′, q n &prime; = q n - 1 + a _ &times; ( q n - q n - 1 ) ( q n - q n - 1 ) &le; 0,1 < n &le; frames q n - 1 + a + &times; ( q n - q n - 1 ) ( q n - q n - 1 ) > 0,1 < n &le; frames q n n = 1 , 其中,qn-1表示Vdis中的第n-1帧图像的质量分,qn表示Vdis中的第n帧图像的质量分,a-和a+均为低通滤波加权参数,a-<a+,在本实施例中取a-=0.04,a+=0.5,在此引入时域特性对图像的质量分进行低通滤波处理,通过利用低通滤波来模拟人眼的不对称感知特性,可有效提高评价结果与主观感知的相关性;然后将Vdis中由滤波处理后的质量分最低的h%帧图像构成的集合定义为较差图像集合;再根据较差图像集合中的每帧较差图像的滤波处理后的质量分,计算Vdis的总体质量评价客观值,记为Q,
Figure BDA00003088239000152
其中,NH表示较差图像集合中的较差图像的帧数,NH=h%×frames,h表示最差加权策略参数,1≤n′≤NH,qn′′表示较差图像集合中的第n′帧较差图像的滤波处理后的质量分。在此,利用不对称感知这一人眼视觉特性对Vdis中的每帧图像的质量分进行低通滤波处理。
在此具体实施例中,步骤⑧中h的获取过程为:
⑧-1、采用多个无失真的视频序列建立在不同失真类型不同失真程度下的失真视频库,该失真视频库包括多个失真的视频序列。
⑧-2、采用主观质量评价方法,获取该失真视频库中的每个失真的视频序列的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100]。
⑧-3、根据步骤①至步骤⑧的操作过程,获取该失真视频库中的每个失真视频序列的总体质量评价客观值Q,然后采用线性加权的拟合方法拟合该失真视频库中的每个失真视频序列的平均主观评分差值DMOS和每个失真视频序列的总体质量评价客观值Q,得到每个失真视频序列相对于对应的无失真的视频序列的客观评价尺度度量最优时的最差加权策略参数h。
在具体实验过程中,可根据失真的视频序列的失真类型确定h%的值,当失真类型为无线传输失真时,取h%=37%;当失真类型为IP网络传输失真时,取h%=56%;当失真类型为H.264编码失真时,取h%=86%;当失真类型为MPEG-2编码失真时,取h%=16%。
在此,针对不同失真类型的视频序列,本发明做了大量的优化实验,取视频序列的总体质量评价客观值最好时的最差加权策略参数h,具体实验如下:利用LIVE实验室提供的LIVE Video Database视频质量数据库提供的10组共150个失真的视频序列,对上述150个失真的视频序列和10个无失真的视频序列按本发明方法的步骤①至步骤⑧相同的操作计算得到每个失真的视频序列各自的总体质量评价客观值Q;然后采用线性加权得到这150个失真的视频序列的DMOS与总体质量评价客观值Q的函数关系式。h代表不同失真类型下选取的较差质量帧的比率,由于人眼对不同的失真敏感度也有所不同,对不同失真程度的敏感度也不同,根据这个特性,本发明统计了大量的参数,进行重复性实验,这里,利用评估视频质量评价方法常用的一个客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Correlation Coefficient,CC),CC相关系数反映失真的视频序列评价函数这一客观模型的准确性,CC值越大,说明评价性能越好,反之亦然,当Q与主观感知之间的一致性最好(即CC值最大)时,取不同类型的h值,即当失真类型为无线传输失真时,取h%=47%,当失真类型为IP网络传输失真时,取h%=56%,当失真类型为H.264编码失真时,取h%=83%,当失真类型为MPEG-2编码失真时,取h%=14%。
为说明本发明方法的有效性和可行性,分析本发明方法的客观评价结果与平均主观评分差值DMOS之间的相关性。由于主观实验过程中可能会引入一些非线性因素,需要将通过本发明方法得到的失真的视频序列的总体质量评价客观值Q做4参数Logistic函数非线性拟合,最终获得客观模型预测值DMOSp
Figure BDA00003088239000161
其中,a,b,c,d均为常量,exp()为以e为底的指数函数。图3a给出了针对整个视频质量数据库中的所有视频序列的客观模型预测值DMOSp与平均主观评分差值DMOS之间的散点图;图3b给出了针对整个视频质量数据库中的所有视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;图3c给出了存在无线传输失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;图3d给出了存在IP网络传输失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;图3e给出了存在H.264编码失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图;图3f给出了存在MPEG-2编码失真的视频序列的总体质量评价客观值Q与平均主观评分差值DMOS之间的散点图。在图3a至图3f中,散点越集中说明客观质量评价方法的评价性能越好,与主观评分之间的一致性越好。从图3a至图3f中可以看出本发明方法可以很好地区分低质量和高质量的视频序列,且评价性能较好。
在此,利用评估视频质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Correlation Coefficient,CC)、Spearman等级相关系数(Spearman Rank Order Correlation Coefficient,SROCC)、异常值比率指标(Outlier Ratio,OR)和均方根误差(Rooted Mean Squared Error,RMSE)。其中,CC用来反映客观评价方法预测的精确性,SROCC用来反映客观评价方法的预测单调性,CC和SROCC的值越接近于1,表示客观评价方法的性能越好;OR用来反映客观评价方法的离散程度,OR的值越接近于0,代表客观评价方法越好;RMSE用来反映客观评价方法的预测准确性,RMSE的值越小说明客观评价方法越好。反映准确性、单调性和离散率的CC、SROCC、OR和RMSE系数如表1所列,根据表1所列的数据可见,本发明方法的整体混合失真CC值和SROCC值均达到0.82以上,离散率OR为0,均方根误差RMSE低于6.2,按本实施例得到的失真的视频序列的总体质量评价客观值Q和平均主观评分差值DMOS之间的相关性较高,表明本发明方法的客观评价结果与人眼主观感知的结果较为一致,很好地说明了本发明方法的有效性。
表1失真的视频序列的总体质量评价客观值与平均主观评分差值之间的相关性
CC SROCC OR RMSE
无线传输失真 0.7450 0.7161 0 6.8829
IP网络传输失真 0.7923 0.7806 0 5.7104
H.264编码失真 0.8914 0.9006 0 4.9197
MPEG-2编码失真 0.8008 0.8052 0 5.7110
混合失真 0.8268 0.8242 0 6.1747

Claims (10)

1.一种基于人眼视觉特性的视频客观质量评价方法,其特征在于包括以下步骤:
①令Vorg为原始的无失真的视频序列,令Vdis为失真的视频序列,将Vorg中当前待处理的第n帧图像定义为当前第一图像,将Vdis中当前待处理的第n帧图像定义为当前第二图像,其中,1≤n≤frames,frames表示Vorg和Vdis各自包含的图像的帧数;
②将当前第一图像记为Yorg_n,将当前第二图像记为Ydis_n
③首先,计算当前第一图像中的每个像素点的梯度幅值,并计算当前第二图像中的每个像素点的梯度幅值;然后根据当前第一图像和当前第二图像中的每个像素点的梯度幅值,将当前第二图像划分为边缘区域、纹理区域和平滑区域;
④首先,计算当前第一图像的时域恰可察觉失真图;然后根据当前第一图像与当前第二图像的绝对差值图及当前第一图像的时域恰可察觉失真图,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点;
⑤首先,计算当前第二图像中的每个像素点的结构相似度值;然后,计算当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子;再利用当前第二图像中的边缘区域中的可见失真点的感知加权因子和不可见失真点的感知加权因子,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值;
⑥根据当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值、当前第二图像中的纹理区域中的每个像素点的结构相似度值、当前第二图像中的平滑区域中的每个像素点的结构相似度值,并采用线性加权方法,计算当前第二图像的质量分,记为qn q n = a 1 &times; 1 N 1 &Sigma; k 1 = 1 N 1 ssim e &prime; ( k 1 ) + a 2 &times; 1 N 2 &Sigma; k 2 = 1 N 2 ssim t ( k 2 ) + a 3 &times; 1 N 3 &Sigma; k 3 = 1 N 3 ssim s ( k 3 ) , 其中,a1表示当前第二图像中的边缘区域的加权权重,a2表示当前第二图像中的纹理区域的加权权重,a3表示当前第二图像中的平滑区域的加权权重,a1+a2+a3=1,a1≥a2≥a3,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,ssime'(k1)表示当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值,ssimt(k2)表示当前第二图像中的纹理区域中的第k2个像素点的结构相似度值,ssims(k3)表示当前第二图像中的平滑区域中的第k3个像素点的结构相似度值;
⑦令n=n+1,将Vorg中下一帧待处理的图像作为当前第一图像,将Vdis中下一帧待处理的图像作为当前第二图像,然后返回步骤②继续执行,直至Vorg和Vdis中的所有图像均处理完毕,得到Vdis中的每帧图像的质量分,其中,n=n+1中的“=”为赋值符号;
⑧对Vdis中的每帧图像的质量分进行低通滤波处理,得到Vdis中的每帧图像的滤波处理后的质量分,将Vdis中的第n帧图像的滤波处理后的质量分记为qn';然后将Vdis中由滤波处理后的质量分最低的h%帧图像构成的集合定义为较差图像集合;再根据较差图像集合中的每帧较差图像的滤波处理后的质量分,计算Vdis的总体质量评价客观值,记为Q,其中,NH表示较差图像集合中的较差图像的帧数,NH=h%×frames,h表示最差加权策略参数,1≤n'≤NH,qn''表示较差图像集合中的第n'帧较差图像的滤波处理后的质量分。
2.根据权利要求1所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤③的具体过程为:
③-1、利用水平方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿水平方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿水平方向的梯度值记为gxd(i,j);利用垂直方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿垂直方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿垂直方向的梯度值记为gyd(i,j);利用时间方向上的三维Sobel矩阵,分别计算当前第一图像和当前第二图像中的每个像素点沿时间方向的梯度值,将当前第一图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtr(i,j),将当前第二图像中坐标位置为(i,j)的像素点沿时间方向的梯度值记为gtd(i,j);其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度;
③-2、根据当前第一图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第一图像中的每个像素点的梯度幅值,将当前第一图像中坐标位置为(i,j)的像素点的梯度幅值记为Gorg_n(i,j), G org _ n ( i , j ) = g xr 2 ( i , j ) + g yr 2 ( i , j ) + g tr 2 ( i , j ) ;
根据当前第二图像中的每个像素点沿水平方向的梯度值、沿垂直方向的梯度值及沿时间方向的梯度值,计算当前第二图像中的每个像素点的梯度幅值,将当前第二图像中坐标位置为(i,j)的像素点的梯度幅值记为Gdis_n(i,j), G dis _ n ( i , j ) = g xd 2 ( i , j ) + g yd 2 ( i , j ) + g td 2 ( i , j ) ;
③-3、从当前第一图像中的所有像素点的梯度幅值中找出值最大的梯度幅值,将该值最大的梯度幅值记为Gorg,max
③-4、根据Gorg,max,计算第一区域划分阈值T1和第二区域划分阈值T2,T1=α×Gorg,max,T2=β×Gorg,max,其中,α和β均表示区域划分参数,α>β;
③-5、根据当前第一图像中的每个像素点的梯度幅值、当前第二图像中的每个像素点的梯度幅值、T1和T2,将当前第二图像划分为边缘区域、纹理区域和平滑区域。
3.根据权利要求2所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤③-4中取α=0.12,取β=0.06。
4.根据权利要求3所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤③-5的具体过程为:
③-5-a、将当前第一图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第一像素点,将当前第二图像中当前待处理的坐标位置为(i,j)的像素点定义为当前第二像素点;
③-5-b、当当前第一像素点的梯度幅值Gorg_n(i,j)大于T1或当前第二像素点的梯度幅值Gdis_n(i,j)大于T1时,将当前第二像素点归属于边缘区域;当当前第一像素点的梯度幅值Gorg_n(i,j)小于T2且当前第二像素点的梯度幅值Gdis_n(i,j)小于T1时,将当前第二像素点归属于纹理区域;当为其他情况时,将当前第二像素点归属于平滑区域;
③-5-c、令i=i+1,j=j+1,将当前第一图像中下一个待处理的像素点作为当前第一像素点,将当前第二图像中下一个待处理的像素点作为当前第二像素点,然后返回步骤③-5-b继续执行,直至当前第一图像和当前第二图像中的所有像素点均处理完毕,得到当前第二图像的边缘区域、纹理区域和平滑区域,其中,i=i+1,j=j+1中的“=”为赋值符号。
5.根据权利要求1至4中任一项所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤④的具体过程为:
④-1、计算当前第一图像与当前第二图像的绝对差值图,记为Dn,Dn=|Yorg_n-Ydis_n|,其中,符号“||”为取绝对值符号;
④-2、计算当前第一图像的时域恰可察觉失真图,记为JNDorg_n,将JNDorg_n中坐标位置为(i,j)的像素点的时域恰可察觉失真值记为jnd(i,j),jnd(i,j)=jndl(i,j)+jndt(i,j)-C×min{jndl(i,j),jndt(i,j)},其中,1≤i≤W,1≤j≤H,W表示Vorg和Vdis中的图像的宽度,H表示Vorg和Vdis中的图像的高度,jndl(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度阈值, jnd l ( i , j ) = 17 ( 1 - I ( i , j ) &OverBar; 127 ) + 3 0 &le; I ( i , j ) &OverBar; &le; 127 3 128 ( I ( i , j ) &OverBar; - 127 ) + 3 127 < I ( i , j ) &OverBar; &le; 255 ,
Figure FDA00003088238900042
表示当前第一图像中坐标位置为(i,j)的像素点的亮度均值,
Figure FDA00003088238900051
Figure FDA00003088238900052
,I(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的亮度值,I(i-3+x,j-3+y)表示当前第一图像中坐标位置为(i-3+x,j-3+y)的像素点的亮度值,B(x,y)表示5×5的低通滤波器中坐标位置为(x,y)处的值,jndt(i,j)表示当前第一图像中坐标位置为(i,j)的像素点的纹理阈值,jndt(i,j)=α'×G(i,j)+β',α'和β'为加权因子, &alpha; &prime; = 0.0001 &times; I ( i , j ) &OverBar; + 0.115 , &beta; &prime; = 0.5 - 0.01 &times; I ( i , j ) &OverBar; , G(i,j)表示当前第一图像中坐标位置为(i,j)的像素点分别通过水平方向、垂直方向、45°方向和135°方向的高通滤波器滤波处理后得到的四个值中的最大值,C为加权系数,min()为取最小值函数;
④-3、根据Dn和JNDorg_n,确定当前第二图像中的边缘区域中的每个像素点为可见失真点还是为不可见失真点,具体过程为:假设当前第二图像中坐标位置为(i,j)的像素点属于当前第二图像中的边缘区域,则判断jnd(i,j)是否小于Dn中坐标位置为(i,j)的像素点的像素值Dn(i,j),如果是,则确定当前第二图像中坐标位置为(i,j)的像素点为可见失真点,否则,确定当前第二图像中坐标位置为(i,j)的像素点为不可见失真点;其中,此处(i,j)∈Se,Se表示当前第二图像中的边缘区域中的所有像素点的坐标位置的集合。
6.根据权利要求5所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤④-2中取C=0.3。
7.根据权利要求6所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤⑤的具体过程为:
⑤-1、计算当前第二图像中的每个像素点的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的结构相似度值记为ssime(k1),将当前第二图像中的纹理区域中的第k2个像素点的结构相似度值记为ssimt(k2),将当前第二图像中的平滑区域中的第k3个像素点的结构相似度值记为ssims(k3),其中,1≤k1≤N1,1≤k2≤N2,1≤k3≤N3,N1表示当前第二图像中的边缘区域包含的像素点的个数,N2表示当前第二图像中的纹理区域包含的像素点的个数,N3表示当前第二图像中的平滑区域包含的像素点的个数,N1+N2+N3=N,N表示当前第二图像包含的像素点的个数;
⑤-2、计算当前第二图像中的边缘区域中的像素点的感知加权因子,记为λ,
Figure FDA00003088238900061
其中,ω1表示当前第二图像中由边缘区域中的所有可见失真点构成的感兴趣区域的感兴趣系数,
Figure FDA00003088238900062
ω2表示当前第二图像中由除边缘区域中的所有可见失真点外的所有像素点构成的非感兴趣区域的感兴趣系数,
Figure FDA00003088238900063
S1表示当前第二图像中的感兴趣区域所包含的像素点的个数,S2表示当前第二图像中的非感兴趣区域所包含的像素点的个数;
⑤-3、利用当前第二图像中的边缘区域中的像素点的感知加权因子λ,对当前第二图像中的边缘区域中的每个像素点的结构相似度值进行感知加权,得到当前第二图像中的边缘区域中的每个像素点的感知加权后的结构相似度值,将当前第二图像中的边缘区域中的第k1个像素点的感知加权后的结构相似度值记为ssime'(k1),ssime'(k1)=λ×ssime(k1)。
8.根据权利要求7所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤⑥中取a1=0.9,取a2=0.05,取a3=0.05。
9.根据权利要求8所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤⑧中 q n &prime; = q n - 1 + a _ &times; ( q n - q n - 1 ) ( q n - q n - 1 ) &le; 0,1 < n &le; frames q n - 1 + a + &times; ( q n - q n - 1 ) ( q n - q n - 1 ) > 0,1 < n &le; frames q n n = 1 , 其中,qn-1表示Vdis中的第n-1帧图像的质量分,qn表示Vdis中的第n帧图像的质量分,a-和a+均为低通滤波加权参数,a-<a+,a-=0.04,a+=0.5。
10.根据权利要求9所述的一种基于人眼视觉特性的视频客观质量评价方法,其特征在于所述的步骤⑧中h的获取过程为:
⑧-1、采用多个无失真的视频序列建立在不同失真类型不同失真程度下的失真视频库,该失真视频库包括多个失真的视频序列;
⑧-2、采用主观质量评价方法,获取该失真视频库中的每个失真的视频序列的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100];
⑧-3、根据步骤①至步骤⑧的操作过程,获取该失真视频库中的每个失真视频序列的总体质量评价客观值Q,然后采用线性加权的拟合方法拟合该失真视频库中的每个失真视频序列的平均主观评分差值DMOS和每个失真视频序列的总体质量评价客观值Q,得到每个失真视频序列相对于对应的无失真的视频序列的客观评价尺度度量最优时的最差加权策略参数h。
CN201310144463.0A 2013-04-23 2013-04-23 一种基于人眼视觉特性的视频客观质量评价方法 Expired - Fee Related CN103281554B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310144463.0A CN103281554B (zh) 2013-04-23 2013-04-23 一种基于人眼视觉特性的视频客观质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310144463.0A CN103281554B (zh) 2013-04-23 2013-04-23 一种基于人眼视觉特性的视频客观质量评价方法

Publications (2)

Publication Number Publication Date
CN103281554A true CN103281554A (zh) 2013-09-04
CN103281554B CN103281554B (zh) 2015-04-29

Family

ID=49063978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310144463.0A Expired - Fee Related CN103281554B (zh) 2013-04-23 2013-04-23 一种基于人眼视觉特性的视频客观质量评价方法

Country Status (1)

Country Link
CN (1) CN103281554B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103533348A (zh) * 2013-09-26 2014-01-22 上海大学 基于视觉感知的多视点快速模式选择方法
CN103544708A (zh) * 2013-10-31 2014-01-29 南京邮电大学 一种基于mmtd的图像质量客观评价方法
CN104394405A (zh) * 2014-11-19 2015-03-04 同济大学 一种基于全参考图像的客观质量评价方法
CN105959684A (zh) * 2016-05-26 2016-09-21 天津大学 基于双目融合的立体图像质量评价方法
CN105979266A (zh) * 2016-05-06 2016-09-28 西安电子科技大学 一种基于帧间关联与时隙最差的时域信息融合方法
WO2017004889A1 (zh) * 2015-07-08 2017-01-12 北京大学深圳研究生院 基于jnd因子的超像素高斯滤波预处理方法
CN106973281A (zh) * 2017-01-19 2017-07-21 宁波大学 一种虚拟视点视频质量预测方法
CN106375754B (zh) * 2015-07-22 2018-03-06 中国人民解放军理工大学 基于视觉刺激衰减特性的无参考视频质量评估方法
CN108055533A (zh) * 2017-01-04 2018-05-18 北京航空航天大学 一种针对全景视频的主观质量评价方法
CN114071166A (zh) * 2020-08-04 2022-02-18 四川大学 一种结合qp检测的hevc压缩视频质量提升方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101562758A (zh) * 2009-04-16 2009-10-21 浙江大学 基于区域权重和人眼视觉特性的图像质量客观评价方法
CN100584047C (zh) * 2008-06-25 2010-01-20 厦门大学 面向无线网络的视频质量自动评测系统及其评测方法
CN102142145A (zh) * 2011-03-22 2011-08-03 宁波大学 一种基于人眼视觉特性的图像质量客观评价方法
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102821301A (zh) * 2012-08-31 2012-12-12 天津大学 基于hvs的立体信息客观质量评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100584047C (zh) * 2008-06-25 2010-01-20 厦门大学 面向无线网络的视频质量自动评测系统及其评测方法
CN101562758A (zh) * 2009-04-16 2009-10-21 浙江大学 基于区域权重和人眼视觉特性的图像质量客观评价方法
CN102142145A (zh) * 2011-03-22 2011-08-03 宁波大学 一种基于人眼视觉特性的图像质量客观评价方法
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102821301A (zh) * 2012-08-31 2012-12-12 天津大学 基于hvs的立体信息客观质量评价方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
刘江挺: "视频质量客观评价方法研究", 《万方学位论文》 *
叶盛楠: "基于结构相似性的视频/图像质量客观评价", 《万方学位论文》 *
张文俊,王兴国,陈国斌: "一种基于视觉感知的视频质量客观评价方法", 《PROGRAM PRODUCTION & BROADCASTING》 *
蒲翠翠 等: "一种基于视觉感知的视频质量客观评价方法", 《图像图形技术研究与应用》 *
邹军 等: "基于边缘结构相似性的视频质量客观评价", 《数字视频》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103533348A (zh) * 2013-09-26 2014-01-22 上海大学 基于视觉感知的多视点快速模式选择方法
CN103533348B (zh) * 2013-09-26 2017-02-01 上海大学 基于视觉感知的多视点快速模式选择方法
CN103544708B (zh) * 2013-10-31 2017-02-22 南京邮电大学 一种基于mmtd的图像质量客观评价方法
CN103544708A (zh) * 2013-10-31 2014-01-29 南京邮电大学 一种基于mmtd的图像质量客观评价方法
CN104394405A (zh) * 2014-11-19 2015-03-04 同济大学 一种基于全参考图像的客观质量评价方法
WO2017004889A1 (zh) * 2015-07-08 2017-01-12 北京大学深圳研究生院 基于jnd因子的超像素高斯滤波预处理方法
CN106375754B (zh) * 2015-07-22 2018-03-06 中国人民解放军理工大学 基于视觉刺激衰减特性的无参考视频质量评估方法
CN105979266B (zh) * 2016-05-06 2019-01-29 西安电子科技大学 一种基于帧间关联与时隙最差的时域信息融合方法
CN105979266A (zh) * 2016-05-06 2016-09-28 西安电子科技大学 一种基于帧间关联与时隙最差的时域信息融合方法
CN105959684A (zh) * 2016-05-26 2016-09-21 天津大学 基于双目融合的立体图像质量评价方法
CN105959684B (zh) * 2016-05-26 2019-05-14 天津大学 基于双目融合的立体图像质量评价方法
CN108055533A (zh) * 2017-01-04 2018-05-18 北京航空航天大学 一种针对全景视频的主观质量评价方法
CN108055533B (zh) * 2017-01-04 2020-03-27 北京航空航天大学 一种针对全景视频的主观质量评价方法
CN106973281A (zh) * 2017-01-19 2017-07-21 宁波大学 一种虚拟视点视频质量预测方法
CN106973281B (zh) * 2017-01-19 2018-12-07 宁波大学 一种虚拟视点视频质量预测方法
CN114071166A (zh) * 2020-08-04 2022-02-18 四川大学 一种结合qp检测的hevc压缩视频质量提升方法
CN114071166B (zh) * 2020-08-04 2023-03-03 四川大学 一种结合qp检测的hevc压缩视频质量提升方法

Also Published As

Publication number Publication date
CN103281554B (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
CN103281554B (zh) 一种基于人眼视觉特性的视频客观质量评价方法
CN102075786B (zh) 一种图像客观质量评价方法
CN104902267B (zh) 一种基于梯度信息的无参考图像质量评价方法
Tian et al. A multi-order derivative feature-based quality assessment model for light field image
CN103295191B (zh) 多尺度视觉自适应图像增强方法及评价方法
CN101562675B (zh) 基于Contourlet变换的无参考型图像质量评测方法
CN105407349B (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN102036098B (zh) 一种基于视觉信息量差异的全参考型图像质量评价方法
CN101976444A (zh) 一种基于像素类型的结构类似性图像质量客观评价方法
CN102333233A (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104811691A (zh) 一种基于小波变换的立体视频质量客观评价方法
CN100583145C (zh) 基于内容相关图像尺寸调整的保真度评测方法
CN103354617B (zh) 一种基于dct域的边缘强度压缩的图像质量客观评价方法
CN102984540A (zh) 一种基于宏块域失真度估计的视频质量评价方法
CN104574424B (zh) 基于多分辨率dct边缘梯度统计的无参照图像模糊度评价方法
CN104574391A (zh) 一种基于自适应特征窗口的立体视觉匹配方法
CN106412571A (zh) 一种基于梯度相似性标准差的视频质量评价方法
CN104036493A (zh) 一种基于多重分形谱的无参考图像质量评价方法
CN102722888A (zh) 基于生理与心理立体视觉的立体图像客观质量评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN105139394A (zh) 结合仿射重建和噪声散点直方图的噪声图像质量评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN114596287A (zh) 图像质量确定方法、装置、设备和存储介质
CN108848365B (zh) 一种重定位立体图像质量评价方法
CN106022362A (zh) 针对jpeg2000压缩失真的无参考图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150429

Termination date: 20210423

CF01 Termination of patent right due to non-payment of annual fee