CN103136748A - 一种基于特征图的立体图像质量客观评价方法 - Google Patents

一种基于特征图的立体图像质量客观评价方法 Download PDF

Info

Publication number
CN103136748A
CN103136748A CN2013100222375A CN201310022237A CN103136748A CN 103136748 A CN103136748 A CN 103136748A CN 2013100222375 A CN2013100222375 A CN 2013100222375A CN 201310022237 A CN201310022237 A CN 201310022237A CN 103136748 A CN103136748 A CN 103136748A
Authority
CN
China
Prior art keywords
dis
org
pixel point
value
dsi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100222375A
Other languages
English (en)
Other versions
CN103136748B (zh
Inventor
邵枫
胡朝正
蒋刚毅
郁梅
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Yongsheng Information Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310022237.5A priority Critical patent/CN103136748B/zh
Publication of CN103136748A publication Critical patent/CN103136748A/zh
Application granted granted Critical
Publication of CN103136748B publication Critical patent/CN103136748B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于特征图的立体图像质量客观评价方法,其首先分别计算原始的无失真的立体图像和待评价的失真的立体图像的视差空间图,再根据待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,计算两个视差空间图之间的第一结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值,优点在于获得的视差空间图能够很好地反映不同视差对立体图像质量的影响,并且根据特征图计算得到的结构相似度,能够较好地反映立体图像的质量变化情况,使得评价结果更加感觉符合人类视觉系统,从而有效地提高了客观评价结果与主观感知的相关性。

Description

一种基于特征图的立体图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于特征图的立体图像质量客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。由于受到采集系统、存储压缩及传输设备的影响,立体图像会不可避免地引入一系列的失真,而与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。
目前的立体图像质量客观评价方法是将平面图像质量评价方法直接应用于评价立体图像质量,或通过评价视差图的质量来评价立体图像的深度感知,然而,对立体图像进行融合产生立体感的过程并不是简单的平面图像质量评价方法的扩展,并且人眼并不直接观看视差图,以视差图的质量来评价立体图像的深度感知并不十分准确。因此,如何在立体图像质量评价过程中有效地对双目立体感知过程进行模拟,如何将立体图像特征信息融合到立体图像质量评价过程中,使得评价结果能够更加客观地反映人类视觉系统,都是在对立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种能够有效地提高客观评价结果与主观感知的相关性的基于特征图的立体图像质量客观评价方法。
本发明解决上述技术问题所采用的技术方案为:一种基于特征图的立体图像质量客观评价方法,其特征在于它的处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。
上述的一种基于特征图的立体图像质量客观评价方法,其具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值;
③利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00002755085700031
其中,表示
Figure BDA00002755085700033
中坐标位置为(x,y)的像素点的双目最小可察觉变化值;
④采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为
Figure BDA00002755085700034
然后计算
Figure BDA00002755085700035
的视差梯度图像,记为
Figure BDA00002755085700036
Figure BDA00002755085700037
中坐标位置为(x,y)的像素点的梯度值记为 G org L ( x , y ) = | G ox L ( x , y ) | + | G oy L ( x , y ) | , 其中,
Figure BDA000027550857000310
表示
Figure BDA000027550857000311
中坐标位置为(x,y)的像素点的像素值,
Figure BDA000027550857000312
表示
Figure BDA000027550857000313
中坐标位置为(x,y)的像素点的水平梯度值,表示
Figure BDA000027550857000315
中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号;
⑤根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA000027550857000316
的视差梯度图像计算Sorg的视差空间图{DSIorg(x,y,d)}和Sdis的视差空间图{DSIdis(x,y,d)}之间的结构相似度,得到Sdis的图像质量客观评价预测值,记为Q;
⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1;
⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。
所述的步骤②中Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:
②-a1、将{Lorg(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-a3、选取dmax个与d0各不相同的视差值,分别记为
Figure BDA00002755085700041
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI org ( x 1 , y 1 , d 1 ) , DSI org ( x 1 , y 1 , d 2 ) , . . . , DSI org ( x 1 , y 1 , d i ) , . . . , DSI org ( x 1 , y 1 , d d max ) , DSIorg(x1,y1,d1)=|Lorg(x1,y1)-Rorg(x1-d1,y1)|,DSIorg(x1,y1,d2)=|Lorg(x1,y1)-Rorg(x1-d2,y1)|,DSIorg(x1,y1,di)=|Lorg(x1,y1)-Rorg(x1-di,y1)|, DSI org ( x 1 , y 1 , d d max ) = | L org ( x 1 , y 1 ) - R org ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure BDA00002755085700048
DSIorg(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIorg(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIorg(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure BDA00002755085700044
表示当前第一像素点和当前第二像素点在视差值
Figure BDA00002755085700045
下的视差空间值,Rorg(x1-d1,y1)表示{Rorg(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rorg(x1-d2,y1)表示{Rorg(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rorg(x1-di,y1)表示{Rorg(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure BDA00002755085700046
表示{Rorg(x,y)}中坐标位置为的像素点的像素值;
②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
所述的步骤②中Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:
②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-b3、选取dmax个与d0各不相同的视差值,分别记为
Figure BDA00002755085700052
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI dis ( x 1 , y 1 , d 1 ) , DSI dis ( x 1 , y 1 , d 2 ) , . . . , DSI dis ( x 1 , y 1 , d i ) , . . . , DSI dis ( x 1 , y 1 , d d max ) , DSIdis(x1,y1,d1)=|Ldis(x1,y1)-Rdis(x1-d1,y1)|,DSIdis(x1,y1,d2)=|Ldis(x1,y1)-Rdis(x1-d2,y1)|,DSIdis(x1,y1,di)=|Ldis(x1,y1)-Rdis(x1-di,y1)|, DSI dis ( x 1 , y 1 , d d max ) = | L dis ( x 1 , y 1 ) - R dis ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure BDA00002755085700061
DSIdis(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIdis(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIdis(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure BDA00002755085700062
表示当前第一像素点和当前第二像素点在视差值
Figure BDA00002755085700063
下的视差空间值,Rdis(x1-d1,y1)表示{Rdis(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rdis(x1-d2,y1)表示{Rdis(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rdis(x1-di,y1)表示{Rdis(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure BDA00002755085700064
表示{Rdis(x,y)}中坐标位置为的像素点的像素值;
②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
所述的步骤③的具体过程为:
③-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure BDA00002755085700067
其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;
③-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00002755085700071
Figure BDA00002755085700072
中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为 J dis L ( x , y ) , J dis L ( x , y ) = T l ( x , y ) + T c ( x , y ) .
所述的步骤⑤的具体过程为:
⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成
Figure BDA00002755085700075
个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度;
⑤-2、将{DSIorg(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为
Figure BDA00002755085700076
将{DSIdis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为
Figure BDA00002755085700077
其中,
Figure BDA00002755085700078
(u1,v1,w1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u1≤α,1≤v1≤β,1≤w1≤γ,
Figure BDA00002755085700079
表示当前第一单元中坐标位置为(u1,v1,w1)的像素点的像素值,
Figure BDA000027550857000710
表示当前第二单元中坐标位置为(u1,v1,w1)的像素点的像素值;
⑤-3、根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA000027550857000711
计算当前第一单元的第一均值和第一标准差,分别记为
Figure BDA000027550857000712
Figure BDA000027550857000713
Figure BDA000027550857000714
Figure BDA00002755085700081
计算当前第二单元的第一均值和第一标准差,分别记为
Figure BDA00002755085700082
Figure BDA00002755085700084
Figure BDA00002755085700085
其中, ω 1 ( u 1 , v 1 , w 1 ) = 1 ( J dis L ( u 1 , v 1 ) + T 1 ) × ( DSI dis ( u 1 , v 1 , w 1 ) + T 1 ) , 表示中坐标位置为(u1,v1)的像素点的双目最小可察觉变化值,DSIdis(u1,v1,w1)表示{DSIdis(x,y,d)}中坐标位置为(u1,v1,w1)的像素点的视差空间值,Tl为控制参数;
⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q1,l
Figure BDA00002755085700089
其中,C1和C2均为控制参数;
⑤-5、根据
Figure BDA000027550857000810
的视差梯度图像
Figure BDA000027550857000811
计算当前第一单元的第二均值和第二标准差,分别记为
Figure BDA000027550857000812
Figure BDA000027550857000813
Figure BDA000027550857000814
Figure BDA000027550857000815
计算当前第二单元的第二均值和第二标准差,分别记为
Figure BDA00002755085700091
Figure BDA00002755085700092
Figure BDA00002755085700093
其中, ω 2 ( u 1 , v 1 ) = 1 G org L ( u 1 , v 1 ) + T 1 ,
Figure BDA00002755085700096
表示
Figure BDA00002755085700097
中坐标位置为(u1,v1)的像素点的梯度值;
⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q2,l
Figure BDA00002755085700098
⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数;
⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为
Figure BDA00002755085700099
其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号;
⑤-9、将
Figure BDA000027550857000910
中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } , 然后取 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的前ρ%个结构相似度来计算Sdis的图像质量客观评价预测值,记为Q,
Figure BDA000027550857000913
其中,表示 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的第l个结构相似度, M = W × H × d max α × β × γ × ρ % .
所述的步骤⑤-1中取α=5、β=5、γ=5。
所述的控制参数Tl的值为1;所述的控制参数C1的值为6.5025,所述的控制参数C2的值为58.5225。
所述的步骤⑤-7中取τ=0.6、υ=-0.1。
所述的步骤⑤-9中取ρ=2。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到视差对立体感知的影响,分别构造原始的无失真的立体图像和待评价的失真的立体图像的视差空间图,这样避免了复杂的视差估计操作,并且所构造的视差空间图能够很好地反映不同视差对立体图像质量的影响,并且只对结构相似度较低的单元进行评价,从而有效地提高了客观评价结果与主观感知的相关性。
2)本发明方法根据特征图(双目最小可察觉变化图像和视差梯度图像),分别计算两个视差空间图之间的第一结构相似度和第二结构相似度,这样能够较好地反映立体图像的质量变化情况,使得评价结果更加感觉符合人类视觉系统,从而有效地提高了客观评价结果与主观感知的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2a为Akko(尺寸为640×480)立体图像的左视点图像;
图2b为Akko(尺寸为640×480)立体图像的右视点图像;
图3a为Altmoabit(尺寸为1024×768)立体图像的左视点图像;
图3b为Altmoabit(尺寸为1024×768)立体图像的右视点图像;
图4a为Balloons(尺寸为1024×768)立体图像的左视点图像;
图4b为Balloons(尺寸为1024×768)立体图像的右视点图像;
图5a为Doorflower(尺寸为1024×768)立体图像的左视点图像;
图5b为Doorflower(尺寸为1024×768)立体图像的右视点图像;
图6a为Kendo(尺寸为1024×768)立体图像的左视点图像;
图6b为Kendo(尺寸为1024×768)立体图像的右视点图像;
图7a为LeaveLaptop(尺寸为1024×768)立体图像的左视点图像;
图7b为LeaveLaptop(尺寸为1024×768)立体图像的右视点图像;
图8a为Lovebierd1(尺寸为1024×768)立体图像的左视点图像;
图8b为Lovebierd1(尺寸为1024×768)立体图像的右视点图像;
图9a为Newspaper(尺寸为1024×768)立体图像的左视点图像;
图9b为Newspaper(尺寸为1024×768)立体图像的右视点图像;
图10a为Puppy(尺寸为720×480)立体图像的左视点图像;
图10b为Puppy(尺寸为720×480)立体图像的右视点图像;
图11a为Soccer2(尺寸为720×480)立体图像的左视点图像;
图11b为Soccer2(尺寸为720×480)立体图像的右视点图像;
图12a为Horse(尺寸为720×480)立体图像的左视点图像;
图12b为Horse(尺寸为720×480)立体图像的右视点图像;
图13a为Xmas(尺寸为640×480)立体图像的左视点图像;
图13b为Xmas(尺寸为640×480)立体图像的右视点图像;
图14为失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于特征图的立体图像质量客观评价方法,其总体实现框图如图1所示,其处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据特征图即待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。
本发明的立体图像质量客观评价方法,其具体包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值,在本实施例中,取dmax=31。
在此具体实施例中,Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:
②-a1、将{Lorg (x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点。
②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。
②-a3、选取dmax个与d0各不相同的视差值,分别记为
Figure BDA00002755085700131
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI org ( x 1 , y 1 , d 1 ) , DSI org ( x 1 , y 1 , d 2 ) , . . . , DSI org ( x 1 , y 1 , d i ) , . . . , DSI org ( x 1 , y 1 , d d max ) , DSIorg(x1,y1,d1)=|Lorg(x1,y1)-Rorg(x1-d1,y1)|,DSIorg(x1,y1,d2)=|Lorg(x1,y1)-Rorg(x1-d2,y1)|,DSIorg(x1,y1,di)=|Lorg(x1,y1)-Rorg(x1-di,y1)|, DSI org ( x 1 , y 1 , d d max ) = | L org ( x 1 , y 1 ) - R org ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure BDA00002755085700134
DSIorg(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIorg(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIorg(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure BDA00002755085700135
表示当前第一像素点和当前第二像素点在视差值
Figure BDA00002755085700136
下的视差空间值,Rorg(x1-d1,y1)表示{Rorg(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rorg(x1-d2,y1)表示{Rorg(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rorg(x1-di,y1)表示{Rorg(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure BDA00002755085700137
表示{Rorg(x,y)}中坐标位置为的像素点的像素值。
②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
在此具体实施例中,Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:
②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点。
②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。
②-b3、选取dmax个与d0各不相同的视差值,分别记为
Figure BDA00002755085700142
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI dis ( x 1 , y 1 , d 1 ) , DSI dis ( x 1 , y 1 , d 2 ) , . . . , DSI dis ( x 1 , y 1 , d i ) , . . . , DSI dis ( x 1 , y 1 , d d max ) , DSIdis(x1,y1,d1)=|Ldis(x1,y1)-Rdis(x1-d1,y1)|,DSIdis(x1,y1,d2)=|Ldis(x1,y1)-Rdis(x1-d2,y1)|,DSIdis(x1,y1,di)=|Ldis(x1,y1)-Rdis(x1-di,y1)|, DSI dis ( x 1 , y 1 , d d max ) = | L dis ( x 1 , y 1 ) - R dis ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure BDA00002755085700145
DSIdis(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIdis(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIdis(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure BDA00002755085700151
表示当前第一像素点和当前第二像素点在视差值
Figure BDA00002755085700152
下的视差空间值,Rdis(x1-d1,y1)表示{Rdis(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rdis(x1-d2,y1)表示{Rdis(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rdis(x1-di,y1)表示{Rdis(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure BDA00002755085700153
表示{Rdis(x,y)}中坐标位置为
Figure BDA00002755085700154
的像素点的像素值。
②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
③人类视觉特性表明,人眼对图像中变化较小的属性或噪声是不可感知的,除非该属性或噪声的变化强度超过某一阈值,该阈值就是最小可察觉失真(Just noticeabledifference,JND)。然而人眼的视觉掩蔽效应是一种局部效应,其受背景照度、纹理复杂度等因素的影响,背景越亮,纹理越复杂,界限值就越高。因此本发明利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00002755085700156
其中,表示
Figure BDA00002755085700158
中坐标位置为(x,y)的像素点的双目最小可察觉变化值。
在此具体实施例中,步骤③的具体过程为:
③-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure BDA00002755085700159
其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值。
③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07。
③-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure BDA00002755085700161
Figure BDA00002755085700162
中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为 J dis L ( x , y ) , J dis L ( x , y ) = T l ( x , y ) + T c ( x , y ) .
④采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为
Figure BDA00002755085700165
然后计算
Figure BDA00002755085700166
的视差梯度图像,记为
Figure BDA00002755085700167
Figure BDA00002755085700168
中坐标位置为(x,y)的像素点的梯度值记为
Figure BDA00002755085700169
G org L ( x , y ) = | G ox L ( x , y ) | + | G oy L ( x , y ) | , 其中,
Figure BDA000027550857001611
表示
Figure BDA000027550857001612
中坐标位置为(x,y)的像素点的像素值,
Figure BDA000027550857001613
表示
Figure BDA000027550857001614
中坐标位置为(x,y)的像素点的水平梯度值,
Figure BDA000027550857001615
表示
Figure BDA000027550857001616
中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号。
⑤根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA000027550857001617
Figure BDA000027550857001618
的视差梯度图像
Figure BDA000027550857001619
计算Sorg的视差空间图{DSIorg(x,y,d)}和Sdis的视差空间图{DSIdis(x,y,d)}之间的结构相似度,得到Sdis的图像质量客观评价预测值,记为Q。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度,不同尺寸大小的单元对后续计算两个单元的结构相似度存在影响,通过大量实验验证,当α、β和γ的值均取5时,效果最优,因此在本实施例中,取α=5、β=5、γ=5。
⑤-2、将{DSIorg(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为
Figure BDA00002755085700171
将{DSIdis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为其中,
Figure BDA00002755085700173
(u1,v1,w1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u1≤α,1≤v1≤β,1≤w1≤γ,
Figure BDA00002755085700174
表示当前第一单元中坐标位置为(u1,v1,w1)的像素点的像素值,
Figure BDA00002755085700175
表示当前第二单元中坐标位置为(u1,v1,w1)的像素点的像素值。
⑤-3、根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure BDA00002755085700176
计算当前第一单元的第一均值和第一标准差,分别记为
Figure BDA00002755085700177
Figure BDA00002755085700178
Figure BDA00002755085700179
计算当前第二单元的第一均值和第一标准差,分别记为
Figure BDA000027550857001711
Figure BDA000027550857001712
Figure BDA000027550857001713
Figure BDA000027550857001714
其中, ω 1 ( u 1 , v 1 , w 1 ) = 1 ( J dis L ( u 1 , v 1 ) + T 1 ) × ( DSI dis ( u 1 , v 1 , w 1 ) + T 1 ) ,
Figure BDA000027550857001716
表示
Figure BDA000027550857001717
中坐标位置为(u1,v1)的像素点的双目最小可察觉变化值,DSIdis(u1,v1,w1)表示{DSIdis(x,y,d)}中坐标位置为(u1,v1,w1)的像素点的视差空间值,Tl为控制参数,在本实施例中,取Tl=1。
⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q1,l
Figure BDA00002755085700181
其中,C1和C2均为控制参数,在本实施例中,取C1=6.5025,C2=58.5225。
⑤-5、根据
Figure BDA00002755085700182
的视差梯度图像计算当前第一单元的第二均值和第二标准差,分别记为
Figure BDA00002755085700185
Figure BDA00002755085700187
计算当前第二单元的第二均值和第二标准差,分别记为
Figure BDA00002755085700188
Figure BDA00002755085700189
Figure BDA000027550857001810
Figure BDA000027550857001811
其中, ω 2 ( u 1 , v 1 ) = 1 G org L ( u 1 , v 1 ) + T 1 , 表示
Figure BDA000027550857001814
中坐标位置为(u1,v1)的像素点的梯度值。
⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q2,l
Figure BDA000027550857001815
⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数,在本实施例中,取τ=0.6、υ=-0.1。
⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号。
⑤-9、将
Figure BDA00002755085700192
中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } , 然后取 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的前ρ%个结构相似度来计算Sdis的图像质量客观评价预测值,记为Q,
Figure BDA00002755085700195
其中,
Figure BDA00002755085700196
表示 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的第l个结构相似度, M = W × H × d max α × β × γ × ρ % . 在本实施例中,取ρ=2。
⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1。
在本实施例中,利用如图2a和图2b构成的立体图像、图3a和图3b构成的立体图像、图4a和图4b构成的立体图像、图5a和图5b构成的立体图像、图6a和图6b构成的立体图像、图7a和图7b构成的立体图像、图8a和图8b构成的立体图像、图9a和图9b构成的立体图像、图10a和图10b构成的立体图像、图11a和图11b构成的立体图像、图12a和图12b构成的立体图像、图13a和图13b构成的立体图像共12幅(n=12)无失真的立体图像建立了其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合共包括4种失真类型的252幅失真的立体图像,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,高斯模糊(Gaussian Blur)的失真的立体图像共60幅,H.264编码的失真的立体图像共72幅。
⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。
采用图2a至图13b所示的12幅无失真的立体图像在不同程度的JPEG压缩、JPEG2000压缩、高斯模糊和H.264编码失真情况下的252幅失真的立体图像来分析本实施例得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squarederror,RMSE),PLCC和RMSE反映失真的立体图像评价客观模型的准确性,SROCC和KROCC反映其单调性。将分别采用本发明方法与不采用本发明方法得到失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差进行比较,比较结果分别如表1、表2、表3和表4所示,从表1、表2、表3和表4中可以看出,采用本发明方法得到的失真的立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,充分表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
图14给出了失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评介结果与主观感知的一致性越好。从图14中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。
表1利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数比较
Figure BDA00002755085700201
表2利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Spearman相关系数比较
失真类型 JPEG压 JPEG2000 高斯模 白噪声 H.264编 所有失
压缩
不利用本发明方法 0.9087 0.8340 0.9610 0.7345 0.8679 0.9081
利用本发明方法 0.9266 0.9203 0.9594 0.9188 0.9329 0.9458
表3利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Kendall相关系数比较
Figure BDA00002755085700211
表4利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的均方误差比较
Figure BDA00002755085700212

Claims (10)

1.一种基于特征图的立体图像质量客观评价方法,其特征在于它的处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。
2.根据权利要求1所述的一种基于特征图的立体图像质量客观评价方法,其特征在于包括以下步骤:
①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值;
③利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{Ldis(x,y)}的双目最小可察觉变化图像,记为其中,表示
Figure FDA00002755085600023
中坐标位置为(x,y)的像素点的双目最小可察觉变化值;
④采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为
Figure FDA00002755085600024
然后计算
Figure FDA00002755085600025
的视差梯度图像,记为
Figure FDA00002755085600026
中坐标位置为(x,y)的像素点的梯度值记为
Figure FDA00002755085600028
G org L ( x , y ) = | G ox L ( x , y ) | + | G oy L ( x , y ) | , 其中,表示
Figure FDA000027550856000211
中坐标位置为(x,y)的像素点的像素值,表示
Figure FDA000027550856000213
中坐标位置为(x,y)的像素点的水平梯度值,
Figure FDA000027550856000214
表示
Figure FDA000027550856000215
中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号;
⑤根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure FDA000027550856000217
的视差梯度图像
Figure FDA000027550856000218
计算Sorg的视差空间图{DSIorg(x,y,d)}和Sdis的视差空间图{DSIdis(x,y,d)}之间的结构相似度,得到Sdis的图像质量客观评价预测值,记为Q;
⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1;
⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。
3.根据权利要求2所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤②中Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:
②-a1、将{Lorg(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-a3、选取dmax个与d0各不相同的视差值,分别记为
Figure FDA00002755085600031
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI org ( x 1 , y 1 , d 1 ) , DSI org ( x 1 , y 1 , d 2 ) , . . . , DSI org ( x 1 , y 1 , d i ) , . . . , DSI org ( x 1 , y 1 , d d max ) , DSIorg(x1,y1,d1)=|Lorg(x1,y1)-Rorg(x1-d1,y1)|,DSIorg(x1,y1,d2)=|Lorg(x1,y1)-Rorg(x1-d2,y1)|,DSIorg(x1,y1,di)=|Lorg(x1,y1)-Rorg(x1-di,y1)|, DSI org ( x 1 , y 1 , d d max ) = | L org ( x 1 , y 1 ) - R org ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure FDA00002755085600034
DSIorg(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIorg(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIorg(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure FDA00002755085600035
表示当前第一像素点和当前第二像素点在视差值下的视差空间值,Rorg(x1-d1,y1)表示{Rorg(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rorg(x1-d2,y1)表示{Rorg(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rorg(x1-di,y1)表示{Rorg(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure FDA00002755085600041
表示{Rorg(x,y)}中坐标位置为
Figure FDA00002755085600042
的像素点的像素值;
②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
4.根据权利要求2所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤②中Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:
②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点;
②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;
②-b3、选取dmax个与d0各不相同的视差值,分别记为
Figure FDA00002755085600044
然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为 DSI dis ( x 1 , y 1 , d 1 ) , DSI dis ( x 1 , y 1 , d 2 ) , . . . , DSI dis ( x 1 , y 1 , d i ) , . . . , DSI dis ( x 1 , y 1 , d d max ) , DSIdis(x1,y1,d1)=|Ldis(x1,y1)-Rdis(x1-d1,y1)|,DSIdis(x1,y1,d2)=|Ldis(x1,y1)-Rdis(x1-d2,y1)|,DSIdis(x1,y1,di)=|Ldis(x1,y1)-Rdis(x1-di,y1)|, DSI dis ( x 1 , y 1 , d d max ) = | L dis ( x 1 , y 1 ) - R dis ( x 1 - d d max , y 1 ) | , 其中,1≤i≤dmax,di=d0+i,
Figure FDA00002755085600052
DSIdis(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIdis(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIdis(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,
Figure FDA00002755085600053
表示当前第一像素点和当前第二像素点在视差值
Figure FDA00002755085600054
下的视差空间值,Rdis(x1-d1,y1)表示{Rdis(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rdis(x1-d2,y1)表示{Rdis(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rdis(x1-di,y1)表示{Rdis(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,
Figure FDA00002755085600055
表示{Rdis(x,y)}中坐标位置为的像素点的像素值;
②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值, d 0 ≤ d ≤ d d max .
5.根据权利要求2至4中任一项所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤③的具体过程为:
③-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},
Figure FDA00002755085600058
其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;
③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;
③-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为
Figure FDA00002755085600061
Figure FDA00002755085600062
中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为 J dis L ( x , y ) , J dis L ( x , y ) = T l ( x , y ) + T c ( x , y ) .
6.根据权利要求5所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤⑤的具体过程为:
⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成
Figure FDA00002755085600065
个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度;
⑤-2、将{DSIorg(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为
Figure FDA00002755085600066
将{DSIdis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为
Figure FDA00002755085600067
其中,
Figure FDA00002755085600068
(u1,v1,w1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u1≤α,1≤v1≤β,1≤w1≤γ,
Figure FDA00002755085600069
表示当前第一单元中坐标位置为(u1,v1,w1)的像素点的像素值,
Figure FDA000027550856000610
表示当前第二单元中坐标位置为(u1,v1,w1)的像素点的像素值;
⑤-3、根据{Ldis(x,y)}的双目最小可察觉变化图像
Figure FDA000027550856000611
计算当前第一单元的第一均值和第一标准差,分别记为
Figure FDA00002755085600072
Figure FDA00002755085600073
Figure FDA00002755085600074
计算当前第二单元的第一均值和第一标准差,分别记为
Figure FDA00002755085600076
Figure FDA00002755085600078
其中, ω 1 ( u 1 , v 1 , w 1 ) = 1 ( J dis L ( u 1 , v 1 ) + T 1 ) × ( DSI dis ( u 1 , v 1 , w 1 ) + T 1 ) ,
Figure FDA000027550856000710
表示
Figure FDA000027550856000711
中坐标位置为(u1,v1)的像素点的双目最小可察觉变化值,DSIdis(u1,v1,w1)表示{DSIdis(x,y,d)}中坐标位置为(u1,v1,w1)的像素点的视差空间值,Tl为控制参数;
⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q1,l
Figure FDA000027550856000712
其中,C1和C2均为控制参数;
⑤-5、根据
Figure FDA000027550856000713
的视差梯度图像
Figure FDA000027550856000714
计算当前第一单元的第二均值和第二标准差,分别记为
Figure FDA000027550856000715
Figure FDA000027550856000716
Figure FDA000027550856000717
Figure FDA00002755085600081
计算当前第二单元的第二均值和第二标准差,分别记为
Figure FDA00002755085600082
Figure FDA00002755085600083
Figure FDA00002755085600084
Figure FDA00002755085600085
其中, ω 2 ( u 1 , v 1 ) = 1 G org L ( u 1 , v 1 ) + T 1 ,
Figure FDA00002755085600087
表示
Figure FDA00002755085600088
中坐标位置为(u1,v1)的像素点的梯度值;
⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q2,l
Figure FDA00002755085600089
⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数;
⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为
Figure FDA000027550856000810
其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号;
⑤-9、将
Figure FDA000027550856000811
中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } , 然后取 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的前ρ%个结构相似度来计算Sdis的图像质量客观评价预测值,记为Q,其中,
Figure FDA00002755085600094
表示 { Q ~ l | 1 ≤ l ≤ W × H × d max α × β × γ } 中的第l个结构相似度, M = W × H × d max α × β × γ × ρ % .
7.根据权利要求6所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤⑤-1中取α=5、β=5、γ=5。
8.根据权利要求7所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的控制参数Tl的值为1;所述的控制参数C1的值为6.5025,所述的控制参数C2的值为58.5225。
9.根据权利要求7所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤⑤-7中取τ=0.6、υ=-0.1。
10.根据权利要求9所述的一种基于特征图的立体图像质量客观评价方法,其特征在于所述的步骤⑤-9中取ρ=2。
CN201310022237.5A 2013-01-21 2013-01-21 一种基于特征图的立体图像质量客观评价方法 Expired - Fee Related CN103136748B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310022237.5A CN103136748B (zh) 2013-01-21 2013-01-21 一种基于特征图的立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310022237.5A CN103136748B (zh) 2013-01-21 2013-01-21 一种基于特征图的立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN103136748A true CN103136748A (zh) 2013-06-05
CN103136748B CN103136748B (zh) 2015-10-28

Family

ID=48496538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310022237.5A Expired - Fee Related CN103136748B (zh) 2013-01-21 2013-01-21 一种基于特征图的立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN103136748B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574487A (zh) * 2013-10-11 2015-04-29 卡西欧计算机株式会社 数据处理装置以及数据处理方法
CN104853175A (zh) * 2015-04-24 2015-08-19 张艳 一种新的合成虚拟视点客观质量评价方法
CN105828061A (zh) * 2016-05-11 2016-08-03 宁波大学 一种基于视觉掩蔽效应的虚拟视点质量评价方法
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN106709958A (zh) * 2016-12-03 2017-05-24 浙江大学 一种基于灰度梯度和颜色直方图的图像质量评价方法
CN106888374A (zh) * 2015-12-16 2017-06-23 联芯科技有限公司 一种三维视频编码方法、装置及视频处理设备
CN112437314A (zh) * 2020-10-16 2021-03-02 陕西师范大学 高效视频编码标准帧内图像质量估计方法
CN112770105A (zh) * 2020-12-07 2021-05-07 宁波大学 一种基于结构特征的重定位立体图像质量评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278710A (ja) * 1999-03-26 2000-10-06 Ricoh Co Ltd 両眼立体視画像評価装置
CN101833766A (zh) * 2010-05-11 2010-09-15 天津大学 基于gssim的立体图像客观质量评价算法
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102663747A (zh) * 2012-03-23 2012-09-12 宁波大学 一种基于视觉感知的立体图像客观质量评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278710A (ja) * 1999-03-26 2000-10-06 Ricoh Co Ltd 両眼立体視画像評価装置
CN101833766A (zh) * 2010-05-11 2010-09-15 天津大学 基于gssim的立体图像客观质量评价算法
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102663747A (zh) * 2012-03-23 2012-09-12 宁波大学 一种基于视觉感知的立体图像客观质量评价方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574487A (zh) * 2013-10-11 2015-04-29 卡西欧计算机株式会社 数据处理装置以及数据处理方法
CN104574487B (zh) * 2013-10-11 2017-09-01 卡西欧计算机株式会社 数据处理装置以及数据处理方法
CN104853175A (zh) * 2015-04-24 2015-08-19 张艳 一种新的合成虚拟视点客观质量评价方法
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN106888374A (zh) * 2015-12-16 2017-06-23 联芯科技有限公司 一种三维视频编码方法、装置及视频处理设备
CN106888374B (zh) * 2015-12-16 2018-11-20 联芯科技有限公司 一种三维视频编码方法、装置及视频处理设备
CN105828061A (zh) * 2016-05-11 2016-08-03 宁波大学 一种基于视觉掩蔽效应的虚拟视点质量评价方法
CN106709958A (zh) * 2016-12-03 2017-05-24 浙江大学 一种基于灰度梯度和颜色直方图的图像质量评价方法
CN112437314A (zh) * 2020-10-16 2021-03-02 陕西师范大学 高效视频编码标准帧内图像质量估计方法
CN112770105A (zh) * 2020-12-07 2021-05-07 宁波大学 一种基于结构特征的重定位立体图像质量评价方法
CN112770105B (zh) * 2020-12-07 2022-06-03 宁波大学 一种基于结构特征的重定位立体图像质量评价方法

Also Published As

Publication number Publication date
CN103136748B (zh) 2015-10-28

Similar Documents

Publication Publication Date Title
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN103780895B (zh) 一种立体视频质量评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
CN102903107B (zh) 一种基于特征融合的立体图像质量客观评价方法
CN104581143A (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN103413298A (zh) 一种基于视觉特性的立体图像质量客观评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN103200420B (zh) 一种基于三维视觉注意力的立体图像质量客观评价方法
CN102999912B (zh) 一种基于失真图的立体图像质量客观评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN103369348B (zh) 一种基于区域重要性分类的立体图像质量客观评价方法
CN103841411B (zh) 一种基于双目信息处理的立体图像质量评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN103745457A (zh) 一种立体图像客观质量评价方法
CN106682599B (zh) 一种基于稀疏表示的立体图像视觉显著提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191219

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230117

Address after: 3F-19, Building 2, No. 22, Yunfei Road, High-tech Zone, Hefei, Anhui Province, 230000

Patentee after: Hefei Yongsheng Information Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151028

CF01 Termination of patent right due to non-payment of annual fee