CN103096125B - 基于区域分割的立体视频视觉舒适度评价方法 - Google Patents
基于区域分割的立体视频视觉舒适度评价方法 Download PDFInfo
- Publication number
- CN103096125B CN103096125B CN201310057254.2A CN201310057254A CN103096125B CN 103096125 B CN103096125 B CN 103096125B CN 201310057254 A CN201310057254 A CN 201310057254A CN 103096125 B CN103096125 B CN 103096125B
- Authority
- CN
- China
- Prior art keywords
- region
- visual comfort
- evaluation
- overbar
- stereoscopic video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
基于区域分割的立体视频视觉舒适度评价方法属立体图像评价技术领域,本发明首先自适应地分割提取出立体视频序列中的运动区域和背景部分的显著性区域,结合深度感知理论和空间合并技术,对视觉舒适度这一特征量进行建模,利用线性回归的方法,再结合人类主观评价实验结果与视差深度之间的逻辑关系,选取契合人类主观评价结果的待定系数及其特征权值,实现对立体视频舒适度自适应的评定。本发明对放映设备、实验条件进行标定,分别对显著性区域内的背景部分与运动对象,通过设定权值实现对舒适度评价结果的优化,建立了符合人类主观感知结果的立体图像质量客观评价模型,本发明对加快立体视频系统的发展,具有不可估量的重要作用。
Description
技术领域
本发明属立体图像评价技术领域,具体涉及一种基于区域分割的立体视频视觉舒适度评价方法。
背景技术
随着多媒体技术和互联网技术的大力发展,立体视频技术正迅速发展起来。与传统媒体相比,立体视频能够为大众创造更加直观真实的场景感受,同时也可以获得更加强烈的临场感。但是由于立体视频自身技术的不完善,也带来了一些不利的影响。
观看者在观看立体图像时常用视觉舒适度这一概念反映主观感受到的舒适程度,具体表现在观看立体图像一定时间后,眼睛的疲劳程度和身体的反映状况等。与平面显示不同,如果呈现给观看者的立体图像不符合人类视觉系统的成像规律,就会使观看者产生视觉上的不舒适感,导致视疲劳、恶心、头晕等症状。研究表明,人眼对呈现给左眼、右眼图像的一致性要求很高,如果呈现给左、右眼的图像的差异超过一定的范围,人眼就无法融合成单一的立体图像,从而导致观看立体图像时出现不舒适的症状。立体视频内容的舒适与否直接关系到观看者的视觉感受与生理健康,这已经成为立体产品迅速普及并被用户广泛认同的主要制约因素之一。
目前,立体图像质量评价标准大致可以分为两类:基于视觉感知的测量方法和基于视觉兴趣的测量方法。其中基于视觉兴趣的图像质量评价方法的思想是:由于人眼观看一幅图像时只能对其中某一部分区域的细节具有良好的分辨能力,而不能同时分辨图像中的其他区域,同时视觉只对视场中(亮度或纹理)发生显著变化的区域感兴趣,即人类的视觉具有一定的选择性。所以将图像分为视觉感兴趣区(ROI,Region of Interest)和非感兴趣区,并根据感兴趣程度对其设定加权值。所谓的视觉感兴趣区是指人眼只会对图像中显著变化的区域发生兴趣仔细观看,而对那些亮度均匀的平滑区域或空间频率相近的纹理区则忽略掉。整幅图像的视觉质量往往取决于感兴趣区的质量,非感兴趣区的图像质量的降低则影响较小。
立体视频系统中的图像质量评价是与立体视频系统相关的所有技术的基础。对立体图像质量评价的理解和深入程度,直接影响到立体视频系统的发展速度。目前,对于立体图像视觉舒适度的评价尚无统一的判定标准,因此,研究立体图像/视频内容舒适度的影响因素将具有重要的意义,如何建立一个符合人类感知结果的立体图像质量客观评价模型也显得尤为重要。
发明内容
本发明的目的在于提供一种基于区域分割的立体视频视觉舒适度评价方法,以提高评价结果的精度,使其更加接近真实的人类主观感受。
本发明的方法包括下列步骤:
1.建立立体视频视觉舒适度的评价模型,具体包括下列步骤:
1.1确定人类主观评价中影响视觉舒适度评分的各种因素,包括:视觉疲劳、身体不适、注意力不集中;
1.2进行主观评价实验,获取主观评价实验结果;
1.3将步骤1.1影响视觉舒适度评分的各种因素和1.2获得的实验结果绘制成特征曲线,并根据主观评价实验的结果与视差深度d的逻辑关系,确定立体视频视觉舒适度评价模型的数学表达式:VC=c1d3+c2d2+c3d+c4
其中VC为视觉舒适度评分,c为特征参数,d为视差深度;
2.立体视频舒适度的评定,具体包括下列步骤:
2.1将显著性区域内的运动对象和原视图中的运动对象同时归为运动区域,将剩下的背景对象归为显著性区域的背景部分;
2.2按所处的不同区域,将主观评价的实验结果填入纵坐标为人类主观评价得分MOS、横坐标为立体对象凸出或凹入屏幕的视差深度d的坐标系中,将标注点连成光滑曲线,得到对应的函数;
2.3选取步骤2.2所述坐标系中光滑曲线上的观测点所对应的当前帧左、右两幅匹配视图,求出其标准视差图,再利用GBVS算法分别处理左、右视图,得到各自的显著性区域分布图;
2.4将步骤2.3所得显著性区域分布图与标准视差图以阈值为0.5,按1:1的比例合成为一幅图像,对此图像进行分割、提取,得到对应的吸引人眼大部分注意力,可对实验结果造成较大偏差的显著性特征区域;
2.5采用高阶检测的办法对相邻两帧视图进行处理,在抑制噪声的同时得到两幅视图的运动区域;
2.6对步骤2.5得到的两幅视图的运动区域进行分割、提取,计算各自的视差深度d;
2.7根据步骤1.3的数学表达式,得到立体视频视觉舒适度评分的数学表达式:
其中:VC为视觉舒适度评分,dM为运动区域部分的视差深度,dS显著性区域背景部分的视差深度,w1、w2分别赋值为0.8、0.2,a1、a2、a3、a4、b1、b2、b3、b4可通过步骤1.2所得结果求得。
步骤1.2中所述的主观评价实验包括下列步骤:
1.2.1选择年龄为20-35岁,视力正常--裸视或佩戴眼镜矫正视力达到1.0、没有会影响实验数据的眼部疾病,有立体视频观测经验,且能够正确透彻地理解评判标准,评分过程中不带有主观倾向性的专业人士作为观测者;
1.2.2采用国际视频组织发布的标准序列作为立体视频序列,且设定播发间隔为20s;
1.2.3设定实验场景中观测者与屏幕间的观测距离L为3m,两眼视距e为65mm;
1.2.4根据水平视差的定义和立体感原理,获得相应目标区域的视差深度d:
其中:L、e为步骤1.2.3所设定的已知量,在忽略掉垂直视差的情况下,p为相邻帧两幅视图的水平视差。
为了抑制噪声的干扰,提取出较为清晰的运动区域,可以采用高阶统计的检测方法,将运动区域的帧差看作是非高斯信号,噪声看作是均值为零的高斯信号,这样,运动区域的检测就可以模拟为从高斯信号中提取非高斯信号的过程。
通过GBVS算法提取出的显著性区域为图像中最能引起观测者兴趣、最能表现图像内容的区域。这些区域所含的信息量大,对于图像的分析和评分起着重要的作用。对于显著性区域的选取,常用的方法是以人的注意力机制为基础,通过数学模型模拟人类的注意力机制,实现对显著性区域的自适应提取,所提取的显著性区域通常颜色突出、内容丰富,可以很好地表现图像的特征。
本发明充分考虑影响舒适度评分结果的各部分区域,对放映设备、实验条件进行标定,分别对显著性区域内的背景部分与运动对象,通过设定权值实现对舒适度评价结果的优化,建立了符合人类主观感知结果的立体图像质量客观评价模型,本发明对加快立体视频系统的发展,具有不可估量的重要作用。
附图说明
图1为主观评价实验场景布置示意图
图2为水平视差定义和立体感知原理图(负视差)
图3为水平视差定义和立体感知原理图(正视差)
图4为主观评价结果与视差深度坐标图(显著性区域内运动区域与背景部分)
图5为视觉舒适度评价系统框图
图6为图像中的显著性区域示意图
图6中可能吸引人类注意力的对象:1为老人背后的门,2为门前站立的老人,3为路上行走的路人,4为轿车
具体实施方式
以下结合附图实例对本发明作进一步详细描述。本发明将从对放映设备参数的标定和对立体视频舒适度进行评定两个部分详细说明以下实施方案。
1.放映设备参数的标定
由于受不同型号实验设备以及实验条件的影响,观测立体视频进行舒适度测评时的精确程度很难得到保障,因此需要首先对放映设备的参数进行标定。在这里,本发明通过一次人类主观评价,对影响视觉舒适度评分的各种因素(如:视觉疲劳、身体不适、注意力不集中)与主观评价实验结果之间的特征曲线进行比较,建立了视觉舒适度评价模型,再结合主观评价结果与视差深度d的逻辑关系,从而确定出视觉舒适度评价模型的函数关系式。
本次主观评价实验的参加者要求满足如下条件:选择年龄为20-35岁,视力正常(裸视或佩戴眼镜矫正视力达到1.0,没有对实验数据造成影响的眼部疾病),有立体视频观测经验,且能够正确透彻地理解评判标准,评分过程中不带有主观倾向性的专业人士作为观测者;立体视频序列采用国际视频组织发布的标准序列,且设定播放间隔为20s;对于实验场景的布置可以参考图1所示,其中,L为观测者与屏幕之间的距离,根据国外相关实验室的研究结果表明,在距离屏幕3m处进行观测,可以得到较好的视觉效果,因此本次实验选定L为3m;成年人两眼间距e一般为65mm,因此这里选定e为65mm。
在观看立体视频时,观测者可以获得较好的立体视觉冲击,这是由于双眼的真实汇聚点在屏幕内、外造成的。如图2所示,当某物点的右像素点r位于左像素点l右侧时,此物点具有正视差,再现立体深度d1为负,表示观看者看到该物点位于显示屏后方,如物点Q1;反之亦然,如图3所示,当某物点右像素点r位于左像素点l右侧时,此物点具有负视差,再现立体深度d2为正,表示观看者看到该物点位于显示屏前方,如物点Q2。图2和图3中p1、p2分别为视图中对应匹配的水平视差。
根据水平视差的定义与立体感原理图,可以得到视差深度d的关系式:
其中L、e都是已知量,在忽略掉垂直视差的情况下p为相同帧两幅图像的水平视差,由此可以获得相应目标区域的视差深度d。
2.立体视频舒适度的评定
按照所处的不同区域,将主观评价实验所得到的MOS值与相对应的视差深度d填入到如图4所示的坐标系中,将标注点连成一条光滑的曲线,以此得到对应的函数关系。在这里本发明首次提出了将显著性区域内的背景对象与运动对象分开来对待,考虑到人眼的关注程度,将显著性区域内的运动对象与原视图中的运动对象同时归为运动区域,至于剩下的背景对象,将其归为显著性区域的背景部分。首先选取图4坐标系中光滑曲线上的观测点(dM,MOSM)、(dS,MOSS)所对应的当前帧左、右两幅匹配视图,求出其标准视差图,再利用GBVS算法分别处理左、右视图,得到各自的显著性区域分布图,将刚刚得到的显著性区域分布图与标准视差图以阈值为0.5,按照1:1的比例合成一幅图像,对这幅图像进行分割、提取,可以得到对应的显著性区域(即吸引人眼大部分注意力,可以对实验结果造成较大偏差的区域);再利用高阶检测的办法对相邻两帧视图进行处理,抑制噪声的同时,可以得到两幅视图的运动区域。对以上所得到的区域进行分割、提取,计算它们各自的视差深度d,这里采用空间合并技术,对区域内的视差深度值进行处理,可以得到较为稳定的视差深度d的值。最后结合图4中所得到的函数关系数学表达式,可以得到立体视频视觉舒适度评分的表达式:
其中w1、w2分别赋值为0.8、0.2,a1、a2、a3、a4、b1、b2、b3、b4,可以通过主观评价实验的结果计算求得。
图6中表现的是GBVS对于图像中显著性区域的提取,观看图像首先引起我们注意的是轿车4,然后是路上行走的路人3以及门前站立的老人2,除此之外老人背后的门1由于和背景其他部分颜色不一致,因此也吸引到了观测者的一部分注意力,但由于其只存在于背景中,所以相比于轿车4、行走的路人3以及站立的老人2所得到的关注程度要差很多,因此在分配权值时仅占了很小的比重。
Claims (3)
1.一种基于区域分割的立体视频视觉舒适度评价方法,其特征在于包括下列步骤:
1.1建立立体视频视觉舒适度的评价模型,具体包括下列步骤:
1.1.1确定人类主观评价中影响视觉舒适度评分的各种因素,包括:视觉疲劳、身体不适、注意力不集中;
1.1.2进行主观评价实验,获取主观评价实验结果;
1.1.3将步骤1.1.1影响视觉舒适度评分的各种因素和1.1.2获得的实验结果绘制成特征曲线,并根据主观评价实验的结果与视差深度d的逻辑关系,确定立体视频视觉舒适度评价模型的数学表达式:VC=c1d3+c2d2+c3d+c4
其中:VC为视觉舒适度评分,c为特征参数,d为视差深度;
1.2立体视频舒适度的评定,具体包括下列步骤:
1.2.1将显著性区域内的运动对象和原视图中的运动对象同时归为运动区域,将剩下的背景对象归为显著性区域的背景部分;
1.2.2按所处的不同区域,将主观评价的实验结果填入纵坐标为人类主观评价得分MOS、横坐标为立体对象凸出或凹入屏幕的视差深度d的坐标系中,将标注点连成光滑曲线,得到对应的函数;
1.2.3选取步骤1.2.2所述坐标系中光滑曲线上的观测点所对应的当前帧左、右两幅匹配视图,求出其标准视差图,再利用GBVS算法分别处理左、右视图,得到各自的显著性区域分布图;
1.2.4将步骤1.2.3所得显著性区域分布图与标准视差图以阈值为0.5,按1:1的比例合成为一幅图像,对此图像进行分割、提取,得到对应的吸引人眼大部分注意力,可对实验结果造成较大偏差的显著性特征区域;
1.2.5采用高阶检测的办法对相邻两帧视图进行处理,在抑制噪声的同时得到两幅视图的运动区域;
1.2.6对步骤1.2.5得到的两幅视图的运动区域进行分割、提取,计算各自的视差深度d;
1.2.7根据步骤1.1.3的数学表达式,得到立体视频视觉舒适度评分的数学表达式:
其中:VC为视觉舒适度评分,dM为运动区域部分的视差深度,dS为显著性区域背景部分的视差深度,w1、w2分别赋值为0.8、0.2,a1、a2、a3、a4、b1、b2、b3、b4可通过步骤1.1.2所得结果求得。
2.按权利要求1所述的基于区域分割的立体视频视觉舒适度评价方法,其特征在于步骤1.1.2所述的主观评价实验包括下列步骤:
2.1选择年龄为20-35岁,视力正常--裸视或佩戴眼镜矫正视力达到1.0、没有会影响实验数据的眼部疾病,有立体视频观测经验,且能够正确透彻地理解评判标准,评分过程中不带有主观倾向性的专业人士作为观测者;
2.2采用国际视频组织发布的标准序列作为立体视频序列,且设定播发间隔为20s;
2.3设定实验场景中观测者与屏幕间的观测距离L为3m,两眼视距e为65mm;
2.4根据水平视差的定义和立体感原理,获得相应目标区域的视差深度d:
其中:L、e为步骤2.3所设定的已知量,在忽略掉垂直视差的情况下,p为相邻帧两幅视图的水平视差。
3.按权利要求1所述的基于区域分割的立体视频视觉舒适度评价方法,其特征在于步骤1.2中所述的显著性区域为图像中最能引起观测者兴趣、最能表现图像内容的区域;这些区域所含的信息量大,对于图像的分析和评分起着重要的作用;对于显著性区域的选取,常用的方法是以人的注意力机制为基础,通过数学模型模拟人类的注意力机制,实现对显著性区域的自适应提取,所提取的显著性区域通常颜色突出、内容丰富,能很好地表现图像的特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310057254.2A CN103096125B (zh) | 2013-02-22 | 2013-02-22 | 基于区域分割的立体视频视觉舒适度评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310057254.2A CN103096125B (zh) | 2013-02-22 | 2013-02-22 | 基于区域分割的立体视频视觉舒适度评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103096125A CN103096125A (zh) | 2013-05-08 |
CN103096125B true CN103096125B (zh) | 2015-03-04 |
Family
ID=48208175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310057254.2A Active CN103096125B (zh) | 2013-02-22 | 2013-02-22 | 基于区域分割的立体视频视觉舒适度评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103096125B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103347196B (zh) * | 2013-06-27 | 2015-04-29 | 宁波大学 | 一种基于机器学习的立体图像视觉舒适度评价方法 |
CN103458259B (zh) * | 2013-08-27 | 2016-04-13 | Tcl集团股份有限公司 | 一种3d视频引起人眼疲劳度的检测方法、装置及系统 |
CN103595990B (zh) | 2013-10-30 | 2015-05-20 | 清华大学 | 运动感知的双目立体视频舒适度获取方法 |
CN107155106B (zh) * | 2013-12-27 | 2019-03-01 | 华为技术有限公司 | 一种立体视频舒适度评价方法及装置 |
CN103780903B (zh) * | 2014-02-19 | 2015-08-05 | 天津大学 | 一种立体相机近距会聚拍摄质量客观评价方法 |
CN104038756B (zh) * | 2014-06-05 | 2016-01-13 | 中国科学院软件研究所 | 基于立体图像特征的立体图像舒适度检测方法 |
CN103986925B (zh) * | 2014-06-05 | 2015-09-23 | 吉林大学 | 基于亮度补偿的立体视频视觉舒适度评价方法 |
CN104581141B (zh) * | 2015-01-09 | 2016-06-22 | 宁波大学 | 一种立体图像视觉舒适度评价方法 |
CN104811693B (zh) * | 2015-04-14 | 2016-06-29 | 宁波大学 | 一种立体图像视觉舒适度客观评价方法 |
CN104853184B (zh) * | 2015-05-27 | 2017-02-01 | 天津大学 | 一种影响立体图像舒适度的视差范围的检测方法 |
CN104853185A (zh) * | 2015-06-06 | 2015-08-19 | 吉林大学 | 结合多视差和运动的立体视频舒适度评价方法 |
CN105208374B (zh) * | 2015-08-24 | 2017-03-08 | 宁波大学 | 一种基于深度学习的无参考图像质量客观评价方法 |
CN105163111B (zh) * | 2015-09-10 | 2017-01-25 | 宁波大学 | 一种基于场景模式分类的立体图像视觉舒适度评价方法 |
CN105208369B (zh) * | 2015-09-23 | 2017-01-25 | 宁波大学 | 一种立体图像视觉舒适度增强方法 |
CN105430370B (zh) * | 2015-11-24 | 2017-05-03 | 宁波大学 | 一种基于排序学习的立体图像视觉舒适度评价方法 |
CN106028025B (zh) * | 2016-05-11 | 2017-11-21 | 吉林大学 | 一种针对辐辏与调节一致性的3d视频舒适度评价方法 |
CN107194927A (zh) * | 2017-06-13 | 2017-09-22 | 天津大学 | 基于显著性区域的立体图像舒适度色度范围的测量方法 |
CN107680076A (zh) * | 2017-08-23 | 2018-02-09 | 天津大学 | 基于显著性区域的立体图像舒适度对比度范围测量方法 |
CN109089111B (zh) * | 2018-10-22 | 2020-05-26 | Oppo广东移动通信有限公司 | 一种立体视频舒适度评价方法、系统及终端设备 |
CN114079777B (zh) * | 2020-08-20 | 2024-06-04 | 华为技术有限公司 | 视频处理方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101105359B1 (ko) * | 2010-06-22 | 2012-01-16 | 연세대학교 산학협력단 | 깊이 영상에 기반한 3차원 영상의 피로도 측정 방법 및 장치 |
CN102708567B (zh) * | 2012-05-11 | 2014-12-10 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102722888A (zh) * | 2012-05-22 | 2012-10-10 | 天津大学 | 基于生理与心理立体视觉的立体图像客观质量评价方法 |
-
2013
- 2013-02-22 CN CN201310057254.2A patent/CN103096125B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN103096125A (zh) | 2013-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103096125B (zh) | 基于区域分割的立体视频视觉舒适度评价方法 | |
CN102750695B (zh) | 一种基于机器学习的立体图像质量客观评价方法 | |
CN103986925B (zh) | 基于亮度补偿的立体视频视觉舒适度评价方法 | |
CN103763552B (zh) | 基于视觉感知特性的立体图像无参考质量评价方法 | |
O'Shea et al. | Contrast as a depth cue | |
CN102595185B (zh) | 一种立体图像质量客观评价方法 | |
CN106973288B (zh) | 一种立体视频舒适度评价方法及装置 | |
CN103096122B (zh) | 基于感兴趣区域内运动特征的立体视觉舒适度评价方法 | |
CN104853185A (zh) | 结合多视差和运动的立体视频舒适度评价方法 | |
CN104038756B (zh) | 基于立体图像特征的立体图像舒适度检测方法 | |
CN103546736A (zh) | 图像处理设备和方法 | |
US20150085087A1 (en) | Method and device for correcting distortion errors due to accommodation effect in stereoscopic display | |
CN108520510A (zh) | 一种基于整体和局部分析的无参考立体图像质量评价方法 | |
CN102497565A (zh) | 一种影响立体图像舒适度的亮度范围的测定方法 | |
CN104469355B (zh) | 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法 | |
Cho et al. | Subjective evaluation of visual discomfort caused from stereoscopic 3D video using perceptual importance map | |
CN108848365A (zh) | 一种重定位立体图像质量评价方法 | |
CN102087417B (zh) | 一种利用随机点立体图检测自由立体显示器立体度的方法 | |
WO2012118231A1 (en) | Method and device for displaying a pair of stereoscopic images | |
CN110060291B (zh) | 一种考虑人因的立体视在距离解算方法 | |
Zhou et al. | Visual comfort prediction for stereoscopic image using stereoscopic visual saliency | |
Goldmann et al. | Towards reliable and reproducible 3D video quality assessment | |
CN110944166B (zh) | 一种立体图像视觉满意度的客观评价方法 | |
CN110517308A (zh) | 一种无参考非对称失真立体图像质量评价方法 | |
KR101649185B1 (ko) | 시각 주의도의 산출 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |