CN103096122A - 基于感兴趣区域内运动特征的立体视觉舒适度评价方法 - Google Patents

基于感兴趣区域内运动特征的立体视觉舒适度评价方法 Download PDF

Info

Publication number
CN103096122A
CN103096122A CN2013100274539A CN201310027453A CN103096122A CN 103096122 A CN103096122 A CN 103096122A CN 2013100274539 A CN2013100274539 A CN 2013100274539A CN 201310027453 A CN201310027453 A CN 201310027453A CN 103096122 A CN103096122 A CN 103096122A
Authority
CN
China
Prior art keywords
motion
stereoscopic vision
dimensional video
frequency
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100274539A
Other languages
English (en)
Other versions
CN103096122B (zh
Inventor
周军
毕野
王嶺
孙军
张艳芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201310027453.9A priority Critical patent/CN103096122B/zh
Publication of CN103096122A publication Critical patent/CN103096122A/zh
Application granted granted Critical
Publication of CN103096122B publication Critical patent/CN103096122B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开一种基于感兴趣区域内运动特征的立体视觉舒适度评价方法:首先,制定计算立体视频感兴趣区域内运动特征向量策略;然后,通过主观测试建立表征立体视频运动特征和立体视觉舒适度之间非线性关系的立体视觉模型。最后,基于立体视频感兴趣区域内运动特征向量和非线性立体视觉模型,选择空间域均值策略、最小值整合策略和时域中值策略,制定立体视觉舒适度评价方法。本发明提出的评价结果和人眼主观立体舒适性结果一致性更好。

Description

基于感兴趣区域内运动特征的立体视觉舒适度评价方法
技术领域
本发明涉及双眼立体视觉领域,具体地说,涉及的是一种基于立体视频感兴趣区域内运动特征的立体视觉舒适度评价方法。
背景技术
立体视觉舒适度评价标准是根据立体视频的视觉特性(如视差特征、运动特征等),建立相应的标准来判断和预测立体视频对观测者造成的立体视觉舒适程度。随着立体电视技术的高速发展,立体视觉舒适度评价标准逐渐引起人们的关注。因为在立体视觉安全领域中,立体视觉舒适度评价标准在预测立体视觉疲劳和不舒适性中起到关键的作用。在预防立体视觉疲劳和不舒适性的分析过程中,视觉的辐辏调节冲突和在时间域与空间域中视差特征变化、运动特征变化是导致立体视觉不舒适的关键因素。本发明中着重关注立体视频感兴趣区域内运动特征和立体视觉舒适度之间的关系,所提出的基于立体视频感兴趣区域内运动特征的立体视觉舒适度评价方法,在立体视频拍摄及后期制作过程中,提供立体舒适性质量评价参考值,有助于提高成片后立体视频的人眼观看的安全性。
经过对现有技术文献的检索发现,Jaeseob Choi等人于2010年在《IEEE ImageProcessing International Conference(图像处理国际会议)》上发表的“Visual fatigueevaluation and enhancement for 2D-plus-Depth video(关于2D-Plus-Depth视频的视觉疲劳的评价方法)”中提出根据立体视频帧内深度值特征和帧间深度值特征来评估立体视频的运动特征,进而对立体视觉舒适度进行评价。
又经检索发现,Sumio Yano等人于2002年在《Displays(显示)》上发表的“A studyof visual fatigue and visual comfort fr 3D HDTV/HDTV images(关于3D高清电视的视觉疲劳和舒适性的研究)”中提出基于全局视差信息,分析建立表征运动特征的运动特征比率值,进而对立体视觉舒适度进行评价;该运动特征比率值描述着在立体视频序列中相对快速运动的运动信息与相对慢速运动的运动信息的比值。
又经检索发现,Y.J.Jung等人于2012年在《Journal of Electronic Imaging(电子图像期刊)》上发表的“Visual comfort assessment metric based on salient object motioninformation in stereoscopic video(基于立体视频序列中显著性运动信息的视觉舒适性评价)”中采用基于人眼关注模型的立体视觉舒适度评价方法;首先,基于稠密光流跟踪方法获取立体视频的运动信息;其次,综合分析提取立体视频的显著性区域内运动特征;根据立体视频的运动特征和立体视觉舒适度之间的非线性关系,建立评估立体视频舒适度的评价标准。
然而上述三种评价标准存在一定的问题:首先,上述提及的第一种和第二种评价标准基于全局视差信息进行分析和判断;根据人眼关注模型,相比于全局视差信息,感兴趣区域内视差信息在立体视觉舒适度评价标准中起到更加显著和重要的作用,从而提高立体视觉舒适度判断的准确性;其次,上述提及的第三种评价标准基于立体视频感兴趣区域内块级运动特征;相比于像素级运动特征,它不能精确地反映立体视频在时间域和空间域中运动特征的变化情况;同时,第三种评价标准采用稠密光流跟踪方法来获取运动信息;相比于稀疏光流跟踪方法,它的鲁棒性不好,需要消耗较大的运算时间;此外,在提取感兴趣区域的过程中,并没有结合深度空间信息来进一步提高感兴趣区域提取的准确性。
发明内容
本发明的目的在于克服现有技术的上述不足,提出一种更加高效、准确和稳定的基于感兴趣区域内运动特征的立体视觉舒适度评价方法。
为实现上述的目的,本发明采用的技术方案是:
本发明根据人眼关注模型,通过提取立体视频感兴趣区域的运动特征来评价立体视觉舒适度。首先,制定提取立体视频感兴趣区域内运动特征向量策略;在提取运动特征向量策略中,首先基于SIFT提取特征角点集;其次,选择基于图像金字塔的Lucas-Kanade光流跟踪,筛选得到具有时间一致性的特征角点对;最后,选择SMDE提取立体视频感兴趣区域,筛选得到具有时间一致性和位于空间感兴趣区域内的特征角点对,得到立体视频感兴趣区域内运动特征向量。其次,通过主观测试建立表征立体视频运动特征和立体视觉舒适度之间非线性关系的立体视觉模型。最后,基于感兴趣区域内运动特征向量和立体视觉模型,选择空间域均值策略、最小值整合策略和时域中值策略,制定立体视觉舒适度评价方法。
本发明方法具体包括如下步骤:
第一步,制定提取立体视频感兴趣区域内运动特征向量策略,得到立体视频感兴趣区域内运动特征向量;针对立体视频,选择左视图作为视点参考视图,包括如下步骤:
1)基于SIFT特征点提取,分别提取立体视频参考视图第i帧Xi的特征角点集CPi和立体视频参考视图第i+1帧Xi+1的特征角点集CPi+1
2)选择基于图像金字塔的Lucas-Kanade光流跟踪算法,筛选得到立体视频参考视图第i帧Xi与第i+1帧Xi+1间具有时间一致性的特征角点对CPPi={(CPi,1,CPi+1,1),…,(CPi,N,CPi+1,N)},其中,N为匹配到的点对数;
3)采用综合分析提取立体视频参考视图第i帧Xi的显著图信息、运动图信息和深度空间信息的SMDE方法,提取立体视频参考视图第i帧Xi的感兴趣区域BROIi,从CPPi中筛选得到视频第i帧Xi与第i+1帧Xi+1间具有时间一致性并位于空间感兴趣区域内的特征角点对ROICPPi:
ROICPPi={(CP′i,1,CP′i+1,1),…,(CP′i,M,CP′i+1,M)}(M≤N),其中,M为感兴趣区域上的匹配点对数。
具体而言,SMDE方法提取立体视频的感兴趣区域BROIi的步骤如下:
a)基于频域调节的显著性区域检测方法,提取得到立体视频参考视图第i帧Xi的显著图Salienti
b)基于稀疏矩阵降秩分解的方法,提取得到立体视频参考视图第i帧Xi的运动图Motioni
c)采用基于区域的视差预测方法,得到立体视频参考视图第i帧Xi的深度图Depthi和视差信息Disi
d)基于评价框架的感兴趣区域提取策略,采用自适应阈值方法,即设置各图的平均值作为相应阈值,得到显著二值图BSalienti、运动二值图BMotioni和深度二值图BDepthi
e)基于显著二值图BSalienti、运动二值图BMotioni和深度二值图BDepthi,赋予显著图信息、运动信息和深度空间信息不同的权重,进而得到感兴趣区域权重图ROIi;具体而言,
ROIi=α*BSalienti+β*BMotioni+γ*BDepthi
其中α,β和γ分别为显著图信息,运动信息和深度空间信息的权重;
此外,α,β和γ的取值有如下约束:α+β+γ=1;
f)基于感兴趣区域权重图ROIi,计算感兴趣区域权重图的平均权重值;采用自适应阈值方法,即设置计算得到的平均权重值为阈值,得到感兴趣区域权重二值图BROIi
4)基于SMDE计算立体视频参考视图第i帧Xi与第i+1帧Xi+1对应的全局视差信息Disi,Disi+1,得到立体视频参考视图感兴趣区域内运动特征向量MFi;具体而言,运动特征向量第k个元素MFi,k的计算公式如下为:
MFi,k={motionxi,k,motionyi,k,motionzi,k,disi,k},0<k≤M;
MFi,k各分量的计算公式为:
motion xi , k = 2 * f * ( arctan ( b 2 V ) - arctan ( ( C P ′ i , k ( x ) - C P ′ i + 1 , k ( x ) ) * PP + b ) 2 V ) )
motion yi , k = 2 * f * ( arctan ( b 2 V ) - arctan ( ( C P ′ i , k ( y ) - C P ′ i + 1 , k ( y ) ) * PP + b ) 2 V ) )
motion zi , k = 2 * f * ( arctan ( ( Dis i + 1 ( CP ′ i + 1 , k ) * PP + b ) 2 V )
- arctan ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V ) )
dis i , k = 2 * arctan ( b 2 V ) - arctan ( ( Dis i + 1 ( C P ′ i + 1 , k ) * PP + b ) 2 V )
- arctam ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V )
其中V表示实验环境中人眼到屏幕的观测距离,b表示人眼双目瞳孔距离,PP表示显示屏上单个像素点显示大小,f表示立体视频每秒钟显示帧数,Disi+1(CP′i+1,k)表示特征点CP′i+1,k处视差值。
第二步,基于人眼视觉模型,建立运动特征和立体视觉舒适度之间非线性关系的立体视觉模型如下:
fxx,d)=-1.5ln(υx+6.7)-0.29|d|+8
fyy,d)=-7.4ln(υy+65)-0.8|d|+36
fzz)=-0.72ln(υz+0.3)+4
其中fx(·)、fy(·)、fz(·)分别表示水平方向、垂直方向、深度方向上立体视觉舒适度评分公式,υx、υy、υz分别表示各自方向上运动特征(单位degree/s),d表示视差特征(单位degree)。
第三步,基于立体视频感兴趣区域内运动特征向量和非线性立体视觉模型,制定立体视觉舒适度评价方法,最终得到立体视频的视觉舒适度评分VC,其具体步骤如下:
1)基于运动特征向量MFi,选择空间域均值策略,计算得到经过空间域均值选择的立体视频运动特征向量
Figure BDA00002773498400053
其公式如下:
MF i pooled = { motion xi pooled , motion yi pooled , motion zi pooled , dis i pooled }
MF i pooled = 1 M Σ k = 1 M MF i , k
其中M为立体视频运动特征向量元素个数,即感兴趣区域上的匹配点对数;
2)选择最小值整合策略来整合三个不同方向上立体视觉舒适度评分公式,得
到立体视频第i帧的立体视觉舒适度评分VC(i),其公式如下:
VC ( i ) = min { f x ( motion xi pooled , dis i pooled ) ,
f y ( motion yi pooled , dis i pooled ) , f z ( motion zi pooled , dis i pooled ) }
其中fx(·),fy(·),fz(·)分别为水平方向、垂直方向、深度方向的立体视觉评分模型;
3)选择时域中值选择策略,评估整个立体视频序列的立体视觉舒适度,得到最终的立体视觉舒适度VC,其计算公式如下:
VC=median[VC(1),VC(2)…,VC(P-1)]
其中median(·)为计算中值函数。
与现有技术相比,本发明的有益效果在于:
本发明采用SIFT特征点提取和基于图像金字塔的Lucas-Kanade光流跟踪,具有较好的鲁棒性,能够准确高效地评估立体视频的像素级运动特征;本发明选择基于频域调节的显著性检测方法、基于稀疏矩阵降秩分解、基于区域的视差方法,能够精准地提取立体视频的感兴趣区域,进而评估立体视频感兴趣区域内像素级运动特征;本发明基于立体视频感兴趣区域内运动特征舒适度评价方法更加高效、准确和稳定。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为基于感兴趣区域内运动特征的立体视觉舒适度评价方法框图;
图2为基于频域调节的显著区域检测方法得到显著图的框图;
图3为基于稀疏矩阵降秩分解方法得到运动图的框图;
图4为基于区域的视差预测方法得到视差信息的框图;
图5为立体视觉舒适度主观测试观看立体视频几何示意图;
图6为不同立体视觉舒适度评价标准的主客观评分相关性参数比较。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
图1详细描述基于感兴趣区域内运动特征的立体视觉舒适度评价方法的框图;首先,制定提取立体视频感兴趣区域内运动特征向量策略;在提取运动特征向量策略中,首先基于SIFT提取特征角点集;其次,选择基于图像金字塔的Lucas-Kanade光流跟踪,筛选得到具有时间一致性的特征角点对;最后,选择SMDE提取立体视频的感兴趣区域,筛选得到具有时间一致性和位于空间感兴趣区域内的特征角点对,得到立体视频感兴趣区域内运动特征向量。其次,通过主观测试建立表征立体视频运动特征和立体视觉舒适度之间非线性关系的立体视觉模型。最后,基于感兴趣区域内运动特征向量和非线性立体视觉模型,选择空间域均值策略、最小值整合策略和时域中值策略,制定立体视觉舒适度评价方法。
以下实施例以韩国科学技术院IVY实验室提供的立体视频序列作为立体视频测试序列,详细介绍本发明中提出的基于感兴趣区域内运动特征的立体视觉舒适度评价方法的实施过程。
第一步,制定提取立体视频感兴趣区域内运动特征向量策略,得到立体视频感兴趣区域内运动特征向量;在实验中,做如下假定:针对立体视频,选择左视图作为视点参考视图;具体而言,包括如下步骤:
1)基于SIFT特征点提取,分别提取立体视频参考视图第i帧Xi的特征角点集CPi和立体视频参考视图第i+1帧Xi+1的特征角点集CPi+1
2)选择基于图像金字塔的Lucas-Kanade光流跟踪,筛选得到立体视频参考视图第i帧Xi与第i+1帧Xi+1间具有时间一致性的特征角点对CPPi={(CPi,1,CPi+1,1),…,(CPi,N,CPi+1,N)};
3)采用综合分析提取立体视频参考视图第i帧Xi的显著图信息、运动图信息和深度空间信息的SMDE方法,提取立体视频参考视图第i帧Xi的感兴趣区域BROIi,从CPPi中筛选得到视频第i帧Xi与第i+1帧Xi+1间具有时间一致性并位于空间感兴趣区域内的特征角点对ROICPPi:
ROICPPi={(CP′i,1,CP′i+1,1),…,(CP′i,M,CP′i+1,M)}(M≤N)
具体而言,SMDE提取立体视频的感兴趣区域BROIi的步骤如下:
a)基于频域调节的显著性区域检测方法,提取得到立体视频参考视图第i帧Xi的显著图Salienti,图2描述的具体步骤如下:
首先,将立体视频参考视图Xi的由彩色(RGB)图像空间转化成Lab色彩空间 X i Lab ;
其次,计算Lab色彩空间上
Figure BDA00002773498400082
的全局均值信息Ii,μ=[Li,μ,ai,μ,bi,μ];
再次,计算经过高斯平滑滤波后的图像信息
Figure BDA00002773498400083
选取模板尺度为5×5高斯滤波器,计算得到
Figure BDA00002773498400084
经过高斯平滑滤波后的图像信息
Figure BDA00002773498400085
实验中选取5×5高斯滤波器如下:
Figure BDA00002773498400086
然后,比较I
Figure BDA00002773498400088
计算得到参考视频Xi每个像素点的显著值;具体计算公式如下来计算每个像素点的显著值:
Salient i ( t , y ) = L 2 ( I i , μ - X i , whc Lab ( x , y ) )
其中L2(·)为L-2范式,用于计算每个像素点的显著值;
最后,基于均值漂移分割(mean shift segmentation method)计算得到显著图(灰度图)。
b)基于稀疏矩阵降秩分解的方法,提取得到立体视频参考视图第i帧Xi的运动图Motioni
具体如图3描述,根据立体视频连续帧图像在时间域上具有的一致性特性,基于稀疏矩阵降秩分解的方法,分析计算得到立体视频连续帧图像内容相对静止不变的图像信息,进而得到立体视频连续帧图像的运动图(灰度图);具体而言,提取连续帧图像X={X1,X2,…,XN}运动图信息的问题可以转化成计算最优化集合Motion={Motion1,Motion2,…,MotionN}问题,最优化集合Motion满足如下条件:
minMotion rank(Static)+γ*‖Motion‖o
s.t.Static+Motion={υec(X1)|υec(X2)|...|υec(XN)}
其中Static矩阵表示立体视频连续帧图像内容相对静止不变的图像信息组成矩阵,Motion矩阵表示立体视频连续帧图像的运动图构成矩阵,rank(·)表示矩阵求秩函数,‖·‖0表示L-0范式,用于统计计算Motion矩阵中非零条目的个数来表示Motion矩阵稀疏性,γ表示Static矩阵的秩和Motion矩阵稀疏性之间的权衡参数。
c)采用基于区域的视差预测方法,计算得到立体视频参考视图第i帧Xi的深度图Depthi和视差信息Disi,图4中描述的具体步骤如下:
首先,基于均值漂移分割,将这个图像分为多为颜色均匀的区域;
其次,基于局部窗匹配方法得到可依赖像素点的视差信息;具体而言,选取3×3局部窗内绝对强度差值和梯度信息进行评分匹配;
再次,根据每个区域的可依赖点视差信息,推导出每个区域的视差图层(可看成一组标签集);具体而言,基于最小方差,根据每个区域内可依赖点的位置,获得每个区域内相应的视差图层;
最后,根据最优化方法-graph cut方法,计算得到视差图层分配问题的最优解,最终得到视差信息和深度图(灰度图)。
d)基于评价框架的感兴趣区域提取策略,采用自适应阈值方法,即设置各图的平均值作为相应阈值,计算得到显著二值图BSalienti、运动二值图BMotioni和深度二值图BDepthi
e)基于显著二值图BSalienti、运动二值图BMotioni和深度二值图BDepthi,赋予显著图信息、运动信息和深度空间信息不同的权重,而计算得到感兴趣区域权重图ROIi;具体而言,
ROIi=α*BSalienti+β*BMotioni+γ*BDepthi
其中α,β和γ分别为显著图信息,运动信息和深度空间信息的权重;根据立体视频各自的视觉特性,α,β和γ的取值范围如下:
α=[0.3,0.6],β=[0.3,0.5],γ=[0.1,0.2]
此外,α,β和γ的取值有如下约束:α+β+γ=1;
f)基于感兴趣区域权重图ROIi,计算感兴趣区域权重图的平均权重值;
采用自适应阈值方法,即设置计算得到的平均权重值为阈值,得到感兴趣区域权重二值图BROIi
4)基于SMDE计算立体视频参考视图第i帧Xi与第i+1帧Xi+1对应的全局视差信息Disi,Disi+1,计算得到立体视频感兴趣区域内运动特征向量MFi;具体而言,运动特征向量第k个元素MFi,k为:
MFi,k={motionxi,k,motionyi,k,motionzi,k,disi,k}
MFi,k各分量的计算公式如下:
motion xi , k = 2 * f * ( arctan ( b 2 V ) - arctan ( ( CP ′ i , k ( x ) - CP ′ i + 1 , k ( x ) ) * PP + b ) 2 V ) )
motion yi , k = 2 * f * ( arctan ( b 2 V ) - arctan ( ( CP ′ i , k ( y ) - CP ′ i + 1 , k ( y ) ) * PP + b ) 2 V ) )
motion zi , k = 2 * f * ( arctan ( ( Dis i + 1 ( C P ′ i + 1 , k ) * PP + b ) 2 V )
- arctan ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V ) )
dis i , k = 2 * arctan ( b 2 V ) - arctan ( ( Dis i + 1 ( CP ′ i + 1 , k ) * PP + b ) 2 V )
- arctan ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V )
如图5所示立体视觉舒适度主观测试观看立体视频几何示意图,V表示实验环境中人眼到屏幕的观测距离,对于1920*1080的高清电视,一般取显示屏的3~4倍屏高,b表示人眼双目瞳孔距离,一般取65mm,PP表示显示屏上单个像素点显示大小,f表示立体视频每秒钟显示帧数,Disi+1(CP′i+1,k)表示特征点CP′i+1,k处视差值。
第二步,基于人眼视觉模型,建立运动特征和立体视觉舒适度之间非线性关系的立体视觉模型如下:
fxx,d)=-1.5ln(υx+6.7)-0.29|d|+8
fyy,d)=-7.4ln(υy+65)-0.8|d|+36
fzz)=-0.72ln(υz+0.3)+4
其中fx(·)、fy(·)、fz(·)分别表示水平方向、垂直方向、深度方向上立体视觉舒适度评分公式,υx、υy、υz分别表示各自方向上运动特征(单位degree/s),d表示视差特征(单位degree)。
第三步,基于立体视频感兴趣区域内运动特征向量和非线性立体视觉模型,制定立体视觉舒适度评价方法,最终得到立体视频的视觉舒适度评分VC,其具体步骤如下:
1)基于运动特征向量MFi,选择空间域均值策略,计算得到经过空间域均值选择的立体视频运动特征向量
Figure BDA00002773498400111
其计算公式如下:
MF i pooled = { motion xi pooled , motion yi pooled , motion zi pooled , dis i pooled }
MF i pooled = 1 M Σ k = 1 M MF i , k
其中M为立体视频运动特征向量元素个数;
2)选择最小值整合策略来整合三个不同方向上立体视觉舒适度评分公式,计算得到立体视频第i帧的立体视觉舒适度评分VC(i),其计算公式如下:
VC ( i ) = min { f x ( motion xi pooled , dis i pooled ) ,
f y ( motion yi pooled , dis i pooled ) , f z ( motion zi pooled , dis i pooled ) }
其中fx(·),fy(·),fz(·)分别为水平方向、垂直方向、深度方向的立体视觉评分模型;
3)选择时域中值选择策略,评估整个立体视频序列的立体视觉舒适度,计算
得到最终的立体视觉舒适度VC,其计算公式如下:
VC=median[VC(1),VC(2)…,VC(P-1)]
其中median(·)为计算中值函数。
本发明提出一种基于感兴趣区域内运动特征的立体视觉舒适度评价方法:采用SIFT特征点提取和基于图像金字塔的Lucas-Kanade光流跟踪,具有较好的鲁棒性,能够准确高效地评估立体视频的像素级运动特征;本发明选择基于频域调节的显著性检测方法、基于稀疏矩阵降秩分解、基于区域的视差方法,能够精准地提取立体视频的感兴趣区域,进而评估立体视频感兴趣区域内像素级运动特征;本发明基于立体视频感兴趣区域内运动特征舒适度评价方法更加高效、准确和稳定。
为验证本发明提出的立体视觉舒适度评价标准更加高效、准确和稳定,采用韩国科学技术院IVY实验室提供的立体视频序列进行测试分析,如图所示:图5描述不同立体视觉舒适度评价标准的主客观评分相关性参数(包括Pearson线性相关系数,Spearman等级秩序的相关系数和RMSE均方根误差);通过图5中不同立体视觉舒适度评价方法比较的结果,可以证明本发明提出的基于感兴趣区域内运动特征的立体视觉舒适度评价标准更加高效、准确和稳定。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (3)

1.一种基于感兴趣区域内运动特征的立体视觉舒适度评价方法,其特征在于,包括如下步骤:
第一步,制定计算立体视频感兴趣区域内运动特征向量策略,得到立体视频感兴趣区域内运动特征向量;
第二步,基于人眼视觉模型,建立运动特征和立体视觉舒适度之间非线性关系的立体视觉模型;
第三步,基于立体视频感兴趣区域内运动特征向量和非线性立体视觉模型,制定立体视觉舒适度评价方法,最终得到立体视频的视觉舒适度评分VC。
2.根据权利要求1所述的基于感兴趣区域内运动特征的立体视觉舒适度评价方法,其特征在于,所述制定计算立体视频感兴趣区域内运动特征向量策略:针对立体视频,选择左视图作为视点参考视图,具体包括如下步骤:
1),基于SIFT特征点提取,分别提取立体视频参考视图第i帧Xi的特征角点集CPi和立体视频参考视图第i+1帧Xi+1的特征角点集CPi+1
2),选择基于图像金字塔的Lucas-Kanade光流跟踪算法,筛选得到立体视频参考视图第i帧Xi与第i+1帧Xi+1间具有时间一致性的特征角点对CPPi={(CPi,1,CPi+1,1),…,(CPi,N,CPi+1,N)},其中,N为匹配到的点对数;
3),采用综合分析提取立体视频参考视图第i帧Xi的显著图信息、运动图信息和深度空间信息的SMDE方法,提取立体视频参考视图第i帧Xi的感兴趣区域BROIi,从CPPi中筛选得到视频第i帧Xi与第i+1帧Xi+1间具有时间一致性并位于空间感兴趣区域内的特征角点对ROICPPi:
ROICPPi={(CP′i,1,CP′i+1,1),…,(CP′i,M,CP′i+1,M)}(M≤N)
其中,M为感兴趣区域上的匹配点对数;
4),基于SMDE计算立体视频参考视图第i帧Xi与第i+1帧Xi+1对应的全局视差信息Disi,Disi+1,得到立体视频感兴趣区域内运动特征向量MFi;运动特征向量第k个元素MFi,k为:
MFi,k={motionxi,k,motionyi,k,motionzi,k,disi,k},0<k≤M;
MFi,k各分量的计算公式为:
motion xi , k = 2 * f * ( arctan ( b 2 V - arctan ( ( CP ′ i , k ( x ) - C P ′ i + 1 , k ( x ) ) * PP + b ) 2 V ) )
motion yi , k = 2 * f * ( arctan ( b 2 V ) - arctan ( ( CP ′ i , k ( y ) - C P ′ i + 1 , k ( y ) ) * PP + b ) 2 V ) )
motion zi , k = 2 * f * ( arctan ( ( Dis i + 1 ( C P ′ i + 1 , k ) * PP + b ) 2 V )
- arctan ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V ) )
dis i , k = 2 * arctan ( b 2 V ) - arctan ( ( Dis i + 1 ( CP ′ i + 1 , k ) * PP + b ) 2 V )
- arctan ( ( Dis i ( CP ′ i , k ) * PP + b ) 2 V )
其中V表示实验环境中人眼到屏幕的观测距离,b表示人眼双目瞳孔距离,PP表示显示屏上单个像素点显示大小,f表示立体视频每秒钟显示帧数,Disi+1(CP′i+1,k)表示特征点CP′i+1,k处视差值。
3.根据权利要求1或2所述的基于感兴趣区域内运动特征的立体视觉舒适度评价方法,其特征在于:所述第三步,具体实现如下:
1),基于运动特征向量MFi,选择空间域均值策略,计算得到经过空间域均值选择的立体视频运动特征向量
Figure FDA00002773498300027
其公式如下:
MF i pooled = { motion xi pooled , motion yi pooled , motion zi pooled , dis i pooled }
MF i pooled = 1 M Σ k = 1 M M F i , k
其中M为立体视频运动特征向量元素个数,即感兴趣区域上的匹配点对数;
2),选择最小值整合策略来整合三个不同方向上立体视觉舒适度评分公式,得到立体视频第i帧的立体视觉舒适度评分VC(i),其计算公式如下:
VC ( i ) = min { f x ( motion xi pooled , dis i pooled ) ,
f y ( motion yi pooled , dis i pooled ) , f z ( motion zi pooled , dis i pooled ) }
其中fx(·),fy(·),fz(·)分别为水平方向、垂直方向、深度方向的立体视觉评分模型;
3),选择时域中值选择策略,评估整个立体视频序列的立体视觉舒适度,得到最终的立体视觉舒适度VC,其公式如下:
VC=median[VC(1),VC(2)…,VC(P-1)]
其中median(·)为计算中值函数。
CN201310027453.9A 2013-01-24 2013-01-24 基于感兴趣区域内运动特征的立体视觉舒适度评价方法 Expired - Fee Related CN103096122B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310027453.9A CN103096122B (zh) 2013-01-24 2013-01-24 基于感兴趣区域内运动特征的立体视觉舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310027453.9A CN103096122B (zh) 2013-01-24 2013-01-24 基于感兴趣区域内运动特征的立体视觉舒适度评价方法

Publications (2)

Publication Number Publication Date
CN103096122A true CN103096122A (zh) 2013-05-08
CN103096122B CN103096122B (zh) 2015-04-22

Family

ID=48208172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310027453.9A Expired - Fee Related CN103096122B (zh) 2013-01-24 2013-01-24 基于感兴趣区域内运动特征的立体视觉舒适度评价方法

Country Status (1)

Country Link
CN (1) CN103096122B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458259A (zh) * 2013-08-27 2013-12-18 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
WO2015062149A1 (zh) * 2013-10-30 2015-05-07 清华大学 运动感知的双目立体视频舒适度获取方法
CN104754322A (zh) * 2013-12-27 2015-07-01 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN105335992A (zh) * 2015-10-15 2016-02-17 北京邮电大学 一种三维动画场景帧评分模型确定方法及装置
CN106028025A (zh) * 2016-05-11 2016-10-12 吉林大学 一种针对辐辏与调节一致性的3d视频舒适度评价方法
CN106210710A (zh) * 2016-07-25 2016-12-07 宁波大学 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN106557765A (zh) * 2015-09-29 2017-04-05 欧姆龙株式会社 注意检测装置以及注意检测方法
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN106937118A (zh) * 2017-03-13 2017-07-07 西安电子科技大学 一种基于主观感兴趣区域和时空域相结合的码率控制方法
CN106993183A (zh) * 2017-03-28 2017-07-28 天津大学 基于立体图像显著区域的舒适亮度定量方法
CN111526354A (zh) * 2019-11-25 2020-08-11 杭州电子科技大学 一种基于多尺度空间视差信息的立体视频舒适度预测方法
CN112381860A (zh) * 2020-11-21 2021-02-19 西安交通大学 一种旋转叶片动频测量的无标记计算机视觉方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120099976A (ko) * 2011-03-02 2012-09-12 삼성전자주식회사 입체영상의 시청피로를 모니터링하는 장치 및 방법, 그리고, 시청 피로를 저감하는 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120099976A (ko) * 2011-03-02 2012-09-12 삼성전자주식회사 입체영상의 시청피로를 모니터링하는 장치 및 방법, 그리고, 시청 피로를 저감하는 장치 및 방법

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JAESEOB CHOI: "visual fatigue evaluation and enhancement for 2D-plus-depth video", 《IEEE IMAGE PROCESSING INTERNATIONAL CONFERENCE》 *
SYMIO YANO: "A study of visual fatigue and visual comfort for 3D HDTV/HDTV images", 《DISPLAYS》 *
Y.J. JUNG: "Visual comfort assessment metric based on salient object motion information in stereoscopic video", 《JOURNAL OF ELECTRONIC IMAGING》 *
YE BI AND JUN ZHOU: "a visual comfort metric for stereoscopic 3D video based on SMDE approach", 《IEEE INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING,COMMUNICATION AND COMPUTING》 *
YE BI AND JUN ZHOU: "visual comfort assessment metric based on motion features in salient motion regions for stereoscopic 3D video", 《COMMUNICATIONS IN COMPUTER AND INFORMATION SCIENCE》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458259A (zh) * 2013-08-27 2013-12-18 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
US10091484B2 (en) 2013-10-30 2018-10-02 Tsinghua University Method for acquiring comfort degree of motion-sensing binocular stereoscopic video
WO2015062149A1 (zh) * 2013-10-30 2015-05-07 清华大学 运动感知的双目立体视频舒适度获取方法
CN103595990B (zh) * 2013-10-30 2015-05-20 清华大学 运动感知的双目立体视频舒适度获取方法
CN107155106B (zh) * 2013-12-27 2019-03-01 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN107181940B (zh) * 2013-12-27 2019-05-03 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN107155105B (zh) * 2013-12-27 2019-03-01 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN104754322A (zh) * 2013-12-27 2015-07-01 华为技术有限公司 一种立体视频舒适度评价方法及装置
WO2015096461A1 (zh) * 2013-12-27 2015-07-02 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN104754322B (zh) * 2013-12-27 2018-01-23 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN107181940A (zh) * 2013-12-27 2017-09-19 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN107155106A (zh) * 2013-12-27 2017-09-12 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN106973288A (zh) * 2013-12-27 2017-07-21 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN107155105A (zh) * 2013-12-27 2017-09-12 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN104883577B (zh) * 2015-05-26 2018-04-27 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN106557765A (zh) * 2015-09-29 2017-04-05 欧姆龙株式会社 注意检测装置以及注意检测方法
CN105335992A (zh) * 2015-10-15 2016-02-17 北京邮电大学 一种三维动画场景帧评分模型确定方法及装置
CN105335992B (zh) * 2015-10-15 2020-02-04 北京邮电大学 一种三维动画场景帧评分模型确定方法及装置
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN106028025A (zh) * 2016-05-11 2016-10-12 吉林大学 一种针对辐辏与调节一致性的3d视频舒适度评价方法
CN106210710B (zh) * 2016-07-25 2018-01-30 宁波大学 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN106210710A (zh) * 2016-07-25 2016-12-07 宁波大学 一种基于多尺度字典的立体图像视觉舒适度评价方法
CN106937118A (zh) * 2017-03-13 2017-07-07 西安电子科技大学 一种基于主观感兴趣区域和时空域相结合的码率控制方法
CN106937118B (zh) * 2017-03-13 2019-09-13 西安电子科技大学 一种基于主观感兴趣区域和时空域相结合的码率控制方法
CN106993183A (zh) * 2017-03-28 2017-07-28 天津大学 基于立体图像显著区域的舒适亮度定量方法
CN111526354A (zh) * 2019-11-25 2020-08-11 杭州电子科技大学 一种基于多尺度空间视差信息的立体视频舒适度预测方法
CN112381860A (zh) * 2020-11-21 2021-02-19 西安交通大学 一种旋转叶片动频测量的无标记计算机视觉方法
CN112381860B (zh) * 2020-11-21 2023-04-11 西安交通大学 一种旋转叶片动频测量的无标记计算机视觉方法

Also Published As

Publication number Publication date
CN103096122B (zh) 2015-04-22

Similar Documents

Publication Publication Date Title
CN103096122B (zh) 基于感兴趣区域内运动特征的立体视觉舒适度评价方法
CN102750695B (zh) 一种基于机器学习的立体图像质量客观评价方法
Choi et al. Referenceless prediction of perceptual fog density and perceptual image defogging
CN103152600B (zh) 一种立体视频质量评价方法
CN102113335B (zh) 图像处理设备和方法
Tian et al. A multi-order derivative feature-based quality assessment model for light field image
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN104811693B (zh) 一种立体图像视觉舒适度客观评价方法
CN103096125A (zh) 基于区域分割的立体视频视觉舒适度评价方法
CN103581661A (zh) 一种立体图像视觉舒适度评价方法
Yang et al. Blind assessment for stereo images considering binocular characteristics and deep perception map based on deep belief network
CN103780895B (zh) 一种立体视频质量评价方法
CN107749066A (zh) 一种基于区域的多尺度时空视觉显著性检测方法
CN103679641A (zh) 深度图像增强方法和装置
CN103049893A (zh) 一种图像融合质量评价的方法及装置
KR101393621B1 (ko) 3차원 입체영상의 품질 분석 장치 및 방법
CN103747240A (zh) 融合颜色和运动信息的视觉显著性滤波方法
CN104182983B (zh) 基于角点特征的高速公路监控视频清晰度的检测方法
CN109214331B (zh) 一种基于图像频谱的交通雾霾能见度检测方法
CN104811691A (zh) 一种基于小波变换的立体视频质量客观评价方法
CN101976444A (zh) 一种基于像素类型的结构类似性图像质量客观评价方法
CN106375754B (zh) 基于视觉刺激衰减特性的无参考视频质量评估方法
CN109788275A (zh) 自然性、结构和双目不对称无参考立体图像质量评价方法
Mahajan et al. Perceptual quality evaluation of hazy natural images
CN105678735A (zh) 一种用于雾天图像的目标显著性检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150422

Termination date: 20220124

CF01 Termination of patent right due to non-payment of annual fee