CN112165615B - 一种立体图像观看舒适性客观评价方法 - Google Patents

一种立体图像观看舒适性客观评价方法 Download PDF

Info

Publication number
CN112165615B
CN112165615B CN202011072094.5A CN202011072094A CN112165615B CN 112165615 B CN112165615 B CN 112165615B CN 202011072094 A CN202011072094 A CN 202011072094A CN 112165615 B CN112165615 B CN 112165615B
Authority
CN
China
Prior art keywords
image
region
comfort
extracting
stereo image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011072094.5A
Other languages
English (en)
Other versions
CN112165615A (zh
Inventor
权巍
刘祎
王超
李华
韩成
胡汉平
耿雪娜
张超
蒋振刚
杨华民
冯欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202011072094.5A priority Critical patent/CN112165615B/zh
Publication of CN112165615A publication Critical patent/CN112165615A/zh
Application granted granted Critical
Publication of CN112165615B publication Critical patent/CN112165615B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种立体图像观看舒适性客观评价方法,其特征在于:首先,提取立体图像的感兴趣区域;然后,分析感兴趣区域图像,获取各种特征;有效提取各特征信息,采用ε‑SVR支持向量回归模型,确立核函数;最后选取标准立体图像库训练并测试模型,实现舒适性评价;其引入立体视觉舒适度的多种影响因素,采用机器学习方法实现立体图像的舒适度评价,从而避免了主观方法中大量人力、物力、时间的消耗,实现了更为准确的自动评价;并充分考虑深度、图像等各方面信息的影响,基于视差角、宽度角、区域对比度、空间频率、以及亮度色度饱和度等多种特征训练SVR模型,实现了立体图像舒适度客观评价。

Description

一种立体图像观看舒适性客观评价方法
技术领域
本发明涉及一种立体图像观看舒适性客观评价方法,属于图像信号处理技术领域。
背景技术
3D立体显示越来越流行,它可以提供比传统2D视频更加炫酷刺激的观看体验。然而,立体画面在为观众带来具有临场感和真实感的视觉体验的同时,常常会给观看者带来一些不舒服的观赏感受,如头晕、头疼、眼睛干涩和疲劳等,甚至会产生恶心反胃等强烈反应。因此,为了提升立体视频的观看体验效果,对立体视频进行舒适度评价是必要的。
目前,立体视频评价方法主要包括主观评价方法和客观评价方法两种。主观评价方法需要专业的评价环境,且耗费人力、时间资源,无法自动执行。鉴于此,研究人员研究并提出了许多客观评价方法,以期在没有人参与下自动地评价3D图像的舒适情况。现有研究表明:前景对象的刺激宽度、双目视差数值、图像的组成要素(亮度、色度、对比度、饱和度)等均会对视觉舒适度产生影响,而仅基于一种或几种特定特征进行分析,会导致客观舒适性评价效果不佳。立体图像的观看舒适性程度是多维因素综合影响的结果,仅考虑某一个特定方面,基于几个特定因素进行舒适性评价,并不能满足舒适度评价的需求,也会导致舒适度评价效果不佳。
发明内容
本发明的目的在于提供一种立体图像观看舒适性客观评价方法,其引入立体视觉舒适度的多种影响因素,采用机器学习方法实现立体图像的舒适度评价,从而避免了主观方法中大量人力、物力、时间的消耗,实现了更为准确的自动评价;并充分考虑深度、图像等各方面信息的影响,基于视差角、宽度角、区域对比度、空间频率、以及亮度色度饱和度等多种特征训练SVR模型,实现了立体图像舒适度客观评价。
本发明的技术方案是这样实现的:一种立体图像观看舒适性客观评价方法,其特征在于:首先,提取立体图像的感兴趣区域;然后,分析感兴趣区域图像,获取各种特征;有效提取各特征信息,采用ε-SVR支持向量回归模型,确立核函数;最后选取标准立体图像库训练并测试模型,实现舒适性评价;其具体步骤如下:
步骤1:计算左右眼图像的视差图DR(x,y);
步骤2:采用GBVS显著性检测算法以右眼图像为主视眼提取显著区域,得到显著图ISR(x,y),结合视差图计算立体显著图IIS(x,y),对立体显著图进行阈值T分割,得到掩膜图IM(x,y),其中,α1,α2为系数,且α12=1;
IIS(x,y)=α1ISR(x,y)+α2DR(x,y)
Figure GDA0003915404910000021
步骤3:将掩膜图与右眼图像相乘得到立体图像感兴趣区域of
步骤4:提取感兴趣区域的舒适度影响特征,包括如下子步骤:
步骤401:通过下面公式计算感兴趣区域的平均视差值Dmean与平均视差角dθ
Figure GDA0003915404910000022
Figure GDA0003915404910000023
其中,d(x,y)为视差图中(x,y)处的视差值,|of|表示感兴趣区域内像素总数,k为放映放大率,D表示视差,L为观看立体图像时距屏幕的距离;
步骤402:提取前景区域宽度Wmean与宽度角Wθ,公式如下:
Figure GDA0003915404910000024
Figure GDA0003915404910000025
其中,NF表示前景区域水平线的数量,
Figure GDA0003915404910000026
表示前景区域内第n条水平线长度,w表示宽度;
步骤403:根据水平方向和垂直方向的空间频率Rf、Cf,按照下面公式计算图像空间频率v,其中,M和N为图像的宽和高,I(x,y)为图像(x,y)点的像素值;
Figure GDA0003915404910000027
Figure GDA0003915404910000028
Figure GDA0003915404910000029
步骤404:通过下面公式计算图像视角β,得到归一化的空间频率f,其中r表示栅条与人眼的距离,S为光栅图像宽度;
Figure GDA0003915404910000031
Figure GDA0003915404910000032
步骤405:按下面公式计算基于空间加权的区域对比度
Figure GDA0003915404910000033
其中,dr(r1,r2)为区域r1和区域r2的空间颜色距离,f(c1,i)表示第i个颜色c1,i在第1个区域r1的所有颜色n1中出现的概率,f(c2,j)表示第j个颜色c2,j在第2个区域r2的所有颜色n2中出现的概率,d(c1,i,c2,j)表示区域1中的i个颜色与区域2中第j个颜色在Lab空间内的颜色距离,Sr(ri,rj)表示区域ri与区域rj之间的空间距离,γ0用于控制空间权值的强度;
Figure GDA0003915404910000034
Figure GDA0003915404910000035
步骤406:提取亮度V、色度H、饱和度特征S,公式如下:
V=max(R',G',B')
Figure GDA0003915404910000036
Figure GDA0003915404910000037
其中,R'、G'、B'为红、绿、蓝三个颜色通道分量的归一化值;
步骤407:计算左右眼视图显著区域的亮度差异Δv(x,y),色度差异Δh(x,y),饱和度差异Δs(x,y),公式如下,其中,vL(x,y)表示左眼图像的亮度特征,vR(x,y)表示右眼图像的亮度特征,hL(x,y)表示左眼图像的色度特征,hR(x,y)表示右眼图像的色度特征,sL(x,y)表示左眼图像的饱和度,sR(x,y)表示右眼图像的饱和度;
Δv(x,y)=|vL(x,y)-vR(x,y)|
Δh(x,y)=|hL(x,y)-hR(x,y)|
Δs(x,y)=|sL(x,y)-sR(x,y)|
步骤5:采用ε-SVR支持向量回归模型建立预测函数f(X),其定义形式如下:
Figure GDA0003915404910000041
δi
Figure GDA0003915404910000042
为拉格朗日算子,b为偏置项,X为特征变量,n为提取的特征的数量,Xi为提取的第i个特征,K(Xi,X)表示核函数,采用径向基核函数(RBF),公式如下,其中,γ1为核函数的参数;
Figure GDA0003915404910000043
步骤6:将提取的感知特征
Figure GDA0003915404910000044
与标准MOS值进行归一化处理,基于预测函数进行模型训练和舒适性预测,对预测结果进行反归一化处理得到舒适度预测值。
本发明的积极效果是:充分分析立体图像深度、自身特性相关信息,提取感兴趣区域的各项深度特征、图像空间频域特征、对比度特征、以及左右眼视图的亮度、色度、饱和度差异等,基于支持向量回归模型实现了立体图像的舒适性客观评价;避免了人工舒适性评价实施所需的人力、时间、资源成本,同时了改善了基于单一或几种特征进行评价建模的效果不佳问题,得到了更为接近标准MOS值的预测结果。
附图说明
图1(a)为原始图像右眼图像,图1(b)为提取的感兴趣区域。
图2为空间频率归一化计算示意图。
图3为实验用标准立体图像数据集的部分图像数据。
图4为模型预测值与标准主观MOS值的关系。
具体实施方式
下面结合附图和实施例对本发明做进一步的详细说明;如图1-4所示,一种立体图像观看舒适性客观评价方法,完成立体图像舒适度客观评价,具体步骤如下:
步骤1:计算左右眼图像的视差图DR(x,y);
步骤2:立体图像的右眼图像如图1(a)所示,用GBVS显著性检测算法为其提取显著区域,得到显著图ISR(x,y),结合视差图计算立体显著图IIS(x,y),对立体显著图进行阈值T分割,得到掩膜图IM(x,y),式中α12=1,这里取α1=α2=0.5;
IIS(x,y)=α1ISR(x,y)+α2DR(x,y)
Figure GDA0003915404910000051
步骤3:将掩膜图与右眼图像相乘得到立体图像感兴趣区域of,如图1(b)所示;
步骤4:提取感兴趣区域的舒适度影响特征,包括如下子步骤:
步骤401:通过下面公式计算感兴趣区域的平均视差值Dmean与平均视差角dθ
Figure GDA0003915404910000052
Figure GDA0003915404910000053
其中,d(x,y)为视差图中(x,y)处的视差值,|of|表示感兴趣区域内像素总数,k为放映放大率,D表示视差,L为观看立体图像时距屏幕的距离;
步骤402:提取前景区域宽度Wmean与宽度角Wθ,公式如下:
Figure GDA0003915404910000054
Figure GDA0003915404910000055
其中,NF表示前景区域水平线的数量,
Figure GDA0003915404910000056
表示前景区域内第n条水平线长度,w表示宽度;
步骤403:根据水平方向和垂直方向的空间频率Rf、Cf,按照下面公式计算图像空间频率v,其中,M和N为图像的宽和高,I(x,y)为图像(x,y)点的像素值;
Figure GDA0003915404910000057
Figure GDA0003915404910000058
Figure GDA0003915404910000059
步骤404:通过下面公式计算图像视角β,得到归一化的空间频率f,其中r表示栅条与人眼的距离,此处取值r=4S,S为光栅图像宽度,如图2所示;
Figure GDA0003915404910000061
/>
Figure GDA0003915404910000062
步骤405:按下面公式计算基于空间加权的区域对比度
Figure GDA0003915404910000063
其中,dr(r1,r2)为区域r1和区域r2的空间颜色距离,f(c1,i)表示第i个颜色c1,i在第1个区域r1的所有颜色n1中出现的概率,f(c2,j)表示第j个颜色c2,j在第2个区域r2的所有颜色n2中出现的概率,d(c1,i,c2,j)表示区域1中的i个颜色与区域2中第j个颜色在Lab空间内的颜色距离,Sr(ri,rj)表示区域ri与区域rj之间的空间距离,γ0用于控制空间权值的强度;此处取值γ0 2=0.4;
Figure GDA0003915404910000064
Figure GDA0003915404910000065
步骤406:提取亮度V、色度H、饱和度特征S,公式如下:
V=max(R',G',B')
Figure GDA0003915404910000066
Figure GDA0003915404910000067
其中,R'、G'、B'为红、绿、蓝三个颜色通道分量的归一化值;
步骤407:计算左右眼视图显著区域的亮度差异Δv(x,y),色度差异Δh(x,y),饱和度差异Δs(x,y),公式如下,其中,vL(x,y)表示左眼图像的亮度特征,vR(x,y)表示右眼图像的亮度特征,hL(x,y)表示左眼图像的色度特征,hR(x,y)表示右眼图像的色度特征,sL(x,y)表示左眼图像的饱和度,sR(x,y)表示右眼图像的饱和度;
Δv(x,y)=|vL(x,y)-vR(x,y)|
Δh(x,y)=|hL(x,y)-hR(x,y)|
Δs(x,y)=|sL(x,y)-sR(x,y)|
步骤5:采用ε-SVR支持向量回归模型建立预测函数f(X),其定义形式如下:
Figure GDA0003915404910000071
δi
Figure GDA0003915404910000072
为拉格朗日算子,b为偏置项,X为特征变量,n为提取的特征的数量,Xi为提取的第i个特征,K(Xi,X)表示核函数,采用径向基核函数(RBF),公式如下,其中,γ1为核函数的参数;
Figure GDA0003915404910000073
步骤6:选取IVY数据集,部分图像如图3所示,提取的每幅立体图像对的感知特征并进行归一化处理,同样将其标准MOS值进行归一化处理,选取数据集中80%的图像用来训练,剩余20%用作测试,基于预测函数进行模型训练,从而实现舒适性预测,对结果反归一化处理得到舒适度预测值,模型预测值与主观评价值的关系如图4所示。

Claims (1)

1.一种立体图像观看舒适性客观评价方法,其特征在于:首先,提取立体图像的感兴趣区域;然后,分析感兴趣区域图像,获取各种特征;有效提取各特征信息,采用ε-SVR支持向量回归模型,确立核函数;最后选取标准立体图像库训练并测试模型,实现舒适性评价;其具体步骤如下:
步骤1:计算左右眼图像的视差图DR(x,y);
步骤2:采用GBVS显著性检测算法以右眼图像为主视眼提取显著区域,得到显著图ISR(x,y),结合视差图计算立体显著图IIS(x,y),对立体显著图进行阈值T分割,得到掩膜图IM(x,y),其中,α1,α2为系数,且α12=1;
IIS(x,y)=α1ISR(x,y)+α2DR(x,y)
Figure FDA0003796758690000011
步骤3:将掩膜图与右眼图像相乘得到立体图像感兴趣区域of
步骤4:提取感兴趣区域的舒适度影响特征,包括如下子步骤:
步骤401:通过下面公式计算感兴趣区域的平均视差值Dmean与平均视差角dθ
Figure FDA0003796758690000012
Figure FDA0003796758690000013
其中,d(x,y)为视差图中(x,y)处的视差值,|of|表示感兴趣区域内像素总数,k为放映放大率,D表示视差,L为观看立体图像时距屏幕的距离;
步骤402:提取前景区域宽度Wmean与宽度角Wθ,公式如下:
Figure FDA0003796758690000014
Figure FDA0003796758690000015
其中,NF表示前景区域水平线的数量,
Figure FDA0003796758690000016
表示前景区域内第n条水平线长度,w表示宽度;
步骤403:根据水平方向和垂直方向的空间频率Rf、Cf,按照下面公式计算图像空间频率v,其中,M和N为图像的宽和高,I(x,y)为图像(x,y)点的像素值;
Figure FDA0003796758690000017
Figure FDA0003796758690000021
Figure FDA0003796758690000022
步骤404:通过下面公式计算图像视角β,得到归一化的空间频率f,其中r表示栅条与人眼的距离,S为光栅图像宽度;
Figure FDA0003796758690000023
Figure FDA0003796758690000024
步骤405:按下面公式计算基于空间加权的区域对比度
Figure FDA0003796758690000025
其中,dr(r1,r2)为区域r1和区域r2的空间颜色距离,f(c1,i)表示第i个颜色c1,i在第1个区域r1的所有颜色n1中出现的概率,f(c2,j)表示第j个颜色c2,j在第2个区域r2的所有颜色n2中出现的概率,d(c1,i,c2,j)表示区域1中的i个颜色与区域2中第j个颜色在Lab空间内的颜色距离,Sr(ri,rj)表示区域ri与区域rj之间的空间距离,γ0用于控制空间权值的强度;
Figure FDA0003796758690000026
Figure FDA0003796758690000027
步骤406:提取亮度V、色度H、饱和度特征S,公式如下:
V=max(R',G',B')
Figure FDA0003796758690000028
Figure FDA0003796758690000029
其中,R'、G'、B'为红、绿、蓝三个颜色通道分量的归一化值;
步骤407:计算左右眼视图显著区域的亮度差异Δv(x,y),色度差异Δh(x,y),饱和度差异Δs(x,y),公式如下,其中,vL(x,y)表示左眼图像的亮度特征,vR(x,y)表示右眼图像的亮度特征,hL(x,y)表示左眼图像的色度特征,hR(x,y)表示右眼图像的色度特征,sL(x,y)表示左眼图像的饱和度,sR(x,y)表示右眼图像的饱和度;
Δv(x,y)=|vL(x,y)-vR(x,y)|
Δh(x,y)=|hL(x,y)-hR(x,y)|
Δs(x,y)=|sL(x,y)-sR(x,y)|
步骤5:采用ε-SVR支持向量回归模型建立预测函数f(X),其定义形式如下:
Figure FDA0003796758690000031
δi
Figure FDA0003796758690000032
为拉格朗日算子,b为偏置项,X为特征变量,n为提取的特征的数量,Xi为提取的第i个特征,K(Xi,X)表示核函数,采用径向基核函数(RBF),公式如下,其中,γ1为核函数的参数;
Figure FDA0003796758690000033
步骤6:将提取的感知特征
Figure FDA0003796758690000034
与标准MOS值进行归一化处理,基于预测函数进行模型训练和舒适性预测,对预测结果进行反归一化处理得到舒适度预测值。
CN202011072094.5A 2020-10-09 2020-10-09 一种立体图像观看舒适性客观评价方法 Active CN112165615B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011072094.5A CN112165615B (zh) 2020-10-09 2020-10-09 一种立体图像观看舒适性客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011072094.5A CN112165615B (zh) 2020-10-09 2020-10-09 一种立体图像观看舒适性客观评价方法

Publications (2)

Publication Number Publication Date
CN112165615A CN112165615A (zh) 2021-01-01
CN112165615B true CN112165615B (zh) 2023-03-24

Family

ID=73866386

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011072094.5A Active CN112165615B (zh) 2020-10-09 2020-10-09 一种立体图像观看舒适性客观评价方法

Country Status (1)

Country Link
CN (1) CN112165615B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN104811693A (zh) * 2015-04-14 2015-07-29 宁波大学 一种立体图像视觉舒适度客观评价方法
CN109167988A (zh) * 2018-08-29 2019-01-08 长春理工大学 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162718A (ja) * 2014-02-26 2015-09-07 ソニー株式会社 画像処理方法、画像処理装置及び電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN104811693A (zh) * 2015-04-14 2015-07-29 宁波大学 一种立体图像视觉舒适度客观评价方法
CN109167988A (zh) * 2018-08-29 2019-01-08 长春理工大学 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Also Published As

Publication number Publication date
CN112165615A (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
Liu et al. CID: IQ–a new image quality database
US8488868B2 (en) Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US8953874B2 (en) Conversion of monoscopic visual content using image-depth database
TWI524734B (zh) 產生深度圖的方法及裝置
CN101699512B (zh) 一种基于背景差异抠图和稀疏光流法的深度的生成方法
CN102215423B (zh) 用于测量视听参数的方法和设备
CN102595185B (zh) 一种立体图像质量客观评价方法
JP2015156607A (ja) 画像処理装置、画像処理装置、及び電子機器
US9467677B2 (en) Image processing method, image processing device, and electronic apparatus
CN103096106A (zh) 图像处理设备和方法
CN106875389B (zh) 基于运动显著性的立体视频质量评价方法
CN103780895B (zh) 一种立体视频质量评价方法
US10277877B2 (en) 3D system including a neural network
CN110706196B (zh) 基于聚类感知的无参考色调映射图像质量评价算法
CN106886992A (zh) 一种基于饱和度的彩色多曝光融合图像的质量评价方法
JP2015095779A (ja) 画像処理装置、画像処理方法及び電子機器
CN111641822A (zh) 一种重定位立体图像质量评价方法
Opozda et al. The survey of subjective and objective methods for quality assessment of 2D and 3D images
Yasakethu et al. Predicting sensation of depth in 3D video
Wan et al. Depth perception assessment of 3D videos based on stereoscopic and spatial orientation structural features
CN109167988B (zh) 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法
CN112165615B (zh) 一种立体图像观看舒适性客观评价方法
CN110060291B (zh) 一种考虑人因的立体视在距离解算方法
US8295539B2 (en) Method and system of immersive sensation enhancement for video sequence displaying
Liu et al. Comfort evaluation of stereo images based on machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant