CN109167988B - 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 - Google Patents

一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 Download PDF

Info

Publication number
CN109167988B
CN109167988B CN201810997142.8A CN201810997142A CN109167988B CN 109167988 B CN109167988 B CN 109167988B CN 201810997142 A CN201810997142 A CN 201810997142A CN 109167988 B CN109167988 B CN 109167988B
Authority
CN
China
Prior art keywords
region
foreground
model
contrast
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810997142.8A
Other languages
English (en)
Other versions
CN109167988A (zh
Inventor
权巍
赵云秀
韩成
丁莹
蒋振刚
杨华民
冯欣
李华
张超
姜珊
李波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201810997142.8A priority Critical patent/CN109167988B/zh
Publication of CN109167988A publication Critical patent/CN109167988A/zh
Application granted granted Critical
Publication of CN109167988B publication Critical patent/CN109167988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于D+W模型和区域对比度的立体图像视觉舒适度评价方法,其特征在于:选择右眼为主视点,根据主视点图像获取显著区域,结合视差信息进一步获得感兴趣区域;然后,将感兴趣区域作为前景区域,提取前景区域的视差与宽度信息,计算前景与背景对比度;最后,引入区域对比度,修正D+W模型,建立立体舒适度评价模型;有效地利用感兴趣区域提取舒适度特征信息,改进D+W模型,建立视觉舒适度模型,自动完成舒适度计算,提高了评估的效率,获得了更为准确的结果。

Description

一种基于D+W模型和对比度的立体图像视觉舒适度评价方法
技术领域
本发明涉及一种基于D+W模型和对比度的立体图像视觉舒适度评价方法,属于图像信号处理技术领域。
背景技术
目前,立体电影已在全球范围内普及,立体电视也逐渐融入普通大众生活。但由于立体影视、图像的显示机理与人眼视觉生理之间的矛盾,使得辐辏与聚焦调节不一致,导致用户在观看时引发眼睛干涩、眼疲劳、恶心、头疼等问题,甚至造成眼部疾病的发生,从而限制了立体显示相关技术的发展及应用。为了提高立体影视的观看质量,在对立体图像或视频进行评价时,将视觉舒适度纳入了考量范围,并作为重要评判标准。目前对立体图像的舒适度评价多采用人工评分的主观评价模式,这种评价模式需要专业的评价环境和巨大的人力耗费。因此,亟需建立一套高效、准确的视觉舒适度评价模型,以指导立体拍摄。
影响视觉舒适度的原因除设备本身、人的生理及心理的影响外还包括立体图像的视差、视差梯度、物体宽度、空间频率、图像的特征(亮度、色度、对比度…)等。目前,立体视觉舒适度大多围绕视差开展研究。Lee S I等人通过对前景目标宽度定量分析得出视差+宽度(D+W)的立体视觉舒适度评价模型;但目标宽度及视差的获取并未考虑到人眼视觉注意机制。而胡佳洁、刘畅等人通过实验得出左右视图的对比度差异门限值范围,虽其正确率可达到90%以上,但并没有具体阐明对比度对立体舒适度的量化影响。因此本发明提出一种基于感兴趣区域及区域对比度的视觉舒适度评测方法,建立多维度的立体图像舒适度评价模型,解决了传统立体图像舒适度评估需人工参与、费时费力的问题。
发明内容
本发明的目的在于提供一种基于D+W模型和对比度的立体图像视觉舒适度评价方法,其得益于人类视觉系统的信息选择能力,人类可以从复杂的场景中快速的找出感兴趣区域,实现场景的理解;因而立体图像的感兴趣区域对于舒适度起到决定性的影响;鉴于此,本发明根据人眼注意机制获取感兴趣区域,有效地利用感兴趣区域提取舒适度特征信息,改进D+W模型,建立视觉舒适度模型,自动完成舒适度计算,提高了评估的效率,获得了更为准确的结果。
本发明技术方案是这样实现的:一种基于D+W模型和区域对比度的立体图像视觉舒适度评价方法,其特征在于:选择右眼为主视点,根据主视点图像获取显著区域,结合视差信息进一步获得感兴趣区域;然后,将感兴趣区域作为前景区域,提取前景区域的视差与宽度信息,计算前景与背景对比度;最后,引入区域对比度,修正D+W模型,建立立体舒适度评价模型;其具体的步骤如下:
步骤1、将左右眼立体图像的右视图作为主视图,基于图论的视觉显著性(Graph-Based Visual Saliency,GBVS)检测算法、结合视差图像,并采用线性方式得到立体显著图;进行阈值分割处理得到掩膜图像;
步骤2、使用掩膜图像与右视图、视差图相乘,分别得到感兴趣区图像和感兴趣区视差图,将感兴趣区域作为前景区域;
步骤3、获取前景区域的平均视差值Df,公式如下:
Figure GDA0002445630310000021
其中,of表示前景区域,|of|表示of区域内像素总数,d(x,y)表示视差图中像素(x,y)处的视差值。则前景区域平均视差角dθ可通过如下公式获取;
Figure GDA0002445630310000022
其中,k为放映放大率,Df表示视差,L为观看时距屏幕距离;
步骤4、估计前景区域宽度Wf,公式如下:
Figure GDA0002445630310000023
式中,Nf表示前景区域内水平线的数量,
Figure GDA0002445630310000025
表示前景区域内第n条水平线长度,则宽度角wα可通过如下公式获取,
Figure GDA0002445630310000024
式中,Wf表示宽度,k为放映放大率,L为观看时距屏幕距离;
步骤5、将前后景区域的RGB空间的每个颜色通道由256个值量化为16个不同值,然后选取覆盖图像像素不低于95%的颜色来代替整体颜色;
步骤6、在Lab的颜色空间中进行空间颜色距离的度量,获取前后景区域间的颜色距离集合,通过如下公式计算前景区域r1和背景区域r2之间的颜色距离dr(r1,r2)。
Figure GDA0002445630310000031
式中,f(c1,i)表示第i个颜色c1,i在区域r1的所有颜色n1中出现的频率,f(c2,j)表示第j个颜色c2,j在区域r2的所有颜色n2中出现的频率。d(c1,i,c2,j)表示前景区域中第i个颜色与背景区域中第j个颜色在Lab空间内的颜色距离;
步骤7、计算空间加权的区域对比度
Figure GDA0002445630310000033
,公式如下:
Figure GDA0002445630310000032
式中,Sr(rk,ri)是区域rk与ri之间的空间距离,σs控制空间权值的强度,σs越大空间权值的影响越小,则背景区域的影响越显著。两区域间的空间距离被定义为区域重心间的欧几里得距离,其中,像素坐标为归一化后结果,取
Figure GDA0002445630310000034
Figure GDA0002445630310000035
步骤8、将视差与宽度(D+W)模型
VC(D,w)=80.07-17.71D+4.78ln(w)-0.52Dln(w)
量化为5分制,如下公式所示
VC(D,w)=4.2028-0.7084D+0.1912ln(w)-0.0208Dln(w)
令f(D,w)为如下公式
f(D,w)=0.7084D-0.1912ln(w)+0.0208Dln(w)
式中,D为目标视差角,w为目标宽度角,VC为视觉舒适度;且满足0.50≤D≤2.00,0.25≤w≤4.00;
步骤9、将对比度加入视差与宽度模型中,则常数项与对比度项的函数f(c)可以由如下公式所示
VC(dθ,wα,c)+f(dθ,wα)=f(c)
其中,c为对比度;
步骤10、在IVY数据库中选择符合模型条件的72组图像对VC(dθ,wα,c)+f(dθ,wα)与对比度的关系进行分析,在Matlab中使用最小二乘法做曲线拟合,得到如下关系:
VC(dθ,wα,c)+f(dθ,wα)=0.0015c2-0.0572c+4.8736
整理得到如下舒适度评价模型
VC(dθ,wα,c)=4.8736-0.7084dθ+0.1912ln(wα)-0.0208dθln(wα)+0.0015c2-0.0572c(0.50≤dθ≤2.00,0.25≤wαα≤4.00)
其中,dθ为前景区域平均视差角,wα为前景区域宽度角,c对前后景区域对比度。
本发明的积极效果是实现了对立体图像舒适度的客观估计,通过提取感兴趣区域并结合区域对比度,修正D+W模型,建立舒适度客观量化模型,能够有效地节约传统人工评价的人力成本,和依赖于评价者的间题;利用人眼视觉注意机制,将模型出发点建立在人眼的基础上,使得模型更具客观性;结合视差、宽度与对比度等,综合考量多维因素,使得模型评价结果更为准确、可信度高。
附图说明
图1为本发明流程示意图。
图2为感兴趣区域获取过程。
图3为颜色通道量化及量化后前景区域颜色直方图。
图4为VC(D,w)+f(D,w)与对比度的关系。
图5为模型预测值与主观评价值的关系。
具体实施方式
下面结合附图和实施例对本发明做进一步的描述:本实施例中,采用韩国先进科学院提供的立体图像库,该立体图像库包含120幅立体图像,涵盖各种场景深度的室内室外图像,并给出了每幅立体图像的主观视觉舒适度评分,流程图如图1所示,具体步骤如下:
步骤1、将左右眼立体图像的右视图作为主视图,基于图论的视觉显著性GBVS检测算法、结合视差图像,并采用线性方式得到立体显著图;进行阈值分割处理得到掩膜图像;掩膜图像获取过程如图2(a)右视图、(b)视差图、(c)显著图、(d)立体显著图、(e)掩膜图所示。
步骤2、使用掩膜图像与右视图、视差图相乘,分别得到感兴趣区图像和感兴趣区视差图,如图2(f)感兴趣区域、(g)感兴趣区域视差图所示;将感兴趣区域作为前景区域;对掩膜图像取反,相乘可得到背景区域。
步骤3、通过公式
Figure GDA0002445630310000041
获取前景区域的平均视差值Df。其中,of表示前景区域,|of|表示of区域内像素总数,d(x,y)表示视差图中像素(x,y)处的视差值。则前景区域平均视差角dθ可利用如下公式获取:
Figure GDA0002445630310000051
其中,k为放映放大率,Df表示此前计算得出的前景的平均视差值,L为观看时距屏幕距离;
步骤4、通过扫描前景区域的水平线,并使用水平线的平均宽度来估计前景区域宽度,利用公式:
Figure GDA0002445630310000052
计算前景区域平均宽度Wf。式中Nf表示前景区域内水平线的数量,
Figure GDA0002445630310000055
表示前景区域内第n条水平线长度。则宽度角wα可通过利用如下公式获取:
Figure GDA0002445630310000053
式中,Wf表示前景区域平均宽度,k为放映放大率,L为观看时距屏幕距离。
步骤5、重复上述步骤1~4,对IVY立体图像库中图像进行处理,得到每幅图像的视差角与宽度角,由于D+W模型中对视差与宽度的角度范围进行规范为:0.50≤D≤2.00,0.25≤w≤4.00。因此,对IVY立体图像库中的120幅图像进行筛选,选取符合条件的图像进行接下来的实施步骤。
步骤6、将每幅图像的前后景区域的RGB空间的每个颜色通道由256个值量化为16个不同值,然后选取覆盖图像像素不低于95%的颜色来代替整体颜色。量化前后图像如图3(a)、(b)所示。剩下的像素颜色,包含不高于5%的图像像素,这部分颜色被直方图中最邻近颜色替代,通过该方法建立前后景区域的颜色直方图,如图3(c)所示。
步骤7、在Lab的颜色空间中进行空间颜色距离的度量。先将图像从RGB空间转到Lab空间。然后获取前后景区域间的颜色距离集合,通过如下公式
Figure GDA0002445630310000054
计算前景区域r1和背景区域r2之间的颜色距离dr(r1,r2)。式f(c1,i)表示第i个颜色c1,i在区域r1的所有颜色n1中出现的频率,f(c2,j)表示第j个颜色c2,j在区域r2的所有颜色n2中出现的频率。d(c1,i,c2,j)表示前景区域中第i个颜色与背景区域中第j个颜色在Lab空间内的颜色距离,用欧式距离公式计算可得。
步骤8、通过如下公式
Figure GDA0002445630310000061
计算空间加权的区域对比度
Figure GDA0002445630310000062
式中Sr(rk,ri)是区域rk与ri之间的空间距离,σs控制空间权值的强度。σs越大空间权值的影响越小,则背景区域的影响越显著。两区域间的空间距离被定义为区域重心间的欧几里得距离。其中,像素坐标为归一化后结果,取
Figure GDA0002445630310000063
步骤9、重复步骤6~8,对IVY立体图像库中经筛选后的图像进行颜色量化处理,得到每幅图像的对比度。
步骤10、将视差与宽度(D+W)模型
VC(D,w)=80.07-17.71D+4.78ln(w)-0.52Dln(w)
量化为5分制,如下公式所示
VC(D,w)=4.2028-0.7084D+0.1912ln(w)-0.0208Dln(w)
提取包含变量D与w的函数,令f(D,w)为如下所示
f(D,w)=0.7084D-0.1912ln(w)+0.0208Dln(w)
步骤11、将对比度加入视差与宽度模型中,则常数项与对比度项的函数f(c)可以由如下公式得到:
VC(dθ,wα,c)+f(dθ,wα)=f(c)
步骤12、在IVY数据库中选择符合模型条件的72组图像,对VC(dθ,wα,c)+f(dθ,wα)与对比度的关系进行分析,在Matlab中使用最小二乘法做曲线拟合,如图4所示,得到如下关系:
VC(dθ,wα,c)+f(dθ,wα)=0.0015c2-0.0572c+4.8736
整理得到如下模型:
VC(dθ,wα,c)=4.8736-0.7084dθ+0.1912ln(wα)-0.0208dθln(wα)+0.0015c2-0.0572c(0.50≤dθ≤2.00,0.25≤wα≤4.00)
其中,dθ为前景区域平均视差角,wα为前景区域宽度角,c对前后景区域对比度。
步骤13、在本实施例中,利用四个常用客观参量作为评价指标对模型估计值与主观评价值的相关性做分析,在IVY中选取部分图像作为测试集,利用本发明模型计算这些图像的客观舒适度,然后比较对应的主观评测评分值计算对应主观评分与客观模型预测值间的Pearson相关系数(Pearson Linear Correlation Coefficient,PLCC),Kendall相关系数(Kendall Rank-order Correlation Coefficient,KRCC),平均绝对值误差(MeanAbsolute Error,MAE)和均方根误差(Root Mean Squared Error,RMSE),如表1所示。
表1模型性能分析
Figure GDA0002445630310000071
基于本模型对多幅立体图像进行客观评价,结果与主观评价值的关系如图5所示。从表1与图5结果可知,本发明方法得到的立体图像的舒适度客观评价值与主观评价值间具有很强的一致性,性能较好。

Claims (1)

1.一种基于D+W模型和区域对比度的立体图像视觉舒适度评价方法,其特征在于:选择右眼为主视点,根据主视点图像获取显著区域,结合视差信息进一步获得感兴趣区域;然后,将感兴趣区域作为前景区域,提取前景区域的视差与宽度信息,计算前景与背景对比度;最后,引入区域对比度,修正D+W模型,建立立体舒适度评价模型;其具体的步骤如下:
步骤1、将左右眼立体图像的右视图作为主视图,基于图论的视觉显著性Graph-BasedVisual Saliency,GBVS检测算法、结合视差图像,并采用线性方式得到立体显著图;进行阈值分割处理得到掩膜图像;
步骤2、使用掩膜图像与右视图、视差图相乘,分别得到感兴趣区图像和感兴趣区视差图,将感兴趣区域作为前景区域;
步骤3、获取前景区域的平均视差值Df,公式如下:
Figure FDA0002445630300000011
其中,of表示前景区域,|of|表示of区域内像素总数,d(x,y)表示视差图中像素(x,y)处的视差值;则前景区域平均视差角dθ可通过如下公式获取;
Figure FDA0002445630300000012
其中,k为放映放大率,Df表示视差,L为观看时距屏幕距离;
步骤4、估计前景区域宽度Wf,公式如下:
Figure FDA0002445630300000013
式中,Nf表示前景区域内水平线的数量,
Figure FDA0002445630300000014
表示前景区域内第n条水平线长度,则宽度角wα可通过如下公式获取,
Figure FDA0002445630300000015
式中,Wf表示宽度,k为放映放大率,L为观看时距屏幕距离;
步骤5、将前后景区域的RGB空间的每个颜色通道由256个值量化为16个不同值,然后选取覆盖图像像素不低于95%的颜色来代替整体颜色;
步骤6、在Lab的颜色空间中进行空间颜色距离的度量,获取前后景区域间的颜色距离集合,通过如下公式计算前景区域r1和背景区域r2之间的颜色距离dr(r1,r2);
Figure FDA0002445630300000021
式中,f(c1,i)表示第i个颜色c1,i在区域r1的所有颜色n1中出现的频率,f(c2,j)表示第j个颜色c2,j在区域r2的所有颜色n2中出现的频率;d(c1,i,c2,j)表示前景区域中第i个颜色与背景区域中第j个颜色在Lab空间内的颜色距离;
步骤7、计算空间加权的区域对比度
Figure FDA0002445630300000022
公式如下:
Figure FDA0002445630300000023
式中,Sr(rk,ri)是区域rk与ri之间的空间距离,σs控制空间权值的强度,σs越大空间权值的影响越小,则背景区域的影响越显著;两区域间的空间距离被定义为区域重心间的欧几里得距离,其中,像素坐标为归一化后结果,取
Figure FDA0002445630300000024
步骤8、将视差与宽度(D+W)模型
VC(D,w)=80.07-17.71D+4.78ln(w)-0.52Dln(w)
量化为5分制,如下公式所示
VC(D,w)=4.2028-0.7084D+0.1912ln(w)-0.0208Dln(w)
令f(D,w)为如下公式
f(D,w)=0.7084D-0.1912ln(w)+0.0208Dln(w)
式中,D为目标视差角,w为目标宽度角,VC为视觉舒适度;且满足0.50≤D≤2.00,0.25≤w≤4.00;
步骤9、将对比度加入视差与宽度模型中,则常数项与对比度项的函数f(c)可以由如下公式所示
VC(dθ,wα,c)+f(dθ,wα)=f(c)
其中,c为对比度;
步骤10、在IVY数据库中选择符合模型条件的72组图像对VC(dθ,wα,c)+f(dθ,wα)与对比度的关系进行分析,在Matlab中使用最小二乘法做曲线拟合,得到如下关系:
VC(dθ,wα,c)+f(dθ,wα)=0.0015c2-0.0572c+4.8736
整理得到如下舒适度评价模型
VC(dθ,wα,c)=4.8736-0.7084dθ+0.1912ln(wα)-0.0208dθln(wα)+0.0015c2-0.0572c(0.50≤dθ≤2.00,0.25≤wα≤4.00)
其中,dθ为前景区域平均视差角,wα为前景区域宽度角,c对前后景区域对比度。
CN201810997142.8A 2018-08-29 2018-08-29 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 Active CN109167988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810997142.8A CN109167988B (zh) 2018-08-29 2018-08-29 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810997142.8A CN109167988B (zh) 2018-08-29 2018-08-29 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Publications (2)

Publication Number Publication Date
CN109167988A CN109167988A (zh) 2019-01-08
CN109167988B true CN109167988B (zh) 2020-06-26

Family

ID=64893172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810997142.8A Active CN109167988B (zh) 2018-08-29 2018-08-29 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Country Status (1)

Country Link
CN (1) CN109167988B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060291B (zh) * 2019-04-04 2023-01-31 长春理工大学 一种考虑人因的立体视在距离解算方法
CN112165615B (zh) * 2020-10-09 2023-03-24 长春理工大学 一种立体图像观看舒适性客观评价方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822058A (zh) * 2015-04-14 2015-08-05 宁波大学 一种立体图像显著图提取方法
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法
CN105163111A (zh) * 2015-09-10 2015-12-16 宁波大学 一种基于场景模式分类的立体图像视觉舒适度评价方法
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN107194927A (zh) * 2017-06-13 2017-09-22 天津大学 基于显著性区域的立体图像舒适度色度范围的测量方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100239132B1 (ko) * 1996-10-10 2000-01-15 윤종용 3차원 시차 그리기 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822058A (zh) * 2015-04-14 2015-08-05 宁波大学 一种立体图像显著图提取方法
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法
CN105163111A (zh) * 2015-09-10 2015-12-16 宁波大学 一种基于场景模式分类的立体图像视觉舒适度评价方法
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN107194927A (zh) * 2017-06-13 2017-09-22 天津大学 基于显著性区域的立体图像舒适度色度范围的测量方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于对比度补偿的立体视频舒适度评价;姜秀红等;《吉林大学学报》;20160531;全文 *
立体视频舒适度的研究;姜秀红等;《CNKI》;20160915;正文4.1.4-4.2.4 *

Also Published As

Publication number Publication date
CN109167988A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
US8644596B1 (en) Conversion of monoscopic visual content using image-depth database
CN107578403B (zh) 基于梯度信息指导双目视图融合的立体图像质量评价方法
Mittal et al. Algorithmic assessment of 3D quality of experience for images and videos
CN103152600B (zh) 一种立体视频质量评价方法
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
CN110189294B (zh) 基于深度可信度分析的rgb-d图像显著性检测方法
CN103780895B (zh) 一种立体视频质量评价方法
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN106875389B (zh) 基于运动显著性的立体视频质量评价方法
CN109831664B (zh) 基于深度学习的快速压缩立体视频质量评价方法
CN104023227B (zh) 一种基于空域和时域结构相似性的视频质量客观评价方法
CN109191428A (zh) 基于掩蔽纹理特征的全参考型图像质量评价方法
CN109345502A (zh) 一种基于视差图立体结构信息提取的立体图像质量评价方法
WO2022126674A1 (zh) 立体全景图像的质量评价方法、系统
CN110910365A (zh) 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法
CN109167988B (zh) 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法
Wang et al. Quality assessment for color correction-based stitched images via bi-directional matching
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
CN109345552A (zh) 基于区域权重的立体图像质量评价方法
CN104469355B (zh) 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
Tian et al. SC-IQA: Shift compensation based image quality assessment for DIBR-synthesized views
CN108848365B (zh) 一种重定位立体图像质量评价方法
CN103780903B (zh) 一种立体相机近距会聚拍摄质量客观评价方法
CN110060291B (zh) 一种考虑人因的立体视在距离解算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant