CN102087417A - 一种利用随机点立体图检测自由立体显示器立体度的方法 - Google Patents

一种利用随机点立体图检测自由立体显示器立体度的方法 Download PDF

Info

Publication number
CN102087417A
CN102087417A CN 201010564095 CN201010564095A CN102087417A CN 102087417 A CN102087417 A CN 102087417A CN 201010564095 CN201010564095 CN 201010564095 CN 201010564095 A CN201010564095 A CN 201010564095A CN 102087417 A CN102087417 A CN 102087417A
Authority
CN
China
Prior art keywords
random
point diagram
depth value
parallax
auto
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010564095
Other languages
English (en)
Other versions
CN102087417B (zh
Inventor
张之江
秦文
张琦
史浩
谢捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN2010105640951A priority Critical patent/CN102087417B/zh
Publication of CN102087417A publication Critical patent/CN102087417A/zh
Application granted granted Critical
Publication of CN102087417B publication Critical patent/CN102087417B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种利用随机点立体图检测自由立体显示器立体度的方法,该方法具体步骤如下:(1)设计随机点图组,合成随机点立体图;(2)构造双目视差几何模型,计算双目获得的理论立体深度值S;(3)人眼通过自由立体显示器观察随机点立体图,获得实际立体深度值;(4)将理论立体深度值与实际立体深度值进行比较,计算出实际立体深度值相对理论立体深度值的误差百分比ε,依该误差百分比判定自由立体显示器立体度的好坏程度。该方法对立体度检测直观、方便、准确,判断实时。随机点图组视差可控,对不同视差的随机点图合成的随机点立体图进行观察,可将获得的实际立体感强度与理论值进行比较,进而判断自由立体显示器立体度的好坏程度。

Description

一种利用随机点立体图检测自由立体显示器立体度的方法
技术领域
本发明涉及一种利用随机点立体图检测自由立体显示器立体度的方法。
背景技术
观看传统的立体电影时,观众必须佩带偏光镜(常见有红绿眼镜)让左右眼分别接收到不同的图像,形成视差,从而建立立体感。近年来自由立体显示技术的出现,使得人眼可以在裸视条件下获得具有空间深度信息的逼真立体影像。目前,部分显示器厂商,如LG、三星、索尼等等,已经推出了数款自由立体显示器。如何方便快捷地检测自由立体显示器的立体效果成为一个值得关注的问题。
对自由立体显示器的立体效果一般可以从客观和主观两种方法来进行考虑:一类是通过客观方法即测量的方法来进行评价。使用量值对显示器的显示效果作出具体精确的测定,例如,使用亮度传感器测量显示器周围的亮度分布,用亮度的相对值来表示立体显示器的显示特性,又如,通过对自由立体显示器的屏幕分区及独立视区的分布特点从光学分离效果上对其显示效果测量评定。但该二种方法均要求测量者具有专业知识,而且,用户购买立体显示器时,也不能方便测量。通常,用户购买时是通过另一类方法——主观评价的方法对立体效果作出判定,即基于图像突出屏幕之外或陷入屏幕后方的位置多少来判定立体显示器的效果优劣。鉴于人们的视觉习惯和对世界场景前后位置关系的先验知识(如遮挡关系、颜色关系、纹理关系等等)的影响,人们用一只眼睛观看具有强烈视觉冲击感的图片时,也会产生立体感,这会导致人们无法分辨所感受到的立体感是否是由3D显示器屏幕所产生的真实立体感,从而无法对自由立体显示屏幕的立体度进行准确评判。
发明内容
为解决上述现有技术存在的问题,本发明的目的在于提供一种利用随机点立体图检测自由立体显示器立体度的方法,该方法能够对自由立体显示器立体度的好坏程度进行直观、准确、实时的判断。
为了达到上述目的,本发明所采用的技术方案是:
上述一种利用随机点立体图检测自由立体显示器立体度的方法,其特征在于,该方法具体步骤如下:
(1)、设计随机点图组,合成随机点立体图;
(2)、构造双目视差几何模型,计算双目获得的理论立体深度值S;
(3)、通过自由立体显示器对随机点立体图观察,获得到的立体深度值作为实际立体深度值
Figure B2010105640951D00021
(4)、将理论立体深度值与实际立体深度值进行比较,计算出实际立体深度值相对理论立体深度值的误差百分比,依该误差百分比,判定该自由立体显示器立体度的好坏程度。
上述步骤(1)中所述的设计随机点图组,合成随机点立体图,其具体步骤如下:
(1-1)确定随机点图的分辨率,该分辨率与被检测的自由立体显示器的分辨率相等,按照该分辨率生成一幅随机点图;
(1-2)为随机点图中各像素点赋值,可取任意灰度值,各灰度值像素在图中随机分布,像素的分布构成了随机点图的结构;
(1-3)将随机点图划分为背景区域、前景区域和视差区域,选择随机点图中一块合适的区域作为前景区域,在其左邻域和右邻域分别选取大小合适的区域作为视差区域,剩余部分均为背景区域;
(1-4)设定随机点图组中的随机点图数目,根据被检测的自由立体显示器立体视区数以及与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法所需用到的随机点图数目设定;
(1-5)对步骤(1-3)中设计的随机点图,将其前景区域整体向其左邻域或右邻域,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,形成与原图相邻的一幅具有水平视差p的随机点图;
(1-6)对步骤(1-5)生成的新的随机点图,与上述步骤(1-5)同理,将其前景区域整体向其左邻域或右邻域,方向与步骤(1-5)相同,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,得到与步骤(1-5)中生成的随机点图相邻的具有水平视差p的、随机点图组中第三幅随机点图,依此类推,直到生成满足步骤(1-4)设定的数目的随机点图;
(1-7)根据与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法,将上述具有水平视差p的随机点图组,合成一幅随机点立体图。
上述步骤(2)所述的构造双目视差几何模型,计算双目获得的理论立体深度值,其具体步骤如下:
(2-1)、构造双目视差几何模型,以两眼连线作为X轴,两眼中点为原点,垂直人脸的方向为Z轴建立世界坐标系,被观测物体、被观测物体在双目中的像、双目与自由立体显示器屏幕之间的投影几何关系为:
x L = D z p ( π p + e 2 ) - e 2 - - - ( 1 )
x R = D z p ( x p - e 2 ) + e 2 - - - ( 2 )
其中,xL和xR分别对应于PL和PR的X轴坐标,PL和PR是人左右眼看到的物体在屏幕上像点,P为人眼所看到的立体像位置,其在世界坐标系下的坐标表示为(xP,zP),D为人眼与屏幕之间沿Z轴的距离,e是双目之间沿X轴的距离;
(2-2)、计算双目实际视差,其计算式为:
H = x R - x L = e - eD z p - - - ( 3 )
其中,zp表示人眼看到的立体像P与人眼之间沿Z轴的距离,H表示左右眼分别看到物体在屏幕上的像点之间的X轴距离;
(2-3)、计算表达人眼看到的立体像位置P相对于屏幕的理论立体深度值,其表达计算式为:
S = z p - D = HD e - H - - - ( 4 )
其中,S为立体像P相对屏幕沿Z轴的距离。
双目实际视差H与设计的随机点图间的水平视差p之间的换算关系为:
H = M W p - - - ( 5 )
其中,M为自由立体显示器的水平分辨率,W为自由立体显示器的水平宽度值,p为所设计的随机点图间以像素为单位的水平视差;
(2-4)、计算得到双目获得的理论立体深度值,其计算式为:
S = DMp eW - Mp - - - ( 6 )
由此得到,理论立体深度值S与随机点图组中相邻两幅随机点图之间的水平像素视差p、被检测的自由立体显示设备的水平宽度W和水平分辨率M、以及人双眼间距e和人与显示设备间的距离D之间的关系。
上述步骤(4)中所述的计算出实际立体深度值相对理论立体深度值的误差百分比,其计算式为:
ϵ = | S - S ~ | / S - - - ( 7 )
其中,
Figure B2010105640951D00042
为人眼可以获得的实际立体深度值,S为公式(6)计算出的理论立体深度值。
本发明的一种利用随机点立体图检测自由立体显示器立体度的方法与现有技术相比,具有如下显而易见的突出实质性特点和显著优点:
1、该检测方法使用随机点图,能避免由实际物体的位置关系引起的单目立体感的干扰因素。人眼通过自由立体显示器感受到的立体感,是由自由立体显示器的分光原理对随机点立体图的分像作用而产生的真实的立体像。
2、该检测方法对立体度检测直观、方便、准确,判断实时。随机点图视差可控,使人眼能观察到的理论深度感可控,对不同视差的随机点图合成的随机点立体图进行观察,人们可将感受到的立体感强度与理论值进行比较,进而判断自由立体显示器立体度的好坏程度。
附图说明
图1是本发明的一种利用随机点立体图检测自由立体显示器立体度的方法的流程图;
图2是图1中步骤(1)所述的设计随机点图组以及合成随机点立体图的流程图;
图3是本发明实施例使用的一幅每一小方格分辨率为A×B随机点图;
图4是对应于图3具有负视差的另一幅随机点图;
图5是多幅具有负视差的随机点图经合成得到的随机点立体图;
图6是本发明实施例使用的另一幅每一小方格分辨率为A×B随机点图;
图7是对应于图4具有正视差的另一幅随机点图;
图8是多幅具有正视差的随机点图经合成得到的随机点立体图;
图9是图1中步骤(2)所述的本发明的双目视差几何模型的构造以及计算立体深度值的流程图;
图10是本发明的一种利用随机点立体图检测自由立体显示器立体度的方法中的双目视差形成立体像的几何模型。
具体实施方式
下面结合附图和具体实施方式对本发明的实施例作进一步详细的描述。本发明的实施例以柱透镜光栅立体显示器为例。
根据要测试的柱透镜光栅显示器对立体图的分辨率要求,生成一幅随机点图。设柱透镜光栅显示器要求其后的立体图像分辨率为N×M,则生成一幅分辨率同样为N×M的、具有随机灰度值的方格结构的随机点图。每一小方格的分辨率为A×B,该分辨率可根据人眼视物的舒适度进行调整,如图3、图4和图6、图7所示。图5和图8分别是图3、4所在的随机点图组和图6、7所在的随机点图组合成得到的两幅随机点立体图。
本发明的一种利用随机点立体图检测自由立体显示器立体度的方法,其具体步骤如图1所示:
(1)、设计随机点图组,合成随机点立体图,如图2所示,其具体步骤如下:
(1-1)确定随机点图的分辨率,该分辨率与被检测的自由立体显示器的分辨率相等,按照该分辨率生成一幅随机点图;
(1-2)、为随机点图中各像素点赋值,可取任意灰度值,各灰度值像素在图中随机分布,相互间无关联性,像素的分布构成了随机点图的结构,随机点图为灰度图像,图中不存在特定的形状、轮廓,如图3,图6所示;
(1-3)、将随机点图划分为背景区域、前景区域和视差区域,选择随机点图中一块合适的区域作为前景区域,将其左邻域和右邻域分别选取大小合适的区域作为视差区域,剩余部分均作为背景区域。同一随机点图组中,所有随机点图的前景区域和背景区域结构相同,视差部分结构不同;
(1-4)、设定随机点图组中的随机点图数目n,根据被检测的自由立体显示器立体视区数以及与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法所需用到的随机点图数目设定;
(1-5)、对步骤(1-3)中设计的随机点图,将其前景区域整体向其左邻域或右邻域,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,形成与原图相邻的一幅具有水平视差p的随机点图;对应于图3和图6,生成的具有水平视差的相邻随机点图,分别如图4和图7所示;
(1-6)、对步骤(1-5)生成的新的随机点图,与上述步骤(1-5)同理,将其前景区域整体向其左邻域或右邻域,方向与步骤(1-5)相同,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,得到与步骤(1-5)中生成的随机点图相邻的具有水平视差p的、随机点图组中第三幅随机点图,依此类推,直到生成随机点图组中第n幅随机点图;
(1-7)、根据与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法,将上述具有水平视差p的随机点图组,合成一幅随机点立体图,如图5、图8所示,图5是由图3和图4所在的具有负视差的随机点图组形成的前景浮于背景之上的随机点立体图,图8是由图6和图7所在的具有正视差的随机点图组形成的前景陷于背景之中的随机点立体图。
(2)、构造双目视差几何模型,计算双目获得的理论立体深度值,如图9所示,其具体步骤如下:
(2-1)、构造双目视差几何模型,以两眼连线作为X轴,两眼中点为原点,垂直人脸的方向为Z轴建立世界坐标系,被观测物体、被观测物体在双目中的像、双目以及自由立体显示器屏幕之间的投影几何关系如公式(1)和公式(2)所示。
其中,xL和xR分别对应于PL和PR的X轴坐标,PL和PR是人左右眼看到的物体在屏幕上像点,P为人眼所看到的立体像位置,其在世界坐标系下的坐标表示为(xP,zP),D为人眼与屏幕之间沿Z轴的距离,e是双目LE和RE之间沿X轴的距离,通常取为65毫米,如图10所示;
(2-2)、计算双目实际视差H,其计算式为公式(3);
(2-3)、计算人眼看到的立体像位置P相对屏幕的深度感,其表达计算式为式(4)。根据计算公式(5),将设计的水平视差p换算为双目实际视差H,式中M为自由立体显示器的水平分辨率,W为自由立体显示器的水平宽度值;
(2-4)、由计算公式(6)计算得到双目获得的理论立体深度值S。
(3)、通过自由立体显示器对随机点立体图观察,获得到的立体深度值作为实际立体深度值
Figure B2010105640951D00061
(4)、将理论立体深度值与实际立体深度值进行比较,通过计算公式(7)计算出实际立体深度值相对理论立体深度值的误差百分比ε,依该误差百分比ε,判定该自由立体显示器立体度的好坏程度。按照表1对自由立体显示设备立体度的好坏程度进行评价。
经测验,人的双眼间距因人而异,不同的人对立体感的感受有所不同。对立体度相对误差百分比值ε作了统计。测试中,双目间距e=65mm,设计的水平视差p=2pixel,自由立体显示器的水平分辨率M=1440pixel,自由立体显示器的水平宽度W=408mm,当人眼与屏幕的水平距离取为D=500mm时,计算得到的理论立体深度值S=60.91mm。记录不同的人对自由立体显示器观察时得到的实际立体深度值,通过计算公式(7)计算,得到不同的人在不同视差情况下的误差百分比,如表2所示。
对表2中自由立体显示器立体度的结果作出归纳,得到自由立体显示器立体度的评判参照表,如表1所示,当比值ε在5%以内,则认为该自由立体显示器的立体度很好。
表1:自由立体显示器立体度的评判参照表
  ε值  ≤5%  5%~15%   15%~25%   其他
  立体度  优  良好   合格   差
表2误差百分比统计结果
ε值(%)   Man1   Man2   Woman1   Woman2
正视差   9.83   4.92   14.75   8.20
负视差   13.11   9.83   18.03   11.48

Claims (4)

1.一种利用随机点立体图检测自由立体显示器立体度的方法,其特征在于该方法具体步骤如下:
(1)、设计随机点图组,合成随机点立体图;
(2)、构造双目视差几何模型,计算双目获得的理论立体深度值;
(3)、通过自由立体显示器对随机点立体图观察,获得的立体深度值作为实际立体深度值;
(4)、将理论立体深度值与实际立体深度值进行比较,计算出实际立体深度值相对理论立体深度值的误差百分比,依该误差百分比,判定该自由立体显示器立体度的好坏程度。
2. 根据权利要求1所述的一种利用随机点立体图检测自由立体显示器立体度的方法,其特征在于,上述步骤(1)中所述的设计随机点图组,合成随机点立体图,其具体步骤如下:
(1-1)确定随机点图的分辨率,该分辨率与被检测的自由立体显示器的分辨率相等,按照该分辨率生成一幅随机点图;
(1-2)为随机点图中各像素点赋值,可取任意灰度值,各灰度值像素在图中随机分布,像素的分布构成随机点图的结构;
(1-3)将随机点图划分为背景区域、前景区域和视差区域,选择随机点图中一块合适的区域作为前景区域,将其左邻域和右邻域分别选取大小合适的区域作为视差区域,剩余部分均为背景区域,同一随机点图组中所有随机点图的背景部分和前景部分结构相同,视差部分的结构不同;
(1-4)设定随机点图组中的随机点图数目,根据被检测的自由立体显示器立体视区数以及与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法所需用到的随机点图数目设定;
(1-5)对步骤(1-3)中设计的随机点图,将其前景区域整体向其左邻域或右邻域,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,形成与原图相邻的一幅具有水平视差p的随机点图;
(1-6)对步骤(1-5)生成的新的随机点图,与上述步骤(1-5)同理,将其前景区域整体向其左邻域或右邻域,方向与步骤(1-5)相同,平移p个像素的距离,在剩余空白区域——视差区域,填充不同分布的灰度像素,得到与步骤(1-5)中生成的随机点图相邻的具有水平视差p的、随机点图组中第三幅随机点图,依此类推,直到生成满足步骤(1-4)设定的数目的随机点图;
(1-7)根据与被检测的自由立体显示器的立体显示原理相对应的立体图合成方法,将上述具有水平视差p的随机点图组,合成一幅随机点立体图。
3.根据权利要求1所述的一种利用随机点立体图检测自由立体显示器立体度的方法,其特征在于上述步骤(2)所述的构造双目视差几何模型,计算双目获得的理论立体深度值,其具体步骤如下:
(2-1)构造双目视差几何模型,以两眼连线作为X轴,两眼中点为原点,垂直人脸的方向为Z轴建立世界坐标系,被观测物体、被观测物体在双目中的像、双目以及自由立体显示器屏幕之间的投影几何关系为:
                  (1)
Figure 105005DEST_PATH_IMAGE002
                  (2)
其中,
Figure 111324DEST_PATH_IMAGE004
分别对应于PL和PR的X轴坐标,PL和PR是人左右眼看到的物体在屏幕上像点,P为人眼所看到的立体像位置,其在世界坐标系下的坐标表示为D为人眼与屏幕之间沿Z轴的距离,e是双目之间沿X轴的距离;
(2-2)计算双目实际视差,其计算式为:
 
Figure 282378DEST_PATH_IMAGE006
               (3)
其中,表示人眼所看到的立体像P与人眼之间的水平距离,H表示左右眼分别看到物体在屏幕上的像点之间的X轴距离; 
(2-3)计算表达人眼看到的立体像位置P相对于屏幕的深度感,其表达计算式为:
Figure 884577DEST_PATH_IMAGE008
                (4)
其中,S为立体像P相对屏幕的Z轴距离; 
实际视差H与设计的随机点图间的水平视差p之间的换算关系为:
Figure 205837DEST_PATH_IMAGE009
                    (5)
其中,M为自由立体显示器的水平分辨率,W为自由立体显示器的水平宽度值,p为所设计的随机点图间以像素为单位的水平视差;
(2-4)双目获得的理论立体深度值的计算,其计算式为:
Figure 960167DEST_PATH_IMAGE010
                 (6)。
4.根据权利要求1所述的一种利用随机点立体图检测自由立体显示器立体度的方法,其特征在于,上述步骤(4)中所述的计算出实际立体深度值相对理论立体深度值的误差百分比,其计算式为:
Figure 510228DEST_PATH_IMAGE011
             (7)
其中,
Figure 33613DEST_PATH_IMAGE012
为人眼可以获得的实际立体深度值,
Figure 463457DEST_PATH_IMAGE013
为公式(6)计算得到的理论立体深度值。
CN2010105640951A 2010-11-30 2010-11-30 一种利用随机点立体图检测自由立体显示器立体度的方法 Expired - Fee Related CN102087417B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105640951A CN102087417B (zh) 2010-11-30 2010-11-30 一种利用随机点立体图检测自由立体显示器立体度的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105640951A CN102087417B (zh) 2010-11-30 2010-11-30 一种利用随机点立体图检测自由立体显示器立体度的方法

Publications (2)

Publication Number Publication Date
CN102087417A true CN102087417A (zh) 2011-06-08
CN102087417B CN102087417B (zh) 2012-06-13

Family

ID=44099289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105640951A Expired - Fee Related CN102087417B (zh) 2010-11-30 2010-11-30 一种利用随机点立体图检测自由立体显示器立体度的方法

Country Status (1)

Country Link
CN (1) CN102087417B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103134740A (zh) * 2011-11-30 2013-06-05 乐金显示有限公司 检查显示面板与膜图案化延迟器之间的错位的系统和方法
CN104270631A (zh) * 2014-09-15 2015-01-07 北京泰瑞特检测技术服务有限责任公司 一种 3d 显示设备的深度分解力评价方法及系统
CN113425243A (zh) * 2021-03-17 2021-09-24 河海大学常州校区 一种基于随机点立体图的立体视觉测试方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2082601U (zh) * 1990-10-06 1991-08-14 空军航空杂志社 可变物距随机点图体视视觉检测仪
US5371627A (en) * 1992-10-23 1994-12-06 N.E. Thing Enterprises, Inc. Random dot stereogram and method for making the same
US5543965A (en) * 1994-05-11 1996-08-06 Nvision Grafix, Inc. Method and apparatus for autostereoscopic lenticular displays utilizing random dot patterns
CN2557069Y (zh) * 2002-08-02 2003-06-25 天津三维显示技术有限公司 立体视觉测试装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2082601U (zh) * 1990-10-06 1991-08-14 空军航空杂志社 可变物距随机点图体视视觉检测仪
US5371627A (en) * 1992-10-23 1994-12-06 N.E. Thing Enterprises, Inc. Random dot stereogram and method for making the same
US5543965A (en) * 1994-05-11 1996-08-06 Nvision Grafix, Inc. Method and apparatus for autostereoscopic lenticular displays utilizing random dot patterns
CN2557069Y (zh) * 2002-08-02 2003-06-25 天津三维显示技术有限公司 立体视觉测试装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103134740A (zh) * 2011-11-30 2013-06-05 乐金显示有限公司 检查显示面板与膜图案化延迟器之间的错位的系统和方法
CN103134740B (zh) * 2011-11-30 2015-04-08 乐金显示有限公司 检查显示面板与膜图案化延迟器之间的错位的系统和方法
CN104270631A (zh) * 2014-09-15 2015-01-07 北京泰瑞特检测技术服务有限责任公司 一种 3d 显示设备的深度分解力评价方法及系统
CN113425243A (zh) * 2021-03-17 2021-09-24 河海大学常州校区 一种基于随机点立体图的立体视觉测试方法
CN113425243B (zh) * 2021-03-17 2022-08-23 河海大学常州校区 一种基于随机点立体图的立体视觉测试方法

Also Published As

Publication number Publication date
CN102087417B (zh) 2012-06-13

Similar Documents

Publication Publication Date Title
CN105432078B (zh) 双目注视成像方法和设备
CN101895779B (zh) 立体显示方法和系统
JP5625979B2 (ja) 表示装置および表示方法ならびに表示制御装置
CN107396087A (zh) 裸眼三维显示装置及其控制方法
CN106973288B (zh) 一种立体视频舒适度评价方法及装置
WO2017156905A1 (zh) 一种将二维图像转化为多视点图像的显示方法及系统
CN104853185A (zh) 结合多视差和运动的立体视频舒适度评价方法
CN103986925A (zh) 基于亮度补偿的立体视频视觉舒适度评价方法
JP2012205169A (ja) 画像処理装置および画像処理方法
Kim et al. Depth adjustment for stereoscopic image using visual fatigue prediction and depth-based view synthesis
CN102087417B (zh) 一种利用随机点立体图检测自由立体显示器立体度的方法
CN108520510A (zh) 一种基于整体和局部分析的无参考立体图像质量评价方法
CN112165613B (zh) 基于水平运动的动态随机点立体图的立体视锐度测试方法
KR20130121511A (ko) 무안경 3차원 영상 디스플레이 장치 및 방법
CN102930550A (zh) 立体图像绘制时虚拟相机分离距离的确定方法
KR20130068851A (ko) 입체영상 깊이감 측정 장치 및 방법
Jung et al. 65.2: Effect of Viewing Region Satisfying Super Multi‐View Condition in Integral Imaging
CN105608665A (zh) 多通道球面立体视景视觉感知深度精确计算方法
Yoon et al. Measurement method with moving image sensor in autostereoscopic display
CN105208369B (zh) 一种立体图像视觉舒适度增强方法
CN102447926B (zh) 一种无摄像机标定参数的三维图像变换方法
KR20130057147A (ko) 3차원 입체영상의 안정성 측정 장치 및 방법
CN103246054A (zh) 用于显示立体图像的系统
Huang et al. Crosstalk issue in stereo/autostereoscopic display
CN104270631B (zh) 一种3d显示设备的深度分解力评价方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120613

Termination date: 20141130

EXPY Termination of patent right or utility model