CN106817578B - 一种分析裸眼3d显示系统立体深度影响因素的方法 - Google Patents
一种分析裸眼3d显示系统立体深度影响因素的方法 Download PDFInfo
- Publication number
- CN106817578B CN106817578B CN201710021324.7A CN201710021324A CN106817578B CN 106817578 B CN106817578 B CN 106817578B CN 201710021324 A CN201710021324 A CN 201710021324A CN 106817578 B CN106817578 B CN 106817578B
- Authority
- CN
- China
- Prior art keywords
- dimensional depth
- lens
- light source
- coordinate
- bore hole
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本发明公开了一种分析裸眼3D显示系统立体深度影响因素的方法,依据潘弄融合和波像差理论,建立理想立体深度模型与实际立体深度模型,对影响实际立体深度的因素进行分析,给出显示系统立体深度的客观评价;包括以下步骤:S1、结合人眼视觉特性和潘弄融合理论,确定双眼能融合形成3D感的视差范围,建立理想的立体深度模型;S2、根据波像差理论,建立实际立体深度模型,通过视网膜上的光斑分布和人的单眼分辨率极限求实际立体深度;S3、将所述实际立体深度与所述理想立体深度进行比对,分析影响实际立体深度的因素;本发明系统的分析影响裸眼3D显示系统立体深度的因素,为更好地设计裸眼3D显示系统以及改善裸眼3D显示系统的体验提供依据。
Description
技术领域
本发明涉及裸眼3D显示效果评价领域,特别是涉及一种分析裸眼3D立体深度影响因素的方法。
背景技术
近年来,携带有深度信息的三维显示技术得到广泛关注。人们希望能在显示屏幕上将真实的三维世界完整的还原出来,在获取所需基本信息的同时,能够最大程度的获得生动形象的观感。虚拟现实技术(VirtualReality,VR)被寄予很大的期望,可用于游戏、体育、在线教育、医疗、餐饮和网上购物等领域。苹果、谷歌、Oculus、华为、三星、微软等科技巨头纷纷投入这一研究,蚁视科技、暴风魔镜、七维科技等科技新秀也在开发专门的显示器。但现阶段三维显示技术还不成熟。
裸眼3D显示作为近些年来发展迅速的技术,已经开始应用于户外广告屏、产品展览等领域。裸眼3D显示可分为光栅式、透镜式和指向式裸眼3D显示。主要是通过光栅或者透镜将显示器显示的图像进行分光,从而使人眼接收到不同的图像,在大脑中融合形成3D感。光栅式显示系统会带来亮度的损失,指向式裸眼3D显示技术还不成熟,目前研究最多的是透镜式裸眼3D显示系统。但由于透镜的分光效果不理想等原因,透镜式裸眼3D显示屏的立体深度远远未达到理想要求。
为了给观众带来更舒适和更震撼的裸眼3D体验,如何提高显示器的立体深度成为重中之重。目前对立体深度的探究主要是通过主观评价,很少从机理上分析影响立体深度的因素,也就无法改善裸眼3D显示系统的立体深度。
发明内容
本发明目的就是从机理上分析影响裸眼3D显示系统立体深度的因素问题。
本发明的技术问题通过以下的技术方案予以解决:
一种分析裸眼3D显示系统立体深度影响因素的方法,包括以下步骤:
S1、结合人眼视觉特性和潘弄融合理论,确定双眼能融合形成3D感的视差范围,建立理想的立体深度模型;
S2、根据波像差理论,建立实际立体深度模型,通过视网膜上的光斑分布和人的单眼分辨率极限求实际立体深度;
S3、将所述实际立体深度与所述理想立体深度进行比对,分析影响实际立体深度的因素。
优选地,步骤S1中,所述双眼能融合形成3D感的视差范围为
-0.2°~+0.2°,|θout-θ0|≤0.2°的区域;
由于零视差角度足够小,所以
允许的最大出屏深度为
对应屏幕上的水平视差为
对于给定片源,此时的理论出屏深度为
其中:
D为观察距离,pout为出屏时显示屏上水平视差,e为人眼瞳孔间距,θ0为零视差角度,θout为出屏视差角度,vout为出屏深度。
优选地,步骤S2中,根据波像差理论,中心透镜光瞳函数为
其中:波数λ是波长;(ε,η)是入瞳坐标即透镜坐标,S是透镜通光孔径;W(ε,η)是波像差。
优选地,所述波像差为
其中:S1~S5分别为球差、慧差、像散、场曲和畸变,H为物高,HV为物高的最大值,(ε,η)是入瞳坐标即透镜坐标,εV,ηV分别为ε,η的最大值。优选地,用δ函数表示的点光源像素(xmn,ymn),透镜的复振幅透过率为:
其中:f为透镜焦距,m,n即第m行第n列光源。
优选地,到达观察面光场分布为:
其中:(x0,y0)为观察面的坐标,d为衍射距离,θ为观察角度,K(θ)为倾斜因子,(xmn,ymn)为光源坐标,Tmn(ε,η)为透镜的复振幅透过率,D为观察距离。经过人眼成像系统在视网膜的场分布为:
其中(x,y)是人眼视网膜坐标,表示光场分布的傅里叶变换。
所有光源的线性累加形成光斑,视网膜上光场分布为:
其中:M表示光源的总行数,N表示光源的总列数。
优选地,设扩展光源的尺寸为a×a,视网膜上光场分布为:
优选地,光源通过透镜在vmaxout处形成光斑的直径为De,人眼极限分辨率为ae,则为满足人眼分辨率
De≤(D-vmaxout)*ae
从而
De可由视网膜上的光场分布求得,与扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径S以及观察角度θ有关;因此可得扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径S以及观察角度θ对立体深度的影响。
本发明与现有技术对比的有益效果是:
本发明的一种分析裸眼3D显示系统立体深度影响因素的方法,根据潘弄融合和波像差理论建立立体深度的理想与实际模型,从光源、透镜和观察者三方面系统的分析影响立体深度的因素,且首次分析像素尺寸对立体深度的影响,与主观评价裸眼3D立体深度不同,从作用机理上分析各因素对裸眼3D立体深度的影响,给出评价裸眼3D效果的客观评价方法,指出改善裸眼3D显示观影体验的方向。
附图说明
图1是本发明技术方案流程图;
图2是视差角概念说明示意图;
图3是不等间距屏幕示意图;
图4是波像差理论模型图;
图5是菲涅尔衍射原理图。
具体实施方式
本发明根据潘弄融合和波像差理论建立分析影响立体深度因素的模型,如图1所示包括如下步骤:
步骤1:结合人眼视觉特性和潘弄融合理论,建立立体深度的理想模型,首先确定双眼能融合形成3D感的视差范围,将视差角在-0.2°~+0.2°定义为双眼视差融合范围,其中视差角是双眼辐辏角度的差值。正视差角度对应出屏,负视差角度对应入屏,出屏对观影体验的影响更大,且入屏和出屏的分析方法类似,以下分析以出屏为例。
如图2所示的视差角概念说明示意图,图中,观察距离为D,显示屏上水平视差为p,人眼瞳孔间距为e,零视差角度为θ0,入屏视差角度为θin,出屏视差角度为θout,出屏深度为vout,入屏深度为vin。
研究表明,所述双眼能融合形成3D感的视差范围为
-0.2°~+0.2°,|θout-θ0|≤0.2°的区域。
由于零视差角度足够小,所以
允许的最大出屏深度为
对应屏幕上的水平视差为
对于给定片源,此时的理论出屏深度为
如图3的不等间距大尺寸裸眼3D显示系统,其出屏深度为:
可以看到观察距离D、水平视差人眼间距e、像素间距t以及像素排列方式都会影响立体深度。
步骤二:根据波像差理论进一步建立实际立体深度模型,通过视网膜上的光斑分布和人的单眼分辨率极限求实际立体深度;
波像差理论模型如图4所示,其中1是LED光源面,2是透镜阵列,3是观察面。
中心透镜光瞳函数为:
其中波数λ是波长。(ε,η)是入瞳坐标即透镜坐标,S是透镜通光孔径,W(ε,η)是波像差。
W(ε,η)主要由以下几部分组成
其中S1~S5分别为球差、慧差、像散、场曲和畸变,H为物高,HV为物高的最大值,(ε,η)是入瞳坐标即透镜坐标,εV,ηV分别为ε,η的最大值。
对于可以用δ函数表示的点光源像素(xmn,ymn),透镜的复振幅透过率为
如图5菲涅尔衍射原理图所示,l是入射光波的方向向量,r是出射光波的方向向量,(n,l)和(n,r)分别是孔径面∑的法线与l和r方向的夹角;倾斜因子为:
对于轴上点可以将入射光看成垂直入射到孔径的平面波,即cos(n,l)=-1,又cos(n,r)≈1,即近似的把倾斜因子看作常量,不考虑它的影响。对于离轴的像素点,因为光源与孔径的距离有限,所以入射光不是垂直入射到孔径,此时取cos(n,r)=1,cos(n,l)=-sinθ
所以到达观察面光场分布
经过人眼成像系统在视网膜的场分布为
其中(x,y)是人眼视网膜坐标,表示光场分布的傅里叶变换。
所有光源的线性累加形成光斑,视网膜上光场分布
其中:M表示光源的总行数,N表示光源的总列数。针对扩展面光源,假设扩展光源的尺寸为a×a,观察面上光场分布为
单像素成像必须满足人眼分辨率,以此为依据求得实际立体深度。
由光源通过透镜在d=vmaxout处形成光斑的直径为De,人眼极限分辨率为ae,则为满足人眼分辨率
De≤(D-vmaxout)*ae
从而
De可由视网膜上的光场分布求得,与扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径S以及观察角度θ有关;因此可得扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径S以及观察角度θ对立体深度的影响。
步骤三:根据步骤一、二建立的所述实际立体深度与所述理想立体深度模型,分析各因素对实际立体深度的影响。
本发明应用案例一:是将本发明应用于设计裸眼3D显示系统。设定显示屏宽度和高度,屏幕长宽比为4:3,设计k视点的显示系统。设计观看距离为显示屏高度的三倍。根据设定的立体深度和上述仿真结果确定像素间距,进而求出透镜焦距,然后求解透镜宽度并计算透镜的微观加工参数。
本发明应用案例二:是将本发明应用于裸眼3D视频的制作。根据给定的立体深度计算出对视差图像的要求,如下式所示
而视差图的同名点视差是裸眼3D视频的关键,所以此发明可用于指导裸眼3D视频的制作;
本发明应用案例三:是将本发明应用于裸眼3D显示效果的评估,对于给定的裸眼3D显示系统,可得到在一定出屏深度处的光斑大小,看能否满足人眼分辨率要求,从而给出裸眼3D显示效果的评价。利用客观评价取代观察者的主观感受。
以上内容是结合具体的/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施例做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。
Claims (8)
1.一种分析裸眼3D显示系统立体深度影响因素的方法,其特征在于:所述方法包括以下步骤:
S1、结合人眼视觉特性和潘弄融合理论,确定双眼能融合形成3D感的视差范围,建立理想的立体深度模型;
S2、根据波像差理论,建立实际立体深度模型,通过视网膜上的光斑分布和人的单眼分辨率极限求实际立体深度;
S3、将所述实际立体深度与所述理想立体深度进行比对,分析影响实际立体深度的因素。
2.根据权利要求1所述的方法,其特征在于:步骤S1中,所述双眼能融合形成3D感的视差范围为-0.2°~+0.2°,|θout-θ0|≤0.2°的区域;
由于零视差角度足够小,所以
允许的最大出屏深度为
对应屏幕上的水平视差为
对于给定片源,此时的理论出屏深度为
其中:
D为观察距离,pout为出屏时显示屏上水平视差,e为人眼瞳孔间距,θ0为零视差角度,θout为出屏视差角度,vout为出屏深度。
3.根据权利要求1所述的方法,其特征在于:步骤S2中,根据波像差理论,中心透镜光瞳函数为
其中:波数λ是波长;(ε,η)是入瞳坐标即透镜坐标,s是透镜通光孔径;W(ε,η)是波像差。
4.根据权利要求3所述的方法,其特征在于:所述波像差为
其中:S1~S5分别为球差、慧差、像散、场曲和畸变,H为物高,HV为物高的最大值,(ε,η)是入瞳坐标即透镜坐标,εV,ηV分别为ε,η的最大值。
5.根据权利要求3所述的方法,其特征在于:
用δ函数表示的点光源像素(xmn,ymn),透镜的复振幅透过率为:
其中:f为透镜焦距,m,n即第m行第n列光源。
6.根据权利要求3所述的方法,其特征在于:
到达观察面光场分布为:
其中:m,n即第m行第n列光源,(x0,y0)为观察面的坐标,f为透镜焦距,d为衍射距离,θ为观察角度,K(θ)为倾斜因子,(xmn,ymn)为点光源坐标,Tmn(ε,η)为透镜的复振幅透过率,D为观察距离;
经过人眼成像系统在视网膜的场分布为:
其中(x,y)是人眼视网膜坐标,表示光场分布的傅里叶变换;所有光源的线性累加形成光斑,视网膜上光场分布为:
其中:M表示光源的总行数,N表示光源的总列数。
7.根据权利要求3所述的方法,其特征在于:
设扩展光源的尺寸为a×a,视网膜上光场分布为:
其中:m,n即第m行第n列光源,(x0,y0)为观察面的坐标,f为透镜焦距,d为衍射距离,(xmn,ymn)为点光源的坐标,θ为观察角度,K(θ)为倾斜因子,Tmn(ε,η)为透镜的复振幅透过率,D为观察距离。
8.根据权利要求7所述的方法,其特征在于:步骤S2中,
光源通过透镜在最大出屏深度vmaxout处形成光斑的直径为De,人眼极限分辨率为ae,则为满足人眼分辨率
De≤(D-vmaxout)*ae
从而
De可由视网膜上的光场分布求得,与扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径S以及观察角度θ有关;因此可得扩展光源的尺寸a×a、透镜的像差即球差、慧差、像散、场曲和畸变S1~S5、透镜的通光孔径s以及观察角度θ对立体深度的影响。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710021324.7A CN106817578B (zh) | 2017-01-11 | 2017-01-11 | 一种分析裸眼3d显示系统立体深度影响因素的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710021324.7A CN106817578B (zh) | 2017-01-11 | 2017-01-11 | 一种分析裸眼3d显示系统立体深度影响因素的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106817578A CN106817578A (zh) | 2017-06-09 |
CN106817578B true CN106817578B (zh) | 2018-05-22 |
Family
ID=59110706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710021324.7A Active CN106817578B (zh) | 2017-01-11 | 2017-01-11 | 一种分析裸眼3d显示系统立体深度影响因素的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106817578B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389911B (zh) * | 2017-08-03 | 2020-12-04 | 广东烨嘉光电科技股份有限公司 | 一种光场显示屏的设计方法 |
CN112153362B (zh) * | 2020-09-15 | 2022-03-08 | 清华大学深圳国际研究生院 | 一种测量裸眼3d显示系统立体深度的方法与系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9406132B2 (en) * | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
CN102263985B (zh) * | 2011-07-25 | 2013-06-05 | 深圳展景世纪科技有限公司 | 一种立体投影设备的质量评价方法、装置及系统 |
CN202276428U (zh) * | 2011-07-25 | 2012-06-13 | 深圳展景世纪科技有限公司 | 一种立体投影设备的质量评价装置 |
KR101955334B1 (ko) * | 2012-02-07 | 2019-03-07 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법 |
CN102928206B (zh) * | 2012-11-22 | 2015-01-28 | 清华大学深圳研究生院 | 裸眼3d显示图像源和显示设备综合测试系统及测试方法 |
CN105430397B (zh) * | 2015-11-20 | 2018-04-17 | 清华大学深圳研究生院 | 一种3d图像体验质量预测方法及装置 |
-
2017
- 2017-01-11 CN CN201710021324.7A patent/CN106817578B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106817578A (zh) | 2017-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105704479B (zh) | 3d显示系统用的测量人眼瞳距的方法及系统和显示设备 | |
Nakanuma et al. | Natural 3D display with 128 directional images used for human-engineering evaluation | |
US20050146788A1 (en) | Software out-of-focus 3D method, system, and apparatus | |
US20100110069A1 (en) | System for rendering virtual see-through scenes | |
Wang et al. | Augmented reality 3D displays with micro integral imaging | |
CN107505720B (zh) | 一种基于正交偏振的三维光场显示装置 | |
CN102750731B (zh) | 基于左右单眼感受野和双目融合的立体视觉显著计算方法 | |
JP2018524952A (ja) | クローキングシステム及び方法 | |
CN105763865A (zh) | 一种基于透明液晶的裸眼3d增强现实的方法及装置 | |
CN106412556A (zh) | 一种图像生成方法及装置 | |
Luo et al. | Pepper's Cone: An Inexpensive Do-It-Yourself 3D Display | |
CN111427166A (zh) | 一种光场显示方法及系统、存储介质和显示面板 | |
CN106817578B (zh) | 一种分析裸眼3d显示系统立体深度影响因素的方法 | |
CN107643602A (zh) | 立体显示装置 | |
Chen et al. | A method of stereoscopic display for dynamic 3D graphics on android platform | |
GB2550134A (en) | Method and apparatus for eye-tracking light field display | |
US20220253975A1 (en) | Panoramic presentation methods and apparatuses | |
TW201118420A (en) | Three-dimensional image display device | |
WO2010010331A1 (en) | The compositional structure, mechanisms and processes for the inclusion of binocular stereo information into representational media | |
EP1170961A1 (en) | Three-dimensional image display | |
CN115236871A (zh) | 基于人眼跟踪和双向背光的桌面式光场显示系统及方法 | |
CN110879477B (zh) | 基于超表面微透镜阵列的真三维立体成像方法 | |
Dorado et al. | Toward 3D integral-imaging broadcast with increased viewing angle and parallax | |
Livatino et al. | Photorealistic True-Dimensional Visualization of Remote Panoramic Views for VR Headsets | |
CN104536142A (zh) | 一种基于负视差的裸眼悬浮立体显示系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |