CN106254847B - 一种确定立体显示屏幕的显示极限的方法、装置和系统 - Google Patents
一种确定立体显示屏幕的显示极限的方法、装置和系统 Download PDFInfo
- Publication number
- CN106254847B CN106254847B CN201610414223.1A CN201610414223A CN106254847B CN 106254847 B CN106254847 B CN 106254847B CN 201610414223 A CN201610414223 A CN 201610414223A CN 106254847 B CN106254847 B CN 106254847B
- Authority
- CN
- China
- Prior art keywords
- mrow
- virtual
- msub
- scene
- mtd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012360 testing method Methods 0.000 claims abstract description 170
- 238000007619 statistical method Methods 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000002159 abnormal effect Effects 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 2
- 238000000528 statistical test Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及图像处理技术领域,提供了一种确定立体显示屏幕的显示极限的方法、装置和系统。所述方法包括:建立一类或者多类待测试虚拟场景;接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据E_V、Z_V参数值所构建的指定的待测试虚拟场景的虚拟立体场景;获取测试用户观看虚拟立体场景反馈的E_V、Z_V结果数据;根据E_V、Z_V结果数据获得F_R、N_R的测试值;并得到N_R和F_R的参考极限值。本发明实施例提供的方法和装置,根据测试用户反馈的参数值,利用虚拟场景到真实场景的比例映射关系,得到测试结果,并统计测试用户的测试结果从而得到真实场景真实屏幕最大显示凸距离和凹距离的参考极限。
Description
【技术领域】
本发明涉及图像处理技术领域,特别是涉及一种确定立体显示屏幕的显示极限的方法、装置和系统。
【背景技术】
每个立体显示设备在一定的使用场景下都有自身立体显示的极限,超过这个极限,人就无法接受,因为人眼汇集左右眼分别获取的图像信息,如果凸出和凹进的距离过大会引起人眼无法汇集以及人眼疲劳等现象。这样的极限屏幕参数包括:真实场景中凸出和凹进的距离;得到立体显示设备的极限就可以提供给用户或者开发者,以达到合适的虚拟现实的显示效果,避免出现无法正常显示的情况;现如今还没有比较成熟的方式来测定这样的极限状态值,所以测定立体显示设备的极限屏幕参数显得十分关键。
鉴于此,克服该现有技术所存在的缺陷是本技术领域亟待解决的问题。
【发明内容】
本发明要解决的技术问题是提供一种确定立体显示屏幕的显示极限的方法、装置和系统,能够较为准确地得到立体显示屏幕的显示极限值。
本发明采用如下技术方案:
第一方面,本发明实施例提供了一种确定立体显示屏幕的显示极限的方法,包括:
建立一类或者多类待测试虚拟场景;
接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离;
获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据;
根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;
根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
可选的,所述建立一类或者多类待测试虚拟场景具体包括:
建立简单场景、复杂场景、靠近近裁剪面场景、远离近裁剪面场景中的至少一类待测试场景。
可选的,所述根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值包括:
根据比例关系式得到并依此求解得到N_R;其中,
所述根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值包括:
根据比例关系式得到并依此求解得到F_R;其中,
其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,为虚拟屏幕和真实屏幕之间的比例因子, W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
可选的,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为到虚拟摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V。
可选的,其中dN_R、dF_R、dN_O、dF_O、具体为依据相似图形对应边成比例关系得到。
可选的,所述接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,具体包括:
将所述指定的待测试虚拟场景坐标分别与左透视投影矩阵M1相乘,完成左虚拟摄像机视频内容的透视投影变换;其中,所述左透视投影矩阵M1具体为:
将所述指定的待测试虚拟场景坐标分别与右透视投影矩阵M2相乘,完成右虚拟摄像机视频内容的透视投影变换;其中,所述右透视投影矩阵M2具体为:
其中,lleft、rleft、tleft和bleft分别对应左摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nleft、fleft对应左摄像机非对称透视投影中左摄像机到近裁剪平面和远裁剪平面的距离;lright、rright、tright和bright分别对应右摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nright、fright对应右摄像机非对称透视投影中右摄像机到近裁剪平面和远裁剪平面的距离;
其中,投影矩阵中的变量由所述E_V,Z_V参数值提供,左摄像机非对称透视投影参数为:
右摄像机非对称透视投影参数为:
其中,W_V为所述虚拟场景的近裁剪平面的宽度,H_V为所述近裁剪平面的高度。
可选的,所述根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值包括:
获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值;
根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值;
根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
可选的,所述根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值包括:
滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值;
根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值;
所述根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值包括:
根据各类虚拟测试场景对应的N_R、F_R的参考极限值,通过统计分析确定真实场景的N_R、F_R的参考极限值。
可选的,所述获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据,具体为:
获取测试用户观看所述虚拟立体场景反馈的可接受的E_V,Z_V极限参数值;和/或
获取测试用户观看所述虚拟立体场景反馈的最适观影体验的E_V,Z_V参数值。
可选的,所述根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值,具体实现为:
根据测试用户观看所述虚拟立体场景反馈的可接受的E_V,Z_V极限参数值和/或测试用户观看所述虚拟立体场景反馈的最适观影体验的E_V,Z_V参数值,分析各用户的观影效果和所述E_V,Z_V参数值的对应变化关系,并从中得到满足指定比例用户可接受观影的E_V,Z_V参数值,进而根据所述指定比例用户可接受观影的E_V,Z_V参数值,确定真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
第二方面,本发明实施例还提供了一种确定立体显示屏幕的显示极限的装置,所述装置包括预处理模块、虚拟场景建立模块、收发模块和统计分析模块,其中,预处理模块、虚拟场景建立模块、收发模块分别和所述统计分析模块相连,具体的:
所述虚拟场景建立模块,用于建立一类或者多类待测试虚拟场景;
所述收发模块,用于接收指定的待测试虚拟场景中虚拟摄像机的视间距E_V、虚拟场景中虚拟摄像机到零视差平面的距离Z_V参数值,并反馈由所述E_V,Z_V参数值所对应的透视投影参数变换后的场景内容;
所述预处理模块,用于提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景;
所述统计分析模块,用于根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;
根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
可选的,所述统计分析模块具体用于:
根据比例关系式得到并依此求解得到N_R;其中,根据比例关系式得到并依此求解得到F_R;其中,其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,为虚拟屏幕和真实屏幕之间的比例因子, W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
可选的,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V。
可选的,所述统计分析模块,具体用于:
获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值;
根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值;
根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
可选的,所述统计分析模块,具体用于:
滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值;
根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值;
根据各类虚拟测试场景对应的N_R、F_R的参考极限值,通过统计分析确定真实场景的N_R、F_R的参考极限值。
可选的,所述统计分析模块,具体用于:
统计每个测试用户在每类虚拟场景下反馈的可接受的E_V,Z_V极限参数值的极限值;和/或
统计每个测试用户在每类虚拟场景下反馈的最适观影体验的E_V,Z_V参数值,
通过参考各用户反馈的可接受的,在极限凸出和凹进环境下的E_V,Z_V参数值和/或各用户反馈最适观影体验的E_V,Z_V参数值;
根据上述参数值分析各用户的观影效果和所述E_V,Z_V参数值的对应变化关系,并从中得到满足指定比例用户可接受观影的真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
第三方面,本发明实施例还提供了一种确定立体显示屏幕的显示极限的系统,所述系统包括服务器、一个或者多个智能终端,具体的:
所述服务器,用于建立一类或者多类待测试虚拟场景;还用于接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离;;
所述智能终端,用于登录服务器操作界面,并通过设置不同的E_V,Z_V参数值,获取相应生成的测试视频内容;将最终测试完数据反馈给所述服务器;
所述服务器,还用于
获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据;
根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;
根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
可选的,所述服务器预先针对每一类待测试虚拟场景,按照一组或者多组E_V,Z_V参数值生成多套可供测试用户请求的测试视频内容。
与现有技术相比,本发明的有益效果在于:本发明实施例利用虚拟场景到真实场景的映射关系,利用随着虚拟场景下可控制调整参数E_V、Z_V的变化,真实场景中凸出显示距离和凹进显示距离相应变化的关系,通过测试得到用户反馈的E_V、Z_V结果数据,并通过视差的比例关系,根据E_V、Z_V结果数据得到N_R和F_R的测试值,统计分析测试用户的N_R和F_R的测试值得到真实场景中凸出和凹进显示的参考极限,即能够较为准确的得到立体显示屏幕的凸出和凹进显示极限值。该真实场景中凸出和凹进显示的参考极限能够为研发人员提供有效参考,进而被有效的利用到如何选定特定种类的视频源的立体场景相关参数设定,从而利用所设定的参数完成供用户观影的左右摄像机的透视投影变换。
【附图说明】
图1是本发明实施例提供的一种确定立体显示屏幕的显示极限的方法的流程示意图;
图2是本发明实施例提供方法中真实场景的的原理光路关系示意图;
图3是本发明实施例提供方法中虚拟场景的原理光路关系示意图;
图4是本发明实施例提供的虚拟摄像机的投影示意图;
图5是本发明实施例提供的一种确定立体显示屏幕的显示极限的装置结构示意图;
图6是本发明实施例提供的一种确定立体显示屏幕的显示极限的系统架构示意图。
【具体实施方式】
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
从原理上讲,构建分别被人左眼和右眼接收的具有视差的不同图像,由于左右眼接收到的视觉图像不同,人眼在观看左右两幅具有视差的图像的时候,会在大脑皮层进行对图像进行合成,最终形成具有深度的信息,即使观看者产生立体感。
通常情况下,虚拟场景的立体显示,是将虚拟状态下的三维模型,通过计算机图形学的变换处理,形成立体图像,通过真实的显示器显示出来,最后人眼观看立体图像后进行合成,在大脑中形成具有深度的三维信息。
本发明实施例中,将从虚拟状态下的三维模型,通过一系列过程到真实状态下的具有深度的三维信息的过程称为虚拟到真实的映射过程,可称为从3D到立体3D的过程。
在本发明各实施例中,涉及真实场景和虚拟场景的描述,下面将对于其定义给予初步的界定:
真实场景:是指观察者真实的观察空间(即人眼看到的空间),观察者可以通过认知和经验等获取真实场景下物体的深度和大小等信息。该场景(空间)是以长度单位为度量(例如:观察者距离平面的距离为0.5m等)。当观察者观察的真实场景为显示器时,即构成“观察者-显示空间”。
虚拟场景:是指利用计算机,通过OpenGL等图形引擎构建的“摄像机-场景空间”;所绘制的信息以像素为单位,通过渲染管线并以显示器的方式呈现出来。
虚拟场景通过显示器显示,而人在真实场景下的固定位置通过人眼接受立体显示屏幕所显示的内容。虚拟场景下是以像素为单位,且通过真实场景的显示器显示;而真实场景下是以长度单位(例如:米)为度量的。
还需要说明的是,本发明实施例所确定的显示极限,并不是实际的真实值,而是近似于真实值的参考值,该显示极限可以为开发人员提供参考,在开发人员创建在该立体显示屏幕立体显示的虚拟场景时,可将该显示极限作为参考,从而有效保证虚拟场景映射到不超过显示极限的空间范围内,保证较好的立体显示效果。
实施例1:
如图1所示,本发明实施例1提供了一种确定立体显示屏幕的显示极限的方法。
其中,各参数所表示的含义可以参考图2和图3所示的真实场景和虚拟场景的原理光路示意图。参见图2,真实场景中左眼L与右眼R之间的人眼视间距E_R、真实屏幕的宽度N_R、真实屏幕最大显示凸距离N_R、人眼到真实屏幕的距离Z_R、真实屏幕最大显示凹距离F_R、真实场景中在N_R距离下的视差dN_R和F_R距离下的视差dF_R均在图中进行了标示。在N_O距离下的视差dN_O和F_O距离下的视差dF_O可类推得到,图中未示出。
最大显示凸距离N_R和最大显示凹距离F_R用于表征真实场景的立体显示屏幕的立体显示能力,即立体显示屏幕所能够呈现的立体场景的深度范围,也即,立体显示屏幕所能够呈现的立体场景的深度范围介于该最大凸出距离和最大凹进距离所限定的区间内,立体场景的最凸出部分不会超过该最大凸出距离,而最凹进部分不会超过该最大凹进距离。
参见图3,虚拟场景的虚拟单摄像机、对应左眼输出图像的左虚拟摄像机L’、与对应右眼输出图像的右虚拟摄像机R’、L’和R’之间的视间距E_V、虚拟单摄像机到虚拟屏幕Virtual Display的Z_V、虚拟单摄像机到虚拟近裁剪平面的距离N_V、虚拟单摄像机到虚拟远裁剪平面的距离F_V、以及虚拟场景中N_V距离下的视差dN_V和F_V距离下的视差dF_V均在图中进行了标示。
这里需要说明的是,参见图3可知,本发明实施例中,虚拟单摄像机到虚拟屏幕或远近裁剪平面的距离等同于左或右虚拟摄像机到虚拟屏幕或远近裁剪平面的距离,由于上述等同性,因此上述距离可统称为虚拟摄像机到虚拟屏幕或远近裁剪平面的距离。同理,参见图2可知,左眼到真实屏幕的距离等同于右眼到真实屏幕的距离,可统称为人眼到真实屏幕的距离。
还需要强调说明的是,本发明实施例中所言的虚拟单摄像机、左右虚拟摄像机、零视差平面、近裁剪平面、远裁剪平面等术语均为计算机图形学中公知的术语,这里不进行详细说明。
如图1所示,本实施例包括以下具体执行步骤:
在步骤21中,建立一类或者多类待测试虚拟场景。
其中,一类或者多类待测试虚拟场景具体包括:简单场景、复杂场景、靠近近裁剪面场景、远离近裁剪面场景。
所述简单场景中通常仅包含单一物体且该物体为简单几何体,简单几何体可以不超过6个面的几何体,例如,四面体。所述复杂场景中通常包含多个物体,该多个物体可以是简单几何体也可以是复杂几何体。
在步骤22中,接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景。
其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离。
比如,将步骤21中所建立的虚拟场景A作为待测试场景,则A即为指定的待测试场景,而E_V、Z_V参数值可以是工作人员所输入的,接收到E_V、Z_V参数值后,本步骤中将根据E_V、Z_V参数值构建虚拟场景A的虚拟立体场景,可将虚拟立体场景直接呈现出来,提供给测试用户,也可提供给终端,由终端提供给测试用户。
实质上,步骤22是个重复执行的过程,针对同一个虚拟场景,需要改变E_V、Z_V参数值,根据不同的E_V、Z_V参数值构建的虚拟立体场景的立体显示效果是不同的,测试用户会有不同的观看体验。
在步骤23中,获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据。
为了得到显示极限值,本步骤中,获取的通常为测试用户可接受的E_V,Z_V极限参数值。该极限参数值可以指用户观看虚拟立体场景濒于不适的E_V,Z_V临界值,该值与测试用户主观性感官体验相关联,因此,针对相同的根据E_V,Z_V构建的虚拟立体场景,测试用户感官感受可能并不相同,因此,不同测试用户的E_V、Z_V结果数据也可能并不相同。
比如,针对某E_V,Z_V的虚拟立体场景,测试用户还可以勉强适应,若在E_V,Z_V再进行某方向的变化,例如增大或减小,测试用户不适感强烈,已经难以接受,则该E_V,Z_V即可认为是E_V,Z_V极限参数值。
在步骤24中,根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R和F_R的测试值。
为了得到较佳的立体显示效果,虚拟场景映射到真实场景时,可以以视差成比例的方式映射,比例关系映射能够有效避免真实场景和虚拟场景由于尺度单位不同而造成的失真问题。本步骤,基于视差的比例关系,来计算出N_R和F_R的测试值。该测试值可以认为是在视差成比例时的极限值。
在步骤25中,根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
本步骤中,可汇总各个应用场景下的测试值,然后进行统计分析,从而得到参考极限值。
本发明实施例利用虚拟场景到真实场景的映射关系,基于随着虚拟场景下可控制调整参数E_V、Z_V的变化,真实场景中凸出显示距离和凹进显示距离相应变化,测试得到用户反馈的E_V、Z_V结果数据,并通过视差的比例关系,根据E_V、Z_V结果数据得到N_R和F_R的测试值,统计分析测试用户的N_R和F_R的测试值得到真实场景中凸出和凹进显示的参考极限,即能够较为准确的得到立体显示屏幕的凸出和凹进显示极限值。该真实场景中凸出和凹进显示的参考极限能够为研发人员提供有效参考,进而被有效的利用到如何选定特定种类的视频源的立体场景相关参数设定,从而利用所设定的参数完成供用户观影的左右摄像机的透视投影变换。
结合本发明实施例,在步骤24中,所述根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值包括:
根据比例关系式得到并依此求解得到N_R;
其中,依据相似图形对应边成比例关系,得到公式 并利用参数N_R、E_R和Z_R计算得到视差dN_R。
所述根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值包括:
根据比例关系式得到并依此求解得到F_R;
其中,依据相似图形对应边成比例关系,得到公式 并利用参数F_R、E_R和Z_R计算得到视差dF_R。
其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,N_V和F_V分别为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离,为虚拟屏幕和真实屏幕之间的比例因子, W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
如图2所示,三角形CDP和三角形RLP相似,因此有比例关系:带入相应参数值得到转换得到等式同样原理,三角形ABQ和三角形LRQ相似,因此有带入相应参数值得到转换得到等式
参见图3,与真实场景类似,同样依据相似图形对应边成比例关系,可以得到虚拟场景中N_V距离下的视差dN_V和F_V距离下的视差dF_V等式,相应类推即可得到dN_O和F_V距离下的视差dF_O:
而利用Z_V可得到虚拟屏幕(零视差平面)的宽度W_con:
WCon=W_V*Z_V/N_V
可以得到虚拟屏幕和真实屏幕之间的缩放比例
根据虚拟屏幕和真实屏幕之间的缩放比例可以得到虚拟和现实屏幕视差的关系:
进而,可解出N_R以及F_R:
结合本发明实施例,存在一种可选的实现方案,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V;其中。实质上,N_V和F_V是N_O和F_O的特殊情况,是N_O和F_O各自的最大值,N_O和F_O在N_V和F_V之间。因此,在一种实施例中,可利用N_V和F_V来进行计算。
结合本发明实施例,存在一种可选的实现方案,所述根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值包括:
首先,获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值。
然后,根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值,
具体的,可先进行过滤,滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值,例如波动较大的值;然后,根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值,例如,进行平均值计算。
接下来,根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
具体的,可通过统计分析,如果有多种场景的参考极限值时,可进行加权平均,每种场景对应一种权值,从而得到最终结果。
结合本发明实施例,存在一种可选的实现方案,所述方法还包括:
根据测试用户反馈的数据,对于根据当前指定的E_V,Z_V参数值构建的待测试虚拟场景,若确定反馈所述待测试虚拟场景超过接受极限的测试用户人数达到预设阈值时,则滤除掉所述当前指定的E_V,Z_V参数值,从而不在使用所述当前指定的E_V,Z_V参数值构建所述待测试虚拟场景。
也就是说,如果较多的人反馈某E_V,Z_V参数值对应的虚拟场景不适于观看,则以后再进行同一虚拟场景的测试时,将不再使用该E_V,Z_V参数值。
结合本发明实施例,存在一种可选的实现方案,所述统计每个测试用户在每类虚拟场景的E_V,Z_V测试相关数据,具体为:
获取测试用户观看所述虚拟立体场景反馈的可接受的E_V,Z_V极限参数值;和/或
获取测试用户观看所述虚拟立体场景反馈的最适观影体验的E_V,Z_V参数值。
在本发明的一种实施例中,为了提高测试的效率,用于供用户选择和测试的E_V,Z_V参数值可以是由操作人员事先设定好的。原因是,每一组E_V,Z_V参数值的测试,都会涉及到单摄像头场景内容的左右透视投影变换,若均由用户动态设定E_V,Z_V参数值则会造成服务器较大的计算负担。当然,对于测试用户较少的测试环境中,服务器计算资源相对较丰富,并且要求最终结果的时效性并不太高的情况下,也可以接受用户动态设定E_V,Z_V参数值的方法。两者均在本发明的保护范围内。
结合本发明实施例,存在一种可选的实现方案,所述通过统计分析得到真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值,具体实现为:
通过参考各用户反馈的可接受的,在极限凸出和凹进环境下的E_V,Z_V参数值和/或各用户反馈最适观影体验的E_V,Z_V参数值;对于不同类型的测试虚拟场景的结果,则利用加权的方式求得其平均E_V,Z_V参数值。
可选的,也可根据上述在极限凸出和凹进环境下的E_V,Z_V参数值和/或各用户反馈最适观影体验的E_V,Z_V参数值得到各用户的观影恶化趋势相关参数,并从中寻找到满足指定比例用户可接受观影的真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
实施例2:
本发明实施例1提供了一种确定立体显示屏幕的显示极限的方法,其中
建立一类或者多类待测试虚拟场景,以及配套待测试的一组或者多组E_V,Z_V参数值,具体包括:
将所述指定的待测试虚拟场景坐标与左透视投影矩阵M1相乘,完成左虚拟摄像机视频内容的透视投影变换;其中,所述左透视投影矩阵M1具体为:
将所述指定的待测试虚拟场景坐标分别与右透视投影矩阵M2相乘,完成右虚拟摄像机视频内容的透视投影变换;其中,所述右透视投影矩阵M2具体为:
其中,lleft、rleft、tleft和bleft分别对应左摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nleft、fleft对应左摄像机非对称透视投影中左摄像机到近裁剪平面和远裁剪平面的距离;lright、rright、tright和bright分别对应右摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nright、fright对应右摄像机非对称透视投影中右摄像机到近裁剪平面和远裁剪平面的距离;如图4所示,其坐标的原点即图中O点所示。
参考如图4所示的投影参数值相关物理结构示意图,所述左右虚拟摄像机的非对称透视投影参数值,其中,左摄像机非对称透视投影参数为:
右摄像机非对称透视投影参数为:
其中,W_V为所述虚拟场景的近裁剪平面的宽度,H_V为所述近裁剪平面的高度。投影矩阵中的变量由所述配套待测试的一组或者多组E_V,Z_V参数值提供,相应的对应每一组存在一对经透视投影变换后的左右虚拟相机场景内容。
本发明实施例提供了一种建立一类或者多类待测试虚拟场景的方法,该方法拥有简便性和易开发性。只需提供需要构建的三维场景和相关参数,结合相应的立体硬件设备就可以快速、直接的将该虚拟三维场景映射到真实场景中,并且立体效果是可以按照用户和开发者的设置而变化的。在具体实现中,所述立体硬件设备包括3D投影仪、3D液晶电视、虚拟现实头盔、虚拟增强眼镜等等。针对不同类待测试虚拟场景,仅仅需要替换里面的虚拟单摄像机的视频内容即可。而对于测试用户输入或者选择的E_V,Z_V参数值,也是通过带入本发明实施例中,实现对用于展示给用户看的左右虚拟摄像机透视投影变化的影响。其中,透视投影矩阵为现有技术,其矩阵中公式推导可以在网上查到,在此不做其推导的阐述。
实施例3:
本发明实施例1提供了一种确定立体显示屏幕的显示极限的方法,其中:
“根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值”包括:
假设,E_V、Z_V结果数据分别为0.63和7.89像素;
假设:
真实屏幕宽度W_R是435mm;
真实场景下的视间距E_R是65mm;
真实场景下人眼到真实屏幕之间的距离Z_R是500mm;
虚拟场景下摄像机到近裁剪平面距离N_V是1.0f;
虚拟场景的视场角FOV是(90°);
目标显示窗口的宽高比ω是1.78;
W_V是虚拟屏幕的宽度:
虚拟场景下摄像机到场景中物体最近和最远的距离N_O,和F_O是5.0和20.0。则:
首先,计算虚拟场景下摄像机到物体最近和最远位置的视差:
利用Z_V得到虚拟屏幕(零视差平面)的宽度W_V:
虚拟屏幕和真实屏幕之间的缩放比例
得到真实场景中凸出和凹进的极限距离N_R,F_R:
实施例4:
本发明实施例除了提供如实施例1所述一种确定立体显示屏幕的显示极限的方法外,还提供了一种确定立体显示屏幕的显示极限的装置,如图5所示,所述装置包括虚拟场景建立模块51、收发模块52、预处理模块53和统计分析模块54,其中,虚拟场景建立模块51、收发模块52和预处理模块53分别与所述统计分析模块54相连,具体的:
所述虚拟场景建立模块51,用于建立一类或者多类待测试虚拟场景;
所述收发模块52,用于接收指定的待测试虚拟场景的E_V、Z_V参数值,并反馈由所述E_V,Z_V参数值所对应的透视投影参数变换后的场景内容;
所述预处理模块53,用于提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景;
所述统计分析模块54,用于根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
结合本发明实施例,存在一种可选的实现方案,统计分析模块54具体用于:
根据比例关系式得到并依此求解得到N_R;
其中,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值包括:
根据比例关系式得到并依此求解得到F_R;
其中,
其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,为虚拟屏幕和真实屏幕之间的比例因子, W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
结合本发明实施例,存在一种可选的实现方案,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V。
可选的,所述预处理模块53具体用于:
将所述指定的待测试虚拟场景坐标分别与左透视投影矩阵M1相乘,完成左虚拟摄像机视频内容的透视投影变换;其中,所述左透视投影矩阵M1具体为:
将所述指定的待测试虚拟场景坐标分别与右透视投影矩阵M2相乘,完成右虚拟摄像机视频内容的透视投影变换;其中,所述右透视投影矩阵M2具体为:
其中,lleft、rleft、tleft和bleft分别对应左摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nleft、fleft对应左摄像机非对称透视投影中左摄像机到近裁剪平面和远裁剪平面的距离;lright、rright、tright和bright分别对应右摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nright、fright对应右摄像机非对称透视投影中右摄像机到近裁剪平面和远裁剪平面的距离;
其中,投影矩阵中的变量由所述E_V,Z_V参数值提供,左摄像机非对称透视投影参数为:
右摄像机非对称透视投影参数为:
其中,W_V为所述虚拟场景的近裁剪平面的宽度,H_V为所述近裁剪平面的高度。
可选的,所述统计分析模块54,具体用于:
获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值;
根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值;
根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
可选的,所述统计分析模块54,具体用于:
滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值;
根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值;
根据各类虚拟测试场景对应的N_R、F_R的参考极限值,通过统计分析确定真实场景的N_R、F_R的参考极限值。
结合本发明实施例,存在一种可选的实现方案,所述统计分析模块64,具体用于:
统计每个测试用户在每类虚拟场景下反馈的可接受的E_V,Z_V极限参数值的极限值;和/或
统计每个测试用户在每类虚拟场景下反馈的最适观影体验的E_V,Z_V参数值,
通过参考各用户反馈的可接受的,在极限凸出和凹进环境下的E_V,Z_V参数值和/或各用户反馈最适观影体验的E_V,Z_V参数值;
根据上述参数值分析各用户的观影效果和所述E_V,Z_V参数值的对应变化关系,并从中得到满足指定比例用户可接受观影的真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
值得说明的是,上述装置模块、单元之间的信息交互、执行过程等内容,由于与本发明的处理方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
实施例5:
本发明实施例除了提供如实施例1所述一种确定立体显示屏幕的显示极限的方法外,还提供了一种确定立体显示屏幕的显示极限的系统,如图6所示,所述系统包括服务器、一个或者多个智能终端,具体的:
所述服务器,用于建立一类或者多类待测试虚拟场景;还用于接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离;
所述智能终端,用于登录服务器操作界面,并通过设置不同的E_V,Z_V参数值,获取相应生成的测试视频内容;将最终测试完数据反馈给所述服务器;
所述服务器,还用于获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据;根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_V的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
结合本发明实施例,存在一种可选的实现方案,其中,所述服务器预先针对每一类待测试虚拟场景,按照所述一组或者多组E_V,Z_V参数值生成多套可供测试用户请求的测试视频内容
值得说明的是,上述系统内的模块、单元之间的信息交互、执行过程等内容,由于与本发明的处理方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
结合本发明实施例,存在一种可选的实现方案,服务器预先针对每一类待测试虚拟场景,按照一组或者多组E_V,Z_V参数值生成多套可供测试用户请求的测试视频内容。
本领域普通技术人员可以理解实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种确定立体显示屏幕的显示极限的方法,其特征在于,包括:
建立一类或者多类待测试虚拟场景;
接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离;
获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据;
根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,
根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;
根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
2.根据权利要求1所述的方法,其特征在于,所述建立一类或者多类待测试虚拟场景具体包括:
建立简单场景、复杂场景、靠近近裁剪面场景、远离近裁剪面场景中的至少一类待测试场景。
3.根据权利要求1所述的方法,其特征在于,
所述根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值包括:
根据比例关系式得到并依此求解得到N_R;
其中,
所述根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值包括:
根据比例关系式得到并依此求解得到F_R;
其中,
其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,为虚拟屏幕和真实屏幕之间的比例因子,W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
4.根据权利要求3所述的方法,其特征在于,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V。
5.根据权利要求3所述的方法,其特征在于,其中dN_R、dF_R、dN_O、dF_O具体为依据相似图形对应边成比例关系得到。
6.根据权利要求1所述的方法,其特征在于,所述接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,具体包括:
将所述指定的待测试虚拟场景坐标分别与左透视投影矩阵M1相乘,完成左虚拟摄像机视频内容的透视投影变换;其中,所述左透视投影矩阵M1具体为:
<mrow>
<msub>
<mi>M</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>*</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
将所述指定的待测试虚拟场景坐标分别与右透视投影矩阵M2相乘,完成右虚拟摄像机视频内容的透视投影变换;其中,所述右透视投影矩阵M2具体为:
<mrow>
<msub>
<mi>M</mi>
<mn>2</mn>
</msub>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>l</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>b</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<msub>
<mi>f</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>*</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,lleft、rleft、tleft和bleft分别对应左摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nleft、fleft对应左摄像机非对称透视投影中左摄像机到近裁剪平面和远裁剪平面的距离;lright、rright、tright和bright分别对应右摄像机非对称透视投影在近投影平面上的裁剪窗口的上、下、左、右边界坐标,nright、fright对应右摄像机非对称透视投影中右摄像机到近裁剪平面和远裁剪平面的距离;
其中,投影矩阵中的变量由所述E_V,Z_V参数值提供,左摄像机非对称透视投影参数为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>l</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>W</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<mi>E</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>*</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
<mo>/</mo>
<mi>Z</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>W</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<mi>E</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>*</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
<mo>/</mo>
<mi>Z</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>H</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>b</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>H</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>n</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>e</mi>
<mi>f</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>F</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
右摄像机非对称透视投影参数为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>l</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>W</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>E</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>*</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
<mo>/</mo>
<mi>Z</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>r</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>W</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>E</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>*</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
<mo>/</mo>
<mi>Z</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>H</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>b</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>H</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>N</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>r</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>F</mi>
<mo>_</mo>
<mi>V</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,W_V为所述虚拟场景的近裁剪平面的宽度,H_V为所述近裁剪平面的高度。
7.根据权利要求1-6任一所述的方法,其特征在于,所述根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值包括:
获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值;
根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值;
根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
8.根据权利要求7所述的方法,其特征在于,所述根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值包括:
滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值;
根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值;
所述根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值包括:
根据各类虚拟测试场景对应的N_R、F_R的参考极限值,通过统计分析确定真实场景的N_R、F_R的参考极限值。
9.根据权利要求1-6任一所述的方法,其特征在于,所述获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据,具体为:
获取测试用户观看所述虚拟立体场景反馈的可接受的E_V,Z_V极限参数值;和/或
获取测试用户观看所述虚拟立体场景反馈的最适观影体验的E_V,Z_V参数值。
10.根据权利要求9所述的方法,其特征在于,所述根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值,具体实现为:
根据测试用户观看所述虚拟立体场景反馈的可接受的E_V,Z_V极限参数值和/或测试用户观看所述虚拟立体场景反馈的最适观影体验的E_V,Z_V参数值,分析各用户的观影效果和所述E_V,Z_V参数值的对应变化关系,并从中得到满足指定比例用户可接受观影的E_V,Z_V参数值,进而根据所述指定比例用户可接受观影的E_V,Z_V参数值,确定真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
11.一种确定立体显示屏幕的显示极限的装置,其特征在于,所述装置包括预处理模块、虚拟场景建立模块、收发模块和统计分析模块,其中,预处理模块、虚拟场景建立模块、收发模块分别和所述统计分析模块相连,具体的:
所述虚拟场景建立模块,用于建立一类或者多类待测试虚拟场景;
所述收发模块,用于接收指定的待测试虚拟场景中虚拟摄像机的视间距E_V、虚拟场景中虚拟摄像机到零视差平面的距离Z_V参数值,并反馈由所述E_V,Z_V参数值所对应的透视投影参数变换后的场景内容;
所述预处理模块,用于提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景;
所述统计分析模块,用于根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
12.根据权利要求11所述的装置,其特征在于,所述统计分析模块具体用于:
根据比例关系式得到并依此求解得到N_R;
其中,
根据比例关系式得到并依此求解得到F_R;其中,
其中,E_R是真实场景中的视间距,Z_R是真实场景中双眼到真实屏幕距离,N_O是虚拟场景中虚拟单摄像机到最近物体距离,F_O是虚拟场景中虚拟单摄像机到最远物体距离,为虚拟屏幕和真实屏幕之间的比例因子,W_Con为虚拟屏幕的宽度,W_R为真实屏幕的宽度。
13.根据权利要求11所述的装置,其特征在于,虚拟场景下虚拟单摄像机分别到最近物体的距离和最远物体的距离N_O和F_O具体赋值为虚拟单摄像机到虚拟近裁剪平面和虚拟远裁剪平面的距离N_V和F_V。
14.根据权利要求11至13任一项所述的装置,其特征在于,所述统计分析模块,具体用于:
获取根据每个测试用户针对每类虚拟测试场景反馈的E_V、Z_V结果数据获得每类虚拟测试场景的N_R、F_R的测试值;
根据每类虚拟测试场景的N_R、F_R的测试值,确定每类虚拟测试场景对应的N_R、F_R的参考极限值;
根据每类虚拟测试场景对应的N_R、F_R的参考极限值,确定真实场景的N_R、F_R的参考极限值。
15.根据权利要求14所述的装置,其特征在于,所述统计分析模块,具体用于:
滤除掉每类虚拟测试场景的N_R、F_R的测试值中的异常测试值;
根据剔除异常测试值后的所述N_R、F_R的测试值,通过统计分析得到每类虚拟测试场景的N_R、F_R的参考极限值;
根据各类虚拟测试场景对应的N_R、F_R的参考极限值,通过统计分析确定真实场景的N_R、F_R的参考极限值。
16.根据权利要求11至13任一项所述的装置,其特征在于,所述统计分析模块,具体用于:
统计每个测试用户在每类虚拟场景下反馈的可接受的E_V,Z_V极限参数值的极限值;和/或
统计每个测试用户在每类虚拟场景下反馈的最适观影体验的E_V,Z_V参数值,
通过参考各用户反馈的可接受的,在极限凸出和凹进环境下的E_V,Z_V参数值和/或各用户反馈最适观影体验的E_V,Z_V参数值;
根据上述参数值分析各用户的观影效果和所述E_V,Z_V参数值的对应变化关系,并从中得到满足指定比例用户可接受观影的真实屏幕最大显示凸距离N_R、真实屏幕最大显示凹距离F_R的参考极限值。
17.一种确定立体显示屏幕的显示极限的系统,其特征在于,所述系统包括服务器、一个或者多个智能终端,具体的:
所述服务器,用于建立一类或者多类待测试虚拟场景;还用于接收指定的待测试虚拟场景的E_V、Z_V参数值,并提供根据所述E_V、Z_V参数值所构建的所述指定的待测试虚拟场景的虚拟立体场景,其中,所述E_V为虚拟场景中虚拟摄像机的视间距,所述Z_V为虚拟场景中虚拟摄像机到零视差平面的距离;
所述智能终端,用于登录服务器操作界面,并通过设置不同的E_V,Z_V参数值,获取相应生成的测试视频内容;将最终测试完数据反馈给所述服务器;
所述服务器,还用于获取测试用户观看所述虚拟立体场景反馈的E_V、Z_V结果数据;根据真实场景中在真实屏幕最大显示凸距离N_R距离下的视差dN_R和虚拟场景中虚拟单摄像机到最近物体的距离下的视差dN_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述N_R的测试值,以及,根据真实场景中在真实屏幕最大显示凹距离F_R距离下的视差dF_R和虚拟场景中虚拟单摄像机到最远物体的距离下的视差dF_O的比例关系,从而根据所述E_V、Z_V结果数据获得所述F_R的测试值;根据所述N_R的测试值和所述F_R的测试值,得到所述N_R和所述F_R的参考极限值。
18.根据权利要求17所述的系统,其特征在于,所述服务器预先针对每一类待测试虚拟场景,按照一组或者多组E_V,Z_V参数值生成多套可供测试用户请求的测试视频内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610414223.1A CN106254847B (zh) | 2016-06-12 | 2016-06-12 | 一种确定立体显示屏幕的显示极限的方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610414223.1A CN106254847B (zh) | 2016-06-12 | 2016-06-12 | 一种确定立体显示屏幕的显示极限的方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106254847A CN106254847A (zh) | 2016-12-21 |
CN106254847B true CN106254847B (zh) | 2017-08-25 |
Family
ID=57613649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610414223.1A Expired - Fee Related CN106254847B (zh) | 2016-06-12 | 2016-06-12 | 一种确定立体显示屏幕的显示极限的方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106254847B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108957742B (zh) * | 2017-05-19 | 2021-09-03 | 深圳市易瞳科技有限公司 | 一种实现画面虚拟透明动态调节的增强现实头盔及方法 |
CN111258408B (zh) * | 2020-05-06 | 2020-09-01 | 北京深光科技有限公司 | 一种用于人机交互的对象边界确定方法及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8228327B2 (en) * | 2008-02-29 | 2012-07-24 | Disney Enterprises, Inc. | Non-linear depth rendering of stereoscopic animated images |
CN102855660B (zh) * | 2012-08-20 | 2015-11-11 | Tcl集团股份有限公司 | 一种确定虚拟场景景深的方法及装置 |
CN104023221B (zh) * | 2014-06-23 | 2016-04-13 | 深圳超多维光电子有限公司 | 立体图像视差调节方法和装置 |
-
2016
- 2016-06-12 CN CN201610414223.1A patent/CN106254847B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN106254847A (zh) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106251403B (zh) | 一种虚拟立体场景实现的方法、装置和系统 | |
US10855909B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
De Silva et al. | Sensitivity analysis of the human visual system for depth cues in stereoscopic 3-D displays | |
US9754379B2 (en) | Method and system for determining parameters of an off-axis virtual camera | |
US20090268014A1 (en) | Method and apparatus for generating a stereoscopic image | |
US9460555B2 (en) | System and method for three-dimensional visualization of geographical data | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
CN105611278A (zh) | 防裸眼3d观看眩晕感的图像处理方法及系统和显示设备 | |
US20140035918A1 (en) | Techniques for producing baseline stereo parameters for stereoscopic computer animation | |
US20130027389A1 (en) | Making a two-dimensional image into three dimensions | |
KR20150121127A (ko) | 양안 응시 이미징 방법 및 장치 | |
CN104093013A (zh) | 一种立体视觉三维可视化系统中自动调节图像视差的方法 | |
US9538166B2 (en) | Apparatus and method for measuring depth of the three-dimensional image | |
CN106254847B (zh) | 一种确定立体显示屏幕的显示极限的方法、装置和系统 | |
CN108287609B (zh) | 用于ar眼镜的图像绘制方法 | |
US20130342536A1 (en) | Image processing apparatus, method of controlling the same and computer-readable medium | |
CN105608665A (zh) | 多通道球面立体视景视觉感知深度精确计算方法 | |
CN102780900B (zh) | 一种多人多视角立体显示器影像显示方法 | |
Wu et al. | Subjective quality assessment of stereo image compression based on stereoscopic fusion in binocular vision | |
US20140198098A1 (en) | Experience Enhancement Environment | |
Tsirlin et al. | Crosstalk reduces the amount of depth seen in 3D images of natural scenes | |
CN102917176A (zh) | 一种三维立体视差字幕的产生方法 | |
CN101895780B (zh) | 立体显示方法和立体显示装置 | |
Lin et al. | Perceived depth analysis for view navigation of stereoscopic three-dimensional models | |
Li et al. | On adjustment of stereo parameters in multiview synthesis for planar 3D displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20180717 Address after: 518000 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong Patentee after: SUPERD Co.,Ltd. Address before: 518000 East Guangdong H-1 East 101, overseas Chinese town, Nanshan District, Shenzhen. Patentee before: SHENZHEN SUPER PERFECT OPTICS Ltd. |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170825 |
|
CF01 | Termination of patent right due to non-payment of annual fee |