CN102930550A - 立体图像绘制时虚拟相机分离距离的确定方法 - Google Patents

立体图像绘制时虚拟相机分离距离的确定方法 Download PDF

Info

Publication number
CN102930550A
CN102930550A CN2012104696450A CN201210469645A CN102930550A CN 102930550 A CN102930550 A CN 102930550A CN 2012104696450 A CN2012104696450 A CN 2012104696450A CN 201210469645 A CN201210469645 A CN 201210469645A CN 102930550 A CN102930550 A CN 102930550A
Authority
CN
China
Prior art keywords
virtual camera
screen
stereo images
physical
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012104696450A
Other languages
English (en)
Inventor
赵猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University of Technology
Original Assignee
Tianjin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University of Technology filed Critical Tianjin University of Technology
Priority to CN2012104696450A priority Critical patent/CN102930550A/zh
Publication of CN102930550A publication Critical patent/CN102930550A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

一种立体图像绘制时虚拟相机分离距离的确定方法。在虚拟现实系统中,为了使人眼能够舒适地融合平面幕上的立体图像,双眼立体图像的视差必须控制在一定范围内。本发明方法首先通过多人观测结果的均值,确定物理屏幕可融合范围内的临界深度。然后定义两个空间:人眼-物理屏幕观察空间和虚拟相机-场景的绘制空间,通过零视差面和物理屏幕间的射影变换推导出虚拟相机分离距离的计算表达式,本发明的有益效果在于通过精确确定虚拟相机分离距离,可以避免由于视差太大而产生复视,或由于视差太小而使立体图像深度感弱。

Description

立体图像绘制时虚拟相机分离距离的确定方法
技术领域
本发明属于信息处理技术领域,涉及一种精确确定立体图像绘制时虚拟相机分离距离的计算方法。
背景技术
在采用计算机生成双眼图像并进行立体观察的仿真应用中,虚拟场景设定的左右眼虚拟相机分离值对双眼立体图像的生成结果会产生影响,虚拟相机间分离的距离太小,投影到屏幕上的图像视差也相对要小,通过人脑合成的图像深度感弱。而虚拟相机间分离的距离太大,投影到屏幕上的图像视差也相对要大,可能超出人脑在一定的物理显示屏幕距离上融合双眼图像的能力从而产生复视,使人眼不能在平面幕上建立立体视觉。而如采用真实环境中人眼的物理距离(65mm),即在一定物理显示屏幕距离下,人脑可融合的立体图像对的范围内,人眼所感受到的图像中物体的大小、物体的深度与图像生成时所设定的物体的大小与相对深度是一致的。这种方式要求虚拟场景中所有要绘制的物体必须在离虚拟相机的距离为物理屏幕距离值附近进行绘制,而大多数仿真系统,特别是虚拟漫游系统,虚拟场景中绘制物体间的距离尺度很大,上述方式只是一种特例,不具有普遍性。实践中,我们经常是通过反复的尝试不同的虚拟相机分离距离,直到找到最合适人眼以及立体效果最好时的虚拟相机分离距离。这种试验方法往往很烦琐。因此需要给出一种虚拟相机分离距离精确确定方法。
发明内容
本发明的目的是克服现有技术中的上述不足,提供一种立体图像绘制时虚拟相机分离距离的精确确定方法,对于给定的物理显示屏幕使用该方法不必反复试验以找到适合人眼及立体效果最好的虚拟相机分离距离。
本发明提供的立体图像绘制时虚拟相机分离距离的精确确定方法是:
第1、首先对于给定的物理显示屏幕其前后可融合范围,以试验的方法通过多人观测实测给定物理显示屏幕的可融合临界深度。实验方法采用无畸变的立体图像生成方式,即虚拟场景的深度尺度与物理屏幕空间的深度尺度一致,而不同的观测者测定的临界深度可能也有所不同,可以采用多人重复观测,取重复观测的临界深度均值作为最终物理显示平台的临界深度值,对于不同仿真系统平台,显示屏幕的大小,显示距离的远近是不同的,因此都要事先测得临界深度的大小。
第2、然后定义两个空间:人眼-物理屏幕观察空间和虚拟相机-场景的绘制空间,在绘制双眼立体图像时,将零视差面设定为左右眼视见体的投影面,投影机将图形流水线绘制后在零视差深度面上的双眼图像投影到物理屏幕上,零视差投影面与物理屏幕的对应像点满足射影变换,非齐次坐标表达的射影变换是平面的分式线性变换,通过该变换得到给定物理屏幕的虚拟相机分离距离的计算表达式。
本发明的优点和结果:
本发明的优点在于通过精确确定虚拟相机分离距离,可以避免由于视差太大而产生复视,或由于视差太小而使立体图像深度感弱,实验结果表明本方法是有效的。
附图说明
图1人眼-物理屏幕的观察空间。
图2虚拟相机-场景的绘制空间。
图3两个空间的射影变换。
图4人眼-物理屏幕观察空间的主要参数。
图5相机-场景的绘制空间的主要参数。
具体实施方式
下面结合附图对本发明做进一步详细描述并列出相应的实验结果:
(一)显示屏幕临界深度的确定
对于给定的物理显示屏幕的前后可融合范围,本发明以试验的方法实测给定物理显示屏幕的可融合临界深度。
实验方法采用无畸变的立体图像生成方式,即虚拟场景的深度尺度与物理屏幕空间的深度尺度一致,实验步骤及部分结果如下:
1.设定物理显示屏幕距人眼的距离为2.5m,人双眼距为0.065m;
2.设定虚拟相机的分离距离为0.065m,在离虚拟相机2.5m处设定一绘制物标,将要绘制的物标所在的深度面设定为零视差面,零视差面的宽度与物理屏幕的宽度相等均为2.5m。通过投影机投影双眼图像,该物标会被人眼感知显示在物理屏幕上。
3.用平移矩阵动态平移虚拟场景中的该物标使其逐渐远离零视差面,此时人眼会感知物体显示在屏幕后并且离人眼越来越远。平移到人眼不能融合物体的图像点时,平移过的距离即为正视差临界深度,实测的该深度为30.0m。
4.同理测得负视差临界深度为1.37m。
5.如图1通过方程(1)和(2)可以求得物理屏幕上的正视差临界值和负视差临界值。
d in E = D in D - D in - - - ( 1 )
d out E = D out D + D out - - - ( 2 )
其中,E为左右眼的物理距离,D为人眼到物理显示屏幕的距离,Din和Dout分别为物理显示屏幕两侧人眼能融合图像视差最近和最远的临界深度。din和dout分别为在两个临界深度面上的物点在物理屏幕上投影的最小负视差和最大正视差。
针对不同的观测者测定的临界深度可能也有所不同,可以采用多人重复观测,取重复观测的临界深度均值作为最终物理显示平台的临界深度值,实验采用了10个人的平均观测,得到结果是负视差临界深度1.37和正视差临界深度为32.5。
(二)精确确定虚拟相机分离距离的计算表达式
1.如图1定义人眼-物理屏幕的观察空间,其中Pin和Pout为临界深度面上的两个物点,则可得到如上的方程(1)和(2)。
2.如图2定义虚拟相机-场景的绘制空间,则可得到如下方程(3)和(4)
d in ′ S = D ′ - D n D n - - - ( 3 )
d out ′ S = D f - D ′ D f - - - ( 4 )
其中,S为虚拟相机的分离距离也是欲求的量,D'所在的深度平面为绘制场景中物体的图像视差为零的平面,在该平面内绘制物体的图像视差被人脑融合后像点最终是显示在物理屏幕上的点,我们称该深度面为虚拟屏幕或零视差深度面。Dn和Df是虚拟相机到场景绘制的最近点和最远点的距离,可将其看作绘制虚拟场景时设置视见体的近裁剪面和远裁剪面。d'in和d'out为虚拟场景中最近点和最远点在零视差深度面上的图像视差。
Z'为虚拟屏幕的宽度,可通过以下方程(5)求出,
Z′=2D′tan(θ/2)(5)
其中θ为视见体的视场角。
3.建立两个空间的映射
如图3两个屏幕间的对应像点满足射影变换,非齐次坐标表达的射影变换是平面的分式线性变换,则两个屏幕间的同一像点的视差的比值满足:
d in d in ′ = d out d out ′ = Z Z ′ = R - - - ( 6 )
其中R是物理屏幕与虚拟屏幕宽度的比值。
分析可知观察空间与绘制空间中最大正视差和最小负视差是不一定相等的,但是每个空间最大视差与最小视差的比值,应该是相等的。则结合方程(1)、(2)、(3)、(4)、(5)可得虚拟相机分离距离的计算表达式:
S = 2 D ′ tan ( θ / 2 ) d in D n Z ( D ′ - D n ) - - - ( 7 )
可见虚拟相机的分离距离与绘制空间的尺度、观察的临界深度以及绘制立体图像对视见体的视场角有关。
采用两个不同尺度的虚拟场景空间进行实验,其中一个虚拟场景的近裁剪面为0.5米,远裁剪面为1000米,人眼感受到的景物深度中既包括非常近的景物又包括非常远的景物。另一个虚拟场景的近裁剪面为100米,远裁剪面为1000米,人眼感受到的景物深度中都是远景物体。图4给出了人眼-物理屏幕观察空间中的参数。
图5中两组实验结果表明:虚拟场景1中在深度0.95米处绘制的物体会被人眼感受到显示在物理的屏幕上。该虚拟场景的虚拟相机分离距离小于实际人眼的物理距离。虚拟场景2中深度在174.3米处绘制的物体会被人眼感受到显示在物理的屏幕上。该虚拟场景的虚拟相机的分离距离远远大于人眼的实际物理距离,这使得虚拟场景中距虚拟相机最近在100米的景物显示在观察空间中距人仅为2.5米的物理屏幕的前侧。两组数据表明计算虚拟相机分离距离方法是有效的。
从实验的两组数据中可以看出,两个虚拟场景的深度范围分别为999.5m和900m,最终映射到物理屏幕前后的31.13m的深度范围内,两个虚拟场景的深度均是压缩的。

Claims (1)

1.一种立体图像绘制时虚拟相机分离距离的精确确定方法,其特征在于该方法包括:
第1、对于给定的物理显示屏幕的前后可融合范围,以试验的方法通过多人观测实测给定物理显示屏幕的可融合临界深度;实验方法采用无畸变的立体图像生成方式,取重复观测的临界深度均值作为最终物理显示屏幕的临界深度值;
第2、定义两个空间:人眼-物理屏幕观察空间和虚拟相机-场景的绘制空间,建立零视差投影面与物理屏幕的对应像点的射影变换,非齐次坐标表达的射影变换是平面的分式线性变换,通过该变换得到给定物理屏幕的虚拟相机分离距离的计算表达式。
CN2012104696450A 2012-11-20 2012-11-20 立体图像绘制时虚拟相机分离距离的确定方法 Pending CN102930550A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012104696450A CN102930550A (zh) 2012-11-20 2012-11-20 立体图像绘制时虚拟相机分离距离的确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012104696450A CN102930550A (zh) 2012-11-20 2012-11-20 立体图像绘制时虚拟相机分离距离的确定方法

Publications (1)

Publication Number Publication Date
CN102930550A true CN102930550A (zh) 2013-02-13

Family

ID=47645340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012104696450A Pending CN102930550A (zh) 2012-11-20 2012-11-20 立体图像绘制时虚拟相机分离距离的确定方法

Country Status (1)

Country Link
CN (1) CN102930550A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103220544A (zh) * 2013-04-25 2013-07-24 重庆大学 一种主动离轴平行式立体成像方法
CN106228613A (zh) * 2016-06-12 2016-12-14 深圳超多维光电子有限公司 一种虚拟立体场景的构建方法、装置及立体显示设备
CN106251403A (zh) * 2016-06-12 2016-12-21 深圳超多维光电子有限公司 一种虚拟立体场景实现的方法、装置和系统
CN108471939A (zh) * 2017-09-04 2018-08-31 深圳前海达闼云端智能科技有限公司 一种潘弄区测量方法、装置以及可穿戴显示设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030107645A1 (en) * 2001-08-17 2003-06-12 Byoungyi Yoon Method and system for controlling the display location of stereoscopic images
CN102289841A (zh) * 2011-08-11 2011-12-21 四川虹微技术有限公司 一种立体图像观众感知深度的调节方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030107645A1 (en) * 2001-08-17 2003-06-12 Byoungyi Yoon Method and system for controlling the display location of stereoscopic images
CN102289841A (zh) * 2011-08-11 2011-12-21 四川虹微技术有限公司 一种立体图像观众感知深度的调节方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵猛: "大屏幕多人沉浸式立体显示系统", 《中国博士学位论文全文数据库》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103220544A (zh) * 2013-04-25 2013-07-24 重庆大学 一种主动离轴平行式立体成像方法
CN106228613A (zh) * 2016-06-12 2016-12-14 深圳超多维光电子有限公司 一种虚拟立体场景的构建方法、装置及立体显示设备
CN106251403A (zh) * 2016-06-12 2016-12-21 深圳超多维光电子有限公司 一种虚拟立体场景实现的方法、装置和系统
CN106228613B (zh) * 2016-06-12 2017-11-24 深圳超多维光电子有限公司 一种虚拟立体场景的构建方法、装置及立体显示设备
CN106251403B (zh) * 2016-06-12 2018-02-16 深圳超多维光电子有限公司 一种虚拟立体场景实现的方法、装置和系统
CN108471939A (zh) * 2017-09-04 2018-08-31 深圳前海达闼云端智能科技有限公司 一种潘弄区测量方法、装置以及可穿戴显示设备
WO2019041352A1 (zh) * 2017-09-04 2019-03-07 深圳前海达闼云端智能科技有限公司 一种潘弄区测量方法、装置以及可穿戴显示设备
CN108471939B (zh) * 2017-09-04 2020-07-28 深圳前海达闼云端智能科技有限公司 一种潘弄区测量方法、装置以及可穿戴显示设备
US11517195B2 (en) * 2017-09-04 2022-12-06 Cloudminds Robotics Co., Ltd. Panum's area measurement method, apparatus, and wearable display device

Similar Documents

Publication Publication Date Title
EP1704730B1 (en) Method and apparatus for generating a stereoscopic image
US8817073B2 (en) System and method of processing 3D stereoscopic image
MX2020009791A (es) Método basado en planos multifocales para producir puntos de vista estereoscópicos en un sistema de renderizado de imágenes basado en profundidad (mfp-dibr).
CN104677330A (zh) 一种小型双目立体视觉测距系统
CN101808251B (zh) 立体图像对中遮挡信息的提取方法
JP2019510311A (ja) 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品
CN105611278A (zh) 防裸眼3d观看眩晕感的图像处理方法及系统和显示设备
CN101247530A (zh) 增强图像的立体效果的三维图像显示设备和方法
US20160337640A1 (en) Method and system for determining parameters of an off-axis virtual camera
KR20150121127A (ko) 양안 응시 이미징 방법 및 장치
CN104077808A (zh) 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法
CN103955954A (zh) 一种结合同场景立体图对的高分辨率深度图像重建方法
CN102930550A (zh) 立体图像绘制时虚拟相机分离距离的确定方法
US9538166B2 (en) Apparatus and method for measuring depth of the three-dimensional image
CN110500959A (zh) 一种单摄像头口内三维扫描系统
US9165393B1 (en) Measuring stereoscopic quality in a three-dimensional computer-generated scene
KR101631514B1 (ko) 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
EP2490452A1 (en) A method and system for rendering a stereoscopic view
US20130286164A1 (en) Glassless 3d image display apparatus and method thereof
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
CN103945206A (zh) 一种基于相似帧比较的立体图像合成系统
CN105608665A (zh) 多通道球面立体视景视觉感知深度精确计算方法
CN105791798A (zh) 一种基于gpu的4k超多视点3d视频实时转化方法及装置
Jung et al. 65.2: Effect of Viewing Region Satisfying Super Multi‐View Condition in Integral Imaging
KR102547717B1 (ko) 3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C05 Deemed withdrawal (patent law before 1993)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130213