CN111007939A - 一种基于深度感知的虚拟现实系统空间定位方法 - Google Patents

一种基于深度感知的虚拟现实系统空间定位方法 Download PDF

Info

Publication number
CN111007939A
CN111007939A CN201911161468.8A CN201911161468A CN111007939A CN 111007939 A CN111007939 A CN 111007939A CN 201911161468 A CN201911161468 A CN 201911161468A CN 111007939 A CN111007939 A CN 111007939A
Authority
CN
China
Prior art keywords
virtual
point
depth perception
space
perception
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911161468.8A
Other languages
English (en)
Other versions
CN111007939B (zh
Inventor
秦华标
刘红梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911161468.8A priority Critical patent/CN111007939B/zh
Publication of CN111007939A publication Critical patent/CN111007939A/zh
Application granted granted Critical
Publication of CN111007939B publication Critical patent/CN111007939B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于深度感知的虚拟现实系统空间定位方法。所述方法首先通过VR头戴设备集成的视线跟踪系统跟踪人类视觉系统感知的注视点,基于注视点构建用户在虚拟环境注视目标对象时的深度感知模型;其次由注视点建立相对视觉感知的内参矩阵,从而计算3D注视点在图像上的2D投影位置,并在此基础上计算人眼注视的目标点位置;然后量化VR系统设定的和视觉系统形成的深度感知差异;最后由深度感知差异对虚拟摄像机的位置进行补偿,得到视觉系统感知的自身在虚拟空间的位置。本发明考虑视觉系统在虚拟环境的深度感知差异,直接定位用户自身在虚拟场景中的感知位置,使得用户能够与虚拟物体进行更准确的交互,提高用户的交互体验。

Description

一种基于深度感知的虚拟现实系统空间定位方法
技术领域
本发明涉及虚拟现实技术领域,具体涉及一种基于深度感知的虚拟现实系统空间定位方法。
背景技术
虚拟现实系统中的空间定位技术是连接物理空间和虚拟空间,实现人类与虚拟场景交互的关键技术。
虚拟现实中定位是指确定用户自身在虚拟空间所处的位置。现有空间定位方法定位用户在物理空间的绝对空间位姿,并反馈到VR内容中,与VR虚拟摄像机空间位置相对应实现定位。主要分为两类:由外向内(Outside-in)和由内向外(Inside-out)空间定位方法。Outside-in方法通过放置在物理空间的外部设备定位头戴式显示器(HMD)位置,与虚拟空间中虚拟摄像机位置同步实现定位。增加外部传感器数量和降低传输时延可以提高定位准确度,是最主要的定位方式。这种方法只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。(《基于Unity3D虚拟摄像系统中摄像机姿态定位》,该文采用外部传感器实时定位HMD在物理空间中的姿态,并与虚拟摄像机的位置同步实现定位。存在的不足是没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。)Inside-out方法在HMD设备上集成传感器,定位HMD设备本身在物理空间的位置,从而定位用户在虚拟环境中的位置,通常采用视觉SLAM技术定位设备本身在物理空间的位置。该方法不需要任何外部传感器实现头盔本身自主定位,增加了VR的应用灵活性,为进一步连接物理空间和虚拟空间提供可能。这种方法同样只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。(《Real-TimeMotion Tracking for Mobile Augmented/Virtual Reality Using AdaptiveVisual-Inertial Fusion》,该文采用视觉-惯性传感器融合的SLAM方法定位HMD在物理空间的姿态,提高HMD在物理空间姿态估计的性能。存在的不足是只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。)现有定位方法只关注用户在物理空间的位置,不考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。然而,受渲染技术、计算机图像显示等关键问题的影响,以及不同用户双眼数据的差异,用户通过观看固定视察的双目虚拟摄像机得到的特定立体图像感知的深度信息和VR系统设定的深度信息存在差异,则虚拟摄像机位置不能等同于人类通过双眼视觉感知的自身相对虚拟场景的位置。即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置,无法正确自身与虚拟目标的位置关系,不能正确交互。
因此在VR系统中,为了实现虚实正确交互,除了依据现有定位方法定位人在物理空间中的位置以外,还应该研究视觉感知在虚拟和物理空间的感知差异,定位用户感知的自身在虚拟空间所处的位置,将该位置与HMD在物理空间的位置进行同步才能实现真正的虚实同步。本发明提供了一种基于深度感知的虚拟现实系统空间定位方法,目的就是定位用户感知的自身在虚拟空间所处的位置。
发明内容
建模类的VR系统通过固定视差为d的双目虚拟摄像机得到具有水平视差的左右图像Itl和Itr,并将图像Itl和Itr分别显示在VR头盔的左右两个显示屏上;在头部与VR头盔显示设备相对静止时,人类视觉系统(Human Visual System)通过观看这些双目视差图像产生深度感知,就能判断自身与虚拟场景的相对位置关系;为了计算双目通过视差图感知的自身相对虚拟目标的位置,本发明针对现有虚拟现实定位技术忽视视觉感知在虚拟和物理空间感知差异的问题,公开了一种基于深度感知的虚拟现实系统空间定位方法。该方法以更接近人类视觉感知的注视点信息建模人类的视觉感知,并分析人类视觉感知在虚拟和物理空间中的差异,通过感知差异补偿虚拟摄像机位置获得用户感知的自身在虚拟空间的位置。然后将虚拟空间中感知的自身位置与物理空间中的头盔位置连接就能实现正确的虚实交互。该方法从VR系统设备内部研究视觉系统的深度感知,将人类视觉感知和虚拟客观场景的图像信息两部分内容进行结合,提高自身位置估计的可信度。
本发明的目的至少通过如下技术方案实现。
一种基于深度感知的虚拟现实系统空间定位方法,包括以下步骤:
S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔角膜反射技术的视线跟踪估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
进一步地,步骤S1中,实时跟踪视线注视点具体过程如下:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点
Figure BDA0002286260550000031
时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为
Figure BDA0002286260550000032
其中上标V表示虚拟空间坐标系统,k表示当前时间。
进一步地,步骤S1中,建立视觉系统在虚拟环境中的深度感知模型具体过程如下:
由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
Figure BDA0002286260550000033
Figure BDA0002286260550000034
其中
Figure BDA0002286260550000035
为t时刻左右眼球中心位置,
Figure BDA0002286260550000036
为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
进一步地,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
Figure BDA0002286260550000041
Figure BDA0002286260550000042
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx
shy=Qht(z)·my
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd
my=hI/hd
Figure BDA0002286260550000043
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
进一步地,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
根据视线注视点位置
Figure BDA0002286260550000051
以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点
Figure BDA0002286260550000052
和目标点
Figure BDA0002286260550000053
在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点
Figure BDA0002286260550000054
由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标
Figure BDA0002286260550000055
Figure BDA0002286260550000056
进一步地,步骤S3中,获取VR系统设定的深度感知具体过程如下:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标
Figure BDA0002286260550000057
Figure BDA0002286260550000058
通常不在同一点上,取其中点为最终的目标点坐标
Figure BDA0002286260550000059
然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
Figure BDA00022862605500000510
其中
Figure BDA00022862605500000511
为虚拟摄像机在t时刻的中点位置;Qvt为VR系统设定的深度感知。
进一步地,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点
Figure BDA00022862605500000512
时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
ΔQt=Qvt-Qht
不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:
Figure BDA00022862605500000513
进一步地,步骤S4中,定位感知的自身位置具体过程如下:
步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置
Figure BDA0002286260550000061
如下所示:
Figure BDA0002286260550000062
相比于现有技术,本发明的优点与积极效果在于:
(1)视线注视点是更接近人类视觉感知的深度线索,本发明通过跟踪用户注视点建模人类在虚拟空间的深度感知,能更有效反映人类在虚拟空间的深度感知。
(2)本发明依据摄像机投影原理,通过注视点信息建立相对人眼视觉感知的内参矩阵,充分利用了人类视觉系统的感知信息。
(3)本发明通过利用注视点信息计算目标点的3D位置,不需要在虚拟空间中设置标记点,是一种自动计算方法。
(4)本发明利用视觉感知的深度差异计算自身在虚拟空间的感知位置,正确表示自身相对感知虚拟场景的位置关系,能够提高虚实交互体验,缓解因视觉感知不一致引起的晕动症。
附图说明
图1是本发明实施例中的虚拟现实系统结构示意图。
图2是本发明实施例中一种基于深度感知的虚拟现实系统空间定位方法的步骤流程图。
图3是本发明实施例中人眼视觉行为的几何模型图。
图4是本发明实施例中虚拟摄像机的投影映射模型图。
具体实施方式
下面结合附图和实施例对本发明的具体实施作进一步说明。
实施例:
一种基于深度感知的虚拟现实系统空间定位方法,如图2所示,包括如下步骤:
步骤S1:基于视觉注视点建模人类视觉系统在虚拟空间的深度感知,具体实施步骤如下:
S1.1.实时跟踪视线注视点:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点
Figure BDA0002286260550000071
时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为
Figure BDA0002286260550000072
其中上标V表示虚拟空间坐标系统,k表示当前时间。
如图1所示,本实施例中,所述VR头盔为集成了视线跟踪系统的虚拟现实头戴式显示设备1,所用的头戴式显示设备1集成的视线跟踪系统由显示屏2周围的多个红外光源3和两个显示屏下边缘中点的红外摄像头4组成,其中红外光源和红外摄像头用于在眼睛上产生眼动特征和实时地捕捉具有角膜反射人眼图像;则基于瞳孔角膜反射技术的视线跟踪算法通过人眼图像能够获得双目视线方向。
S1.2.建立视觉系统在虚拟环境中的深度感知模型:
如图3所示,由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
Figure BDA0002286260550000073
Figure BDA0002286260550000074
其中
Figure BDA0002286260550000075
为t时刻左右眼球中心位置,
Figure BDA0002286260550000076
为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
步骤S2:基于注视点信息计算视线注视的虚拟目标点的3D位置,具体实施步骤如下:
S2.1.基于视线注视点建立相对视觉感知的内参矩阵:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
Figure BDA0002286260550000077
Figure BDA0002286260550000078
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
如图3和图4所示,对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx
shy=Qht(z)·my
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd
my=hI/hd
Figure BDA0002286260550000081
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值;
S2.2.计算视线注视的虚拟目标点3D位置:
如图3和图4所示,根据视线注视点位置
Figure BDA0002286260550000082
以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点
Figure BDA0002286260550000083
和目标点
Figure BDA0002286260550000084
在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置
Figure BDA0002286260550000085
由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标
Figure BDA0002286260550000086
Figure BDA0002286260550000087
步骤S3:量化人类视觉系统感知的和VR系统设定的深度感知差异,具体实施步骤如下:
S3.1.获取VR系统设定的深度感知:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标
Figure BDA0002286260550000091
Figure BDA0002286260550000092
通常不在同一点上,取其中点为最终的目标点坐标
Figure BDA0002286260550000093
然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
Figure BDA0002286260550000094
其中
Figure BDA0002286260550000095
为虚拟摄像机在t时刻的中点位置。Qvt为VR系统设定的深度感知。
Figure BDA0002286260550000096
由左右两个虚拟摄像机位置
Figure BDA0002286260550000097
Figure BDA0002286260550000098
得到。
S3.2.量化感知的和设定的深度感知差异:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点
Figure BDA0002286260550000099
时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,以及虚拟现实的深度线索和视觉系统的深度线索不完全相同,导致视觉系统形成的深度感知和VR建立的立体效果不同,通过步骤S1建模的视觉系统深度感知和VR系统设定的深度感知进行比较,量化两者差异,公式如下:
ΔQt=Qvt-Qht
不考虑头戴式显示设备和头部(HMD-head)的相对偏移,双目视线的起点与HMD相对位置固定,则双目视线的起点在虚拟空间中的位置EV与虚拟摄像机的位置也相对固定,成年人的双目间距大约65mm,依据成年人的双目间距设定虚拟摄像机假设的两个相机间距,则认为虚拟摄像机代替双目EV=PV;同时视觉感知研究结论“人在VR中的视觉感知深度距离更近”,简化后两者差异为
Figure BDA00022862605500000910
步骤S4:估计用户感知的自身在虚拟空间的位置,具体实施步骤如下:
步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置
Figure BDA00022862605500000911
如下所示:
Figure BDA00022862605500000912

Claims (8)

1.一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,包括以下步骤:
S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔角膜反射技术的视线跟踪算法估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
2.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S1中,实时跟踪视线注视点具体过程如下:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点
Figure FDA0002286260540000011
时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为
Figure FDA0002286260540000012
其中上标V表示虚拟空间坐标系统,k表示当前时间。
3.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S1中,建立视觉系统在虚拟环境中的深度感知模型具体过程如下:
由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
Figure FDA0002286260540000021
Figure FDA0002286260540000022
其中
Figure FDA0002286260540000023
为t时刻左右眼球中心位置,
Figure FDA0002286260540000024
为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
4.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
Figure FDA0002286260540000025
Figure FDA0002286260540000026
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx
shy=Qht(z)·my
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd
my=hI/hd
Figure FDA0002286260540000031
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
5.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
根据视线注视点位置
Figure FDA0002286260540000032
以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点
Figure FDA0002286260540000033
和目标点
Figure FDA0002286260540000034
在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点
Figure FDA0002286260540000035
由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标
Figure FDA0002286260540000036
Figure FDA0002286260540000037
6.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S3中,获取VR系统设定的深度感知具体过程如下:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标
Figure FDA0002286260540000038
Figure FDA0002286260540000039
通常不在同一点上,取其中点为最终的目标点坐标
Figure FDA00022862605400000310
然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
Figure FDA00022862605400000311
其中
Figure FDA00022862605400000312
为虚拟摄像机在t时刻的中点位置;Qvt为VR系统设定的深度感知。
7.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点
Figure FDA00022862605400000313
时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
ΔQt=Qvt-Qht
不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:
Figure FDA0002286260540000041
8.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S4中,定位感知的自身位置具体过程如下:
步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置
Figure FDA0002286260540000042
如下所示:
Figure FDA0002286260540000043
CN201911161468.8A 2019-11-25 2019-11-25 一种基于深度感知的虚拟现实系统空间定位方法 Active CN111007939B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911161468.8A CN111007939B (zh) 2019-11-25 2019-11-25 一种基于深度感知的虚拟现实系统空间定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911161468.8A CN111007939B (zh) 2019-11-25 2019-11-25 一种基于深度感知的虚拟现实系统空间定位方法

Publications (2)

Publication Number Publication Date
CN111007939A true CN111007939A (zh) 2020-04-14
CN111007939B CN111007939B (zh) 2021-09-21

Family

ID=70113122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911161468.8A Active CN111007939B (zh) 2019-11-25 2019-11-25 一种基于深度感知的虚拟现实系统空间定位方法

Country Status (1)

Country Link
CN (1) CN111007939B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111938672A (zh) * 2020-08-20 2020-11-17 京东方科技集团股份有限公司 基于虚拟现实环境的视觉特性检测方法及相关设备
CN112380935A (zh) * 2020-11-03 2021-02-19 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
CN112633128A (zh) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 余光区域中感兴趣对象信息的推送方法和系统
CN113448445A (zh) * 2021-09-01 2021-09-28 深圳市诚识科技有限公司 一种基于虚拟现实的目标位置跟踪方法和系统
CN113553920A (zh) * 2021-07-02 2021-10-26 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
CN113673479A (zh) * 2021-09-03 2021-11-19 济南大学 基于视觉关注点识别物体的方法
CN114049800A (zh) * 2021-10-15 2022-02-15 东南大学 混合现实环境下的深度感知实验平台及其实验方法
CN114758381A (zh) * 2022-03-28 2022-07-15 长沙千博信息技术有限公司 一种基于图像识别的虚拟数字人视线控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824318A (zh) * 2014-02-13 2014-05-28 西安交通大学 一种多摄像头阵列的深度感知方法
CN104199023A (zh) * 2014-09-15 2014-12-10 南京大学 一种基于深度感知的rfid室内定位系统及其工作方法
US9440752B1 (en) * 2013-03-14 2016-09-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) Modification of surface density of a porous medium
CN108780504A (zh) * 2015-12-22 2018-11-09 艾奎菲股份有限公司 深度感知三目相机系统
CN109086726A (zh) * 2018-08-10 2018-12-25 陈涛 一种基于ar智能眼镜的局部图像识别方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9440752B1 (en) * 2013-03-14 2016-09-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) Modification of surface density of a porous medium
CN103824318A (zh) * 2014-02-13 2014-05-28 西安交通大学 一种多摄像头阵列的深度感知方法
CN104199023A (zh) * 2014-09-15 2014-12-10 南京大学 一种基于深度感知的rfid室内定位系统及其工作方法
CN108780504A (zh) * 2015-12-22 2018-11-09 艾奎菲股份有限公司 深度感知三目相机系统
CN109086726A (zh) * 2018-08-10 2018-12-25 陈涛 一种基于ar智能眼镜的局部图像识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周玲等: "虚拟现实中关于视觉深度感知的讨论", 《电子器件》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111938672A (zh) * 2020-08-20 2020-11-17 京东方科技集团股份有限公司 基于虚拟现实环境的视觉特性检测方法及相关设备
CN111938672B (zh) * 2020-08-20 2024-01-23 京东方科技集团股份有限公司 基于虚拟现实环境的视觉特性检测方法及相关设备
CN112380935B (zh) * 2020-11-03 2023-05-26 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
CN112380935A (zh) * 2020-11-03 2021-02-19 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
CN112633128A (zh) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 余光区域中感兴趣对象信息的推送方法和系统
CN113553920A (zh) * 2021-07-02 2021-10-26 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
CN113553920B (zh) * 2021-07-02 2024-06-04 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
CN113448445A (zh) * 2021-09-01 2021-09-28 深圳市诚识科技有限公司 一种基于虚拟现实的目标位置跟踪方法和系统
CN113448445B (zh) * 2021-09-01 2021-11-30 深圳市诚识科技有限公司 一种基于虚拟现实的目标位置跟踪方法和系统
CN113673479A (zh) * 2021-09-03 2021-11-19 济南大学 基于视觉关注点识别物体的方法
CN114049800A (zh) * 2021-10-15 2022-02-15 东南大学 混合现实环境下的深度感知实验平台及其实验方法
CN114049800B (zh) * 2021-10-15 2024-05-07 东南大学 混合现实环境下的深度感知实验平台及其实验方法
CN114758381A (zh) * 2022-03-28 2022-07-15 长沙千博信息技术有限公司 一种基于图像识别的虚拟数字人视线控制方法

Also Published As

Publication number Publication date
CN111007939B (zh) 2021-09-21

Similar Documents

Publication Publication Date Title
CN111007939B (zh) 一种基于深度感知的虚拟现实系统空间定位方法
CN108600733B (zh) 一种基于人眼跟踪的裸眼3d显示方法
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
CN110187855B (zh) 近眼显示设备的避免全息影像阻挡视线的智能调节方法
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US11170521B1 (en) Position estimation based on eye gaze
US11854171B2 (en) Compensation for deformation in head mounted display systems
KR101822471B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP3089306B2 (ja) 立体画像撮像及び表示装置
JP7073481B2 (ja) 画像表示システム
EP1433335A1 (en) 3d video conferencing system
JP2023501079A (ja) 共有人工現実環境における同じ場所での姿勢推定
CN103517060A (zh) 一种终端设备的显示控制方法及装置
US20220060680A1 (en) Head mounted display apparatus
JP2018500690A (ja) 拡大3d画像を生成するための方法およびシステム
Jaekl et al. Perceptual stability during head movement in virtual reality
CN115359093A (zh) 一种基于单目的注视点估计视线追踪方法
US20100123716A1 (en) Interactive 3D image Display method and Related 3D Display Apparatus
TWI589150B (zh) 3d自動對焦顯示方法及其系統
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN109961473A (zh) 双眼定位方法及装置、电子设备和计算机可读存储介质
Hasmanda et al. The modelling of stereoscopic 3D scene acquisition
US20180101226A1 (en) Information processing apparatus
Wu et al. Depth-disparity calibration for augmented reality on binocular optical see-through displays
CN108471939B (zh) 一种潘弄区测量方法、装置以及可穿戴显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant