CN111007939A - 一种基于深度感知的虚拟现实系统空间定位方法 - Google Patents
一种基于深度感知的虚拟现实系统空间定位方法 Download PDFInfo
- Publication number
- CN111007939A CN111007939A CN201911161468.8A CN201911161468A CN111007939A CN 111007939 A CN111007939 A CN 111007939A CN 201911161468 A CN201911161468 A CN 201911161468A CN 111007939 A CN111007939 A CN 111007939A
- Authority
- CN
- China
- Prior art keywords
- virtual
- point
- depth perception
- space
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于深度感知的虚拟现实系统空间定位方法。所述方法首先通过VR头戴设备集成的视线跟踪系统跟踪人类视觉系统感知的注视点,基于注视点构建用户在虚拟环境注视目标对象时的深度感知模型;其次由注视点建立相对视觉感知的内参矩阵,从而计算3D注视点在图像上的2D投影位置,并在此基础上计算人眼注视的目标点位置;然后量化VR系统设定的和视觉系统形成的深度感知差异;最后由深度感知差异对虚拟摄像机的位置进行补偿,得到视觉系统感知的自身在虚拟空间的位置。本发明考虑视觉系统在虚拟环境的深度感知差异,直接定位用户自身在虚拟场景中的感知位置,使得用户能够与虚拟物体进行更准确的交互,提高用户的交互体验。
Description
技术领域
本发明涉及虚拟现实技术领域,具体涉及一种基于深度感知的虚拟现实系统空间定位方法。
背景技术
虚拟现实系统中的空间定位技术是连接物理空间和虚拟空间,实现人类与虚拟场景交互的关键技术。
虚拟现实中定位是指确定用户自身在虚拟空间所处的位置。现有空间定位方法定位用户在物理空间的绝对空间位姿,并反馈到VR内容中,与VR虚拟摄像机空间位置相对应实现定位。主要分为两类:由外向内(Outside-in)和由内向外(Inside-out)空间定位方法。Outside-in方法通过放置在物理空间的外部设备定位头戴式显示器(HMD)位置,与虚拟空间中虚拟摄像机位置同步实现定位。增加外部传感器数量和降低传输时延可以提高定位准确度,是最主要的定位方式。这种方法只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。(《基于Unity3D虚拟摄像系统中摄像机姿态定位》,该文采用外部传感器实时定位HMD在物理空间中的姿态,并与虚拟摄像机的位置同步实现定位。存在的不足是没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。)Inside-out方法在HMD设备上集成传感器,定位HMD设备本身在物理空间的位置,从而定位用户在虚拟环境中的位置,通常采用视觉SLAM技术定位设备本身在物理空间的位置。该方法不需要任何外部传感器实现头盔本身自主定位,增加了VR的应用灵活性,为进一步连接物理空间和虚拟空间提供可能。这种方法同样只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。(《Real-TimeMotion Tracking for Mobile Augmented/Virtual Reality Using AdaptiveVisual-Inertial Fusion》,该文采用视觉-惯性传感器融合的SLAM方法定位HMD在物理空间的姿态,提高HMD在物理空间姿态估计的性能。存在的不足是只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。)现有定位方法只关注用户在物理空间的位置,不考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。然而,受渲染技术、计算机图像显示等关键问题的影响,以及不同用户双眼数据的差异,用户通过观看固定视察的双目虚拟摄像机得到的特定立体图像感知的深度信息和VR系统设定的深度信息存在差异,则虚拟摄像机位置不能等同于人类通过双眼视觉感知的自身相对虚拟场景的位置。即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置,无法正确自身与虚拟目标的位置关系,不能正确交互。
因此在VR系统中,为了实现虚实正确交互,除了依据现有定位方法定位人在物理空间中的位置以外,还应该研究视觉感知在虚拟和物理空间的感知差异,定位用户感知的自身在虚拟空间所处的位置,将该位置与HMD在物理空间的位置进行同步才能实现真正的虚实同步。本发明提供了一种基于深度感知的虚拟现实系统空间定位方法,目的就是定位用户感知的自身在虚拟空间所处的位置。
发明内容
建模类的VR系统通过固定视差为d的双目虚拟摄像机得到具有水平视差的左右图像Itl和Itr,并将图像Itl和Itr分别显示在VR头盔的左右两个显示屏上;在头部与VR头盔显示设备相对静止时,人类视觉系统(Human Visual System)通过观看这些双目视差图像产生深度感知,就能判断自身与虚拟场景的相对位置关系;为了计算双目通过视差图感知的自身相对虚拟目标的位置,本发明针对现有虚拟现实定位技术忽视视觉感知在虚拟和物理空间感知差异的问题,公开了一种基于深度感知的虚拟现实系统空间定位方法。该方法以更接近人类视觉感知的注视点信息建模人类的视觉感知,并分析人类视觉感知在虚拟和物理空间中的差异,通过感知差异补偿虚拟摄像机位置获得用户感知的自身在虚拟空间的位置。然后将虚拟空间中感知的自身位置与物理空间中的头盔位置连接就能实现正确的虚实交互。该方法从VR系统设备内部研究视觉系统的深度感知,将人类视觉感知和虚拟客观场景的图像信息两部分内容进行结合,提高自身位置估计的可信度。
本发明的目的至少通过如下技术方案实现。
一种基于深度感知的虚拟现实系统空间定位方法,包括以下步骤:
S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔角膜反射技术的视线跟踪估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
进一步地,步骤S1中,实时跟踪视线注视点具体过程如下:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为其中上标V表示虚拟空间坐标系统,k表示当前时间。
进一步地,步骤S1中,建立视觉系统在虚拟环境中的深度感知模型具体过程如下:
由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
进一步地,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx;
shy=Qht(z)·my;
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd;
my=hI/hd;
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
进一步地,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
根据视线注视点位置以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点和目标点在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
进一步地,步骤S3中,获取VR系统设定的深度感知具体过程如下:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标和通常不在同一点上,取其中点为最终的目标点坐标然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
进一步地,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
ΔQt=Qvt-Qht;
不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:
进一步地,步骤S4中,定位感知的自身位置具体过程如下:
相比于现有技术,本发明的优点与积极效果在于:
(1)视线注视点是更接近人类视觉感知的深度线索,本发明通过跟踪用户注视点建模人类在虚拟空间的深度感知,能更有效反映人类在虚拟空间的深度感知。
(2)本发明依据摄像机投影原理,通过注视点信息建立相对人眼视觉感知的内参矩阵,充分利用了人类视觉系统的感知信息。
(3)本发明通过利用注视点信息计算目标点的3D位置,不需要在虚拟空间中设置标记点,是一种自动计算方法。
(4)本发明利用视觉感知的深度差异计算自身在虚拟空间的感知位置,正确表示自身相对感知虚拟场景的位置关系,能够提高虚实交互体验,缓解因视觉感知不一致引起的晕动症。
附图说明
图1是本发明实施例中的虚拟现实系统结构示意图。
图2是本发明实施例中一种基于深度感知的虚拟现实系统空间定位方法的步骤流程图。
图3是本发明实施例中人眼视觉行为的几何模型图。
图4是本发明实施例中虚拟摄像机的投影映射模型图。
具体实施方式
下面结合附图和实施例对本发明的具体实施作进一步说明。
实施例:
一种基于深度感知的虚拟现实系统空间定位方法,如图2所示,包括如下步骤:
步骤S1:基于视觉注视点建模人类视觉系统在虚拟空间的深度感知,具体实施步骤如下:
S1.1.实时跟踪视线注视点:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为其中上标V表示虚拟空间坐标系统,k表示当前时间。
如图1所示,本实施例中,所述VR头盔为集成了视线跟踪系统的虚拟现实头戴式显示设备1,所用的头戴式显示设备1集成的视线跟踪系统由显示屏2周围的多个红外光源3和两个显示屏下边缘中点的红外摄像头4组成,其中红外光源和红外摄像头用于在眼睛上产生眼动特征和实时地捕捉具有角膜反射人眼图像;则基于瞳孔角膜反射技术的视线跟踪算法通过人眼图像能够获得双目视线方向。
S1.2.建立视觉系统在虚拟环境中的深度感知模型:
如图3所示,由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
步骤S2:基于注视点信息计算视线注视的虚拟目标点的3D位置,具体实施步骤如下:
S2.1.基于视线注视点建立相对视觉感知的内参矩阵:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
如图3和图4所示,对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx;
shy=Qht(z)·my;
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd;
my=hI/hd;
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值;
S2.2.计算视线注视的虚拟目标点3D位置:
如图3和图4所示,根据视线注视点位置以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点和目标点在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
步骤S3:量化人类视觉系统感知的和VR系统设定的深度感知差异,具体实施步骤如下:
S3.1.获取VR系统设定的深度感知:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标和通常不在同一点上,取其中点为最终的目标点坐标然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
S3.2.量化感知的和设定的深度感知差异:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,以及虚拟现实的深度线索和视觉系统的深度线索不完全相同,导致视觉系统形成的深度感知和VR建立的立体效果不同,通过步骤S1建模的视觉系统深度感知和VR系统设定的深度感知进行比较,量化两者差异,公式如下:
ΔQt=Qvt-Qht;
不考虑头戴式显示设备和头部(HMD-head)的相对偏移,双目视线的起点与HMD相对位置固定,则双目视线的起点在虚拟空间中的位置EV与虚拟摄像机的位置也相对固定,成年人的双目间距大约65mm,依据成年人的双目间距设定虚拟摄像机假设的两个相机间距,则认为虚拟摄像机代替双目EV=PV;同时视觉感知研究结论“人在VR中的视觉感知深度距离更近”,简化后两者差异为
步骤S4:估计用户感知的自身在虚拟空间的位置,具体实施步骤如下:
Claims (8)
1.一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,包括以下步骤:
S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔角膜反射技术的视线跟踪算法估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
4.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx;
shy=Qht(z)·my;
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd;
my=hI/hd;
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
5.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
根据视线注视点位置以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点和目标点在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
7.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
ΔQt=Qvt-Qht;
不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911161468.8A CN111007939B (zh) | 2019-11-25 | 2019-11-25 | 一种基于深度感知的虚拟现实系统空间定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911161468.8A CN111007939B (zh) | 2019-11-25 | 2019-11-25 | 一种基于深度感知的虚拟现实系统空间定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111007939A true CN111007939A (zh) | 2020-04-14 |
CN111007939B CN111007939B (zh) | 2021-09-21 |
Family
ID=70113122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911161468.8A Active CN111007939B (zh) | 2019-11-25 | 2019-11-25 | 一种基于深度感知的虚拟现实系统空间定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111007939B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111938672A (zh) * | 2020-08-20 | 2020-11-17 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN112380935A (zh) * | 2020-11-03 | 2021-02-19 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN112633128A (zh) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | 余光区域中感兴趣对象信息的推送方法和系统 |
CN113448445A (zh) * | 2021-09-01 | 2021-09-28 | 深圳市诚识科技有限公司 | 一种基于虚拟现实的目标位置跟踪方法和系统 |
CN113553920A (zh) * | 2021-07-02 | 2021-10-26 | 黑芝麻智能科技(上海)有限公司 | 注视方向特征采集方法、装置、计算机设备和存储介质 |
CN113673479A (zh) * | 2021-09-03 | 2021-11-19 | 济南大学 | 基于视觉关注点识别物体的方法 |
CN114049800A (zh) * | 2021-10-15 | 2022-02-15 | 东南大学 | 混合现实环境下的深度感知实验平台及其实验方法 |
CN114758381A (zh) * | 2022-03-28 | 2022-07-15 | 长沙千博信息技术有限公司 | 一种基于图像识别的虚拟数字人视线控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824318A (zh) * | 2014-02-13 | 2014-05-28 | 西安交通大学 | 一种多摄像头阵列的深度感知方法 |
CN104199023A (zh) * | 2014-09-15 | 2014-12-10 | 南京大学 | 一种基于深度感知的rfid室内定位系统及其工作方法 |
US9440752B1 (en) * | 2013-03-14 | 2016-09-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | Modification of surface density of a porous medium |
CN108780504A (zh) * | 2015-12-22 | 2018-11-09 | 艾奎菲股份有限公司 | 深度感知三目相机系统 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
-
2019
- 2019-11-25 CN CN201911161468.8A patent/CN111007939B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9440752B1 (en) * | 2013-03-14 | 2016-09-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | Modification of surface density of a porous medium |
CN103824318A (zh) * | 2014-02-13 | 2014-05-28 | 西安交通大学 | 一种多摄像头阵列的深度感知方法 |
CN104199023A (zh) * | 2014-09-15 | 2014-12-10 | 南京大学 | 一种基于深度感知的rfid室内定位系统及其工作方法 |
CN108780504A (zh) * | 2015-12-22 | 2018-11-09 | 艾奎菲股份有限公司 | 深度感知三目相机系统 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
周玲等: "虚拟现实中关于视觉深度感知的讨论", 《电子器件》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111938672A (zh) * | 2020-08-20 | 2020-11-17 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN111938672B (zh) * | 2020-08-20 | 2024-01-23 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN112380935B (zh) * | 2020-11-03 | 2023-05-26 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN112380935A (zh) * | 2020-11-03 | 2021-02-19 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN112633128A (zh) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | 余光区域中感兴趣对象信息的推送方法和系统 |
CN113553920A (zh) * | 2021-07-02 | 2021-10-26 | 黑芝麻智能科技(上海)有限公司 | 注视方向特征采集方法、装置、计算机设备和存储介质 |
CN113553920B (zh) * | 2021-07-02 | 2024-06-04 | 黑芝麻智能科技(上海)有限公司 | 注视方向特征采集方法、装置、计算机设备和存储介质 |
CN113448445A (zh) * | 2021-09-01 | 2021-09-28 | 深圳市诚识科技有限公司 | 一种基于虚拟现实的目标位置跟踪方法和系统 |
CN113448445B (zh) * | 2021-09-01 | 2021-11-30 | 深圳市诚识科技有限公司 | 一种基于虚拟现实的目标位置跟踪方法和系统 |
CN113673479A (zh) * | 2021-09-03 | 2021-11-19 | 济南大学 | 基于视觉关注点识别物体的方法 |
CN114049800A (zh) * | 2021-10-15 | 2022-02-15 | 东南大学 | 混合现实环境下的深度感知实验平台及其实验方法 |
CN114049800B (zh) * | 2021-10-15 | 2024-05-07 | 东南大学 | 混合现实环境下的深度感知实验平台及其实验方法 |
CN114758381A (zh) * | 2022-03-28 | 2022-07-15 | 长沙千博信息技术有限公司 | 一种基于图像识别的虚拟数字人视线控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111007939B (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111007939B (zh) | 一种基于深度感知的虚拟现实系统空间定位方法 | |
CN108600733B (zh) | 一种基于人眼跟踪的裸眼3d显示方法 | |
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
CN110187855B (zh) | 近眼显示设备的避免全息影像阻挡视线的智能调节方法 | |
US10269139B2 (en) | Computer program, head-mounted display device, and calibration method | |
US11170521B1 (en) | Position estimation based on eye gaze | |
US11854171B2 (en) | Compensation for deformation in head mounted display systems | |
KR101822471B1 (ko) | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 | |
JP3089306B2 (ja) | 立体画像撮像及び表示装置 | |
JP7073481B2 (ja) | 画像表示システム | |
EP1433335A1 (en) | 3d video conferencing system | |
JP2023501079A (ja) | 共有人工現実環境における同じ場所での姿勢推定 | |
CN103517060A (zh) | 一种终端设备的显示控制方法及装置 | |
US20220060680A1 (en) | Head mounted display apparatus | |
JP2018500690A (ja) | 拡大3d画像を生成するための方法およびシステム | |
Jaekl et al. | Perceptual stability during head movement in virtual reality | |
CN115359093A (zh) | 一种基于单目的注视点估计视线追踪方法 | |
US20100123716A1 (en) | Interactive 3D image Display method and Related 3D Display Apparatus | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
CN109961473A (zh) | 双眼定位方法及装置、电子设备和计算机可读存储介质 | |
Hasmanda et al. | The modelling of stereoscopic 3D scene acquisition | |
US20180101226A1 (en) | Information processing apparatus | |
Wu et al. | Depth-disparity calibration for augmented reality on binocular optical see-through displays | |
CN108471939B (zh) | 一种潘弄区测量方法、装置以及可穿戴显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |