CN109917904A - 虚拟现实或增强现实环境中对象的空间位置计算系统 - Google Patents

虚拟现实或增强现实环境中对象的空间位置计算系统 Download PDF

Info

Publication number
CN109917904A
CN109917904A CN201811346293.3A CN201811346293A CN109917904A CN 109917904 A CN109917904 A CN 109917904A CN 201811346293 A CN201811346293 A CN 201811346293A CN 109917904 A CN109917904 A CN 109917904A
Authority
CN
China
Prior art keywords
laser
real world
frustum
image
user control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811346293.3A
Other languages
English (en)
Other versions
CN109917904B (zh
Inventor
S·查普曼
J·海格
J·波普
C·阿格耶芒
M·帕特尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disney Enterprises Inc
Original Assignee
Disney Enterprises Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disney Enterprises Inc filed Critical Disney Enterprises Inc
Publication of CN109917904A publication Critical patent/CN109917904A/zh
Application granted granted Critical
Publication of CN109917904B publication Critical patent/CN109917904B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

用户控制装置具有在现实世界环境中发射激光束的激光发射器。此外,用户控制装置具有光学元件,该光学元件接收激光束并产生多个激光束,使得起始点和多个端点形成激光平截头体,每个起始点和端点对应于多个激光束中的一个。另外,用户控制装置具有图像捕获设备,该图像捕获设备基于多个激光束从现实世界环境中的对象的反射来捕获激光平截头体的形状的图像,使得针对增强现实或虚拟现实用户体验确定对象在现实世界环境中的空间位置。

Description

虚拟现实或增强现实环境中对象的空间位置计算系统
技术领域
本公开一般涉及用户体验领域。更具体地,本公开涉及虚拟现实(“VR”)和/或增强现实(“AR”)环境。
背景技术
VR和AR配置通常涉及关于现实世界中的对象的三维(“3-D”)位置的用户控制和消费设备(例如,遥控器)的确定。因此,这样的配置允许增强的用户体验。然而,在当前配置中经常使用多个传感器和发射器来执行这种分析。大量传感器和发射器经常导致麻烦且昂贵的用户体验。结果,当前配置不提供最佳VR和/或AR用户体验。
发明内容
在一个方面,用户控制装置具有在现实世界环境中发射激光束的激光发射器。此外,用户控制装置具有光学元件,该光学元件接收激光束并产生多个激光束,使得起始点和多个端点(每个起始点和端点对应于多个激光束中的一个)形成激光平截头体。另外,用户控制装置具有图像捕获设备,该图像捕获设备基于多个激光束从现实世界环境中的对象的反射来捕获激光平截头体的形状的图像,使得针对增强现实或虚拟现实用户体验确定对象在现实世界环境中的空间位置。
在另一方面,一种系统具有存储现实世界环境的一个或多个尺寸的存储设备。此外,该系统具有接收器,该接收器基于朝向现实世界环境中对象发射并从其反射的多个激光束接收激光平截头体形状的图像。此外,该系统具有处理器,该处理器基于现实世界环境的一个或多个尺寸和激光平截头体的形状来确定对象在现实世界环境中的空间位置。针对增强现实或虚拟现实用户体验来确定对象的空间位置。
在另一方面,一种计算机程序产品包括非暂时性计算机可读存储设备,其上存储有计算机可读程序。计算机可读程序在计算机上执行时使计算机执行本文所述系统的功能。在又一方面,过程执行本文描述的系统的功能。
附图说明
参考以下结合附图的描述,本公开的上述特征将变得更加明显,其中,相同的附图标记表示相同的元件,并且其中:
图1示出了空间位置计算系统,其计算对象在现实世界环境中的空间位置。
图2A示出了具有图1的集成部件的用户控制设备的示例。
图2B示出了图2A中所示的用户控制设备的放大视图。
图2C示出了实现图2A和2B中所示的用户控制设备的AR/VR配置。
图3A示出了位于现实世界环境的第一部分中的用户,其中用户位于现实世界环境中的墙壁正前方并且紧邻墙壁。
图3B示出了当用户紧邻图3A中的墙壁时反射的端点的图像的示例。
图4A示出了位于现实世界环境的第二部分中的用户,其中用户位于在现实世界环境中的墙壁正前方。
图4B示出了当用户距离图4A所示的墙壁更远时反射的端点的图像的示例。
图5A示出了位于现实世界环境的第三部分中的用户,其中用户相对于墙壁偏离一定角度。
图5B示出了当用户相对于图5A中所示的墙壁偏离一定角度时反射的端点的图像的示例。
图6A示出了用户倾斜图5A中所示的用户控制设备。
图6B示出了作为倾斜的结果从图6A中所示的墙壁反射的端点的图像的示例。
图7示出了空间位置计算系统可以利用来确定对象在现实世界环境中的空间位置的过程。
具体实施方式
提供了一种用于计算VR和/或AR环境中对象的现实世界空间位置的配置。该配置包括用户控制设备,其发射一个或多个激光,用于确定用户控制设备在现实世界环境中的位置。
图1示出了空间位置计算系统100,其计算对象在现实世界环境中的空间位置。空间位置计算系统100包括处理器102,存储器106(例如随机存取存储器(“RAM”)和/或只读存储器(“ROM”)),数据存储设备108,激光发射器104,以及图像捕获设备109。激光发射器104的一个例子是激光二极管,其发射光,然后可以通过光学元件(例如,透镜)投射或旋转光以产生多个激光束。图像捕获设备109(例如,相机)可以捕获多个激光束的一个或多个图像,然后将这些一个或多个捕获的图像提供给数据存储设备108。例如,当多个激光束从现实世界环境中的对象反射时,图像捕获设备109可以捕获多个激光束的图像。
另外,数据存储设备108可以存储空间位置代码110,当由处理器102执行时,空间位置代码110确定一个或多个对象在现实世界环境中的位置。此外,处理器102可以执行VR/AR渲染代码112以基于在执行空间位置代码110时由处理器102确定的一个或多个对象的现实世界空间位置来渲染VR/AR环境。
在一个方面,数据存储设备108从计算机可读存储设备(例如,磁或光驱、盘或非易失性存储器、DVD、CD-ROM等)加载空间位置代码110和VR/AR渲染代码112。另一方面,数据存储设备108是计算机可读存储设备。这样,本公开的空间位置代码110、VR/AR渲染代码112和相关联的数据结构可以存储在计算机可读存储设备上。
空间位置计算系统100通过减少VR/AR系统用于确定对象的现实世界空间位置的处理时间来改进计算设备的功能。不是执行来自各种传感器和发射器的多次计算,空间位置计算系统100通过激光发射器104和图像捕获设备109减少计算处理时间。
在一个方面,空间位置计算系统100的部件集成在一个设备(例如,遥控器、头戴式视图器(headset)等)内。例如,在一个集成设备中发射光、捕获图像并计算空间位置。在另一方面,部件可以通过网络连接远程地彼此通信。例如,处理器102可以存储在与具有集成激光发射器104和图像捕获设备109的VR/AR头戴式视图器通信的远程服务器上。
图2A示出了具有图1的集成部件的用户控制设备200的示例。出于说明性目的,用户控制设备200被示为可用于通过显示屏201向VR/AR用户体验提供输入的智能电话。可以替代地使用其他类型的设备(例如,遥控器、头戴式视图器、眼镜、手表、智能可穿戴设备等)。
用户控制设备200包括图1中所示的激光发射器104和图像捕获设备109。激光发射器104(例如,发光二极管(“LED”))可以通过光学元件202(例如,透镜、分束器等)发射一个或多个激光,从而以一个或多个固定角度产生多个激光束204。例如,激光发射器104结合光学元件202可以产生四个激光束204,其从用户控制设备200发出以形成激光平截头体203(即,具有特定形状的结构)。例如,激光平截头体203可以具有金字塔形状,如果四个激光束204的端点连接,则金字塔形状以固定角度从用户控制设备200发出以形成方形基部。激光平截头体203的各种固定角度、激光量和形状可用于借助用户控制设备200执行空间定位。此外,可以实现除了经由光学元件202之外的各种其他形式的激光束产生(例如,旋转没有光学元件202的激光发射器104)。
另外,图像捕获设备109可以捕获从现实世界环境中的对象反射的四个激光束204的端点的位置。然后,可以由图1中示出的处理器102分析捕获的图像数据,以确定对象在现实世界环境中的空间定位,使得该位置可以用于AR和/或VR用户体验。
图2B示出了图2A中所示的用户控制设备200的放大视图。激光发射器104发射穿过光学元件202的单个激光束205。此外,光学元件202将单个激光束205分成多个激光束204。在一个方面,激光发射器104和光学元件202是位于用户控制设备200的表面上的两个不同的部件。在另一方面,激光发射器104和光学元件202被封装在位于用户控制设备200的表面上的单个结构中。
另外,图像捕获设备109被示为与激光发射器104和光学元件202不同的部件。在另一方面,图像捕获设备109、激光发射器104和光学元件202被封装在位于用户控制设备200的表面上的单个结构中。
即使用户控制设备200的顶部部分被示出为图2A和2B的各种部件所在的位置,可以替代地使用其他部分。例如,可以使用侧部、底部等。
图2C示出了实现图2A和2B中所示的用户控制设备200的AR/VR配置210。例如,用户控制设备200可以是手控制器,其基于AR/VR头戴式视图器211提供的AR/VR体验从AR/VR配置210的用户接收一个或多个输入。换句话说,手控制器200可以通过分别向AR/VR头戴式视图器211发送和/或从AR/VR头戴式视图器211接收数据来进行通信。
此外,激光发射器104、光学元件202和图像捕获设备109可以位于所示手控制器200的顶部或其他部分上。然后,手控制器200可以向计算机213(例如,膝上型计算机、个人计算机、平板设备、智能电话、智能手表、游戏控制台等)发送如参考图2A和2B描述的捕获的图像数据以进行图像分析。基于捕获的图像数据,计算机213然后利用图1所示的处理器102来确定手控制器200相对于现实世界环境的位置,以便在AR/VR体验中相应地使用。计算机213可以与手控制器200本地通信(例如,通过无线网络或电缆连接)或与手控制器200进行远程通信(例如,通过网络的客户端-服务器通信)。
在替代方面,处理器102可以集成在AR/VR头戴式视图器211内,使得手控制器200将捕获的图像数据发送到AR/VR头戴式视图器211,以由AR/VR头戴式视图器211进行图像分析。在又一方面,处理器102可以集成在所示的手控制器200或其他形式的用户控制设备中。
图3A、4A、5A和6A示出了使用图2A和2B中所示的用户控制设备200的用户301基于现实世界环境302中的对象的空间定位来配置AR/VR环境。最初,用户301可以执行校准配置,其中用户301围绕现实世界环境302(例如,实物房间)移动用户控制设备200,以便处理器102(图1)可以确定现实世界环境302的尺寸。替代地,在AR/VR用户体验之前,没有进行校准的情况下处理器102可以知道现实世界环境302的尺寸(例如,房间尺寸的数据输入,先前确定的尺寸等)。
图3A示出了位于现实世界环境302的第一部分中的用户301,其中用户301位于现实世界环境302中的墙壁正前方并且紧邻该墙壁。激光束204的端点303-306以均匀间隔的方式从墙壁反射。图像捕获设备109将端点204的间隔的图像捕获到处理器102。基于现实世界环境302的预定尺寸和端点303-306的间隔,处理器102(图1)计算用户控制设备200相对于墙壁的空间定位。
图3B示出了当用户301紧邻图3A中的墙壁时反射的端点303-306的图像的示例。在一个方面,可以在预定义区域310(例如,墙壁或墙壁的一部分的预定或校准尺寸)内捕获图像。因此,端点303-306的间隔不仅可以从彼此测量,而且可以相对于预定义区域310的周边测量。例如,端点303可以相对于预定义区域310的左侧具有相等的距离,或者至少相对于预定义区域310的左侧没有偏移,作为端点306相对于预定义区域310的右侧的距离。
图4A示出了位于现实世界环境302的第二部分中的用户301,其中用户301位于现实世界环境302中的墙壁的正前方(但比距离图3A的距离更远)。图4B示出了当用户301距离图4A所示的墙壁更远的距离时反射的端点303-306的图像的示例。结果,端点303-306与图3B相比的间隔更远;这样的间隔允许处理器102确定用户控制设备200相对于墙壁的距离已经增加。
图5A示出了位于现实世界环境302的第三部分中的用户301,其中用户301相对于墙壁偏离一定角度。图5B示出了当用户301相对于图5A中所示的墙壁偏离一定角度时反射的端点303-306的图像的示例。结果,除了间隔之外,端点303-306的取向可以不同于墙壁的第一部分(图3A)或第二部分(图4A)的取向。
例如,每个激光束204以距用户控制设备200相同的距离与图3A和4A中的墙壁相交。相比之下,相对于图5A,对应于端点304的激光束204在比对应于激光束305的激光束204更靠近用户控制设备200处与墙壁相交。结果,由图像捕获设备109捕获的图像示出了端点304离预定义区域310的左部分比端点305距预定义区域310的右部分更远。此外,端点303和304之间的垂直间隔小于端点305和306之间的垂直间隔,因为对应于端点303和304的激光束204行进较短距离,原因是它们比对应于端点305和306的激光束204更早地与墙壁302相交。
图6A示出了用户301倾斜图5A中所示的用户控制设备200。图6B示出了作为倾斜的结果从图6A中所示的墙壁反射的端点303-306的图像的示例。
图7示出了可以由空间位置计算系统100(图1)用来确定现实世界环境302(图3A)中的对象的空间位置的过程700。在过程框701处,过程700在存储设备处存储现实世界环境302的一个或多个尺寸。此外,在过程框702处,过程700基于多个激光束204朝向现实世界环境302中的对象发射并从其反射来在接收器处接收激光平截头体203(图2A)的形状的图像。此外,在过程框703处,过程700利用处理器102(图1)基于现实世界环境302的一个或多个尺寸和激光平截头体203的形状来确定对象在现实世界环境302中的空间位置。确定对象的空间位置用于AR或VR用户体验。
本文描述的过程可以在专用处理器中实现。这样的处理器将在汇编、编译或机器级执行指令以执行过程。这些指令可以由本领域普通技术人员在对应于过程的附图的描述之后编写并且在计算机可读介质上存储或传输。还可以使用源代码或任何其他已知的计算机辅助设计工具来创建指令。计算机可读介质可以是任何介质,例如,非暂时性计算机可读存储设备,能够携带这些指令并且包括CD-ROM、DVD、磁或其他光盘、带、硅存储器(例如,可移动、不可移动、易失性或非易失性)、通过有线传输或本地地或通过网络无线地传输的分组化的或非分组化的数据。本文的计算机旨在包括具有如上所述的通用、多用途或单用途处理器的任何设备。例如,计算机可以是台式计算机、膝上型计算机、智能电话、平板设备、机顶盒等。
应理解,本文描述的装置、系统、计算机程序产品和过程还可以应用于其他类型的装置、系统、计算机程序产品和过程。本领域技术人员将理解,可以在不脱离本装置、系统、计算机程序产品和过程的范围和精神的情况下配置本文描述的装置、系统、计算机程序产品和过程的各方面的各种调整和修改。因此,应理解,在所附权利要求的范围内,本发明的装置、系统、计算机程序产品和过程可以以不同于本文具体描述的方式来实施。

Claims (20)

1.一种用户控制装置,包括:
激光发射器,在现实世界环境中发射激光束;
光学元件,接收激光束并产生多个激光束,使得起始点和多个端点形成激光平截头体,每个起始点和端点对应于多个激光束中的一个;以及
图像捕获设备,基于多个激光束从现实世界环境中的对象的反射来捕获激光平截头体的形状的图像,从而针对增强现实或虚拟现实用户体验确定对象在现实世界环境中的空间位置。
2.如权利要求1所述的用户控制装置,其中,根据激光平截头体的图像中的多个端点之间的距离测量来确定激光平截头体的形状。
3.如权利要求1所述的用户控制装置,其中,还基于现实世界环境的一个或多个预定尺寸来确定空间位置。
4.如权利要求1所述的用户控制装置,其中,所述光学元件选自以下所组成的组:透镜和分束器。
5.如权利要求1所述的用户控制装置,其中,所述光学元件产生所述多个激光束,使得所述多个激光束以多个恒定角度从所述用户控制装置发出。
6.如权利要求1所述的用户控制装置,其中,所述激光发射器、光学元件和图像捕获设备位于用户控制装置的顶部部分。
7.如权利要求1所述的用户控制装置,其中,所述激光平截头体的形状的图像是从对象反射的多个端点的二维图像。
8.如权利要求1所述的用户控制装置,还包括至少一个输入设备,用于在增强现实或虚拟现实用户体验中提供用户输入。
9.一种系统,包括:
存储设备,存储现实世界环境的一个或多个尺寸;
接收器,基于朝向现实世界环境中的对象发射并从其反射的多个激光束来接收激光平截头体的形状的图像;以及
处理器,基于现实世界环境的一个或多个尺寸和激光平截头体的形状来确定对象在现实世界环境中的空间位置,所述对象的空间位置是针对增强现实或虚拟现实用户体验来确定的。
10.如权利要求9所述的系统,其中,所述激光平截头体的形状是根据所述激光平截头体的图像中的多个端点之间的距离测量来确定的。
11.如权利要求9所述的系统,其中,所述多个激光束由激光发射器通过光学元件发送激光产生。
12.如权利要求11所述的系统,其中,所述光学元件产生所述多个激光束,使得所述多个激光束以多个恒定角度发出。
13.如权利要求12所述的系统,其中,所述激光平截头体的形状的图像是从所述对象反射的所述多个端点的二维图像。
14.如权利要求9所述的系统,其中,所述处理器集成在向增强现实或虚拟现实用户体验提供一个或多个输入的用户控制设备内。
15.如权利要求9所述的系统,其中,所述处理器经由网络与向增强现实或虚拟现实用户体验提供一个或多个输入的用户控制设备通信。
16.一种计算机程序产品,包括其上存储有计算机可读程序的非暂时性计算机可读存储设备,其中,所述计算机可读程序在计算机上执行时使得所述计算机:
在存储设备处存储现实世界环境的一个或多个尺寸;
基于朝向现实世界环境中的对象发射并从其反射的多个激光束来在接收器处接收激光平截头体的形状的图像;以及
基于现实世界环境的一个或多个尺寸和所述激光平截头体的形状,利用处理器确定对象在现实世界环境中的空间位置,所述对象的空间位置是针对增强现实或虚拟现实用户体验来确定的。
17.如权利要求16所述的计算机程序产品,其中,根据所述激光平截头体的图像中的多个端点之间的距离测量来确定所述激光平截头体的形状。
18.如权利要求16所述的计算机程序产品,其中,所述多个激光束由激光发射器通过光学元件发送激光来产生。
19.如权利要求16所述的计算机程序产品,其中,所述光学元件产生所述多个激光束,使得所述多个激光束以多个恒定角度发出。
20.如权利要求16所述的计算机程序产品,其中,所述激光平截头体的形状的图像是从所述对象反射的所述多个端点的二维图像。
CN201811346293.3A 2017-12-12 2018-11-13 虚拟现实或增强现实环境中对象的空间位置计算系统 Active CN109917904B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/839,729 US10818097B2 (en) 2017-12-12 2017-12-12 Spatial position calculation system for objects in virtual reality or augmented reality environment
US15/839,729 2017-12-12

Publications (2)

Publication Number Publication Date
CN109917904A true CN109917904A (zh) 2019-06-21
CN109917904B CN109917904B (zh) 2022-09-20

Family

ID=66697103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811346293.3A Active CN109917904B (zh) 2017-12-12 2018-11-13 虚拟现实或增强现实环境中对象的空间位置计算系统

Country Status (2)

Country Link
US (1) US10818097B2 (zh)
CN (1) CN109917904B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11831665B2 (en) 2021-01-04 2023-11-28 Bank Of America Corporation Device for monitoring a simulated environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104221056A (zh) * 2010-02-05 2014-12-17 英特尔公司 用于提供终端装置视野内的对象的信息的方法、终端装置和计算机可读记录介质
CN106575209A (zh) * 2014-07-25 2017-04-19 微软技术许可有限责任公司 具有现实世界对象的虚拟现实环境
US20170280132A1 (en) * 2011-04-15 2017-09-28 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
CN107305435A (zh) * 2016-04-18 2017-10-31 迪斯尼企业公司 在增强现实和虚拟现实环境之间链接和交互的系统和方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235363A (en) 1991-05-10 1993-08-10 Nview Corporation Method and apparatus for interacting with a computer generated projected image
US5450148A (en) 1994-04-18 1995-09-12 Yu S. Lin Laser pointer with selectable pointer patterns
US5684531A (en) 1995-04-10 1997-11-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Ranging apparatus and method implementing stereo vision system
US5673082A (en) 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
US6292171B1 (en) 1999-03-31 2001-09-18 Seiko Epson Corporation Method and apparatus for calibrating a computer-generated projected image
US7268802B2 (en) 2003-08-20 2007-09-11 Hewlett-Packard Development Company, L.P. Photography system with remote control subject designation and digital framing
DE602005014235D1 (de) 2004-03-19 2009-06-10 Jrb Engineering Pty Ltd Optisches verfahren zur bestimmung einer grösse oder der orientierung eines bewegten objekts
US7820967B2 (en) 2007-09-11 2010-10-26 Electrophysics Corp. Infrared camera for locating a target using at least one shaped light source
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
US8400625B1 (en) 2012-04-26 2013-03-19 Drs Rsta, Inc. Ground support equipment tester for laser and tracker systems
JP5816778B2 (ja) * 2012-09-06 2015-11-18 ファロ テクノロジーズ インコーポレーテッド 追加の検出装置を備えたレーザスキャナ
US9132342B2 (en) 2012-10-31 2015-09-15 Sulon Technologies Inc. Dynamic environment and location based augmented reality (AR) systems
DE102012223928A1 (de) * 2012-12-20 2014-06-26 Hilti Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen der Ortskoordinaten eines Zielobjektes
FR3000915B1 (fr) 2013-01-17 2015-03-13 Amg Ind Dispositif de prehension et procede associe
US9043146B2 (en) 2013-06-19 2015-05-26 The Boeing Company Systems and methods for tracking location of movable target object
US9557630B1 (en) * 2013-06-26 2017-01-31 Amazon Technologies, Inc. Projection system with refractive beam steering
US9163933B1 (en) 2014-03-28 2015-10-20 Rockwell Collins, Inc. Wearable head tracking system
US9599821B2 (en) 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US10102674B2 (en) 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
US9459692B1 (en) 2016-03-29 2016-10-04 Ariadne's Thread (Usa), Inc. Virtual reality headset with relative motion head tracker
US10129523B2 (en) * 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
WO2018031830A1 (en) * 2016-08-10 2018-02-15 Okeeffe James Laser range finding with enhanced utilization of a remotely located mirror
US10154254B2 (en) * 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
US9866286B1 (en) * 2017-02-15 2018-01-09 Oculus Vr, Llc Positional tracking assisted beam forming in wireless virtual reality systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104221056A (zh) * 2010-02-05 2014-12-17 英特尔公司 用于提供终端装置视野内的对象的信息的方法、终端装置和计算机可读记录介质
US20170280132A1 (en) * 2011-04-15 2017-09-28 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
CN106575209A (zh) * 2014-07-25 2017-04-19 微软技术许可有限责任公司 具有现实世界对象的虚拟现实环境
CN107305435A (zh) * 2016-04-18 2017-10-31 迪斯尼企业公司 在增强现实和虚拟现实环境之间链接和交互的系统和方法

Also Published As

Publication number Publication date
US10818097B2 (en) 2020-10-27
US20190180516A1 (en) 2019-06-13
CN109917904B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN112527102B (zh) 头戴式一体机系统及其6DoF追踪方法和装置
EP3469457B1 (en) Modular extension of inertial controller for six dof mixed reality input
US9928650B2 (en) Computer program for directing line of sight
JP6860488B2 (ja) 複合現実システム
CN105378801B (zh) 全息图快照网格
US9759918B2 (en) 3D mapping with flexible camera rig
US11372249B2 (en) Information processing device and information processing method
US9628843B2 (en) Methods for controlling electronic devices using gestures
US11102467B2 (en) Array detector for depth mapping
US20170068326A1 (en) Imaging surround system for touch-free display control
KR20200055010A (ko) 헤드 마운트 디스플레이 추적 시스템
JP2017142813A (ja) 仮想現実システムの較正
CN105190703A (zh) 使用光度立体来进行3d环境建模
KR20110097639A (ko) 화상 처리 장치, 화상 처리 방법, 프로그램 및 화상 처리 시스템
CN104246664B (zh) 不显示指针的透明显示器虚拟触摸装置
KR20210141510A (ko) 모바일 디바이스의 상대적인 공간적 위치 파악
US20190285896A1 (en) Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus
US20190318201A1 (en) Methods and systems for shape based training for an object detection algorithm
JP6601489B2 (ja) 撮像システム、撮像装置、撮像方法、及び撮像プログラム
US11100713B2 (en) System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN105282535B (zh) 三维空间环境下的3d立体投影系统及其投影方法
CN110572635A (zh) 一种用于手持控制设备追踪定位的方法、设备与系统
CN111896015A (zh) 导航方法、装置、存储介质及电子设备
CN109917904A (zh) 虚拟现实或增强现实环境中对象的空间位置计算系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant