CN109313500A - 纤细形状因子的无源光学和惯性跟踪 - Google Patents

纤细形状因子的无源光学和惯性跟踪 Download PDF

Info

Publication number
CN109313500A
CN109313500A CN201780035813.6A CN201780035813A CN109313500A CN 109313500 A CN109313500 A CN 109313500A CN 201780035813 A CN201780035813 A CN 201780035813A CN 109313500 A CN109313500 A CN 109313500A
Authority
CN
China
Prior art keywords
controller
user
hand
hmd
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780035813.6A
Other languages
English (en)
Other versions
CN109313500B (zh
Inventor
A·O·巴兰
C·杜鲁
C·D·埃德蒙兹
M·J·费诺齐奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Priority to CN202211608449.7A priority Critical patent/CN116027894A/zh
Publication of CN109313500A publication Critical patent/CN109313500A/zh
Application granted granted Critical
Publication of CN109313500B publication Critical patent/CN109313500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

针对无线手持惯性控制器的装置和系统,该无线手持惯性控制器具有纤细形状因子且利用无源光学和惯性跟踪,用于与头戴式虚拟现实或增强现实显示设备(HMD)一起使用,其通过融合(i)与从位于HMD中的前向光学传感器得到的控制器的位置有关的数据和(ii)与从位于控制器中的惯性测量单元得到的控制器的取向有关的数据,来以六个自由度操作。

Description

纤细形状因子的无源光学和惯性跟踪
背景技术
背景和相关技术
混合现实是允许虚拟图像与真实世界物理环境在显示器中混合的技术。用于混合现实的系统可以包括例如透视头戴式显示(HMD)设备或者具有内置相机的智能电话。这种系统通常包括处理单元,这些处理单元在一个或多个应用的控制下提供图像。还可以使用HMD或其他设备来支持没有真实世界对象可看见的完全虚拟现实环境。
这种系统还可以包括一个或多个无线手持惯性控制器,系统的用户可以操纵该一个或多个无线手持惯性控制器来与HMD交互并且向HMD提供用户输入,包括但不限于控制和移动虚拟光标、对象的选择、移动和旋转、滚动等。
提供该背景是为了介绍用于随后的概述和详细描述的简要上下文。该背景不旨在辅助确定所要求保护的主题的范围,也不旨在视为将要求保护的主体限制到解决上面提出的任何或全部缺点或问题的实施方式。此外,本文要求保护的主题不限于解决任何缺点或者仅在诸如上面描述的那些环境中操作的实施例。相反地,提供该背景只是为了说明可以实践本文描述的一些实施例的一个示例性技术领域。
发明内容
本发明针对用于提供无线手持惯性控制器的装置和系统,该无线手持惯性控制器(在后文中有时被称为“控制器”或“多个控制器”)具有纤细形状因子且利用无源光学和惯性跟踪,用于与HMD一起使用,其通过融合(i)与从位于HMD中的前向深度相机得到的控制器的位置有关的数据和(ii)从位于控制器中的惯性测量单元(IMU)得到的控制器在3D空间中的惯性运动数据,来以六个自由度(6DOF)操作。
在一个实施例中,该装置可以包括:触笔,具有第一端、第二端以及在第一端和第二端之间的伸长中间部分,触笔还包括在第一端处或靠近第一端的第一光学反射标记以及在第二端处或靠近第二端的第二光学反射标记;并且伸长中间部分封闭微控制器、惯性测量单元、通信无线电部以及一个或多个按钮,该一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,惯性测量单元跟踪手持控制器在三维空间中相对于预定参照系的取向并且向微控制器提供取向和加速度数据,并且通信无线电部提供微控制器和主处理器之间的无线通信,以便提供从用户对一个或多个按钮的选择性激活得到的取向数据和用户输入。
在另一实施例中,该系统可以包括:具有处理器的头戴式显示设备;无线手持惯性控制器,被配置为与处理器通信以选择性地提供一个或多个用户输入,该无线手持惯性控制器包括(i)触笔,具有第一端、第二端以及在第一端和第二端之间的伸长中间部分,触笔还包括在第一端处或靠近第一端的第一光学反射标记以及在第二端处或靠近第二端的第二光学反射标记,以及(ii)伸长中间部分,封闭微控制器、惯性测量单元、通信无线电部以及一个或多个按钮,该一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,惯性测量单元跟踪手持惯性控制器在三维空间中相对于预定参照系的取向并且向微控制器提供取向和加速度数据,并且通信无线电部提供无线通信,以便向处理器提供取向数据和用户输入;以及位于显示器上的光学传感器,用于确定第一和第二光学反射标记中的每个相对于显示器的位置,并且用于向处理器提供位置数据,其中处理器使用取向数据和位置数据来以六个自由度在三维空间内跟踪手持惯性控制器。
提供该发明内容是为了以简化形式介绍概念的选择,这些概念在下面的具体实施方式中被进一步描述。本发明内容不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用作在确定所要求保护的主题的范围时的辅助。
附加的特征和优点将在随后的描述中阐述,并且部分地从描述中将是明显的,或者可以通过实践本文中的教导来获知。本发明的特征和优点可以借助于在随附的权利要求中特别指出的手段和组合来实现和获得。本发明的特征从随后的描述和随附的权利要求来看将变得更完全地明显,或者可以通过在后文中阐述的本发明的实践来获知。
附图说明
为了描述可以获得上面记载的和其他的优点和特征的方式,将参考附图中说明的具体实施例来提供对上面简要描述的主题的更具体描述。在理解这些附图仅描绘典型实施例并且因此不被认为限制范围的情况下,实施例将通过使用附图以附加的特异性和细节来描述和解释,在附图中:
图1是头戴式虚拟现实或增强现实显示器的一个实施例的示意性表示。
图2是“微软全息眼镜”的一个实施例的一般透视绘制。
图3是“微软全息眼镜”的一个实施例的分解透视绘制,其进一步图示了立体显示器系统的一个实施例。
图4是“微软全息眼镜”的一个实施例的一般透视绘制,其进一步图示了光学传感器系统的一个实施例。
图5是“微软全息眼镜”的一个实施例的一般透视绘制,其进一步图示了控制器板和相关的板载处理器的一个实施例。
图6是增强现实显示器的一个实施例的可能视场的一个示例的图形表示。
图7是具有纤细形状因子的利用无源光学和惯性跟踪的无线手持控制器的一个实施例的透视绘制。
图8是图示了具有纤细形状因子的利用无源光学和惯性跟踪的无线手持控制器的一个实施例的基本组件的功能性框图。
图9是增强现实显示器的一个实施例的可能视场的一个示例的另一图形表示。
具体实施方式
下文阐述的是代表性环境的概述,本申请中公开的和/或要求保护的装置和系统可以实施在该代表性环境中。然而,应当清楚地理解和明白,这种描述仅作为一个代表性环境的示例被提供,并且本文描述的发明可以容易地被适配于其他HMD设备及AR和VR系统/环境,以及其他传统的计算环境和系统,包括其他常规的显示设备。
图1示意性地图示了HMD设备10的一个示例。图2-图5是“微软全息眼镜(MicrosoftHololens)”的图示,其表示HMD的一个近期实施例。
一般地参考图1-图5,HMD设备10采用可穿戴眼镜或护目镜的形式,但是将明白,其他形式是可能的。HMD设备10可以被配置在增强现实配置中以呈现增强现实环境,并且因此可以包括至少部分透视的立体显示器12,其可以被配置为通过至少部分透视的立体显示器12而在视觉上增强由用户正在察看的物理环境的外观。在一些示例中,至少部分透视的立体显示器12可以包括透明的(例如,光学通透的)一个或多个区域,并且可以包括不透明的或半透明的一个或多个区域。在其他示例中,至少部分透视的立体显示器12可以跨立体显示器12的整个可用的显示器表面是透明的(例如,光学通透的)。替代地,HMD设备10可以被配置在虚拟现实配置中以呈现完全虚拟现实环境,并且因此立体显示器12可以为非透视立体显示器。HMD设备10可以被配置为经由非透视立体显示器向用户显示虚拟三维环境。HMD设备10可以被配置为显示虚拟表示,诸如在用户前面的物理环境的三维图形绘制,其可以包括附加的虚拟对象,或者可以被配置为显示物理环境的相机捕获图像以及附加的虚拟对象,包括在相机捕获图像上覆叠的虚拟光标。
例如,HMD设备10可以包括图像产生系统14,其被配置为利用立体显示器12向用户显示虚拟对象。在利用至少部分透视显示器的增强现实配置中,虚拟对象在视觉上叠加到通过显示器可见的物理环境上,以便在各种深度和位置处被感知。在虚拟现实配置中,图像产生系统14可以被配置为利用非透视立体显示器向用户显示虚拟对象,使得虚拟对象被感知为相对于彼此处于各种深度和位置处。在一个实施例中,HMD设备10可以通过向用户的两只眼睛显示虚拟对象的单独图像,而使用体视法在视觉上将虚拟对象放置在期望的深度处。使用这种体视法技术,HMD设备10可以控制虚拟对象的显示图像,使得用户将感知到在所察看的物理环境中在期望的深度和位置处存在虚拟对象。在一个示例中,虚拟对象可以是向用户显示的虚拟光标,使得虚拟光标对用户来说好像位于虚拟三维环境中的期望位置处。在增强现实配置中,虚拟对象可以是向用户显示的全息光标,使得全息光标对用户来说好像位于真实世界物理环境中的期望位置处。
HMD设备10包括光学传感器系统16,其可以包括一个或多个光学传感器。在一个示例中,光学传感器系统16包括面向外的光学传感器18,其可以被配置为从由用户通过至少部分透视的立体显示器12观察到的类似有利点(例如,视线)来检测真实世界背景。光学传感器系统16可以另外地包括面向内的光学传感器20,其可以被配置为检测用户眼睛的注视方向。将明白,面向外的光学传感器18可以包括一个或多个组件传感器,包括RGB相机和深度相机。RGB相机可以是高清相机或具有其他分辨率。深度相机可以被配置为投射不可见光(诸如红外(IR)辐射),并且捕获投射光的反射,并且基于此生成图像,该图像包括针对图像中的每个像素的测量深度数据。如果需要,该深度数据可以与来自由RGB相机捕获的图像的色彩信息组合成包括色彩数据和深度数据的单个图像表示。在虚拟现实配置中,由光学传感器系统16捕获的色彩和深度数据可以用于执行表面重建,并且生成可以经由显示器12向用户显示的真实世界背景的虚拟模型。替代地,由光学传感器系统16捕获的图像数据可以在显示器12上作为图像数据直接呈现给用户。
HMD设备10可以进一步包括位置传感器系统22,其可以包括一个或多个位置传感器,诸如包含3轴加速度计、3轴陀螺仪和/或3轴磁力计的一个或多个惯性测量单元(IMU)、(多个)全球定位系统、(多个)多点定位跟踪器、和/或输出可用作相关传感器的位置、取向和/或移动的位置传感器信息的其他传感器。
从光学传感器系统16接收的光学传感器信息和/或从位置传感器系统22接收的位置传感器信息可以用于估算HMD设备10相对于其他环境对象的有利点的位置和取向。在一些实施例中,有利点的位置和取向可以用六个自由度(例如,世界空间的X、Y、Z(θ俯仰、θ偏航和θ滚转))来表征。有利点可以全局地或独立于真实世界背景进行表征。位置和/或取向可以利用板载计算系统(例如,板载计算系统24)和/或板外计算系统来确定。通常,位于HMD设备10板载的所有传感器的参照系是工厂对齐并校准的,以解析相对于世界空间的六个自由度。
此外,光学传感器信息和位置传感器信息可以由计算系统用来执行真实世界背景的分析,诸如深度分析、表面重建、环境色彩与照明分析、或其他合适的操作。特别地,光学和位置传感器信息可以用于创建真实世界背景的虚拟模型。在一些实施例中,有利点的位置和取向可以相对于该虚拟空间来表征。此外,虚拟模型可以用于确定虚拟空间中的虚拟对象的位置,并且在虚拟世界内的期望深度和位置处添加将向用户显示的附加虚拟对象。
另外,从光学传感器系统16接收的光学传感器信息可以用于识别和跟踪光学传感器系统16的视场中的对象。例如,由光学传感器系统16捕获的深度数据可以用于识别和跟踪用户手部的运动。所跟踪的运动可以包括用户的手部在三维空间中的移动,并且可以用六个自由度(例如,世界空间的X、Y、Z(θ俯仰、θ偏航和θ滚转))来表征。所跟踪的运动还可以用于识别和跟踪由用户的手部所做出的手部姿势。例如,一个可识别的手部姿势可以是向上或向下移动食指。将明白,其他方法可以用于识别和跟踪用户手部的运动。例如,光学标签可以放置在用户手部上的已知位置或者由用户佩戴的手套上的已知位置,并且可以通过由光学传感器系统16捕获的图像数据来跟踪光学标签。
将明白,以下示例和方法可以应用到HMD设备10的虚拟现实配置和增强现实配置两者。在虚拟现实配置中,HMD设备10的显示器12为非透视显示器,并且三维环境是向用户显示的虚拟环境。虚拟环境可以是基于由HMD设备10的光学传感器系统16所捕获的真实世界背景的图像数据来生成的虚拟模型。
“微软全息眼镜”。
HMD的一个示例是“微软全息眼镜”,其是一对混合现实头戴式智能眼镜。“全息眼镜”具有透视全息镜头,其使用先进的光学投射系统以非常低的时延来生成多维全色彩全息影像,因此用户可以在真实世界环境中看到全息对象。
位于“全息眼镜”前部的是传感器和相关硬件,包括相机和处理器。“全息眼镜”还包含惯性测量单元(IMU),IMU包括加速度计、陀螺仪和磁力计、四个“环境理解”传感器、具有120°×120°视角的能量高效深度相机、前向240万像素摄影摄像机、四麦克风阵列、以及环境光传感器。“全息眼镜”包含高级传感器,以捕获关于用户正在做什么和用户所处的环境的信息。内置相机还使得用户能够记录周围世界中的全息影像的(混合现实捕获(MRC))HD图片和视频,以与他人分享。
封闭在面罩内的是一对透明的组合器镜头,其中投射的图像在下半部分中显示。“全息眼镜”必须根据瞳孔间距(IPD)或用户的习惯视力进行校准。
沿着侧面的底部边缘,位于用户耳朵附近,是一对小型3D音频扬声器。扬声器不会阻碍外部声音,允许用户听到虚拟声音以及环境。使用与头部相关的传递函数,“全息眼镜”生成双耳音频,该双耳音频可以模拟空间效果;这意味着用户实际上可以感知和定位声音,就好像它来自虚拟针点或位置。
在顶部边缘上是两对按钮:左耳上方的显示亮度按钮、以及右耳上方的音量按钮。相邻的按钮形状不同—一个凹面、一个凸面—以便用户可以通过触摸区分它们。
在左臂的末端处是电源按钮和一排五个小的个体LED节点,用于指示系统状态,以及对于电源管理,指示电池电量和设置电源/待机模式。USB 2.0微型B插座沿底部边缘定位。3.5mm音频插孔沿右臂的底部边缘定位。
除了中央处理单元(CPU)和图形处理单元(GPU)之外,“全息眼镜”的特征还在于定制的微软全息处理单元(HPU),其是专为“全息眼镜”制造的协处理器。HPU的主要目的是处理和集成来自传感器的数据,以及处理诸如空间映射、姿势识别、以及语音和话音识别之类的任务。HPU处理来自“全息眼镜”的传感器的来自实时数据的万亿字节的信息。
“全息眼镜”的镜头使用光学波导跨三个不同的层着蓝色、绿色和红色,每个层具有衍射特征。每个组合器镜头上方的光引擎将光投射到镜头中,其波长然后击中衍射元件并且沿着波导重复反射,直到它输出到眼睛。与许多其他光学头戴式显示器类似,“全息眼镜”的显示投射占据用户的视场(FOV)的有限部分,特别是与虚拟现实头戴式显示器相比,后者通常覆盖大得多的视场。
“全息眼镜”包含内部可再充电电池,但是可以在充电时被操作。“全息眼镜”的特征还在于IEEE 802.11ac Wi-Fi和蓝牙4.1低功耗(LE)无线连接。
利用“全息眼镜”,用户可以利用姿势来创建和塑造全息影像,使用语音命令与应用程序通信,并且利用扫视、手部姿势、控制器和/或其他指示设备来导航。“全息眼镜”理解姿势、注视和语音,使得用户能够以可能的最自然的方式进行交互。利用空间声音,“全息眼镜”合成声音,因此用户可以从房间中的任何地方听到全息影像,即使它们在用户后面。
关于“全息眼镜”的其他细节在2014年7月25日提交的题为“Head MountedDisplay Apparatus”的美国专利申请序列号No.62/029,351中提供。
如上面提到的,“全息眼镜”包括深度相机,其能够检测位于深度相机的FOV内的对象的3D位置。深度相机确切地如何完成这种检测的技术细节是本领域的技术人员已知的,但对于本公开不是必需的。一言以蔽之,深度相机能够在逐像素的基础上准确地检测相机的视场内物理对象上每个点的确切3D位置。尽管“全息眼镜”使用深度相机,但是立体光学也可以用于经由三角测量来检测对象与HMD的距离、以及这些对象在3D空间中的位置。在任一种情况下,这种传感器可以检测位于FOV内的真实对象相对于HMD的3D位置(x、y和z坐标)。在控制器的情况下,HMD的深度相机可以用于检测控制器相对于HMD的3D位置。
无线手持控制器。
如前面提到的,“全息眼镜”有能力跟踪用户的手部通过空间的运动,并且识别和解释各种手部姿态、姿势和移动以操纵AR空间中的虚拟对象。在2010年12月21日提交的题为“Skeletal Control of Three-Dimensional Virtual World”的美国专利申请序列号No.12/975,086、2011年12月15日提交的题为“Problem States for Pose TrackingPipeline”的美国专利申请序列号No.13/327,098、2013年8月5日提交的题为“Two-HandInteraction with Natural User Interface”的美国专利申请序列号No.13/959,555、和/或2015年6月24日提交的题为“Contextual Cursor Display Based on Hand Tracking”的美国专利申请序列号No.14/748,646中提供了关于手部跟踪、手部姿势识别、分类和辨识和/或手部姿态识别、分类和辨识的附加细节。
然而,手部跟踪和姿势识别的挑战之一是它们可能要求相对高水平的处理开销。为了减少这种开销,可能有用的是提供可以与HMD通信并且允许在AR空间中操纵对象的无线手持控制器。例如,在“全息眼镜”的情况下,耳机使用蓝牙LE与无线手持惯性控制器(称为“点击器(Clicker)”)配对,其是拇指大小的手指操作的输入设备,它可以用来使得用户能够选择、滚动、保持和双击,以与增强现实空间内的虚拟对象交互。
通常,当点击器首次通电时,它通常经由预定的无线协议(通常经由蓝牙配对)建立与“全息眼镜”的连接。一旦连接建立,“全息眼镜”向点击器分配唯一的控制器ID。以该方式,从特定点击器接收的所有取向数据和用户输入可以特定地与该控制器相关联。
点击器包括IMU,IMU提供具有3DOF的取向信息(例如,俯仰、偏航和滚转信息),但是它不提供位置信息。当与“全息眼镜”配对时,HMD的光学传感器可以经由各种手部跟踪技术来确定点击器在3D空间中的大体位置。然而,这种手部跟踪技术可能通常不产生现今VR和AR环境中所需要的位置信息的准确度和分辨率。另外,这种手部跟踪技术可能是计算密集的,要求大量的处理开销。因此,所需要的是一种无线手持惯性控制器,其以6DOF提供更高的准确度和分辨率,并且减少实现结果所需要的总体处理开销。
图6图示了由用户26佩戴的HMD设备10的增强现实配置,在至少部分透视的立体显示器12上显示虚拟光标(在该示例中是全息光标28),以便出现在三维环境32中的位置30处。在图6中示出的具体示例中,三维环境32是真实世界中的房间,并且全息光标28显示在至少部分透视的立体显示器上,使得全息光标28对用户26来说好像正在位置30处悬停于房间的中间。将明白,用于全息光标28的位置30可以基于各种合适的方法来计算。例如,位置30可以基于相对于用户26的预定距离和取向(诸如作为一个具体示例,在用户26前面两英尺)来计算。
作为另一非限制性示例,位置30可以基于检测到的注视方向34以及与检测到的注视方向相交的识别对象来计算。在该示例中,识别的对象可以是三维环境中的真实对象。该示例在图6中图示,识别的对象是墙壁36,墙壁36是作为三维环境32的房间的一部分。相应地,所检测到的用户26的注视方向34与墙壁36之间的交点可以用来计算用于全息光标28的位置30。可能有利的是进一步确保向用户26显示全息光标28,使得全息光标28是用户26容易可见的。例如,为了增加可见度,全息光标28的位置30可以放置在相距识别对象的阈值距离处,以防止全息光标28被识别对象的任何突起遮挡。另外,可能有利的是进一步基于与所检测到的用户26的注视方向34正交的平面,来计算全息光标28的位置30。通过将全息光标28的位置30放置在这样的平面上,即使在用户改变注视方向时,也可以保持全息光标28的一致视图。
另外,在图6中图示的示例中,由用户26佩戴的HMD设备10可以被配置为检测用户手部的运动。基于由光学传感器系统16捕获的一系列图像,HMD设备10可以确定用户26的手部38的运动是否可跟踪。例如,在位置38和38A处的用户手部在光学传感器系统16的视场内。相应地,用户手部在时间T1内从位置38移动到位置38A的运动是由HMD设备10可跟踪的。然而,由于位置38B可能在光学传感器系统16的视场之外,因此用户手部在时间T2内从位置38A移动到位置38B的运动可能不是由HMD设备10可跟踪的。将明白,当HMD可以监测用于姿势输入的手部时,用户手部被确定为由HMD可跟踪。因此,例如,当HMD设备10的处理器上执行的软件中实现的计算机算法识别由板载相机捕获的图像中的手部,并且开始跟踪手部时,直到这些算法失去对手部的跟踪的时间点,用户手部被认为是可跟踪的。可以用于跟踪手部的技术包括:搜索相似色彩值的区域并且基于来自图像其余部分的色彩值来分割图像的一部分,以及搜索已经改变的像素区域,其指示手部或其他对象进行的前景移动。当深度信息可用时,附加于上述或作为其替代,可以使用骨骼跟踪技术来定位手部。当由算法输出的置信度指示手部正以高于预定阈值置信水平被跟踪时,手部可以被确定为是可跟踪的。
在上述实施例中,HMD设备10向用户传达用户手部的运动是否可跟踪。在该实施例中,响应于至少确定手部的运动是可跟踪的,HMD设备10修改全息光标的视觉外观,以指示手部的运动是可跟踪的。在图6中图示的示例中,全息光标的视觉外观被修改以表现为全息光标28,其是空心圆。相应地,当用户在时间T1内将手部从位置38移动到位置38A时,向用户示出具有视觉外观28的全息光标,并且因此向用户提供用户手部的运动当前为可跟踪的反馈,并且任何手部姿势或手部运动将由HMD设备10跟踪。
此外,在该实施例中,响应于至少确定手部的运动不可跟踪,HMD设备10修改全息光标的视觉外观以指示手部的运动不可跟踪。如图6中图示的,全息光标的视觉外观可以被修改以表现为全息光标28A,其具有与全息光标28不同的视觉外观。在该示例中,全息光标28A的视觉外观是实心圆。相应地,当用户在时间T2内将手部从位置38A移动到位置38B时,向用户示出具有视觉外观28A的全息光标,并且因此向用户提供用户手部的运动当前为不可跟踪的反馈。将明白,尽管图6中图示的示例将全息光标的视觉外观修改以表现为实心圆或空心圆,但是任何合适的视觉修改是可能的。作为几个其他非限制性示例,可以通过改变色彩、改变形状、添加或移除图标、或改变全息光标的尺寸来修改全息光标的视觉外观。
虽然在现有技术中找到的无线控制器(包括点击器)可以提供具有3DOF的取向信息,但是它们不提供位置信息。虽然手部跟踪和骨骼分割可以与从手持惯性控制器得到的取向数据相组合,以恢复多达五个自由度,但是这样的过程可能通常要求高水平的处理开销。另外,即使利用手部跟踪和骨骼分割,也可能难以区分控制器的细微运动,特别是细微的旋转运动。根据下面描述的装置和系统,有可能以高度分辨率和准确性来恢复6DOF,并且具有减少的处理开销。
具有纤细形状因子的利用无源光学和惯性跟踪的无线手持控制器。
如下面更详细描述的,本发明的一个方面针对具有纤细形状因子的无源光学和惯性跟踪装置。在一个实施例中,该装置可以包括:触笔,具有第一端、第二端、以及在第一端和第二端之间的伸长中间部分,触笔还包括在第一端处或靠近第一端的第一光学反射标记、以及在第二端处或靠近第二端的第二光学反射标记;并且伸长中间部分封闭微控制器、惯性测量单元、通信无线电部、以及一个或多个按钮,该一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,惯性测量单元跟踪手持控制器在三维空间中相对于预定参照系的取向并且向微控制器提供取向和加速度数据,并且通信无线电部提供来自微控制器的无线通信,以便向HMD设备的主处理器提供取向数据和用户输入。
除了将手持设备的光学位置跟踪和惯性取向跟踪进行组合之外,通过提供与手部跟踪和姿势辨识不同的识别手持控制器的位置的替代方法,可以进一步减少处理开销。在一个实施例中,手持控制器可以包括伸长形状因子,并且成对的无源IR标记被定位在控制器的每个端处或靠近每个端。当与被定位在HMD上的IR辐射源和IR深度相机组合时,IR标记可以提供有利的方式来定位手持控制器在3D空间中的位置,并且提供附加取向数据,附加取向数据可以与从手持控制器中包含的IMU得到的取向数据相组合。伸长形状因子以及两个或更多个IR标记的使用提供了下面更详细讨论的各种优点。
在一个实施例中,该系统用于在通过HMD设备体验到的虚拟现实世界和增强现实世界中进行交互。在另一实施例中,显示器在外部。换句话说,本文描述的发明可以容易地被适配于其他HMD设备及AR和VR系统/环境,以及其他传统的计算系统和环境,包括其他常规的显示设备。
在一个实施例中,控制器具有触笔形状,其具有在每个端处的两个球形反射标记、以及板载IMU、微控制器、通信无线电部和按钮。该形状因子带来使该解决方案可行的若干关键优点。首先,该形状因子在两个标记之间建立宽的基线,其以高分辨率改进了对连接两个标记的区段的取向的检测、分割和精确估计。其次,标记中的至少一个标记跨手部取向的完整范围由光学传感器是可见的。仅利用一个光学标记,在手部运动的正常范围内,从HMD的视野来看,单个光学标记可能容易被手部阻挡。利用两个分开的标记,至少一个标记通常将始终对于HMD相机是可见的。
现在参考图7,其图示了具有纤细形状因子的利用无源光学和惯性跟踪的无线手持控制器40的一个实施例(后文有时简称为“控制器40”)。如所示出的,控制器40可以包括形成棒杖或触笔的伸长主体。控制器40具有第一端52、第二端54和伸长中间部分56。定位在第一端52处或靠近第一端52的是第一无源光学反射标记58。定位在第二端54处或靠近第二端54的是第二无源光学反射标记60。
参考图7和图8,被容纳在伸长中间部分56内,控制器40可以包括板载微控制器42、其自己的IMU 44、通信无线电部46、可再充电电池(未示出)、以及一个或多个状态LED 48。IMU通常包括3轴加速度计和3轴陀螺仪,并且还可以包括3轴磁力计。从IMU得到的用户输入和取向数据(俯仰、偏航和滚转)可以由微控制器42经由无线的无线电部46无线地传送到HMD 10的CPU。控制器40还可以包括一个或多个瞬时开关50,用于由用户选择性地激活以控制虚拟光标和/或以各种方式操纵虚拟对象(诸如,例如选择、移动、旋转、滚动等)。控制器40还可以包括USB 2.0微型B插座,用于为内部电池(未示出)充电。
从加速度计和陀螺仪,IMU 44可以检测控制器40的取向,但是仅具有三个自由度,即俯仰(高度角),偏航(方位角)和滚动(旋转)。因为加速度计可以检测重力矢量,所以控制器40的参照系的纵轴容易被识别和对齐。类似地,IMU 44的陀螺仪可以容易地检测水平面,并且因此水平面容易被识别和对齐。如果IMU 44还包括磁力计,则磁北可以容易地被识别并且控制器40的参照系可以向北对齐。如果HMD 10的IMU和控制器40的IMU 44两者都包括磁力计,则控制器40的参照系将自动与HMD的参照系对齐(经受一些微小的变化/偏移和漂移,这可以随着时间的推移被纠正)。
如果控制器40的IMU 44不包括磁力计,则IMU 44在其加电时任意地分配x轴,并且然后从该初始参照系连续跟踪方位变化(水平面中的角旋转)。在该情况下,如下面更详细讨论的,控制器40的参照系将需要与HMD的参照系对齐或校准到HMD的参照系。
如前面讨论的,IMU包括加速度计和陀螺仪的组合,可选地加上磁力计。来自IMU44的数据可以被融合来以高频率和低时延计算控制器40相对于经重力对齐的某个初始参照系的取向。另外,如果IMU 44包括磁力计,则磁力计将自动使控制器的参照系与HMD的参照系向北对齐,并且还将减小方位漂移。
HMD 10的光学传感器系统16跟踪标记56、58在3D中的位置。光学传感器系统16可以包括照亮无源反射标记56、58的照明源、以及成像传感器。在一个实施例中,照明源辐射IR辐射,并且光学传感器使用主动IR深度相机来检测并直接估计标记56、58在3D中的位置。即使标记是高度反射的以在IR快门图像中容易分割,但是深度相机仍然有可能在标记的每个像素处计算深度。在另一实施例中,立体IR相机对可以用于对标记56、58的3D位置进行三角测量。
在一个实施例中,标记56、58在视觉上隐藏在IR透射材料后面,以阻挡可见光谱中的光,但是允许在光学传感器的IR操作范围中的光穿过。以该方式,光学标记可以从视野中隐藏,而不限制本文描述的功能,从而控制器40可以呈现许多不同对象的形状,诸如,例如触笔、棒杖或VR游戏中通常使用的各种对象(例如,枪、步枪、剑、运动器材等),控制器40的位置和取向的精确检测对其可能非常重要。
光学跟踪系统16通常通过刚性变换与HMD 10的显示参照系机械地相关,刚性变换通过校准来细化。不失一般性,假设HMD设备10通过使用IMU和/或其他环境跟踪子系统(例如,HMD中的头部跟踪组件)而处于重力对齐的参照系中。
当HMD 10的光学系统16检测到其FOV内的光学反射标记(诸如标记56或58)时,它以3DOF(x、y和z)恢复位置数据。归因于控制器40中所包含的在两个标记56、58之间的固定几何关系,当HMD在其FOV内检测到两个标记56、58时,则两个更多的自由度被恢复(即,方位角和高度角,也称为偏航和俯仰)。更具体地,这是可能的,因为光学系统16能够以高精确度确定每个所检测到的标记56、58的确切位置。此外,归因于两个所检测到的标记56、58之间的地理关系(在所图示的实施例中,几何关系是沿着与控制器40的纵向轴线对齐的直线将两个标记分开的已知距离),光学系统16有可能(再次以高精确度)计算控制器的高度角/俯仰角和方位角/旋转角。缺失的第六自由度是沿着连接两个标记的轴线的滚转角,其在光学上不受约束,但是其容易从控制器40的IMU 44恢复。
如前面讨论的,在控制器40参照系和光学传感器16参照系两者中,重力矢量都是已知的。每当控制器40不是水平的时,有可能通过以下方式来区分两个标记56、58:将它们的位置投影到重力矢量上,并且将由HMD 10的光学系统16所检测到的高度角和方位角分别与由控制器40的IMU 44所测量的高度角和方位角相比较。例如,控制器IMU 44的高度角(垂直倾斜)应当预期与由HMD的光学系统16基于两个标记的光学检测的相对位置所得到的高度角相匹配(在某个公差内)。如果这样的角匹配(在接受的公差内),则有可能唯一地识别和标注每个标记56、58(通过哪个标记被定位高于另一标记并且反之亦然)。一旦光学系统16已经能够唯一地识别每个标记达到预定置信水平,则唯一的标记ID与每个标记56和58相关联。另外,所分配的标记ID与控制器40的控制器ID(在控制器40最初与HMD 10配对时被分配给控制器40)相关联,以用于未来跟踪目的。另一方面,不匹配的值可以用于消除错误的标记检测。
类似地,由HMD 10的光学系统16计算的方位角(水平朝向)也预期与由IMU44所测量的两个标记的方位角(假设IMU 44包含磁力计)相匹配(在设定的公差内)。替代地,控制器40参照系和光学传感器16参照系之间的方位偏移可以通过在两个标记56、58都被观测到的若干所捕获的视频帧上的观测而被估计,并且随着时间的推移逐渐被更新,以计算适当的方位偏移角和/或补偿任何IMU漂移。
在随后的帧中,即使当标记56、58中的一个标记从光学系统16的视角来看被阻挡,或者移动到光学系统的FOV之外时,仍然实现6DOF跟踪。由于一个标记足以使HMD 10的光学系统16恢复位置,并且先前已经唯一地识别每个标记,因此可以从控制器40的IMU 44得到剩余的取向数据。标记的标识通过与先前所估计的标记位置的接近度来保持。
如果控制器40完全移动到光学传感器16的FOV之外,则控制器40可以基于来自IMU44的取向数据恢复回到3DOF,和/或它可以基于前向预测算法来预测控制器40的位置,诸如卡尔曼滤波器,其使用对来自IMU 44的加速度计数据的二重积分操作。
与其他方法相比,反射光学标记56、58的使用提供了更高的分辨率和检测位置和取向的准确度。即使具有良好的手部跟踪和姿势识别,可能仍然难以区分相似的手部配置和/或控制器正如何被握住(例如,控制器在手中的精确取向)。使用两个或更多个标记56、58(物理地分开已知距离,并且与从控制器40的板载IMU 44所得到的取向数据耦合)提供了增加的准确度和分辨率,而同时减少了其他方法(诸如手部跟踪、姿态识别和/或骨骼分割/分析)所要求的处理开销。虽然手部跟踪在识别手部所位于的AR场中的区域时可能是有用的,但是单独基于手部跟踪可能难以检测精确位置和/或精细旋转细节。
与常规方法相比,两个光学标记56、58之间的物理分离还允许利用光学跟踪的更大角分辨率。通过将从HMD 10的光学系统16所得到的位置数据与从控制器40的IMU 44所得到的取向数据组合,可以实现甚至更高的分辨率。
另外,标记和IMU的组合给你更高的准确度和分辨率,而无需执行手部跟踪和姿势识别所必要的计算密集型处理。而且,因为你只是正处理可以由光学传感器16准确识别的在空间中的两个点,所以还有可能检测控制器的取向和/或旋转的小变化。
本发明的另一方面是提供一种系统,该系统包括HUD设备与无线手持控制器的组合,该无线手持控制器具有无源光学和惯性跟踪装置,无源光学和惯性跟踪装置具有纤细形状因子。在一个实施例中,该系统可以包括:具有处理器的头戴式显示设备;无线手持惯性控制器,被配置为与处理器通信以选择性地提供一个或多个用户输入,手持惯性控制器包括触笔,触笔具有第一端、第二端、以及在第一端和第二端之间的伸长中间部分,触笔还包括在第一端处或靠近第一端的第一光学反射标记、以及在第二端处或靠近第二端的第二光学反射标记;并且伸长中间部分封闭微控制器、惯性测量单元、通信无线电部以及一个或多个按钮,该一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,惯性测量单元跟踪手持惯性控制器在三维空间中相对于预定参照系的取向并且向微控制器提供取向和加速度数据,并且通信无线电部提供无线通信,以便向处理器提供取向数据和用户输入;以及位于显示器上的光学传感器,用于确定第一和第二光学反射标记中的每个相对于显示器的位置,并且用于向处理器提供位置数据,其中处理器使用取向数据和位置数据来以六个自由度在三维空间内跟踪手持惯性控制器。
如下面更详细讨论的,本发明的实施例可以包括或利用包括计算机硬件的专用或通用计算机。本发明范围内的实施例还包括用于运载或存储计算机可执行指令和/或数据结构的物理计算机可读介质和其他计算机可读介质。这种计算机可读介质可以是由通用或专用计算机系统可以访问的任何可用介质。存储计算机可执行指令的计算机可读介质是物理存储介质。运载计算机可执行指令的计算机可读介质是传输介质。因此,通过示例而非限制的方式,本发明的实施例可以包括至少两个截然不同种类的计算机可读介质:物理计算机可读存储介质和传输计算机可读介质。
物理计算机可读存储介质包括:RAM、ROM、EEPROM、CD-ROM或其他光盘存储装置(诸如CD、DVD等)、磁盘存储装置或其他磁存储设备、或者如下的任何其他介质,其可以用于以计算机可执行指令或数据结构的形式存储所需的程序代码部件,并且其可以由通用或专用计算机访问。
“网络”被定义为能够在计算机系统和/或模块和/或其他电子设备之间传输电子数据的一个或多个数据链路。当通过网络或其他通信连接(硬连线、无线、或者硬连线或无线的组合)向计算机传送或提供信息时,计算机恰当地将连接视为传输介质。传输介质可以包括网络和/或数据链路,其可以用于以计算机可执行指令或数据结构的形式承载期望的程序代码部件,并且其可以由通用或专用计算机访问。上述的组合也包括在计算机可读介质的范围内。
此外,一经到达各种计算机系统组件,以计算机可执行指令或数据结构形式的程序代码部件可以自动地从传输计算机可读介质传送到物理计算机可读存储介质(或反之亦然)。例如,通过网络或数据链路接收的计算机可执行指令或数据结构可以缓冲在网络接口模块(例如,“NIC”)内的RAM中,并且然后最终传送到计算机系统RAM和/或计算机系统处的较为易失性的计算机可读物理存储介质。因此,计算机可读物理存储介质可以包括在也(或甚至主要)利用传输介质的计算机系统组件中。
计算机可执行指令包括例如使通用计算机、专用计算机、或专用处理设备执行某种功能或功能组的指令和数据。计算机可执行指令可以是例如二进制文件、中间格式指令(诸如汇编语言)、或者甚至是源代码。尽管已经采用特定于结构特征和/或方法动作的语言描述了主题,但是将理解,所附权利要求中限定的主题不必然限于所描述的特征或上面描述的动作。相反地,所描述的特征和动作被公开作为实施权利要求的示例形式。
本领域的技术人员将明白,本发明可以在具有许多类型的计算机系统配置的网络计算环境中实践,包括个人计算机、台式计算机、膝上型计算机、消息处理器、手持设备、多处理器系统、基于微处理器或可编程的消费电子产品、网络PC、小型计算机、大型计算机、移动电话、PDA、寻呼机、路由器、交换机等。本发明还可以在分布式系统环境中实践,其中通过网络来链接(通过硬连线数据链路、无线数据链路、或者通过硬连线和无线数据链路的组合)的本地计算机系统和远程计算机系统两者都执行任务。在分布式系统环境中,程序模块可以位于本地存储器存储设备和远程存储器存储设备两者中。
替代地或附加地,本文描述的功能可以至少部分地由一个或多个硬件逻辑组件来执行。例如,且不带限制地,可以使用的说明性类型的硬件逻辑组件包括现场可编程门阵列(FPGA)、程序专用集成电路(ASIC)、程序专用标准产品(ASSP)、片上系统的系统(SOC),复杂可编程逻辑器件(CPLD)等。
本发明可以按其他具体形式来体现而不脱离其精神或特性。所描述的实施例在所有方面将被视为仅是说明性的而非限制性的。本发明的范围因此由所附权利要求而不是由前述描述来指示。在权利要求的等价物的含义和范围内的所有变化都将被涵盖在其范围内。

Claims (15)

1.在包括显示器和主处理器的虚拟现实环境或增强现实环境中,一种用于向所述主处理器提供一个或多个用户输入的无线手持控制器,所述手持控制器包括:
触笔,具有第一端、第二端以及在所述第一端和所述第二端之间的伸长中间部分,所述触笔还包括在所述第一端处或靠近所述第一端的第一光学反射标记以及在所述第二端处或靠近所述第二端的第二光学反射标记;并且
所述伸长中间部分封闭微控制器、惯性测量单元(IMU)、通信无线电部以及一个或多个按钮,所述一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,所述惯性测量单元跟踪所述手持控制器在三维空间中相对于预定参照系的取向并且向所述微控制器提供取向和加速度数据,并且所述通信无线电部提供所述微控制器和所述主处理器之间的无线通信,以便提供从所述用户对所述一个或多个按钮的选择性激活所得到的取向数据和用户输入。
2.根据权利要求1所述的手持控制器,其中所述第一光学反射标记和所述第二光学反射标记各自包括红外标记。
3.根据权利要求2所述的手持控制器,进一步包括覆盖所述第一光学反射标记和所述第二光学反射标记的材料,所述材料对IR光谱中的光是透射的,但是对可见光谱中的光是不透明的。
4.根据权利要求3所述的手持控制器,其中所述手持控制器被成形为在一个或多个视频游戏中使用的对象的形式。
5.根据权利要求4所述的手持控制器,其中所述IMU包括3轴加速度计、3轴陀螺仪和3轴磁力计中的一个或多个。
6.一种系统,包括:
具有处理器的头戴式显示(HMD)设备;
无线手持惯性控制器,被配置为与所述处理器通信以选择性地提供一个或多个用户输入,所述手持惯性控制器包括:
触笔,具有第一端、第二端以及在所述第一端和所述第二端之间的伸长中间部分,所述触笔还包括在所述第一端处或靠近所述第一端的第一光学反射标记以及在所述第二端处或靠近所述第二端的第二光学反射标记;
所述伸长中间部分封闭微控制器、惯性测量单元(IMU)、通信无线电部以及一个或多个按钮,所述一个或多个按钮被配置和定位用于利用用户的手指或拇指的选择性致动,所述惯性测量单元跟踪所述手持惯性控制器在三维空间中相对于预定参照系的取向并且向所述微控制器提供取向和加速度数据,并且所述通信无线电部提供无线通信,以便向所述处理器提供取向数据和用户输入;以及
位于所述显示器上的光学传感器,用于确定所述第一光学反射标记和所述第二光学反射标记中的每个光学反射标记相对于所述显示器的位置,并且用于向所述处理器提供位置数据,并且
其中所述处理器使用所述取向数据和所述位置数据来以六个自由度在三维空间内跟踪所述手持惯性控制器。
7.根据权利要求6所述的系统,其中所述HMD包括虚拟现实显示器。
8.根据权利要求6所述的系统,其中所述HMD包括三维增强现实显示器。
9.根据权利要求8所述的系统,其中所述第一光学反射标记和所述第二光学反射标记各自包括红外标记。
10.根据权利要求9所述的系统,进一步包括覆盖所述第一光学反射标记和所述第二光学反射标记的材料,所述材料对IR光谱中的光是透射的,但是对可见光谱中的光是不透明的。
11.根据权利要求8所述的系统,其中所述手持控制器被成形为在一个或多个视频游戏中使用的对象的形式。
12.根据权利要求8所述的系统,其中所述IMU包括3轴加速度计、3轴陀螺仪和3轴磁力计中的一个或多个。
13.根据权利要求8所述的系统,其中所述光学传感器包括深度相机。
14.根据权利要求13所述的系统,其中所述深度相机是红外深度相机。
15.根据权利要求14所述的系统,其中所述深度相机以相对于所述HMD的前向取向被安装在所述HMD上。
CN201780035813.6A 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪 Active CN109313500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211608449.7A CN116027894A (zh) 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662347842P 2016-06-09 2016-06-09
US62/347,842 2016-06-09
US15/274,334 2016-09-23
US15/274,334 US10146334B2 (en) 2016-06-09 2016-09-23 Passive optical and inertial tracking in slim form-factor
PCT/US2017/035338 WO2017213940A1 (en) 2016-06-09 2017-06-01 Passive optical and inertial tracking in slim form-factor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202211608449.7A Division CN116027894A (zh) 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪

Publications (2)

Publication Number Publication Date
CN109313500A true CN109313500A (zh) 2019-02-05
CN109313500B CN109313500B (zh) 2022-12-23

Family

ID=60572644

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780035813.6A Active CN109313500B (zh) 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪
CN202211608449.7A Pending CN116027894A (zh) 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202211608449.7A Pending CN116027894A (zh) 2016-06-09 2017-06-01 纤细形状因子的无源光学和惯性跟踪

Country Status (4)

Country Link
US (2) US10146334B2 (zh)
EP (1) EP3469456A1 (zh)
CN (2) CN109313500B (zh)
WO (1) WO2017213940A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609626A (zh) * 2019-08-29 2019-12-24 广州幻境科技有限公司 一种虚拟现实的控制系统和方法
CN114127669A (zh) * 2019-07-22 2022-03-01 Z空间股份有限公司 无源指示笔的可跟踪性增强

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10642046B2 (en) 2018-03-28 2020-05-05 Cloud Dx, Inc. Augmented reality systems for time critical biomedical applications
US10198874B2 (en) 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US10146334B2 (en) * 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US10146335B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Modular extension of inertial controller for six DOF mixed reality input
JP2017224942A (ja) * 2016-06-14 2017-12-21 フォーブ インコーポレーテッド ヘッドマウントディスプレイ、視線検出システム
US10345925B2 (en) * 2016-08-03 2019-07-09 Google Llc Methods and systems for determining positional data for three-dimensional interactions inside virtual reality environments
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
US11163416B2 (en) 2017-04-27 2021-11-02 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
US10444865B2 (en) * 2017-05-01 2019-10-15 Google Llc Tracking of position and orientation of objects in virtual reality systems
US10429949B2 (en) * 2017-06-30 2019-10-01 Htc Corporation User interaction apparatus and method
US10930075B2 (en) * 2017-10-16 2021-02-23 Microsoft Technology Licensing, Llc User interface discovery and interaction for three-dimensional virtual environments
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
EP4212222A1 (en) 2018-03-07 2023-07-19 Magic Leap, Inc. Visual tracking of peripheral devices
CN108398787B (zh) * 2018-03-20 2023-05-16 京东方科技集团股份有限公司 增强现实显示设备、方法和增强现实眼镜
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
WO2020026380A1 (ja) * 2018-08-01 2020-02-06 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US10902627B2 (en) * 2018-11-30 2021-01-26 Hins Sas Head mounted device for virtual or augmented reality combining reliable gesture recognition with motion tracking algorithm
US10990168B2 (en) 2018-12-10 2021-04-27 Samsung Electronics Co., Ltd. Compensating for a movement of a sensor attached to a body of a user
TWI736826B (zh) * 2019-01-15 2021-08-21 緯創資通股份有限公司 頭戴式顯示裝置
DE102019207454B4 (de) 2019-05-21 2021-05-12 Volkswagen Aktiengesellschaft Augmented-Reality-System
EP3760150A1 (en) * 2019-07-04 2021-01-06 Scopis GmbH Tracker for a head-mounted display
US10885819B1 (en) * 2019-08-02 2021-01-05 Harman International Industries, Incorporated In-vehicle augmented reality system
EP4111442A4 (en) 2020-02-26 2023-08-16 Magic Leap, Inc. FUSION OF HANDS AND TOTEM INPUT DATA FOR HABITRONIC SYSTEMS
US11348320B2 (en) 2020-04-02 2022-05-31 Samsung Electronics Company, Ltd. Object identification utilizing paired electronic devices
CN111459279A (zh) * 2020-04-02 2020-07-28 重庆爱奇艺智能科技有限公司 主动式补光设备、3dof手柄、vr设备及追踪系统
CN111930226A (zh) * 2020-07-01 2020-11-13 青岛小鸟看看科技有限公司 手势追踪方法及装置
CN113920189A (zh) 2020-07-08 2022-01-11 财团法人工业技术研究院 同时追踪可移动物体与可移动相机的六自由度方位的方法与系统
US11686927B2 (en) 2020-08-26 2023-06-27 Electronics And Telecommunications Research Institute Slim immersive display device and slim visualization device
US11422619B2 (en) * 2020-09-01 2022-08-23 Htc Corporation Tracking method and tracking system
CN112286343A (zh) 2020-09-16 2021-01-29 青岛小鸟看看科技有限公司 定位追踪方法、平台及头戴显示系统
CN115082520B (zh) * 2022-06-14 2024-10-11 歌尔股份有限公司 定位追踪方法、装置、终端设备及计算机可读存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1177122A (zh) * 1996-07-29 1998-03-25 韦斯特电气株式会社 照射角度可变的闪光装置
US20020024675A1 (en) * 2000-01-28 2002-02-28 Eric Foxlin Self-referenced tracking
CN1914646A (zh) * 2004-05-27 2007-02-14 佳能株式会社 信息处理方法、信息处理设备及摄像设备
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US20080024435A1 (en) * 2006-07-25 2008-01-31 Nintendo Co., Ltd. Information processing device and storage medium storing information processing program
US20080080789A1 (en) * 2006-09-28 2008-04-03 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US20100001998A1 (en) * 2004-01-30 2010-01-07 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US20120229248A1 (en) * 2011-03-12 2012-09-13 Uday Parshionikar Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US20130303281A1 (en) * 2013-01-11 2013-11-14 Chris Argiro Video-game console for allied touchscreen devices
US20140007011A1 (en) * 2012-06-18 2014-01-02 Allen Learning Technologies Event flow user interface
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法
JP2016018118A (ja) * 2014-07-09 2016-02-01 船井電機株式会社 立体画像を提示する光線制御子および立体ディスプレイ
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器
US20160098095A1 (en) * 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701140A (en) 1993-07-16 1997-12-23 Immersion Human Interface Corp. Method and apparatus for providing a cursor control interface with force feedback
US7445550B2 (en) * 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
AU2003218010A1 (en) * 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
US7071970B2 (en) 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
GB2411532B (en) 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
US7467061B2 (en) 2004-05-14 2008-12-16 Canon Kabushiki Kaisha Information processing method and apparatus for finding position and orientation of targeted object
US20060028674A1 (en) 2004-08-03 2006-02-09 Silverbrook Research Pty Ltd Printer with user ID sensor
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
US20090183929A1 (en) 2005-06-08 2009-07-23 Guanglie Zhang Writing system with camera
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US8224024B2 (en) 2005-10-04 2012-07-17 InterSense, LLC Tracking objects with markers
US20070265075A1 (en) 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
US9891435B2 (en) 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US9812096B2 (en) * 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US9024972B1 (en) 2009-04-01 2015-05-05 Microsoft Technology Licensing, Llc Augmented reality computing with inertial sensors
US8568233B2 (en) 2009-04-23 2013-10-29 Performance Designed Products Llc Video game controller attachment apparatus
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
WO2011128766A2 (en) 2010-04-13 2011-10-20 Picard Frederic Methods and systems for object tracking
US9310887B2 (en) 2010-05-06 2016-04-12 James W. Wieder Handheld and wearable remote-controllers
US8555205B2 (en) 2010-10-08 2013-10-08 Cywee Group Limited System and method utilized for human and machine interface
US8419541B2 (en) 2010-11-17 2013-04-16 Sony Computer Entertainment Inc. Smart shell to a game controller
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US9459457B2 (en) 2011-12-01 2016-10-04 Seebright Inc. Head mounted display with remote control
US20130217488A1 (en) 2012-02-21 2013-08-22 Radu Mircea COMSA Augmented reality system
EP2869780B1 (en) 2012-07-03 2018-11-28 7D Surgical Inc. Attachments for tracking handheld implements
US9329678B2 (en) 2012-08-14 2016-05-03 Microsoft Technology Licensing, Llc Augmented reality overlay for control devices
US20140168261A1 (en) 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US8996177B2 (en) 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US20150085111A1 (en) 2013-09-25 2015-03-26 Symbol Technologies, Inc. Identification using video analytics together with inertial sensor data
US9684369B2 (en) 2014-04-08 2017-06-20 Eon Reality, Inc. Interactive virtual reality systems and methods
US9626802B2 (en) 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
US9999835B2 (en) 2015-02-05 2018-06-19 Sony Interactive Entertainment Inc. Motion sickness monitoring and application of supplemental sound to counteract sickness
CA2992833A1 (en) 2015-07-17 2017-01-26 Ivd Mining Virtual reality training
US10908694B2 (en) 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10146334B2 (en) * 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US10146335B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Modular extension of inertial controller for six DOF mixed reality input

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1177122A (zh) * 1996-07-29 1998-03-25 韦斯特电气株式会社 照射角度可变的闪光装置
US20020024675A1 (en) * 2000-01-28 2002-02-28 Eric Foxlin Self-referenced tracking
US20160098095A1 (en) * 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US20100001998A1 (en) * 2004-01-30 2010-01-07 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
CN1914646A (zh) * 2004-05-27 2007-02-14 佳能株式会社 信息处理方法、信息处理设备及摄像设备
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US20080024435A1 (en) * 2006-07-25 2008-01-31 Nintendo Co., Ltd. Information processing device and storage medium storing information processing program
US20080080789A1 (en) * 2006-09-28 2008-04-03 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
CN101548547A (zh) * 2007-08-16 2009-09-30 索尼电脑娱乐公司 利用与倾斜角信息相结合的视频输入的对象检测
US20120229248A1 (en) * 2011-03-12 2012-09-13 Uday Parshionikar Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US20140007011A1 (en) * 2012-06-18 2014-01-02 Allen Learning Technologies Event flow user interface
US20130303281A1 (en) * 2013-01-11 2013-11-14 Chris Argiro Video-game console for allied touchscreen devices
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器
JP2016018118A (ja) * 2014-07-09 2016-02-01 船井電機株式会社 立体画像を提示する光線制御子および立体ディスプレイ
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
吴祈耀: "《现代数字医疗核心装备与关键技术》", 31 March 2008 *
周天健等: "《临床实用步态分析学》", 30 September 1993 *
曾芬芳: "《虚拟现实技术》", 30 June 1997, 上海交通大学出版社 *
黄辉: "《数字化电视揭秘》", 30 November 2013, 同济大学出版社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114127669A (zh) * 2019-07-22 2022-03-01 Z空间股份有限公司 无源指示笔的可跟踪性增强
CN110609626A (zh) * 2019-08-29 2019-12-24 广州幻境科技有限公司 一种虚拟现实的控制系统和方法
CN110609626B (zh) * 2019-08-29 2023-01-17 广州幻境科技有限公司 一种虚拟现实的控制系统和方法

Also Published As

Publication number Publication date
US20170357333A1 (en) 2017-12-14
US10521026B2 (en) 2019-12-31
EP3469456A1 (en) 2019-04-17
WO2017213940A1 (en) 2017-12-14
CN116027894A (zh) 2023-04-28
CN109313500B (zh) 2022-12-23
US20190087021A1 (en) 2019-03-21
US10146334B2 (en) 2018-12-04

Similar Documents

Publication Publication Date Title
CN109313500A (zh) 纤细形状因子的无源光学和惯性跟踪
US10818092B2 (en) Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
CN109313497B (zh) 用于六自由度混合现实输入的惯性控制器的模块化扩展
US10078377B2 (en) Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US12086324B2 (en) Micro hand gestures for controlling virtual and graphical elements
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN114127669B (zh) 无源指示笔的可跟踪性增强的方法、设备和计算机可读存储介质
CN117356116A (zh) 用于定位可穿戴设备和向可穿戴设备递送内容的信标
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
CN115735150A (zh) 增强现实眼戴器与3d服装
WO2024049578A1 (en) Scissor hand gesture for a collaborative object
US20240070301A1 (en) Timelapse of generating a collaborative object
US20240070302A1 (en) Collaborative object associated with a geographical location
US20240070298A1 (en) Selective collaborative object access
WO2024049575A1 (en) Revealing collaborative object using countdown timer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant