CN110794958A - 在增强/虚拟现实环境中使用的触控笔设备和输入设备 - Google Patents

在增强/虚拟现实环境中使用的触控笔设备和输入设备 Download PDF

Info

Publication number
CN110794958A
CN110794958A CN201910717412.XA CN201910717412A CN110794958A CN 110794958 A CN110794958 A CN 110794958A CN 201910717412 A CN201910717412 A CN 201910717412A CN 110794958 A CN110794958 A CN 110794958A
Authority
CN
China
Prior art keywords
stylus
input device
housing
user
stylus device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910717412.XA
Other languages
English (en)
Other versions
CN110794958B (zh
Inventor
安德烈亚斯·康奈兰
费尔加尔·科科兰
皮尔斯·布拉迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Logitech Europe SA
Original Assignee
Logitech Europe SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Logitech Europe SA filed Critical Logitech Europe SA
Publication of CN110794958A publication Critical patent/CN110794958A/zh
Application granted granted Critical
Publication of CN110794958B publication Critical patent/CN110794958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

本发明提供一种用于在增强/虚拟现实环境中使用的触控笔设备和输入设备。在一些实施方式中,触控笔设备可以被配置用于在增强/虚拟(AR/VR)现实环境中使用,并且可以包括第一部分和第二部分,其中壳体的第一部分基本上是线性的并且可以被配置成在触控笔设备在使用中时由用户的手握持。第一部分可以包括尖端,该尖端被配置成作为触控笔设备与AR/VR环境内的对象之间的接口进行操作。壳体的第二部分可以是非线性的并且弯曲以遍历三个维度,包括第二部分的朝向与壳体的第一部分共线的线纵向弯曲的部分。在一些情况下,壳体的第二部分可以包括多个发射器或传感器,多个发射器或传感器被配置成便于在AR/VR环境内的三维空间中跟踪触控笔设备。

Description

在增强/虚拟现实环境中使用的触控笔设备和输入设备
技术领域
本发明涉及用于在增强/虚拟现实环境中使用的触控笔设备和输入设备。
背景技术
虚拟、混合或增强现实可以与包括沉浸式、高度可视化、计算机模拟环境的各种应用相关联。这些环境——通常被称为增强现实(AR)/虚拟现实(VR)环境——可以模拟用户在真实或想象世界中的物理存在。这些环境的计算机模拟可以包括可以借助于图形显示来呈现的计算机渲染图像。显示器可以被布置成可以包含用户的全部或部分视野的头戴式显示器(HMD)。
用户可以借助于用户接口设备或外围设备与计算机模拟环境接口。许多当代AR/VR系统中的常见控制器类型是手枪式抓握控制器,其通常可以根据特定系统以三个或六个自由度(DOF)的跟踪移动来进行操作。当沉浸在计算机模拟的AR/VR环境中时,用户可以执行与接口设备相关联的复杂操作,包括模拟移动、对象交互和操纵等。尽管它们有用,但是当代AR/VR系统中的手枪式抓握控制器往往体积庞大、笨重、难处理,并且由于其重量和通常包括突出且突起的圆环形结构的大的跟踪特征而可能引起用户的疲劳。由于用户通常可以较长时间段握持手枪抓握配置的物体,因此手枪式抓握形状可以帮助最小化疲劳,但是以仅允许粗糙且不清楚的移动和笨拙的控制为代价。因此,当在虚拟化环境中操作时,尤其是在执行需要高精度和精细控制的任务时,需要改进接口设备。
发明内容
在一些实施方式中,触控笔设备可以被配置用于在增强/虚拟(AR/VR)现实环境中使用,该触控笔包括:壳体,该壳体包括第一部分以及第二部分;被设置在壳体中的一个或更多个处理器;以及被设置在壳体中并由一个或更多个处理器控制的通信模块,通信模块被配置成在触控笔设备与至少一个主计算设备之间建立无线电子通信通道。壳体的第一部分可以基本上是线性的并且可以被配置成在触控笔设备在使用中时由用户的手握持。第一部分可以包括:输入元件,该输入元件被配置成响应于被用户的手激活而生成控制信号;以及在第一部分的末端处的尖端,该尖端被配置成作为触控笔设备与AR/VR环境内的对象之间的接口进行操作。壳体的第二部分可以是非线性的并且可以弯曲以遍历三个维度(例如,笛卡尔坐标系的x、y和z维度),包括第二部分的朝向与壳体的第一部分共线的线纵向弯曲的部分。在一些情况下,壳体的第二部分可以包括多个发射器或传感器,多个发射器或传感器被配置成便于在AR/VR环境内的三维空间中跟踪触控笔设备。
在某些实施方式中,壳体的第二部分的部分可以形成多边形环(例如,六边形环、菱形环、圆环、球形环、半球形环、八边形环等)。在一些情况下,壳体的第二部分可以包括穿过多边形环的至少一部分的多边形截面(例如,六边形截面、菱形截面、圆形截面、八边形截面等)。壳体的第二部分可以包括多个平坦平面,其中,多个发射器或传感器可以被配置在多个平坦平面中的一些或所有上。多个平坦平面中的一些或所有在三维空间中可以被定向成彼此面向不同的方向。在一些情况下,平坦平面中的一些或所有可以被定向成使得平坦平面中的至少四个从围绕触控笔设备的360度的任何点可见。为了说明,如果壳体的第一部分(其可以被配置成由用户的手以笔式抓握配置握持)基本上是线性的,则可以看到垂直于第一部分的360度的任何点,使得可以检测平坦平面中的至少四个平坦平面和/或发射器或传感器。另一简化示例可以是轴/轮关系,其中,触控笔设备的第一部分(基本线性的部分)可以是轴,并且360度观察可以是轮相对于轴的取向。然而,在一些情况下,可以在围绕触控笔设备的任何点处(例如,在球形围绕触控笔设备的任何位置处)实现检测。在一些情况下,触控笔设备的重心可以位于第二部分与第一部分之间的交界处。此外,触控笔设备可以在第二部分与第一部分之间的交界处在纵向和横向(例如,长度和宽度方向)上平衡,如图6B所示。
在某些实施方式中,被配置用于在增强/虚拟(AR/VR)现实环境中使用的输入设备可以包括壳体,该壳体包括:基本上线性的第一部分,其被配置成在输入设备在使用中时由用户的手握持;以及第二部分,其是非线性的并且弯曲以遍历三个维度,其中,壳体的第二部分包括多个发射器或传感器,多个发射器或传感器被配置成便于在AR/VR环境内的三维空间中跟踪输入设备。在一些情况下,第二部分的部分可以朝向与壳体的第一部分共线的线纵向弯曲。在一些实施方式中,壳体的第二部分的部分可以形成六边形环,并且壳体包括穿过六边形环的至少一部分的六边形截面。壳体的第二部分可以包括多个平坦平面,其中,多个发射器或传感器被配置在多个平坦平面上。多个平坦平面中的每一个在三维空间中可以被定向成彼此面向不同的方向。在一些情况下,多个平坦平面被定向成使得平坦平面中的至少四个从围绕输入设备的360度的任何点可见。在某些实施方式中,输入设备可以是触控笔设备。输入设备的重心可以位于第二部分与第一部分之间的交界处,使得输入设备被配置成:当用户的手被定向在输入设备的使用位置时,输入设备在用户的手的食指与拇指之间的空间上无支撑地平衡。在一些实现方案中,输入设备可以在第二部分与第一部分之间的交界处在纵向和横向上平衡。
在又一实施方式中,被配置用于在增强/虚拟(AR/VR)现实环境中使用的输入设备可以包括壳体,该壳体包括:第一部分;以及第二部分;其中,壳体的第一部分可以被配置成在输入设备在使用中时由用户的手握持,其中,壳体的第二部分可以是非线性的并且弯曲以遍历三个维度,并且包括形成具有六边形截面的六边形环的部分,其中,六边形环可以包括朝向与壳体的第一部分共线的线纵向弯曲的截面,其中,六边形环可以包括多个平坦平面,并且其中,多个发射器或传感器被配置在多个平坦平面上,多个发射器或传感器被配置成便于在AR/VR环境内的三维空间中跟踪输入设备。在一些情况下,多个平坦平面中的每一个可以被定向成在三维空间中彼此面向不同的方向,并且多个平坦平面中的每一个可以被定向成使得平坦平面中的至少四个从围绕输入设备的360度的任何点可见。
附图说明
根据以下参照附图对实施方式的描述,本公开内容的实施方式的方面、特征和优点将变得明显。
图1示出了根据某些实施方式的用户在增强/虚拟现实环境中操作触控笔设备。
图2示出了根据某些实施方式的AR/VR系统的简化框图。
图3A示出了根据某些实施方式的被配置用于在AR/VR环境中操作的触控笔设备。
图3B示出了根据某些实施方式的被配置用于在AR/VR环境中操作的触控笔设备的第二实现方式。
图3C至图3E示出了根据某些实施方式的被配置用于在AR/VR环境中操作的触控笔设备的第三实现方式。
图4A示出了根据某些实施方式的用于在AR/VR环境中使用的触控笔设备的各方面。
图4B示出了根据某些实施方式的用于在AR/VR环境中使用的触控笔设备的各方面。
图4C示出了根据某些实施方式的用于在AR/VR环境中使用的触控笔设备的各方面。
图5A示出了根据某些实施方式的用于与触控笔设备接合的抓握式。
图5B示出了根据某些实施方式的用于与触控笔设备接合的第二抓握式。
图6A示出了根据某些实施方式的触控笔设备的某些人体工程学优点的各方面。
图6B示出了根据某些实施方式的触控笔设备的某些人体工程学优点的其他方面。
图6C示出了根据某些实施方式的触控笔设备的人体工程学优点的更多方面。
图7示出了根据某些实施方式的触控笔设备的传感器/发射器阵列的配置和操作性能的各方面。
具体实施方式
本发明的实施方式一般涉及被配置成在基于AR/VR的系统中操作的控制设备。更具体地,一些实施方式涉及具有新颖设计架构的触控笔设备,该新颖设计架构具有改进的人体工程学和跟踪特性。
在以下描述中,出于说明的目的,阐述了许多示例和细节以提供对本发明的实施方式的理解。然而,对于本领域的技术人员明显的是,可以在没有这些细节中的一些的情况下或者利用其修改或等同物来实践某些实施方式。
为了提供对本公开内容的一些方面的高级、广泛理解,这里呈现了某些实施方式的非限制性概述。在目前市场上的许多传统AR/VR系统中,手枪式抓握控制器是常见的但是充满了人体工程学问题,如上所描述。总之,传统的手枪式抓握控制器(即输入设备)通常是不清楚的,并且由于其庞大且笨重的设计以及手枪式抓握配置中用户的手的生物力学,可能防碍用户执行高精度操作,用户的手的生物力学一般有利于高精度移动或控制。因此,本发明的各方面引入了一种新颖的输入设备,其可以为用户提供显著更高程度的精度和控制、更少的用户疲劳和对当代AR/VR系统常见的多种跟踪协议的适应性。一些实施方式包括被配置成像笔一样握持的触控笔式设备,该触控笔式设备轻、具有平衡的重心、被配置成在使用期间与用户的手腕保持直线并且包括被配置成在使用期间防止视线遮挡的跟踪部分,以制造可以长时间使用而且疲劳度低的符合人体工程学、高精度的输入设备。
在某些示例性实施方式中,输入设备可以是被配置用于在增强/虚拟(AR/VR)现实环境中使用的触控笔设备,该触控笔设备包括具有底部部分和顶部部分的壳体,例如如图3A至图7所示。一个或更多个处理器以及被配置成在触控笔设备与至少一个主计算设备之间建立无线电子通信的通信模块可以被设置在壳体中。在一些情况下,壳体的底部部分可以是基本上线性的并且被配置成在触控笔设备在使用中时由用户的手握持。底部部分可以包括被配置成响应于被用户的手激活而生成控制信号的一个或更多个输入元件,以及被配置成作为触控笔设备与AR/VR环境内的对象之间的接口进行操作的在底部部分的末端处的尖端。壳体的顶部部分可以形成为遍历三个维度的六边形环,并且可以包括穿过六边形环的至少一部分的六边形截面。六边形环和/或其截面的每个平面之间的角度可以近似为30度,但不一定是对称的(例如,一些角度可以大于或小于30度)。当使用触控笔时,六边形环可以朝向用户的手腕并且与用户的手腕成直线纵向向下弯曲,这可以防止在操作触控笔设备时模糊用户的视线。六边形环可以包括多个平坦平面,这些平坦平面在三维空间中可以被定向成彼此面向不同的方向。多个发射器或传感器可以被配置在平坦平面中的一些或所有上,这可以便于在AR/VR环境内的三维空间中跟踪触控笔设备。发射器(例如,红外LED)和/或传感器(例如,红外检测器)的使用可以取决于AR/VR系统使用的跟踪基础设施的类型。平坦平面可以被定向成使得平坦平面中的至少四个从与触控笔设备的取向成轴向(例如,完全围绕触控笔设备的侧面)的360度的任何点可见(例如,可检测LED发射),但是一些实施方式可以具有被配置在六边形环的不同部分上的平面,其允许至少3或4个从围绕触控笔设备的任何地方可见。在一些实现方案中,触控笔设备的重心可以位于顶部部分与底部部分之间的交界处。在使用时,顶部足够紧凑,使得当使用触控笔设备时,顶部部分可以不横向延伸超出用户的手腕(例如,不会悬在手臂的边缘上方)。在操作中,壳体的底部部分可以由用户的手以笔式抓握配置握持。受益于本公开内容的本领域的普通技术人员将理解其超出以上描述的非限制性示例的许多变型、修改和替选实施方式。
定义
鉴于以下说明,可以更好地理解本公开内容:
如本文所使用的,术语“计算机模拟”和“虚拟现实环境”可以指提供给用户的虚拟现实环境、增强现实环境、混合现实环境或其他形式的视觉环境、沉浸式计算机模拟环境。如本文所使用的,术语“虚拟现实”或“VR”可以包括复制虚构设置的计算机模拟环境。可以通过使得用户能够与本文描述的设置和任何对象进行交互来模拟用户在该环境中的物理存在。VR环境的示例可以包括:视频游戏;医疗过程模拟程序,包括手术或物理治疗过程;设计特征的交互式数字模型,包括计算机辅助设计;教育模拟程序,包括电子学习模拟;或其他类似的模拟。模拟环境可以是二维或三维的。
如本文所使用的,术语“增强现实”或“AR”可以包括结合现实世界视图呈现的渲染图像的使用。AR环境的示例可以包括:用于可视化现实世界中的建筑物的建筑应用;用于在手术或治疗期间向用户增强额外信息的医疗应用;在进入VR环境之前向用户提供现实世界的增强模拟的游戏环境。
如本文所使用的,术语“混合现实”或“MR”可以包括结合环境的现实世界视图被呈现为图像的虚拟对象的使用,其中虚拟对象可以与现实世界环境交互。下面描述的实施方式可以在AR、VR或MR环境中实现。
如本文所使用的,术语“现实世界环境”或“现实世界”可以指物理世界(本文也称为“物理环境”)。因此,关于对象(例如,身体部分或用户接口设备)的术语“现实世界布置”可以指对象在现实世界中的布置并且可以与参考点相关。关于对象的术语“布置”可以指定位(位置和取向)。可以根据全局坐标系或局部坐标系定义定位。
如本文所使用的,术语“渲染图像”或“图形图像”可以包括可以由计算机生成并作为虚拟现实环境的一部分向用户显示的图像。图像可以以二维或三维显示。例如,本文公开的显示器可以例如通过使得用户能够直接观看现实世界环境和/或呈现现实世界环境的一个或更多个图像(例如,可以由摄像设备捕获)来呈现现实世界环境的图像。
如本文所使用的,术语“头戴式显示器”或“HMD”可以指向用户呈现图像的显示器。HMD可以包括支撑在用户的部分视野或全部视野前方的图形显示器。显示器可以包括透明的、半透明的或不透明的显示器。HMD可以是头戴式耳机的一部分。HMD的图形显示器可以由显示驱动器控制,显示驱动器可以包括如本文所定义的电路。
如本文所使用的,术语“电子电路”或“电路”可以指以下中的一个或更多个或者其他合适的硬件或软件部件、是以下中的一个或更多个或者其他合适的硬件或软件部件的一部分或者包括以下中的一个或更多个或者其他合适的硬件或软件部件:处理器(共享的、专用的或组处理器)、存储器(共享的、专用的或组存储器)、组合逻辑电路、无源电部件或接口。在某些实施方式中,电路可以包括可以提供所描述的功能的一个或更多个虚拟机。在某些实施方式中,电路可以包括无源部件,例如,可以提供所描述的功能的晶体管、变压器、电阻器、电容器的组合。在某些实施方式中,可以使用一个或更多个软件或固件模块来实现电路,或者可以使用一个或更多个软件或固件模块来实现与电路相关联的功能。在一些实施方式中,电路可以包括至少部分地可在硬件中操作的逻辑。电路可以是集中式的或分布式的,包括分布在形成系统的一部分或与系统通信的各种设备上,并且电路可以包括:基于网络的计算机,包括远程服务器;基于云的计算机,包括服务器系统;或外围设备。
如本文所使用的,术语“处理器”或“主处理器/本地处理器”或“处理资源”可以指用于处理的一个或更多个单元,包括专用集成电路(ASIC)、中央处理单元(CPU)、图形处理单元(GPU)、可编程逻辑器件(PLD)、微控制器、现场可编程门阵列(FPGA)、微处理器、数字信号处理器(DSP)或其他合适的部件。可以使用存储在存储器上的机器可读指令来配置处理器。处理器可以是集中式的或分布式的,包括分布在形成系统的一部分或与系统通信的各种设备上,并且处理器可以包括:基于网络的计算机,包括远程服务器;基于云的计算机,包括服务器系统;或外围设备。处理器可以被布置在以下中的一个或更多个中:外围设备(例如触控笔设备),其可以包括用户接口设备和/或HMD;计算机(例如,个人计算机或类似设备);或与计算机系统通信的其他设备。
如本文所使用的,术语“计算机可读介质/媒介”可以包括传统的非暂态存储器,例如,随机存取存储器(RAM)、光学介质、硬盘驱动器、闪存驱动器、存储卡、软盘、光学驱动器和/或其组合。应当理解的是,虽然一个或更多个存储器可以位于与系统相同的物理位置,但是一个或更多个存储器可以位于远离主系统,并且可以经由计算机网络与一个或更多个处理器通信。另外,当使用多于一个存储器时,第一存储器可以位于与主系统相同的物理位置,并且另外的存储器可以位于远离主系统的远程物理位置。一个或更多个存储器的物理位置可以改变。另外,一个或更多个存储器可以实现为“云存储器”(即,一个或更多个存储器可以部分或完全基于网络或使用网络访问)。
如本文所使用的,术语“通信资源”可以指用于电子信息传输的硬件和/或固件。无线通信资源可以包括用于通过无线电发送和接收信号的硬件,并且可以包括各种协议实现,例如,电子工程师协会(IEEE)中描述的802.11标准、蓝牙TM、ZigBee、Z-Wave、红外线(IR)、RF等。有线通信资源可以包括通过信号线的调制信号,所述调制可以根据串行协议,例如,通用串行总线(USB)协议、串行外围接口(SPI)、内部集成电路(I2C)、RS-232、RS-485或其他协议实现。
如本文所使用的,术语“网络”或“计算机网络”可以包括任何类型的一个或更多个网络,包括公共陆地移动网络(PLMN)、电话网络(例如,公共交换电话网络(PSTN)和/或无线网络)、局域网(LAN)、城域网(MAN)、广域网(WAN)、互联网协议多媒体子系统(IMS)网络、专用网络、因特网、内联网和/或其他类型的合适网络。
如本文所使用的,术语“传感器系统”可以指可操作以提供关于物理世界中的输入设备、外围设备和其他对象的位置信息的系统,物理世界可以包括身体部分或其他对象。术语“跟踪系统”可以指检测这样的对象的移动。身体部分可以包括手臂、腿、躯干或其子集,其子集包括手或指头(手指或拇指)。身体部分可以包括用户的头部。传感器系统可以提供位置信息,根据该位置信息可以确定用户的注视方向和/或视野。对象可以包括与系统交互的外围设备。传感器系统可以提供实时的位置信息流。在实施方式中,可以提供图像流,其可以表示用户的虚拟形象。传感器系统和/或跟踪系统可以包括以下中的一个或更多个:摄像装置系统;基于磁场的系统;电容传感器;雷达;声学装置;其他合适的传感器配置,光学技术、无线电技术、磁技术以及惯性技术例如灯塔、超声波、IR/LED、SLAM跟踪、光检测和测距(LIDAR)跟踪、超宽带跟踪,以及本领域技术人员理解的其他合适的技术。传感器系统可以布置在以下中的一个或更多个上:外围设备,其可以包括用户接口设备、HMD;计算机(例如,P.C.、系统控制器或类似设备);与系统通信的其他设备。
如本文所使用的,术语“摄像装置系统”可以指包括单个实体或多个摄像装置的系统。摄像装置可以包括以下中的一个或更多个:2D摄像装置;3D摄像装置;红外(IR)摄像装置;飞行时间(ToF)摄像装置。摄像装置可以包括互补金属氧化物半导体(CMOS)、电荷耦合器件(CCD)图像传感器或用于形成图像的任何其他形式的光学传感器。摄像装置可以包括可以用于对象跟踪的IR滤光器。摄像装置可以包括红绿蓝(RGB)摄像装置,红绿蓝(RGB)摄像装置可以用于生成用于增强现实模拟或混合现实模拟的现实世界图像。在实施方式中,可以以交替方式例如利用IR滤波器和RGB而不是单独的摄像装置来处理单个摄像装置的不同帧。可以将多于一个摄像装置的图像拼接在一起以给出与用户的视野等效的视野。摄像装置系统可以布置在系统的任何部件上。在实施方式中,摄像装置系统布置在头戴式耳机或HMD上,其中摄像装置系统的捕获区域可以记录用户的视野。另外的摄像装置可以布置在别处以跟踪用户身体的其他部分。使用另外的摄像装置来覆盖用户的直接视野之外的区域可以提供允许涉及那些区域或包含在其中的身体部分的增强现实再现或虚拟现实再现的预渲染(或更早地开始其他计算)的益处,这可以在用户处于虚拟现实模拟中时增加对用户的感知性能(例如,更直接的响应)。摄像装置系统可以向应用程序提供可以包括图像流的信息,从该信息可以得到位置和取向。应用程序可以实现用于对象跟踪的已知技术,例如,特征提取和识别。
如本文所使用的,术语“用户接口设备”可以包括使用户与计算机进行接口的各种设备,其示例包括:包括基于物理设备的运动的那些指点设备的指点设备,例如,鼠标、轨迹球、操纵杆、键盘、游戏手柄、方向盘、操作杆、轭(飞行器的控制柱)、方向垫、油门弧座、踏板、光枪或按钮;基于触摸或接近表面的指点设备,例如,触控笔、触摸板或触摸屏;或3D运动控制器。用户接口设备可以包括一个或更多个输入元件。在某些实施方式中,用户接口设备可以包括意在由用户穿戴的设备。穿戴可以指借助除手的抓握之外的方式由用户支撑的用户接口设备。在本文描述的许多实施方式中,用户接口设备是用于在AR/VR环境中使用的触控笔设备。
如本文所使用的,术语“IMU”可以指惯性测量单元,其可以在沿着x、y、z笛卡尔坐标和沿3个轴的旋转——俯仰、滚动和偏航——的六个自由度(6个DOF)中测量移动。在一些情况下,某些实现可以利用具有在少于6个DOF(例如,如下面进一步讨论的3个DOF)中检测到的移动的IMU。
如本文所使用的,术语“键盘”可以指字母数字键盘、表情符号键盘、图形菜单或任何其他字符、符号或图形元素的集合。键盘可以是现实世界机械键盘或触摸板键盘,例如智能电话或平板电脑屏幕键盘(OSK)。可替选地,键盘可以是在AR/MR/VR环境中显示的虚拟键盘。
如本文所使用的,例如,术语“融合”可以指组合不同的位置确定技术和/或使用不同坐标系的位置确定技术,以提供对象的更准确的位置确定。例如,可以融合来自IMU和摄像装置跟踪系统的数据,两者都跟踪同一对象的移动。如本文所描述的融合模块使用融合算法执行融合功能。融合模块还可以执行其他功能,例如组合来自两个不同坐标系或测量点的位置或运动矢量以给出整体矢量。
注意,在本文中描述的输入设备的各种实施方式通常指的是“底部部分”和“顶部部分”,如下面进一步描述的。注意,底部部分(通常由用户握持的部分)也可以被称为“第一部分”,并且两个术语都是可互换的。同样,顶部部分(通常包括传感器和/或发射器的部分)可以被称为“第二部分”,它们也是可互换的。
典型的AR/VR系统环境
典型的AR/VR系统的一些基本元件包括使用户浸入AR/VR环境中的设备(例如,HMD、全息发射器、音频系统、触觉反馈系统等)、允许用户与AR/VR环境接口的一个或更多个输入设备(例如,触控笔、遥控器、操纵杆、手枪式抓握控制器等),以及跟踪用户的位置的跟踪系统,其可以包括跟踪HMD、输入设备和/或其他设备(例如,可穿戴设备等)的位置。一个或更多个计算设备(例如,台式计算机、膝上型计算机、游戏平台、娱乐/媒体系统、基于云的系统、其组合等)可以用于与各种输入和输出元件通信并控制各种输入和输出元件。
根据某些实施方式,存在可以用于跟踪输入设备的位置/取向的许多不同类型的跟踪系统。“从外到内”系统通常使用外部设备来跟踪头戴式耳机(例如,HMD)和附件(例如,触控笔设备)。外部跟踪设备(例如,摄像装置、IR传感器等)可以被放置在房间周围并且可以通常指向HMD和/或输入设备,并且可以被配置成确定HMD和输入设备相对于AR/VR环境的位置和取向。从外到内系统可以具有最佳时延并且可以非常准确,这可以通过结合额外的跟踪设备来进一步增强。与从外到内系统相关联的一些缺点包括需要保持在设定视野中以及遮挡问题,因为从外到内的跟踪倾向于依赖视线跟踪。因此,当用户在某些位置或地点转动或移动时,从外到内系统通常需要360度的跟踪能力或者有丢失HMD和输入设备的跟踪位置和取向的风险。
在“从内到外”系统中,摄像装置或传感器阵列被放置在被跟踪的设备(例如,HMD、触控笔设备)上,并确定其位置和/或取向相对于AR/VR环境如何变化。随着被跟踪的设备的移动,新的跟踪坐标实时更新。在某些情况下,可以使用基准标记来补充从内到外的跟踪,以改善位置/取向跟踪。一个优点是用户可以在虚拟世界中具有更大的移动自由度,而不需要将传感器放置在房间周围。一个缺点是所有计算都在跟踪系统本身内发生,例如通过HMD发生,这可能产生性能限制。受益于本公开内容的本领域的普通技术人员将理解可用的各种AR/VR系统的许多变化、修改和替选实施方式以及在本文中描述的输入设备(例如,触控笔设备)的实施方式可以在这些不同的系统中如何操作。下面参照图1示出和描述一个这样的实施方式。
图1示出了根据某些实施方式的用户102在“从外到内”AR/VR环境100中操作触控笔设备110。AR/VR环境100可以包括计算机140和任何数量的外围设备,外围设备可以包括显示设备142、计算机鼠标144、键盘146或其他输入/输出设备。用户102被示为穿戴头戴式显示器160并使用触控笔110在虚拟羊皮纸165上起草文字。触控笔可以与一个或更多个外部传感器130(1,2,…n)、HMD 160、计算机140或其任何组合进行无线电子通信。类似地,HMD160可以与一个或更多个外部传感器130(1,2,…n)、计算机140、触控笔110或其任何组合进行无线电子通信。
如图1所示,由于触控笔110的允许延长使用并减少疲劳的优异的人体工程学特性,用户102可以高精度地操纵触控笔110,这将在下面参照图6A至图6C进一步描述。如图所示,从外到内系统可以包括被配置在触控笔110上的发射器(例如,IR LED),这在下面参照图7进一步描述。替选地或另外地,触控笔110可以包括用于从内到外跟踪的多个传感器,触控笔110可以在本地(例如,通过处理器210)或在外部(例如,通过HMD 160、计算机140等)执行移动和取向计算。受益于本公开内容的本领域的普通技术人员将理解用于利用使用中的各种类型的AR/VR跟踪系统来跟踪触控笔110的许多变型、修改和替选的实施方式。
AR/VR输入设备的简化系统实施方式
图2示出了根据某些实施方式的输入设备110的简化系统框图(“系统”)200。系统200可以包括处理器210、输入检测块220、移动跟踪块230、电力管理块240和通信块250。系统块220至250中的每一个可以与处理器210进行电通信。系统200可以进一步包括未示出或描述以防止混淆在本文中所描述的新颖特征的附加系统。
在某些实施方式中,处理器210可以包括一个或更多个微处理器(μC),并且可以被配置成控制系统200的操作。替选地或另外地,处理器210可以包括具有支持硬件、固件(例如,存储器、可编程I/O等)和/或软件的一个或更多个微控制器(MCU)、数字信号处理器(DSP)等,如本领域的普通技术人员将理解的。替选地,MCU、μC、DSP、ASIC、可编程逻辑设备等可以被配置在系统200的其他系统块中。例如,通信块250可以包括用于控制与计算机140的通信(例如,经由蓝牙、蓝牙LE、RF、IR、硬线、ZigBee、Z-Wave、Logitech Unifying或其他通信协议)的本地处理器。在一些实施方式中,多个处理器可以使系统200中的性能特征(例如,速度和带宽)提高,但是不需要多个处理器,多个处理器也不一定与在本文中描述的实施方式的新颖性密切相关。替选地或另外地,如本领域的普通技术人员将理解的,可以通过模拟电子设计来执行处理的某些方面。
输入检测块220可以控制对按钮激活(例如,图4A的控制器416、按钮、触发器等)、滚轮和/或轨迹球操纵(例如,旋转检测)、滑块、开关、触摸传感器(例如,一维和/或二维触摸板)、力传感器等的检测。激活的输入元件(例如,按钮按压)可以生成相应的控制信号(例如,人机接口设备(HID)信号)以控制通信地耦接到输入设备110的计算设备(例如,计算机160)(例如,实例化AR/VR环境中的“抓取”功能)。替选地,输入检测块220的功能可以由处理器210包含,或者与其组合。
在一些实施方式中,输入检测块220可以检测一个或更多个触敏表面上的触摸或触摸姿势,如上所描述。输入检测块220可以包括一个或更多个触敏表面或触摸传感器。触摸传感器通常包括适于检测信号例如直接接触、电磁场或静电场,或电磁辐射束的感测元件。触摸传感器通常可以检测接收信号的变化、信号的存在或信号的缺失。触摸传感器可以包括用于发射检测到的信号的源,或者信号可以由辅助源生成。触摸传感器可以被配置成检测距参考区域或点一定距离处(例如,<5mm)、与参考区域或点接触或其组合的对象的存在。输入设备110的某些实施方式可以利用或不利用触摸检测或触摸感测元件。
在一些方面,输入检测块220可以控制实现在输入设备上的触觉设备的操作。例如,由触觉设备生成的输入信号可以由输入检测块220接收和处理。例如,输入信号可以是由压电设备响应于接收到在其表面上的力(例如,用户触摸)而生成的输入电压、电荷或电流。在一些实施方式中,输入检测块220可以控制输入设备110上的一个或更多个触觉设备的输出。例如,定义触觉反馈的特征的某些参数可以由输入检测块220控制。一些输入和输出参数可以包括按压阈值、释放阈值、反馈锐度、反馈力幅度、反馈持续时间、反馈频率、过电压(例如,在不同阶段使用不同的电压水平),以及随时间的反馈调制。替选地,触觉输入/输出控制可以由处理器210执行或与其组合执行。
输入检测块220可以包括触摸和/或接近度感测能力。触摸/接近度传感器的类型的一些示例可以包括但不限于电阻传感器(例如,基于标准气隙4线、基于取决于压力(FSR)、插值FSR等具有不同电特性的碳载塑料)、电容传感器(例如,表面电容、自电容、互电容等)、光学传感器(例如,红外光栅矩阵、与可以测量光路的飞行时间的光电探测器耦接的基于激光的二极管等)、声传感器(例如,与麦克风耦接以检测与触摸点相关的波传播模式的改变的压电蜂鸣器等)等。
移动跟踪块230可以被配置成跟踪或使得能够跟踪AR/VR环境中输入设备110在三个维度上的移动。对于从外到内跟踪系统,移动跟踪块230可以包括如例如图7中所示的被放置在输入设备上的多个发射器(例如,IR LED)、基准标记或其他跟踪工具,以允许从外到内系统跟踪输入设备在AR/VR环境内的位置、取向和移动。对于从内到外跟踪系统,移动跟踪块230可以包括多个摄像装置、IR传感器或其他跟踪工具,以允许从内到外系统跟踪输入设备在AR/VR环境内的位置、取向和移动。优选地,在任一种情况下的跟踪工具(也被称为“跟踪元件”)被配置成使得可以在任何时间点确定输入设备上的至少四个参考点以确保准确的跟踪。一些实施方式可以包括发射器和传感器、基准标记或多个跟踪工具的其他组合,使得输入设备可以在从内到外型跟踪系统或从外到内型跟踪系统中“立即可用”地使用。这种实施方式可以跨多个系统平台具有更通用的、系统无关的应用。
在某些实施方式中,惯性测量单元(IMU)可以用于补充移动检测。IMU可以包括一个或更多个加速度计、陀螺仪等。加速度计可以是被配置成测量加速力(例如,静态力和动态力)的机电设备(例如,微机电系统(MEMS)设备)。一个或更多个加速度计可以用于检测三维(3D)定位。例如,3D跟踪可以利用三轴加速度计或两个双轴加速度计。加速度计还可以确定输入设备110在3D空间中的的速度、物理取向和加速度。在一些实施方式中,可以代替加速度计或与加速度计结合使用陀螺仪以确定3D空间中的移动或输入设备取向(例如,如在VR/AR环境中应用)。如本领域的普通技术人员将理解的,可以将任何合适类型的IMU和任何数量的IMU合并到输入设备110中。
电力管理块240可以被配置成管理输入设备110的电力分配、再充电、电力效率等。在一些实施方式中,电力管理块240可以包括电池(未示出)、用于电池(未示出)的基于USB的再充电系统以及系统200内的电网,以向每个子系统(例如,通信块250等)提供电力。在某些实施方式中,电力管理块240提供的功能可以合并到处理器210中。替选地,一些实施方式可以不包括专用电力管理块。例如,电力管理块240的功能方面可以由另一个块(例如,处理器210)包含,或者与其组合。
根据某些实施方式,通信块250可以被配置成实现输入设备110与HMD 160、计算机140或其他设备和/或外围设备之间的通信。通信块250可以被配置成以任何合适的通信协议(例如,射频(RF)、蓝牙、BLE、红外(IR)、ZigBee、Z-Wave、Logitech Unifying或其组合)提供无线连接。
如本领域的普通技术人员将理解的,尽管可能没有明确地讨论某些系统,但是它们应该被视为系统200的一部分。例如,系统200可以包括总线系统,以向系统200中的不同系统传输电力和/或数据以及从系统200中的不同系统传输电力和/或数据。在一些实施方式中,系统200可以包括存储子系统(未示出)。存储子系统可以存储要由处理器(例如,在处理器320中)执行的一个或更多个软件程序。应当理解的是,“软件”可以指指令序列,指令序列在由处理单元(例如,处理器、处理设备等)执行时使系统200执行软件程序的某些操作。指令可以被存储为驻留在只读存储器(ROM)中的固件和/或存储在介质存储装置中的可以被读取到存储器中以由处理设备处理的应用。软件可以被实现为单个程序或单独程序的集合,并且可以被存储在非易失性存储装置中,并在程序执行期间被全部或部分地复制到易失性工作存储器。处理设备可以从存储子系统检索要执行的程序指令,以执行如本文中所描述的各种操作(例如,软件控制的弹簧自动调整等)。
应当理解,系统200意味着是说明性的并且可以进行许多变化和修改,如本领域的普通技术人员所理解的。系统200可以包括此处未具体描述的其他功能或能力(例如,移动电话、全球定位系统(GPS)、电力管理、一个或更多个摄像装置、用于连接外部设备或附件的各种连接端口等)。尽管参照特定块(例如,输入检测块220)描述了系统200,但是应该理解,这些块是为了理解本发明的某些实施方式而定义的,并不意味着暗示实施方式限于构件的特定的物理布置。各个块不需要对应于物理上不同的组件。块可以被配置成例如通过对处理器进行编程或提供适当的处理来执行各种操作,并且取决于如何获得初始配置,各种块可以是或可以不是可重新配置的。某些实施方式可以在包括使用电路和软件的任何组合实现的电子设备的各种装置中实现。此外,系统200的各方面和/或部分可以与设计通知的其他子系统组合或由设计通知的其他子系统操作。例如,电力管理块240和/或移动跟踪块230可以与处理器210集成,而不是用作单独的实体。
输入设备的某些实施方式
如上所描述,用于当代AR/VR系统的一些输入设备包括圆环或环形跟踪几何形状,其通过单独的手柄以手枪式抓握握持。手枪式抓握具有符合人体工程学的特征,与当以笔式抓握(例如,捏握)被握持在拇指与食指之间时用户可以舒适地握持和控制的几何形状和重量相比,符合人体工程学的特征允许用户能够舒适地使用更大的几何形状和更大的重量。圆形或圆环形状可以为覆盖360度视野的传感器的放置创建良好的几何形状,并且通常被定位在手/手柄上方或包围手以确保它们的传感器不被手阻挡/遮挡,这使得手枪式抓握是一个不错的选择,但是以敏捷的灵活性和精确控制为代价,如上所描述。本发明的某些实施方式包括具有触控笔型形状的输入设备,其具有减小的规模、重量和表面积、具有改善的平衡和优异的跟踪,该输入设备可以像笔一样握持以用于长时间连续操作(例如,4小时或更长时间)而具有最小的疲劳,这提供了笔状抓握以改善控制和精确表达。图3A至图3C示出了其一些非限制性实施方式。
图3A示出了根据某些实施方式的被配置用于在AR/VR环境中进行操作的触控笔设备(“触控笔”)310(1)。触控笔设备310(1)包括通常在使用触控笔310(1)时由用户握持的底部部分(也被称为“前面部分”)312(1),以及具有被配置用于优异的跟踪特性的六边形环形几何形状的顶部部分(也被称为“后部”或“后面部分”)314(1),如下面参照图4A至图7进一步讨论的。图3B示出了触控笔310(2),其具有类似的底部部分312(2)和具有较窄的六边形环形几何形状的顶部部分314(2)。图3C至图3E示出了触控笔310(3),其具有更平坦的底部部分312(3)轮廓和问号形状的顶部部分314(3)。每个实施方式具有沿不同方向定向的多个平坦平面,多个平坦平面可以包括被设置在其上的传感器(例如,IR传感器)和/或发射器(例如,IR LED),以便于跟踪触控笔设备在AR/VR环境中的位置、取向和移动,如下面参照图7进一步描述的。
替选地或另外地,图3A至图3C中所示的或本文件中描述的触控笔设备可以以替选的配置握持。例如,用户可以以手枪式抓握配置握持触控笔,其中底部部分312(1)面朝下,并且顶部部分314(1)面朝上,以形成可用作触控笔或改进的手枪式抓握接口的自适应的输入设备。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。
图4A示出了根据某些实施方式的用于在AR/VR环境中使用的触控笔设备(“触控笔”)410的各方面。触控笔410可以包括具有一个或更多个输入元件416的底部部分412。底部部分412可以成形为笔状构造来供用户例如通过捏握(例如,参见图5A)来握持和操纵,以与手枪式抓握控制器相比改善控制、灵活性和精确度。通常,如图4A所示,底部部分412被构造成基本上是线性的,但是可以包含非线性部分、曲线或截面。输入元件416可以包括任何数量的按钮、控制器、触敏传感器或被配置成响应于被用户的手激活而生成控制信号的其他输入元件。底部部分412可以包括尖端,其被配置成作为触控笔设备与AR/VR环境内的对象之间的接口进行操作,这可以包括笔状操作、指示器、照片编辑软件套件中的“喷涂”喷嘴,或者其他应用。在一些实施方式中,尖端可以包括有源传感器(例如,压力传感器),使得触控笔410可以检测与现实世界物体和/或表面的接触或撞击。输入元件416中的一些或全部可以由输入检测块220、处理器210或其组合来控制,如上面关于图2所描述的。
在一些实施方式中,壳体的顶部部分414可以是任何合适的形状例如环形(例如,参见图3A、图3B、图4A至图4C)或突起(例如,参见图3C),这些形状优选地是非线性的并弯曲遍历三个维度以确保精确的跟踪特性,如下面所描述的。在一些实施方式中,顶部部分414可以包括遍历三个维度的多边形环(例如,六边形环、菱形环、八边形环、五边形环、半球形环、圆形环等),并且可以包括穿过多边形环的至少一部分的多边形截面(例如,六边形截面、三角形截面等)。注意,附图示出了六边形环和六边形截面,并且出于说明的目的将被称为这样。然而,如本领域的普通技术人员将理解的,将理解在本文中描述的构思可以应用于其他多边形形状和截面。在一些实施方式中,六边形环和/或其截面的每个平面(例如,每个弯曲之间)之间的角度可以近似为30度,但不一定是对称的(例如,一些角度可以大于或小于30度)。其他角度也是可能的(例如,45度、60度、15度等),并且可以在顶部部分414或触控笔410的任何部分中使用不同的角度。六边形环可以具有朝向与壳体的第一部分共线的线纵向弯曲(例如,当使用触控笔时与用户的手腕成直线)的部分,这可以防止在操作触控笔设备时模糊用户的视线,如下面进一步描述的。通常,更尖锐的弯曲(例如,30度或更大)倾向于致使传感器/发射器在三维空间中分开地更远并且更容易彼此区分以更容易且更可靠地进行跟踪(例如,在四个或更多个检测到的传感器/发射器之间进行区分)。相反,浅弯曲(例如,小于20度)倾向于致使传感器/发射器在三维空间中更靠近在一起,并且在不太可靠的跟踪情况下可能更难以跟踪。通常,尽管低至15度的弯曲可以在稳健的检测系统中令人满意地进行操作,但是30至60度的弯曲可能是优选的。在一些情况下,使用非常陡峭的弯曲可以改善跟踪性能,但是可能呈现符合人体工程学的权衡,包括遮挡(参见例如图6A)、笨拙的重量分布(参见例如图6B至图6C)等。
多边形环可以包括多个平坦平面,这些平坦平面在三维空间中可以被定向成彼此面向不同的方向。多个发射器或传感器可以被配置在平坦平面中的一些或所有上,这可以便于在AR/VR环境内的三维空间中跟踪触控笔设备。发射器(例如,红外LED)和/或传感器(例如,红外检测器)的使用可以取决于AR/VR系统使用的跟踪基础设施的类型。平坦平面可以被定向成使得平坦平面中的至少四个从与触控笔设备的取向成轴向(例如,完全围绕触控笔设备的侧面)的360度的任何点可见(例如,可检测LED发射),但是一些实施方式可以具有被配置在六边形环的不同部分上的平面,其允许至少3或4个从围绕触控笔设备的任何地方可见。如上所指出,使环遍历三个维度可以确保发射器和/或传感器可以从围绕设备的360度的任何点“看到”(即,经由视点检测到)。注意,在操作期间,用户可以混淆输入设备的传感器/发射器与外部跟踪元件之间的视线,从而确保输入设备上的许多点(例如,四个或更多)是可检测的,而不管输入设备的取向是否可以提高可靠、连续和不间断跟踪的可能性,因为正在使用输入设备时由于用户特征(例如,身体、手臂等)引起的一些传感器/发射器的不可避免的遮挡可以通过仍然可以同时被检测和被跟踪的额外的传感器/发射器来补偿。参照图4B,六边形环被示出为在笛卡尔坐标空间中遍历x轴450和y轴452。图4C示出了触控笔410如何遍历z轴454。在一些实施方式中,可以沿着环对称或不对称地配置平面。在某些情况下,出于跟踪目的,平面的不对称放置可能是优选的,因为检测到的传感器/发射器(出于说明的目的,其可以被称为“跟踪点”)的每个组合将是唯一的星座,而对称放置可能存在多种可能性。
尽管看起来图3A至图4C所示的平面可以不必配置在顶部部分414的每个部分上。一些实施方式可以具有被完全配置在顶部部分414周围的平面;更多或更少的平面;具有不同的多边形形状、大小和尺寸的平面;连续或不连续的平面图案或其任何组合,如受益于本公开内容的本领域的普通技术人员所理解的。
在一些情况下,某些实施方式可以不包括平面,而是包括平滑的和/或弯曲的表面。在这种情况下,一些实施方式可以具有嵌入(或非嵌入)的窗口表面以安装传感器和/或发射器。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。
在一些实现方案中,输入设备410可以具有如下传感器/发射器:这些传感器/发射器被配置用于从内到外系统、从外到内系统、房间级系统、世界级系统、从输入设备410的侧面位置检测/查看输入设备410上的三个或更多个传感器/发射器的系统(例如,基于“灯塔”的系统)中的通用应用或者用于可以从后方检测三个或更多个传感器/发射器的系统(例如,基于HMD的检测)等。一些实施方式可以针对这些类型的系统中的任何一个、多于一个或所有这些系统进行优化,这些系统包括在本文中未明确描述但是由本公开内容的各方面所预期的系统,如本领域的普通技术人员将理解的。
在一些实现方案中,触控笔设备的重心可以位于顶部部分与底部部分之间的交界处。在使用时,顶部部分足够紧凑,使得当使用触控笔设备时,顶部部分可以不横向延伸超出用户的手腕(例如,不会悬在手臂的边缘上方)。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。
在某些实施方式中,系统200中的任何一个或全部可以合并到触控笔410或在本文中描述的任何新颖的输入设备(例如,触控笔110、310、410、510、610、710)中。例如,处理器210和通信块(“模块”)可以被设置在触控笔410内,以在触控笔设备与至少一个主计算设备(140)之间建立无线电子通信。
在又一实施方式中,输入设备410可以在非VR/AR/MR环境中使用。例如,还可以跟踪输入设备410的位置、取向、移动和操作以与教室场景中的智能白板或者可以在非VR/AR/MR环境中使用跟踪的其他现实世界应用一起使用。在一些实施方式中,输入设备可以包括跟踪部分(例如,具有如上所描述被配置的传感器/发射器的多边形环)而没有底部部分(例如,没有笔柄或其他用户可操纵部分)。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。
输入设备抓握多功能性
在本文中描述的输入设备可以为各种应用提供出色的控制、灵活性和精确度。此外,这些输入设备可以以各种配置握持以适应用户的偏好。
图5A示出了根据某些实施方式的用于与触控笔设备510接合的捏握式。用户的手504被示为将触控笔510的底部部分512握持在他们的拇指与手指(例如,食指与中指)之间,而顶部部分514依靠在用户手的拇指与食指之间的一部分(“食指尖与拇指尖相接后中间形成的空间(purlicue)”)上。用户可以以优选的抓握方式仅使用食指或者使用三个或更多个手指。用户可以根据需要抓握底部部分512上的更上部或更下部。
图5B示出了根据某些实施方式的用于与触控笔设备510接合的第二抓握式。用户的手504被示为以不同的方式握持触控笔510的底部部分512,其中触控笔510被支撑而不是被抓握,使得食指和拇指将触控笔定向,而触控笔由手504的食指尖与拇指尖相接后中间形成的空间(purlicue)支撑(依靠)。这种配置对于需要指向或瞄准的应用可能是有用的,例如游戏应用中的虚拟射弹、虚拟望远镜或双筒望远镜组或其他合适的应用。受益于本公开内容的本领域的普通技术人员将理解与触控笔510接合的许多变型。
输入设备的某些实施方式的人体工程学优点
当在AR/VR环境中使用时,触控笔相对于其他控制器类型(例如,远程控制、手枪式抓握控制等)呈现出许多人体工程学优点。
图6A示出了根据某些实施方式的触控笔设备610的某些人体工程学优点的各方面。用户602被示为使用触控笔610在投影的虚拟画布640(由HMD 660渲染)上绘制风景。注意,触控笔610保持在视平线(eye-level),但是用户的视线609仍然无阻碍。在传统设备中,例如具有被配置在手的周围或上方的跟踪机构(“圆环”)的手枪式抓握控制器,由于跟踪特征可能会遮挡用户的视力,因此在视平线处获得清晰的视线是不可能的。以跟踪部分(例如,顶部部分514)弯曲而不挡道但保持其三维突出的方式部分地使无阻碍的视线609成为可能。尽管在本文中描绘的实施方式示出了各种触控笔设备的跟踪部分向上弯曲并且然后向下弯曲,但是应该注意,其他实施方式仍然可以在三维中突出。例如,一些实施方式可以首先向下突出并且然后向上突出,一些可以不包括完整的环或者可以更圆形或呈现其他多边形形状(例如,正方形、五角形、八边形等)。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。
图6B示出了根据某些实施方式的触控笔设备的某些人体工程学优点的其他方面。在图6B中,触控笔610被示为在重心616在顶部部分612与底部部分614之间的交界处的情况下有利地平衡,使得当用户的手被定向在使用位置时触控笔610可以在用户手的食指与拇指之间的空间606(食指尖与拇指尖相接后中间形成的空间(purlicue))上无支撑地平衡,如图所示。注意,重心可以根据壳体的重量、长度或厚度、触控笔610内的各种电子设备(例如,系统200)的分布、顶部部分614的突起(例如,六边形环)的长度、构造、尺寸和取向或其他特征而向前或向后移动。因此,一些实施方式可以具有与图6B中所示的那些不同的特征,然而,可以通过调整上面列出的各种参数来实现类似的重心616。具有平衡重心的一个优点包括具有对触控笔610的更好控制,因为用户将不必应对重力向前或向后拉动触控笔,重力向前或向后拉动触控笔在试图明确表达精确移动时可能是挑战。相比之下,当代手枪式抓握控制器通常很重、笨重,并且具有要应对的显著的重量补偿问题,特别是如果它们以模拟触控笔610的使用的类似方式被颠倒操纵,则更是如此。例如,重量、大表面区域和大几何部分会笨拙地分配重量,由于补偿向前和向后或向左和向右的倾斜而使用户的手稳定肌肉过载,并且使得难以准确地控制尖端,造成低精度和快速疲劳。因此,平衡的重心可以减少手部疲劳,这可以允许用户更长时间的连续使用。在一些实施方式中,触控笔610可以在纵向和横向(即,长度和宽度方向)上平衡。
图6C示出了根据某些实施方式的触控笔设备的人体工程学优点的更多方面。在图6C中,在用户操作期间示出了触控笔设备的顶视平面图。用户的手604以使得触控笔610的取向与用户的手腕608成直线的方式握持触控笔610。注意,当使用触控笔设备时,触控笔610的顶部部分不会横向延伸超出用户的手腕。例如,六边形环不会延伸超出手腕的边缘。在一些实施方式中,六边形环的小部分可以略微延伸超出用户的手腕608的边缘(例如,1cm至2cm),但环的大部分重量保持在用户的手腕上方的中心。这可以在人体工程学上是有利的,因为用户不必应对重力引起的力在触控笔设备的任一边缘上向下拉,该向下拉可能致使无意的倾斜,或者进一步在长时间连续使用期间致使过早疲劳。
某些实施方式的跟踪几何形状
为了确保在虚拟和增强现实系统中输入设备的一致的六个运动自由度,应该根据传感器/发射器的坐标系跟踪这些设备和/或报告它们在三维空间中的位置。为了确保准确度,传感器理想地应该连续地并且从通过由用户产生的各种运动范围而自然发生的所有旋转角度来向系统软件报告唯一的、非平面的四点参考。可以通过在以例如可相对的拇指捏握法握持设备的情况下在自由空间中执行活动来产生该运动范围,这些活动例如但不限于:绘图、绘画、书写、指向等。系统应该能够识别设备的姿势、方向和取向。为了防止遮挡传感器——这可能例如通过手握持形状因素而相对于房间级系统“灯塔”发生,传感器壳体的几何形状可以被定位在设备的后方,在设备的后方,传感器壳体的几何形状悬于用户的手腕上方(参见例如图6A至图6C)。这种几何形状及其在系统中的相对性能进一步受到最小化人体工程学因素例如规模、重量和平衡形状因素的优点的需求的限制。在本文中呈现的先前附图中示出了这些所描述的形状的一些实施方式。
在操作中,当输入设备是静态的(不移动)时,AR/VR跟踪系统使用三个唯一的点来推断设备的取向和位置。如果系统失去这三点中的任何一点的“视线”,则跟踪可能会丢失。为了确保在运动/旋转时的一致跟踪,系统应该能够连续识别四个点,以使得能够从唯一的一组三个点转换到另一组。为了满足该系统性能参数,一些实施方式包括形成闭合三维环的几何形状(例如,具有六边形截面的六边形环),三维环急剧弯曲遍历笛卡尔坐标系的每个X轴、Y轴和Z轴,如图6B至图6C所示。在一些情况下,这些几何形状的效果是呈现从输入设备突出的具有覆盖360度的交叠视角锥的一系列独特的非平面传感器位置。换句话说,系统应该能够识别在任何位置或旋转取向的输入设备。在一些实施方式中,形状可以是对称的以满足人体工程学因素(例如,平衡),而传感器位置可以是不对称的以辅助模式识别。每个传感器也可以唯一地成角度,以进一步区分被配置在左侧和右侧的传感器或发射器。在一些实施方式中,包括平面以提供唯一的角度和平面“窗口”。预设平面的另一优点是传感器和/或发射器可以在正常或甚至低于正常的制造容差下安装,并且在相对大的安装表面的情况下仍然可以被正确定向。
图7示出了根据如上所描述的某些实施方式的触控笔设备710的传感器/发射器阵列的配置和操作性能的各方面。触控笔710包括底部部分712和顶部部分714,并且出于简化对随后的发明构思的说明的目的,可以类似于上面示出和描述的实施方式。顶部部分714可以包括填充有多个多边形平坦平面718的六边形环。平坦平面718中的一些或全部可以填充有传感器(例如,IR传感器)、发射器(例如,IR LED)、基准标记和/或可以用于促进在AR/VR环境中的三维空间中跟踪触控笔710的其他跟踪元件。在一些实施方式中,多个平坦平面可以被定向成使得被配置在其对应的平坦平面上的传感器/发射器中的至少四个传感器/发射器从与触控笔设备的取向成轴向的360度的任何点可见。当触控笔710移动和旋转时,至少四个传感器/发射器可以改变。例如,第一组四个或更多个传感器/发射器可以从外部传感器可见,并且当触控笔旋转时,第一组四个或更多个中的一些可能仍然可见,而其他掉出视野,并且在仍保持四个或更多个最低跟踪标准以确保连续且准确的跟踪的情况下,新的传感器/发射器变得可见。在一些情况下,发射器可以在任何合适的范围(例如,15度锥、30度等)上投射其相应的信号,使得可以存在信号交叠和更宽的覆盖范围,这可以允许使用更少数量的发射器以保证360度的跟踪覆盖。类似地,对于从内到外检测系统,传感器可以在任何合适的范围(例如,具有15度半径、30度等的锥形)处检测。不同的范围是可能的,并且通常,更大的跟踪分辨率可以与更小半径情况下的更大数量的可检测传感器/发射器相对应,反之亦然,如受益于本公开内容的本领域的普通技术人员所理解的。
为了说明这一点,图7中示出了若干个外部跟踪传感器720(1-3)。提供360度参考作为参考点,360度参考从壳体(例如,底部部分712)轴向延伸并且大致被配置在六边形环的中心周围,其中0度参考设置在大致垂直于具有三个可见按钮的底部部分的表面的位置处。外部传感器720(1-3)(例如,“灯塔”传感器)被示为相对于触控笔710的所示取向分别位于300度、345度和120度处。
参照图7,触控笔710的几何形状和性能被示为被设计成主要从其侧面在仰角处进行检测。一些实施方式可以采用更多的传感器/发射器,包括添加到前部(下部部分712)和背部的一些传感器/发射器,以改善如安装有HMD的跟踪系统可能发生的那样直接从触控笔712前方或直接从其后方进行跟踪。受益于本公开内容的本领域的普通技术人员将理解其许多变化、修改和替选实施方式。虽然在本文中描述的每个实施方式中可能没有明确说明,但是应该理解,在一个特定实施方式中描述的任何特征可以应用于本公开内容中预期的任何实施方式,并且可以假设受益于本公开内容的本领域的普通技术人员将理解如何以任何期望的组合混合和匹配所述特征。
如本说明书中所使用的,使用样式“A、B或C中的至少一个”的任何表达和表达“A、B和C中的至少一个”使用连词“或”和连词“和”,使得这些表达包括A、B、C的任何和所有结合和多种排列,即单独的A、单独的B、单独的C、任何顺序的A和B、任何顺序的A和C、任何顺序的B和C以及任何顺序的A、B、C。可以存在在这样的表达中使用的多于或少于三个的特征。
在权利要求中,置于括号内的任何附图标记不应被解释为限制权利要求。词语“包括”不排除存在权利要求中列出的要素或步骤以外的其他要素或步骤。此外,如本文中使用的,术语“一”或“一个”被定义为一个或多于一个。另外,即使相同的权利要求包括介绍性短语“一个或更多个”或“至少一个”以及不定冠词如“一”或“一个”,在权利要求中使用介绍性短语例如“至少一个”和“一个或更多个”也不应被解释为暗示:由不定冠词“一”或“一个”介绍的另一权利要求元素将包含这样介绍的权利要求要素的任何特定权利要求限制于仅包含一个这样的要素的发明。这同样适用于对定冠词的使用。除非另有说明,否则例如“第一”和“第二”的术语用于在这样的术语描述的要素之间进行任意地区分。因此,这些术语不一定指示指示这样的要素的时间或其他优先级。事实上,在相互不同的权利要求中叙述某些措施不指示不能有利地使用这些措施的组合。
除非另外明确说明不兼容或者实施方式、示例或权利要求的物理或其他防止这样的组合,否则前述实施方式和示例的特征以及所附权利要求的特征可以以任何合适的布置集成在一起,特别是在这样做时存在有益效果的特征。这不仅限于任何指定的益处,而是可能来自“事后”益处。这就是说,特征的组合不受所描述的形式的限制,特别是不受示例、实施方式或权利要求的从属形式(例如,编号)的限制。此外,这也适用于短语“在一个实施方式中”、“根据实施方式”等,其仅仅是文字的措辞形式,并且不应被解释为将以下特征限于与相同或相似措辞的所有其他实例不同的实施方式。也就是说,对“一个”、“一种”或“一些”实施方式的引用可以是对所公开的任何一个或更多个、和/或所有实施方式或其组合的引用。此外,类似地,对“该”实施方式的引用可以不限于紧前实施方式。
本说明书中的某些附图是说明方法和系统的流程图。应当理解的是,这些流程图的每个块以及这些流程图中的块的组合可以由计算机程序指令实现。可以将这些计算机程序指令加载到计算机或其他可编程装置上以产生机器,使得在计算机或其他可编程装置上执行的指令创建用于实现流程图块或块中指定的功能的结构。这些计算机程序指令还可以存储在计算机可读存储器中,可以指示计算机或其他可编程装置以特定方式运行,使得存储在计算机可读存储器中的指令产生包括实现流程图块或块中指定的功能的指令结构的制品。计算机程序指令也可以加载到计算机或其他可编程装置上,以使得在计算机或其他可编程装置上执行一系列操作步骤,以产生计算机实现的处理,使得在计算机或其他可编程装置上执行的指令提供用于实现流程图块或块中指定的功能的步骤。因此,流程图的块支持用于执行指定功能的结构的组合以及用于执行指定功能的步骤的组合。还将理解的是,流程图的每个块以及流程图中的块的组合可以由执行特定功能或步骤的基于硬件的专用计算机系统或专用硬件和计算机指令的组合来实现。
例如,可以使用任何数量的计算机编程语言例如C、C++、C#(CSharp)、Perl、Ada、Python、Pascal、SmallTalk、FORTRAN、汇编语言等来实现机器指令。此外,取决于每个特定实现的需求,可以采用各种编程方法,例如程序、面向对象或人工智能技术。由计算机系统执行的编译器程序和/或虚拟机程序通常转换更高级编程语言以生成可以由一个或更多个处理器执行的机器指令集,以执行编程功能或功能集。
一个或更多个实现方式的前述描述提供了说明和描述,但并不旨在穷举或将本发明的范围限制为所公开的确切形式。根据以上教导,修改和变型是可行的,或者可以根据本公开内容的各种实现方式的实践获得修改和变型。

Claims (20)

1.一种被配置用于在增强/虚拟现实AR/VR环境中使用的触控笔设备,所述触控笔设备包括:
壳体,其包括:
第一部分;以及
第二部分;
被设置在所述壳体中的一个或更多个处理器;以及
通信模块,其被设置在所述壳体中并由所述一个或更多个处理器控制,所述通信模块被配置成在所述触控笔设备与至少一个主计算设备之间建立无线电子通信通道,
其中,所述壳体的所述第一部分基本上是线性的并且被配置成在所述触控笔设备在使用中时由用户的手握持,所述第一部分包括:
输入元件,其被配置成响应于被所述用户的手激活而生成控制信号;以及
在所述第一部分的末端处的尖端,其被配置成作为所述触控笔设备与所述AR/VR环境内的对象之间的接口进行操作,
其中,所述壳体的所述第二部分是非线性的并且弯曲以遍历三个维度,并且
其中,所述壳体的所述第二部分包括多个发射器或传感器,所述多个发射器或传感器被配置成便于在所述AR/VR环境内的三维空间中跟踪所述触控笔设备。
2.根据权利要求1所述的触控笔设备,其中,所述壳体的所述第二部分的部分形成多边形环。
3.根据权利要求2所述的触控笔设备,其中,所述壳体的所述第二部分包括穿过所述多边形环的至少一部分的多边形截面。
4.根据权利要求1所述的触控笔设备,其中,所述壳体的所述第二部分包括多个平坦平面,其中,所述多个发射器或传感器被配置在所述多个平坦平面上。
5.根据权利要求4所述的触控笔设备,其中,所述多个平坦平面中的每一个在三维空间中被定向成彼此面向不同的方向。
6.根据权利要求4所述的触控笔设备,其中,所述多个平坦平面被定向成使得所述多个平坦平面中的至少四个从围绕所述触控笔设备的360度的任何点可见。
7.根据权利要求1所述的触控笔设备,其中,所述触控笔设备的重心位于所述第二部分与所述第一部分之间的交界处。
8.根据权利要求1所述的触控笔设备,其中,所述触控笔设备在所述第二部分与所述第一部分之间的交界处在纵向和横向上平衡。
9.根据权利要求1所述的触控笔设备,其中,所述壳体的所述第一部分被配置成由用户的手以笔式抓握配置握持。
10.一种被配置用于在增强/虚拟现实AR/VR环境中使用的输入设备,所述输入设备包括:
壳体,其包括:
基本上线性的第一部分,其被配置成在所述输入设备在使用中时由用户的手握持;以及
第二部分,其是非线性的并且弯曲以遍历三个维度,其中,所述壳体的所述第二部分包括多个发射器或传感器,所述多个发射器或传感器被配置成便于在所述AR/VR环境内的三维空间中跟踪所述输入设备。
11.根据权利要求10所述的输入设备,还包括所述第二部分的朝向与所述壳体的所述第一部分共线的线纵向弯曲的部分。
12.根据权利要求11所述的输入设备,其中,所述壳体的所述第二部分的部分形成六边形环,并且所述壳体包括穿过所述六边形环的至少一部分的六边形截面。
13.根据权利要求10所述的输入设备,其中,所述壳体的所述第二部分包括多个平坦平面,其中,所述多个发射器或传感器被配置在所述多个平坦平面上。
14.根据权利要求13所述的输入设备,其中,所述多个平坦平面中的每一个在三维空间中被定向成彼此面向不同的方向。
15.根据权利要求10所述的输入设备,其中,所述多个平坦平面被定向成使得所述多个平坦平面中的至少四个从围绕所述输入设备的360度的任何点可见。
16.根据权利要求10所述的输入设备,其中,所述输入设备是触控笔设备。
17.根据权利要求16所述的输入设备,其中,所述触控笔设备的重心位于所述第二部分与所述第一部分之间的交界处,使得所述触控笔设备被配置成:当所述用户的手被定向在输入设备的使用位置时,所述触控笔设备在所述用户的手的食指与拇指之间的空间上无支撑地平衡。
18.根据权利要求10所述的输入设备,其中,所述触控笔设备在所述第二部分与所述第一部分之间的交界处在纵向和横向上平衡。
19.一种被配置用于在增强/虚拟现实AR/VR环境中使用的输入设备,所述输入设备包括:
壳体,其包括:
第一部分;以及
第二部分;
其中,所述壳体的所述第一部分被配置成在所述输入设备在使用中时由用户的手握持,
其中,所述壳体的所述第二部分是非线性的并且弯曲以遍历三个维度,并且包括形成具有六边形截面的六边形环的部分,
其中,所述六边形环包括朝向与所述壳体的所述第一部分共线的线纵向弯曲的部分,并且
其中,所述六边形环包括多个平坦平面,其中,多个发射器或传感器被配置成在所述多个平坦平面上,所述多个发射器或传感器被配置成便于在所述AR/VR环境内的三维空间中跟踪所述输入设备。
20.根据权利要求19所述的输入设备,其中,所述多个平坦平面中的每一个在三维空间中被定向成彼此面向不同的方向,并且
其中,所述多个平坦平面中的每一个被定向成使得所述多个平坦平面中的至少四个从围绕所述输入设备的360度的任何点可见。
CN201910717412.XA 2018-08-03 2019-08-05 在增强/虚拟现实环境中使用的输入设备 Active CN110794958B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/054,944 2018-08-03
US16/054,944 US10719143B2 (en) 2018-08-03 2018-08-03 Input device for use in an augmented/virtual reality environment

Publications (2)

Publication Number Publication Date
CN110794958A true CN110794958A (zh) 2020-02-14
CN110794958B CN110794958B (zh) 2024-04-26

Family

ID=69168389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910717412.XA Active CN110794958B (zh) 2018-08-03 2019-08-05 在增强/虚拟现实环境中使用的输入设备

Country Status (3)

Country Link
US (2) US10719143B2 (zh)
CN (1) CN110794958B (zh)
DE (1) DE102019120861A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112835457A (zh) * 2021-02-06 2021-05-25 上海萃钛智能科技有限公司 一种3d魔术笔及基于该3d魔术笔的显示系统及其使用方法
CN113703575A (zh) * 2021-08-26 2021-11-26 歌尔光学科技有限公司 Vr手柄和vr设备
WO2022036643A1 (en) * 2020-08-20 2022-02-24 Huawei Technologies Co., Ltd. Ear-wearing type electronic device and method performed by the ear-wearing type electronic device

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10849532B1 (en) * 2017-12-08 2020-12-01 Arizona Board Of Regents On Behalf Of Arizona State University Computer-vision-based clinical assessment of upper extremity function
WO2019203848A1 (en) * 2018-04-20 2019-10-24 Hewlett-Packard Development Company, L.P. Tracking stylus in a virtual reality system
US11055056B1 (en) * 2018-09-25 2021-07-06 Facebook Technologies, Llc Split system for artificial reality
US11886650B2 (en) * 2019-04-19 2024-01-30 Apple Inc. Stylus-based input system for a head-mounted device
US11907431B2 (en) 2019-09-06 2024-02-20 Warner Bros. Entertainment Inc. Gesture recognition device with minimal wand form factor
GB2619595A (en) 2019-09-06 2023-12-13 Warner Bros Entertainment Inc Gesture-centric user interface
US20220335673A1 (en) * 2019-09-09 2022-10-20 Wonseok Jang Document processing system using augmented reality and virtual reality, and method therefor
US11372518B2 (en) * 2020-06-03 2022-06-28 Capital One Services, Llc Systems and methods for augmented or mixed reality writing
US20220004299A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic shape sketching
EP3936345A1 (en) * 2020-07-07 2022-01-12 Société BIC A writing instrument configured to be tracked when contacting a writing surface and method thereof
US11209916B1 (en) * 2020-07-30 2021-12-28 Logitech Europe S.A. Dominant hand usage for an augmented/virtual reality device
US11327571B2 (en) * 2020-09-12 2022-05-10 Darrion Vinh Nguyen Method and apparatus for computer-assisted drawing using pens with tracking marks
US11397478B1 (en) * 2021-02-26 2022-07-26 Logitech Europe S.A. Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11644907B2 (en) * 2021-02-26 2023-05-09 Logitech Europe S.A. Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11630504B2 (en) * 2021-03-16 2023-04-18 Htc Corporation Handheld input device and electronic system
CN116848494A (zh) * 2021-03-22 2023-10-03 株式会社和冠 控制器及追踪系统
KR102526843B1 (ko) * 2021-04-22 2023-04-27 한국기술교육대학교 산학협력단 증강현실 기반의 시촉각 ar 매체
CN117377932A (zh) 2021-05-06 2024-01-09 三星电子株式会社 电子装置及该电子装置的控制方法
US11762486B2 (en) * 2021-08-26 2023-09-19 Samsung Electronics Co., Ltd. Electronic device for performing plurality of functions using stylus pen and method for operating same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021288A1 (en) * 2010-03-31 2013-01-24 Nokia Corporation Apparatuses, Methods and Computer Programs for a Virtual Stylus
US20140098306A1 (en) * 2012-10-04 2014-04-10 Corning Incorporated Touch screen systems with interface layer
US8795077B1 (en) * 2008-01-25 2014-08-05 Ailive Inc. Game controllers with full controlling mechanisms
CN105117016A (zh) * 2015-09-07 2015-12-02 众景视界(北京)科技有限公司 用于虚拟现实和增强现实交互控制中的交互手柄
US20160282970A1 (en) * 2015-03-27 2016-09-29 Tampereen Yliopisto Haptic stylus
CN107430437A (zh) * 2015-02-13 2017-12-01 厉动公司 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
KR20180000009A (ko) * 2016-06-21 2018-01-02 한양대학교 에리카산학협력단 증강현실 생성 펜 및 이를 이용한 증강현실 제공 시스템
CN107783674A (zh) * 2016-08-27 2018-03-09 杨博 一种增强现实交互方法和动作感应触摸笔
WO2018094869A1 (zh) * 2016-11-26 2018-05-31 华为技术有限公司 可充电手写笔、电子设备和插头
US20180196515A1 (en) * 2017-01-11 2018-07-12 International Business Machines Corporation Simulating obstruction in a virtual environment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
DE102004013708A1 (de) 2004-03-18 2005-10-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Interaktionsvorrichtung, Interaktionssystem und Markersystem
US9864440B2 (en) * 2010-06-11 2018-01-09 Microsoft Technology Licensing, Llc Object orientation detection with a digitizer

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8795077B1 (en) * 2008-01-25 2014-08-05 Ailive Inc. Game controllers with full controlling mechanisms
US20130021288A1 (en) * 2010-03-31 2013-01-24 Nokia Corporation Apparatuses, Methods and Computer Programs for a Virtual Stylus
US20140098306A1 (en) * 2012-10-04 2014-04-10 Corning Incorporated Touch screen systems with interface layer
CN107430437A (zh) * 2015-02-13 2017-12-01 厉动公司 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
US20160282970A1 (en) * 2015-03-27 2016-09-29 Tampereen Yliopisto Haptic stylus
CN105117016A (zh) * 2015-09-07 2015-12-02 众景视界(北京)科技有限公司 用于虚拟现实和增强现实交互控制中的交互手柄
KR20180000009A (ko) * 2016-06-21 2018-01-02 한양대학교 에리카산학협력단 증강현실 생성 펜 및 이를 이용한 증강현실 제공 시스템
CN107783674A (zh) * 2016-08-27 2018-03-09 杨博 一种增强现实交互方法和动作感应触摸笔
WO2018094869A1 (zh) * 2016-11-26 2018-05-31 华为技术有限公司 可充电手写笔、电子设备和插头
US20180196515A1 (en) * 2017-01-11 2018-07-12 International Business Machines Corporation Simulating obstruction in a virtual environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
钟正;陈丽;史会芳;张月;: "基于触觉反馈的沉浸式虚拟仿真实验设计", 实验科学与技术, no. 06 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022036643A1 (en) * 2020-08-20 2022-02-24 Huawei Technologies Co., Ltd. Ear-wearing type electronic device and method performed by the ear-wearing type electronic device
CN112835457A (zh) * 2021-02-06 2021-05-25 上海萃钛智能科技有限公司 一种3d魔术笔及基于该3d魔术笔的显示系统及其使用方法
CN113703575A (zh) * 2021-08-26 2021-11-26 歌尔光学科技有限公司 Vr手柄和vr设备
WO2023025043A1 (zh) * 2021-08-26 2023-03-02 歌尔股份有限公司 Vr手柄和vr设备

Also Published As

Publication number Publication date
CN110794958B (zh) 2024-04-26
US20210011562A1 (en) 2021-01-14
US20200042111A1 (en) 2020-02-06
DE102019120861A1 (de) 2020-02-06
US10719143B2 (en) 2020-07-21
US11086416B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
CN110794958B (zh) 在增强/虚拟现实环境中使用的输入设备
US11221730B2 (en) Input device for VR/AR applications
US11093053B2 (en) Input device
US20210263593A1 (en) Hand gesture input for wearable system
US11353967B2 (en) Interacting with a virtual environment using a pointing controller
CN108475120B (zh) 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
US20200310561A1 (en) Input device for use in 2d and 3d environments
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
US8570273B1 (en) Input device configured to control a computing device
CN108139805B (zh) 用于在虚拟现实环境中的导航的控制系统
US11907448B2 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User&#39;s Range of Motion
WO2016189372A2 (en) Methods and apparatus for human centric &#34;hyper ui for devices&#34;architecture that could serve as an integration point with multiple target/endpoints (devices) and related methods/system with dynamic context aware gesture input towards a &#34;modular&#34; universal controller platform and input device virtualization
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
US20090322680A1 (en) Radio frequency pointing device
US11397478B1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
CN112068757B (zh) 一种用于虚拟现实的目标选择方法及系统
KR102184243B1 (ko) Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템
KR101530340B1 (ko) 모션 트래커 시스템 및 자세방위 시스템을 통합하여 3차원 가상공간에서 손의 위치 및 자세 정보를 구현하는 움직임 감지 시스템
US20200285325A1 (en) Detecting tilt of an input device to identify a plane for cursor movement
CN109634427B (zh) 基于头部追踪的ar眼镜控制系统及控制方法
Schlattmann et al. Real-time bare-hands-tracking for 3D games
Nguyen 3DTouch: Towards a Wearable 3D Input Device for 3D Applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant