CN111831110A - 头戴式设备的键盘操作 - Google Patents

头戴式设备的键盘操作 Download PDF

Info

Publication number
CN111831110A
CN111831110A CN202010289840.XA CN202010289840A CN111831110A CN 111831110 A CN111831110 A CN 111831110A CN 202010289840 A CN202010289840 A CN 202010289840A CN 111831110 A CN111831110 A CN 111831110A
Authority
CN
China
Prior art keywords
keyboard
user
mounted device
display
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010289840.XA
Other languages
English (en)
Other versions
CN111831110B (zh
Inventor
P·X·王
K·J·亨德伦
A·J·勒赫曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN111831110A publication Critical patent/CN111831110A/zh
Application granted granted Critical
Publication of CN111831110B publication Critical patent/CN111831110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了头戴式设备的键盘操作。本发明公开的是,对键盘、另一个输入设备和/或任何表面的操作能够通过头戴式设备的特征来增强,该头戴式设备能够基于用户的动作来显示反馈、输出或其他特征。例如,该头戴式设备能够显示由用户对键盘的操作生成的文本。该文本能够以允许用户易于看到键盘、用户的手以及对键盘的操作所生成的文本的方式来显示。该头戴式设备还能够显示促进用户对键盘的操作的特征。例如,能够显示建议的文本、击键或与键盘的按键相关联的其他特征以供用户选择。又如,该键盘能够以符合用户的手在头戴式设备的视场内的布置的位置和取向来显示。

Description

头戴式设备的键盘操作
相关申请的交叉引用
本申请要求2019年4月15日提交的名称为“KEYBOARD OPERATION WITH HEAD-MOUNTED DEVICE”的美国临时申请62/834,175的权益,其全部内容以引用方式并入本文。
技术领域
本说明书整体涉及头戴式设备,并且更具体地,涉及头戴式设备的键盘的操作。
背景技术
头戴式设备可由用户佩戴以在该用户的视场内显示视觉信息。头戴式设备可以用作虚拟现实(VR)系统、增强现实(AR)系统和/或混合现实(MR)系统。用户可以观察头戴式设备提供的输出,诸如在显示器上提供的视觉信息。显示器可以可选地允许用户观察头戴式设备外部的环境。由头戴式设备提供的其他输出可以包括音频输出和/或触觉反馈。用户可以通过提供用于由头戴式设备的一个或多个部件进行处理的输入来进一步与头戴式设备交互。例如,当设备安装到用户的头部时,用户可以提供触觉输入、语音命令和其他输入。
附图说明
本主题技术的一些特征在所附权利要求书中被示出。然而,出于解释的目的,在以下附图中阐述了本主题技术的若干实施方案。
图1示出了根据本公开的一些实施方案的使用中的头戴式设备和键盘的视图。
图2示出了根据本公开的一些实施方案的使用中的头戴式设备和输入设备的视图。
图3示出了根据本公开的一些实施方案的使用中的头戴式设备和表面的视图。
图4示出了根据本公开的一些实施方案的头戴式设备的框图。
图5示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供键盘和用户的手的视图。
图6示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供键盘、用户的手以及文本的视图。
图7示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供键盘、用户的手以及在窗口内的文本的视图。
图8示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供键盘、用户的手以及具有可用选择的文本的视图。
图9示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供具有可用选择的按键的视图。
图10示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供具有虚拟对象的按键的视图。
图11示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供键盘、用户的手以及虚拟指示符的视图。
图12示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供用户的手相对于表面的视图。
图13示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供具有基于用户的手的位置的布置的键盘的视图。
图14示出了根据本公开的一些实施方案的头戴式设备的显示器,该显示器提供具有基于用户的手的位置的布置的键盘部分的视图。
具体实施方式
下面示出的具体实施方式旨在作为本主题技术的各种配置的描述并且不旨在表示本主题技术可被实践的唯一配置。附图被并入本文并且构成具体实施方式的一部分。具体实施方式包括具体的细节旨在提供对本主题技术的透彻理解。然而,对于本领域的技术人员来说将清楚和显而易见的是,本主题技术不限于本文示出的具体细节并且可在没有这些具体细节的情况下被实践。在一些情况下,以框图形式示出了熟知的结构和部件,以便避免使本主题技术的概念模糊。
头戴式设备,诸如头戴式显示器、头戴式耳机、护目镜、智能眼镜、平视显示器等,可执行由可穿戴设备随附的部件(例如,传感器、电路和其他硬件)管理的一系列功能。虽然头戴式设备可以各种方式向用户提供输出,但是允许头戴式设备接收来自用户的输入也可以是有帮助的。如本文所述的头戴式设备可提供沉浸式的用户体验,同时允许用户以自然、熟悉且直观的方式与系统进行交互。
键盘是许多计算机用户熟悉的输入设备的一个示例。该头戴式设备的使用可保持用户的手以与对键盘的使用类似的方式自由操作键盘或另一个设备。对键盘、另一个输入设备和/或任何表面的操作可通过头戴式设备的特征来增强,该头戴式设备可基于对键盘的使用来显示反馈、输出或其他特征。例如,该头戴式设备能够显示由用户对键盘的操作生成的文本。该文本能够以允许用户易于看到键盘、用户的手以及对键盘的操作所生成的文本的方式来显示。该头戴式设备还能够显示促进用户对键盘的操作的特征。例如,能够显示建议的文本、击键或与键盘的按键相关联的其他特征以供用户选择。又如,该键盘能够以符合用户的手在头戴式设备的视场内的布置的位置和取向来显示。
以下参考图1-图14来论述这些实施方案和其他实施方案。然而,本领域的技术人员将容易地理解,本文相对于这些附图所给出的详细描述仅出于说明性目的,而不应被理解为是限制性的。
根据一些实施方案,例如,如图1所示,头戴式设备100包括框架190,该框架佩戴在用户的头部上。框架190可被定位在用户的眼睛前面以在用户的视场内提供信息。框架190可提供鼻垫或另一个特征以搁置于用户的鼻部上。框架190可利用固定元件120支撑在用户的头部上。固定元件120可沿用户的头部的相对侧缠绕或延伸。固定元件120可包括用于缠绕或以其他方式接合或搁置于用户的耳朵上的耳机。应当理解,可应用其他构型将头戴式设备100固定到用户的头部。例如,除了头戴式设备100的所示部件之外或代替该头戴式设备的所示部件,可使用一个或多个绑带、条带、束带、盖帽、帽子或其他部件。又如,固定元件120可包括多个部件以接合用户的头部。
框架190可提供围绕其周边区域的结构以将框架190的任何内部部件支撑在它们的组装位置。例如,框架190可包封并支撑各种内部部件(包括例如集成电路芯片、处理器、存储器设备和其他电路),以为头戴式设备100提供计算和功能操作,如本文进一步所讨论的。框架190和/或固定元件120内和/或框架190和/或固定元件120上可包括任何数量的部件,并且这些部件可操作地彼此连接。
框架190可包括和/或支撑一个或多个相机150。相机150可被定位在框架190的外侧上或外侧附近,以捕获头戴式设备100外部的视图的图像。捕获到的图像可用于显示给用户或者可被存储用于任何其他目的。
显示器110可任选地透射来自物理环境的光以供用户查看。此类显示器110可包括光学特性,诸如用于基于来自物理环境的入射光进行视力矫正的透镜。附加地或另选地,显示器110可提供信息来作为在用户视场内的显示。可除了(例如,覆盖)物理环境之外或者替代物理环境的视图来提供此类信息。
物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
相反,计算机生成现实(CGR)环境是指人们经由电子系统感知和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,该音频对象创建3D或空间音频环境,该3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置成在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或不具有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置成选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
再次参见图1,系统1的头戴式设备100可与输入设备诸如键盘300一起使用。用户可通过该头戴式设备的显示器110观察键盘300或该键盘的表示。显示可包括键盘300、按键302和/或手20的图像和/或其他表示。应当理解,键盘可以是或包括具有用于对应的字母和/或数字输入的按键的传统键盘。应当理解,可设想其他类型的键盘,诸如数字键盘、电话拨号键盘、安全性代码输入键盘、自定义键盘等。
用户的手20可被施加到键盘300的按键302上,作为由用户10选择的文本(例如,字符、数字、符号等)的指示。按键302的操作可产生由头戴式设备100接收、显示、存储和/或传输的文本。头戴式设备100能够以捕获相机150的视场内的键盘300和/或手20的一个或多个视图的方式来操作相机150。可在头戴式设备100的显示器110上产生捕获到的图像以供用户10观察。如本文所用,相机是可光学地捕获环境(例如,在可见光光谱之内和/或之外)的视图的设备。
用户施加的接触和/或力可被系统1的一个或多个部件检测到。能够以各种方式中的一种或多种方式将用户10的手20对按键302的操作传达给头戴式设备100。
例如,键盘300可操作地连接到头戴式设备100,使得按键302的操作生成从键盘300传输至头戴式设备100的信号。此类通信可沿键盘300与头戴式设备100之间的有线和/或无线接口来实现。又如,可提供一个或多个中间设备以促进键盘300与头戴式设备100之间的单向或双向通信。
又如,头戴式设备100可基于由头戴式设备100的相机150捕获到的视图来检测用户的手20对按键302的操作。例如,可光学地观察到手20相对于键盘300和按键302的位置。又如,手20的手指的运动和/或当按键302被按压时的运动可被相机150或另一个设备检测到。
又如,用户的手20对键盘300的按键302的操作可至少部分地被跟踪设备200检测到。例如,如图1所示,可将跟踪设备200紧邻键盘300放置,以跟踪用户的手20和/或键盘300的按键302在操作期间的运动。跟踪设备200可与头戴式设备100进行通信,使得跟踪设备200进行的检测可生成从跟踪设备200传输至头戴式设备100的信号。此类通信可沿跟踪设备200与头戴式设备100之间的有线和/或无线接口来实现。又如,可提供一个或多个中间设备以促进跟踪设备200与头戴式设备100之间的单向或双向通信。附加地或另选地,跟踪设备200可与用户的手20接触或耦接到用户的手20以促进检测。例如,跟踪设备200可包括由用户的手佩戴的用于检测用户何时相对于另一个对象移动和/或向另一个对象施加力的一个或多个部件。此类部件可包括惯性测量单元(“IMU”),该惯性测量单元提供关于手和/或手指的特征的信息,诸如其惯性角。例如,IMU可包括基于六个自由度(x、y、z、θx、θy和θz)计算位置、速度和/或加速度的六自由度IMU。此类部件还可包括力检测,诸如手指与表面之间的力和/或因施加的力而引起的其他变形或动作。附加地或另选地,用户可佩戴手套或增强头戴式设备的相机进行的成像的另一个物品以检测手部动作。
应当理解,可提供上述的组合,使得键盘300的操作基于多个检测而被检测到。例如,头戴式设备100可独立地操作和/或基于来自跟踪设备200和/或键盘300的信号来操作。在不需要来自键盘300的信号的情况下,键盘300可提供不具有将响应于按键302的操作而生成信号的任何电子器件的常规键盘布局的结构。因此,键盘300可向用户提供对按键302的位置的标引,而不需要键盘300内的将响应于按键302的操作的任何电子器件。另外,键盘300可以是紧凑的、便携式的和/或可折叠的,以便于其运输和储存。
现在参见图2,头戴式设备100可与另一个输入设备诸如输入设备400一起使用。输入设备400可能缺少示出为键盘300的一部分的按键302中的一些或全部。例如,输入设备400可提供接收来自用户的触觉输入的触敏表面。用户可通过该头戴式设备的显示器110来观察输入设备400。该显示器可包括当通过显示器110观看时在输入设备400上的一个位置处显示的按键(例如,虚拟按键)。用户的手20可通过按压输入设备400的表面的区域来操作该输入设备。此类接触和/或力可被系统1的一个或多个部件检测到。输入设备400还可响应于来自用户的手20的触摸输入来提供触觉反馈。例如,输入设备400可在用户输入的区域中提供触觉反馈来作为对已接收到的输入的确认。
例如,输入设备400可操作地连接到头戴式设备100,使得输入设备400的操作生成从输入设备400传输至头戴式设备100的信号。此类通信可沿输入设备400与头戴式设备100之间的有线和/或无线接口来实现。又如,可提供一个或多个中间设备以促进输入设备400与头戴式设备100之间的单向或双向通信。
又如,头戴式设备100可基于由头戴式设备100的相机150捕获到的视图来检测用户的手20对输入设备400的操作。例如,可光学地观察到手20相对于输入设备400的位置。又如,手20的手指的运动和/或当输入设备400的区域被按压时的运动可被相机150检测到。
又如,用户的手20对输入设备400的操作可至少部分地被跟踪设备200检测到。例如,如图2所示,可将跟踪设备200紧邻输入设备400放置,以跟踪用户的手20和/或输入设备400的表面区域在操作期间的运动。跟踪设备200可与头戴式设备100进行通信,使得跟踪设备200进行的检测可生成从跟踪设备200传输至头戴式设备100的信号,如上所述。
应当理解,可提供上述组合,使得输入设备400的操作基于多个检测而被检测到。例如,头戴式设备100可独立地操作和/或基于来自跟踪设备200和/或输入设备400的信号来操作。
现在参见图3,头戴式设备100可与表面500一起使用。该表面可以是用户可与之交互的任何对象的表面,诸如桌子、书桌、墙壁或其他表面。用户可通过该头戴式设备的显示器110来观察表面500。该显示器可包括当通过显示器110观看时在表面500上的一个位置处显示的按键(例如,虚拟按键),如本文进一步所述。
施加到表面500的接触和/或力可被系统1的一个或多个部件检测到。例如,头戴式设备100可基于由头戴式设备100的相机150捕获到的视图来检测用户的手20相对于表面500的运动。例如,可光学地观察到手20相对于表面500的位置。
又如,用户的手20对表面500的操作可至少部分地被跟踪设备200检测到。例如,如图3所示,可将跟踪设备200紧邻表面500放置,以跟踪用户的手20在操作期间的运动。跟踪设备200可与头戴式设备100进行通信,使得跟踪设备200进行的检测可生成从跟踪设备200传输至头戴式设备100的信号,如上所述。
键盘300、输入设备400和/或表面500在使用期间可以是静止的或移动的。例如,键盘300、输入设备400和/或表面500可相对于外部环境、用户10和/或头戴式设备100具有固定的或可调节的位置和/或取向。键盘300、输入设备400和/或表面500可以是移动的以适应用户的移动。此类移动性可以是自动化的,并且例如通过车辆(例如,无人机)来促进。
用户10能够以各种方式与键盘300、输入设备400和/或表面500进行交互。例如,用户通过键入来提供输入,就像在常规键盘上按压按键那样。应当理解,可设想其他输入,诸如手写(例如,利用手指、触笔或另一个设备)、绘图和/或语音。此类输入可由头戴式设备100识别和/或接收,该头戴式设备随后可执行本文所述的动作。
应当理解,可提供上述组合,使得输入设备400的操作基于多个检测而被检测到。例如,头戴式设备100可独立地操作和/或基于来自跟踪设备200的信号来操作。此类组合可增强检测的准确性和/或效率。
现在参见图4,头戴式设备的部件可被可操作地连接以提供本文所述的性能。图4示出了根据本发明的一个实施方案的例示性头戴式设备100的简化框图。应当理解,可在头戴式设备100的框架和/或固定元件中的任一者或两者上设置本文所述的部件。
如图4所示,头戴式设备100可包括具有一个或多个处理单元的处理器170,该一个或多个处理单元包括其上存储有指令的存储器218或被配置为访问其上存储有指令的存储器218。该指令或计算机程序可被配置为执行相对于头戴式设备100所述的操作或功能中的一者或多者。处理器170可被实现为能够处理、接收或传输数据或指令的任何电子设备。例如,处理器170可包括以下项中的一者或多者:微处理器、中央处理单元(CPU)、专用集成电路(ASIC)、数字信号处理器(DSP)或此类设备的组合。如本文所述,术语“处理器”意在涵盖单个处理器或处理单元、多个处理器、多个处理单元或一个或多个其他适当配置的计算元件。
存储器218可存储可由头戴式设备100使用的电子数据。例如,存储器218可存储电子数据或内容,诸如音频和视频文件、文档和应用程序、设备设置和用户偏好、用于各种模块、数据结构或数据库的定时和控制信号或数据等。存储器218可被配置为任何类型的存储器。仅以举例的方式,存储器218可被实现为随机存取存储器、只读存储器、闪存存储器、可移动存储器、或其他类型的存储元件或此类设备的组合。
头戴式设备100还可包括用于为用户显示视觉信息的显示器110。显示器110可提供视觉(例如,图像或视频)输出。显示器110可以是或包括不透明、透明和/或半透明的显示器。显示器110可具有透明或半透明的媒介,代表图像的光通过该媒介被引导到用户的眼睛。显示器110可利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置成选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。头戴式设备100可包括光学子组件214,该光学子组件被配置为有助于光学地调节和正确地投影由显示器110显示的基于图像的内容以用于近距离观看。光学子组件214可包括一个或多个透镜、反射镜或其他光学设备。
头戴式设备100可包括用于捕获头戴式设备100外部环境的视图的相机150。相机150可包括光学传感器,诸如光电二极管或光电二极管阵列。附加地或另选地,相机150可包括被布置为各种构型以用于检测本文所述的用户输入的各种类型的光学传感器中的一者或多者。相机150可被配置为捕获位于相机150的视场内的场景或对象的图像。可根据多种数字格式中的任何一种格式将该图像存储在数字文件中。在一些实施方案中,头戴式设备100包括相机,该相机包括由电荷耦合器件(CCD)和/或互补金属氧化物半导体器件(CMOS)形成的图像传感器,以及光伏电池、光阻部件、激光扫描器等。应当理解,相机可包括其他运动感测设备。
相机150可提供一个或多个窗口(例如,开口、传输介质和/或透镜)以透射光来用于图像捕获和/或检测。该窗口可包括透光材料。该窗口可为透射光提供光学效果。例如,该窗口可包括相对于图像传感器设置的一个或多个光学部件,包括例如透镜、漫射器、滤光器、快门等。还应当理解,头戴式设备100可包括任何数量的相机。这些相机可被定位和取向以捕获不同的视图。例如,一个相机可从一个视角捕获对象的图像,并且另一个相机可从另一个视角捕获对象的图像。附加地或另选地,其他相机可捕获未被第一相机捕获的对象的图像。
头戴式设备100可包括用于跟踪佩戴头戴式设备100的用户的特征的一个或多个传感器140。例如,此类传感器可执行面部特征检测、面部运动检测、面部识别、眼睛跟踪、用户情绪检测、用户表情检测、语音检测等。此类眼睛跟踪可用于确定要在显示器110上显示的信息的位置。
头戴式设备100可包括电池220,该电池可对头戴式设备100的部件进行充电和/或供电。电池220还可对连接到头戴式设备100的部件(诸如便携式电子设备202)进行充电和/或供电,如本文进一步所讨论的。
头戴式设备100可包括输入/输出部件226,该输入/输出部件可包括用于将头戴式设备100连接到其他设备的任何合适的部件。合适的部件可包括例如音频/视频插孔、数据连接器或任何附加的或另选的输入/输出部件。输入/输出部件226可包括按钮、按键或可充当供用户操作的键盘的另一个特征。因此,本文关于键盘的描述可应用于集成在头戴式设备100上的键盘、按键和/或其他输入特征。此类输入/输出部件226可固定地或可移除地附接到头戴式设备100的主体。
头戴式设备100可包括用于使用任何合适的通信协议与一个或多个服务器或其他设备进行通信的通信电路228。例如,通信电路228可支持Wi-Fi(例如,802.11协议)、以太网、蓝牙、高频系统(例如,900MHz、2.4GHz和5.6GHz通信系统)、红外、TCP/IP(例如,TCP/IP层的每一层中使用的任何协议)、HTTP、BitTorrent、FTP、RTP、RTSP、SSH、任何其他通信协议或它们的任何组合。通信电路228还可包括用于传输和接收电磁信号的天线。
头戴式设备100可包括如本文所述的麦克风230。麦克风230可被可操作地连接到处理器170以用于检测声级以及检测的通信以便进一步处理,如本文进一步所述。
头戴式设备100可包括如本文所述的扬声器222。扬声器222可被可操作地连接到处理器170以用于控制扬声器输出(包括声级),如本文进一步所述。
头戴式设备100可包括一个或多个其他传感器。此类传感器可以被配置为基本上感测任何类型的特征,诸如但不限于图像、压力、光、触摸、力、温度、位置、运动等。例如,传感器可以是光电探测器、温度传感器、光或光学传感器、大气压力传感器、湿度传感器、磁体、陀螺仪、加速度计、化学传感器、臭氧传感器、微粒计数传感器等等。又如,传感器可以是用于跟踪生物识别特征(诸如健康和活动量度)的生物传感器。
头戴式设备100可任选地连接到便携式电子设备202,该便携式电子设备可提供某些功能。为了简洁起见,图4将不详细描述便携式电子设备202。然而应当理解,便携式电子设备202能够以包括各种特征的各种形式来体现,这些特征中的一些或全部可被头戴式设备100利用(例如,输入/输出、控制、处理、电池等)。便携式电子设备202可提供手持式形状因数(例如,重量轻、适配在口袋中的小型便携式电子设备等)。尽管不限于这些,但示例包括媒体播放器、电话(包括智能电话)、PDA、计算机等。便携式电子设备202可包括用于向用户呈现媒体的图形部分的屏幕213。屏幕213可用作头戴式设备100的主屏幕。
头戴式设备100可包括可操作以接收便携式电子设备202的扩展坞206。扩展坞206可包括连接器(例如,Lightning、USB、火线、电源、DVI等),该连接器可插入便携式电子设备202的互补连接器中。扩展坞206可包括用于帮助在接合期间将连接器对准并且将便携式电子设备202物理地耦接到头戴式设备100的特征。例如,扩展坞206可限定用于放置便携式电子设备202的腔。扩展坞206还可包括用于将便携式电子设备202固定在该腔内的保持特征部。扩展坞206上的连接器可用作便携式电子设备202与头戴式设备100之间的通信接口。
现在参见图5,头戴式设备100的显示器110可提供键盘600、键盘的按键602和/或用户的手620的视图。在显示器110的视图中提供的一个或多个对象可对应于环境中的物理对象。例如,头戴式设备100的相机可捕获物理键盘、该物理键盘的物理按键和/或用户的手的视图。基于捕获到的视图,显示器110可提供包括该物理对象的图像的显示。附加地或另选地,显示器110可提供对应于外部环境中的物理对象的虚拟对象的显示。例如,键盘600、按键602和/或手620可被渲染为具有基于外部环境中的物理对象的检测的特征(例如,位置、取向、颜色、尺寸等)的虚拟对象。附加地或另选地,显示器110可提供不对应于外部环境中的物理对象的虚拟对象的显示。例如,键盘600和/或按键602可被渲染为虚拟对象,即使不存在物理键盘或按键。又如,虚拟键盘和/或虚拟按键可由显示器110显示,就像投影到表面上一样,即使没有实际投影设置在该表面上。此类虚拟键盘和/或虚拟按键仅可能够通过显示器110被观察到。应当理解,视图可包括物理对象和虚拟对象的视图。
手620或其部分可与促进它的可见性以及其他对象的可见性的特征一起显示。例如,手620可显示(例如,渲染)为半透明的(例如,半不透明的),使得键盘600和/或按键602的部分可透过手620来查看。附加地或另选地,手620的部分可为完全透明的,而其他部分可为至少部分地不透明的,使得透明的部分提供对下面的对象(例如,键盘600和/或按键602)的查看。键盘600和/或按键602可设置有突出显示、发光、轮廓、阴影或允许其部分透过手620更加清晰可见的其他对比特征。
现在参见图6,用户可例如通过按照所选择的字符的序列按压键盘的按键来操作键盘以产生文本。如本文所述,该文本可被头戴式设备100检测到并且/或者传送至该头戴式设备并显示在显示器110上。如图6所示,文本610能够以至少部分地与键盘600、按键602和/或手620重叠的位置和/或取向来显示。因此,文本610可由紧邻用于产生该文本的工具(例如,按键)的用户容易地观察到。然后,用户可同时和/或紧接地观察文本和工具两者。在用户注视的聚焦区域内,该用户可观察键盘以增强键盘操作的准确性。另外,在用户注视的相同聚焦区域内,用户可观察文本以验证该用户已正确操作键盘并且作为参考来确认先前已键入的内容。在此布置中,用户可在操作键盘的同时更容易地观察文本,从而避免使用户的注视从键盘上移开来观察文本的中断。因此,该操作对于用户而言更有效并且中断更少。
虽然文本610在图6中被示为与键盘600、按键602以及手620重叠,但是应当理解,文本610可被定位和取向成使得只有其一部分提供此类重叠。附加地或另选地,文本610可被定位和/或取向成使得文本610被设置为紧邻键盘600、按键602和/或手620,但不与之重叠。文本610的尺寸可被设定成使得文本610中的一些或全部适配在显示器110的与键盘600、按键602和/或手620重叠的区域内。
文本610可与促进其可见性的特征一起显示。例如,文本610可被显示为半透明的(例如,半不透明的),使得键盘600、按键602和/或手620的部分可透过文本610来查看。又如,文本610可设置有轮廓、阴影或当与其他对象重叠时允许该文本可更加清晰可见的其他对比特征。附加地或另选地,文本610的部分可为完全透明的,而其他部分可为至少部分地不透明的,使得透明的部分提供对下面的对象(例如,键盘600、按键602和/或手620)的查看。
文本610的位置可基于各种因素进行调节。文本610可保持在与键盘重叠的位置,即使用户以使键盘被重新定位在显示器110的显示区域内的方式移动。因此,当用户移动时,文本610可继续被投影在键盘600、按键602和/或手620的上方。附加地或另选地,可利用眼睛跟踪设备来检测用户的注视,并且文本610可移动到用户眼睛的注视方向内或附近。
现在参见图7,键盘和/或用户的手可被显示为与键盘操作所产生的文本重叠。例如,可在显示在显示器110上的窗口640内提供文本610。如图7所示,键盘600、按键602和/或手620能够以至少部分地与文本610重叠的位置和/或取向来显示。
键盘600、按键602和/或手620可被显示为半透明的(例如,半不透明的),使得窗口640和/或文本610的部分可透过键盘600、按键602和/或手620来查看。附加地或另选地,键盘600、按键602和/或手620的部分可为完全透明的,而其他部分可为至少部分地不透明的,使得透明的部分提供对下面的对象(例如,窗口640和/或文本610)的查看。因此,文本610可由紧邻用于产生该文本的工具的用户容易地观察到。
现在参见图8,可在显示器110上将文本连同供用户选择的其他特征一起提供。例如,如图8所示,提供与原始文本610相邻的附加文本612。附加文本612可基于原始文本610。例如,附加文本612可指示建议的完成项,当该建议的完成项与原始文本610组合时,形成文本块。此类建议的完成项可基于用户的历史文本选择、词典、其他用户中的常见用法和/或可用于预测用户输入的其他来源。
用户能够以各种方式中的一种或多种方式与附加文本612进行交互。例如,用户可选择附加文本612的多个部分中的一个部分。进行此类选择的输入可包括手620的手势和/或能够由头戴式设备100检测到和/或接收到的其他输入。应当理解,可接收和处理供用户选择的其他输入,包括头戴式设备的触觉输入、另一个设备的触觉输入、语音命令、眼睛移动、它们的组合等。在提供附加文本612的多个部分的情况下,用户可选择要插入作为原始文本610的一部分的一个部分。这允许用户利用比在键盘600上键入每个字符所需的动作更少的动作来完成文本串。又如,用户可提供手势和/或其他输入以循环通过附加文本612的多个部分中的所选择的一个部分。其他手势可确认该选择并且插入所选择的文本。
附加文本612可被显示为与键盘600、按键602和/或手620重叠。例如,附加文本612可表现为原始文本610的扩展。附加地或另选地,附加文本612可被显示为不与键盘600、按键602和/或手620重叠。因此,附加文本612可更容易地与原始文本610区分并由用户在显示器110的与包含键盘600和按键602的区域分开的区域中与之进行交互。
现在参见图9,在键盘操作期间,某些对象可定位成与按键中的所选择的按键相邻。例如,如图9所示,按键602中的所选择的按键可由用户来操作。基于此类操作,可显示附加文本612。
附加文本612可基于按键602中的所选择的按键。例如,附加文本612可指示建议的完成项,该建议的完成项当与对应于按键602中的所选择的按键的字符组合时,形成完整字词、短语和/或句子。此类建议的完成项可基于用户的历史文本选择、词典、其他用户中的常见用法和/或可用于预测用户输入的其他来源。
用户能够以各种方式中的一种或多种方式与附加文本612进行交互。例如,用户可选择附加文本612的多个部分中的一个部分。进行此类选择的输入可包括手620的手势和/或能够由头戴式设备100检测到和/或接收到的其他输入。应当理解,可接收和处理供用户选择的其他输入,包括头戴式设备的触觉输入、另一个设备的触觉输入、语音命令、眼睛移动、它们的组合等。在提供附加文本612的多个部分的情况下,用户可选择要与对应于按键602中的所选择的按键的字符组合的一个部分。这允许用户利用比在该键盘上键入每个字符所需的动作更少的动作来完成文本串。
附加文本612可显示成与按键602中的所选择的按键相邻。因此,附加文本612可更容易地与原始文本610区分并由用户在显示器110的与包含按键602中的所选择的按键的区域分开的区域中与之进行交互。附加地或另选地,附加文本612可被显示为与按键602中的所选择的按键重叠。例如,附加文本612可表现为按键602中的所选择的按键的扩展。
现在参见图10,在键盘操作期间,其他对象可定位成与按键中的所选择的按键相邻。例如,如图9所示,按键602中的所选择的按键可由用户来操作。基于此类操作或按键602的其他标识,可显示虚拟对象614。此类虚拟对象614可包括图标、符号、图形、字词、图片或可显示的其他可见特征。又如,多个按键602可各自具有根据按键而显示的对应的虚拟对象614。对于不同的对应的按键602,虚拟对象614可以是不同的。虚拟对象614可在用户操作对应的按键602之前、期间和/或之后显示。虚拟对象614可显示成与按键602中的所选择的按键相邻、靠近和/或重叠。
用户可以各种方式中的一种或多种方式与虚拟对象614进行交互。例如,用户可选择多个虚拟对象614中的一个虚拟对象来提供附加功能。进行此类选择的输入可包括手的手势和/或能够由头戴式设备100检测到和/或接收到的其他输入。应当理解,可接收和处理供用户选择的其他输入,包括头戴式设备的触觉输入、另一个设备的触觉输入、语音命令、眼睛移动、它们的组合等。
现在参见图11,键盘或其他输入设备可与显示与用户对键盘的操作相关的虚拟指示符的头戴式设备一起来操作。如图11所示,头戴式设备100的显示器110可提供键盘600、按键602和/或用户的手620的视图。可提供一个或多个虚拟特征以增强用户对键盘600的感知和观察。例如,可在键盘600的视图的至少一部分周围提供边界指示符630。边界指示符630可包围和/或围绕按键602中的一些或全部。边界指示符630可向用户提供键盘600和/或其按键602的位置的能够易于辨别的指示符。可在手620的上方或下方提供边界指示符630。边界指示符630可被显示为半透明的(例如,半不透明的),使得键盘600、按键602和/或用户的手620的部分可透过边界指示符630来查看。
该头戴式设备的显示器可在键盘的按键的上方和/或附近提供该指示符的视图。如图11所示,可基于按键602的操作来提供按键指示符632。例如,当按键602被用户的手620按压时,可在已被按压的按键602处或其附近提供按键指示符632。此类按键指示符632可用于向用户提供已接收到按键按压的确认。例如,虚拟键盘的图示可与对应于对应物理键盘的物理按键的虚拟按键一起显示。当物理按键被操作时,虚拟按键被动画化成像物理按键那样行进。虚拟按键可具有至少一些与物理按键不同的特征。例如,虚拟按键可比物理按键高,并且动画化的行进可比物理按键的行进更夸张。这向用户提供了更显眼的视觉反馈和已接收到该动作的确认。附加地或另选地,当用户的手620的手指接近按键602时,可在对应的按键602处或附近提供按键指示符632。按键指示符632的一个或多个特征可基于用户的手620与对应的按键602之间的距离。按键指示符632可基于用户的手与对应的按键之间的距离动态地更新。例如,随着用户的手620接近对应的按键602时,按键指示符632可变大,并且/或者随着用户的手620远离对应的按键602移动时,按键指示符632可变小。还可基于用户的手620来改变其他特征,诸如形状、颜色、纵横比等。按键指示符632可包括动画。按键指示符632可被显示为半透明的(例如,半不透明的),使得键盘600、按键602和/或用户的手620的部分可透过按键指示符632来查看。按键指示符可包括视觉输出之外的输出。例如,该指示符可包括音频和/或触觉反馈。例如,按键按压可导致该头戴式设备输出与物理键盘上按键按压的熟悉声音对应的声音。应当理解,在操作一个或多个按键时,该头戴式设备还可提供其他声音。这些声音可以是全局的或特定于位置的。例如,响应于不同位置处的按键的操作的声音输出可根据对应的按键的位置而输出。又如,键盘的一侧(例如,左侧或右侧)上的按键的操作可导致从该头戴式设备的对应侧(例如,左侧或右侧)上的扬声器发出声音。这可向用户提供对该系统正在检测的动作的更多空间感知。
附加地或另选地,可在用户的动作之前或以独立于用户的动作的其他方式来提供按键指示符。如图11进一步所示,可提供按键指示符634以将用户引导至一个或多个按键602。例如,该头戴式设备可通过在对应的按键处或附近提供按键指示符634来指示建议的击键和/或击键的组合。此类按键指示符可作为教程或故障诊断操作的一部分提供。因此,它们可在用户操作对应的按键之前提供。当用户执行对应的击键和/或击键的组合时,可从视图中移除此类按键指示符。按键指示符634可包括动画。按键指示符634可被显示为半透明的(例如,半不透明的),使得键盘600、按键602和/或用户的手620的部分可透过按键指示符634来查看。
附加地或另选地,可基于来自用户的进一步输入来提供其他指示符。例如,可基于用户的键入、手势和/或眼睛移动来突出显示或以其他方式修改一个或多个按键和/或文本。
现在参见图12和图13,头戴式设备可基于用户的手相对于表面的布置来提供虚拟键盘。如图12所示,头戴式设备100的显示器110可提供表面690的视图。表面690可以是任何表面,包括输入设备的表面或用户可触及的任何表面。因此,用户可将手放置在表面690上,并且该头戴式设备可检测手在表面690上的位置和/或取向。此类检测可在操作的初始(例如,设置)阶段期间执行。操作的此类初始阶段可由用户选择或自动检测。用户的手的位置650可对应于手的自然、放松的位置,使得用户在此类布置下感觉舒适。位置650可各自对应于手的手指中的一者或多者与表面690之间的接触点。
如图13所示,头戴式设备100的显示器110可提供具有按键602的键盘600的视图。键盘600可被显示为在表面690上的投影。键盘600和/或按键602的位置、尺寸、取向和/或其他特征可至少在上述初始阶段期间基于用户的手在表面690上的位置650。例如,键盘600可具有将所选择的一组按键放置在手的位置650处或附近的位置、尺寸和/或取向。例如,键盘600可被布置为使得某些按键602位于手的静止位置(例如,对于左手为“a”、“s”、“d”、“f”和空格键,对于右手为“j”、“k”、“l”和空格键)。在初始阶段之后,键盘600可保持相对于表面690的该布置,即使在用户的手开始移动(例如,操作键盘)之后。可根据需要为用户提供手动调节键盘的操作。附加地或另选地,该头戴式设备可提示用户调节手位置或重新定位键盘600。例如,如果用户的手在表面690上的位置650不与按键602的位置对准(例如,某些按键602不再位于手的静止位置),则该头戴式设备可提供输出(例如,视觉、听觉等)以敦促用户调节用户的手在表面690上的位置650。又如,如果用户的手在表面690上的位置650不与按键602的位置对准,则该头戴式设备可自动调节按键602的位置并且/或者提示用户批准对按键602的位置的调节。键盘600和/或按键602可被显示为半透明的(例如,半不透明的),使得用户的手620和/或表面690的部分可透过键盘600和/或按键602来查看。
在一些实施方案中,该头戴式设备可基于手的位置650来验证用户输入。例如,如果用户的手在表面690上的位置650在输入期间不与按键602的位置对准(例如,如果用户提供远离按键602的中心或在不同按键之间的输入),则该头戴式设备可提供输出(例如,视觉、听觉等)以敦促用户调节用户的手在表面690上的位置650。又如,如果用户的手在表面690上的位置650在输入期间不与按键602的位置对准,则该头戴式设备可自动校正这些输入以对应于预期的输入。可通过将接收到的输入(例如,字词的拼写)与提议的输入(例如,正确拼写的字词的词典)进行比较来验证此类预期的输入。该头戴式设备可自动校正输入并且/或者提示用户批准对该输入的校正。
应当理解,可在投影时选择键盘600的任何方面。例如,可选择语言和/或键集,使得每个按键都具有基于所选择的字母表和/或其他规则集的字符。也可选择美学特征,诸如颜色。可选择某些特征以针对该表面实现最佳显示。例如,可选择与该表面的颜色形成对比的颜色。此类特征可以是自动选择的或用户选择的。
现在参见图14,该键盘可被划分为多个部分以提供与用户的每只手的更准确的对准。例如,如图14所示,所检测到的用户的手的位置可包括左位置650a和右位置650b。左位置650a可对应于左手的手指与表面690之间的接触点,并且右位置650b可对应于右手与表面690之间的接触点。头戴式设备100的显示器110可提供具有左键602a的左键盘部分600a以及具有右键602b的右键盘部分600b的视图。左键盘部分600a和右键盘部分600b可被显示为在表面690上的投影。左键盘部分600a和右键盘部分600b中的每一者的位置、尺寸、取向和/或其他特征可至少在上述初始阶段期间基于用户的对应的手在表面690上的左位置650a和右位置650b。例如,头戴式设备100可独立于其他部分来确定每个部分的位置、尺寸和/或取向,使得每个部分基于对应的手位置而最佳拟合。在初始阶段之后,左键盘部分600a和右键盘部分600b可保持其相对于表面690的布置,即使在用户的手开始移动(例如,操作键盘)之后。可根据需要为用户提供手动调节键盘的操作。左键盘部分600a和/或右键盘部分600b可被显示为半透明的(例如,半不透明的),使得用户的手620和/或表面690的部分可透过左键盘部分600a和/或右键盘部分600b来查看。
虽然本文所述的一些示例涉及用键盘进行输入,但应当理解,其他输入机构也在本说明书的范围内。例如,可基于来自用户的输入(例如,利用用户的手)来接收和解释手写(例如,利用手指、触笔或另一个设备)和绘图。在此类用户手势和/或器械操作涉及文本的确定的情况下,结果文本可如本文所述的那样显示。例如,此类文本可显示为与用户的手、书写表面和/或正在使用的任何器械(例如,触笔)重叠和/或靠近。
可采用多种输入机构的组合。例如,用户可在器械、表面或其他工具中操作以模拟键盘上的按键的操作和/或在相同器械、表面或其他工具上的手写(例如,利用手指、触笔或另一个设备)。例如,在某些字母表中,可有益于向用户提供与利用键盘一样提供语音输入的能力,并通过沿循跟踪对应的笔迹的路径的手势来绘制复杂的字符。该头戴式设备可单独地或与另一个设备协同地将不同的手势检测和解释为一种或另一种类型的用户输入并相应进行解释。例如,该头戴式设备、物理键盘和/或外部设备可检测用户的基于键盘的手势,并且头戴式设备和/或外部设备可检测用户的基于手写的手势。
因此,本公开的实施方案提供了具有对键盘、另一个输入设备和/或任何表面的增强的操作的头戴式设备。该头戴式设备可基于用户的动作来显示反馈、输出或其他特征。例如,该头戴式设备能够显示由用户对键盘的操作生成的文本。该文本能够以允许用户易于看到键盘、用户的手以及对键盘的操作所生成的文本的方式来显示。该头戴式设备还能够显示促进用户对键盘的操作的特征。例如,能够显示建议的文本、击键或与键盘的按键相关联的其他特征以供用户选择。又如,该键盘能够以符合用户的手在头戴式设备的视场内的布置的位置和取向来显示。
为了方便起见,下文将本公开的各方面的各种示例描述为条款。这些仅作为示例提供,并且不限制所述主题技术。
条款A:一种头戴式设备,包括:显示器,所述显示器被配置为显示:具有按键的键盘;以及用户的手相对于所述键盘的位置;以及处理器,所述处理器被配置为检测所述键盘的所述按键中的哪些由所述用户的手操作,所述显示器被进一步配置为基于所述按键的操作来在与所述键盘重叠的位置显示文本。
条款B:一种头戴式设备,包括:相机,所述相机被配置为捕获键盘的视图,所述键盘具有能够由用户的手操作的按键;处理器,所述处理器被配置为检测所述按键中的选择的按键何时被操作;和显示器,所述显示器被配置为显示:所述键盘的所述按键;以及虚拟指示符,所述虚拟指示符响应于所述按键中的所选择的按键被操作而定位在所述按键中的所选择的按键处。
条款C:一种头戴式设备,包括:相机,所述相机被配置为捕获表面和用户的手的视图;显示器,所述显示器被配置为显示以下项的视图:所述表面;所述用户的手;以及位于与所述表面重叠的位置的虚拟键盘;以及处理器,所述处理器被配置为:在初始阶段期间,在所述用户的手接触所述表面的同时检测所述用户的手的位置;以及引导所述显示器在所述表面上以及所述用户的手的所述位置处显示所述虚拟键盘。
上述条款中的一项或多项可包括下述特征中的一者或多者。应当注意,以下条款中的任一项可彼此以任何组合进行组合,并置于相应的独立条款中,例如条款A、B或C。
条款1:所述键盘是物理键盘,并且所述头戴式设备还包括被配置为捕获所述键盘和所述用户的手的视图的相机。
条款2:所述处理器被配置为基于由所述相机捕获到的所述视图来检测所述键盘的所述按键中的哪些由所述用户的手操作。
条款3:通信部件,所述通信部件被配置为基于所述按键的所述操作而接收来自所述键盘的信号。
条款4:所述键盘是虚拟键盘。
条款5:所述文本被显示为半透明的,使得透过所述文本可看见所述键盘的一部分。
条款6:所述键盘被显示为半透明的,使得透过所述键盘可看见所述文本的一部分。
条款7:所述文本为第一文本,并且显示模块被进一步配置为与所述第一文本相邻地显示基于所述第一文本的第二文本。
条款8:所述处理器被配置为检测指示对所述第二文本的选择的用户输入,并且所述显示模块被配置为基于所述选择在与所述键盘重叠的位置显示所述第一文本和所述第二文本。
条款9:所述虚拟指示符是动画。
条款10:所述虚拟指示符是第一虚拟指示符,并且所述显示模块被进一步配置为显示定位在所述按键中的另一个按键处的第二虚拟指示符,所述另一个按键在由所述用户操作时使得所述头戴式设备执行预先确定的动作。
条款11:所述虚拟指示符是第一虚拟指示符,并且所述显示模块被进一步配置为当所述用户的手在所述按键中的所述另一个按键预先确定的距离内时显示定位在所述按键中的另一个按键处的第二虚拟指示符。
条款12:所述第二虚拟指示符的特征基于所述用户的手与所述按键中的所述另一个按键之间的距离动态地更新。
条款13:所述虚拟指示符是第一虚拟指示符,并且所述显示模块被进一步配置为显示围绕所述键盘的全部所述按键的第二虚拟指示符。
条款14:选择所述表面上的所述虚拟键盘的尺寸、位置和取向,使得所述虚拟键盘的一些按键在所述初始阶段期间各自与所述用户的手的对应的手指对准。
条款15:所述用户的手包括左手和右手,并且所述虚拟键盘包括在所述初始阶段期间显示在所述左手的位置下方的左键盘部分和在所述初始阶段期间显示在所述右手的位置下方的右键盘部分。
条款16:在所述初始阶段之后,所述显示模块被进一步配置为将所述虚拟键盘保持在所述初始阶段期间所述用户的手所在的位置。
条款17:所述表面是被配置为响应于所述用户的手所施加的力而提供触觉反馈的输入设备的表面。
如上所述,本技术的一个方面可以包括收集和使用得自各种来源的数据。本公开预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、twitter ID、家庭地址、与用户的健康或健身等级相关的数据或记录(例如,生命信号测量、药物信息、锻炼信息)、出生日期、或任何其他识别信息或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本公开设想负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。此外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本公开还预期用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就广告递送服务而言,本发明的技术可被配置为在注册服务期间或之后任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。在另一示例中,用户可以选择不为目标内容递送服务提供情绪相关数据。在另一个示例中,用户可选择限制情绪相关数据被保持的时间长度,或完全禁止基础情绪状况的开发。除了提供“选择加入”和“选择退出”选项外,本公开设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可通过基于非个人信息数据或绝对最低数量的个人信息诸如与用户相关联的设备所请求的内容、对内容递送服务可用的其他非个人信息或公开可用的信息来推断偏好,从而选择内容并将该内容递送至用户。
除非特别指出,否则以单数形式提及的元素并不意味着是唯一的,而是指一个或多个。例如,“一个”模块可指一个或多个模块。以“一个”,“一种”,“该”或“所述”为前缀的元素在没有进一步的限制的情况下不排除存在另外的相同的元素。
标题和副标题(如果有的话)仅用于方便,并不限制本发明。“示例性”一词用于表示用作示例或说明。在使用术语“包括”、“具有”等的意义上,此类术语旨在以类似于术语“包含”的方式是包含性的,因为在用作权利要求中的过渡词时解释为包含。诸如第一和第二等的关系术语可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的这种关系或顺序。
短语诸如方面、该方面、另一方面、一些方面、一个或多个方面、具体实施、该具体实施、另一具体实施、一些具体实施、一个或多个具体实施、实施方案、该实施方案、另一实施方案、一些实施方案、一个或多个实施方案、配置、该配置、其他配置、一些配置、一个或多个配置、主题技术、公开、本公开、其他变型等等都是为了方便,并不意味着涉及这样的一个或多个短语的公开对于主题技术是必不可少的,或者这种公开适用于主题技术的所有配置。涉及此类一个或多个短语的公开可适用于所有配置或一个或多个配置。涉及此类一个或多个短语的公开可提供一个或多个示例。短语诸如方面或一些方面可指代一个或多个方面,反之亦然,并且这与其他前述短语类似地应用。
在一系列项目之前的短语“至少一个”,用术语“和”或“或”分开项目中的任一者,将列表作为整体修改而不是列表中的每个成员。短语“至少一个”不需要选择至少一个项目;相反,该短语允许包括任何一个项目中的至少一个和/或项目的任何组合中的至少一个和/或每个项目中的至少一个的含义。举例来说,短语“A、B和C中的至少一个”或“A、B或C中的至少一个”中的每个短语仅指A、仅指B或仅指C;A、B和C的任意组合;和/或A、B和C中的每一个中的至少一个。
应该理解,公开的步骤、操作或过程的具体顺序或层次是示例性方法的说明。除非另有明确说明,否则可理解的是,步骤、操作或过程的具体顺序或层次可以不同的顺序执行。步骤、操作或过程中的一些可同时执行。所附方法权利要求书(如果有的话)以示例顺序呈现各个步骤、操作或过程的元素,并不意味着限于所呈现的特定顺序或层次。这些可以串行、线性、并行或不同的顺序执行。应当理解,所描述的指令、操作和系统通常可一起集成在单个软件/硬件产品中,或者被封装到多个软件/硬件产品中。
在一个方面,术语耦接等可指代直接耦接。另一方面,术语耦接等可指间接耦接。
术语诸如顶部、底部、前部、后部、侧部、水平、竖直等是指任意的参照系,而不是指通常的重力参照系。因此,此类术语可在重力参考系中向上、向下、对角或水平延伸。
提供本公开是为了使本领域的技术人员能够实践本文所述的各个方面。在一些情况下,以框图形式示出了熟知的结构和部件,以便避免使本主题技术的概念模糊。本公开提供了本主题技术的各种示例,并且本主题技术不限于这些示例。这些方面的各种修改对于本领域技术人员将是显而易见的,并且这里描述的原理可应用于其他方面。
本领域的普通技术人员已知或稍后悉知的贯穿本公开描述的各个方面的元素的所有结构和功能等同物通过引用明确地并入本文,并且旨在被权利要求书所涵盖。此外,本文所公开的任何内容并非旨在提供给公众,而与该公开是否明确地被陈述在权利要求中无关。根据35U.S.C.§112第六段的规定,不需要解释任何权利要求元素,除非使用短语“方法用以”明确陈述了该元素,或者就方法权利要求而言,使用短语“步骤用以”陈述了该元素。
标题、背景、附图的简要说明、摘要和附图在此被结合到本公开中,并且被提供作为本公开的说明性示例,而不是作为限制性描述。认为它们不会被用来限制权利要求的范围或含义。另外,在详细描述中可看出,为了使本公开简化的目的,描述提供了例示性示例,并且各种特征在各种具体实施中被组合在一起。公开的方法不应被解释为反映所要求保护的主题需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如权利要求所反映的,发明主题在于少于单个公开的配置或操作的所有特征。权利要求由此被并入到具体实施方式中,每个权利要求本身作为单独要求保护的主题。
权利要求不旨在限于本文所述的方面,而是要被赋予与权利要求的语言一致的全部范围,并且涵盖所有的法律等同物。尽管如此,这些权利要求都不包含不符合适用专利法要求的主题,也不应该以这种方式解释。

Claims (20)

1.一种头戴式设备,所述头戴式设备包括:
显示器,所述显示器被配置为显示:
具有按键的键盘;以及
用户的手相对于所述键盘的位置;以及
处理器,所述处理器被配置为检测所述键盘的所述按键中的哪些由所述用户的手操作,所述显示器被进一步配置为基于所述按键的操作来在与所述键盘重叠的位置显示文本。
2.根据权利要求1所述的头戴式设备,其中所述键盘是物理键盘,并且所述头戴式设备还包括被配置为捕获所述键盘和所述用户的手的视图的相机。
3.根据权利要求2所述的头戴式设备,其中所述处理器被配置为基于由所述相机捕获到的所述视图来检测所述键盘的所述按键中的哪些由所述用户的手操作。
4.根据权利要求2所述的头戴式设备,还包括被配置为基于所述按键的所述操作而接收来自所述键盘的信号的通信部件。
5.根据权利要求1所述的头戴式设备,其中所述键盘是虚拟键盘。
6.根据权利要求1所述的头戴式设备,其中所述文本被显示为半透明的,使得透过所述文本可看见所述键盘的一部分。
7.根据权利要求1所述的头戴式设备,其中所述键盘被显示为半透明的,使得透过所述键盘可看见所述文本的一部分。
8.根据权利要求1所述的头戴式设备,其中所述文本为第一文本,并且所述显示器被进一步配置为与所述第一文本相邻地显示基于所述第一文本的第二文本。
9.根据权利要求8所述的头戴式设备,其中所述处理器被配置为检测指示对所述第二文本的选择的用户输入,并且所述显示器被配置为基于所述选择在与所述键盘重叠的所述位置显示所述第一文本和所述第二文本。
10.一种头戴式设备,所述头戴式设备包括:
相机,所述相机被配置为捕获键盘的视图,所述键盘具有能够由用户的手操作的按键;
处理器,所述处理器被配置为检测所述按键中的选择的按键何时被操作;以及
显示器,所述显示器被配置为显示:
所述键盘的所述按键;以及
虚拟指示符,所述虚拟指示符响应于所述按键中的所选择的按键被操作而定位在所述按键中的所选择的按键处。
11.根据权利要求10所述的头戴式设备,其中所述虚拟指示符是动画。
12.根据权利要求10所述的头戴式设备,其中所述虚拟指示符是第一虚拟指示符,并且所述显示器被进一步配置为显示定位在所述按键中的另一个按键处的第二虚拟指示符,所述另一个按键在由所述用户操作时使得所述头戴式设备执行预先确定的动作。
13.根据权利要求10所述的头戴式设备,其中所述虚拟指示符是第一虚拟指示符,并且所述显示器被进一步配置为当所述用户的手在所述按键中的所述另一个按键预先确定的距离内时显示定位在所述按键中的另一个按键处的第二虚拟指示符。
14.根据权利要求13所述的头戴式设备,其中所述第二虚拟指示符的特征基于所述用户的手与所述按键中的所述另一个按键之间的距离动态地更新。
15.根据权利要求10所述的头戴式设备,其中所述虚拟指示符是第一虚拟指示符,并且所述显示器被进一步配置为显示围绕所述键盘的全部所述按键的第二虚拟指示符。
16.一种头戴式设备,所述头戴式设备包括:
相机,所述相机被配置为捕获表面和用户的手的视图;
显示器,所述显示器被配置为显示以下项的视图:
所述表面;
所述用户的手;以及
位于与所述表面重叠的位置的虚拟键盘;以及
处理器,所述处理器被配置为:
在初始阶段期间,在所述用户的手接触所述表面的同时检测所述用户的手的位置;以及
引导所述显示器在所述表面上以及所述用户的手的位置处显示所述虚拟键盘。
17.根据权利要求16所述的头戴式设备,其中选择所述表面上的所述虚拟键盘的尺寸、位置和取向,使得所述虚拟键盘的一些按键在所述初始阶段期间各自与所述用户的手的对应的手指对准。
18.根据权利要求16所述的头戴式设备,其中所述用户的手包括左手和右手,并且所述虚拟键盘包括在所述初始阶段期间显示在所述左手的位置下方的左键盘部分和在所述初始阶段期间显示在所述右手的位置下方的右键盘部分。
19.根据权利要求16所述的头戴式设备,其中在所述初始阶段之后,所述显示器被进一步配置为将所述虚拟键盘保持在所述初始阶段期间所述用户的手所在的位置。
20.根据权利要求16所述的头戴式设备,其中所述表面是被配置为响应于所述用户的手所施加的力而提供触觉反馈的输入设备的表面。
CN202010289840.XA 2019-04-15 2020-04-14 头戴式设备的键盘操作 Active CN111831110B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962834175P 2019-04-15 2019-04-15
US62/834,175 2019-04-15
US16/818,951 US11137908B2 (en) 2019-04-15 2020-03-13 Keyboard operation with head-mounted device
US16/818,951 2020-03-13

Publications (2)

Publication Number Publication Date
CN111831110A true CN111831110A (zh) 2020-10-27
CN111831110B CN111831110B (zh) 2024-05-14

Family

ID=72747844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010289840.XA Active CN111831110B (zh) 2019-04-15 2020-04-14 头戴式设备的键盘操作

Country Status (2)

Country Link
US (1) US11137908B2 (zh)
CN (1) CN111831110B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115617152A (zh) * 2021-07-12 2023-01-17 广州视享科技有限公司 头戴式显示设备的虚拟键盘的显示方法、装置以及设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112445341B (zh) * 2020-11-23 2022-11-08 青岛小鸟看看科技有限公司 虚拟现实设备的键盘透视方法、装置及虚拟现实设备
CN115047966A (zh) * 2021-02-26 2022-09-13 华为技术有限公司 交互方法、电子设备与交互系统
WO2023155672A1 (en) * 2022-02-15 2023-08-24 Beijing Source Technology Co., Ltd. Input device model projecting method, apparatus and system
WO2024043765A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 Hmd(head mounted display) 장치에서 가상키보드를 표시하는 방법 및 장치

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
US20100156836A1 (en) * 2008-12-19 2010-06-24 Brother Kogyo Kabushiki Kaisha Head mount display
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
US20110138285A1 (en) * 2009-12-09 2011-06-09 Industrial Technology Research Institute Portable virtual human-machine interaction device and operation method thereof
CN102473051A (zh) * 2009-07-29 2012-05-23 京瓷株式会社 输入装置和输入装置的控制方法
US20150227222A1 (en) * 2012-09-21 2015-08-13 Sony Corporation Control device and storage medium
US20150269783A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
CN105378625A (zh) * 2013-06-25 2016-03-02 微软技术许可有限责任公司 指示视野外的增强现实图像
CN106445094A (zh) * 2015-01-21 2017-02-22 镇江魔能网络科技有限公司 智能可穿戴输入设备
CN106484085A (zh) * 2015-08-31 2017-03-08 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
US20170076502A1 (en) * 2015-09-16 2017-03-16 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment
JP2017111723A (ja) * 2015-12-18 2017-06-22 株式会社ブリリアントサービス バイク用ヘッドマウントディスプレイ、バイク用ヘッドマウントディスプレイの制御方法およびバイク用ヘッドマウントディスプレイの制御プログラム。
CN107209582A (zh) * 2014-12-16 2017-09-26 肖泉 高直观性人机界面的方法和装置
US20170322623A1 (en) * 2016-05-05 2017-11-09 Google Inc. Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality
CN107980110A (zh) * 2016-12-08 2018-05-01 深圳市柔宇科技有限公司 头戴式显示设备及其内容输入方法
CN108121492A (zh) * 2016-11-30 2018-06-05 成都理想境界科技有限公司 基于头戴式显示设备的虚拟键盘显示方法及装置
CN108932100A (zh) * 2017-05-26 2018-12-04 成都理想境界科技有限公司 一种虚拟键盘的操作方法及头戴式显示设备
US20180350150A1 (en) * 2017-05-19 2018-12-06 Magic Leap, Inc. Keyboards for virtual, augmented, and mixed reality display systems
WO2019004686A1 (ko) * 2017-06-26 2019-01-03 서울대학교산학협력단 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법
US20190004694A1 (en) * 2017-06-30 2019-01-03 Guangdong Virtual Reality Technology Co., Ltd. Electronic systems and methods for text input in a virtual environment
US10237509B1 (en) * 2016-08-05 2019-03-19 Apple Inc. Systems with keyboards and head-mounted displays

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133840A (ja) 1996-11-01 1998-05-22 Olympus Optical Co Ltd 情報処理用システム装置
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9104312B2 (en) * 2010-03-12 2015-08-11 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
WO2012048380A1 (en) 2010-10-14 2012-04-19 University Of Technology, Sydney Virtual keyboard
JP6598617B2 (ja) * 2015-09-17 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
US20100156836A1 (en) * 2008-12-19 2010-06-24 Brother Kogyo Kabushiki Kaisha Head mount display
CN102473051A (zh) * 2009-07-29 2012-05-23 京瓷株式会社 输入装置和输入装置的控制方法
US20110138285A1 (en) * 2009-12-09 2011-06-09 Industrial Technology Research Institute Portable virtual human-machine interaction device and operation method thereof
US20150227222A1 (en) * 2012-09-21 2015-08-13 Sony Corporation Control device and storage medium
CN105378625A (zh) * 2013-06-25 2016-03-02 微软技术许可有限责任公司 指示视野外的增强现实图像
US20150269783A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
CN107209582A (zh) * 2014-12-16 2017-09-26 肖泉 高直观性人机界面的方法和装置
CN106445094A (zh) * 2015-01-21 2017-02-22 镇江魔能网络科技有限公司 智能可穿戴输入设备
CN106484085A (zh) * 2015-08-31 2017-03-08 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
US20170076502A1 (en) * 2015-09-16 2017-03-16 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment
JP2017111723A (ja) * 2015-12-18 2017-06-22 株式会社ブリリアントサービス バイク用ヘッドマウントディスプレイ、バイク用ヘッドマウントディスプレイの制御方法およびバイク用ヘッドマウントディスプレイの制御プログラム。
US20170322623A1 (en) * 2016-05-05 2017-11-09 Google Inc. Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality
US10237509B1 (en) * 2016-08-05 2019-03-19 Apple Inc. Systems with keyboards and head-mounted displays
CN108121492A (zh) * 2016-11-30 2018-06-05 成都理想境界科技有限公司 基于头戴式显示设备的虚拟键盘显示方法及装置
CN107980110A (zh) * 2016-12-08 2018-05-01 深圳市柔宇科技有限公司 头戴式显示设备及其内容输入方法
US20180350150A1 (en) * 2017-05-19 2018-12-06 Magic Leap, Inc. Keyboards for virtual, augmented, and mixed reality display systems
CN108932100A (zh) * 2017-05-26 2018-12-04 成都理想境界科技有限公司 一种虚拟键盘的操作方法及头戴式显示设备
WO2019004686A1 (ko) * 2017-06-26 2019-01-03 서울대학교산학협력단 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법
US20190004694A1 (en) * 2017-06-30 2019-01-03 Guangdong Virtual Reality Technology Co., Ltd. Electronic systems and methods for text input in a virtual environment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115617152A (zh) * 2021-07-12 2023-01-17 广州视享科技有限公司 头戴式显示设备的虚拟键盘的显示方法、装置以及设备

Also Published As

Publication number Publication date
CN111831110B (zh) 2024-05-14
US20200326847A1 (en) 2020-10-15
US11137908B2 (en) 2021-10-05

Similar Documents

Publication Publication Date Title
CN111831110B (zh) 头戴式设备的键盘操作
CN210136443U (zh) 电子设备和电子系统
US11740742B2 (en) Electronic devices with finger sensors
US12001751B2 (en) Shared data and collaboration for head-mounted devices
US11175734B1 (en) Wrist tracking devices
US20240094882A1 (en) Gestures for selection refinement in a three-dimensional environment
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
US11361735B1 (en) Head-mountable device with output for distinguishing virtual and physical objects
CN115427919A (zh) 用于与扩展现实系统一起使用的物理配套设备
US11189059B2 (en) Object tracking for head-mounted devices
CN112423190A (zh) 用于头戴式设备的基于音频的反馈
US20240020371A1 (en) Devices, methods, and graphical user interfaces for user authentication and device management
US20230229010A1 (en) Head-mountable device for posture detection
WO2023164268A1 (en) Devices, methods, and graphical user interfaces for authorizing a secure operation
US11733530B1 (en) Head-mountable device having light seal element with adjustable opacity
US11733526B1 (en) Head-mountable device with convertible light seal element
CN112241200A (zh) 头戴式设备的对象跟踪
CN112444985A (zh) 具有周边照明的透明显示系统
US11953690B2 (en) Head-mountable device and connector
US11729373B1 (en) Calibration for head-mountable devices
US20240104871A1 (en) User interfaces for capturing media and manipulating virtual objects
US11763560B1 (en) Head-mounted device with feedback
US11715355B1 (en) Crown input and feedback for head-mountable devices
US11998090B1 (en) Watch band with markers
US11709365B1 (en) Motor temperature sensor for head-mountable device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant