CN105009039A - 使用imu的直接全息图操纵 - Google Patents
使用imu的直接全息图操纵 Download PDFInfo
- Publication number
- CN105009039A CN105009039A CN201380062677.1A CN201380062677A CN105009039A CN 105009039 A CN105009039 A CN 105009039A CN 201380062677 A CN201380062677 A CN 201380062677A CN 105009039 A CN105009039 A CN 105009039A
- Authority
- CN
- China
- Prior art keywords
- hmd
- virtual
- augmented reality
- terminal user
- reality environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims abstract description 50
- 230000000007 visual effect Effects 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 abstract description 32
- 230000003287 optical effect Effects 0.000 description 54
- 230000008859 change Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 34
- 210000001508 eye Anatomy 0.000 description 33
- 238000005516 engineering process Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 239000003795 chemical substances by application Substances 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 210000004087 cornea Anatomy 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000005855 radiation Effects 0.000 description 6
- 241000287181 Sturnus vulgaris Species 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000011149 active material Substances 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
描述了用于控制与头戴式显示设备(HMD)相关联的增强现实环境的各方法。在一些实施例中,可向HMD的终端用户显示虚拟指针,并且虚拟指针可被终端用户使用与辅助设备(例如,移动电话)相关联的移动和/或朝向信息来控制。使用虚拟指针,终端用户可在增强现实环境中选择并操纵虚拟对象、在增强现实环境中选择现实世界对象,和/或控制HMD的图形用户界面。在一些情况中,在增强现实环境中的虚拟指针的初始位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象来确定。
Description
背景
增强现实(AR)涉及提供经增强的真实世界环境,其中用计算机生成的虚拟数据来增强或修改对真实世界环境(或表示真实世界环境的数据)的感知。例如,可使用诸如相机或话筒等传感输入设备实时地捕捉表示真实世界环境的数据,并用包括虚拟图像和虚拟声音的计算机生成的虚拟数据来增强该数据。虚拟数据还可包括与真实世界环境有关的信息,诸如与真实世界环境中的真实世界对象相关联的文本描述。一些AR环境内的对象可包括真实对象(即,存在于特定的真实世界环境中的对象)和虚拟对象(即,不存在于特定的真实世界环境中的对象)。
为了将虚拟对象逼真地集成到AR环境中,AR系统通常执行包括映射和本地化的若干任务。映射涉及生成真实世界环境的映射的过程。本地化涉及相对于真实世界环境的映射来定位特定的视角或姿势的过程。在一些情况下,AR系统可实时本地化在真实世界环境内移动的移动设备的姿势,以便确定与该移动设备相关联的、需要随该移动设备在真实世界环境中移动而被增强的特定视图。
概述
描述了用于促进与头戴式显示设备(HMD)相关联的增强现实环境的控制的技术。在一些实施例中,可向HMD的终端用户显示虚拟指针,并且虚拟指针可由终端用户使用与辅助设备(例如,移动电话)相关联的运动和/或朝向信息来控制。使用虚拟指针,终端用户可在增强现实环境中选择并操纵虚拟对象、在增强现实环境中选择现实世界对象,和/或控制HMD的图形用户界面。在一些情况中,在增强现实环境内的虚拟指针的最初位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象来确定。
提供本发明内容以便以简化的形式介绍将在以下详细描述中进一步描述的一些概念。本发明内容不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
附图说明
图1是可在其中实施所公开的技术的联网计算环境的一个实施例的框图。
图2A描绘了与第二移动设备通信的移动设备的一个实施例。
图2B描绘了HMD的一部分的一个实施例。
图2C描绘了HMD的一部分的一个实施例,其中延伸到凝视点的凝视向量用于对准远瞳孔间距(IPD)。
图2D描绘了HMD的一部分的一个实施例,其中延伸到凝视点的凝视向量用于对准近瞳孔间距(IPD)。
图2E描绘了HMD的一部分的一个实施例,该HMD具有包括凝视检测元件的可移动显示光学系统。
图2F描绘了HMD的一部分的一个替换实施例,该HMD具有包括凝视检测元件的可移动显示光学系统。
图2G描绘了HMD的一部分的侧视图的一个实施例。
图2H描绘了HMD的一部分的侧视图的一个实施例,其提供对微显示器部件的三维调整的支持。
图3描绘了包括捕捉设备和计算环境的计算系统的一个实施例。
图4-6描绘了各种增强现实环境的各种实施例,其中可向HMD的终端用户显示虚拟指针,并且虚拟指针可由终端用户使用与辅助设备相关联的运动和/或朝向信息来控制。
图7A是描述了用于使用辅助设备控制增强现实环境的方法的一个实施例的流程图。
图7B是描述了用于确定初始虚拟指针位置的过程的一个实施例的流程图。
图7C是描绘用于确定辅助设备的朝向是否在超时时间段内在阈值范围内已经改变的过程一个实施例的流程图。
图8是描述了用于使用辅助设备控制增强现实环境的方法的一个替换实施例的流程图。
图9是移动设备的一个实施例的框图。
详细描述
描述了用于提供与头戴式显示设备(HMD)相关联的增强现实环境的高精度控制的技术。在一些实施例中,可向HMD的终端用户显示虚拟指针,并且虚拟指针可由终端用户使用与辅助设备(例如,移动电话或具有向HMD提供运动和/或朝向信息的能力的其它设备)相关联的运动和/或朝向信息来控制。使用虚拟指针,终端用户可在增强现实环境中选择并操纵虚拟对象、在增强现实环境中选择现实世界对象,和/或控制HMD的图形用户界面(例如,终端用户可选择应用、拖放虚拟对象,或放大到增强现实环境的各部分内)。如果虚拟指针指向(或覆盖)可选的虚拟或现实世界对象,那么HMD可向终端用户提供对象可选的反馈(例如,振动、声音,或可使用可视指示符来警告终端用户与可选对象相关联的附加信息可用)。在一些情况中,在增强现实环境中的虚拟指针的初始位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象来确定。
使用HMD控制增强现实环境的一个问题是,不像其它计算设备(例如包括触摸屏界面的平板计算机),HMD它本身不提供允许使用手和/或手指手势操纵对象的界面。此外,与调节终端用户的头的朝向(这可能还导致终端用户颈部疲劳)相比,终端用户使用手和/或手指的移动能更精确地控制选择对象(例如,HMD的视野内的小对象)的能力。因此,有使用可由HMD的终端用户使用手臂、手和/或手指移动操纵的辅助设备来促进与HMD相关联的增强现实环境的控制的需求。
图1是可在其中实施所公开的技术的联网计算环境100的一个实施例的框图。联网计算环境100包括通过一个或多个网络180互连的多个计算设备。所述一个或多个网络180允许一特定计算设备连接到另一计算设备以及与其通信。所描绘的计算设备包括移动设备11、移动设备12、移动设备19和服务器15。在一些实施例中,所述多个计算设备可以包括未示出的其他计算设备。在一些实施例中,所述多个计算设备可以包括比图1所示的计算设备的数目更多或更少的计算设备。所述一个或多个网络180可以包括诸如企业专用网络之类的安全网络、诸如无线开放式网络之类的不安全网络、局域网(LAN)、广域网(WAN)、以及因特网。所述一个或多个网络180中的每个网络可以包括集线器、网桥、路由器、交换机、以及有线传输介质,比如有线网络或直接线连接。
可包括补充信息服务器或应用服务器的服务器15可允许客户机从该服务器下载信息(例如,文本、音频、图像和视频文件)或者执行与存储在该服务器上的特定信息相关的搜索查询。一般而言,“服务器”可以包括在客户端-服务器关系中充当主机的硬件设备、或者与一个或多个客户机共享资源或为所述一个或多个客户机执行工作的软件过程。客户机-服务器关系下的计算设备之间的通信可以通过由客户机向服务器发送要求访问特定资源或执行特定工作的请求来发起。服务器随后可以执行所请求的动作并且将响应发送回客户机。
服务器15的一个实施例包括网络接口155、处理器156、存储器157和翻译器158,所有这些都彼此通信。网络接口155允许服务器15连接到一个或多个网络180。网络接口155可以包括无线网络接口、调制解调器、和/或有线网络接口。处理器156允许服务器15执行存储在存储器157中的计算机可读指令以执行在此讨论的过程。翻译器158可包括用于将第一文件格式的第一文件翻译成第二文件格式的对应第二文件的映射逻辑(即,第二文件可以是经翻译的版本的第一文件)。可使用文件映射指令来配置翻译器158,该文件映射指令提供用于将第一文件格式的文件(或其部分)映射成第二文件格式的对应文件的指令。
移动设备19的一个实施例包括网络接口145、处理器146、存储器147、相机148、传感器149、以及显示器150,所有这些都彼此通信。网络接口145允许移动设备19连接到一个或多个网络180。网络接口145可以包括无线网络接口、调制解调器、和/或有线网络接口。处理器146允许移动设备19执行存储在存储器147中的计算机可读指令以执行在此讨论的过程。相机148可以捕捉色彩图像和/或深度图像。传感器149可生成与移动设备19相关联的运动和/或定向信息。在一些情况下,传感器149可包括惯性测量单元(IMU)。显示器150可显示数字图像和/或视频。显示器150可包括透视显示器。
在一些实施例中,包括网络接口145、处理器146、存储器147、相机148以及传感器149的移动设备19的各组件可被集成在单芯片基片上。在一示例中,网络接口145、处理器146、存储器147、相机148、传感器149可被集成成为片上系统(SOC)。在另一实施例中,网络接口145、处理器146、存储器147、相机148、传感器149可被集成在单个封装中。
在一些实施例中,通过采用照相机148、传感器149,和运行在处理器146上的姿势识别软件,移动设备19可提供自然用户界面(NUI)。使用自然用户界面,人的身体部位和移动可被检测、解释、以及用于控制计算应用的各方面。在一个示例中,利用自然用户界面的计算设备可推断与计算设备交互的人的意图(例如,终端用户执行了特定姿势来控制该计算设备)。
联网计算环境100可以为一个或多个计算设备提供云计算环境。云计算指的是基于因特网的计算,其中共享的资源、软件和/或信息通过因特网(或其他全局网络)被按需提供给一个或多个计算设备。基于在计算机网络图中使用的云图来将因特网描绘成对其所表示的底层基础设施的抽象,术语“云”被用作对因特网的比喻。
在一个示例中,移动设备19包括向头戴式显示设备(HMD)的终端用户提供增强现实环境或混合现实环境的头戴式显示设备。HMD可包括视频透视和/或光学透视系统。终端用户佩戴的光学透视HMD可允许(例如经由透明透镜)对真实世界环境的实际直接查看,并且同时可将虚拟对象的图像投影到终端用户的视野中,由此用虚拟对象来增强终端用户所感知的真实世界环境。
通过利用HMD,佩戴HMD的终端用户可在真实世界环境(例如,起居室)中四处移动,并感知覆盖有虚拟对象的图像的真实世界的视图。虚拟对象可以看起来保持与真实世界环境的相干空间关系(即,当终端用户在真实世界环境中转动他们的头或移动时,显示给该终端用户的图像将改变,使得虚拟对象看起来像被终端用户感知的那样存在于该真实世界环境内)。虚拟对象还可看起来相对于终端用户的视角是固定的(例如,无论终端用户如何在真实世界环境中转动他们的头或移动,总是出现在终端用户视角的右上角的虚拟菜单)。在一个实施例中,真实世界环境的环境映射可由服务器15(即,在服务器侧)来执行,而相机本地化可在移动设备19上(即,在客户机侧)执行。虚拟对象可包括与真实世界对象相关联的文本描述。
在一些实施例中,移动设备(诸如移动设备19)可与云中的服务器(诸如服务器15)通信,并可提供与移动设备相关联的服务器位置信息(例如,经由GPS坐标的移动设备的位置)和/或图像信息(例如,与在移动设备的视野内检测到的对象有关的信息)。作为响应,服务器可基于提供给该服务器的位置信息和/或图像信息向移动设备传送一个或多个虚拟对象。在一个实施例中,移动设备19可指定用于接收一个或多个虚拟对象的特定文件格式,并且服务器15可向移动设备19传送特定文件格式的文件内包含的一个或多个虚拟对象。
在一些实施例中,可向移动设备19的终端用户显示虚拟指针,并且虚拟指针可由终端用户使用与辅助设备(例如,移动电话或具有向HMD提供运动和/或朝向信息的能力的其它设备)相关联的运动和/或朝向信息来控制。使用虚拟指针,终端用户可在增强现实环境中选择并操纵虚拟对象、在增强现实环境中选择现实世界对象,和/或控制HMD的图形用户界面(例如,终端用户可选择应用、拖放虚拟对象,或放大到增强现实环境的各部分内)。如果虚拟指针指向(或覆盖)可选的虚拟或现实世界对象,那么HMD可向终端用户提供对象可选的反馈(例如,振动、声音,或可使用可视指示符来警告终端用户与可选对象相关联的附加信息可用)。在一些情况中,在增强现实环境中的虚拟指针的初始位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象来确定。
图2A描绘了与第二移动设备5通信的移动设备19的一个实施例。移动设备19可包括透视HMD。如所描绘的,移动设备19经由有线连接6与移动设备5通信。然而,移动设备19还可经由无线连接与移动设备5通信。移动设备5可由移动设备19用来卸载计算密集的处理任务(例如,呈现虚拟对象),并将可被用来提供增强现实环境的虚拟对象信息和其他数据存储在移动设备19上。移动设备5还可向移动设备19提供与移动设备5相关联的运动和/或定向信息。在一个示例中,运动信息可包括与移动设备5相关联的速度或加速度,并且朝向信息可包括欧拉角,其提供围绕特定坐标系统或参照系的转动信息。在一些情况中,移动设备5可包括运动和朝向传感器,诸如惯性测量单元(IMU),以便获得与移动设备5相关联的运动和/或朝向信息。
图2B描绘了HMD(诸如图1的移动设备19)的一部分的一个实施例。仅示出了HMD200的右侧。HMD 200包括右镜腿202、鼻梁204、镜片216、以及眼镜框214。右镜腿202包括与处理单元236通信的捕捉设备213(例如,前向相机和/或话筒)。捕捉设备213可包括用于记录数字图像和/或视频的一个或多个相机,并可将视觉记录传送到处理单元236。一个或多个相机可捕捉色彩信息、IR信息、和/或深度信息。捕捉设备213还可包括用于记录声音的一个或多个话筒,并可将音频记录传送到处理单元236。
右镜腿202还包括生物测定传感器220、眼睛跟踪系统221、耳机230、运动和定向传感器238、GPS接收器232、电源239、以及无线接口237,所有这些都与处理单元236通信。生物测定传感器220可包括用于确定与HMD200的终端用户的脉搏或心率相关联的一个或多个电极,以及用于确定与HMD200的终端用户相关联的体温的温度传感器。在一个实施例中,生物测定传感器220包括压着终端用户太阳穴的脉搏速率测量传感器。运动和定向传感器238可以包括三轴磁力计、三轴陀螺仪、和/或三轴加速度计。在一个实施例中,运动和定向传感器238可包括惯性测量单元(IMU)。GPS接收器可确定与HMD 200相关联的GPS位置。处理单元236可以包括一个或多个处理器和用于存储将要在所述一个或多个处理器上执行的计算机可读指令。存储器还可存储要在一个或多个处理器上执行的其它类型的数据。
在一个实施例中,眼睛跟踪系统221可包括面向内的相机。在另一实施例中,眼睛跟踪系统221可包括眼睛跟踪照明源和相关联的眼睛跟踪IR传感器。在一个实施例中,眼睛跟踪照明源可包括以大约预定IR波长或一定范围的波长发射的一个或多个红外(IR)发射器(诸如红外发光二极管(LED)或激光器(例如,VCSEL))。在一些实施例中,眼睛跟踪传感器可包括用于跟踪闪光位置的IR相机或IR位置敏感检测器(PSD)。关于眼睛跟踪系统的更多信息可在2008年7月22提交的标题为“头戴式眼睛跟踪和显示系统”的美国专利申请7,401,920,以及2011年9月26日提交的标题为“集成眼睛跟踪和显示系统”的美国专利申请13/245,700(微软代理案卷号No.333604.01)中找到。
在一个实施例中,镜片216可包括透视显示器,处理单元236生成的图像由此可被投影和/或显示在透视显示器上。捕捉设备213可被校准,使得捕捉设备213所捕捉的视野对应于HMD 200的终端用户所看到的视野。耳机230可用于输出与虚拟对象的投影图像相关联的声音。在一些实施例中,HMD 200可包括两个或更多个面向前方的相机(例如,每个镜腿上一个相机),以便从与面向前方的相机所捕捉的视野相关联的立体信息中获得深度。两个或更多个面向前方的相机还可包括3D、IR、和/或RGB相机。也可从利用来自运动技术的深度的单个相机中获取深度信息。例如,可从单个相机获取两个图像,这两个图像与不同时间点处的空间中两个不同的点相关联。然后,给定与空间中两个不同点有关的位置信息,可执行视差计算。
在一些实施例中,HMD 200可使用与一个或多个人类眼睛元素(诸如角膜中心、眼球旋转的中心、或瞳孔中心)有关的凝视检测元件和三维坐标系统,来为终端用户眼睛中的每只眼睛执行凝视检测。凝视检测可被用来标识终端用户正在关注视野内的何处。凝视检测元件的示例可包括生成闪光的照明器和用于捕捉表示所生成的闪光的数据的传感器。在一些情况中,角膜中心可以基于两次闪光使用平面几何来确定。角膜中心链接瞳孔中心和眼球的旋转中心,这可被当作用于确定在某种凝视或观看角度处的终端用户的眼睛的光轴的固定位置。
图2C描绘了HMD 2的一部分的一个实施例,其中延伸到凝视点的凝视向量用于对准远瞳孔间距(IPD)。HMD 2是移动设备的一个示例,诸如图1中的移动设备19。如所描绘的,凝视向量180l和180r在远离终端用户的凝视点处相交(即,当终端用户正在看远处的对象时,凝视向量180l和180r不相交)。基于Gullstrand示意眼模型示出了每只眼睛的眼球160l、160r的眼球模型。每只眼球被建模成具有旋转中心166的球体,并且包括被建模成具有中心164的球的角膜168。角膜168随着眼球旋转,并且眼球的旋转中心166可被当作固定点。角膜168覆盖虹膜170,瞳孔162处于虹膜170的中心。每个角膜的表面172上是闪光174和176。
如图2C所描绘的,传感器检测区域139(即分别是139l和139r)与眼镜架115内的每一显示光学系统14的光轴相对准。在一个示例中,与该检测区域相关联的传感器可包括能够捕捉表示分别由镜架115左侧的照明器153a和153b生成的闪光174l和176l的图像数据以及表示分别由镜架115右侧的照明器153c和153d生成的闪光174r和176r的数据的一个或多个相机。通过眼镜架115中的显示光学系统14l和14r,终端用户的视野包括现实对象190、192和194以及虚拟对象182和184。
从旋转中心166穿过角膜中心164到瞳孔162而形成的轴178包括眼睛的光轴。凝视向量180也被称为从凹坑穿过瞳孔中心162延伸的视线或视轴。在一些实施例中,光轴被确定,并且通过用户校准来确定小型校正以获得被选作凝视向量的视轴。对于每一终端用户,虚拟对象可由显示设备在不同的水平和垂直位置处的多个预先确定的位置中的每一位置处来显示。在对象在每一位置处的显示过程中,可以计算每一眼睛的光轴,并且光线被建模成从该位置延伸到用户眼睛中。可以基于必须如何移动光轴以与所建模的光线相对准来确定具有水平和垂直分量的凝视偏移角。从不同的位置处,具有水平或垂直分量的平均凝视偏移角可被选作要被应用于每一计算出的光轴的小型校正。在一些实施例中,仅水平分量被用于凝视偏移角校正。
如图2C所描绘的,由于当向量在凝视点处从眼球延伸到视野中而变得更加靠近在一起,因此凝视向量180l和180r不是完全平行的。在每一显示光学系统14处,凝视向量180看起来与光轴相交,传感器检测区域139以这一交点为中心。在这一配置中,光轴与瞳孔间距(IPD)对准。在终端用户看向正前方时,测得的IPD也被称为远IPD。
图2D描绘了HMD 2的一部分的一个实施例,其中延伸到凝视点的凝视向量用于对准近瞳孔间距(IPD)。HMD 2是移动设备的一个示例,诸如图1中的移动设备19。如所描绘的,左眼的角膜168l被旋转到右侧或朝向终端用户的鼻子,并且右眼的角膜168r被旋转到左侧或朝向终端用户的鼻子。两个瞳孔正在凝视终端用户的特定距离内的现实对象194。始自每只眼睛的凝视向量180l和180r进入真实对象194所处的Panum融合区195。Panum融合区是像人类视觉那样的双眼观察系统中的单视觉的区域。凝视向量180l和180r的相交指示终端用户正在看现实对象194。在这样的距离处,随着向内旋转,它们瞳孔之间的距离减少到近IPD。近IPD通常少于远IPD约4毫米。
近IPD距离准则(例如,距离终端用户小于四英尺处的点)可用来将显示光学系统14的IPD对准切换或调整成近IPD的对准。对于近IPD,每一显示光学系统14可以朝终端用户的鼻子移动,使得光轴以及检测区域139朝鼻子移动几毫米,如检测区域139ln和139rn所表示的。
关于为HMD的终端用户确定IPD并由此调整显示光学系统的更多信息可在2011年9月30日提交的美国专利申请号13/250,878(微软代理案卷号No.334505.01)、题为“Personal Audio/Visual System(个人音频/视频系统)”中找到。
图2E描绘了HMD 2的一部分的一个实施例,该HMD 2具有包括凝视检测元件的可移动显示光学系统。表现为每只眼睛的镜片的是每只眼睛的显示光学系统14,即14l和14r。显示光学系统包括用于将虚拟内容与通过HMD的透镜看到的实际直接现实世界视图无缝地融合的透视透镜和光学元件(例如,反射镜、过滤器)。显示光学系统14具有一般处于透视透镜中心的光轴,其中光一般被校准来提供无失真视图。例如,在眼睛护理专业人员使一副普通眼镜适合于终端用户的脸部时,该眼镜通常恰好在每一瞳孔与相应镜片的中心或光轴相对准的位置处落在终端用户的鼻子上,从而通常使得校准光到达终端用户的眼睛以得到清晰或无失真的视图。
如图2E所描绘的,至少一个传感器的检测区域139r、139l与其相应显示光学系统14r、14l的光轴相对准,使得检测区域139r、139l的中心捕捉沿着光轴的光。如果显示光学系统14与终端用户的瞳孔对准,则相应传感器134的每一检测区域139与终端用户的瞳孔相对准。检测区域139的反射光经由一个或多个光学元件被传送到相机的实际图像传感器134,在该实施例中传感器134由处于镜架115内部的虚线示出。
在一个实施例中,该至少一个传感器134可以是可见光相机(例如,RGB相机)。在一个示例中,光学元件或光引导元件包括是部分透射且部分反射的可见光反光镜。可见光相机提供终端用户的眼睛的瞳孔的图像数据,而IR光电探测器152捕捉作为频谱的IR部分中的反射的闪光。如果使用可见光相机,则虚拟图像的反射可以出现在该相机所捕捉的眼睛数据中。图像过滤技术可被用于按需移除虚拟图像反射。IR相机对眼睛上的虚拟图像反射是不敏感的。
在另一个实施例中,至少一个传感器134(即,134l和134r)是IR辐射可被定向到的IR相机或位置敏感检测器(PSD)。从眼睛反射的IR辐射可以来自照明器153、其他IR照明器(未示出)的入射辐射或者来自从眼睛反射的环境IR辐射。在一些情况中,传感器134可以是RGB和IR相机的组合,并且光引导元件可包括可见光反射或转向元件和IR辐射反射或转向元件。在一些情况中,相机134可被嵌入在系统14的镜片中。另外,可以应用图像过滤技术来将相机混合到用户视野中以减轻对用户的任何干扰。
如图2E所描绘的,有四组照明器153,照明器153与光电检测器152配对并由障碍154分开以避免照明器153所生成的入射光与在光电检测器152处接收到的反射光之间的干扰。为了在附图中避免不必要的混乱,附图标记就被示出了代表性的一对。每一照明器可以是生成大约预定波长的窄光束的红外(IR)照明器。光电检测器中的每一个可被选择来捕捉大约该预定波长的光。红外还可以包括近红外。因为照明器或光电检测器可能存在波长漂移或者波长周围的微小范围是可接受的,所以照明器和光电检测器可以具有与用于生成或检测的波长有关的容限范围。在传感器是IR相机或IR位置敏感检测器(PSD)的一些实施例中,光电检测器可包括附加数据捕捉设备并且也可被用来监视照明器的操作,例如波长漂移、波束宽度改变等。光电检测器还可提供闪光数据,其中可见光相机作为传感器134。
如图2E所描绘的,每一显示光学系统14以及它面向每一眼睛的凝视检测元件的安排(例如,相机134及其检测区域139、照明器153以及光电检测器152)位于可移动的内部镜架部分171l、171r上。在该示例中,显示调整机构包括具有转动轴205的一个或多个马达203,该显示调整机构附连到在由马达203驱动的传动轴205的引导和力量下从左向右滑动或反向滑动的内部镜架部分117。在一些实施例中,一个马达203可以驱动两个内部镜架。
图2F描绘了HMD 2的一部分的一个替换实施例,该HMD 2具有包括凝视检测元件的可移动显示光学系统。如所描绘的,每个显示光学系统14被包围在分开的镜架部分115l、115r中。镜架部分中的每一个可由马达203分开地移动。关于具有可移动显示光学系统的HMD的更多信息可在2011年9月30日提交的美国专利申请号13/250,878(微软代理案卷号No.334505.01)、题为“个人音频/视频系统”中找到。
图2G描绘了HMD 2的一部分的侧视图的一个实施例,该HMD 2包括镜架115的眼镜腿102。在镜架115的前方是可捕捉视频和静止图像的前向视频相机113。在一些实施例中,前向相机113可包括深度相机以及可见光或RGB相机。在一个示例中,该深度相机可包括IR照明器发射器和像处于可见图像传感器前方的热镜等热反射表面,该热反射表面使得可见光透过并将处于照明器所发射的波长范围内或预定波长周围的所反射的IR辐射定向到CCD或其他类型的深度传感器。可使用其它类型的可见光相机(例如,RGB相机或图像传感器)和深度相机。关于深度相机的更多信息可在2010年6月11日提交的美国专利申请12/813,675(微软代理案卷号No.334505.01)中找到。来自相机的数据可被发送到控制电路136以供处理,以便通过图像分割和/或边缘检测技术来标识对象。
耳机130、惯性传感器132、GPS收发器144、以及温度传感器138处于镜腿102内部或安装在镜腿102上。在一个实施例中,惯性传感器132包括三轴磁力计、三轴陀螺仪、以及三轴加速度计。惯性传感器用于感测HMD 2的位置、取向、和突然加速。还可从这些移动中确定头部位置。
在一些情况下,HMD 2可包括可创建包括一个或多个虚拟对象的一个或多个图像的图像生成单元。在一些实施例中,微显示器可被用作图像生成单元。如所描绘的,微显示器部件173包括光处理元件和可变焦调整器135。光处理元件的一个示例是微显示器单元120。其他示例包括诸如透镜系统122的一个或多个透镜之类的一个或多个光学元件、以及诸如面124之类的一个或多个反射元件。透镜系统122可包括单透镜或多个透镜。
微显示器单元120安装在镜腿102上或处于镜腿102内部,它包括图像源并生成虚拟对象的图像。微显示器单元120在光学上与透镜系统122以及反射面124对准。光学对准可沿着光轴133或包括一个或多个光轴的光学路径133。微显示器单元120通过透镜系统122来投影虚拟对象的图像,这可将图像光定向到反射元件124。可变焦调整器135改变微显示器部件的光路中的一个或多个光处理元件之间的位移或微显示器部件中的元件的光功率(optical power)。透镜的光功率被定义成其焦距的倒数(即,1/焦距),使得一个改变将影响另一个。焦距的改变导致关注微显示器部件173所生成的图像的视野区域中的改变。
在微显示器部件173作出位移改变的一个示例中,在电枢137内对位移改变进行引导,电枢137支承诸如透镜系统122和微显示器120之类的至少一个光处理元件。电枢137帮助在各元件的物理移动期间稳定沿光路133的对准,以达到所选位移或光功率。在一些示例中,调整器135可移动一个或多个光学元件,诸如电枢137内的透镜系统122中的透镜。在其他示例中,电枢可在围绕光处理元件(例如,微显示器120)的区域中具有槽或空间,使得它在该元件上移动而不需移动光处理元件。电枢中的另一元件(诸如透镜系统122)被附连,使得系统122或内部的透镜随着移动电枢137而滑动或移动。位移范围通常是几毫米(mm)的量级。在一个示例中,范围是1-2毫米。在其他示例中,电枢137可以向透镜系统122提供对涉及除位移之外的其他物理参数的调整的焦点调整技术的支持。这样的参数的示例是偏振。
关于调整微显示器部件的焦距的更多信息可在2010年11月8日提交的美国专利申请号12/941,825(微软代理案卷号No.330434.01)、题为“用于增强现实显示器的自动可变虚拟聚焦”中找到。
在一个实施例中,调整器135可以是诸如压电马达之类的致动器。也可使用用于致动器的其他技术,并且这样的技术的一些示例是由线圈和永久磁铁、磁致伸缩元件、以及电致伸缩元件形成的音圈。
若干不同的图像生成技术可用于实现微显示器120。在一个示例中,微显示器120可以使用透射投影技术来实现,其中光源由光学活性材料来调制,用白光从背后照亮。这些技术通常是使用具有强大背光和高光能量密度的LCD类型的显示器来实现的。微显示器120还可使用反射技术来实现,其中外部光被光学活性材料反射并调制。取决于该技术,照明可由白光源或RGB源来向前点亮。数字光处理(DLP)、硅上液晶(LCOS)、以及来自Qualcomm有限公司的显示技术都是高效的反射技术的示例,因为大多数能量从已调制结构反射离开并且可用在本文描述的系统中。附加地,微显示器120可以使用发射技术来实现,其中光由该显示器生成。例如,来自Microvision有限公司的PicoPTM引擎使用微型镜面舵来将激光信号发射到担当透射元件的小型屏幕上或直接将光束(例如,激光)发射到眼睛。
图2H描绘了HMD 2的一部分的侧视图的一个实施例,其提供对微显示器部件的三维调整的支持。以上在图2G中示出的附图标记中的一些已被移除以避免附图中的混乱。在显示光学系统14在三个维度的任意维度中被移动的一些实施例中,由反射面124表示的光学元件和微显示器部件173的其他元件也可被移动以维持虚拟图像的光到该显示光学系统的光路133。在该示例中,由马达框203和传动轴205所表示的在控制电路136的控制之下的一个或多个马达所构成的XYZ传输机构控制微显示器部件173的各元件的移动。可被使用的马达的示例是压电马达。在所示出的示例中,一个马达被附连到电枢137并还移动可变焦点调整器135,并且另一典型马达203控制反射元件124的移动。
图3描绘了包括捕捉设备20和计算环境12的计算系统10的一个实施例。在一些实施例中,捕捉设备20和计算环境12可以集成在单个移动计算设备中。该单个集成移动计算设备可包括移动设备,诸如图1中的移动设备19。在一些示例中,捕捉设备20和计算环境12可被集成在HMD中。在其它实施例中,捕捉设备20可与第一移动设备(诸如图2A中的移动设备19)集成,而计算环境12可与和第一移动设备通信的第二移动设备(诸如图2A中的移动设备5)集成。
在一个实施例中,捕捉设备20可以包括用于捕捉图像和视频的一个或多个图像传感器。图像传感器可以包括CCD图像传感器或CMOS图像传感器。在一些实施例中,捕捉设备20可包括IR CMOS图像传感器。捕捉设备20还可以包括深度相机(或深度传感相机),该相机被配置成经由包括例如飞行时间、结构化光、立体图像等在内的任何合适的技术来捕捉带有包括深度图像的深度信息的视频,该深度图像可包括深度值。
捕捉设备20可包括图像相机组件32。在一个实施例中,图像相机组件32可以包括可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2D)像素区域,其中2D像素区域中的每个像素都可以表示深度值,诸如所捕捉的场景中的对象与图像相机组件32相距的距离,例如以厘米、毫米等为单位。
图像相机组件32可包括可用来对捕捉区域的深度图像进行捕捉的IR光组件34、三维(3D)相机36、以及RGB相机38。例如,在飞行时间分析中,捕捉设备20的IR光组件34可以将红外光发射到捕捉区域上,然后可以使用传感器,用例如3D相机36和/或RGB相机38来检测从捕捉区域中的一个或多个对象的表面反向散射的光。在某些实施例中,可以使用脉冲式红外光,从而出射光脉冲和相应的入射光脉冲之间的时间可以被测量并被用于确定从捕捉设备20到捕捉区域中的一个或多个对象上的特定位置的物理距离。此外,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备到与一个或多个对象相关联的特定位置的物理距离。
在另一示例中,捕捉设备20可使用结构化光来捕捉深度信息。在该分析中,图案化光(即,被显示为诸如网格图案或条纹图案等已知图案的光)可经由例如IR光组件34被投射到捕捉区域上。在撞击到捕捉区域中的一个或多个对象(或目标)的表面时,作为响应,图案可变形。图案的这种变形可由例如3-D相机36和/或RGB相机38来捕捉并被分析以确定从捕捉设备到一个或多个对象上的特定位置的物理距离。捕捉设备20可包括用于产生准直光的光学器件。在一些实施例中,可使用激光投影仪来创建结构化光图案。光投影仪可包括激光器、激光二极管和/或LED。
在某些实施例中,可将两个或更多个不同的相机整合到一个集成捕捉设备中。例如,深度相机和视频相机(例如RGB视频相机)可以被整合到共同的捕捉设备中。在一些实施例中,可协同使用相同或不同类型的两个或更多个分开的捕捉设备。例如,可以使用深度相机和分开的视频相机,可以使用两个视频相机,可以使用两个深度相机,可以使用两个RGB相机,或者可以使用任何组合和数目的相机。在一个实施例中,捕捉设备20可包括可以从不同的角度观察捕捉区域的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。还可通过使用多个检测器(可以是单色、红外、RGB或任何其它类型的检测器)捕捉图像并执行视差计算,来确定深度。也可使用其它类型的深度图像传感器来创建深度图像。
如图3所描绘的,捕捉设备20可以包括一个或多个话筒40。该一个或多个话筒40中的每一个都可以包括可以接收声音并将其转换成电信号的换能器或传感器。该一个或多个话筒可包括话筒阵列,其中一个或多个话筒可以按预定布局排列。
捕捉设备20可以包括可以与图像相机组件32可操作地通信的处理器42。处理器42可包括标准处理器、专用处理器、微处理器等。处理器42可以执行指令,指令可以包括用于存储过滤器或简档、接收和分析图像、确定是否已经发生特定情况的指令或任何其它合适的指令。应当理解,至少一些图像分析和/或目标分析和跟踪操作可以由一个或多个诸如捕捉设备20的捕捉设备内所包含的处理器来执行。
捕捉设备20可包括存储器44,该存储器可存储可由处理器42执行的指令、由3D相机或RGB相机捕捉的图像或图像帧、过滤器或简档、或任何其它合适的信息、图像等等。在一个示例中,存储器44可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其它合适的存储组件。如所描绘的,存储器44可以是与图像捕捉组件32和处理器42进行通信的分开的组件。在另一实施例中,存储器44可被集成到处理器42和/或图像捕捉组件32中。在其他实施例中,捕捉设备20的组件32、34、36、38、40、42和44中的部分或全部可被容纳在单个外壳中。
捕捉设备20可以经由通信链路46与计算环境12进行通信。通信链路46可以是包括例如USB连接、火线连接、以太网电缆连接等有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等无线连接。计算环境12可以向捕捉设备20提供时钟,可以使用该时钟来通过通信链路46确定何时捕捉例如场景。在一个实施例中,捕捉设备20可将由例如3D相机36和/或RGB相机38捕捉的图像经由通信链路46提供给计算环境12。
如图3中所描绘的,计算环境12包括与应用196通信的图像和音频处理引擎194。应用196可包括操作系统应用或诸如游戏应用的其他计算应用。图像和音频处理引擎194包括虚拟数据引擎197、对象和姿势识别引擎190、结构数据198、处理单元191和存储器单元192,所有都彼此通信。图像和音频处理引擎194处理从捕捉设备20接收的视频、图像和音频数据。为了辅助对象的检测和/或跟踪,图像和音频处理引擎194可以利用结构数据198以及对象和姿势识别引擎190。虚拟数据引擎197处理虚拟对象,并记录与在存储器单元192中存储的真实世界环境的各种映射有关的虚拟对象的位置和定向。
处理单元191可以包括用于执行对象、面部和语音识别算法的一个或多个处理器。在一个实施例中,图像和音频处理引擎194可以将对象识别和面部识别技术应用于图像或视频数据。例如,对象识别可以用于检测特定对象(例如足球、汽车、人或陆标),并且面部识别可以用于检测特定人的面部。图像和音频处理引擎194可以将音频和语音识别技术应用于音频数据。例如,音频识别可以用于检测特定声音。要检测的特定面部、语音、声音和对象可以存储在存储器单元192中所包含的一个或多个存储器中。处理单元191可执行存储在存储器单元192中的计算机可读指令以执行此处讨论的过程。
图像和音频处理引擎194可以在执行对象识别时利用结构数据198。结构数据198可以包括关于要跟踪的目标和/或对象的结构信息。例如,可以存储人类的骨架模型以帮助识别身体部位。在另一示例中,结构数据198可以包括关于一个或多个无生命对象的结构信息以便帮助识别所述一个或多个无生命对象。
图像和音频处理引擎194还可以在执行姿势识别时利用对象和姿势识别引擎190。在一个示例中,对象和姿势识别引擎190可以包括姿势过滤器的集合,每个姿势过滤器都包括关于骨架模型可执行的姿势的信息。对象和姿势识别引擎190可将由捕捉设备20所捕捉的数据(其形式为骨架模型以及与其相关联的移动)与姿势库中的姿势过滤器进行比较来标识用户(其由骨架模型来表示)何时执行了一个或多个姿势。在一个示例中,图像和音频处理引擎194可以使用对象和姿势识别引擎190来帮助解释骨架模型的移动以及检测特定姿势的执行。
在一些实施例中,可以用诸如IR回射标记之类的一个或多个标记来扩充所跟踪的一个或多个对象,以便改进对象检测和/或跟踪。也可以使用平面基准图像、已编码AR标记、QR码和/或条形码来改进对象检测和/或跟踪。一旦检测到一个或多个对象和/或姿势,图像和音频处理引擎194可以向应用196报告所检测的每个对象或姿势的标识以及相应的位置和/或定向(如果适用)。
关于检测和跟踪对象的更多信息可在2009年12月18日提交的美国专利申请12/641,788(微软代理案卷号No.328322.01)“Motion Detection Using DepthImages(使用深度图像的运动检测)”,以及美国专利申请12/475,308(微软代理案卷号No.326705.01)“Device for Identifying and Tracking Multiple Humansover Time(用于随时间标识和跟踪多个人类的设备)”中找到,这两个申请的全部内容通过引用结合于此。关于对象和姿势识别引擎190的更多信息可在2009年4月13日提交的美国专利申请12/422,661(微软代理案卷号No.325987.02)、“Gesture Recognition System Architecture(姿势识别系统架构)”中找到。关于识别姿势的更多信息可在2009年2月23日提交的美国专利申请12/391,150(微软代理案卷号No.326082.02)“Standard Gestures(标准姿势)”;以及2009年5月29日提交的美国专利申请12/474,655(微软代理案卷号No.327160.01)“Gesture Tool(姿势工具)”中找到。
图4-6描绘了各种增强现实环境的各种实施例,其中可向HMD的终端用户显示虚拟指针,并且虚拟指针可被终端用户使用与辅助设备相关联的运动和/或朝向信息来控制。使用虚拟指针,终端用户可在增强现实环境中选择并操纵虚拟对象、在增强现实环境中选择现实世界对象,和/或控制HMD的图形用户界面(例如,终端用户可选择应用、拖放虚拟对象,或放大到增强现实环境的各部分内)。
图4描绘了佩戴HMD(诸如图1中的移动设备19)的终端用户所看到的增强现实环境410的一个实施例。如所描绘的,增强现实环境410已经用虚拟指针32、虚拟球25和虚拟怪物27增强。增强现实环境410还包括包含椅子16的现实世界对象。使用虚拟指针32,终端用户可选择并操作虚拟对象,诸如虚拟球25和虚拟怪物27,并选择诸如椅子16的现实世界对象。在一些情况中,终端用户可在增强现实环境410中选择(现实或虚拟)对象以获取并显示与该对象相关联的附加信息。终端用户还可在增强现实环境410中移动,重置和/或拖放虚拟对象。在一些实施例中,如果虚拟指针指向(或覆盖)可选的虚拟或现实世界对象,那么HMD可向终端用户提供对象可选的反馈(例如,振动、声音,或可使用可视指示符来警告终端用户与可选对象相关联的附加信息可用)。在一个实施例中,在增强现实环境410中的虚拟指针32的初始位置可基于终端用户正在凝视的特定方向来确定。
图5描绘了佩戴HMD(诸如图1中的移动设备19)的终端用户所看到的增强现实环境410的一个实施例。如所描绘的,增强现实环境410已经用虚拟指针32、虚拟球25和虚拟怪物27增强。增强现实环境410还包括包含椅子16的现实世界对象。在一个实施例中,在增强现实环境中的虚拟指针的初始位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象来确定。在一些情况中,虚拟指针32的初始位置可与最接近终端用户的凝视方向的虚拟对象相关联。在其它情况中,虚拟指针32的初始位置可与增强现实环境410内的在给定时间段内(例如,在过去的30秒内)已经被最多地关注了的特定(现实或虚拟)对象相关联。
图6描绘了佩戴HMD(诸如图1中的移动设备19)的终端用户所看到的增强现实环境410的一个实施例。如所描绘的,增强现实环境410已经用虚拟指针32、虚拟球25和虚拟怪物27增强。增强现实环境410还包括包含椅子16的现实世界对象。在一个实施例中,增强现实环境410的部分26可基于虚拟指针32的位置来被扩大(或放大)。增强现实环境410的放大部分26可结合虚拟指针32来使用以改善增强现实环境410内的现实和/或虚拟对象的选择。在一些实施例中,虚拟指针32的控制可对应于辅助设备((例如,移动电话或具有向HMD提供与该设备相关的运动和/或朝向信息的能力的其它设备)的移动。在一些情况中,辅助设备可包括可向HMD提供与终端用户的手臂、手和/或手指移动相关联的运动和/或朝向信息的启用IMU的环、手表、手镯,或腕带。
图7A是描述了用于使用辅助设备控制增强现实环境的方法的一个实施例的流程图。在一个实施例中,图7A的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤702,HMD和辅助设备之间的链接被建立。辅助设备可包括移动电话或其它具有向HMD提供运动和/或朝向信息的能力的移动设备(例如,启用IMU的环或腕带)。在一个实施例中,可与具有向HMD提供的凭证认证的辅助设备建立链接。HMD可经由诸如Wi-Fi连接或蓝牙连接的无线连接来与辅助设备进行通信。
在步骤704,对应于HMD的虚拟指针模式的触发事件被检测。虚拟指针模式可允许HMD的终端用户控制在提供给HMD的终端用户的增强现实环境内的虚拟指针,并选择和操纵增强现实环境内的现实对象和/或虚拟对象。虚拟指针可包括可在增强现实环境内向终端用户显示的虚拟箭头、虚拟光标,或虚拟引导。在一些情况中,虚拟指针可包括投射到增强现实环境中的虚拟光线末端。
在一个实施例中,在检测到来自终端用户的语音命令(例如,终端用户说“打开虚拟指针”)之后,触发事件可被检测。在另一个实施例中,在检测到与辅助设备相关联的特定移动或姿势(例如,辅助设备的摇动)之后,触发事件可被检测。还可基于HMD的终端用户作出的语音命令和物理移动(例如,按压辅助设备上的按钮)的组合来检测触发事件。在一些情况中,在检测到终端用户执行特定姿势(例如,与虚拟指针模式相关联的手势)之后,触发事件可被检测。
在步骤706,初始虚拟指针位置被确定。在一个实施例中,初始虚拟指针位置可基于终端用户凝视方向(例如,在终端用户正在看的增强现实环境内的特定区域)来确定。在另一个实施例中,初始虚拟指针位置可基于终端用户正在凝视的特定方向和/或终端用户当前关注或最近关注的特定对象(例如,终端用户最后30秒内关注最多的特定对象)来确定。在一些情况中,可向终端用户显示多于一个的虚拟指针,其中每个虚拟指针与不同颜色或符号相关联。终端用户可通过标识虚拟指针之一的语音命令来选择虚拟指针位置之一。用于确定初始虚拟指针位置的过程的一个实施例稍后参考图7B来描述。
在步骤708,辅助设备的初始朝向被确定。在一个实施例中,初始朝向可由HMD基于由辅助设备提供给HMD的朝向信息来确定。随后可相对于初始朝向作出辅助设备的朝向的改变。在另一个实施例中,可通过辅助设备它本身确定初始朝向,其中相对朝向改变可被提供给HMD。初始朝向可对应于相对于由HMD提供的参考帧的朝向。在一些情况中,在特定时间段之后(例如,在30秒之后)HMD可重置或重新校准辅助设备,以便纠正从辅助设备传送到HMD的朝向信息中的漂移误差或累积误差。
在步骤710,从辅助设备获得经更新的朝向信息。可从辅助设备经由无线连接向HMD传送朝向信息。在步骤712中,确定辅助设备的朝向是否在超时时间段内在阈值范围内已经改变。如果辅助设备的朝向已经在超时时间段内在阈值范围内改变,那么执行步骤716。否则,如果辅助设备的朝向在超时时间段内在阈值范围内未改变,那么执行步骤714。确定辅助设备的朝向是否在超时时间段内在阈值范围内已经改变的过程的一个实施例稍后参考图7C描述。
在步骤714中,虚拟指针模式被禁用。在一些情况中,虚拟指针模式可被禁用,因为与辅助设备相关联的朝向改变超出了被允许用于有效朝向改变的阈值范围。在一个示例中,朝向改变可以多于阈值范围所允许的,因为终端用户已经将辅助设备放进他们的口袋并开始走或跑。在另一个示例中,朝向改变可以小于阈值范围长于超时时间段(例如两分钟),因为终端用户已将辅助设备放在桌子上。
在步骤716,基于辅助设备的朝向的改变来更新虚拟指针位置。在步骤718,向HMD的终端用户提供基于虚拟指针位置的反馈。在一个实施例中,反馈可包括触觉反馈。在一个示例中,如果虚拟指针位置与增强现实环境内的可选对象相关联,那么反馈可包括辅助设备的振动。在另一个示例中,如果虚拟指针位置对应于与可选对象相关联的位置或区域,那么反馈可包括在增强现实环境内的可选对象的高亮(或其它可视指示)。如果虚拟指针位置覆盖了增强现实环境内的可选对象,那么反馈还可包括信号或声音(例如,蜂鸣)。
在步骤720,基于虚拟指针位置来更新HMD的增强现实环境。经更新的增强现实环境可经由HMD显示给终端用户。在一个实施例中,增强现实环境可通过将虚拟指针移动到经更新的虚拟指针位置来更新。在另一个实施例中,可通过响应于(例如,经由摇动辅助设备)对可选对象的选择以及虚拟指针位置在增强现实环境的与可选对象相关联的区域内,在增强现实环境内提供与可选对象相关联的附加信息来更新增强现实环境。附加信息可从补充信息服务器(诸如图1的服务器15)来获得。在一些情况中,随着虚拟指针(每个虚拟指针位置)更接近可选对象,虚拟指针的移动可变慢以改善选择准确性。在执行了步骤720之后,执行步骤710。
图7B是描述了用于确定初始虚拟指针位置的过程的一个实施例的流程图。图7B中描述的过程是用于实现图7A中步骤706的过程的一个示例。在一个实施例中,图7B的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤742,与HMD的终端用户相关联的凝视方向被确定。可使用凝视检测技术来确定凝视方向,并且可以对应于增强现实环境内的空间或区域中的一点。在步骤744,与HMD的视野相关联的第一组图像被获得。第一组图像可包括彩色和/或深度图像。第一组图像可使用捕捉设备(诸如图2B中的捕捉设备213)来捕捉。
在步骤746,在视野内的一个或多个可选对象基于第一组图像来标识。一个或多个可选对象可通过将对象和/或图像识别技术应用于第一组图像来被标识。一个或多个可选对象可包括虚拟对象(例如虚拟怪物)和/或现实世界对象(例如椅子)。一个或多个可选对象可与各对象相关联,针对它们的附加信息可被获得并向增强现实环境内的终端用户显示。在一些情况中,在增强现实环境内选择对象的能力可依赖于在HMD上运行的应用的状态(例如,当应用处在特定状态时,应用逻辑可能仅允许特定类型的虚拟对象的选择)。
在步骤748,一个或多个可选对象中的最接近凝视方向的一个可选对象被确定。在一个实施例中,可选对象包括与增强现实环境内的最接近凝视方向的位置相关联的虚拟对象。在步骤750,与可选对象相关联的虚拟指针位置被确定。虚拟指针位置可与可选对象的中心点对应。在步骤752中,虚拟指针位置被输出。
图7C是描述确定辅助设备的朝向是否在超时时间段内在阈值范围内已经改变的过程的一个实施例的流程图。图7C中描述的过程是用于实现图7A中的步骤712的过程的一个示例。在一个实施例中,图7C的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤762,从辅助设备获得经更新的朝向信息。辅助设备可包括移动电话或HMD的终端用户握住的手持电子设备。在步骤764,与辅助设备相关联的朝向改变基于经更新的朝向信息来确定。在一个实施例中,朝向的改变对应于与辅助设备的朝向相关联的一个或多个欧拉角的改变。
在步骤766,确定朝向的改变是否大于上限阈值准则。在一个实施例中,上限阈值准则可以与500微秒时间段内大于30度的朝向的改变相对应。如果确定朝向的改变大于上限阈值准则,则执行步骤768。在步骤768,输出朝向的无效改变(例如,朝向的改变被认为过多且不是朝向改变的可靠指示)。否则,如果确定朝向的改变没有大于上限阈值准则,则执行步骤770。在步骤770,确定朝向的改变是否小于下限阈值准则。在一个实施例中,下限阈值准则可以与50微秒时间段内小于1度的朝向的改变相对应。如果确定朝向的改变小于下限阈值准则,则执行步骤772。在步骤772,输出朝向的无效改变(例如,朝向的改变被认为是噪音且不是朝向改变的可靠指示)。否则,如果确定朝向的改变没有小于下限阈值准则,则执行步骤774。在步骤774,输出朝向的有效改变。如果检测到朝向的有效改变,那么朝向的改变可被使用以更新虚拟指针在增强现实环境内的位置。
图8是描述了用于使用辅助设备控制增强现实环境的方法的一个替换实施例的流程图。在一个实施例中,图8的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤802,对应于HMD的虚拟指针模式的触发事件被检测。虚拟指针模式可允许HMD的终端用户控制在提供给终端用户的增强现实环境内的虚拟指针,并选择和操纵增强现实环境内的现实和/或虚拟对象。虚拟指针可包括可在增强现实环境内向终端用户显示的虚拟箭头、虚拟光标,或虚拟引导。在一些情况中,虚拟指针可包括投射到增强现实环境中的虚拟光线末端。
在一个实施例中,在检测到来自终端用户的语音命令(例如,终端用户说“启动虚拟指针”)之后,触发事件可被检测。在另一个实施例中,在检测到与辅助设备相关联的特定移动或姿势(例如,辅助设备的摇动)之后,触发事件可被检测。还可基于HMD的终端用户作出的语音命令和物理移动(例如,按压辅助设备上的按钮)的组合来检测触发事件。在一些情况中,在检测到终端用户执行特定姿势(例如,与虚拟指针模式相关联的手势)之后,触发事件可被检测。
在步骤804,与辅助设备相关联的初始朝向被确定。在一个实施例中,初始朝向可基于由辅助设备提供给HMD的朝向信息来被HMD确定。随后可相对于初始朝向作出辅助设备的朝向的改变。在另一个实施例中,可通过辅助设备本身确定初始朝向,其中相对朝向改变可被提供给HMD。初始朝向可对应于相对于由HMD提供的参考帧的朝向。在一些情况中,在特定时间段之后(例如,在30秒之后)HMD可重置或重新校准辅助设备,以便纠正从辅助设备传送到HMD的朝向信息中的漂移误差或累积误差。
在步骤806,与HMD的终端用户相关联的凝视方向被确定。可使用凝视检测技术来确定凝视方向,并且可以对应于增强现实环境内的空间或区域中的一点。在步骤808,基于凝视方向确定初始虚拟指针位置。在一个实施例中,初始虚拟指针位置可基于终端用户凝视方向(例如,朝着在终端用户正在看的增强现实环境内的特定区域)来确定。在一些情况中,基于凝视方向可向终端用户显示多于一个的虚拟指针,其中每个虚拟指针与不同颜色或符号相关联。终端用户可通过标识虚拟指针之一的语音命令(例如,蓝色箭头)来选择虚拟指针位置之一。
在步骤810,从辅助设备获得经更新的朝向信息。可从辅助设备经由无线连接向HMD传送经更新的朝向信息。朝向信息可对应于相对于特定参考帧的绝对朝向信息或相对朝向信息。在步骤812,确定朝向的改变是否满足选择准则。在一个实施例中,选择准则包括辅助设备的摇动。在另一个实施例中,选择准则包括朝向的特定改变或后续的朝向的改变(例如,三秒时间段内终端用户将他们的移动设备从水平位置移动到垂直位置又回到水平位置)。如果确定朝向的改变满足选择准则,则执行步骤814。
在步骤814,HMD的增强现实环境基于用户选择来更新。增强现实环境可基于用户选择和虚拟指针位置在增强现实环境内的位置来更新。在一个示例中,终端用户可将虚拟指针移动到增强现实环境内对应于可选对象的位置并执行选择姿势(例如,通过摇动他们的移动电话使得选择准则被满足)。虚拟指针位置和用户选择的组合可导致与可选对象相关联的附加信息被获得,并向增强现实环境内的终端用户显示。
否则,如果确定朝向的改变不满足选择准则,则执行步骤816。在步骤816,虚拟指针位置基于经更新的朝向信息来更新。在一个实施例中,与虚拟指针相关联的虚拟指针敏感性可基于虚拟指针位置来被调节。在一个示例中,如果虚拟指针位置来到可选对象的特定距离内,则虚拟指针敏感性(例如,辅助设备的朝向的改变要被转换成虚拟指针的位置的改变的速率)可被降低。在步骤818,HMD的增强现实环境基于经更新的虚拟指针位置来更新。经更新的增强现实环境可经由HMD显示给终端用户。增强现实环境可被更新以在增强现实环境内移动并显示虚拟指针的经更新的位置。在执行了步骤818之后,执行步骤810。
所公开的技术的一个实施例包括检测对应于HMD的虚拟指针模式的触发事件、响应于检测到触发事件确定初始虚拟指针位置、从与HMD通信的辅助设备获得朝向信息、基于朝向信息更新虚拟指针位置,并对应于虚拟指针位置在增强现实环境内显示虚拟指针。
所公开的技术的一个实施例包括存储器、与存储器通信的一个或多个处理器,以及与一个或多个处理器通信的透视显示器。存储器存储与和电子设备进行通信的辅助设备相关联的初始朝向。一个或多个处理器检测对应于虚拟指针模式的触发事件并响应于检测到触发事件确定初始虚拟指针位置。一个或多个处理器从辅助设备获得朝向信息并基于朝向信息和初始朝向来更新虚拟指针位置。透视显示器显示包括对应于虚拟指针位置的虚拟指针的增强现实环境。
所公开的技术的一个实施例包括检测对应于HMD的虚拟指针模式的触发事件、确定与HMD的终端用户相关联的凝视方向、基于凝视方向确定初始虚拟指针位置、从辅助设备获得经更新的朝向信息、基于经更新的朝向信息更新虚拟指针位置,对应于虚拟指针位置在增强现实环境内显示虚拟指针、确定选择准则被满足,并基于选择准则和虚拟指针位置显示经更新的增强现实环境。
图9是移动设备8300(诸如图1中的移动设备19)的一个实施例的框图。移动设备可以包括已经整合了无线接收机/发射机技术的膝上型计算机、袖珍计算机、移动电话、个人数字助理、以及手持式媒体设备。
移动设备8300包括一个或多个处理器8312以及存储器8310。存储器8310包括应用8330和非易失性存储8340。存储器8310可以是任何种类的存储器存储介质类型,包括非易失性和易失性存储器。移动设备操作系统处理移动设备8300的不同操作,并可包含用于操作的用户界面,如拨打和接听电话呼叫、文本消息收发、检查语音邮件等。应用8330可以是任何种类的程序,如用于照片和/或视频的相机应用、地址簿、日历应用、媒体播放器、因特网浏览器、游戏、闹钟应用、以及其它应用。存储器8310中的非易失性存储组件8340可以包含诸如音乐、照片、联系人数据、日程安排数据、以及其它文件之类的数据。
一个或多个处理器8312与透视显示器8309进行通信。透视显示器8309可显示与现实世界环境相关联的一个或多个虚拟对象。所述一个或多个处理器8312还与下列各项通信:RF发射机/接收机8306,其又耦合到天线8302;红外发射机/接收机8308;全球定位服务(GPS)接收器8365;以及移动/定向传感器8314,其可以包括加速度计和/或磁力计。RF发射机/接收机8308可以通过诸如或IEEE 802.11标准之类的各种无线技术标准来实现无线通信。加速度计可能已经结合在移动设备中以实现诸如下列应用:智能用户界面应用,其让用户通过姿势输入命令;以及定向应用,其可以在移动设备被旋转时将显示自动地从竖向改变成横向。可以,例如,通过微机电系统(MEMS)来提供加速度计,该微机电系统是构建在半导体芯片上的微小机械器件(微米尺寸)。可以感测加速度方向、以及定向、振动和震动。所述一个或多个处理器8312还与响铃器/振动器8316、用户界面小键盘/屏幕8318、扬声器8320、话筒8322、相机8324、光传感器8326和温度传感器8328进行通信。用户界面小键盘/屏幕可以包括触敏屏幕显示器。
所述一个或多个处理器8312控制无线信号的发射和接收。在发射模式期间,所述一个或多个处理器8312向RF发射机/接收机8306提供来自话筒8322的语音信号,或其它数据信号。发射机/接收机8306通过天线8302来发射信号。响铃器/振动器8316被用于向用户发传入呼叫、文本消息、日历提醒、闹钟提醒或其它通知等信号。在接收模式期间,RF发射机/接收机8306通过天线8302接收来自远程站的语音信号或数据信号。所接收到的语音信号被提供给扬声器8320,而接收到的其它数据信号被适当地处理。
另外,可以使用物理连接器8388来将移动设备8300连接到诸如AC适配器或加电对接底座之类的外部电源,以便对电池8304进行再充电。物理连接器8388还可被用作到外部计算设备的数据连接。该数据连接允许诸如将移动设备数据与另一设备上的计算数据进行同步等操作。
所公开的技术可用各种其它通用或专用计算系统环境或配置来操作。适合结合本技术中使用的公知的计算系统、环境和/或配置的示例包括,但不限于,个人计算机、服务器计算机、手持或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品、网络PC、小型计算机、大型计算机、包含上述系统或设备中的任一个的分布式计算环境等。
所揭示的技术可在诸如程序模块等由计算机执行的计算机可执行指令的通用上下文中描述。一般而言,如此处所述的软件和程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构和其它类型的结构。硬件或硬件和软件的组合可以替代在此描述的软件模块。
所揭示的技术也可以在任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实现。在分布式计算环境中,程序模块可以位于包括存储器存储设备的本地和远程计算机存储介质中。
出于本文档的目的,与所公开的技术相关联的每个过程可以持续地并由一个或多个计算设备来执行。该过程中的每个步骤都可由与在其他步骤中所使用的那些计算设备相同或不同的计算设备来执行,且每个步骤不必由单个计算设备来执行。
出于本文的目的,说明书中引述的“一实施例”、“一个实施例”、“某些实施例”或“另一实施例”用于描述不同的实施例并且不必然指的是同一实施例。
出于本文的目的,连接可以是直接连接或间接连接(例如,经由另一方)。
出于本文的目的,术语对象的“集合”指的是一个或多个对象的“集合”。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述特定特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。
Claims (10)
1.一种控制与HMD相关联的增强现实环境的方法,包括:
检测对应于HMD的虚拟指针模式的触发事件;
响应于检测到触发事件确定初始虚拟指针位置;
从与所述HMD通信的辅助设备获得朝向信息;
基于所述朝向信息更新所述虚拟指针位置;以及
在所述增强现实环境内显示对应于所述虚拟指针位置的虚拟指针。
2.如权利要求1所述的方法,其特征在于:
所述确定初始虚拟指针位置包括确定与所述HMD的终端用户相关联的凝视方向并基于所述凝视方向设置所述初始虚拟指针位置。
3.如权利要求1所述的方法,其特征在于:
所述确定初始虚拟指针位置包括确定与所述HMD的终端用户相关联的凝视方向、在所述HMD的视野内标识一个或多个可选对象、确定所述一个或多个可选对象中最接近所述凝视方向的一个可选对象,并基于所述可选对象在所述增强现实环境内的位置来设置所述初始虚拟指针位置。
4.如权利要求3所述的方法,其特征在于,进一步包括:
如果所述虚拟指针位置对应于所述增强现实环境内与所述一个或多个可选对象相关联的一个或多个区域,就向所述终端用户提供反馈。
5.如权利要求4所述的方法,其特征在于:
所述反馈包括所述辅助设备的振动。
6.一种用于显示增强现实环境的电子设备,包括:
存储器,所述存储器存储与和所述电子设备进行通信的辅助设备相关联的初始朝向;
与所述存储器通信的一个或多个处理器,所述一个或多个处理器检测对应于虚拟指针模式的触发事件并响应于检测到所述触发事件确定初始虚拟指针位置,所述一个或多个处理器从所述辅助设备获得朝向信息,并基于所述朝向信息和所述初始朝向更新所述虚拟指针位置;以及
与所述一个或多个处理器通信的透视显示器,所述透视显示器显示包括对应于所述虚拟指针位置的虚拟指针的增强现实环境。
7.如权利要求6所述的电子设备,其特征在于:
所述一个或多个处理器通过确定与所述电子设备的终端用户相关联的凝视方向来确定所述初始虚拟指针位置,并基于所述凝视方向来设置所述初始虚拟指针位置。
8.如权利要求6所述的电子设备,其特征在于:
所述一个或多个处理器通过确定与所述电子设备的终端用户相关联的凝视方向来确定所述初始虚拟指针位置、在所述电子设备的视野内标识一个或多个可选对象、确定所述一个或多个可选对象中最接近所述凝视方向的一个可选对象,并基于所述可选对象在所述增强现实环境内的位置来设置所述初始虚拟指针位置。
9.如权利要求8所述的电子设备,其特征在于:
如果所述虚拟指针位置对应于所述增强现实环境内与所述一个或多个可选对象相关联的一个或多个区域,所述一个或多个处理器向所述终端用户提供反馈。
10.如权利要求6-9中的任一项所述的电子设备,其特征在于:
所述电子设备包括HMD;以及
所述辅助设备包括移动电话。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/691,445 US20140152558A1 (en) | 2012-11-30 | 2012-11-30 | Direct hologram manipulation using imu |
US13/691,445 | 2012-11-30 | ||
PCT/US2013/072524 WO2014085789A1 (en) | 2012-11-30 | 2013-11-30 | Direct hologram manipulation using imu |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105009039A true CN105009039A (zh) | 2015-10-28 |
Family
ID=49817282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380062677.1A Pending CN105009039A (zh) | 2012-11-30 | 2013-11-30 | 使用imu的直接全息图操纵 |
Country Status (11)
Country | Link |
---|---|
US (1) | US20140152558A1 (zh) |
EP (1) | EP2926223A1 (zh) |
JP (1) | JP2015536514A (zh) |
KR (1) | KR20150092165A (zh) |
CN (1) | CN105009039A (zh) |
AU (1) | AU2013351980A1 (zh) |
BR (1) | BR112015011713A2 (zh) |
CA (1) | CA2889563A1 (zh) |
MX (1) | MX2015006874A (zh) |
RU (1) | RU2015120560A (zh) |
WO (1) | WO2014085789A1 (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427865A (zh) * | 2015-11-04 | 2016-03-23 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人的语音控制系统以及方法 |
CN105955461A (zh) * | 2016-04-25 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种交互界面管理方法和系统 |
CN105975057A (zh) * | 2016-04-25 | 2016-09-28 | 乐视控股(北京)有限公司 | 一种多界面交互方法和装置 |
CN106873783A (zh) * | 2017-03-29 | 2017-06-20 | 联想(北京)有限公司 | 信息处理方法、电子设备及输入装置 |
CN107085489A (zh) * | 2017-03-21 | 2017-08-22 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
CN107390871A (zh) * | 2017-07-21 | 2017-11-24 | 上海白泽网络科技有限公司 | 增强现实设备的控制方法和系统 |
CN108475109A (zh) * | 2015-12-28 | 2018-08-31 | 奥特逻科集团 | 眼睛姿态跟踪 |
CN108700941A (zh) * | 2016-05-13 | 2018-10-23 | 谷歌有限责任公司 | 用于在虚拟现实环境中对准组件的方法和设备 |
CN109154862A (zh) * | 2016-04-21 | 2019-01-04 | 诺基亚技术有限公司 | 虚拟现实因果概要内容 |
CN109146954A (zh) * | 2017-06-19 | 2019-01-04 | 苹果公司 | 用于与所显示的地图进行交互的增强现实界面 |
CN109819671A (zh) * | 2017-09-18 | 2019-05-28 | Looxid实验室公司 | 头戴式显示设备 |
CN110168475A (zh) * | 2016-11-14 | 2019-08-23 | 罗技欧洲公司 | 将用户接口装置导入虚拟现实/增强现实的系统 |
CN110249317A (zh) * | 2017-01-25 | 2019-09-17 | 微软技术许可有限责任公司 | 用于实时图像变换的无未命中高速缓存结构 |
CN110249368A (zh) * | 2016-12-05 | 2019-09-17 | 奇跃公司 | 混合现实环境中的虚拟用户输入控制 |
CN110603510A (zh) * | 2017-09-18 | 2019-12-20 | 谷歌有限责任公司 | 虚拟现实系统中虚拟控制器的位置和取向跟踪 |
CN110692031A (zh) * | 2017-06-01 | 2020-01-14 | 三星电子株式会社 | 用于虚拟现实环境中的窗口控制的系统和方法 |
CN110914790A (zh) * | 2017-07-26 | 2020-03-24 | 奇跃公司 | 采用用户界面设备的表示来训练神经网络 |
CN111052042A (zh) * | 2017-09-29 | 2020-04-21 | 苹果公司 | 基于注视的用户交互 |
CN111065952A (zh) * | 2017-06-14 | 2020-04-24 | 惠普发展公司,有限责任合伙企业 | 显示器调整 |
TWI743148B (zh) * | 2016-07-15 | 2021-10-21 | 光程研創股份有限公司 | 眼動追蹤的電腦實施方法、眼動追蹤系統及裝置 |
US11393174B2 (en) | 2017-09-29 | 2022-07-19 | Apple Inc. | Cooperative augmented reality map interface |
Families Citing this family (196)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158116B1 (en) | 2014-04-25 | 2015-10-13 | Osterhout Group, Inc. | Temple and ear horn assembly for headworn computer |
US9366867B2 (en) | 2014-07-08 | 2016-06-14 | Osterhout Group, Inc. | Optical systems for see-through displays |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US20150277120A1 (en) | 2014-01-21 | 2015-10-01 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
CN103905709A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 一种控制电子设备的方法及电子设备 |
US9619021B2 (en) | 2013-01-09 | 2017-04-11 | Lg Electronics Inc. | Head mounted display providing eye gaze calibration and control method thereof |
KR20140090552A (ko) * | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
US9489772B2 (en) * | 2013-03-27 | 2016-11-08 | Intel Corporation | Environment actuation by one or more augmented reality elements |
US10254844B2 (en) | 2013-06-20 | 2019-04-09 | Uday Parshionikar | Systems, methods, apparatuses, computer readable medium for controlling electronic devices |
DE102013013698B4 (de) * | 2013-08-16 | 2024-10-02 | Audi Ag | Verfahren zum Betreiben einer elektronischen Datenbrille |
JP6237000B2 (ja) * | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US10163264B2 (en) | 2013-10-02 | 2018-12-25 | Atheer, Inc. | Method and apparatus for multiple mode interface |
US10740979B2 (en) | 2013-10-02 | 2020-08-11 | Atheer, Inc. | Method and apparatus for multiple mode interface |
US9658688B2 (en) * | 2013-10-15 | 2017-05-23 | Microsoft Technology Licensing, Llc | Automatic view adjustment |
US20150193979A1 (en) * | 2014-01-08 | 2015-07-09 | Andrej Grek | Multi-user virtual reality interaction environment |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US9366868B2 (en) | 2014-09-26 | 2016-06-14 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US20150206173A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US12105281B2 (en) | 2014-01-21 | 2024-10-01 | Mentor Acquisition One, Llc | See-through computer display systems |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9310610B2 (en) | 2014-01-21 | 2016-04-12 | Osterhout Group, Inc. | See-through computer display systems |
US9529199B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9615742B2 (en) | 2014-01-21 | 2017-04-11 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US12112089B2 (en) | 2014-02-11 | 2024-10-08 | Mentor Acquisition One, Llc | Spatial location presentation in head worn computing |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150241963A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US20150309534A1 (en) | 2014-04-25 | 2015-10-29 | Osterhout Group, Inc. | Ear horn assembly for headworn computer |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US20160137312A1 (en) | 2014-05-06 | 2016-05-19 | Osterhout Group, Inc. | Unmanned aerial vehicle launch system |
US20150339855A1 (en) * | 2014-05-20 | 2015-11-26 | International Business Machines Corporation | Laser pointer selection for augmented reality devices |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9766806B2 (en) | 2014-07-15 | 2017-09-19 | Microsoft Technology Licensing, Llc | Holographic keyboard display |
US10216357B2 (en) * | 2014-07-16 | 2019-02-26 | Sony Corporation | Apparatus and method for controlling the apparatus |
US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US9934573B2 (en) * | 2014-09-17 | 2018-04-03 | Intel Corporation | Technologies for adjusting a perspective of a captured image for display |
WO2016064435A1 (en) | 2014-10-24 | 2016-04-28 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US10320437B2 (en) * | 2014-10-24 | 2019-06-11 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US9911232B2 (en) | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
CN108139876B (zh) * | 2015-03-04 | 2022-02-25 | 杭州凌感科技有限公司 | 用于沉浸式和交互式多媒体生成的系统和方法 |
JP5981591B1 (ja) * | 2015-03-17 | 2016-08-31 | 株式会社コロプラ | 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム |
WO2016149873A1 (zh) * | 2015-03-20 | 2016-09-29 | 华为技术有限公司 | 智能交互方法、设备及系统 |
US9779554B2 (en) | 2015-04-10 | 2017-10-03 | Sony Interactive Entertainment Inc. | Filtering and parental control methods for restricting visual activity on a head mounted display |
JP2016218268A (ja) * | 2015-05-21 | 2016-12-22 | セイコーエプソン株式会社 | 可搬型表示装置、表示システム、表示方法 |
US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US9746675B2 (en) | 2015-05-28 | 2017-08-29 | Microsoft Technology Licensing, Llc | Alignment based view matrix tuning |
US9836117B2 (en) | 2015-05-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
US11252399B2 (en) | 2015-05-28 | 2022-02-15 | Microsoft Technology Licensing, Llc | Determining inter-pupillary distance |
US9658686B2 (en) | 2015-05-28 | 2017-05-23 | Microsoft Technology Licensing, Llc | Motion based view matrix tuning |
US9520002B1 (en) | 2015-06-24 | 2016-12-13 | Microsoft Technology Licensing, Llc | Virtual place-located anchor |
US10409443B2 (en) * | 2015-06-24 | 2019-09-10 | Microsoft Technology Licensing, Llc | Contextual cursor display based on hand tracking |
US10139966B2 (en) | 2015-07-22 | 2018-11-27 | Osterhout Group, Inc. | External user interface for head worn computing |
TWI694604B (zh) | 2015-07-23 | 2020-05-21 | 光澄科技股份有限公司 | 光偵測器 |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
CN108028258B (zh) | 2015-08-04 | 2022-06-21 | 光程研创股份有限公司 | 锗硅感光设备 |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
US10761599B2 (en) | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
US20180359462A1 (en) * | 2015-08-06 | 2018-12-13 | Sony Interactive Entertainment Inc. | Information processing apparatus |
EP3783656B1 (en) | 2015-08-27 | 2023-08-23 | Artilux Inc. | Wide spectrum optical sensor |
AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
KR102400900B1 (ko) * | 2015-10-26 | 2022-05-23 | 엘지전자 주식회사 | 시스템 |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
EP3171302A1 (en) * | 2015-11-18 | 2017-05-24 | F. Hoffmann-La Roche AG | A method for generating an entry for an electronic laboratory journal |
US10921979B2 (en) * | 2015-12-07 | 2021-02-16 | Huawei Technologies Co., Ltd. | Display and processing methods and related apparatus |
US10304247B2 (en) | 2015-12-09 | 2019-05-28 | Microsoft Technology Licensing, Llc | Third party holographic portal |
CN105395252A (zh) * | 2015-12-10 | 2016-03-16 | 哈尔滨工业大学 | 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置 |
US11010972B2 (en) * | 2015-12-11 | 2021-05-18 | Google Llc | Context sensitive user interface activation in an augmented and/or virtual reality environment |
CN105527711A (zh) * | 2016-01-20 | 2016-04-27 | 福建太尔电子科技股份有限公司 | 带增强现实的智能眼镜 |
US10850116B2 (en) | 2016-12-30 | 2020-12-01 | Mentor Acquisition One, Llc | Head-worn therapy device |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US9880441B1 (en) | 2016-09-08 | 2018-01-30 | Osterhout Group, Inc. | Electrochromic systems for head-worn computer systems |
US9826299B1 (en) | 2016-08-22 | 2017-11-21 | Osterhout Group, Inc. | Speaker systems for head-worn computer systems |
US10115205B2 (en) | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
EP3329316B1 (en) * | 2016-03-11 | 2023-09-20 | Facebook Technologies, LLC | Corneal sphere tracking for generating an eye model |
KR20230098927A (ko) * | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
US9910284B1 (en) | 2016-09-08 | 2018-03-06 | Osterhout Group, Inc. | Optical systems for head-worn computers |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
US10303323B2 (en) | 2016-05-18 | 2019-05-28 | Meta Company | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface |
US9983697B1 (en) | 2016-05-18 | 2018-05-29 | Meta Company | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors |
US10586391B2 (en) * | 2016-05-31 | 2020-03-10 | Accenture Global Solutions Limited | Interactive virtual reality platforms |
US10140776B2 (en) | 2016-06-13 | 2018-11-27 | Microsoft Technology Licensing, Llc | Altering properties of rendered objects via control points |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
DE102016113060A1 (de) * | 2016-07-15 | 2018-01-18 | Beckhoff Automation Gmbh | Verfahren zum Steuern eines Objekts |
CA3033344A1 (en) | 2016-08-11 | 2018-02-15 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
US10234935B2 (en) | 2016-08-11 | 2019-03-19 | Microsoft Technology Licensing, Llc | Mediation of interaction methodologies in immersive environments |
US11102467B2 (en) * | 2016-08-25 | 2021-08-24 | Facebook Technologies, Llc | Array detector for depth mapping |
US10690936B2 (en) | 2016-08-29 | 2020-06-23 | Mentor Acquisition One, Llc | Adjustable nose bridge assembly for headworn computer |
US10185401B2 (en) * | 2016-09-29 | 2019-01-22 | Intel Corporation | Determination of cursor position on remote display screen based on bluetooth angle of arrival |
US10617956B2 (en) * | 2016-09-30 | 2020-04-14 | Sony Interactive Entertainment Inc. | Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space |
US10302482B2 (en) | 2016-10-07 | 2019-05-28 | Microsoft Technology Licensing, Llc | Dynamic sensor performance adjustment |
USD840395S1 (en) | 2016-10-17 | 2019-02-12 | Osterhout Group, Inc. | Head-worn computer |
CN107015637B (zh) * | 2016-10-27 | 2020-05-05 | 阿里巴巴集团控股有限公司 | 虚拟现实场景下的输入方法和装置 |
US10311543B2 (en) | 2016-10-27 | 2019-06-04 | Microsoft Technology Licensing, Llc | Virtual object movement |
US9983684B2 (en) | 2016-11-02 | 2018-05-29 | Microsoft Technology Licensing, Llc | Virtual affordance display at virtual target |
US10664049B2 (en) | 2016-12-09 | 2020-05-26 | Nvidia Corporation | Systems and methods for gaze tracking |
US10452133B2 (en) | 2016-12-12 | 2019-10-22 | Microsoft Technology Licensing, Llc | Interacting with an environment using a parent device and at least one companion device |
US10275943B2 (en) * | 2016-12-13 | 2019-04-30 | Verizon Patent And Licensing Inc. | Providing real-time sensor based information via an augmented reality application |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
KR102403719B1 (ko) * | 2017-02-22 | 2022-06-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
EP3596705A4 (en) | 2017-03-17 | 2020-01-22 | Magic Leap, Inc. | COLOR VIRTUAL CONTENT DEFORMATION MIXED REALITY SYSTEM AND VIRTUAL CONTENT GENERATION METHOD USING THE SAME |
CN110622110B (zh) | 2017-03-23 | 2024-02-23 | 交互数字Ce专利控股公司 | 提供沉浸式现实内容的方法和装置 |
US10168789B1 (en) | 2017-05-31 | 2019-01-01 | Meta Company | Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations |
US10514801B2 (en) | 2017-06-15 | 2019-12-24 | Microsoft Technology Licensing, Llc | Hover-based user-interactions with virtual objects within immersive environments |
US10325409B2 (en) | 2017-06-16 | 2019-06-18 | Microsoft Technology Licensing, Llc | Object holographic augmentation |
US10422995B2 (en) | 2017-07-24 | 2019-09-24 | Mentor Acquisition One, Llc | See-through computer display systems with stray light management |
US11409105B2 (en) | 2017-07-24 | 2022-08-09 | Mentor Acquisition One, Llc | See-through computer display systems |
US10578869B2 (en) | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
IT201700085213A1 (it) * | 2017-07-26 | 2019-01-26 | Renata Falconi | Dispositivo per la realtà virtuale. |
US10969584B2 (en) | 2017-08-04 | 2021-04-06 | Mentor Acquisition One, Llc | Image expansion optic for head-worn computer |
US11966793B1 (en) | 2017-10-18 | 2024-04-23 | Campfire 3D, Inc. | Systems and methods to extend an interactive space across multiple platforms |
WO2019090221A1 (en) | 2017-11-03 | 2019-05-09 | Marxent Labs, LLC | Technologies for composing a virtual reality setting in a mobile computing environment |
WO2019104309A1 (en) * | 2017-11-27 | 2019-05-31 | Marxent Labs, LLC | Technologies for networked virtual content in a mobile computing environment |
WO2019154509A1 (en) | 2018-02-09 | 2019-08-15 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US11556741B2 (en) | 2018-02-09 | 2023-01-17 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
WO2019154510A1 (en) | 2018-02-09 | 2019-08-15 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US10964030B2 (en) | 2018-02-12 | 2021-03-30 | Samsung Electronics Co., Ltd. | Device and method with pose estimator based on current predicted motion state array |
TWI788246B (zh) | 2018-02-23 | 2022-12-21 | 美商光程研創股份有限公司 | 光偵測裝置 |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
EP3534240A1 (de) * | 2018-03-01 | 2019-09-04 | CMORE Automotive GmbH | Verfahren und vorrichtung zur daten-annotation |
CN112236686B (zh) | 2018-04-08 | 2022-01-07 | 奥特逻科公司 | 光探测装置 |
US11086474B2 (en) * | 2018-04-09 | 2021-08-10 | Spatial Systems Inc. | Augmented reality computing environments—mobile device join and load |
US10852816B2 (en) * | 2018-04-20 | 2020-12-01 | Microsoft Technology Licensing, Llc | Gaze-informed zoom and pan with manual speed control |
US10854770B2 (en) | 2018-05-07 | 2020-12-01 | Artilux, Inc. | Avalanche photo-transistor |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
WO2019236588A1 (en) | 2018-06-04 | 2019-12-12 | The Research Foundation For The State University Of New York | System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3d space based on mapping and navigation to a precise poi destination using a smart laser pointer device |
CN113196212A (zh) * | 2018-10-17 | 2021-07-30 | 美达威公司 | 作为用于交互的物理接口的移动平台 |
WO2020147948A1 (en) | 2019-01-16 | 2020-07-23 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
TWI728515B (zh) * | 2019-01-24 | 2021-05-21 | 宏達國際電子股份有限公司 | 頭戴式顯示裝置 |
US11137874B2 (en) * | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Ergonomic mixed reality information delivery system for dynamic workflows |
CN111643885A (zh) * | 2019-04-18 | 2020-09-11 | 成都奇天幻影数字娱乐有限公司 | 一种基于imu的虚拟现实转向控制方法 |
US11676422B2 (en) | 2019-06-05 | 2023-06-13 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
KR102592653B1 (ko) * | 2019-07-01 | 2023-10-23 | 엘지전자 주식회사 | Ar 모드 및 vr 모드를 제공하는 xr 디바이스 및 그 제어 방법 |
JP7150894B2 (ja) * | 2019-10-15 | 2022-10-11 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
US11493989B2 (en) * | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
KR102249423B1 (ko) * | 2019-11-22 | 2021-05-07 | 주식회사 모소 | 혼합현실 장치 |
US11227444B2 (en) | 2020-03-09 | 2022-01-18 | International Business Machines Corporation | Virtual reality content adaptation |
WO2021236170A1 (en) | 2020-05-18 | 2021-11-25 | Google Llc | Low-power semi-passive relative six-degree-of-freedom tracking |
JP7080448B1 (ja) | 2021-03-08 | 2022-06-06 | 裕行 池田 | 端末装置 |
US11734929B2 (en) * | 2021-12-07 | 2023-08-22 | Marxent Labs Llc | Enhanced product visualization technology with web-based augmented reality user interface features |
US20230206575A1 (en) * | 2021-12-27 | 2023-06-29 | Koninklijke Kpn N.V. | Rendering a virtual object in spatial alignment with a pose of an electronic device |
EP4202611A1 (en) * | 2021-12-27 | 2023-06-28 | Koninklijke KPN N.V. | Rendering a virtual object in spatial alignment with a pose of an electronic device |
WO2024048912A1 (ko) * | 2022-08-29 | 2024-03-07 | 삼성전자주식회사 | 전자 장치의 입력에 기반하여 웨어러블 장치를 제어하기 위한 전자 장치 및 그 방법 |
US12061344B2 (en) | 2022-08-29 | 2024-08-13 | Samsung Electronics Co., Ltd. | Electronic device for controlling wearable device based on input of electronic device and method thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) * | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US20070243863A1 (en) * | 2006-04-17 | 2007-10-18 | Samsung Electronics Co., Ltd | System for using mobile communication terminal as pointer and method and medium thereof |
US20100309097A1 (en) * | 2009-06-04 | 2010-12-09 | Roni Raviv | Head mounted 3d display |
CN102056002A (zh) * | 2009-11-05 | 2011-05-11 | Lg电子株式会社 | 图像显示装置及其控制方法 |
US20120068914A1 (en) * | 2010-09-20 | 2012-03-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
CN102419631A (zh) * | 2010-10-15 | 2012-04-18 | 微软公司 | 虚拟内容到现实内容中的融合 |
EP2506118A1 (en) * | 2011-03-29 | 2012-10-03 | Sony Ericsson Mobile Communications AB | Virtual pointer |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001056007A1 (en) * | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
US7401920B1 (en) | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
EP1709519B1 (en) * | 2003-12-31 | 2014-03-05 | ABB Research Ltd. | A virtual control panel |
US7961909B2 (en) * | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
WO2005119356A2 (en) * | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
US20060109242A1 (en) * | 2004-11-19 | 2006-05-25 | Simpkins Daniel S | User interface for impaired users |
DE102005061211B4 (de) * | 2004-12-22 | 2023-04-06 | Abb Schweiz Ag | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
US7969418B2 (en) * | 2006-11-30 | 2011-06-28 | Cherif Atia Algreatly | 3-D computer input device and method |
US20080266323A1 (en) * | 2007-04-25 | 2008-10-30 | Board Of Trustees Of Michigan State University | Augmented reality user interaction system |
EP2157498B1 (en) * | 2007-06-08 | 2017-05-24 | Sony Corporation | Information processing apparatus with pointer control |
WO2009072475A1 (ja) * | 2007-12-07 | 2009-06-11 | Sony Corporation | 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法 |
US20090158222A1 (en) * | 2007-12-14 | 2009-06-18 | Apple Inc. | Interactive and dynamic screen saver for use in a media system |
JP5251482B2 (ja) * | 2008-12-18 | 2013-07-31 | セイコーエプソン株式会社 | 入力装置およびデータ処理システム |
US8515707B2 (en) * | 2009-01-07 | 2013-08-20 | Sensor Platforms, Inc. | System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter |
US8896527B2 (en) * | 2009-04-07 | 2014-11-25 | Samsung Electronics Co., Ltd. | Multi-resolution pointing system |
US20110199296A1 (en) * | 2010-02-18 | 2011-08-18 | Simpson Samuel K | Single wrist user input system |
US20120206335A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based direct control of external devices with feedback |
JP5743416B2 (ja) * | 2010-03-29 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
US8194036B1 (en) * | 2011-06-29 | 2012-06-05 | Google Inc. | Systems and methods for controlling a cursor on a display using a trackpad input device |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
US20150185971A1 (en) * | 2011-11-09 | 2015-07-02 | Google Inc. | Ring-Based User-Interface |
US20130139082A1 (en) * | 2011-11-30 | 2013-05-30 | Google Inc. | Graphical Interface Having Adjustable Borders |
US8643951B1 (en) * | 2012-03-15 | 2014-02-04 | Google Inc. | Graphical menu and interaction therewith through a viewing window |
US8947322B1 (en) * | 2012-03-19 | 2015-02-03 | Google Inc. | Context detection and context-based user-interface population |
US8947323B1 (en) * | 2012-03-20 | 2015-02-03 | Hayes Solos Raffle | Content display methods |
-
2012
- 2012-11-30 US US13/691,445 patent/US20140152558A1/en not_active Abandoned
-
2013
- 2013-11-30 MX MX2015006874A patent/MX2015006874A/es unknown
- 2013-11-30 BR BR112015011713A patent/BR112015011713A2/pt not_active IP Right Cessation
- 2013-11-30 WO PCT/US2013/072524 patent/WO2014085789A1/en active Application Filing
- 2013-11-30 EP EP13811068.9A patent/EP2926223A1/en not_active Withdrawn
- 2013-11-30 CN CN201380062677.1A patent/CN105009039A/zh active Pending
- 2013-11-30 AU AU2013351980A patent/AU2013351980A1/en not_active Abandoned
- 2013-11-30 RU RU2015120560A patent/RU2015120560A/ru unknown
- 2013-11-30 KR KR1020157015301A patent/KR20150092165A/ko not_active Application Discontinuation
- 2013-11-30 CA CA2889563A patent/CA2889563A1/en not_active Abandoned
- 2013-11-30 JP JP2015545488A patent/JP2015536514A/ja not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) * | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US20070243863A1 (en) * | 2006-04-17 | 2007-10-18 | Samsung Electronics Co., Ltd | System for using mobile communication terminal as pointer and method and medium thereof |
US20100309097A1 (en) * | 2009-06-04 | 2010-12-09 | Roni Raviv | Head mounted 3d display |
CN102056002A (zh) * | 2009-11-05 | 2011-05-11 | Lg电子株式会社 | 图像显示装置及其控制方法 |
US20120068914A1 (en) * | 2010-09-20 | 2012-03-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
CN102419631A (zh) * | 2010-10-15 | 2012-04-18 | 微软公司 | 虚拟内容到现实内容中的融合 |
EP2506118A1 (en) * | 2011-03-29 | 2012-10-03 | Sony Ericsson Mobile Communications AB | Virtual pointer |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427865A (zh) * | 2015-11-04 | 2016-03-23 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人的语音控制系统以及方法 |
CN108475109B (zh) * | 2015-12-28 | 2022-02-01 | 光程研创股份有限公司 | 眼睛姿态跟踪 |
CN108475109A (zh) * | 2015-12-28 | 2018-08-31 | 奥特逻科集团 | 眼睛姿态跟踪 |
CN109154862B (zh) * | 2016-04-21 | 2021-07-09 | 诺基亚技术有限公司 | 用于处理虚拟现实内容的装置、方法和计算机可读介质 |
CN109154862A (zh) * | 2016-04-21 | 2019-01-04 | 诺基亚技术有限公司 | 虚拟现实因果概要内容 |
CN105955461A (zh) * | 2016-04-25 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种交互界面管理方法和系统 |
CN105975057A (zh) * | 2016-04-25 | 2016-09-28 | 乐视控股(北京)有限公司 | 一种多界面交互方法和装置 |
CN108700941A (zh) * | 2016-05-13 | 2018-10-23 | 谷歌有限责任公司 | 用于在虚拟现实环境中对准组件的方法和设备 |
CN108700941B (zh) * | 2016-05-13 | 2023-03-28 | 谷歌有限责任公司 | 用于在虚拟现实环境中对准组件的方法和设备 |
TWI743148B (zh) * | 2016-07-15 | 2021-10-21 | 光程研創股份有限公司 | 眼動追蹤的電腦實施方法、眼動追蹤系統及裝置 |
TWI758231B (zh) * | 2016-07-15 | 2022-03-11 | 光程研創股份有限公司 | 眼動追蹤系統 |
CN110168475A (zh) * | 2016-11-14 | 2019-08-23 | 罗技欧洲公司 | 将用户接口装置导入虚拟现实/增强现实的系统 |
CN110249368B (zh) * | 2016-12-05 | 2023-07-07 | 奇跃公司 | 混合现实环境中提供虚拟远程控制的可穿戴系统及方法 |
CN110249368A (zh) * | 2016-12-05 | 2019-09-17 | 奇跃公司 | 混合现实环境中的虚拟用户输入控制 |
CN110249317A (zh) * | 2017-01-25 | 2019-09-17 | 微软技术许可有限责任公司 | 用于实时图像变换的无未命中高速缓存结构 |
CN110249317B (zh) * | 2017-01-25 | 2023-05-02 | 微软技术许可有限责任公司 | 用于实时图像变换的无未命中高速缓存结构 |
CN107085489A (zh) * | 2017-03-21 | 2017-08-22 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
CN106873783A (zh) * | 2017-03-29 | 2017-06-20 | 联想(北京)有限公司 | 信息处理方法、电子设备及输入装置 |
CN110692031A (zh) * | 2017-06-01 | 2020-01-14 | 三星电子株式会社 | 用于虚拟现实环境中的窗口控制的系统和方法 |
US11366561B2 (en) | 2017-06-01 | 2022-06-21 | Samsung Electronics Co., Ltd. | Systems and methods for window control in virtual reality environment |
US11480790B2 (en) | 2017-06-14 | 2022-10-25 | Hewlett-Packard Development Company, L.P. | Display adjustments |
CN111065952B (zh) * | 2017-06-14 | 2022-04-05 | 惠普发展公司,有限责任合伙企业 | 显示器、用于调整显示器的方法和可读介质 |
CN111065952A (zh) * | 2017-06-14 | 2020-04-24 | 惠普发展公司,有限责任合伙企业 | 显示器调整 |
CN109146954B (zh) * | 2017-06-19 | 2022-08-30 | 苹果公司 | 用于与所显示的地图进行交互的增强现实界面 |
CN109146954A (zh) * | 2017-06-19 | 2019-01-04 | 苹果公司 | 用于与所显示的地图进行交互的增强现实界面 |
CN107390871A (zh) * | 2017-07-21 | 2017-11-24 | 上海白泽网络科技有限公司 | 增强现实设备的控制方法和系统 |
CN110914790A (zh) * | 2017-07-26 | 2020-03-24 | 奇跃公司 | 采用用户界面设备的表示来训练神经网络 |
CN110603510B (zh) * | 2017-09-18 | 2023-10-27 | 谷歌有限责任公司 | 虚拟现实系统中虚拟控制器的位置和取向跟踪 |
CN110603510A (zh) * | 2017-09-18 | 2019-12-20 | 谷歌有限责任公司 | 虚拟现实系统中虚拟控制器的位置和取向跟踪 |
CN109819671A (zh) * | 2017-09-18 | 2019-05-28 | Looxid实验室公司 | 头戴式显示设备 |
US11393174B2 (en) | 2017-09-29 | 2022-07-19 | Apple Inc. | Cooperative augmented reality map interface |
US11714592B2 (en) | 2017-09-29 | 2023-08-01 | Apple Inc. | Gaze-based user interactions |
US11762619B2 (en) | 2017-09-29 | 2023-09-19 | Apple Inc. | Controlling external devices using reality interfaces |
US11762620B2 (en) | 2017-09-29 | 2023-09-19 | Apple Inc. | Accessing functions of external devices using reality interfaces |
CN111052042A (zh) * | 2017-09-29 | 2020-04-21 | 苹果公司 | 基于注视的用户交互 |
US11922588B2 (en) | 2017-09-29 | 2024-03-05 | Apple Inc. | Cooperative augmented reality map interface |
US12099773B2 (en) | 2017-09-29 | 2024-09-24 | Apple Inc. | Accessing functions of external devices using reality interfaces |
Also Published As
Publication number | Publication date |
---|---|
JP2015536514A (ja) | 2015-12-21 |
EP2926223A1 (en) | 2015-10-07 |
WO2014085789A1 (en) | 2014-06-05 |
MX2015006874A (es) | 2016-01-12 |
BR112015011713A2 (pt) | 2017-07-11 |
AU2013351980A1 (en) | 2015-05-07 |
KR20150092165A (ko) | 2015-08-12 |
RU2015120560A (ru) | 2016-12-20 |
CA2889563A1 (en) | 2014-06-05 |
US20140152558A1 (en) | 2014-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105009039A (zh) | 使用imu的直接全息图操纵 | |
US10643389B2 (en) | Mechanism to give holographic objects saliency in multiple spaces | |
US9384737B2 (en) | Method and device for adjusting sound levels of sources based on sound source priority | |
US9524081B2 (en) | Synchronizing virtual actor's performances to a speaker's voice | |
KR102179142B1 (ko) | 착용식 식품 영양 피드백 시스템 | |
US9035970B2 (en) | Constraint based information inference | |
US9105210B2 (en) | Multi-node poster location | |
US9696547B2 (en) | Mixed reality system learned input and functions | |
CN105103082A (zh) | 由人触发的全息提醒 | |
US9645394B2 (en) | Configured virtual environments | |
TWI597623B (zh) | 可穿戴基於行爲的視覺系統 | |
CN105431763A (zh) | 在佩戴移动设备时跟踪头部移动 | |
US20130307855A1 (en) | Holographic story telling | |
CN106415444A (zh) | 注视滑扫选择 | |
KR20140059213A (ko) | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 | |
US20220375172A1 (en) | Contextual visual and voice search from electronic eyewear device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20151028 |