CN111052043B - 使用现实界面控制外部设备 - Google Patents
使用现实界面控制外部设备 Download PDFInfo
- Publication number
- CN111052043B CN111052043B CN201880052303.4A CN201880052303A CN111052043B CN 111052043 B CN111052043 B CN 111052043B CN 201880052303 A CN201880052303 A CN 201880052303A CN 111052043 B CN111052043 B CN 111052043B
- Authority
- CN
- China
- Prior art keywords
- external device
- representation
- function
- physical environment
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 66
- 230000006870 function Effects 0.000 claims description 155
- 238000004891 communication Methods 0.000 claims description 71
- 230000004044 response Effects 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 abstract description 21
- 210000001508 eye Anatomy 0.000 description 19
- 230000003190 augmentative effect Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 230000001953 sensory effect Effects 0.000 description 10
- 238000011524 similarity measure Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B5/00—Near-field transmission systems, e.g. inductive or capacitive transmission systems
- H04B5/70—Near-field transmission systems, e.g. inductive or capacitive transmission systems specially adapted for specific purposes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
在使用计算机生成现实界面来控制外部设备的一些示例性过程中,从外部设备接收指定外部设备的功能的信息。利用一个或多个图像传感器来获得包括外部设备的物理环境的第一图像数据。在显示器上显示根据第一图像数据的物理环境的表示。在显示物理环境的表示的同时,利用一个或多个图像传感器来获得第二图像数据,所述第二图像数据识别显示器与物理环境中的外部设备之间发生的手势。进行确定以确定所识别的手势是否满足与功能相关联的一个或多个预定标准。根据确定所识别的手势满足与功能相关联的一个或多个预定标准,使外部设备执行所述功能。
Description
相关申请的交叉引用
本专利申请要求以下美国专利申请的优先权:于2017年9月29日提交的专利申请序列号为62/566,080,名称为“使用现实界面控制外部设备”的美国专利申请;于2017年9月29日提交的专利申请序列号为62/566,073,名称为“利用现实界面访问外部设备的功能”的美国专利申请;于2017年9月29日提交的专利申请序列号为62/566,206,名称为“基于视线的用户交互”的美国专利申请;以及于2018年9月21日提交的专利申请序列号为62/734,678,名称为“基于视线的用户交互”的美国专利申请;这些专利申请各自出于所有目的而通过引用整体并入本文。
技术领域
本公开整体涉及现实界面,且更具体地,涉及使用现实界面来控制外部设备的技术。
发明内容
期望的是用于在使用计算机生成的诸如虚拟现实或混合现实系统的现实系统的同时与外部设备进行交互的技术。本公开描述了使用计算机生成现实界面(在本文中也被称为现实界面)来控制外部设备的技术。在使用现实界面来控制外部设备的一些示例性过程中,从外部设备接收用于指定外部设备的功能的信息。利用一个或多个图像传感器来获得包括外部设备的物理环境的第一图像数据。在显示器上显示根据该第一图像数据的物理环境的表示。在显示物理环境的表示的同时,利用一个或多个图像传感器来获得第二图像数据,该第二图像数据识别显示器与物理环境中的外部设备之间发生的手势。该过程确定所识别的手势是否满足与功能相关联的一个或多个预定标准。根据确定所识别的手势满足与功能相关联的一个或多个预定标准,使外部设备执行该功能。
附图说明
图1A至图1B示出了包括虚拟现实和混合现实的各种计算机生成现实技术中使用的示例性系统。
图1C至图1E示出了移动设备形式的系统的示例。
图1F至图1H示出了头戴式显示器设备形式的系统的示例。
图1I示出了平视显示器设备形式的系统的示例。
图2示出了实现使用现实界面来控制外部设备的各种技术的示例性系统。
图3A示出了包括外部设备的物理环境。
图3B示出了显示具有物理环境的表示的现实界面的用户设备。
图3C示出了在现实界面中同时显示物理环境的表示和与该物理环境中的外部设备的功能相对应的示能表示的用户设备。
图3D示出了用户通过提供手势来与用户设备的现实界面进行交互。
图4A和图4B示出了使用现实界面来控制外部设备的示例性过程的流程图。
具体实施方式
本发明描述了与各种计算机生成现实技术有关的使用此类系统的电子系统和技术的各种实施方案,包括虚拟现实和混合现实(其结合了来自物理环境的感官输入)。
计算机生成现实环境(例如,虚拟现实或混合现实环境)可具有不同程度的虚拟内容和/或物理内容。在一些实施方案中,现实环境为用户提供与他/她的物理环境进行交互的直观界面。例如,使用显示用户物理环境的表示的现实界面,用户可控制物理环境中的一个或多个外部设备。具体地,使用现实界面,用户能够获得关于一个或多个外部设备的信息(例如,操作状态)或控制一个或多个外部设备的功能。在一些实施方案中,用户可提供手势以与现实界面进行交互,并且使一个或多个外部设备中的外部设备执行功能。根据本文所述的一些实施方案,从外部设备接收用于指定外部设备的功能的信息。利用一个或多个图像传感器来获得包括外部设备的物理环境的第一图像数据。在显示器上显示根据该第一图像数据的物理环境的表示。在显示物理环境的表示的同时,利用一个或多个图像传感器来获得第二图像数据,该第二图像数据识别显示器与物理环境中的外部设备之间发生的手势。进行确定以确定所识别的手势是否满足与功能相关联的一个或多个预定标准。根据确定所识别的手势满足与功能相关联的一个或多个预定标准,使外部设备执行该功能。
物理环境(或真实环境)是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品(或物理对象或真实对象),诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
相反,计算机生成现实(CGR)环境是指人们经由电子系统感知和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,音频对象创建3D或空间音频环境,3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实(VR)环境(虚拟环境)是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置成在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置成接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置成选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
图1A和图1B示出了包括虚拟现实和混合现实的各种计算机生成现实技术中使用的示例性系统100。
在一些实施方案中,如图1A所示,系统100包括设备100a。设备100a包括各种部件,诸如处理器102、RF电路104、存储器106、图像传感器108、取向传感器110、麦克风112、位置传感器116、扬声器118、显示器120和触敏表面122。这些部件任选地通过设备100a的通信总线150进行通信。
在一些实施方案中,系统100的元件在基站设备(例如,计算设备,诸如远程服务器、移动设备或膝上型计算机)中实现,并且系统100的其他元件在设计成由用户佩戴的头戴式显示器(HMD)设备中实现,其中HMD设备与基站设备通信。在一些示例中,设备100a在基站设备或HMD设备中实现。
如图1B所示,在一些实施方案中,系统100包括两个(或更多个)通信中的设备,诸如通过有线连接或无线连接。第一设备100b(例如,基站设备)包括处理器102、RF电路104和存储器106。这些部件可选地通过设备100b的通信总线150进行通信。第二设备100c(例如,头戴式设备)包括各种部件,诸如处理器102、RF电路104、存储器106、图像传感器108、取向传感器110、麦克风112、位置传感器116、扬声器118、显示器120和触敏表面122。这些部件可选地通过设备100c的通信总线150进行通信。
在一些实施方案中,系统100是移动设备,诸如在关于图1C至图1E中的设备100a描述的实施方案中。在一些实施方案中,系统100是头戴式显示器(HMD)设备,诸如在关于图1F至图1H中的设备100a描述的实施方案中。在一些实施方案中,系统100是可穿戴HUD设备,诸如在关于图1I中的设备100a描述的实施方案中。
系统100包括处理器102和存储器106。处理器102包括一个或多个通用处理器、一个或多个图形处理器、和/或一个或多个数字信号处理器。在一些实施方案中,存储器106是存储计算机可读指令的一个或多个非暂态计算机可读存储介质(例如,闪存存储器,随机存取存储器),所述计算机可读指令被配置为由处理器102执行以执行下述技术。
系统100包括RF电路104。RF电路104可选地包括用于与电子设备、网络(诸如互联网、内联网)和/或无线网络(诸如蜂窝网络和无线局域网(LAN))通信的电路。RF电路104可选地包括用于使用近场通信和/或短程通信(诸如)进行通信的电路。
系统100包括显示器120。在一些示例中,显示器120包括第一显示器(例如,左眼显示器面板)和第二显示器(例如,右眼显示器面板),每个显示器用于向用户的相应眼睛显示图像。对应的图像同时显示在第一显示器和第二显示器上。可选地,对应的图像包括来自不同视点的相同虚拟对象和/或相同物理对象的表示,从而产生视差效应,该视差效应向用户提供显示器上对象的立体感效应。在一些示例中,显示器120包括单个显示器。对于用户的每只眼睛,对应的图像同时显示在单个显示器的第一区域和第二区域上。可选地,对应的图像包括来自不同视点的相同虚拟对象和/或相同物理对象的表示,从而产生视差效应,该视差效应向用户提供单个显示器上对象的立体感效应。
在一些实施方案中,系统100包括用于接收用户输入的触敏表面122,诸如轻击输入和轻扫输入。在一些示例中,显示器120和触敏表面122形成触敏显示器。
系统100包括图像传感器108。图像传感器108可选地包括一个或多个可见光图像传感器(诸如电荷耦合设备(CCD)传感器)和/或可操作以从真实环境获得物理对象的图像的互补金属氧化物半导体(CMOS)传感器。图像传感器还可选地包括一个或多个红外(IR)传感器,诸如无源IR传感器或有源IR传感器,用于检测来自真实环境的红外光。例如,有源IR传感器包括IR发射器,诸如IR点发射器,用于将红外光发射到真实环境中。图像传感器108还可选地包括一个或多个事件相机,这些事件相机被配置为捕获真实环境中的物理对象的移动。图像传感器108还可选地包括一个或多个深度传感器,这些深度传感器被配置为检测物理对象与系统100的距离。在一些示例中,系统100组合使用CCD传感器、事件相机和深度传感器来检测系统100周围的物理环境。在一些示例中,图像传感器108包括第一图像传感器和第二图像传感器。第一图像传感器和第二图像传感器可选地被配置为从两个不同的视角捕获真实环境中的物理对象的图像。在一些示例中,系统100使用图像传感器108来接收用户输入,诸如手势。在一些示例中,系统100使用图像传感器108来检测系统100和/或显示器120在真实环境中的位置和取向。例如,系统100使用图像传感器108来跟踪显示器120相对于真实环境中的一个或多个固定对象的位置和取向。
在一些实施方案中,系统100可选地包括图像传感器124。图像传感器124类似于图像传感器108,不同的是图像传感器124在与图像传感器108相对的方向上取向。例如,图像传感器108和图像传感器124设置在设备100a或100c的相对侧上。在一些示例中,图像传感器124获得用户的图像,而图像传感器108获得用户视线中物理对象的图像。
在一些实施方案中,系统100包括麦克风112。系统100使用麦克风112来检测来自用户和/或用户的真实环境的声音。在一些示例中,麦克风112包括麦克风阵列(包括多个麦克风),其任选地串联操作,以便识别环境噪声或在真实环境的空间中定位声源。
系统100包括用于检测系统110和/或显示器100的取向和/或移动的取向传感器120。例如,系统100使用取向传感器110来跟踪系统100和/或显示器120的位置和/或取向的变化,诸如关于真实环境中的物理对象。取向传感器110可选地包括一个或多个陀螺仪和/或一个或多个加速度计。
图1C至图1E示出了设备100a形式的系统100的示例。在图1C至1E中,设备100a是移动设备,诸如蜂窝电话。图1C示出了执行虚拟现实技术的设备100a。设备100a在显示器120上显示虚拟环境160,该虚拟环境包括虚拟对象,诸如太阳160a、鸟160b和海滩160c。所显示的虚拟环境160和虚拟环境160的虚拟对象(例如,160a、160b、160c)都是计算机生成的图像。需注意,图1C中示出的虚拟现实环境不包括来自真实环境180的物理对象的表示,诸如人180a和树180b,即使真实环境180的这些元素在设备100a的图像传感器108的视野内。
图1D示出了使用透传视频执行混合现实技术,特别是增强现实技术的设备100a。设备100a正在显示器120上显示具有虚拟对象的真实环境180的表示170。真实环境180的表示170包括人180a的表示170a和树180b的表示170b。例如,该设备使用图像传感器108来捕获真实环境180的图像,这些图像经透传以在显示器120上显示。设备100a在人180a的表示170a的头部上覆盖帽子160d,该帽子是由设备100a生成的虚拟对象。设备100a相对于设备100a的位置和/或取向来跟踪物理对象的位置和/或取向,以使虚拟对象能够与来自增强现实环境中的真实环境的物理对象进行交互。在该示例中,设备100a考虑设备100a和人180a的移动,以将帽子160d显示为在人180a的表示170a的头部上,即使设备100a和人180a相对于彼此移动也是如此。
图1E示出了执行混合现实技术,特别是增强虚拟技术的设备100a。设备100a在显示器120上显示具有物理对象的表示的虚拟环境160。虚拟环境160包括虚拟对象(例如,太阳160a、鸟160b)和人180a的表示170a。例如,设备100a使用图像传感器108来捕获真实环境180a中的人180的图像。设备100a将人180a的表示170a放置在虚拟环境160中,以在显示器120上显示。设备100a相对于设备100a的位置和/或取向任选地跟踪物理对象的位置和/或取向,以使虚拟对象能够与来自真实环境180的物理对象进行交互。在该示例中,设备100a考虑设备100a和人180a的移动,以将帽子160d显示为在人180a的表示170a的头部上。值得注意的是,在该示例中,在执行混合现实技术时,即使树180b也在设备100a的图像传感器的视野内,设备100a也不显示树180b的表示。
图1F至图1H示出了设备100a形式的系统100的示例。如图1F至1H所示,设备100a是被配置为佩戴在用户头部上的HMD设备,其中用户的每只眼睛观看相应的显示器120a和120b。图1F示出了执行虚拟现实技术的设备100a。设备100a在显示器120a和显示器120b上显示虚拟环境160,该虚拟环境包括虚拟对象,诸如太阳160a、鸟160b和海滩160c。所显示的虚拟环境160和虚拟对象(例如,160a、160b、160c)是计算机生成的图像。在该示例中,设备100a同时在显示器120a和显示器120b上显示对应的图像。对应的图像包括来自不同视点的相同虚拟环境160和虚拟对象(例如,160a、160b、160c),从而产生视差效应,该视差效应向用户提供显示器上对象的立体感效应。需注意,图1F中示出的虚拟现实环境不包括来自真实环境的物理对象的表示,诸如人180a和树180b,即使人180a和树180b在执行虚拟现实技术时位于设备100a的图像传感器的视野内。
图1G示出了使用透传视频执行增强现实技术的设备100a。设备100a正在显示器120a和120b上显示具有虚拟对象的真实环境180的表示170。真实环境180的表示170包括人180a的表示170a和树180b的表示170b。例如,设备100a使用图像传感器108来捕获真实环境120b的图像,这些图像经透传以在显示器180和120a上显示。设备100a将计算机生成的帽子160d(虚拟对象)覆盖在人180a的表示170a的头部上,以在每个显示器120a和120b上显示。设备100a相对于设备100a的位置和/或取向来跟踪物理对象的位置和/或取向,以使虚拟对象能够与来自真实环境180的物理对象进行交互。在该示例中,设备100a考虑设备100a和人180a的移动,以将帽子160d显示为在人180a的表示170a的头部上。
图1H示出了使用透传视频执行混合现实技术,特别是增强虚拟技术的设备100a。设备100a在显示器120a和120b上显示具有物理对象的表示的虚拟环境160。虚拟环境160包括虚拟对象(例如,太阳160a、鸟160b)和人180a的表示170a。例如,设备100a使用图像传感器108来捕获人180的图像。设备100a将人180a的表示170a放置在虚拟环境中,以在显示器120a和120b上显示。设备100a相对于设备100a的位置和/或取向任选地跟踪物理对象的位置和/或取向,以使虚拟对象能够与来自真实环境180的物理对象进行交互。在该示例中,设备100a考虑设备100a和人180a的移动,以将帽子160d显示为在人180a的表示170a的头部上。值得注意的是,在该示例中,在执行混合现实技术时,即使树180b也在设备100a的图像传感器108的视野内,设备100a也不显示树180b的表示。
图1I示出了设备100a形式的系统100的示例。在图1I中,设备100a是被配置为佩戴在用户头上的HUD设备(例如,眼镜设备),其中用户的每只眼睛观看相应的平视显示器120c和120d。图1I示出了使用平视显示器120c和120d执行增强现实技术的设备100a。平视显示器120c和120d是(至少部分地)透明显示器,因此允许用户结合平视显示器120c和120d观看真实环境180。设备100a在每个平视显示器120c和120d上显示虚拟帽子160d(虚拟对象)。设备100a相对于设备100a的位置和/或取向以及相对于用户眼睛的位置来跟踪真实环境中的物理对象的位置和/或取向,以使虚拟对象能够与来自真实环境180的物理对象进行交互。在该示例中,设备100a考虑设备100a的移动、用户眼睛相对于设备100a的移动,以及人180a在显示器120c和120d上的位置处至显示帽子160d的移动,使得用户看来帽子160d位于人180a的头部。
图2示出了实现使用现实界面来控制外部设备的各种技术的示例性系统200。系统200包括被配置为与外部设备228、230和232进行交互的用户设备202。用户设备202与系统100a中的设备100a、b或c中的一个或多个类似或相同(图1A至图1B)。在一些实施方案中,用户设备202被配置为经由无线通信连接与外部设备228、230和232进行交互。无线通信连接例如经由一个或多个网络226建立。网络226可包括WiFiTM网络或任何其他有线或无线公共或专用本地网络。附加地或另选地,用户设备202可使用例如短程通信协议、BluetoothTM、视线、对等或另外基于无线电或其他无线通信来直接与外部设备228、230或232建立无线通信连接。因此,在所示的实施方案中,用户设备202可位于外部设备228、230和232附近,使得该用户设备与这些外部设备直接通信或通过相同的本地网络通信。例如,用户设备202以及外部设备228、230和232位于相同的物理环境(例如,家庭或建筑物的房间)内,并且网络226包括家庭或建筑物的Wi-FiTM网络。外部设备228、230和232可包括任何类型的遥控外部设备,诸如灯泡、车库门、门锁、恒温器、音频播放器、电视机等。
现在参考图3A至图3D,描述了使用现实界面来控制外部设备的示例性技术。图3A示出了包括外部设备304、306和308的物理环境302。物理环境302是例如用户的物理环境。例如,用户可坐在他的客厅中,并且物理环境302是用户客厅的直接位于该用户前方的至少一部分。用户可能希望控制外部设备304、306和308中的一个。如下面更详细描述的,用户可利用由用户设备(例如,用户设备312)提供的现实界面来控制外部设备304、306和308中的一个。
图3B示出了显示物理环境302的表示314的用户设备312。在本实施方案中,用户设备312是独立设备(例如,设备100a),诸如手持式移动设备或独立的头戴式设备。应当认识到,在其他实施方案中,用户设备312可以能够通信的方式联接到另一设备,诸如基站设备。例如,用户设备312可以是以能够通信的方式联接到诸如包含CPU的基站设备的另一设备(例如,设备100b)的头戴式显示设备(例如,设备100c)。在这些实施方案中,下面描述的通过现实界面访问外部设备的功能的操作可以任何方式在用户设备312和另一设备之间进行划分。
此外,在本实施方案中,用户设备312的显示器313是不透明的,其中用户无法通过显示器313看到物理环境302。例如,从物理环境302的物理对象发射或反射的可见光基本上无法通过显示器313透射(例如,小于5%透射)。在其他实施方案中,显示器313是透明的,其中用户能够通过显示器313看到物理环境302。例如,从物理环境302的物理对象发射或反射的可见光基本上能够通过显示器313透射(例如,大于40%透射)。在一个实施方案中,显示器313是透明LCD(液晶显示器)或LED(发光二极管)显示器。在另一实施方案中,用户设备312是具有集成显示器的一对透视近眼显示眼镜。
用户设备312被配置为提供现实界面。例如,使用现实界面来控制外部设备304、306和308中的一个。外部设备304、306和308类似于上述图2的外部设备228、230和232。具体地,外部设备304、306和308是能够被用户设备312无线控制的设备。例如,外部设备304是具有诸如电源通/断、音量、频道、隐藏式字幕等功能的电视机。外部设备306是具有诸如电源通/断、音量、无线电调谐、播放列表选择等功能的音频系统。外部设备308是具有诸如通/断和亮度调节(例如,调光)功能的灯。外部设备304、306和308的这些示例性功能中的每一个被配置为使用由用户设备312提供的现实界面来控制。虽然仅示出了三个外部设备304、306和308,但是应当理解,在其他实施方案中,物理环境可包括任何数量的外部设备。
用户设备312检测物理环境302中的外部设备304、306和308。在该实施方案中,该检测基于用户设备312与外部设备304、306和308之间的无线通信(如图3B中的线310所示)进行。无线通信是例如近场或短程无线通信(例如,NFC、BluetoothTM等)。用户设备312在经由无线通信从外部设备304、306和308接收信息时检测外部设备304、306和308。在一些实施方案中,用户设备312传输请求和/或广播查询(例如,发现信号)以使外部设备304、306和308传输信息。在一些实施方案中,用户设备312响应于确定外部设备很可能处于用户设备312的图像传感器的视野中(例如,高于置信度)而传输请求和/或广播查询。在其他实施方案中,外部设备304、306和308独立于来自用户设备312的任何查询而周期性地自动广播信息。用户设备312在经由无线通信从外部设备304、306和308接收信息时检测外部设备304、306和308。例如,基于所接收的信息,用户设备312识别出外部设备304、306和308邻近用户设备312(例如,处于通信范围内)。在一些实施方案中,所接收的信息包括识别外部设备304、306和308的信息,诸如设备标识符。在一些实施方案中,所接收的信息指定外部设备304、306和308的一个或多个功能。
在一些实施方案中,响应于检测外部设备304、306和308,用户设备312与外部设备304、306和308中的一个或多个建立无线通信连接(例如,近场或短程直接无线通信连接)。无线通信连接是例如无线网络连接(例如,经由Wi-FiTM网络的连接)。在一些实施方案中,无线通信连接是直接对等无线通信连接(例如,BluetoothTM连接),其各自启用跨安全无线通信信道的单跳点对点通信。例如,用户设备312获得与外部设备304、306和308中的一个或多个相关联的连接信息(例如,连接地址、认证信息等),并且使用该连接信息来与外部设备304、306和308中的一个或多个建立无线通信连接。在一些实施方案中,在建立无线通信连接之后,用户设备312通过无线通信连接从外部设备304、306和308中的一个或多个接收信息。所接收的信息指定例如外部设备304、306和308的一个或多个功能。在本实施方案中,用户设备312与外部设备304建立无线通信连接,并且通过所建立的无线通信连接从外部设备304接收指示该外部设备304具有电源ON/OFF功能的信息。
用户设备312获得物理环境302的第一图像数据。例如,用户设备312的一个或多个图像传感器(例如,图像传感器108)捕获物理环境302的第一图像数据。第一图像数据包括例如由图像传感器捕获的物理环境302的图像和/或视频。具体地,在一个实施方案中,第一图像数据包括由图像传感器捕获的物理环境的至少一部分的实时视频预览。用户设备312根据所获得的第一图像数据来生成物理环境302的表示314。在一些实施方案中,该表示包括由图像传感器捕获的实时视频预览的至少一部分。在一些实施方案中,组合物理环境302的被捕获的图像和/或视频以组成物理环境302的表示314。
如图3B所示,用户设备312在显示器313上显示物理环境302的表示314作为由用户设备312提供的现实界面的一部分。在本实施方案中,由表示314提供的视野仅表示从用户的视线位置观察到的物理环境302的一部分。具体地,表示314包括外部设备304的表示(其位于设备312上的图像传感器的视野内),但不包括外部设备306和308的表示。应当认识到,在其他实施方案中,视野可以变化。用户设备312所显示的视野例如基于所确定的用户视线方向而变化。此外,在显示器313是透明的实施方案中,应当认识到,物理环境302的表示314未显示在用户设备312上。相反,由于从物理环境302发射或反射的光通过显示器313透射到用户的眼睛中,因此用户可直接观察到物理环境302。
参考图3C,用户设备312在其显示器313上同时显示物理环境302的表示314和与外部设备304的功能(例如,外部设备304的电源ON/OFF功能)相对应的示能表示316。示能表示316是物理环境302中不存在的虚拟对象,即使示能表示316的功能与物理电源按钮332的功能类似。在本实施方案中,由示能表示316表示的功能与从外部设备304接收的信息中指定的功能相同。当被用户激活时,示能表示316使外部设备312将外部设备304通电(如果外部设备304处于断电)或断电(如果外部设备304处于通电)。因此,示能表示316使用户能够使用由用户设备312提供的现实界面来控制外部设备304的电源ON/OFF功能。
参考图3D,用户在用户设备312与外部设备304之间的区域中提供手势334。具体地,用户使用手势334来与在用户设备312上显示的现实界面进行交互。在显示物理环境302的表示314的同时,用户设备312获得手势334的第二图像数据。例如,用户设备312的一个或多个图像传感器(例如,图像传感器108)捕获手势334的第二图像数据,其中物理环境302处于背景中。第二图像数据包括例如由图像传感器捕获的手势334的图像和/或视频。如图3D所示,用户设备312根据所获得的第二图像数据来显示手势334的表示336。在该实施方案中,手势334的表示336与物理环境302的表示314以及示能表示316同时显示。
应当认识到,在用户设备312的显示器313是透明的实施方案中,示能表示316被显示在显示器313上,而无需显示物理环境302的实时图像(例如,表示314),因为该物理环境对用户是直接可见的。因此,从用户的角度来看,所显示的示能表示看起来被覆盖在通过透明显示器在背景中可见的物理环境中。在一些实施方案中,示能表示316相对于用户眼睛的视线方向(例如,视线)显示在显示器313上对应于外部设备304的位置处。例如,示能表示316被定位在显示器313上,使得从用户的角度看,示能表示看起来覆盖外部设备304的相应物理视图的至少一部分。此外,在这些实施方案中,手势334的表示336不显示在显示器313上。
用户设备312基于第二图像数据来确定手势334是否满足与外部设备304的电源通/断功能相关联的一个或多个预定标准。该确定建立例如用户是否意图使外部设备304执行电源ON/OFF功能。例如,该确定包括确定手势334是否激活示能表示316以使外部设备304执行电源ON/OFF功能。在一些实施方案中,通过分析在第二图像数据中识别的手势并确定所识别的手势是否对应于与电源ON/OFF功能相关联的预定类型的手势来执行该确定。在一些实施方案中,执行图像识别以确定在第二图像数据中识别的手势是否对应于预定类型的手势。例如,用户设备312确定捕获手势334的第二图像数据的部分和与电源ON/OFF功能相关联的预定类型的手势的一个或多个所存储的图像之间的相似性测量。如果相似性测量大于预定阈值,则确定在第二图像数据中识别的手势对应于与电源ON/OFF功能相关联的预定类型的手势。在这些实施方案中,确定手势334满足与外部设备304的电源通/断功能相关联的一个或多个预定标准。相反地,如果相似性测量不大于预定阈值,则确定在第二图像数据中识别的手势并不对应于与电源ON/OFF功能相关联的预定类型的手势。在这些实施方案中,确定手势334不满足与外部设备304的电源ON/OFF功能相关联的一个或多个预定标准。如下面更详细描述的,可使用诸如三维对象识别、机器学习等附加技术来确定手势334是否满足与外部设备304的电源ON/OFF功能相关联的一个或多个预定标准。
根据确定手势满足与该功能相关联的一个或多个预定标准,用户设备312使外部设备304执行电源ON/OFF功能。例如,用户设备312通过所建立的无线通信连接向外部设备304发送请求以执行电源ON/OFF功能。外部设备304在接收请求时通电(如果外部设备304断电)或断电(如果外部设备304通电)。
现在转向图4A至图4B,示出了使用现实界面来控制外部设备的示例性过程400的流程图。在下面的描述中,过程400被描述为使用用户设备(例如,设备100a)来执行。用户设备例如是手持式移动设备或头戴式设备。应当认识到,在其他实施方案中,使用两个或更多个电子设备来执行过程400,电子设备诸如以能够通信的方式联接到诸如基站设备的另一设备(例如,设备100b)的用户设备(例如,设备100c)。在这些实施方案中,过程400的操作以任何方式分布在用户设备与另一设备之间。此外,应当理解,用户设备的显示器可以是透明的或不透明的。尽管在图4A至图4B中以特定顺序示出了过程400的框,但是应当理解,可以以任何顺序来执行这些框。此外,过程400的一个或多个框可以是任选的和/或可以执行附加框。
在框402处,检测物理环境(例如,物理环境302)的一个或多个外部设备(例如,外部设备304、306和308)。在一些实施方案中,该检测基于用户设备与一个或多个外部设备之间的无线通信(例如,近场或短程无线通信,诸如BluetoothTM或Wi-Fi DirectTM)进行。具体地,用户设备检测处于该用户设备的无线范围内(例如,处于预定距离内)的一个或多个外部设备。在一个实施方案中,用户设备以无线方式传输(例如,广播)被物理环境中的一个或多个外部设备接收的请求和/或查询信号。当被一个或多个外部设备接收到时,查询信号使该一个或多个外部设备向用户设备发送响应。在该实施方案中,用户设备在从一个或多个外部设备接收响应时检测该一个或多个外部设备。在一些实施方案中,该响应包括识别信息,诸如一个或多个外部设备中的每个相应外部设备的标识符。该标识符是例如表示相应外部设备的一系列字符。应当理解,在一些实施方案中,该响应中包括附加信息。
在一些实施方案中,一个或多个外部设备中的每一个向周围区域以无线方式广播信息。例如,一个或多个外部设备周期性地并独立于来自用户设备的任何查询信号而自动广播信息。在这些实施方案中,用户设备在接收广播信息时检测一个或多个外部设备。
在框404处,与一个或多个外部设备中的第一外部设备建立无线通信连接。例如,在用户设备与第一外部设备之间建立无线通信连接。在一些实施方案中,无线通信连接是近场或短程无线通信连接(例如,BluetoothTM、Wi-Fi DirectTM等)。在一些实施方案中,无线通信连接是用户设备与第一外部设备之间的直接(例如,对等)无线通信连接。无线通信连接启用例如用户设备与第一外部设备之间的单跳点对点无线通信。在一些实施方案中,响应于在框402处检测第一外部设备而执行框404。在这些实施方案中,在检测第一外部设备时,用户设备发起建立该用户设备与第一外部设备之间的无线通信连接的连接过程。在这些实施方案中,在框406之前执行框404。
建立无线通信连接的过程包括例如在用户设备与第一外部设备之间交换连接信息。在一些实施方案中,预先授权用户设备和/或第一外部设备以建立无线通信连接。例如,用户设备和第一外部设备预先(例如,在框402之前)交换认证信息(例如,配对信息),因此在框404处建立无线通信连接而无需交换认证信息。在其他实施方案中,用户设备和/或第一外部设备需要授权以建立无线通信连接。在这些实施方案中,建立无线通信连接的过程包括在用户设备与第一外部设备之间(例如,经由配对)交换认证信息并且使用所交换的认证信息来建立无线通信连接。
在框406处,从第一外部设备接收到用于指定该第一外部设备的功能的信息。在一些实施方案中,通过在框404处建立的无线通信连接来接收指定第一外部设备的功能的信息。例如,第一外部设备在建立无线通信连接时自动向用户设备发送信息。另选地,用户设备请求来自第一外部设备的信息,并且作为响应,该第一外部设备通过所建立的无线通信连接来向用户设备发送信息。在一些实施方案中,在检测一个或多个外部设备中的第一外部设备时,在框402处接收到信息。例如,该信息包括在第一外部设备对由用户设备广播的查询信号的响应中。
所指定的功能是例如第一外部设备能够执行的任何功能。在第一外部设备是电视机(例如,图3A至图3D的外部设备304)的实施方案中,该功能是电源ON/OFF功能、音量调节功能、信道切换功能等。在第一外部设备是手表或时钟的实施方案中,该功能是例如计时功能、闹钟功能、电池寿命功能等。在第一外部设备是例如电话的实施方案中,该功能是通讯录功能、呼叫功能、语音信箱回放功能等。在第一外部设备是个人计算设备(例如,平板电脑、膝上型电脑等)的实施方案中,该功能是例如消息显示功能(例如,电子邮件、文本消息等)或网络浏览功能。在第一外部设备是媒体设备的实施方案中,该功能是例如媒体搜索/浏览功能、媒体播放功能、媒体文件传输功能等。在第一外部设备是照明设备的实施方案中,该功能是例如电源ON/OFF功能、调光器功能等。
在框408处,确定用户视线方向。例如,使用用户设备的一个或多个第一图像传感器(例如,图像传感器124)来获得用户的图像数据。一个或多个第一图像传感器例如指向用户的眼睛。在一些实施方案中,一个或多个第一图像传感器包括可见光图像传感器和/或IR传感器。用户的图像数据包括例如用户眼睛的图像数据(例如,图像和/或视频)。使用用户眼睛的图像数据来确定用户眼睛中的每一只眼睛的用户视线方向。例如,确定用户角膜的中心、用户瞳孔的中心以及用户眼球的旋转中心,以确定用户眼睛的视轴位置。用户眼睛中的每一只眼睛的视轴限定用户视线方向。视线方向也可称为视线矢量或视线。在一些实施方案中,确定视线方向包括确定用户的视野位置和用户相对于物理环境的视角。
在一些实施方案中,使用用户的深度信息来确定视线方向。例如,使用一个或多个第一图像传感器(例如,使用一个或多个第一图像传感器的深度传感器)来确定用户眼睛的深度信息。例如,深度信息用于更准确地确定用户角膜的中心、用户瞳孔的中心以及用户眼球的旋转中心。
在用户设备是头戴式设备的实施方案中,使用来自用户设备的其他传感器的数据来确定视线方向。例如,获得来自用户设备的陀螺仪和/或加速度计的传感器数据并将其用于确定视线方向。在一些实施方案中,诸如视觉惯性测量的三维位置跟踪算法利用传感器数据来确定用户设备的位置和取向,作为用户的视野位置和视角的代替。在一些实施方案中,在执行框404和/或406的同时执行框408。
在框410处,获得物理环境的至少一部分的第一图像数据。该物理环境包括第一外部设备。在一些实施方案中,所获得的第一图像数据由用户设备的一个或多个第二图像传感器(例如,图像传感器108)捕获。一个或多个第二图像传感器包括例如可见光图像传感器或IR传感器。在一些实施方案中,一个或多个第二图像传感器以与框408中所讨论的一个或多个第一图像传感器相对的方向指向物理环境。在一些实施方案中,第一图像数据基本上对应于从用户的视线位置观察到的物理环境的一部分。在一些实施方案中,第一图像数据包括由第二图像传感器捕获的物理环境的一系列图像和/或视频预览。该物理环境是围绕用户或用户设备的任何物理环境。例如,该物理环境包括用户家庭的区域(例如,厨房、客厅、卧室、车库等)、用户工作场所环境的一部分(例如,办公室、会议室、会客室等)、学校环境(例如,教室)或公共环境(例如,餐厅、图书馆等)。
应当理解,在一些实施方案中,在框410处使用一个或多个第二图像传感器来获得该物理环境的至少一部分的附加数据。例如,使用一个或多个第二图像传感器(例如,图像传感器108的深度传感器或IR传感器)来获得该物理环境的至少一部分的第一深度信息。第一深度信息用于例如生成该物理环境的三维表示。在一些实施方案中,生成该物理环境的三维表示包括生成该物理环境的深度标测图。深度标测图的每个像素与由对应像素表示的一个或多个第二图像传感器与物理环境的表面之间的相应距离信息相关联。
在一些实施方案中,使用渡越时间分析来获得第一深度信息。具体地,用户设备的IR光源(例如,IR发射器)将IR光发射到物理环境,并且一个或多个第二图像传感器的IR传感器检测来自该物理环境中的对象表面的反向散射光。在一些实施方案中,所发射的IR光是IR光脉冲,并且测量发射IR光脉冲与检测相应的反向散射光脉冲之间的时间,以确定从IR传感器到物理环境中的对象表面的物理距离。
在一些实施方案中,通过使用光源(例如,可见光源或不可见光源)来将光图案投影到物理环境来获得第一深度信息。该光图案是例如具有已知间距的点或线的网格。然后使用图像传感器(例如,光传感器,诸如图像传感器或IR传感器)捕获所投影的光图案。所投影的光图案在物理环境中的一个或多个对象表面上的变形用于确定IR传感器与该物理环境中的一个或多个对象的表面之间的物理距离。
在一些实施方案中,使用物理环境的第一图像数据获得第一深度信息,该物理环境的第一图像数据是使用第二图像传感器中被间隔了已知距离的两个第二图像传感器所捕获的。这两个图像传感器捕获物理环境的第一图像数据。在这些实施方案中,物理环境的第一深度信息由两个图像传感器的立体效应确定。具体地,使用两个图像传感器的所捕获的第一图像数据中的公共对象之间的距离偏移(例如,视差差值)来确定物理环境的第一深度信息。
在一些实施方案中,使用物理环境的第一图像数据来获得第一深度信息,该物理环境的第一图像数据是使用一个图像传感器捕获的。例如,将视觉惯性测量(VIO)技术应用于图像数据中以确定第一深度信息。
在框412处,根据框410的所获得的第一图像数据,在显示器(例如,显示器120)上显示物理环境的表示(例如,表示314)。该物理环境的表示是由用户设备提供的现实界面的一部分,并且是使用所获得的图像数据来创建的。具体地,物理环境的表示包括该物理环境中物理对象(例如,外部设备304)的表示。在一些实施方案中,物理环境的表示包括由第二图像传感器捕获的物理环境的实时视频预览。在一些实施方案中,实时视频预览的图像特征(例如,对比度、亮度、阴影等)未经实质性修改。另选地,对实时视频预览的图像特征进行修改以改善图像清晰度或突显现实环境中的相关特征。在一些实施方案中,物理环境的表示是所生成的对应于物理环境的虚拟环境。
在一些实施方案中,基于框408的所确定的视线方向来显示物理环境的表示。例如,所显示的物理环境的表示的视野可根据所确定的视线方向而变化。对应于物理环境的表示的视角和视野位置也可根据所确定的视线方向而变化。
在一些实施方案中,在框412之前执行框408和410。此外,在一些实施方案中,在框406处显示物理环境的表示的同时,执行框408和410。在使用具有透明显示器的用户设备执行过程400的实施方案中,框412是可选的。
在框414处,在显示器(显示器120)上显示对应于第一外部设备的功能(例如,在框406处接收的信息中所指定的功能)的示能表示(例如,示能表示316)。如本文所用,术语“示能表示”是指用户交互式图形用户界面对象。例如,图像或虚拟按钮各自任选地构成示能表示。所显示的示能表示由用户设备生成,并且在物理环境中是不存在的。在一些实施方案中,该示能表示与物理环境的表示同时显示(框410)。
在一些实施方案中,该示能表示显示在物理环境的表示中对应于第一外部设备的位置处。例如,如图3C所示,示能表示316显示在与第一外部设备的表示的一部分重叠的位置处。在一些实施方案中,该示能表示显示在对应于第一外部设备的与在框406处接收的信息中指定的功能相对应的一部分的位置处。在这些实施方案中,框416包括基于第一图像数据来确定第一外部设备是否包括被配置为执行该功能的物理接口(例如,按钮、开关等)。在确定第一外部设备包括被配置为执行该功能的物理接口时,示能表示显示在所显示的物理环境的表示中对应于外部设备的物理接口的位置处。例如,如图3C所示,示能表示316显示在对应于外部设备304的物理电源ON/OFF按钮332的位置处。
示能表示被配置为使得检测用户激活所显示的示能表示而使第一外部设备执行对应于该功能的动作。例如,响应于检测用户激活所显示的示能表示,用户设备(例如,经由框404的已建立的无线通信连接)向第一外部设备发送指令,在第一外部设备接收到该指令时,使得第一外部设备执行该功能。
在一些实施方案中,在显示示能表示之前,框416包括基于从第一外部设备接收的信息来从多个候选示能表示中确定示能表示。该确定基于例如在框406处接收的信息中指定的功能。在这些实施方案中,从多个候选示能表示中选择对应于指定功能的示能表示,并将其显示在显示器上。
应当认识到,在使用具有透明显示器的用户设备执行过程400的实施方案中,在该透明显示器上显示对应于第一外部设备的功能的示能表示,而不显示物理环境的表示。因此,从用户的角度来看,所显示的示能表示看起来被覆盖在通过透明显示器在背景中可见的物理环境中。在一些实施方案中,示能表示显示在透明显示器上对应于第一外部设备且相对于用户眼睛的视线方向(例如,视线)的位置处。例如,示能表示被定位在透明显示器上,使得从用户的角度看,示能表示看起来覆盖通过透明显示器在背景中可见的第一外部设备的至少一部分。
在框416处,利用一个或多个第二图像传感器(例如,在框410处用于获得第一图像数据的相同图像传感器)来获得手势的第二图像数据(例如,图3D中的手势334)。手势是例如在显示器(例如,显示器120)与在物理环境中的第一外部设备之间提供的手势。在一些实施方案中,手势由用户的末端做出,诸如用户的手或手指。在其他实施方案中,手势由用户控制的对象做出,诸如铅笔或指针。在一些实施方案中,在框412处显示物理环境的表示的同时,执行框416。
在一些实施方案中,框416包括使用一个或多个第二图像传感器(例如,图像传感器108的深度传感器或IR传感器)获得手势的第二深度信息。第二深度信息以与上述框410处的第一深度信息相似的方式获得。第二深度信息用于例如生成手势的三维表示。在一些实施方案中,生成手势的三维表示包括生成手势的深度标测图。
在框418处,根据第二图像数据来显示手势的表示(例如,表示336)。具体地,使用在框416处获得的第二图像数据和/或第二深度信息来生成手势的表示。框418类似于框412,不同的是该表示是手势而非物理环境,并且该表示是根据第二图像数据而非第一图像数据生成的。在一些实施方案中,手势的表示与物理环境的表示(框412)以及示能表示(框414)同时显示。所显示的手势的表示用于将用户的手势集成到由用户设备提供的现实界面中。在使用具有透明显示器的用户设备执行过程400的实施方案中,框418是可选的。
在框420处,确定手势是否满足与第一外部设备的功能相关联的一个或多个预定标准。该确定例如建立由用户提供的手势是否表示用户激活第一外部设备的功能的意图。
在一些实施方案中,一个或多个预定标准基于手势与用户设备之间的物理距离。例如,使用在框416处获得的手势的第二深度信息,确定手势与用户设备之间的物理距离。在这些实施方案中,一个或多个预定标准包括以下标准:手势与用户设备之间的物理距离小于预定距离。这种标准可用于确认手势是用户的手势还是仅是视野中独立于用户移动的对象。例如,如果手势与用户设备之间的物理距离显著大于人类手臂的平均长度,则该手势不太可能表示用户激活第一外部设备的功能的意图。
在一些实施方案中,一个或多个预定标准基于使用在框416处获得的手势的第二图像数据来执行二维识别。例如,将对应于该手势的第二图像数据的部分与多个所存储的图像进行比较。多个所存储的图像是例如与第一外部设备的功能相对应的已知手势的图像。在这些实施方案中,过程400确定对多个所存储的图像中的一个或多个所存储的图像的相似性测量。对一个或多个所存储的图像的相似性测量表示第二图像数据的部分与一个或多个所存储的图像的匹配程度。在一些实施方案中,一个或多个预定标准包括以下标准:对多个所存储的图像中的一个或多个所存储的图像的相似性测量大于预定阈值。
在一些实施方案中,一个或多个预定标准基于使用在框416处获得的手势的第二图像数据和/或第二深度信息来执行三维识别。例如,如上所述,使用框416的第二图像数据和/或第二深度信息来生成手势的三维表示。在这些实施方案中,所生成的手势的三维表示的部分与对应于第一外部设备的功能的多个所存储的手势的三维表示进行比较。过程400确定例如对多个所存储的手势的三维表示中的一个或多个的相似性测量。相似性测量表示手势的三维表示的部分与多个所存储的手势的三维表示中的一个或多个的匹配程度。在一些实施方案中,一个或多个预定标准包括以下标准:对多个所存储的手势的三维表示中的一个或多个的相似性测量大于预定阈值。
在一些实施方案中,一个或多个预定标准基于确定由用户提供的手势表示用户激活第一外部设备的功能的意图的概率。该概率例如使用经机器学习的分类器(例如,经训练的神经网络模型)根据第二图像数据和/或第二深度信息确定。在这些实施方案中,处理第二图像数据和/或第二深度信息以确定该第二图像数据和/或该第二深度信息的矢量表示。经机器学习的分类器被配置为接收矢量表示并基于所接收的矢量表示来确定一组概率。该组概率中的每个概率对应于相应外部设备的相应功能。具体地,该组概率包括由用户提供的手势表示用户激活第一外部设备的功能的意图的概率。在这些实施方案中,一个或多个预定标准包括以下标准:所确定的由用户提供的手势表示用户激活第一外部设备的功能的意图的概率大于预定阈值。
在一些实施方案中,一个或多个预定标准基于手势与所显示的示能表示之间的重叠程度。在一些实施方案中,使用在框416处获得的第二图像数据和/或第二深度信息来确定该重叠程度。在一些实施方案中,基于用户的视线方向来确定该重叠程度。例如,重叠程度基于所显示的示能表示沿用户的视线方向与手势的一部分(例如,手势的末端)对准的程度。在一些实施方案中,一个或多个预定标准包括以下标准:所确定的距离小于预定阈值距离的程度。
在一些实施方案中,一个或多个预定标准基于在框414处显示的示能表示的类型。例如,过程400基于第二图像数据和/或第二深度信息来确定手势是否对应于用于激活所显示的示能表示的预定手势。在这些实施方案中,如果确定该手势对应于用于激活所显示的示能表示的预定手势,则满足一个或多个预定标准。以举例的方式,如果所显示的示能表示是虚拟滑动条,则一个或多个预定标准包括以下标准:从用户的视野位置的角度来看,手势的末端沿大致平行于滑动条的方向从第一位置移动到第二位置。在另一实施方案中,如果所显示的示能表示是虚拟转盘,则一个或多个预定标准包括以下标准:从用户的视野位置的角度来看,手势的末端围绕与虚拟转盘的中心轴线相对应的轴线旋转。
根据确定所识别的手势满足与功能相关联的一个或多个预定标准,执行框422和424中的一个或多个。根据确定所识别的手势未满足与功能相关联的一个或多个预定标准,过程400例如放弃执行框422和424。过程400回到框416,并且获得手势的附加图像数据和/或深度信息,以基于附加的所获得的图像数据和/或深度信息来确定是否满足与功能相关联的一个或多个预定标准。
在框422处,使第一外部设备执行该功能。例如,在确定手势满足与该功能相关联的一个或多个预定标准时,用户设备向第一外部设备发送请求以执行该功能。在一些实施方案中,通过在框404处建立的无线通信连接来发送该请求。响应于从用户设备接收请求,第一外部设备执行该功能。
在一些实施方案中,使该功能执行包括使第一外部设备调节设备设置或设备操作状态。例如,如果第一外部设备是电视机(例如,图3A至图3D的外部设备304),并且功能是电源ON/OFF功能、音量调节功能或信道切换功能,则框422包括使电视机分别改变:电源状态(例如,从ON到OFF,或者从OFF到ON)、音量设置(例如,从第一值到第二值)或信道(例如,从第一信道到第二信道)。在第一外部设备是手表或时钟并且功能是闹钟功能的一些实施方案中,框422包括使手表或时钟设置闹钟。在第一外部设备是电话并且功能是呼叫功能的一些实施方案中,框422包括使电话拨打电话号码。在第一外部设备是媒体设备并且功能是媒体播放功能的一些实施方案中,框422包括使媒体设备开始或停止播放媒体项。
在一些实施方案中,使该功能执行包括使第一外部设备提供对应于该功能的信息。在一些实施方案中,该信息包括指定设备的设置或操作状态的信息。在一些实施方案中,该信息包括媒体项或消息项。第一外部设备例如向用户设备发送该信息,并且用户设备向用户呈现该信息。在一些实施方案中,将该信息呈现为视觉输出并显示在显示器(显示器120)上。该信息例如与物理环境的表示同时显示。在一些实施方案中,该信息在物理环境的表示中对应于第一外部设备的位置处被显示为虚拟对象。在一些实施方案中,该信息被呈现为音频输出(例如,使用扬声器118)。在这些实施方案中,用户设备提供对应于该信息的音频输出。
以举例的方式,如果第一外部设备是手表或时钟并且功能正提供时间或电池寿命,则框422包括使手表或时钟向用户设备提供时间信息或电池寿命信息以供显示。在第一外部设备是电话并且功能是通讯录或语音信箱功能的实施方案中,框422包括使电话向用户设备提供通讯录信息或语音信箱消息项以供显示或回放。在第一外部设备是个人计算设备并且功能是即时消息功能(例如,电子邮件、文本消息等)或网络浏览功能的实施方案中,框422包括使个人计算设备向用户设备提供消息项(例如,未读的电子邮件、消息等)或网页项(例如,网页地址或内容)以供显示。在第一外部设备是媒体设备并且功能是媒体播放功能的实施方案中,框422包括使媒体设备向用户设备提供用于播放的当前播放媒体项的媒体信息或当前播放媒体项的副本以供在用户设备上回放。
在一些实施方案中,使该功能执行包括使第一外部设备与用户设备建立无线通信连接。以举例的方式,用户设备检测第一外部设备(框402),并且从第一外部设备接收信息,该信息指定建立无线通信连接的功能(框406)。然而,在一些实施方案中,在框422之前未建立用户设备与第一外部设备之间的无线通信连接。在这些实施方案中,在确定手势满足与功能相关联的一个或多个预定标准时,用户设备使第一外部设备建立无线通信连接。例如,用户设备使第一外部设备与用户设备交换连接信息(例如,配对信息)以建立无线通信连接。
在框424处,显示示能表示的视觉反馈(例如,在显示器120上)。例如,该视觉反馈对应于示能表示的激活。具体地,该视觉反馈向用户指示示能表示已被激活。例如,参考图3D,根据确定手势334满足与外部设备304的电源ON/OFF功能相关联的一个或多个预定标准,用户设备312提供视觉反馈,该视觉反馈示出示能表示316朝向外部设备304的表示314按压,这指示示能表示316已被激活。
应当理解,所显示的视觉反馈的类型可根据在框414处显示的示能表示的类型而变化。例如,在所显示的示能表示是虚拟滑动条的实施方案中,所显示的视觉反馈包括显示虚拟滑动条从第一位置平移到第二位置的指示标识。在所显示的示能表示是虚拟转盘的实施方案中,所显示的视觉反馈包括显示虚拟转盘从第一位置旋转到第二位置。
出于例示和描述的目的呈现了具体实施方案的前述描述。它们并非旨在穷举或将权利要求的范围限制于所公开的精确形式,并且应当理解,鉴于上述教导,许多修改和变型是可能的。
Claims (58)
1.一种用于控制外部设备的方法,所述方法包括:
在具有处理器和存储器的电子设备处:
从外部设备接收指定所述外部设备的功能的信息;
利用一个或多个图像传感器来获得包括所述外部设备的物理环境的第一图像数据;
在显示器上同时显示:
根据所述第一图像数据的所述物理环境的表示,其中所述物理环境的所显示的所述表示包括所述外部设备的表示;以及
与覆盖在所述外部设备的所述表示上的功能相对应的示能表示;
在同时显示所述物理环境的所述表示和与所述功能相对应的所述示能表示的同时,利用所述一个或多个图像传感器来获得识别手势的第二图像数据,所述手势发生在所述显示器和所述物理环境中的所述外部设备之间;
确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准;以及
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,使所述外部设备执行所述功能。
2.根据权利要求1所述的方法,还包括:
与所显示的所述物理环境的表示同时在所述显示器上显示所述手势的表示。
3.根据权利要求1至2中任一项所述的方法,还包括:
在获得所述物理环境的所述第一图像数据的同时,获得用户的由一个或多个第二图像传感器捕获的第三图像数据;以及
基于所述第三图像数据来确定所述用户相对于所述物理环境的所述表示的视线方向,其中所述物理环境的所述表示根据所确定的视线方向来显示。
4.根据权利要求3所述的方法,还包括:
在获得所述用户的所述第三图像数据的同时,使用深度传感器来获得所述用户的深度信息,其中基于所述深度信息来确定所述视线方向。
5.根据权利要求3所述的方法,还包括:
在获得所述物理环境的所述第一图像数据的同时,从陀螺仪和加速度计中的至少一个获得传感器数据,其中基于所述传感器数据和所述第三图像数据来确定所述视线方向。
6.根据权利要求1至2中任一项所述的方法,还包括:
在获得所述第二图像数据的同时,使用所述一个或多个图像传感器来获得所述手势的第二深度信息,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还基于所述第二深度信息。
7.根据权利要求6所述的方法,还包括:
使用所述第二图像数据和所述第二深度信息来生成所述手势的三维表示,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还包括将所述手势的所述三维表示与多个所存储的手势的三维表示进行比较。
8.根据权利要求1至2中任一项所述的方法,还包括:
在显示所述物理环境的所述表示之前,响应于检测所述外部设备,自动建立与所述外部设备的无线通信连接。
9.根据权利要求8所述的方法,其中使用在接收指定所述外部设备的所述功能的所述信息之前获得的连接信息来建立所述无线通信连接。
10.根据权利要求8所述的方法,其中使所述外部设备执行所述功能还包括使用所建立的无线通信连接来向所述外部设备发送请求,其中所述请求在被所述外部设备接收到时使所述外部设备执行所述功能。
11.根据权利要求1至2中任一项所述的方法,其中使所述外部设备执行所述功能还包括使所述外部设备与所述电子设备交换连接信息以在所述外部设备与所述电子设备之间建立无线通信连接。
12.根据权利要求1至2中任一项所述的方法,其中使所述外部设备执行所述功能还包括使所述外部设备调节所述外部设备的设置或操作状态。
13.根据权利要求1至2中任一项所述的方法,其中使所述外部设备执行所述功能还包括使所述外部设备向所述电子设备提供指定所述外部设备的设置或操作状态的信息,并且其中所述方法还包括在所述显示器上显示所述信息。
14.根据权利要求1至2中任一项所述的方法,其中使所述外部设备执行所述功能还包括使所述外部设备向所述电子设备传输媒体项或消息项。
15.根据权利要求1至2中任一项所述的方法,还包括:
在所述显示器上同时显示:
对应于所述功能的示能表示;和
所述物理环境的所述表示。
16.根据权利要求15所述的方法,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的表示的位置处。
17.根据权利要求15所述的方法,还包括:
基于所述第一图像数据来确定所述外部设备包括被配置为执行所述功能的物理接口,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的所述物理接口的位置处。
18.根据权利要求15所述的方法,还包括:
确定所识别的手势与所述物理环境的所述表示上所显示的示能表示之间的距离,其中所述一个或多个预定标准包括所确定的距离小于预定阈值距离的标准。
19.根据权利要求15所述的方法,还包括:
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,在所述显示器上显示所述示能表示的视觉反馈。
20.一种计算机可读存储介质,所述计算机可读存储介质存储被配置为由一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行以下操作的指令:
从外部设备接收指定所述外部设备的功能的信息;
利用一个或多个图像传感器来获得包括所述外部设备的物理环境的第一图像数据;
在显示器上同时显示:
根据所述第一图像数据的所述物理环境的表示,其中所述物理环境的所显示的所述表示包括所述外部设备的表示;以及
与覆盖在所述外部设备的所述表示上的功能相对应的示能表示;
在同时显示所述物理环境的所述表示和与所述功能相对应的所述示能表示的同时,利用所述一个或多个图像传感器来获得识别手势的第二图像数据,所述手势发生在所述显示器和所述物理环境中的所述外部设备之间;
确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准;以及
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,使所述外部设备执行所述功能。
21.根据权利要求20所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
与所显示的所述物理环境的表示同时在所述显示器上显示所述手势的表示。
22.根据权利要求20至21中任一项所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述物理环境的所述第一图像数据的同时,获得用户的由一个或多个第二图像传感器捕获的第三图像数据;以及
基于所述第三图像数据来确定所述用户相对于所述物理环境的所述表示的视线方向,其中所述物理环境的所述表示根据所确定的视线方向来显示。
23.根据权利要求22所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述用户的所述第三图像数据的同时,使用深度传感器来获得所述用户的深度信息,其中基于所述深度信息来确定所述视线方向。
24.根据权利要求22所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述物理环境的所述第一图像数据的同时,从陀螺仪和加速度计中的至少一个获得传感器数据,其中基于所述传感器数据和所述第三图像数据来确定所述视线方向。
25.根据权利要求20至21中任一项所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述第二图像数据的同时,使用所述一个或多个图像传感器来获得所述手势的第二深度信息,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还基于所述第二深度信息。
26.根据权利要求25所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
使用所述第二图像数据和所述第二深度信息来生成所述手势的三维表示,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还包括将所述手势的所述三维表示与多个所存储的手势的三维表示进行比较。
27.根据权利要求20至21中任一项所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在显示所述物理环境的所述表示之前,响应于检测所述外部设备,自动建立与所述外部设备的无线通信连接。
28.根据权利要求27所述的计算机可读存储介质,其中使用在接收指定所述外部设备的所述功能的所述信息之前获得的连接信息来建立所述无线通信连接。
29.根据权利要求27所述的计算机可读存储介质,其中使所述外部设备执行所述功能还包括使用所建立的无线通信连接来向所述外部设备发送请求,其中所述请求在被所述外部设备接收到时使所述外部设备执行所述功能。
30.根据权利要求20-21中任一项所述的计算机可读存储介质,其中使所述外部设备执行所述功能还包括使所述外部设备与电子设备交换连接信息以在所述外部设备与所述电子设备之间建立无线通信连接。
31.根据权利要求20-21中任一项所述的计算机可读存储介质,其中使所述外部设备执行所述功能还包括使所述外部设备调节所述外部设备的设置或操作状态。
32.根据权利要求20-21中任一项所述的计算机可读存储介质,其中使所述外部设备执行所述功能还包括使所述外部设备向电子设备提供指定所述外部设备的设置或操作状态的信息,并且其中所述一个或多个程序还包括用于在所述显示器上显示所述信息的指令。
33.根据权利要求20-21中任一项所述的计算机可读存储介质,其中使所述外部设备执行所述功能还包括使所述外部设备向电子设备传输媒体项或消息项。
34.根据权利要求20至21中任一项所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
在所述显示器上同时显示:
对应于所述功能的示能表示;以及
所述物理环境的所述表示。
35.根据权利要求34所述的计算机可读存储介质,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的表示的位置处。
36.根据权利要求34所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
基于所述第一图像数据来确定所述外部设备包括被配置为执行所述功能的物理接口,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的所述物理接口的位置处。
37.根据权利要求34所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
确定所识别的手势与所述物理环境的所述表示上所显示的示能表示之间的距离,其中所述一个或多个预定标准包括所确定的距离小于预定阈值距离的标准。
38.根据权利要求34所述的计算机可读存储介质,所述一个或多个程序包括用于执行以下操作的指令:
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,在所述显示器上显示所述示能表示的视觉反馈。
39.一种用于控制外部设备的系统,包括:
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行以下操作的指令:
从所述外部设备接收指定所述外部设备的功能的信息;
利用一个或多个图像传感器来获得包括所述外部设备的物理环境的第一图像数据;
在显示器上同时显示:
根据所述第一图像数据的所述物理环境的表示,其中所述物理环境的所显示的所述表示包括所述外部设备的表示;以及
与覆盖在所述外部设备的所述表示上的功能相对应的示能表示;
在同时显示所述物理环境的所述表示和与所述功能相对应的所述示能表示的同时,利用所述一个或多个图像传感器来获得识别手势的第二图像数据,所述手势发生在所述显示器和所述物理环境中的所述外部设备之间;
确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准;以及
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,使所述外部设备执行所述功能。
40.根据权利要求39所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
与所显示的所述物理环境的表示同时在所述显示器上显示所述手势的表示。
41.根据权利要求39至40中任一项所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述物理环境的所述第一图像数据的同时,获得用户的由一个或多个第二图像传感器捕获的第三图像数据;以及
基于所述第三图像数据来确定所述用户相对于所述物理环境的所述表示的视线方向,其中所述物理环境的所述表示根据所确定的视线方向来显示。
42.根据权利要求41所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述用户的所述第三图像数据的同时,使用深度传感器来获得所述用户的深度信息,其中基于所述深度信息来确定所述视线方向。
43.根据权利要求41所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述物理环境的所述第一图像数据的同时,从陀螺仪和加速度计中的至少一个获得传感器数据,其中基于所述传感器数据和所述第三图像数据来确定所述视线方向。
44.根据权利要求39至40中任一项所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在获得所述第二图像数据的同时,使用所述一个或多个图像传感器来获得所述手势的第二深度信息,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还基于所述第二深度信息。
45.根据权利要求44所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
使用所述第二图像数据和所述第二深度信息来生成所述手势的三维表示,其中确定所识别的手势是否满足与所述功能相关联的一个或多个预定标准还包括将所述手势的所述三维表示与多个所存储的手势的三维表示进行比较。
46.根据权利要求39至40中任一项所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在显示所述物理环境的所述表示之前,响应于检测所述外部设备,自动建立与所述外部设备的无线通信连接。
47.根据权利要求46所述的系统,其中使用在接收指定所述外部设备的所述功能的所述信息之前获得的连接信息来建立所述无线通信连接。
48.根据权利要求46所述的系统,其中使所述外部设备执行所述功能还包括使用所建立的无线通信连接来向所述外部设备发送请求,其中所述请求在被所述外部设备接收到时使所述外部设备执行所述功能。
49.根据权利要求39-40中任一项所述的系统,其中使所述外部设备执行所述功能还包括使所述外部设备与电子设备交换连接信息以在所述外部设备与所述电子设备之间建立无线通信连接。
50.根据权利要求39-40中任一项所述的系统,其中使所述外部设备执行所述功能还包括使所述外部设备调节所述外部设备的设置或操作状态。
51.根据权利要求39-40中任一项所述的系统,其中使所述外部设备执行所述功能还包括使所述外部设备向电子设备提供指定所述外部设备的设置或操作状态的信息,并且其中所述一个或多个程序还包括用于在所述显示器上显示所述信息的指令。
52.根据权利要求39-40中任一项所述的系统,其中使所述外部设备执行所述功能还包括使所述外部设备向电子设备传输媒体项或消息项。
53.根据权利要求39至40中任一项所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
在所述显示器上同时显示:
对应于所述功能的示能表示;以及
所述物理环境的所述表示。
54.根据权利要求53所述的系统,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的表示的位置处。
55.根据权利要求53所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
基于所述第一图像数据来确定所述外部设备包括被配置为执行所述功能的物理接口,其中所述示能表示显示在所显示的所述物理环境的表示上对应于所述外部设备的所述物理接口的位置处。
56.根据权利要求53所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
确定所识别的手势与所述物理环境的所述表示上所显示的示能表示之间的距离,其中所述一个或多个预定标准包括所确定的距离小于预定阈值距离的标准。
57.根据权利要求53所述的系统,所述一个或多个程序包括用于执行以下操作的指令:
根据确定所识别的手势满足与所述功能相关联的一个或多个预定标准,在所述显示器上显示所述示能表示的视觉反馈。
58.一种电子设备,所述电子设备包括用于执行根据权利要求1-2中任一项所述的方法的装置。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762566080P | 2017-09-29 | 2017-09-29 | |
US201762566206P | 2017-09-29 | 2017-09-29 | |
US201762566073P | 2017-09-29 | 2017-09-29 | |
US62/566,206 | 2017-09-29 | ||
US62/566,080 | 2017-09-29 | ||
US62/566,073 | 2017-09-29 | ||
US201862734678P | 2018-09-21 | 2018-09-21 | |
US62/734,678 | 2018-09-21 | ||
PCT/US2018/053422 WO2019067899A1 (en) | 2017-09-29 | 2018-09-28 | CONTROLLING EXTERNAL DEVICES USING REALITY INTERFACES |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111052043A CN111052043A (zh) | 2020-04-21 |
CN111052043B true CN111052043B (zh) | 2022-04-12 |
Family
ID=63858220
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880055893.6A Active CN111052046B (zh) | 2017-09-29 | 2018-09-28 | 使用现实界面访问外部设备的功能 |
CN201880051530.5A Active CN111052042B (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
CN202210618012.5A Pending CN114995644A (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
CN201880052303.4A Active CN111052043B (zh) | 2017-09-29 | 2018-09-28 | 使用现实界面控制外部设备 |
CN202210616910.7A Pending CN114924651A (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880055893.6A Active CN111052046B (zh) | 2017-09-29 | 2018-09-28 | 使用现实界面访问外部设备的功能 |
CN201880051530.5A Active CN111052042B (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
CN202210618012.5A Pending CN114995644A (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210616910.7A Pending CN114924651A (zh) | 2017-09-29 | 2018-09-28 | 基于注视的用户交互 |
Country Status (6)
Country | Link |
---|---|
US (9) | US11086581B2 (zh) |
EP (3) | EP4235263A3 (zh) |
JP (3) | JP6938772B2 (zh) |
KR (3) | KR20230106727A (zh) |
CN (5) | CN111052046B (zh) |
WO (4) | WO2019067899A1 (zh) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2480957B1 (en) | 2009-09-22 | 2017-08-09 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US9766702B2 (en) | 2014-06-19 | 2017-09-19 | Apple Inc. | User detection by a computing device |
US12055414B2 (en) | 2015-02-16 | 2024-08-06 | Northwest Instrument Inc. | Ranging system and ranging method |
KR102701209B1 (ko) | 2015-10-20 | 2024-08-29 | 매직 립, 인코포레이티드 | 3차원 공간에서 가상 객체들 선택 |
CN114995594A (zh) | 2016-03-31 | 2022-09-02 | 奇跃公司 | 使用姿势和多dof控制器与3d虚拟对象的交互 |
KR102560558B1 (ko) | 2016-05-20 | 2023-07-27 | 매직 립, 인코포레이티드 | 사용자 인터페이스 메뉴의 콘텍추얼 인식 |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
CN110785688B (zh) * | 2017-04-19 | 2021-08-27 | 奇跃公司 | 可穿戴系统的多模式任务执行和文本编辑 |
CN111052046B (zh) | 2017-09-29 | 2022-06-03 | 苹果公司 | 使用现实界面访问外部设备的功能 |
US10586434B1 (en) * | 2017-10-25 | 2020-03-10 | Amazon Technologies, Inc. | Preventing unauthorized access to audio/video recording and communication devices |
CN107977586B (zh) * | 2017-12-22 | 2021-04-13 | 联想(北京)有限公司 | 显示内容处理方法、第一电子设备以及第二电子设备 |
US11544782B2 (en) | 2018-05-06 | 2023-01-03 | Strong Force TX Portfolio 2018, LLC | System and method of a smart contract and distributed ledger platform with blockchain custody service |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
CN112041788B (zh) | 2018-05-09 | 2024-05-03 | 苹果公司 | 使用眼睛注视来选择文本输入字段 |
DK201970535A1 (en) | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
SE543144C2 (en) * | 2019-05-15 | 2020-10-13 | Tobii Ab | Method and system for dwell-less, hands-free interaction with a selectable object |
EP4170654A1 (en) * | 2019-05-22 | 2023-04-26 | Google LLC | Methods, systems, and media for object grouping and manipulation in immersive environments |
US11200305B2 (en) * | 2019-05-31 | 2021-12-14 | International Business Machines Corporation | Variable access based on facial expression configuration |
JP7301615B2 (ja) * | 2019-06-17 | 2023-07-03 | キヤノン株式会社 | 電子機器およびその制御方法 |
US11216233B2 (en) * | 2019-08-06 | 2022-01-04 | Motorola Mobility Llc | Methods and systems for replicating content and graphical user interfaces on external electronic devices |
CN110716641B (zh) * | 2019-08-28 | 2021-07-23 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及存储介质 |
US10943388B1 (en) * | 2019-09-06 | 2021-03-09 | Zspace, Inc. | Intelligent stylus beam and assisted probabilistic input to element mapping in 2D and 3D graphical user interfaces |
KR102684612B1 (ko) | 2019-09-27 | 2024-07-15 | 애플 인크. | 가상 객체들 제어 |
CN111092795B (zh) * | 2019-11-18 | 2022-04-01 | 北京小米移动软件有限公司 | 功能控制方法、功能控制装置及计算机可读存储介质 |
WO2021131562A1 (ja) * | 2019-12-27 | 2021-07-01 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 |
DK202070616A1 (en) | 2020-02-14 | 2022-01-14 | Apple Inc | User interfaces for workout content |
US20210326094A1 (en) * | 2020-04-17 | 2021-10-21 | Michael E. Buerli | Multi-device continuity for use with extended reality systems |
CN111722708B (zh) * | 2020-04-29 | 2021-06-08 | 中国人民解放军战略支援部队信息工程大学 | 一种基于眼动的多维地理信息自适应智能交互方法及装置 |
CN115769271A (zh) * | 2020-05-06 | 2023-03-07 | 苹果公司 | 3d照片 |
US11423621B1 (en) * | 2020-05-21 | 2022-08-23 | Facebook Technologies, Llc. | Adaptive rendering in artificial reality environments |
CN111586459B (zh) * | 2020-05-22 | 2022-10-14 | 北京百度网讯科技有限公司 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
JP2022537236A (ja) * | 2020-05-22 | 2022-08-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 動画再生の制御方法、装置、電子機器及び記憶媒体 |
DE112021003415T5 (de) * | 2020-06-26 | 2023-07-27 | Apple Inc. | Vorrichtungen, verfahren und grafische benutzerschnittstellen für inhaltsanwendungen |
GB202009876D0 (en) * | 2020-06-29 | 2020-08-12 | Microsoft Technology Licensing Llc | Visual interface for a computer system |
CN115997154A (zh) * | 2020-06-29 | 2023-04-21 | 苹果公司 | 氛围驱动的用户体验 |
GB202009874D0 (en) * | 2020-06-29 | 2020-08-12 | Microsoft Technology Licensing Llc | Visual interface for a computer system |
US11995774B2 (en) * | 2020-06-29 | 2024-05-28 | Snap Inc. | Augmented reality experiences using speech and text captions |
US20230260235A1 (en) * | 2020-07-13 | 2023-08-17 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing system |
CN115836271A (zh) * | 2020-07-14 | 2023-03-21 | 苹果公司 | 生成用于工作空间的建议内容 |
CN111985417A (zh) * | 2020-08-24 | 2020-11-24 | 中国第一汽车股份有限公司 | 功能部件识别方法、装置、设备及存储介质 |
WO2022055821A1 (en) * | 2020-09-11 | 2022-03-17 | Sterling Labs Llc | Method of displaying user interfaces in an environment and corresponding electronic device and computer readable storage medium |
CN116917850A (zh) * | 2020-09-23 | 2023-10-20 | 苹果公司 | 布置虚拟对象 |
US11520456B2 (en) | 2020-09-25 | 2022-12-06 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
US11720171B2 (en) | 2020-09-25 | 2023-08-08 | Apple Inc. | Methods for navigating user interfaces |
US11947859B2 (en) * | 2020-11-16 | 2024-04-02 | Google Llc | System and method for casting content |
EP4195005A4 (en) | 2020-12-17 | 2024-06-12 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD FOR OPERATING AN ELECTRONIC DEVICE |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
US12093461B2 (en) | 2021-02-12 | 2024-09-17 | Apple Inc. | Measurement based on point selection |
US11762458B2 (en) * | 2021-02-15 | 2023-09-19 | Sony Group Corporation | Media display device control based on eye gaze |
CN113010018B (zh) * | 2021-04-20 | 2022-09-20 | 歌尔股份有限公司 | 交互控制方法、终端设备及存储介质 |
US12093106B2 (en) * | 2021-05-19 | 2024-09-17 | International Business Machines Corporation | Augmented reality based power management |
DE112022003302T5 (de) * | 2021-06-28 | 2024-04-18 | Apple Inc. | Verfahren und systeme zum ändern einer anzeige basierend auf benutzereingabe und -blick |
CN114116110A (zh) * | 2021-07-20 | 2022-03-01 | 上海诺司纬光电仪器有限公司 | 基于增强现实的智能界面 |
US11635808B2 (en) * | 2021-08-12 | 2023-04-25 | International Business Machines Corporation | Rendering information in a gaze tracking device on controllable devices in a field of view to remotely control |
WO2023049418A2 (en) * | 2021-09-24 | 2023-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
US12056275B2 (en) * | 2021-10-26 | 2024-08-06 | Meta Platforms Technologies, Llc | Method and a system for interacting with physical devices via an artificial-reality device |
US20230152899A1 (en) * | 2021-11-15 | 2023-05-18 | Samsung Electronics Co., Ltd. | Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor |
US12093440B2 (en) * | 2022-03-31 | 2024-09-17 | Lenovo (Singapore) Pte. Ltd. | Direction of user input to virtual objects based on command metadata |
CN115209057B (zh) * | 2022-08-19 | 2023-05-23 | 荣耀终端有限公司 | 一种拍摄对焦方法及相关电子设备 |
US20240103676A1 (en) * | 2022-09-24 | 2024-03-28 | Apple Inc. | Methods for interacting with user interfaces based on attention |
CN116225209A (zh) * | 2022-11-03 | 2023-06-06 | 溥畅(杭州)智能科技有限公司 | 一种基于眼动追踪的人机交互方法及系统 |
CN115562497B (zh) * | 2022-11-04 | 2024-04-05 | 浙江舜为科技有限公司 | 增强现实信息交互方法、增强现实设备和存储介质 |
WO2024185452A1 (ja) * | 2023-03-09 | 2024-09-12 | キヤノン株式会社 | 情報処理装置、情報処理装置のシステム、情報処理装置の制御方法、プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
WO2015110852A1 (en) * | 2014-01-24 | 2015-07-30 | Sony Corporation | Face tracking for a mobile device |
CN106951069A (zh) * | 2017-02-23 | 2017-07-14 | 深圳市金立通信设备有限公司 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
Family Cites Families (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2062911A1 (en) * | 1991-05-17 | 1992-11-18 | Stephen C. Gates | Computer graphics system and method for auto-tresselating graphic objects |
US5638501A (en) | 1993-05-10 | 1997-06-10 | Apple Computer, Inc. | Method and apparatus for displaying an overlay image |
US5664133A (en) * | 1993-12-13 | 1997-09-02 | Microsoft Corporation | Context sensitive menu system/menu behavior |
US6300965B1 (en) * | 1998-02-17 | 2001-10-09 | Sun Microsystems, Inc. | Visible-object determination for interactive visualization |
JP2004226856A (ja) * | 2003-01-24 | 2004-08-12 | Pioneer Electronic Corp | 表示装置 |
JP4839598B2 (ja) * | 2003-10-30 | 2011-12-21 | ブラザー工業株式会社 | 画像表示装置 |
US8965460B1 (en) * | 2004-01-30 | 2015-02-24 | Ip Holdings, Inc. | Image and augmented reality based networks using mobile devices and intelligent electronic glasses |
KR101181766B1 (ko) * | 2005-12-23 | 2012-09-12 | 엘지전자 주식회사 | 이동통신 단말기에서의 메뉴 표시 방법, 및 그 방법을구현하기 위한 이동통신 단말기 |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
US8745535B2 (en) * | 2007-06-08 | 2014-06-03 | Apple Inc. | Multi-dimensional desktop |
US9571625B2 (en) * | 2009-08-11 | 2017-02-14 | Lg Electronics Inc. | Electronic device and control method thereof |
US9916006B2 (en) * | 2010-07-23 | 2018-03-13 | Telepatheye Inc. | Eye-wearable device user interface and method |
JP5960796B2 (ja) * | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
GB2489454A (en) * | 2011-03-29 | 2012-10-03 | Sony Corp | A method of annotating objects in a displayed image |
AU2011205223C1 (en) * | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
WO2013033842A1 (en) | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
US20130141419A1 (en) * | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US20130241805A1 (en) | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
WO2013144807A1 (en) * | 2012-03-26 | 2013-10-03 | Primesense Ltd. | Enhanced virtual touchpad and touchscreen |
US9041622B2 (en) | 2012-06-12 | 2015-05-26 | Microsoft Technology Licensing, Llc | Controlling a virtual object with a real controller device |
ES2898981T3 (es) * | 2012-08-09 | 2022-03-09 | Tobii Ab | Activación rápida en un sistema de seguimiento de la mirada |
IN2015KN00682A (zh) | 2012-09-03 | 2015-07-17 | Sensomotoric Instr Ges Für Innovative Sensorik Mbh | |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
US9977492B2 (en) * | 2012-12-06 | 2018-05-22 | Microsoft Technology Licensing, Llc | Mixed reality presentation |
US9202313B2 (en) * | 2013-01-21 | 2015-12-01 | Microsoft Technology Licensing, Llc | Virtual interaction with image projection |
WO2014134623A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Delay warp gaze interaction |
KR20140110584A (ko) * | 2013-03-08 | 2014-09-17 | 삼성전자주식회사 | 증강 현실 제공 방법, 저장 매체 및 휴대 단말 |
US20140320592A1 (en) * | 2013-04-30 | 2014-10-30 | Microsoft Corporation | Virtual Video Camera |
US9245388B2 (en) * | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US10349031B2 (en) | 2013-07-28 | 2019-07-09 | Michael J. DeLuca | Augmented reality based user interfacing |
US10451874B2 (en) * | 2013-09-25 | 2019-10-22 | Seiko Epson Corporation | Image display device, method of controlling image display device, computer program, and image display system |
TWI526878B (zh) * | 2013-10-04 | 2016-03-21 | 大同股份有限公司 | 控制電子裝置的方法、手持電子裝置與監控系統 |
JP5825328B2 (ja) | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
US10048748B2 (en) * | 2013-11-12 | 2018-08-14 | Excalibur Ip, Llc | Audio-visual interaction with user devices |
US10558262B2 (en) * | 2013-11-18 | 2020-02-11 | Tobii Ab | Component determination and gaze provoked interaction |
JP6210023B2 (ja) * | 2013-11-28 | 2017-10-11 | 株式会社Jvcケンウッド | 視線検出支援装置および視線検出支援方法 |
US9201578B2 (en) * | 2014-01-23 | 2015-12-01 | Microsoft Technology Licensing, Llc | Gaze swipe selection |
US20160171769A1 (en) * | 2014-01-24 | 2016-06-16 | Osterhout Group, Inc. | See-through computer display systems |
EP3117290B1 (en) * | 2014-03-10 | 2022-03-09 | BAE Systems PLC | Interactive information display |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
CN106462231A (zh) * | 2014-03-17 | 2017-02-22 | Itu 商业发展公司 | 计算机实现的视线交互方法和装置 |
US9804753B2 (en) | 2014-03-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Selection using eye gaze evaluation over time |
KR20150118813A (ko) * | 2014-04-15 | 2015-10-23 | 삼성전자주식회사 | 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치 |
KR102248474B1 (ko) * | 2014-04-30 | 2021-05-07 | 삼성전자 주식회사 | 음성 명령 제공 방법 및 장치 |
US9766715B2 (en) * | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
US9727136B2 (en) * | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
EP2947546A1 (en) | 2014-05-20 | 2015-11-25 | Alcatel Lucent | Module for implementing gaze translucency in a virtual scene |
WO2015183014A1 (en) * | 2014-05-28 | 2015-12-03 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling internet of things devices |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US10067561B2 (en) * | 2014-09-22 | 2018-09-04 | Facebook, Inc. | Display visibility based on eye convergence |
JP6201956B2 (ja) * | 2014-10-24 | 2017-09-27 | 株式会社Jvcケンウッド | 視線検出装置および視線検出方法 |
US10353532B1 (en) * | 2014-12-18 | 2019-07-16 | Leap Motion, Inc. | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US9778814B2 (en) * | 2014-12-19 | 2017-10-03 | Microsoft Technology Licensing, Llc | Assisted object placement in a three-dimensional visualization system |
US10921896B2 (en) | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
JP6491517B2 (ja) * | 2015-03-31 | 2019-03-27 | Kddi株式会社 | 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置 |
US20160292759A1 (en) * | 2015-04-01 | 2016-10-06 | Audatex Gmbh | System and method for estimating collision damage to a car |
US10466861B2 (en) * | 2015-04-21 | 2019-11-05 | Apple Inc. | Adaptive user interfaces |
US9652897B2 (en) * | 2015-06-25 | 2017-05-16 | Microsoft Technology Licensing, Llc | Color fill in an augmented reality environment |
EP3118722B1 (en) * | 2015-07-14 | 2020-07-01 | Nokia Technologies Oy | Mediated reality |
US20170038829A1 (en) | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Social interaction for remote communication |
KR102196975B1 (ko) * | 2015-08-15 | 2020-12-30 | 구글 엘엘씨 | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 |
US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
AU2016324039B2 (en) * | 2015-09-16 | 2021-09-30 | Magic Leap, Inc. | Head pose mixing of audio files |
US10630965B2 (en) | 2015-10-02 | 2020-04-21 | Microsoft Technology Licensing, Llc | Calibrating a near-eye display |
KR20170055295A (ko) * | 2015-11-11 | 2017-05-19 | 엘지전자 주식회사 | 이동 단말기 및 그 이동 단말기의 제어 방법 |
US20170153701A1 (en) * | 2015-12-01 | 2017-06-01 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays as wireless controllers |
US10229540B2 (en) * | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
EP3345379B1 (en) * | 2015-12-23 | 2022-01-26 | Samsung Electronics Co., Ltd. | Method for electronic device to control object and electronic device |
US20170185156A1 (en) * | 2015-12-29 | 2017-06-29 | Microsoft Technology Licensing, Llc | Hand tracking for user interface operation at-a-distance |
US11218688B2 (en) * | 2016-01-04 | 2022-01-04 | Occipital, Inc. | Apparatus and methods for three-dimensional sensing |
US10063560B2 (en) | 2016-04-29 | 2018-08-28 | Microsoft Technology Licensing, Llc | Gaze-based authentication |
US10268266B2 (en) * | 2016-06-29 | 2019-04-23 | Microsoft Technology Licensing, Llc | Selection of objects in three-dimensional space |
US10198855B2 (en) | 2016-07-20 | 2019-02-05 | Colopl, Inc. | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods |
US10110678B2 (en) | 2016-08-19 | 2018-10-23 | Sony Corporation | System and method for data communication based on image processing |
CN106371206A (zh) * | 2016-08-31 | 2017-02-01 | 安徽协创物联网技术有限公司 | 一种广视角虚拟现实装置 |
JP6373920B2 (ja) | 2016-09-14 | 2018-08-15 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
KR102499139B1 (ko) * | 2016-09-21 | 2023-02-13 | 삼성전자주식회사 | 이미지를 표시하는 전자 장치 및 그 제어 방법 |
US11132840B2 (en) * | 2017-01-16 | 2021-09-28 | Samsung Electronics Co., Ltd | Method and device for obtaining real time status and controlling of transmitting devices |
US10520782B2 (en) | 2017-02-02 | 2019-12-31 | James David Busch | Display devices, systems and methods capable of single-sided, dual-sided, and transparent mixed reality applications |
JP6919222B2 (ja) | 2017-02-27 | 2021-08-18 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US11175735B2 (en) | 2017-07-24 | 2021-11-16 | Adobe Inc. | Choice-based analytics that combine gaze and selection data |
CN111052046B (zh) | 2017-09-29 | 2022-06-03 | 苹果公司 | 使用现实界面访问外部设备的功能 |
JP6730363B2 (ja) | 2018-04-13 | 2020-07-29 | ファナック株式会社 | 操作訓練システム |
CN112041788B (zh) | 2018-05-09 | 2024-05-03 | 苹果公司 | 使用眼睛注视来选择文本输入字段 |
US20200301553A1 (en) * | 2019-03-22 | 2020-09-24 | Sony Interactive Entertainment Inc. | Establishing and using virtual assets on tangible objects in augmented reality (ar) and virtual reality (vr) |
-
2018
- 2018-09-28 CN CN201880055893.6A patent/CN111052046B/zh active Active
- 2018-09-28 WO PCT/US2018/053422 patent/WO2019067899A1/en active Application Filing
- 2018-09-28 CN CN201880051530.5A patent/CN111052042B/zh active Active
- 2018-09-28 EP EP23173161.3A patent/EP4235263A3/en not_active Withdrawn
- 2018-09-28 EP EP18786644.7A patent/EP3665550A1/en not_active Ceased
- 2018-09-28 WO PCT/US2018/053428 patent/WO2019067902A1/en unknown
- 2018-09-28 JP JP2020512573A patent/JP6938772B2/ja active Active
- 2018-09-28 CN CN202210618012.5A patent/CN114995644A/zh active Pending
- 2018-09-28 CN CN201880052303.4A patent/CN111052043B/zh active Active
- 2018-09-28 WO PCT/US2018/053415 patent/WO2019067895A1/en active Application Filing
- 2018-09-28 EP EP23219457.1A patent/EP4325278A3/en active Pending
- 2018-09-28 WO PCT/US2018/053427 patent/WO2019067901A2/en active Application Filing
- 2018-09-28 KR KR1020237022376A patent/KR20230106727A/ko not_active Application Discontinuation
- 2018-09-28 KR KR1020227022762A patent/KR20220100102A/ko not_active IP Right Cessation
- 2018-09-28 CN CN202210616910.7A patent/CN114924651A/zh active Pending
- 2018-09-28 KR KR1020207006018A patent/KR102417968B1/ko active IP Right Grant
-
2020
- 2020-02-26 US US16/802,320 patent/US11086581B2/en active Active
- 2020-02-26 US US16/802,188 patent/US11188286B2/en active Active
- 2020-03-24 US US16/828,857 patent/US11137967B2/en active Active
- 2020-03-24 US US16/828,852 patent/US11132162B2/en active Active
-
2021
- 2021-08-04 US US17/394,114 patent/US11762619B2/en active Active
- 2021-09-01 JP JP2021142308A patent/JP2021193585A/ja active Pending
- 2021-09-27 US US17/486,646 patent/US11714592B2/en active Active
- 2021-11-23 US US17/534,102 patent/US11762620B2/en active Active
-
2023
- 2023-06-14 US US18/209,931 patent/US20230325140A1/en active Pending
- 2023-08-18 US US18/235,693 patent/US20230393796A1/en active Pending
- 2023-09-15 JP JP2023149802A patent/JP2023179485A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
WO2015110852A1 (en) * | 2014-01-24 | 2015-07-30 | Sony Corporation | Face tracking for a mobile device |
CN106951069A (zh) * | 2017-02-23 | 2017-07-14 | 深圳市金立通信设备有限公司 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111052043B (zh) | 使用现实界面控制外部设备 | |
US11756269B2 (en) | Tangibility visualization of virtual objects within a computer-generated reality environment | |
KR20200016798A (ko) | 2d/3d 혼합 콘텐츠의 검출 및 디스플레이 | |
KR102340665B1 (ko) | 프라이버시 스크린 | |
US11308686B1 (en) | Captured image data in a computer-generated reality environment | |
EP3847530B1 (en) | Display device sharing and interactivity in simulated reality (sr) | |
US20180349690A1 (en) | Mobile terminal and control method therefor | |
US11842449B2 (en) | Presenting an environment based on user movement | |
US9529428B1 (en) | Using head movement to adjust focus on content of a display | |
US11314396B2 (en) | Selecting a text input field using eye gaze | |
US11908086B2 (en) | Techniques for participation in a shared setting | |
CN111988729B (zh) | 远程设备的发现和连接 | |
US11222454B1 (en) | Specifying effects for entering or exiting a computer-generated reality environment | |
US20240062487A1 (en) | Presenting an environment based on user movement | |
US20230343049A1 (en) | Obstructed objects in a three-dimensional environment | |
US12099773B2 (en) | Accessing functions of external devices using reality interfaces | |
US20240104871A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
EP4407414A1 (en) | Digital assistant placement in extended reality | |
WO2024064350A1 (en) | User interfaces for capturing stereoscopic media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |