CN106576156B - 穿戴式介导现实系统和方法 - Google Patents
穿戴式介导现实系统和方法 Download PDFInfo
- Publication number
- CN106576156B CN106576156B CN201580044985.0A CN201580044985A CN106576156B CN 106576156 B CN106576156 B CN 106576156B CN 201580044985 A CN201580044985 A CN 201580044985A CN 106576156 B CN106576156 B CN 106576156B
- Authority
- CN
- China
- Prior art keywords
- image
- instruction
- sensor
- projector
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3173—Constructional details thereof wherein the projection device is specially adapted for enhanced portability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
本发明提供从穿戴式计算设备投影图像的技术,穿戴式计算设备包括投影仪,投影仪被配置为基于来自一个或多个传感器的输出和/或由相机捕捉的图像将图像投影到用户的视野内。穿戴式计算设备还可以包括触摸输入设备。穿戴式计算设备可以基于从触摸输入设备接收的信号响应于用户触摸投影图像。
Description
背景技术
现代服装和其它穿戴式配件可结合计算或其它先进的电子技术。此类计算和/或先进的电子技术可出于各种功能原因被结合,或者可出于纯粹的美学原因被结合。此类服装和其它穿戴式配件通常被称为“穿戴式技术”或“穿戴式计算设备”
然而,穿戴式设备在可用显示空间方面通常具有显著的缺点。更具体地,可用于用户与设备交互的显示空间的量经常是有限的。这对于穿戴式设备诸如手表、鞋、眼镜、耳环等尤其因此。有限的显示空间直接影响设备的功能和可用性。
来自穿戴式计算设备的投影可以创建具有比具有小的穿戴式显示器的可能性显著大的面积的显示器。然而,与投影的显示器交互的常规技术需要相机、镜子和穿戴式传感器(例如,手套、指尖传感器等)。此附加装备可对与穿戴式计算设备相关的可用性和用户体验不利。
附图说明
图1示出介导现实系统的实施例。
图2A至图2D示出投影图像的介导现实系统的部分的示例。
图3示出图1的介导现实系统的一部分的示例。
图4示出介导现实系统的另一个实施例。
图5至图7示出根据实施例的逻辑流程的示例。
图8示出根据实施例的存储介质。
图9示出根据实施例的处理架构。
具体实施方式
各种实施例通常涉及用于创建介导现实的系统。换句话说,本公开提供从穿戴式计算设备的显示器,并且与该显示器交互。更具体地,在一些示例中,本公开提供具有触摸输入设备(例如,跟踪板、触摸显示器等)的穿戴式计算设备和投影仪。在操作期间,投影仪可以投影显示器,同时触摸输入设备允许用户经由触摸输入设备与投影的显示器交互。作为另一个示例,提供了具有投影仪的穿戴式计算设备。穿戴式计算设备被配置为基于用户上下文将图像投影到表面上。更具体地,该设备被配置为基于用户上下文并且以特定的视角将图像投影到特定表面上,其中,选择特定表面和特定视角使得在期望时间将图像投影在用户的视觉内。
现在参考附图,其中相同的参考标号始终用于指代相同的元件。在以下描述中,出于解释的目的,阐述了许多具体细节以便提供对其全面的理解。然而,显然,可以在没有这些具体细节的情况下实践新颖的实施例。在其它的实例中,公知的结构和设备以框图的形式示出,以便对其进行描述。意图是覆盖在权利要求范围内的所有修改、等同物和替代。
图1是结合穿戴式计算设备100的介导现实系统1000的实施例的框图。一般来说,穿戴式计算设备100被描绘配置为在表面300上投影图像,从而产生投影图像200。更具体地,计算设备100被配置为将图像投影到在视野中的表面(例如,表面300)上。如本文所用的,视野可以是物理范围、地理范围或其它范围。具体地,视野可以是可被人类(例如,一个或多个人眼)或者被电子设备(例如,被视觉输入设备等)感知的范围。在本文所呈现的许多示例中,出于清楚呈现的目的,术语“视野”与用户的视点同义地使用。例如,计算设备100可被配置为在对应于设备100的用户的视点的视野内产生投影图像200。然而,示例并不限于在该上下文中。
此外,穿戴式计算设备100可以被配置为检测表面、上下文、对象和/或触摸输入,并且基于所检测的表面、上下文、对象和/或触摸输入来选择和/或产生要由投影仪投影的图像。重要的是,应当注意,表面300可以是,例如,墙壁、街道、桌子等。另外,表面300可以是空气或另外的透明或模糊表面。由此,在该上下文中的图像投影到其上的术语“表面”的使用不受限制。
在各种实施例中,穿戴式计算设备100结合处理器组件110、图形处理组件(GPU)120、存储器130、投影仪140、相机150、触摸输入设备160、接口170和(一个或多个)传感器180中的一个或多个。存储器130存储控制例程131、图像132、所检测的(一个或多个)表面133、上下文信息134、生活日志信息135、传感器读数136和投影仪控制指令137中的一个或多个。
虽然未进行描绘,但穿戴式计算设备100可经由网络可操作地连接到一个或多个其它计算设备(参考图4)。具体地,穿戴式计算设备100可通过网络与其它计算设备(参考图4)交换传达信息的信号(例如,上下文信息、生活日志信息、显示信息、触摸输入信息等)。此外,如下面更详细地解释,结合设备100描述的操作和/或被描绘为存储在存储器中的数据可在通信地连接到穿戴式计算设备100的一个或多个计算设备上执行和/或存储在其上。
在穿戴式计算设备100中,控制例程131结合在处理器组件110和/或GPU 120上作为主要处理器组件和/或GPU 120的角色操作的指令序列,以实现执行各种功能的逻辑。在执行控制例程131中,处理器组件110和/或GPU 120确定要由投影仪140投影图像132。一般来说,处理器组件110和/或GPU 120基于来自触摸输入设备160、上下文信息134、生活日志信息135和/或传感器读数136的输入来确定图像132。应当理解,穿戴式计算设备可投影各种图像。此外,具体图像(例如,图像132)将基于许多因素而变化,这些因素中的一些可依赖于实施方式而定。出于呈现的目的,在此提供了一些示例;然而,它们并非旨在是限制性的。
在一些示例中,处理器组件110和/或GPU 120可基于可在穿戴式计算设备上执行的特定应用来确定图像132。例如,穿戴式计算设备可被配置为执行一种或多种该应用,诸如例如电子邮件应用、联系人管理应用、网页浏览器、地图应用、健身应用、增强现实应用等。处理器组件110和/或GPU 120可基于应用的一个或多个用户界面组件来确定图像132。
在执行控制例程131中,处理器组件110和/或GPU 120使投影仪140将图像132投影到表面300,从而产生投影图像200。一般来说,处理器组件110和/或GPU 120使投影仪140将图像投影到特定表面(例如,表面300)并且具有在正确的时间处于用户的视点内的正确的特性(例如,取向、颜色、梯形失真校正、亮度等)。
示例图像,通过处理器组件110和/或GPU 120确定图像以及通过处理组件110选择特定表面将在下面进行详细描述。然而,在描述这些操作前,描述示例(i)产生上下文信息134和(ii)产生生活日志信息135是有益的。
产生上下文信息
在一些示例中,处理器组件110和/或GPU 120可基于上下文信息134来确定图像132。另外,处理器组件110可基于上下文信息134来确定表面300和/或用于将图像132投影到表面300上的方法或形式。一般来说,上下文信息134可包括穿戴式计算设备100和/或穿戴式计算设备的用户以及/或者周围环境的特定“上下文”的指示。具体地,上下文信息134可包括活动级别、社交情境、位置、邻近(一个或多个)计算设备、设备或用户的环境、用户特性(例如,身高、体重、残疾等)、用户移动、日期/时间参数、运输参数(例如,机动车辆、飞机、自行车等)、设备特性、邻近用户、安全参数、保密参数、验证参数、传感器信息等的指示。
在一些示例中,处理组件110可从传感器读数136确定上下文信息134。传感器读数136可以对应于从传感器180接收的一个或多个信号、读数、指示或信息。在一些示例中,传感器180可包括加速计。在执行控制例程131中,处理组件110可接收来自加速计的输出,并且将该输出存储为传感器读数136。然后,上下文信息134可包括至少部分地基于来自加速计的输出确定的活动级别(例如,在不移动和奔跑之间的范围,等)的指示。
在一些示例中,传感器180可包括麦克风。在执行控制例程131中,处理组件110可接收来自麦克风的输出,并且将该输出存储在传感器读数136处。然后,上下文信息134可包括部分地基于来自麦克风的输出确定的社交情境(例如,在家、在地铁上、在汽车里、在办公室里等)的指示。
在一些示例中,传感器180可包括光传感器。在执行控制例程131中,处理组件110可接收来自光传感器的输出,并且将该输出存储在传感器读数136处。然后,上下文信息134可包括部分地基于来自光传感器的输出确定的环境光的指示。
重要的是,应当注意,传感器180可以是传感器阵列,并且可包括任何数量的传感器。此外,传感器180中的一个或多个可设置在穿戴式计算设备100内(例如,如图1所示),并且传感器180中的一个或多个可设置在穿戴式计算设备100的外侧。具体地,穿戴式计算设备100可通信地耦接到传感器180(例如,邻近信标、气象站、物联网等),以接收来自传感器180的输出和信号(例如,包括传感器读数的指示)。
在一些示例中,处理器组件110可从接收自相机150的输出确定来自上下文信息134。例如,处理器组件110可接收来自相机的输出,包括由相机150捕捉的图像的指示,并且将该图像存储为传感器读数136存储。然后,上下文信息134可包括至少部地基于从相机150捕捉的图像确定的隐私级别(例如,在组中、具有一个或多个已知的个体、单独,等)的指示。
产生生活日志信息
在一些示例中,处理组件110可从传感器读数136和/或相机输出150确定生活日志信息135。例如,如上所述,传感器读数可包括由相机150捕捉的图像的指示。处理组件110可部分地基于图像来确定生活日志信息135。例如,处理器组件110可确认访问过的位置、物品(例如,钥匙、遥控器、钱包等等)的放置,并且将这些信息的指示存储为生活日志信息135。
在一些示例中,传感器180可包括全球定位系统(GPS)传感器。在执行控制例程131中,处理组件110可接收来自GPS传感器的输出,并且将该输出存储为传感器读数136。然后,生活日志信息135可包括部分地基于来自GPS传感器的输出确定的GPS轨迹、访问过的区域、特定位置处的时间等的指示。
在一些示例中,处理器组件110可从接收自相机150的输出确定生活日志信息135。例如,生活日志信息135可包括部分地基于从相机150捕捉的图像来确定物品(例如,钥匙、钱包、遥控器等)最后被看到的位置的指示。
图像投影
如上所述,处理组件110和/或GPU 120确定图像132。另外,处理组件110选择将图像1232投影到其上的表面,以及确定各种投影特性。例如,处理组件110和/或GPU 120可基于应用的一个或多个用户界面元件、上下文信息134和/或生活日志信息135来确定图像132。
处理组件110和/或GPU 120可产生图像132以包括用于应用的用户界面。此外,处理组件110和/或GPU 120可被配置为基于从触摸输入设备160接收的输出来产生图像132。例如,图像132可包括用于电子邮件应用的用户界面。处理组件110和/或GPU 120可以基于用于电子邮件应用的用户界面和从触摸输入设备160接收的包括触摸输入的指示的信号来产生图像132。更具体地,图像132可包括用于电子邮件的用户界面,并且可基于来自触摸输入设备的输入而动态地改变。
在一些示例中,处理组件110和/或GPU 120可被配置为基于生活日志信息135来产生图像132。例如,图像132可以包括被投影在一个或多个真实对象的上方、周围或邻近的指示符(例如,箭头、星形、轮廓、标记等)。以这种方式,穿戴式计算设备100可提供增强现实,并且具体地为,对实际现实具有最小入侵的增强现实。例如,处理组件110和/或GPU 120可以产生图像132以突出其最后已知位置记录在生活日志信息135中的对象。作为另一个示例,处理组件110和/或GPU 120可以产生图像132以回溯记录在生活日志信息135中的路径或路线。
在一些示例中,处理组件110和/或GPU 120可被配置为基于上下文信息134来产生图像132。例如,图像132可以包括用于健身应用的用户界面。处理组件110和/或GPU 120可以基于用于健身应用的用户界面和上下文信息134来产生图像132。具体地,图像132可包括用于健身应用的用户界面,其中用户界面的组件基于上下文信息改变。例如,用户界面可包括“重复计数器”(例如,向上计数、向下计数等),其中计数基于上下文信息134改变。如上所述,上下文信息134可包括基于从传感器180接收的信号移动的指示。
因此,上下文信息134可包括重复移动已经发生的次数(例如,基于从传感器180接收的信号)。此信息可以在图像132中表示。在特别具体的示例中,上下文信息134可表示完成的锻炼(例如,仰卧起坐、俯卧撑、引体向上、深蹲、卧推等)的重复次数。处理组件110和/或GPU 120可被配置为产生包括重复次数的指示的图像132。例如,图像132可包括完成的重复次数,在一组已知重复中剩余的重复次数等。
在一些示例中,处理组件110和/或GPU 120可被配置为基于上下文信息134来产生图像132。例如,图像132可以包括用于地图应用的用户界面。处理组件110和/或GPU 120可以产生图像132以包括要被投影的指示符(例如,箭头等),从而基于在上下文信息134中的位置信息(例如,GPS位置、街道识别信息等)来指示要采取的方向或路径。处理组件110和/或GPU 120可基于改变的上下文信息(例如,改变位置等)来动态地改变图像132。
在执行控制例程131中,处理组件110检测邻近穿戴式设备100的多个表面(例如,表面300)。在一些示例中,处理器组件110可接收来自相机150的信号,包括邻近穿戴式计算设备100的表面的指示。具体地,处理器组件110可将墙壁、桌子、地板、道路、建筑物、书桌的边缘等检测为邻近穿戴式计算设备100的表面。换句话说,处理组件110可接收来自相机150的输出,并且至少部分地基于该输出来检测邻近穿戴式设备的多个表面。另外,处理组件110可将检测到的表面的指示存储为检测到的表面133。在一些示例中,处理组件110可基于上下文信息134和/或传感器读数136将表面检测为空间中(例如,空中)的点。具体地,处理组件110可从包括在上下文信息134和/或传感器读数136中的用户头部的位置、用户眼睛的方向等的指示检测空间中的点。
在执行控制例程131中,处理组件110确定将图像132投影到其上的表面。更具体地,处理组件110确定图像132要被投影到其上的表面300。一般来说,处理组件110从检测到的表面133确定表面300。在一些示例中,处理组件110基于投影仪140来确定表面300。例如,处理组件110可基于检测到的表面133和投影仪140能够投影到其上的表面的类型(例如,平坦、亚光、着色等)来确定表面300。在一些示例中,投影仪140可为全息投影仪。由此,检测到的表面133可包括空气、玻璃或其他类型的投影仪(例如,LCD、CRT等)可不适合投影到其上的表面。
在一些示例中,处理组件110可基于图像132的内容以及上下文信息和/或生活日志信息135从检测到的表面确定表面300。例如,如果图像132包含地图应用,则处理组件110可基于在上下文信息134中指示的移动速率和/或在上下文信息中指示的用户视点来确定表面300。具体地,处理组件110可将表面确定为道路、建筑物墙壁等。另外,处理组件110可基于上下文信息134来调节投影图像200的焦点和/或分辨率。例如,如果上下文信息指示用户的头部正在移动(例如,用户正在做仰卧起坐等),则处理组件110可动态地调节投影图像200的焦点,使得在用户头部移动时,图像将保持对焦于用户。
作为另一个示例,如果图像132包含隐私的和/或机密的信息,则处理组件110可基于在上下文信息134中指示的社交情境和/或用户的视点来确定表面300。具体地,处理组件110可将表面300确定为用户可查看但社交情境中其他人不可查看的表面。
在执行控制例程131中,处理组件110产生投影仪控制指令137。一般来说,投影仪控制指令137指导投影仪140将图像132投影到表面300上,从而生成投影图像200。在一些示例中,处理组件110可产生投影仪控制指令137以包括投影图像132的取向的指示。在一些示例中,处理器组件110可产生投影仪控制指令137以包括图像132的颜色的指示。在一些示例中,处理组件110可产生投影仪控制指令137以包括图像132的梯形失真校正的指示。在一些示例中,处理组件110可产生投影仪控制指令137以包括图像132的最佳色调的指示。
在一些示例中,处理组件110可产生投影仪控制指令137以节省用于投影图像的电力。具体地,处理组件110可产生投影仪控制指令137,使得以降低功耗的方式为用户视点显示投影图像200。例如,执行锻炼的用户可周期性地从表面300看去(例如,在重复的部分期间、在跑步时每隔一个步幅等)。因此,投影仪控制指令137可使投影仪140周期性地投影图像132。具体地,投影仪140可以在期望用户正在看着表面300时期间投影图像132,并且在用户不期望正在看着表面300时不投影图像132。
在各种实施例中,处理器组件110和/或处理器组件210可包括各种市售处理器中的任何一种。进一步地,这些处理器组件中的一个或多个可包括多个处理器、多线程处理器、多核处理器(无论所述多个核是否共存于相同还是分离的管芯上)和/或一些其它种类的多处理器架构,通过这些多处理器架构,多个物理上分离的处理器以某种方式链接。
在各种实施例中,GPU 120可包括各种市售图形处理单元中的任何一种。进一步地,这些图形处理单元中的一个或多个可具有专用存储器、多线程处理和/或一些其它的并行处理能力。
在各种实施例中,存储器130可基于各种信息存储技术中的任何一种,可能包括需要不间断地供应电力的易失性技术,并且可能包括需要使用可移除或可不移除的机器可读存储介质的技术。因此,这些存储器中的每个可包括各种类型(或类型的组合)的存储设备,包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、动态RAM(DRAM)、双倍数据速率DRAM(DDR-DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、闪存、聚合物存储器(例如,铁电聚合物存储器)、双向存储器、相变或铁电存储器、氧化硅-氮氧化物-硅(SONOS)存储器、磁卡或光卡、一个或多个单独的铁磁盘驱动器或组织成一个或多个阵列的多个存储设备(例如,组织成独立磁盘阵列的冗余阵列或RAID阵列的多个铁磁盘驱动器)。应当注意,虽然这些存储器中的每个被描绘为单个块,但是这些存储器中的一个或多个可基于不同的存储技术包括多个存储设备。因此,例如,这些所描绘的存储器中的每个中的一个或多个可表示光驱动器或闪存读卡器的组合,通过该组合,程序和/或数据可存储在机器可读存储介质、铁磁盘驱动器的一些形式上并在其上传送,以在本地存储程序和/或数据达相对延长的时间段,并且一个或多个易失性固态存储设备能够相对快地访问程序和/或数据(例如,SRAM或DRAM)。还应当注意,这些存储器中的每个可基于相同的存储技术由多个存储器组件组成,但是由于在使用中的专业化(例如,一些DRAM设备用作主存储器,而其它DRAM设备则用作图形控制器的不同帧缓冲器),可单独地维护这些存储器组件。
在各种实施例中,投影仪140可包括各种投影仪诸如例如LCD投影仪、CRT投影仪、LED投影仪、DLP投影仪、全息投影仪等中的任何一种。
在各种实施例中,相机150可以是包括被配置为捕捉图像的电子传感器的各种相机包括3D相机中的任何一种。
在各种实施例中,触摸输入设备160可以是被配置为响应于用户触摸产生输出的各种设备中的任何一种。例如,触摸输入设备160可以是电容式触摸设备、机电式触摸设备等。
在各种实施例中,接口170可采用各种信令技术中的任何一种,使得计算设备能够耦接到如已经所描述的其它设备。这些接口中的每个可包括提供必要功能中的至少一些的电路,以实现此类耦接。然而,这些接口中的每个还可至少部分地用由处理器组件中的对应的处理器组件执行的指令序列来实现(例如,实现协议栈或其它特征)。在采用电气和/或光学导电电缆的情况下,这些接口可采用符合各种工业标准中的任何一种的信令和/或协议,这些工业标准包括但不限于RS-232C、RS-422、USB、以太网(IEEE-802.3)或IEEE-1394。在需要使用无线信号传输的情况下,这些接口可采用符合各种工业标准中的任何一种的信令和/或协议,这些工业标准包括但不限于IEEE 802.11a、802.11b、802.11g、802.11n、802.16、802.20(通常被称为“移动宽带无线接入”);蓝牙;ZigBee或蜂窝无线电话服务,诸如具有通用分组无线业务的GSM(GSM/GPRS)、CDMA/1xRTT、全球演进增强数据速率(EDGE)、仅演进数据/优化(EV-DO)、数据和语音演进(EV-DV)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、4G LTE等。
在各种实施例中,(一个或多个)传感器180可包括一个或多个传感器,诸如例如加速计、麦克风、陀螺仪、GPS传感器、磁传感器等。
图2A至图2D示出可由投影仪140基于投影仪控制指令137和图像132投影的示例投影图像200。一般来说,图像132包括投影图像200的指示。具体地,图像132包括投影仪140投影光所需的数据,从而导致投影图像200显示在表面300上。
更具体地转向图2A,其示出可由投影仪140基于图像132和投影仪控制指令137投影的示例投影图像201。如所描绘,投影图像201包括具有用户界面(UI)组件211、212和213的UI210。在电子邮件应用的上下文中,UI组件211、212和213可对应于邮箱中的邮件。投影图像201还包括突出显示部分220。突出显示部分220可基于从触摸输入设备160接收的信号而动态地改变。例如,用户可使用触摸输入设备160“滚动”UI组件211、212和213。
更具体地转向图2B,其示出可由投影仪140基于图像132和投影仪控制指令137投影的另一个示例投影图像202。如所描绘,投影图像202可围绕对象301被投影。具体地,在表面300上示出多个对象(例如,301-1、301-2、301-3、301-4和301-5)。处理器组件110可被配置为识别对象301中的一个,并且将图像投影到所识别的对象上、上方、周围或邻近。例如,所描述的图像202围绕图像301-5投影到的表面300上。由此,穿戴式计算设备100可为用户“突出显示”或“指向”对象,诸如用户钥匙。
更具体地转向图2C,其示出由投影仪140基于图像132和投影仪控制指令137投影的另一个示例投影图像203。如所描绘,图像203包括具有UI组件231的用户界面(UI)230。在健身应用的上下文中,UI组件231可对应于重复计数器、计时器等。UI组件231可基于上下文信息134(例如,检测到的移动、自移动开始经过的时间等)而动态地改变。例如,UI组件231可动态地改变,以使用户可以看到重复的数量和/或活动的经过时间。
更具体地转向图2D,其示出由投影仪140基于图像132和投影仪控制指令137投影的另一个示例投影图像204。如所描绘,投影图像204是可被投影到表面300上的指示符(例如,箭头)。例如,在地图应用的上下文中,指示符可被投影到表面(例如,人行道等)上,以提供行进方向的视觉指示。指示符可基于上下文信息134(例如,检测到的移动、检测到的位置等)而动态地改变(例如,成为弯曲的箭头成为停止标记等)。
图3是图1的介导现实系统1000的实施例的部分的框图。一般来说,图3示出系统1000的操作的各方面。在各种实施例中,控制例程131可包括操作系统、设备驱动器和/或应用级程序(例如,在盘介质上提供的所谓的“软件套件”、从远程服务器获得的小程序等)中的一个或多个。在包括操作系统的情况下,操作系统可以是适合于处理器组件110和/或GPU120中的任何对应那些的各种可用操作系统中的任何一种。在包括一个或多个设备驱动器的情况下,那些设备驱动器可为穿戴式计算系统100的各种其它组件中的任何一个无论是硬件组件还是软件组件提供支持。
如图3所描绘,控制例程131(例如,控制例程131-1)包括表面检测器1314和投影协调器1315。另外,在一些示例中,控制例程131(例如,控制例程131-2)包括上下文引擎1311、生活日志引擎1312和对象认知引擎1313。重要的是要注意,对于一些实施例,上下文信息134和生活日志信息135的产生以及对象识别和跟踪可以通过另一个计算设备(参考图4)来执行。例如,通信地连接到穿戴式的计算设备(例如,经由无线网络等)的计算设备可执行更多的计算密集型操作。此外,一些信息(例如,上下文信息134和/或生活日志信息135)可存储在另一个计算设备上,例如以节省穿戴式计算设备100上的可用存储器。
一般来说,控制例程131使得图像132投影到表面300上,从而生成投影图像200。具体地,控制例程131检测表面、上下文、对象和/或触摸输入。控制例程131产生由投影仪投影到特定表面上并且具有用户可查看的特定特性的图像。图像、表面和特性基于检测到的表面、上下文、对象和/或触摸输入来确定。
投影协调器1315基于包括穿戴式计算设备100的上下文的指示的上下文信息134产生投影仪控制指令137。具体地,上下文包括基于来自传感器180(例如,传感器读数136)的输出的关于设备100的上下文的信息。投影仪控制指令137使得投影仪140将图像132投影到表面300上,从而导致投影图像200在用户视野和/或焦点内。
在一些示例中,投影协调器1315基于上下文信息134和来自触摸输入设备160的输出产生投影仪控制指令。更具体地,投影协调器1315可允许用户通过触摸输入设备160与投影图像200交互。
在一些示例中,投影协调器1315确定将图像投影到其上的表面(例如,表面300)。具体地,投影协调器1315可以从由表面检测器检测到的一个或多个表面中确定表面。表面检测器1314检测邻近装置的一个或多个表面。在一些示例中,表面检测器1314基于从相机150捕捉的图像检测邻近设备100的表面。投影协调器1315可基于用户视点的指示确定将图像投影到其上的表面。具体地,上下文可包括例如基于传感器读数136和/或由相机150捕捉的图像的用户视点的指示。
在一些示例中,投影协调器1315确定(i)用户的视点以及(ii)在用户视点内的表面。例如,投影协调器1315可从传感器输出和/或从用于跟踪用户视点的各种设备接收的信号中确定用户视点。具体地,投影协调器135可从接收自眼睛跟踪设备、头戴式相机和/或光的可检测投影(例如,通过光检测器检测等)的信号确定用户视点。
另外,投影协调器1315可确定用于投影图像的一个或多个特性,诸如例如方向、梯形失真校正和最佳色调等。此类特性可基于上下文信息134、生活日志信息135或其它信息。投影仪控制指令137可包括这些特性以使得投影仪140投影具有期望特性的投影图像132。
在一些示例中,上下文是活动级别。例如,传感器180可包括加速计。由此,上下文信息134可以包括基于从加速计接收的信号的活动级别的指示。在一些示例中,上下文信息134可基于从相机捕捉的图像。具体地,上下文信息可以包括社交情境的指示,诸如可基于应用于由相机150捕捉的图像的图像分析技术(例如,面部识别、位置识别等)来确定。
在一些示例中,传感器180包括全球定位系统(GPS)传感器。在此类示例中,上下文信息134可以包括设备100的位置的指示。
对于一些示例,控制例程131包括上下文引擎1311。在此类示例中,上下文引擎可被配置为接收来自连接到网络的计算设备的上下文信息134。作为另一个示例,上下文引擎1311可被配置为基于传感器读数136和/或由相机150捕捉的图像来确定上下文信息134。
对于一些示例,投影协调器1315基于生活日志信息135来产生投影仪控制指令137。一般来说,生活日志信息135包括至少部分地基于传感器读数136和/或由相机150捕捉的图像设备100的历史记录的指示。具体地,生活日志信息135可包括由设备100访问的位置的历史记录、放置具体对象的地方等。
对于一些示例,控制例程包括生活日志引擎1312。在此类示例中,生活日志引擎1312可被配置为接收来自连接到网络的计算设备的生活日志信息135。作为另一个示例,生活日志引擎1312可被配置为基于传感器读数136和/或由相机捕捉的图像来确定生活日志信息135。
对于一些示例,控制例程131可包括对象认知引擎1313。一般来说,对象认知引擎被配置为确认或识别在由相机150捕捉的图像中的对象。例如,对象认知引擎1313可检测在由相机150捕捉的图像中的具体物品(例如,钥匙、钱包、眼镜、遥控器等)。因此,认知引擎1313可被配置为检测设备100的用户或佩戴者观看的或者在其视野内的对象。
图4示出介导现实系统1001。如所描绘,系统1001包括被配置为将图像投影到表面300上的穿戴式计算设备100,从而生成投影图像200。另外,系统1001包括服务器400和通过网络600通信地耦接到穿戴式计算设备100的第二穿戴式计算设备500。结合图1和图3的系统1000描述系统1001。另外,第二穿戴式计算设备500可大致上与如上所述的穿戴式计算设备100类似。具体地,所描绘的第二穿戴式计算设备500将图像投影到表面301上,从而生成投影图像205。
一般来说,服务器400可被配置为接收来自穿戴式计算设备100和/或第二穿戴式计算设备500的传感器读数136,并且确定上下文信息134和生活日志信息135。另外,服务器400可被配置为识别在由穿戴式计算设备100和/或500的相机150捕捉的图像中的对象。
如上所述,穿戴式计算设备100可被配置为产生图像132和投影仪控制指令137。此外,穿戴式计算设备100可被配置为与穿戴式计算设备500协调地产生图像132和投影仪控制指令137。更具体地,服务器400可被配置为基于来自设备100和设备500两者的传感器读数来确定上下文信息134和生活日志信息135。由此,穿戴式计算设备100可基于来自设备100和设备500两者的传感器读数产生图像132和投影仪控制指令137。此外,穿戴式计算设备100可基于设备500的投影能力、邻近设备500的表面等产生图像132和投影仪控制指令137。
在一些示例中,设备100和设备500可协调地将图像投影到相同的表面上。更具体地,表面300和表面301在一些示例中可为相同的表面。
图5至图7示出逻辑流程的示例实施例,该逻辑流程可由在系统1000内的组件来实现。所示的逻辑流程可表示由在本文中所述的一个或多个实施例执行的操作中的一些或全部。更具体地,在至少执行控制例程131时,逻辑流程可示出由处理器组件110和/或GPU 120执行的操作。虽然参考图1、图2A至图2D和图3对逻辑流程进行了描述,但是示例不限于该上下文。
更具体地转向图5,其描绘了逻辑流程1100。逻辑流程1100可在框1110处开始。在框1110处,介导现实系统的穿戴式计算设备的处理器组件(例如,系统1000的穿戴式计算设备100的处理器组件110)检测邻近表面。例如,穿戴式计算设备100可由控制例程131的投影协调器1315的执行引起,以检测邻近表面包括表面300,并且将邻近表面的指示存储为检测到的表面133。
继续到框1120,穿戴式计算设备的处理器组件部分地基于上下文信息从检测到的表面确定表面。例如,投影协调器1315可基于上下文信息134从检测到的表面133确定表面300。具体地,投影协调器1315可以基于上下文信息134,包括用户视点和/或焦点的指示来确定表面300,使得投影图像200在用户视点和焦点内。
继续到框1130,穿戴式计算设备的处理器组件产生投影控制指令,以使投影仪将图像投影到所确定的表面上。例如,投影协调器1315可以产生投影仪控制指令137,以使投影仪400将图像132投影到表面300上。
更具体地转向图6,其描绘了逻辑流程1200。逻辑流程1200可在框1210处开始。在框1210处,介导现实系统的穿戴式计算设备的处理器组件(例如,系统1000的穿戴式计算设备100的处理器组件110)接收激活投影的请求。例如,投影协调器1315可接收激活穿戴式计算设备100的投影特征的请求(例如,经由语音命令、经由运动手势、经由触摸手势、经由按钮按压等)。
继续到框1220,穿戴式计算设备的处理器组件检测邻近表面。例如,穿戴式计算设备100可由控制程序131的投影协调器1315的执行引起,以检测邻近表面,包括表面300,并且将邻近表面的指示存储为检测到的表面133。
继续到框1230,穿戴式计算设备的处理器组件部分地基于上下文信息从检测到的表面确定表面。例如,投影协调器1315可基于上下文信息134从检测到的表面133确定表面300。具体地,投影协调器1315可以基于上下文信息134,包括用户视点和/或焦点的指示来确定表面300,使得投影图像200在用户视点和焦点内。
继续到框1240,穿戴式计算设备的处理器组件接收来自触摸输入设备的信号,包括用户触摸的指示。例如,投影协调器1315可接收来自触摸输入设备160的信号。继续到框1250,穿戴式计算设备的处理器组件产生投影控制指令,以使投影仪将图像投影到所确定的表面上,该图像响应于所接收的用户触摸的指示。例如,投影协调器1315可以产生投影控制指令137以使投影仪400将图像132投影到表面300上,其中投影图像200响应于用户触摸(例如,来自触摸输入设备的接收的信号)。
更具体地转向图7,其描绘了逻辑流程1300。逻辑流程1300可在框1310处开始。在框1310处,介导现实系统的穿戴式计算设备的处理器组件(例如,系统1000的穿戴式计算设备100的处理器组件110)接收激活投影的请求。例如,投影协调器1315可接收激活穿戴式计算设备100的投影特征的请求(例如,经由语音命令、经由运动手势、经由触摸手势、经由按钮按压等)。
继续到框1320,穿戴式计算设备的处理器组件检测邻近表面。例如,穿戴式计算设备100可由控制程序131的投影协调器1315的执行引起,以检测邻近表面,包括表面300,并且将邻近表面的指示存储为检测到的表面133。
继续到框1330,穿戴式计算设备的处理器组件部分地基于上下文信息从检测到的表面中确定表面。例如,投影协调器1315可基于上下文信息134从检测到的表面133确定表面300。具体地,投影协调器1315可以基于上下文信息134,包括用户视点和/或焦点的指示来确定表面300,使得投影图像200在用户视点和焦点内。
继续到框1340,穿戴式计算设备的处理器组件基于生活日志信息确定对象的位置。具体地,处理器组件确定在用户视野内的对象的位置。例如,对象认知引擎1313可识别在由相机150捕捉的图像中的对象,并且确定在捕捉的图像和/或用户视野内的对象的位置。继续到框1250,穿戴式计算设备的处理器组件产生投影控制指令以使投影仪将图像投影到所确定的表面上,该图像突出显示所识别的对象的位置。例如,投影协调器1315可以产生投影仪控制指令137以使投影仪400将图像132投影到表面300上,其中投影图像突出显示所识别的对象的位置。
图8示出存储介质2000的实施例。存储介质2000可包括制造品。在一些示例中,存储介质2000可包括任何非暂时性计算机可读介质或机器可读介质,诸如光学存储器、磁性存储器或半导体存储器。存储介质2000可存储各种类型的计算机可执行的指令2001,诸如实现逻辑流程1100、1200和/或1300的指令。计算机可读或机器可读的存储介质的示例可包括能够存储电子数据的任何有形介质,包括易失性存储器或非易失性存储器、可移除或不可移除的存储器、可擦除或不可擦除的存储器、可写或可重写存储器等。计算机可执行的指令的示例可包括任何合适类型的代码,诸如源代码、编译代码、解释代码、可执行代码、静态代码、动态代码、面向对象代码、可视代码等。示例不限于该上下文。
图9示出适于实现如前所述的各种实施例的示例性处理架构3000的实施例。更具体地,处理架构3000(或其变体)可作为穿戴式计算设备100的部分实现。
处理架构3000可包括通常用于数字处理的各种元件,包括但不限于一个或多个处理器、多核处理器、协同处理器、存储器单元、芯片组、控制器、外围设备、接口、振荡器、计时设备、显卡、声卡、多介质输入/输出(I/O)组件、电源等。如在本申请中所使用的,术语“系统”和“组件”旨在指代执行数字处理的计算设备的实体,这种实体是硬件、硬件和软件的组合、软件或执行中的软件,其示例由该所描绘的示例性处理架构提供。例如,组件可以是,但不限于是在处理器组件上运行的进程、处理器组件本身、可采用光学和/或磁性存储介质的存储设备(例如,硬盘驱动器、在阵列中的多个存储驱动器等)、软件对象、可执行的指令序列、执行线程、程序和/或整个计算设备(例如,整个计算机)。通过说明,在服务器上运行的应用和服务器均可以是组件。一个或多个组件可以驻留在进程和/或执行线程内,并且组件可以位于一个计算设备上和/或分布在两个或更多个计算设备之间。进一步地,组件可通过各种类型的通信介质通信地耦接到彼此以协调操作。协调可涉及信息的单向或双向交换。例如,组件可以通过通信介质传达呈信号形式的信息。信息可以被实现为分配给一个或多个信号线的信号。消息(包括命令、状态、地址或数据消息)可以是此类信号中的一个,或者可以是此类信号中的多个,并且可通过各种连接和/或接口中的任何一个串行地或大致上并行地传输。
如所描绘,在实现处理架构3000中,计算设备可至少包括处理器组件950、存储器960、到其它设备的接口990和耦接器955。如将要解释的,根据实现处理架构3000的计算设备的各方面,包括其预期使用和/或使用条件,此计算设备可进一步包括附加组件,诸如但不限于显示器接口985。
耦接器955可包括一个或多个总线、点对点互连、收发器、缓冲器、交叉点交换机和/或通信地将至少处理器组件950耦接到存储器960的其它导体和/或逻辑。耦接器955可进一步将处理器组件950耦接到接口990、音频子系统970和显示器接口985中的一个或多个(取决于这些和/或其他组件中的哪一个也存在)。在处理器组件950通过耦接器955如此耦接的情况下,处理器组件950能够执行如上详细描述的各种任务,因为无论上述计算设备中的哪一个均实现处理架构3000。耦接器955可用各种技术或通过其光学地和/或电力地传送信号的技术的组合中的任何一种来实现。进一步,耦接器955的至少部分可采用计时器和/或符合各种各样的工业标准中的任何一种的协议,工业标准包括但不限于加速图形端口(AGP)、卡总线、扩展工业标准架构(E-ISA)、微通道架构(MCA)、NuBus、外围组件互连(扩展)(PCI-X)、PCI Express(PCI-E)、个人计算机存储卡国际协会(PCMCIA)总线、HyperTransport TM、QuickPath等。
如前所述,处理器组件950(对应于处理器组件110和/或210)可包括各种市售处理器中的任何一种,所述各种市售处理器采用各种技术中的任何一种,并且用以多种方式中的任何一种物理组合的一个或多个核来实现。
如前所述,存储器960(对应于存储器130和/或230)可基于各种技术或技术组合中的任何一种由一个或多个不同的存储设备组成。更具体地,如所描绘,存储器960可包括易失性存储器961(例如,基于RAM技术中的一种或多种的固态存储器)、非易失性存储器962(例如,固态、铁磁或不需要持续提供电力以保存其内容的其它存储器)和可移除介质存储器963(例如,可移除盘或信息通过其可在计算设备之间传送的固态存储卡存储器)中的一种或多种。将存储器960描述为可能包括多个不同类型的存储器是认识到在计算设备中普遍使用多于一种类型的存储设备,其中一种类型提供相对快速的读取和写入能力,从而使处理器组件950实现更快速的数据操纵(但是可能使用持续需要电力的“易失性”技术),而另一种类型提供相对高密度的非易失性存储器(但是可能提供相对慢的读取和写入能力)。
考虑到采用不同技术的不同存储设备通常不同的特性,这对于此类通过不同存储控制器耦接到计算设备的其它部分的不同存储设备也是普遍的,不同存储控制器通过不同接口耦接到其不同存储器设备。通过示例,在易失性存储器961存在并且基于RAM技术的情况下,易失性存储器961可通过为易失性存储器961提供合适的接口的可能采用行寻址和列寻址的存储控制器965a通信地耦接到耦接器965,并且其中存储控制器965a可执行行刷新和/或其它维护任务以帮助保存存储在易失性存储器961内的信息。作为另一个示例,其中非易失性存储器962存在并且包括一个或多个铁磁和/或固态盘驱动器,非易失性存储器962可通过为非易失性存储器962提供合适的接口的存储控制器965b通信地耦接到耦接器955,存储控制器965b可能采用信息块和/或柱面和扇区的寻址。作为又一个示例,其中可移除介质存储器963存在并且包括一个或多个光学和/或采用一个或多个机器可读存储介质969的固态盘驱动器,可移除介质存储器963可通过为可移除介质存储器963提供合适的接口的存储控制器965c通信地耦接到耦接器955,存储控制器965c可能采用信息块的寻址,并且其中存储控制器965c可以以特定于延长机器可读存储介质969的寿命的方式协调读取、擦除和写入操作。
易失性存储器961或非易失性存储器962中的一个或另一个可包括呈机器可读存储介质形式的制造品,在机器可读存储介质上可存储包括可由处理器组件950执行以实现各种实施例的指令序列的例程,这取决于每个实施例所基于的技术。作为示例,其中非易失性存储器962包括基于铁磁的磁盘驱动器(例如,所谓的“硬盘驱动器”),每个此磁盘驱动器通常采用一个或多个旋转盘,磁性响应颗粒涂层沉积在旋转盘上并且以各种图案磁性地区向从而以类似于诸如软盘的存储介质的方式存储信息,诸如指令序列。作为另一个示例,非易失性存储器962可由固态存储器设备组组成从而以类似于紧凑型闪存卡的方式存储信息,诸如指令序列。此外,在不同的时间在计算设备中采用不同类型的存储设备存储可执行的例程和/或数据是普遍的。因此,包括由处理器组件950执行的指令序列以实现各种实施例的程序可最初存储在机器可读存储介质969上,并且随后可采用可移除介质存储器963将该例程复制到非易失性存储器962用于长期存储而不需要机器可读存储介质969和/或易失性存储器961的继续存在,以使得处理器组件950在执行该例程时能够更快速地访问。
如前所述,接口990(对应于接口160和/或260)可采用对应于可用于将计算设备通信地耦接到一个或多个其它设备的各种通信技术中的任何一种的各种信令技术中的任何一种。此外,可采用各种形式的有线或无线信令中的一种或两种,使得处理器组件950能够通过网络或互连的网络组与输入/输出设备(例如,所述示例键盘920或打印机925)和/或其它计算设备交互。为识别必须经常由任何一个计算设备支持的多种类型的信令和/或协议的经常极大不同的特性,接口990被描绘为包括多个不同的接口控制器995a、995b和995c。接口控制器995a可采用各种类型的有线数字串行接口或射频无线接口中的任何一种,以接收来自用户输入设备诸如所描绘的键盘920的串行传输的消息。接口控制器995b可采用各种基于电缆的信令或无线信令、计时器和/或协议中的任何一种,以通过所描绘的网络300(可能是由一个或多个链路、更小的网络或可能是因特网组成的网络)访问其它计算设备。接口控制器995c可采用各种导电电缆中的任何一种,使得串行或并行信号传输的使用能够将数据传送到所描绘的打印机925。可通过接口900的一个或多个接口控制器通信地耦接的设备的其它示例包括但不限于麦克风、遥控器、触笔、读卡器、指纹读取器、虚拟现实交互手套、图形输入板、操纵杆、其他键盘、视网膜扫描器、触摸屏的触摸输入组件、跟踪球、各种传感器、相机或相机阵列以监测人的移动,从而接受通过那些人经由手势和/或面部表情、声音、激光打印机、喷墨打印机、机械机器人、铣床等发送信号通知的命令和/或数据。
在计算设备通信地耦接到(或可能实际地结合)显示器(例如,对应于显示器150和/或250的所描绘的示例显示器980)的情况下,实现处理架构3000的此计算设备也可包括显示器接口985。虽然更一般化类型的接口可用于通信地耦接到显示器,但是在显示器上可视的显示各种形式的内容时经常需要的某种特定的附加处理,以及所使用的基于电缆的接口的某种特定的性质经常使得期望提供不同的显示器接口。可由显示器接口985采用的通信地耦接显示器980的有线和/或无线信令技术可使用符合各种工业标准中的任何一种的信令和/或协议,包括但不限于模拟视频接口、数字视频接口(DVI)、Displayport等。
更一般地,在本文中所描述和描绘的计算设备的各种元件可包括各种硬件元件、软件元件或两者的组合。硬件元件的示例可包括设备、逻辑设备、组件、处理器、微处理器、电路、处理器组件、电路元件(例如,晶体管、电阻器、电容器、电感器等)、集成电路、专用集成电路(ASIC)、可编程逻辑器件(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、存储器单元、逻辑门、寄存器、半导体器件、芯片、微芯片、芯片组等。软件元件的示例可包括软件组件、程序、应用、计算机程序、应用程序、系统程序、软件开发程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、过程、软件接口、应用程序接口(API)、指令组、计算代码、计算机代码、代码段、计算机代码段、词语、值、符号或其任何组合。然而,如给定实现所期望的,确定实施例是否使用硬件元件和/或软件元件来实现可根据任何数量的因素来改变,这些因素诸如期望的计算速率、功率级、耐热性、处理周期预算、输入数据速率、输出数据速率、存储器资源、数据总线速度和其它设计或性能约束。
可使用表述“一个实施例”或“实施例”及其派生词来描述一些实施例。这些术语是指结合实施例所述的特定特征、结构或特性包括在至少一个实施例中。在说明书中各种地方出现的短语“在一个实施例中”不一定均指代相同的实施例。进一步地,一些实施例可用表述“耦接到”和“连接到”及其派生词来描述。这些术语不一定旨在作为彼此的同义词。例如,一些实施例可使用术语“连接到”和/或“耦接到”来描述,以指示两个或更多个元件直接物理地或电气地相互接触。然而,术语“耦接到”也可指两个或更多个元件并非直接相互接触,但仍然协同操作或交互。此外,来自不同实施例的方面或元件可组合。
需要强调的是,提供本公开的摘要以允许读者快速地明确本技术公开的性质。提交时应理解,其并非用于解释或限制权利要求的范围或含义。另外,在前述具体实施例中,可以看出,出于简化本公开的目的,各种特征被组合在单个实施例中。本公开的方法不应被解释为反映所要求保护的权利要求的实施例需要比在每个权利要求中明确列举的特征更多的特征的意图。相反,如以下的权利要求所反映,发明的主题在于比单个公开的实施例的所有特征少。因此,随附权利要求在此并入具体实施例中,其中每个权利要求自身作为单独的实施例。在所附权利要求中,术语“包括(including)”和“其中(in which)”分别用作相应的术语“包含(comprising)”和“在其中(wherein)”的普通英语等同词。此外,术语“第一”、“第二”、“第三”等仅仅用作标记,并非旨在对其对象强加数字需求。
上述内容包括所公开的架构的示例。当然,不可能描述组件和/或方法的每个可想到的组合,但本领域普通技术人员可认识到,许多进一步的组合和排列是可能的。此外,新颖架构旨在包括落入所附权利要求的精神和范围内的所有此类改变、修改和变化。详细公开现在转向提供涉及进一步实施例的示例。以下提供的示例并非旨在是限制性的。
示例1:用于被配置为投影图像的穿戴式计算设备的装置,该装置包括投影图像的投影仪;产生输出的传感器;和可操作地耦接到投影仪和传感器的投影协调器,投影协调器至少部分地基于传感器输出确定视野;并且产生投影仪控制指令以使投影仪将图像投影到视野中的表面上。
示例2:根据示例1所述的装置,传感器产生设备用户的上下文信息,投影协调器部分地基于上下文信息产生投影仪控制指令。
示例3:根据示例1所述的装置,其中传感器是第一传感器,装置包括可操作地耦接到投影协调器的第二传感器,第二传感器产生设备用户的上下文信息,投影协调器部分地基于上下文信息产生投影仪控制指令。
示例4:根据示例1所述的装置,传感器进一步包括眼睛跟踪设备、相机或光检测器中的一个或多个,投影协调器基于从眼睛跟踪设备、相机或光检测器接收的信号确定视野。
示例5:根据示例1所述的装置,其中传感器是传感器阵列,传感器阵列包括触摸输入设备,投影协调器进一步部分地基于从触摸输入设备接收的信号产生投影仪控制指令。
示例6:根据示例1所述的装置,其包括可操作地耦接到投影协调器的相机,投影协调器部分地基于由相机捕捉的图像产生包括社交情境的指示的上下文信息,并且部分地基于社交情境产生投影仪控制指令。
示例7:根据示例1所述的装置,传感器产生设备用户的上下文信息,传感器包括加速计以产生指示用户的活动级别的上下文信息,投影协调器部分地基于上下文信息产生投影仪控制指令。
示例8:根据示例1所述的装置,传感器产生设备的上下文信息,传感器包括全球定位系统(GPS)传感器以产生指示设备位置的上下文信息,并且投影协调器部分地基于上下文信息产生投影仪控制指令。
示例9:根据示例2至8中任一项所述的装置,其包括上下文引擎,以接收来自连接到网络的计算设备的上下文信息。
示例10:根据示例2至8中任一项所述的装置,其包括下文引擎,以基于传感器输出确定上下文信息。
示例11:根据示例1所述的装置,投影协调器进一步部分地基于生活日志信息产生投影仪控制指令,生活日志信息包括部分地基于传感器输出的设备历史记录的指示。
示例12:根据示例1所述的装置,其包括可操作地耦接到投影协调器的相机,投影协调器进一步部分地基于生活日志信息产生投影仪控制指令,生活日志信息包括部分地基于由相机捕捉的图像的设备历史记录的指示。
示例13:根据示例12所述的装置,投影协调器进一步部分地基于在由相机捕捉的图像中识别的对象产生投影仪控制指令。
示例14:根据示例13所述的装置,其包括对象认知引擎,以接收来自连接到网络的计算设备的所识别的对象的指示。
示例15:根据示例11至14中任一项所述的装置,其包括生活日志引擎,以接收来自连接到网络的计算设备的生活日志信息。
示例16:根据示例11至14中任一项所述的装置,其包括生活日志引擎,以基于传感器输出确定生活日志信息。
示例17:根据示例12至14中任一项所述的装置,其包括生活日志引擎,以基于由相机捕捉的图像确定生活日志信息。
示例18:根据示例1所述的装置,其包括可操作地耦接到投影协调器的表面检测器,表面检测器检测邻近装置的一个或多个表面。
示例19:根据示例18所述的装置,其包括可操作地耦接到投影协调器和表面检测器的相机,表面检测器基于由相机捕捉的图像检测一个或多个表面。
示例20:根据示例18至19中任一项所述的装置,投影协调器至少部分地基于上下文信息从一个或多个检测到的表面确定将图像投影到其上的表面。
示例21:根据示例20所述的装置,上下文信息包括视野的指示,投影协调器基于视野从一个或多个检测到的表面确定表面。
示例22:根据示例1至21中任一项所述的装置,投影仪控制指令包括取向、梯形矢量校正、最佳色调的指示中的至少一个。
示例23:根据示例1至21中任一项所述的装置,其中装置是穿戴式计算设备。
示例24:根据示例1至21中任一项所述的装置,其中穿戴式计算设备包括戒指、手表、项链、手镯、眼镜、腰带、鞋、手套、帽子、耳塞、耳环、假体或可移除的衣服。
示例25:根据示例1至21中任一项所述的装置,其中视野是能够被设备用户感知的地理范围。
示例26:由被配置为投影图像的穿戴式计算设备实现的方法,该方法包括检测一个或多个表面;至少部分地基于来自传感器的输出确定视野中的一个或多个检测表面中的一个;以及产生投影仪控制指令以使投影仪将图像投影到视野中的表面上。
示例27:根据示例26所述的方法,其包括基于从眼睛跟踪设备、相机或光检测器中的一个或多个接收的信号确定视野。
示例28:根据示例26所述的方法,其包括基于由相机捕捉的图像检测一个或多个表面。
示例29:根据示例26所述的方法,其中传感器是传感器阵列,传感器阵列包括触摸输入设备,该方法包括进一步部分地基于从触摸输入设备接收的信号产生投影仪控制指令。
示例30:根据示例26所述的方法,其包括接收设备用户的上下文信息,上下文信息基于来自传感器的输出。
示例31:根据示例26所述的方法,其包括接收上下文信息,上下文信息包括部分地基于由相机捕捉的图像的社交情境的指示。
示例32:根据示例26所述的方法,传感器包括加速计,该方法包括基于来自加速计的输出接收指示用户活动级别的上下文信息。
示例33:根据示例26所述的方法,传感器包括全球定位系统(GPS)传感器,方法包括接收上下文信息,上下文信息包括基于来自GPS传感器的输出的设备位置的指示。
示例34:根据示例30至33中任一项所述的方法,其包括接收来自连接到网络的计算设备的上下文信息。
示例35:根据示例30至33中任一项所述的方法,其包括基于传感器输出确定上下文信息。
示例36:根据示例26所述的方法,其包括进一步部分地基于生活日志信息产生投影仪控制指令,生活日志信息包括部分地基于传感器输出的装置的历史记录的指示。
示例37:根据示例26所述的方法,其包括进一步部分地基于生活日志信息产生投影仪控制指令,生活日志信息包括部分地基于由相机捕捉的图像的装置的历史记录的指示。
示例38:根据示例37所述的方法,其包括进一步部分地基于在由相机捕捉的图像中所识别的对象产生投影仪控制指令。
示例39:根据示例38所述的方法,其包括接收来自连接到网络的计算设备的所识别的对象的指示。
示例40:根据示例36至39中任一项所述的方法,其包括接收来自连接到网络的计算设备的生活日志信息。
示例41:根据示例36至39中任一项所述的方法,其包括基于传感器输出确定生活日志信息。
示例42:根据示例36至39中任一项所述的方法,其包括基于由相机捕捉的图像确定生活日志信息。
示例43:根据示例30至33中任一项所述的方法,其包括至少部分地基于上下文从一个或多个检测到的表面确定表面。
示例44:根据示例43所述的方法,上下文包括视野的指示,该方法包括基于视野从一个或多个检测到的表面确定表面。
示例45:根据示例26至44中任一项所述的方法,其中视野是能够被设备用户感知的地理范围。
示例46:根据示例26至44中任一项所述的方法,投影仪控制指令包括取向、梯形矢量校正或最佳色调的指示中的至少一个。
示例47:至少一个机器可读介质,其包括响应于在被配置为投影图像的穿戴式计算设备上被执行使得穿戴式计算设备执行示例26至46中任一项所述的方法的多个指令。
示例48:用于被配置为投影图像的穿戴式计算设备的装置,装置包括处理器;可操作地连接到处理器的投影仪;和包括响应于被处理器执行而根据示例26至46中任一项所述的方法使投影仪将图像投影到表面上的多个指令。
示例49:用于被配置为投影图像的穿戴式计算设备的装置,装置包括用于检测一个或多个表面的部件;用于至少部分地基于来自传感器的输出来确定视野中的一个或多个检测到的表面中的一个的部件;以及用于产生投影仪控制指令以使投影仪将图像投影到视野中的表面上的部件。
示例50:根据示例49所述的装置,其包括用于基于从眼睛跟踪设备、相机或光检测器中的一个或多个接收的信号确定视野的部件。
示例51:根据示例49所述的装置,其包括用于基于由相机捕捉的图像检测一个或多个表面的部件。
示例52:根据示例49所述的装置,其中传感器是传感器阵列,传感器阵列包括触摸输入设备,该装置包括进一步部分地基于从触摸输入设备接收的信号产生投影仪控制指令的部件。
示例53:根据示例49所述的装置,其包括用于接收设备用户的上下文信息的部件,上下文信息基于来自传感器的输出。
示例54:根据示例49所述的装置,其包括用于接收上下文信息的部件,上下文信息包括部分地基于由相机捕捉的图像的社交情境的指示。
示例55:根据示例49所述的装置,传感器包括加速计,该装置包括用于基于来自加速计的输出接收指示用户活动级别的上下文信息的部件。
示例56:根据示例49所述的装置,传感器包括全球定位信息(GPS)传感器,该装置包括用于接收上下文信息的部件,上下文信息包括基于来自GPS传感器的输出的设备位置的指示。
示例57:根据示例53至56中任一项所述的装置,其包括用于接收来自连接到网络的计算设备的上下文信息的部件。
示例58:根据示例53至56中任一项所述的装置,其包括用于基于传感器输出确定上下文信息的部件。
示例59:根据示例49所述的装置,其包括用于进一步部分地基于生活日志信息产生投影仪控制指令的部件,生活日志信息包括部分地基于传感器输出的装置的历史记录的指示。
示例60:根据示例49所述的装置,其包括用于进一步部分地基于生活日志信息产生投影仪控制指令的部件,生活日志信息包括部分地基于由相机捕捉的图像的装置的历史记录的指示。
示例61:根据示例60所述的装置,其包括用于进一步部分地基于在由相机捕捉的图像中所识别的对象产生投影仪控制指令的部件。
示例62:根据示例61所述的装置,其包括用于接收来自连接到网络的计算设备的所识别对象的指示的部件。
示例63:根据示例59至62中任一项所述的装置,其包括用于接收来自连接到网络的计算设备的生活日志信息的部件。
示例64:根据示例59至62中任一项所述的装置,其包括用于基于传感器输出确定生活日志信息的部件。
示例65:根据示例59至62中任一项所述的装置,其包括用于基于由相机捕捉的图像确定生活日志信息的部件。
示例66:根据示例59至62中任一项所述的装置,其包括用于至少部分地基于上下文从一个或多个检测到的表面确定表面的部件。
示例67:根据示例66所述的装置,上下文包括视野的指示,该装置包括用于基于视野从一个或多个检测到的表面确定表面的部件。
示例68:根据示例48至67中任一项所述的装置,其中视野是能够被设备用户感知的地理范围。
示例69:根据示例48至67中任一项所述的装置,投影仪控制指令包括取向、梯形矢量校正或最佳色调的指示中的至少一个。
Claims (29)
1.一种用于穿戴式计算设备的装置,其包括:
投影图像的投影仪;
产生输出的传感器;以及
可操作地耦接到所述投影仪和所述传感器的投影协调器,所述投影协调器:
至少部分地基于所述传感器输出来确定视野;
部分地基于生活日志信息产生投影仪控制指令,所述生活日志信息包括部分地基于所述传感器输出的设备的历史记录的指示,所述投影仪控制指令使所述投影仪将所述图像投影到所述视野中的表面上,所述图像包括突出显示视野内的对象的指示;以及
产生控制指令使所述投影仪投影方向的图像以回溯记录在生活日志信息中的路线。
2.根据权利要求1所述的装置,所述传感器进一步包括眼睛跟踪设备、相机或者光检测器中的一个或多个,所述投影协调器基于从所述眼睛跟踪设备、所述相机或所述光检测器接收的信号确定所述视野。
3.根据权利要求1所述的装置,其中所述传感器是传感器阵列,所述传感器阵列包括触摸输入设备,所述投影协调器进一步部分地基于从所述触摸输入设备接收的信号产生所述投影仪控制指令。
4.根据权利要求1所述的装置,其包括可操作地耦接到所述投影协调器的相机,所述投影协调器部分地基于由所述相机捕捉的图像产生包括社交情境的指示的上下文信息,并且部分地基于所述社交情境产生所述投影控制指令。
5.根据权利要求1所述的装置,所述传感器产生上下文信息,并且所述投影协调器部分地基于所述上下文信息产生所述投影控制指令,所述传感器包括加速计以产生指示用户的活动级别的所述上下文信息,或者所述传感器包括全球定位系统GPS传感器以产生指示设备位置的所述上下文信息。
6.根据权利要求1所述的装置,其包括可操作地耦接到所述投影协调器的表面检测器,所述表面检测器检测邻近所述装置的一个或多个表面。
7.根据权利要求6所述的装置,其包括可操作地耦接到所述投影协调器的相机和所述表面检测器,所述表面检测器基于由所述相机捕捉的图像检测所述一个或多个表面。
8.根据权利要求7所述的装置,所述投影协调器至少部分地基于上下文信息从所述一个或多个检测到的表面确定将所述图像投影到其上的表面。
9.根据权利要求1至8中任一项所述的装置,所述投影仪控制指令包括取向、梯形失真校正或最佳色调的指示中的至少一个。
10.根据权利要求1至8中任一项所述的装置,其中所述视野是能够被设备用户感知的地理范围。
11.一种用于被配置为投影图像的穿戴式计算设备的装置,所述装置包括:
用于检测一个或多个表面的部件;
用于至少部分地基于来自传感器的输出确定视野中的所述一个或多个检测到的表面中的一个表面的部件;
用于部分地基于生活日志信息产生投影仪控制指令的部件,所述生活日志信息包括部分地基于所述传感器输出的设备的历史记录的指示,所述投影仪控制指令使投影仪将图像投影到所述视野中的所述表面上,所述图像包括突出显示视野内的对象的指示;以及
用于产生控制指令使所述投影仪投影方向的图像以回溯记录在生活日志信息中的路线的部件。
12.根据权利要求11所述的装置,所述生活日志信息包括部分地基于由相机捕捉的图像的设备的历史记录的指示。
13.根据权利要求12所述的装置,其包括用于进一步部分地基于在由所述相机捕捉的所述图像中所识别的对象产生所述投影仪控制指令的部件。
14.根据权利要求13所述的装置,其包括用于基于由所述相机捕捉的所述图像确定所述生活日志信息的部件。
15.根据权利要求13中的任一项所述的装置,其包括用于接收来自连接到网络的计算设备的所述生活日志信息的部件。
16.根据权利要求13所述的装置,其包括用于接收来自连接到网络的计算设备的所述识别的对象的指示的部件。
17.一种由穿戴式计算设备实现的方法,所述方法包括:
检测一个或多个表面;
至少部分地基于来自传感器的输出确定视野中的所述一个或多个检测到的表面中的一个表面;
部分地基于生活日志信息产生投影仪控制指令,所述生活日志信息包括部分地基于所述传感器输出的设备的历史记录的指示,所述投影仪控制指令使投影仪将图像投影到所述视野中的所述表面上,所述图像包括突出显示视野内的对象的指示;以及
产生控制指令使所述投影仪投影方向的图像以回溯记录在生活日志信息中的路线。
18.根据权利要求17所述的方法,包括:基于由相机捕捉的图像检测所述一个或多个表面。
19.根据权利要求17所述的方法,其中所述传感器是传感器阵列,所述传感器阵列包括触摸输入设备,并且其中所述方法,包括:进一步部分地基于从所述触摸输入设备接收的信号产生所述投影仪控制指令。
20.根据权利要求17所述的方法,其中所述传感器产生上下文信息,所述传感器是加速计,所述上下文信息包括装置的活动级别的指示。
21.根据权利要求17所述的方法,包括:接收来自连接到网络的计算设备的上下文信息。
22.根据权利要求17所述的方法,包括:至少部分地基于上下文信息从所述一个或多个检测到的表面确定所述表面。
23.一种由穿戴式计算设备实现的方法,所述方法包括:
检测一个或多个表面;
基于来自第一传感器的输出确定视野;
至少部分地基于来自第二传感器的输出确定所述视野中的所述一个或多个检测到的表面中的一个表面;
部分地基于生活日志信息产生投影仪控制指令,所述生活日志信息包括部分地基于所述传感器输出的设备的历史记录的指示,所述投影仪控制指令使投影仪将图像投影到所述视野中的所述表面上,所述图像包括突出显示视野内的对象的指示;以及
产生控制指令使所述投影仪投影方向的图像以回溯记录在生活日志信息中的路线。
24.根据权利要求23所述的方法,其中所述生活日志信息包括部分地基于由相机捕捉的图像的设备的历史记录的指示。
25.根据权利要求24所述的方法,其包括进一步部分地基于在由所述相机捕捉的所述图像中所识别的对象产生所述投影仪控制指令。
26.一种机器可读介质,其包含程序指令,所述程序指令响应于在穿戴式计算设备上被执行使得所述穿戴式计算设备进行如权利要求17-22中任一项所述的方法。
27.一种机器可读介质,其包含程序指令,所述程序指令响应于在穿戴式计算设备上被执行使得所述穿戴式计算设备进行如权利要求23-25中任一项所述的方法。
28.一种用于被配置为投影图像的穿戴式计算设备的装置,所述装置包括用于执行如权利要求17-22中任一项所述的方法的部件。
29.一种用于被配置为投影图像的穿戴式计算设备的装置,所述装置包括用于执行如权利要求23-25中任一项所述的方法的部件。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/494,146 | 2014-09-23 | ||
US14/494,146 US9924143B2 (en) | 2014-09-23 | 2014-09-23 | Wearable mediated reality system and method |
PCT/US2015/046223 WO2016048504A1 (en) | 2014-09-23 | 2015-08-21 | Wearable mediated reality system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106576156A CN106576156A (zh) | 2017-04-19 |
CN106576156B true CN106576156B (zh) | 2019-07-02 |
Family
ID=55526994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580044985.0A Active CN106576156B (zh) | 2014-09-23 | 2015-08-21 | 穿戴式介导现实系统和方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9924143B2 (zh) |
EP (1) | EP3198860A4 (zh) |
JP (1) | JP6515179B2 (zh) |
KR (1) | KR102321132B1 (zh) |
CN (1) | CN106576156B (zh) |
TW (1) | TWI641968B (zh) |
WO (1) | WO2016048504A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159539B (zh) * | 2015-09-10 | 2018-06-01 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
US10891574B2 (en) * | 2015-11-17 | 2021-01-12 | Target Brands, Inc. | Planogram resetting using augmented reality in a retail environment |
JP6561938B2 (ja) * | 2016-08-05 | 2019-08-21 | 京セラドキュメントソリューションズ株式会社 | 印刷物処理システム |
US10297085B2 (en) | 2016-09-28 | 2019-05-21 | Intel Corporation | Augmented reality creations with interactive behavior and modality assignments |
DE102017200484A1 (de) | 2017-01-13 | 2018-07-19 | Audi Ag | System zum Ausgeben eines Ausgabesignals an einen Nutzer |
CN107577344B (zh) * | 2017-09-01 | 2020-04-28 | 广州励丰文化科技股份有限公司 | 一种mr头显设备的互动模式切换控制方法及系统 |
EP3506661A1 (en) * | 2017-12-29 | 2019-07-03 | Nokia Technologies Oy | An apparatus, method and computer program for providing notifications |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007121600A (ja) * | 2005-10-27 | 2007-05-17 | Yokogawa Electric Corp | 画像情報表示装置 |
CN101488308A (zh) * | 2009-01-21 | 2009-07-22 | 东北大学 | 智能导游系统及方法 |
CN102566756A (zh) * | 2010-12-16 | 2012-07-11 | 微软公司 | 用于扩展现实显示的基于理解力和意图的内容 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10306578A1 (de) * | 2003-02-17 | 2004-08-26 | Carl Zeiss | Anzeigevorrichtung mit elektrooptischer Fokussierung |
EP2148504B1 (en) | 2003-12-03 | 2012-01-25 | Nikon Corporation | Information Display Device |
JP4747575B2 (ja) * | 2003-12-26 | 2011-08-17 | 株式会社ニコン | 情報表示装置 |
RU2452033C2 (ru) * | 2005-01-03 | 2012-05-27 | Опсигал Контрол Системз Лтд. | Системы и способы наблюдения в ночное время |
JP2008108246A (ja) * | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム |
TWI428726B (zh) * | 2007-08-13 | 2014-03-01 | Asustek Comp Inc | 可攜式電腦 |
JP5374906B2 (ja) * | 2008-04-07 | 2013-12-25 | 株式会社ニコン | プロジェクタ |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8382295B1 (en) * | 2010-06-30 | 2013-02-26 | Amazon Technologies, Inc. | Optical assembly for electronic devices |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
CN107656635B (zh) * | 2012-01-09 | 2020-10-27 | 精工爱普生株式会社 | 视觉系统及控制视觉系统的方法 |
US8736692B1 (en) * | 2012-07-09 | 2014-05-27 | Google Inc. | Using involuntary orbital movements to stabilize a video |
JP2014044166A (ja) * | 2012-08-28 | 2014-03-13 | Sharp Corp | 電子機器、進行方向提示方法およびプログラム |
JP5942840B2 (ja) * | 2012-12-21 | 2016-06-29 | ソニー株式会社 | 表示制御システム及び記録媒体 |
US9060127B2 (en) * | 2013-01-23 | 2015-06-16 | Orcam Technologies Ltd. | Apparatus for adjusting image capture settings |
US9475422B2 (en) * | 2014-05-22 | 2016-10-25 | Applied Invention, Llc | Communication between autonomous vehicle and external observers |
US10341544B2 (en) * | 2014-07-23 | 2019-07-02 | Orcam Technologies Ltd. | Determining a matching score between users of wearable camera systems |
-
2014
- 2014-09-23 US US14/494,146 patent/US9924143B2/en not_active Expired - Fee Related
-
2015
- 2015-08-10 TW TW104125965A patent/TWI641968B/zh not_active IP Right Cessation
- 2015-08-21 EP EP15844039.6A patent/EP3198860A4/en not_active Withdrawn
- 2015-08-21 CN CN201580044985.0A patent/CN106576156B/zh active Active
- 2015-08-21 WO PCT/US2015/046223 patent/WO2016048504A1/en active Application Filing
- 2015-08-21 JP JP2017508677A patent/JP6515179B2/ja active Active
- 2015-08-21 KR KR1020177004691A patent/KR102321132B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007121600A (ja) * | 2005-10-27 | 2007-05-17 | Yokogawa Electric Corp | 画像情報表示装置 |
CN101488308A (zh) * | 2009-01-21 | 2009-07-22 | 东北大学 | 智能导游系统及方法 |
CN102566756A (zh) * | 2010-12-16 | 2012-07-11 | 微软公司 | 用于扩展现实显示的基于理解力和意图的内容 |
CN103460256A (zh) * | 2011-03-29 | 2013-12-18 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
Also Published As
Publication number | Publication date |
---|---|
JP6515179B2 (ja) | 2019-05-15 |
EP3198860A1 (en) | 2017-08-02 |
US9924143B2 (en) | 2018-03-20 |
JP2017535095A (ja) | 2017-11-24 |
CN106576156A (zh) | 2017-04-19 |
WO2016048504A1 (en) | 2016-03-31 |
TWI641968B (zh) | 2018-11-21 |
TW201621552A (zh) | 2016-06-16 |
EP3198860A4 (en) | 2018-09-19 |
KR20170036725A (ko) | 2017-04-03 |
KR102321132B1 (ko) | 2021-11-02 |
US20160088268A1 (en) | 2016-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106576156B (zh) | 穿戴式介导现实系统和方法 | |
US11573607B2 (en) | Facilitating dynamic detection and intelligent use of segmentation on flexible display screens | |
CN113396443B (zh) | 增强现实系统 | |
EP3466070B1 (en) | Method and device for obtaining image, and recording medium thereof | |
US20230367970A1 (en) | Typifying emotional indicators for digital messaging | |
CN105190481B (zh) | 响应于操作人员位置和手势的用户接口 | |
US20150309310A1 (en) | Head mounted display device displaying thumbnail image and method of controlling therefor | |
KR20230028532A (ko) | 가상 현실 경험들을 위한 지상 실측값 데이터세트들의 생성 | |
CN105359082A (zh) | 用户接口导航 | |
US10776943B2 (en) | System and method for 3D association of detected objects | |
US20240104744A1 (en) | Real-time multi-view detection of objects in multi-camera environments | |
CN116261706A (zh) | 用于使用融合数据进行对象跟踪的系统和方法 | |
US11615506B2 (en) | Dynamic over-rendering in late-warping | |
US11682045B2 (en) | Augmented reality advertisements on objects | |
US20220075477A1 (en) | Systems and/or methods for parallax correction in large area transparent touch interfaces | |
CN105739684B (zh) | 具有手势校准机制的电子系统及其操作方法 | |
US20230206390A1 (en) | Dynamic over-rendering in late-warping | |
US20240233319A9 (en) | Machine learning model training using synthetic data for under-display camera (udc) image restoration | |
EP4341742A1 (en) | Late warping to minimize latency of moving objects | |
CN104808792B (zh) | 一种信息处理方法及电子设备 | |
WO2013175341A2 (en) | Method and apparatus for controlling multiple devices | |
US20220375026A1 (en) | Late warping to minimize latency of moving objects | |
CN109801261A (zh) | 行进中的长产品的表面疵点检测方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |