CN115698909A - 增强现实引导 - Google Patents

增强现实引导 Download PDF

Info

Publication number
CN115698909A
CN115698909A CN202180039088.6A CN202180039088A CN115698909A CN 115698909 A CN115698909 A CN 115698909A CN 202180039088 A CN202180039088 A CN 202180039088A CN 115698909 A CN115698909 A CN 115698909A
Authority
CN
China
Prior art keywords
marker
location
eye
overlay image
worn device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180039088.6A
Other languages
English (en)
Inventor
姜新薰
德米特罗·库彻
德米特罗·霍沃罗夫
伊尔泰里斯·康博克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snape Co
Original Assignee
Snape Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snape Co filed Critical Snape Co
Publication of CN115698909A publication Critical patent/CN115698909A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了用于使用眼戴设备在环境中引导用户的增强现实引导。该眼戴设备包括显示系统和定位检测系统。通过以下操作在环境中引导用户:监视该眼戴设备在该环境内的当前定位,识别在该当前定位的阈值内的标记定位,这些标记定位是相对于该环境而限定的并且是与引导标记相关联的,登记这些标记定位,生成包括这些引导标记的叠层图像,以及在该眼戴设备的显示器上呈现该叠层图像。

Description

增强现实引导
相关申请的交叉引用
本申请要求于2020年5月29日提交的名称为“AUGMENTED REALITY GUIDANCE”,申请号为16/887,333的美国专利申请的优先权,该专利申请的内容全部以引用方式并入本文。
技术领域
本公开中阐述的示例涉及增强现实(AR)和可穿戴移动设备(诸如眼戴设备)领域。更具体地,但不作为限制,本发明描述了对用户在环境中的增强现实引导。
背景技术
当今可用的许多类型的计算机和电子设备(诸如移动设备(例如,智能电话、平板电脑和笔记本电脑)、手持式设备和可穿戴设备(例如,智能眼镜、数字眼戴器、头饰、头戴器和头戴式显示器))包括各种相机、传感器、无线收发器、输入系统(例如,触敏表面、指示器)、外围设备、显示器和用户可与显示内容交互的图形用户界面(GUI)。
增强现实(AR)将物理环境中的现实对象与虚拟对象组合,并将该组合显示给用户。组合显示给出了虚拟对象真实地存在于环境中的印象,尤其是当虚拟对象看起来并且表现得像真实对象一样时。
高级AR技术,诸如计算机视觉和对象追踪,可用于创建在感知丰富和沉浸式体验。计算机视觉算法从数字图像或视频中捕获的数据中提取关于物理世界的三维数据。对象追踪算法可用于检测数字图像或视频中的对象并且追踪其移动。
附图说明
从以下参考附图的实施例方式中,将容易理解所描述的各种示例的特征。在说明书中和附图的几个视图中,每个元件使用了附图标记。当存在多个相似的元件时,可以给相似的元件指定单个附图标记,通过添加小写字母来指代特定的元件。
除非另外指出,否则图中所示的各种元件并非按比例绘制的。为了清楚起见,可放大或缩小各个元件的尺寸。若干附图描绘了一个或多个实施例,并且仅作为示例呈现,而不应被解释为限制。附图中包括以下附图:
图1A是适用于增强现实产生系统的眼戴设备的示例性硬件配置的侧视图(右);
图1B是图1A的眼戴设备的右角部的局部横截面透视图,其描绘了右可见光相机和电路板;
图1C是图1A的眼戴设备的示例性硬件配置的侧视图(左),其示出了左可见光相机;
图1D是图1C的眼戴设备的左角部的局部横截面透视图,其描绘了左可见光相机和电路板;
图2A和图2B是在增强现实产生系统中利用的眼戴设备的示例性硬件配置的后视图;
图3是三维场景的图形描述,由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像;
图4是包括经由各种网络连接的可穿戴设备(例如,眼戴设备)和服务器系统的示例性增强现实产生系统的功能框图;
图5是用于图4的增强现实产生系统的移动设备的示例性硬件配置的图形表示;
图6是示例性环境中用于描述即时定位与地图构建的的用户的示意性图示;
图7是列出在物理环境中显示虚拟对象的示例性方法中的步骤的流程图;
图8A、图8B、图8C、图8D和图8E是包括示例性虚拟引导增强现实体验的步骤的流程图;并且
图9A、图9B、图9C、图9D、图9E和图9F是将用户引导到环境内的位置的虚拟引导增强现实体验的透视图示。
实施例方式
参考示例描述了各种实施例和细节,其包括一种利用包括定位检测系统和显示系统的眼戴设备来提供增强现实引导体验的系统。该眼戴设备监视其在环境内的当前定位并且在眼戴设备的预定距离内的记录标记定位。眼戴设备生成并呈现叠层图像,这些叠层图像包括用于在记录的标记定位处显示的引导标记。这使得眼戴设备能够在环境中引导用户到达环境内的物理目的地。
以下实施例方式包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开的主题及其相关教导内容的透彻理解的目的而包括许多细节和示例。然而,相关领域的技术人员能够理解如何在没有此类细节的情况下应用相关教导内容。所公开的主题的各方面不限于所描述的特定设备、系统和方法,因为相关教导内容可以以各种方式来应用或实践。本文中所使用的术语和命名仅仅是为了描述特定方面并非旨在进行限制。通常,公知的指令实例、协议、结构和技术不一定被详细示出。
本文中所使用的术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接(包括链路等),由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或连接的元件或设备不一定直接彼此连接,并且可以由中间组件、元件或通信介质隔开,中间组件、元件或通信介质中的一者或多者可修改、操纵或承载电信号。术语“上”是指由元件直接支撑或通过另一元件由元件间接支撑,该另一元件集成到元件中或由元件支撑。
术语“近侧”用于描述位于对象或人附近、左近或旁边的物品或物品的一部分;或者相对于该物品的其他部分更近,其他部分可以被描述为“远侧”。例如,物品最靠近对象的端部可以被称为近端,而大致相对的端部可以被称为远端。
出于说明和讨论的目的,仅以示例的方式给出了诸如附图中的任一附图所示的眼戴设备、其他移动设备、相关联部件和结合了相机、惯性测量单元或两者的任何其他设备的定向。在操作中,眼戴设备可以在适合于眼戴设备的特定应用的任何其他方向上定向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限制如本文所构造或另外描述的任何相机或惯性测量单元的方向或定向。
示例的其他目的、优点和新颖特征将部分地在以下实施例方式中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过示例的生产或操作来了解。本申请的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。
现在详细参考附图所示和下文所讨论的示例。
图1A是包括触敏输入设备或触摸板181的眼戴设备100的示例性硬件配置的侧视图(右)。如图所示,触摸板181可具有细微且不易看到的边界;或者,边界可清楚可见或包括向用户提供关于触摸板181的位置和边界的反馈的凸起或以其他方式可触知的边缘。在其他实施例中,眼戴设备100可包括在左侧的触摸板。
在图像显示器上的触摸板181表面被配置为检测手指触摸、轻击和手势(例如,移动触摸),以便与眼戴设备上显示的GUI一起使用,从而允许用户以直观的方式浏览并选择菜单选项,这改善并简化了用户体验。
对触摸板181上的手指输入的检测可实现若干功能。例如,触摸触摸板181上的任何地方都可使GUI在图像显示器上显示或突出显示项目,该项目可被投影到光学组件180A、180B中的至少一者上。在触摸板181上双击可选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可使项目或图标在特定方向上滑动或滚动;例如,以移动到下一项目、图标、视频、图像、页面或幻灯片。在另一方向上滑动手指可以在相反方向上滑动或滚动;例如,用于移动到前一项目、图标、视频、图像、页面或幻灯片。触摸板181实际上可以在眼戴设备100上的任何地方。
在一个示例中,在触摸板181上单击所识别的手指手势发起对呈现在光学组件180A、180B的图像显示器上的图像中的图形用户界面元素的选择或按压。基于被识别手指手势对呈现在光学组件180A、180B的图像显示器上的图像的调整,可以作为选择或提交图像显示上的图形用户界面元素的主要动作,以用于进一步显示或执行的主要动作。
如图所示,眼戴设备100包括右可见光相机114B。如本文进一步描述,两个相机114A、114B从两个单独视点捕获场景的图像信息。两个所捕获的图像可用于将三维显示投影到图像显示器上以利用3D眼镜进行观看。
眼戴设备100包括右光学组件180B,其具有图像显示器以呈现图像,诸如深度图像。如图1A和图1B所示,眼戴设备100包括右可见光相机114B。眼戴设备100可包括多个可见光相机114A、114B,其形成被动式三维相机,诸如立体相机,其中右可见光相机114B位于右角部110B。如图1C-D所示,眼戴设备100还包括左可见光相机114A。
左和右可见光相机114A、114B对可见光范围波长敏感。可见光相机114A、114B中的每一者具有不同的前向视场,这些视场重叠以使得能够生成三维深度图像,例如,右可见光相机114B描绘右视场111B。通常,“视场”是在空间中的特定定位处和方向上通过相机可见的场景的部分。视场111A和111B具有重叠的视场304(图3)。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A、114B的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小;即视角。视角可以水平、垂直或对角地测量。
在示例中,可见光相机114A、114B具有视角在40°至110°之间(例如,大约100°)的视场,并且具有480×480像素或更大的分辨率。“覆盖角度”描述了可见光相机114A、114B或红外相机410(见图2A)镜头可有效成像的的角度范围。通常,相机镜头产生大到足以完全覆盖相机的胶片或传感器的成像圈,可能包括某种渐晕(例如,与中心相比,图像朝向边缘变暗)。如果相机镜头的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将限于覆盖角度。
此类可见光相机114A、114B的示例包括高分辨率互补金属氧化物半导体(CMOS)图像传感器和能够具有640p(例如,640×480像素,总共0.3兆像素)、720p或1080p的分辨率的数字VGA相机(视频图形阵列)。可见光相机114A、114B的其他示例,其可捕获高清晰度(HD)静止图像且以1642×1642像素(或更大)的分辨率存储这些图像;或者以高帧率(例如,每秒三十至六十帧或更多)记录高清晰度视频且以1216×1216像素(或更大)的分辨率存储该记录。
眼戴设备100可捕获来自可见光相机114A、114B的图像传感器数据以及由图像处理器数字化的地理定位数据,以存储在存储器中。可见光相机114A、114B在二维空间域中捕获相应的左原始图像和右原始图像,这些原始图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的X轴和用于垂直定位的Y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和定位属性(例如,X轴坐标和Y轴坐标)。
为了捕获立体图像以用于稍后显示为三维投影,图像处理器412(在图4中示出)可耦接到可见光相机114A、114B以接收并存储视觉图像信息。图像处理器412或另一处理器控制可见光相机114A、114B的操作以充当模拟人类双眼视觉的立体相机,并且可将时间戳添加到每个图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这在包括虚拟现实(VR)和视频游戏的各种环境中都是期望的。
图1B是图1A的眼戴设备100的右角部110B的横截面透视图,其描绘了相机系统的右可见光相机114B和电路板。图1C是图1A的眼戴设备100的示例性硬件配置的侧视图(左),其示出了相机系统的左可见光相机114A。图1D是图1C的眼戴设备的左角部110A的横截面透视图,其描绘了三维相机的左可见光相机114A和电路板。
除了连接和耦接位于左侧面170A上之外,左可见光相机114A的结构和布置基本上类似于右可见光相机114B。如图1B的示例所示,眼戴设备100包括右可见光相机114B和电路板140B,该电路板可以是柔性印刷电路板(PCB)。右铰链126B将右角部110B连接到眼戴设备100的右镜腿125B上。在一些示例中,右可见光相机114B、柔性PCB 140B或其他电连接器或触点等部件可位于右镜腿125B或右铰链126B上。
右角部110B包括角部体190和角部盖,图1B的横截面中省略了角部盖。设置在右角部110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于右可见光相机114B、麦克风、低功率无线电路(例如,用于经由BluetoothTM的无线短距离网络通信)、高速无线电路(例如,用于经由Wi-Fi的无线局域网通信)的控制器电路。
右可见光相机114B耦接到或设置在柔性PCB 140B上且由可见光相机覆盖镜头覆盖,该镜头通过形成在框架105中的开口瞄准。例如,框架105的右边缘107B,如图2A所示,连接到右角部110B,并且包括用于可见光相机覆盖镜头的开口。框架105包括被配置为面向外且远离用户的眼睛的前侧。用于可见光相机覆盖镜头的开口形成并穿过所述框架105的前侧或面朝外的一侧。在示例中,右可见光相机114B具有面向外的视场111B(图3所示),其视线或视角与眼戴设备100的用户的右眼相关。可见光相机覆盖镜头也可粘附到右角部110B的前侧或面向外的表面,其中开口形成有面向外的覆盖角度,但在不同的向外方向上。耦接也可经由中间部件间接实现。
如图1B所示,柔性PCB 140B设置在右角部110B内,并且耦接到容纳在右角部110B中的一个或多个其他部件。尽管示出为形成在右角部110B的电路板上,但是右可见光相机114B可形成在左角部110A、镜腿125A、125B或框架105的电路板上。
图2A和图2B是包括两种不同类型的图像显示器的眼戴设备100的示例性硬件配置的后透视图。眼戴设备100的尺寸和形状被设计成被配置为供用户佩戴的形式;在该示例中为眼镜的形式。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。
在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于由用户的鼻部支撑的鼻梁架106连接到右边缘107B的左边缘107A。左和右边缘107A、107B包括相应的孔口175A、175B,这些孔口保持相应的光学元件180A、180B,诸如镜头和显示设备。如本文所用,术语“镜头”旨在包括透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,导致光会聚/发散或导致几乎或完全不会聚或发散。
虽然被示出为具有两个光学元件180A、180B,但是眼戴设备100可包括其他布置,诸如单个光学元件(或者其可不包括任何光学元件180A、180B),这取决于眼戴设备100的应用或预期用户。如图进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左角部110A以及与框架105的右侧面170B相邻的右角部110B。角部110A、110B可在相应的侧面170A、170B上集成到框架105中(如图所示)或实施为在框架105的相应侧面170A、170B上附接的单独部件。或者,角部110A、110B可集成到附接到框架105的镜腿(未示出)中。
在一个示例中,光学组件180A、180B的图像显示器包括集成的图像显示器。如图2A所示,每个光学组件180A、180B包括合适的显示矩阵177,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器或任何其他此类显示器。每个光学组件180A、180B还包括一个或多个光学层176,其可以包括镜头、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件及其任何组合。光学层176A、176B、…、176N(在图2A中示出为176A-N)可包括具有合适的尺寸和构造的棱镜,该棱镜包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176A-N的棱镜在形成在左和右边缘107A、107B中的相应的孔口175A、175B的全部或至少一部分上方延伸,以允许用户在用户的眼睛透过对应的左和右边缘107A、107B观看时看到棱镜的第二表面。光学层176A-N的棱镜的第一表面从框架105面向上,并且显示矩阵177覆盖在棱镜上,使得由显示矩阵177发射的光子和光照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176A-N的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176A-N的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜的尺寸和形状可任选地被设计成放大由显示矩阵177投影的图像,并且光穿过棱镜使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵177发射的图像。
在一个示例中,光学层176A-N可包括透明的LCD层(保持镜头打开),除非且直到施加电压使该层不透明(关闭或遮挡镜头)。眼戴设备100上的图像处理器412可执行程序以将电压施加到LCD层,以便产生主动式快门系统,从而使得眼戴设备100适于观看被显示为三维投影的视觉内容。除了LCD之外的技术可用于主动式快门模式,包括响应电压或另一类型的输入的其他类型的反应层。
在另一示例中,光学组件180A、180B的图像显示设备包括如图2B所示的投影图像显示器。每个光学组件180A、180B包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源(诸如激光投影仪150)设置在眼戴设备100的镜腿125A、125B中的一个镜腿之中或之上。在该示例中,光学组件180B包括一个或多个光学条带155A、155B、…155N(在图2B中示出为155A-N),其在每个光学组件180A、180B的镜头的宽度上,或者在镜头的前表面和后表面之间的镜头的深度上间隔开。
当由激光投影仪150投影的光子行进穿过每个光学组件180A、180B的镜头时,光子遇到光学条带155A-N。当特定光子遇到特定光学条带时,光子要么朝向用户的眼睛重定向,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合可控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155A-N。虽然被示出为具有两个光学组件180A、180B,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者每个光学组件180A、180B可被布置有不同的布置,这取决于眼戴设备100的应用或预期用户。
如图2A和图2B进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左角部110A以及与框架105的右侧面170B相邻的右角部110B。角部110A、110B可集成到框架105中(如图所示)的相应侧面170A、170B上或实施为附接到框架105相应的侧面170A、170B上的单独部件。或者,角部110A、110B可集成到与框架105相连的镜腿125A、125B中。
在另一示例中,图2B中示出的眼戴设备100可包括两个投影仪,左投影仪150A(未示出)和右投影仪150B(示出为投影仪150)。左光学组件180A可包括左显示矩阵177A(未示出)或左光学条带155'A、155'B、…、155'N(155撇,A至N,未示出),其被配置为与来自左投影仪150A的光进行交互。类似地,右光学组件180B可包括右显示矩阵177B(未示出)或右光学条155”A、155”B、…、155”N(155双撇,A至N,未示出),其被配置为与来自右投影仪150B的光进行交互。在该示例中,眼戴设备100包括左显示器和右显示器。
图3是三维场景306、由左可见光相机114A捕获的左原始图像302A和由右可见光相机114B捕获的右原始图像302B的图形描绘。如图所示,左视场111A可与右视场111B重叠。重叠的视场304表示由图像中两个相机114A、114B捕获的部分。术语“重叠”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本上重叠”意味着所生成的原始图像中的像素矩阵或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文所述,两个原始图像302A、302B可被处理以包括时间戳,该时间戳允许将图像作为三维投影的一部分被一起显示。
为了捕获立体图像,如图3所示,真实场景306在给定时刻的一对原始红绿蓝(RGB)图像被捕获-由左相机114A捕获的左原始图像302A和由右相机114B捕获的右原始图像302B。当(例如,由图像处理器412)处理该对原始图像302A、302B时,生成深度图像。所生成的深度图像可在眼戴设备的光学组件180A、180B上、在另一显示器(例如,移动设备401上的图像显示器580)上、或在屏幕上查看。
所生成的深度图像在三维空间域中,并且可包括三维位置坐标系上的顶点矩阵,该三维位置坐标系包括用于水平定位(例如,长度)的X轴、用于垂直定位(例如,高度)的Y轴和用于深度(例如,距离)的Z轴。每个顶点可包括颜色属性(例如,红色像素光值、绿色像素光值或蓝色像素光值);定位属性(例如,X位置坐标、Y位置坐标和Z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
在一个示例中,交互式增强现实系统400(图4)包括眼戴设备100,其包括框架105、从框架105的左侧面170A延伸的左镜腿110A、以及从框架105的右侧面170B延伸的右镜腿125B。眼戴设备100可进一步包括具有重叠的视场的至少两个可见光相机114A、114B。在一个示例中,眼戴设备100包括具有左视场111A的左可见光相机114A,如图3所示。左相机114A连接到框架105或左镜腿110A以从场景306的左侧捕获左原始图像302A。眼戴设备100进一步包括具有右视场111B的右可见光相机114B。右相机114B连接到框架105或右镜腿125B以从场景306的右侧捕获右原始图像302B。
图4是示例性交互式增强现实系统400的功能框图,该系统包括经由各种网络495(诸如因特网)连接的可穿戴设备(例如,眼戴设备100)、移动设备401和服务器系统498。交互式增强现实系统400包括眼戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。
如图4所示,如本文所述,眼戴设备100包括一个或多个可见光相机114A、114B,它们捕获静止图像、视频图像或静止图像和视频图像两者。相机114A、114B可具有对高速电路430的直接存储器访问(DMA)并且用作立体相机。相机114A、114B可用于捕获初始深度图像,这些初始深度图像可被渲染成三维(3D)模型,这些三维模型是红绿蓝(RGB)成像场景的纹理映射图像。该设备100还可包括深度传感器213,其使用红外信号来估计对象相对于设备100的定位。在一些示例中,深度传感器213包括一个或多个红外发射器215和红外相机410。
眼戴设备100进一步包括每个光学组件180A、180B的两个图像显示器(一个与左侧面170A相关联,一个与右侧面170B相关联)。眼戴设备100还包括图像显示驱动器442、图像处理器412、低功率电路420和高速电路430。每个光学组件180A、180B的图像显示器用于呈现图像,包括静止图像、视频图像、或静止和视频图像。图像显示驱动器442耦接到每个光学组件180A、180B的图像显示器,以便控制图像的显示。
眼戴设备100还包括一个或多个扬声器440(例如,一个与眼戴设备的左侧相关联,另一个与眼戴设备的右侧相关联)。扬声器440可并入到眼戴设备100的框架105、镜腿125或角部110中。一个或多个扬声器440由音频处理器443在低功率电路420、高速电路430或两者的控制下驱动。扬声器440用于呈现音频信号,包括例如节拍音轨。音频处理器443耦接到扬声器440以便控制声音的呈现。
图4所示的用于眼戴设备100的部件位于一个或多个电路板上,例如,位于边缘或镜腿中的印刷电路板(PCB)或柔性印刷电路(FPC)。另选地或附加地,所描绘的部件可位于眼戴设备100的角部、框架、铰链或鼻梁架中。左和右可见光相机114A、114B可包括数字相机元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、镜头、或可用于捕获数据(包括具有未知对象的场景的静止图像或视频)的任何其他相应的可见或光捕获元件。
如图4所示,高速电路430包括高速处理器432、存储器434和高速无线电路436。在该示例中,图像显示驱动器442耦接到高速电路430并且由高速处理器432操作,以便驱动每个光学组件180A、180B的左和右图像显示器。高速处理器432可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括包括管理高速无线连接437到使用高速无线电路436的无线局域网(WLAN)的高速数据传输所需的处理资源。
在一些示例中,高速处理器432执行操作系统,诸如LINUX操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器432还用于管理利用高速无线电路436的数据传输。在一些示例中,高速无线电路436被配置为实现电气和电子工程师协会(IEEE)802.11通信标准,本文中也称为Wi-Fi。在其他示例中,高速无线电路436可实施其他高速通信标准。
低功率电路420包括低功率处理器422和低功率无线电路424。眼戴设备100的低功率无线电路424和高速无线电路436可包括短距离收发器(BluetoothTM或蓝牙低功耗(BLE))和无线广域网、局域网或广域网收发器(例如,蜂窝或Wi-Fi)。移动设备401,包括经由低功率无线连接425和高速无线连接437通信的收发器的,可使用眼戴设备100的架构的细节来实施,网络495的其他元件同样可如此实施。
存储器434包括能够存储各种数据和应用的任何存储设备,所述数据包括由左和右可见光相机114A、114B、红外相机410、图像处理器412生成的相机数据、以及由图像显示驱动器442生成以在每个光学组件180A、180B的图像显示器上显示的图像。虽然存储器434被示出为与高速电路430集成,但在其他示例中,存储器434可以是眼戴设备100的单独的独立元件。在某些此类示例中,电气布线线路可提供从图像处理器412或低功率处理器422通过包括高速处理器432的芯片到存储器434的连接。在其他示例中,高速处理器432可管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读或写操作的任何时间启动高速处理器432。
如图4所示,眼戴设备100的高速处理器432可耦接到相机系统(可见光相机114A、114B)、图像显示驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的CPU530可耦接到相机系统570、移动显示器驱动器582、用户输入层591和存储器540A。
服务器系统498可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络495与眼戴设备100和移动设备401通信的计算设备。
眼戴设备100的输出部件包括视觉元件,诸如与每个镜头或光学组件180A、180B相关联的左和右图像显示器,如图2A和图2B所述(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导)。眼戴设备100可包括面向用户的指示器(例如,LED、扬声器或振动执行器),或面向外的信号(例如,LED、扬声器)。每个光学组件180A、180B的图像显示器由图像显示驱动器442驱动。在一些示例性配置中,眼戴设备100的输出部件进一步包括附加指示器,诸如可听元件(例如,扬声器)、触觉部件(例如,致动器,诸如用于生成触觉反馈的振动马达)和其他信号生成器。例如,设备100可包括面向用户设置的指示器或者面向外的信号组。面向用户的指示器被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可包括被定位成使得用户可以看见它的LED显示器、被定位成生成用户可以听到的声音的一个或多个扬声器、或者提供用户可以感觉到的触觉反馈的致动器。面向外的信号组被配置为由设备100附近的观察者看到或以其他方式感知到。类似地,设备100可包括LED、扬声器或配置为可被观察者感知的执行器。
眼戴设备100的输入部件可包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、摄影光学键盘或其他字母数字配置的元件)、基于点的输部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力或位置和力的触摸屏或触摸板,或其他触觉配置的元件)和音频输入部件(例如,麦克风)等。移动设备401和服务器系统498可包括字母数字、基于点、触觉、音频和其他输入部件。
在一些示例中,眼戴设备100包括被称为惯性测量单元472的运动感测部件的集合。运动感测部件可以是具有微观移动部件的微机电系统(MEMS),这些微观移动部件通常足够小以成为微芯片的一部分。在一些示例性配置中,惯性测量单元(IMU)472包括加速计、陀螺仪和磁力计。所述加速计可感测所述设备100相对于三个正交轴(x、y、z)的线性加速度(包括由于重力而引起的加速度)。陀螺仪感测设备100绕三个旋转轴(俯仰、滚转、偏航)的角速度。加速计和陀螺仪可一起提供关于设备相对于六个轴(x、y、z、俯仰、滚转、偏航)的定位、定向和运动数据。如果存在磁力计,则感测所述设备100相对于磁北极的航向。设备100的定位可以由位置传感器诸如GPS单元473、用于生成相对定位坐标的一个或多个收发器、高度传感器或气压计和其他定向传感器来确定。还可经由低功率无线电路424或高速无线电路436从移动设备401通过无线连接425和437接收此类定位系统坐标。
IMU 472可包括数字运动处理器或程序,或者与数字运动处理器或程序协作,该数字运动处理器或程序从部件采集原始数据,并且计算关于设备100的定位、定向和运动的多个有用值。例如,从加速计采集的加速度数据可被积分以获得相对于每个轴(x、y、z)的速度;并再次被积分以获得设备100的定位(以线性坐标x、y和z表示)。来自陀螺仪的角速度数据可被积分以获得设备100的定位(以球面坐标表示)。用于计算这些有效值的程序可存储在存储器434中并且由眼戴设备100的高速处理器432执行。
眼戴设备100可以可选地包括附加的外围传感器,诸如与眼戴设备100集成的生物计量传感器、特性传感器或显示元件。例如,外围设备元件可包括任何I/O部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。例如,生物计量传感器可包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)或识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)等的部件。
移动设备401可以是智能电话、平板电脑、笔记本电脑、接入点或能够使用低功率无线连接425和高速无线连接437两者与眼戴设备100连接的任何其他此类设备。移动设备401连接到服务器系统498和网络495。网络495可包括有线和无线连接的任何组合。
如图4所示的交互式增强现实系统400包括通过网络耦接到眼戴设备100的计算设备,诸如移动设备401。交互式增强现实系统400包括用于存储指令的存储器和用于执行指令的处理器。由处理器432执行交互式增强现实系统400的指令将眼戴设备100配置为与移动设备401协作。交互式增强现实系统400可利用眼戴设备100的存储器434或移动设备401的存储器元件540A、540B、540C(图5)。此外,交互式增强现实系统400可利用眼戴设备100的处理器元件432、422或移动设备401的中央处理单元(CPU)530(图5)。另外,交互式增强现实系统400可进一步利用服务器系统498的存储器和处理器元件。在这个方面中,交互式增强现实系统400的存储器和处理功能可以跨眼戴设备100、移动设备401和服务器系统498共享或分布。
存储器434包括歌曲文件482和虚拟对象484。歌曲文件482包括节奏(例如,节拍音轨)以及可选的音符序列和音符值。音符是表示特定音高或其他乐声的符号。音符值包括相对于节奏而言的弹奏音符的持续时间,并且可包括其他质量,诸如响度、强调、清晰发音和相对于其他音符的分句。在一些实施例中,节奏包括默认值以及用户界面,用户可通过该用户界面选择在歌曲回放期间使用的特定节奏。虚拟对象484包括用于识别由相机114捕获的图像中的对象或特征的图像数据。这些对象可以是物理特征,诸如用于在环境内定位眼戴设备100的已知的绘画或物理标记。
存储器434另外包括由处理器432执行的定位检测工具460、标记配准工具462、定位工具464、虚拟对象渲染工具466、物理引擎468和预测引擎470。定位检测工具460将处理器432配置为例如使用定位工具464来确定在环境内的定位(位置和定向)。标记配准工具462将处理器432配置为在环境内配准标记。标记可以是在环境内具有已知位置的预定义物理标记,或者由处理器432指定到相对于眼戴设备100正在其中操作的环境或相对于眼戴器本身的特定位置。定位工具464将处理器432配置为获得定位数据,以用于确定眼戴设备100、由眼戴设备呈现的虚拟对象或它们的组合的定位。位置数据可以从一系列图像、IMU单元472、GPS单元473或它们的组合中导出。虚拟对象渲染工具466将处理器432配置为渲染用于由图像显示器180在图像显示驱动器442和图像处理器412的控制下显示的虚拟图像。物理引擎468将处理器432配置为以将物理定律(诸如重力和摩擦)应用于例如虚拟游戏之间的虚拟世界。预测引擎470将处理器432配置为基于对象(诸如眼戴设备100)的当前航向、来自传感器(诸如IMU 472)的输入、环境的图像或它们组合来预测该对象的预期移动。
图5是示例性移动设备401的高级功能框图。移动设备401包括闪存存储器540A,其存储由CPU 530执行以运行本文所述的所有功能或功能子集的程序。
移动设备401可包括相机570,其包括至少两个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器。闪存存储器540A可进一步包括经由相机570生成的多个图像或视频。
如图所示,移动设备401包括图像显示器580、控制图像显示器580的移动显示驱动器582和显示控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),该层位于图像显示器580使用的屏幕的顶部上或以其他方式集成到该屏幕中。
可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、掌上电脑(PDA)、平板计算机、笔记本电脑或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;如本文所述的主题技术并不旨在局限于此。出于该讨论的目的,图5因此提供了具有用户界面的示例性移动设备401的框图图示,该用户界面包括用于接收输入(通过手、触笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层891和用于显示内容的图像显示器580。
如图5所示,移动设备401包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(XCVR)510,示出为WWAN XCVR。移动设备401还包括附加的数字或模拟收发器,诸如用于诸如经由NFC、VLC、DECT、ZigBee、BluetoothTM或Wi-Fi进行短距离网络通信的短距离收发器(XCVR)520。例如,短距离XCVR 520可采取与在无线局域网中实施的一个或多个标准通信协议(例如,符合IEEE 802.11的Wi-Fi标准之一)兼容的类型的任何可用双向无线局域网(WLAN)收发器的形式。
为了生成用于定位移动设备401的位置坐标,移动设备401可包括全球定位系统(GPS)接收器。另选地或附加地,移动设备401可利用短距离XCVR 520和WWAN XCVR 510中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或BluetoothTM的定位系统可生成非常准确的位置坐标,尤其是当它们组合使用时。此类位置坐标可经由XCVR510、520通过一个或多个网络连接传输到眼戴设备。
收发器510、520(即,网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。WWAN收发器510的示例包括(但不限于)被配置为根据码分多址(CDMA)和第3代合作伙伴计划(3GPP)网络技术操作的收发器,所述技术包括例如但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”。例如,收发器510、520提供信息的双向无线通信,所述信息包括数字化音频信号、静止图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备401的各种类型的移动消息通信。
移动设备401进一步包括用作中央处理单元(CPU)的微处理器;如图4中的CPU530所示。处理器是具有被构造并布置成执行一个或多个处理功能(通常是各种数据处理功能)的具有元器件的电路。尽管可使用分立的逻辑部件,但是这些示例利用形成可编程CPU的部件。微处理器例如包括一个或多个集成电路(IC)芯片,其结合了执行CPU的功能的电子元件。例如,CPU 530可基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(RISC),正如现今在移动设备和其他便携式电子设备中通常使用的。当然,处理器电路的其他布置可用于形成智能电话、笔记本电脑和平板电脑中的CPU530或处理器硬件。
CPU 530用作移动设备401的可编程主机控制器,通过配置在移动设备401上执行各种操作,例如,根据CPU 530可执行的指令或编程。例如,此类操作可包括移动设备的各种一般操作,以及与用于移动设备上的应用的程序相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。
移动设备401包括用于存储程序和数据的存储器或存储系统。在示例中,存储器系统可根据需要包括闪存存储器540A、随机存取存储器(RAM)540B和其他存储器部件540C。RAM 540B用作由CPU 530处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器540A通常提供长期存储。
因此,在移动设备401的示例中,闪存存储器540A用于存储由CPU 530执行的程序或指令。根据设备的类型,移动设备401存储并运行移动操作系统,特定应用程序通过该移动操作系统执行。移动操作系统的示例包括Google Android、Apple iOS(用于iPhone或iPad设备)、Windows Mobile、Amazon Fire OS、RIM BlackBerry OS等。
眼戴设备100内的处理器432构建眼戴设备100周围的环境的地图,确定眼戴设备在映射环境内的位置,并且确定眼戴设备相对于映射环境中的一个或多个对象的相对定位。在一个示例中,处理器432构建地图,并且使用应用于从一个或多个传感器接收的数据的即时定位与地图构建(SLAM)算法来确定位置和定位信息。在增强现实的背景下,SLAM算法用于构建并更新环境的地图,同时追踪并更新设备(或用户)在映射的环境中的位置。数学解可使用各种统计方法来近似,诸如粒子滤波、卡尔曼滤波、扩展卡尔曼滤波和协方差交集。
传感器数据包括从相机114A、114B中的一者或两者接收的图像、从激光测距仪接收的距离、从GPS单元473接收的定位信息、或两个或更多个此类传感器数据的组合,或来自提供用于确定定位信息的数据的其他传感器的数据。
图6描绘了示例性环境600以及用于自然特征追踪(NFT;例如,使用SLAM算法的追踪应用)的元素。眼戴设备100的用户602存在于示例性物理环境600(在图6中为内部房间)中。眼戴设备100的处理器432使用所捕获的图像来确定其相对于环境600内的一个或多个对象604的定位,使用环境600的坐标系(x,y,z)来构建环境600的地图,并且确定其在坐标系内的定位。另外,处理器432通过使用与单个对象604a相关联的两个或更多个位置点(例如,三个位置点606a、606b和606c)或者通过使用与两个或更多个对象604a、604b、604c相关联的一个或更多个位置点606来确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。在一个示例中,眼戴设备100的处理器432在环境600内定位一个虚拟对象408(诸如图6中所示的钥匙),经图像显示器180进行增强现实观看。
图7是描绘用于在可穿戴设备(例如,眼戴设备)上实施本文所述的增强现实应用的方法的流程图700。尽管如本文所述,参考眼戴设备100描述了这些步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的设备的其他实施例。另外,可以设想,在图7中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
在框702处,眼戴设备100捕获在眼戴设备100附近的物理环境600中的一个或多个输入图像。处理器432可连续地从可见光相机114接收输入图像,并且将这些图像存储在存储器434中以供处理。另外,眼戴设备100可以从其他传感器捕获信息(例如,来自GPS单元473的位置信息、来自IMU 472的定向信息、或来自激光距离传感器的距离信息)。
在框704处,眼戴设备100将所捕获的图像中的对象与存储在图像库中的对象进行比较以识别匹配。在一些实施例中,处理器432将所捕获的图像存储在存储器434中。已知对象的图像库存储在虚拟对象数据库484中。
在一个示例中,处理器432被编程为识别预定义的特定对象(例如,悬挂在墙壁上的已知位置处的特定照片604a、另一墙壁上的窗口604b、或定位在地板上的对象诸如保险箱604c)。其他传感器数据诸如GPS数据可用于缩小在比较中使用的已知对象(例如,仅与通过GPS坐标识别出的房间相关联的图像)的数量。在另一示例中,处理器432被编程为识别预定义的一般对象(诸如公园内的一棵或多棵树)。
在框706处,眼戴设备100确定其相对于对象的定位。处理器432可通过将所捕获的图像中的两个或更多个点之间(例如,一个对象604上的两个或更多个位置点之间或者两个对象604中的每个对象上的位置点606之间)的距离与所识别的对象中的对应点之间的已知距离进行比较和处理,来确定其相对于对象的定位。所捕获的图像的点之间的距离大于所识别的对象的点之间的距离的指示眼戴设备100比捕获包括所识别的对象的图像的成像器更靠近所识别的对象。另一方面,所捕获的图像的点之间的距离小于所识别的对象的点之间的距离的指示眼戴设备100比捕获包括所识别的对象的图像的成像器更远离所识别的对象。通过处理相对距离,处理器432能够确定相对于对象的定位。另选地或附加地,可使用其他传感器信息(诸如激光距离传感器信息)来确定相对于对象的定位。
在框708处,眼戴设备100构建围绕眼戴设备100的环境600的地图,并且确定其在环境内的位置。在一个示例中,在所识别的对象(框704)具有预定义坐标系(x,y,z)的情况下,眼戴设备100的处理器432使用该预定义坐标系来构建地图,并且基于相对于所识别的对象的所确定的定位(框706)来确定其在该坐标系内的定位。在另一示例中,眼戴设备使用环境内的永久或半永久对象604的图像(例如,公园内的树或公园长凳)来构建地图。根据该示例,眼戴设备100可限定用于环境的坐标系(x′,y′,z′)。
在框710处,眼戴设备100确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。处理器432通过使用一个或多个对象604上的两个或更多个位置点(例如,三个位置点606a、606b和606c)或通过使用两个或更多个对象604上的一个或多个位置点606来确定头部姿态。通过使用常规图像处理算法,处理器432通过比较在所捕获图像与已知图像的位置点之间延伸线的角度和长度来确定滚转、俯仰和偏航。
在框712处,眼戴设备100向用户呈现视觉图像。处理器432使用图像处理器412和图像显示驱动器442在图像显示器180上向用户呈现图像。处理器通过对环境600内眼镜设备100的位置做出响应的图像显示器形成并呈现视觉图像。
在框714处,随着用户在环境600中移动,重复以上参考框706-712所述的步骤,以更新眼戴设备100的定位以及用户602所观看的内容。
再次参考图6,在该示例中,实施本文所述的增强现实虚拟引导应用的方法包括与物理对象(例如,绘画604a)相关联的虚拟标记(例如,虚拟标记610a)和与虚拟对象(例如,钥匙608)相关联的虚拟标记。在一个示例中,眼戴设备100使用与物理对象相关联的标记来确定眼戴设备100在环境中的定位,并且使用与虚拟对象相关联的标记来生成叠层图像,这些叠层图像在眼戴设备100的显示器上的虚拟标记定位处呈现环境600中的相关联虚拟对象608。例如,标记在环境中的位置被登记以用于追踪和更新用户、设备和对象(虚拟的和物理的)在映射的环境中的位置。标记有时被登记到高对比度物理对象(诸如安装在较浅色墙壁上的相对较暗的对象604a),以帮助相机和其他传感器进行检测标记的任务。标记可以是预先指定的,或者可以由眼戴设备100在进入环境时指定。标记也被配准在环境中的位置处,以用于在映射的环境中的那些位置处呈现虚拟图像。
标记可以用信息编码或以其他方式与信息链接。标记可包括定位信息、物理代码(诸如条形码或QR码;对用户可见或隐藏)或它们的组合。与标记相关联的一组数据被存储在眼戴设备100的存储器434中。该一组数据包括关于标记610a、标记的定位(位置和定向)、一个或多个虚拟对象或它们的组合的信息。标记定位可包括一个或多个标记界标616a的三维坐标,诸如图6所示的大致矩形的标记610a的角部。标记定位可以相对于真实世界的地理坐标、标记坐标系、眼戴设备100的定位或其他坐标系来表示。与标记610a相关联的该一个或多个虚拟对象可包括各种材料中的任何一种,包括静止图像、视频、音频、触觉反馈、可执行应用、交互式用户界面和体验、以及此类材料的组合或序列。在该上下文中,能够被存储在存储器中并且在遇到标记610a时被检索或与所指定的标记相关联的任何类型的内容都可以被分类为虚拟对象。例如,图6所示的钥匙608是在标记位置处显示为2D或3D静止图像的虚拟对象。
在一个示例中,标记610a可在存储器中登记为位于物理对象604a(例如,图6所示的带框架艺术品)附近并与其相关联。在另一示例中,标记可在存储器中登记为相对于眼戴设备100的特定定位。
图8A至图8E是列出增强现实引导体验的示例性方法中的步骤的流程图800、850、860、870和890。如本文所述,尽管这些步骤是参考眼戴设备100描述的,如本文所述,但针对其他类型的可穿戴移动设备,所述步骤的其他实施例将由本领域技术人员根据本文的描述中理解。另外,可以设想,在图8A-E中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
在图8A中,在框802处,处理器432捕获环境的图像。在示例中,图像是由耦接到眼戴设备100或作为其一部分的相机114A、114B捕获的一系列视频数据帧。在一些实施例中,相机114A、114B包括一个或多个高分辨率数字相机,其配备有能够捕获高清晰度静止图像和高清晰度视频的CMOS图像传感器。每个数字视频帧包括图像中的多个像素的深度信息。在这个方面,相机114A、114B通过捕获环境的详细输入图像而用作高清晰度扫描仪。在一些实施例例中,相机114A、114B包括一对高分辨率数字相机114A、114B,它们耦接到眼戴设备100并间隔设置以获取左相机原始图像和右相机原始图像。当被组合时,原始图像形成一个包括三维像素位置矩阵的输入图像。在一些实施例中,在步骤802的方法包括将捕获的一系列视频数据帧至少暂时地存储在眼戴设备100上的存储器434中,使得这些帧可用于分析。
在框804处,处理器432确定眼戴设备100相对于环境中的其他对象的定位(例如,位置和定向)。在示例中,处理器432使用一系列视频数据帧通过应用SLAM算法或其他计算机视觉算法来定位眼戴设备100在环境内的位置。
另外,处理器432确定眼戴设备100的视场。眼戴设备100的视场是透过光学元件(假设为透视显示器)所见的视野。视场可基于与光学组件相关联的角度值(例如,围绕光学组件的中心轴指向的方向成30度的锥体)来确定。在一个示例中,移动设备是平板电脑,视场是在屏幕上查看的图像,该图像基本上同时被平板电脑的可见光相机捕获。
眼戴设备100确定并监视其在三维空间中的位置和定向(例如,两个轴X和Y或三个轴X、Y和Z)以及绕一个或多个轴的旋转(例如,俯仰、偏航和滚转)。眼戴设备100可使用SLAM算法、其他计算机视觉算法、各种传感器(例如,用于确定方向的罗盘和用于确定定向的IMU472)或它们的组合来确定和监视眼戴设备100的位置和定向。
在框806处,处理器432随着眼戴设备在环境中移动而监视眼戴设备100的当前定位。眼戴设备100的移动改变了由相机捕获一系列视频数据帧的定位和定向。处理器432(实施定位检测程序460和定位程序464)通过例如应用SLAM算法、其他计算机视觉算法,使用一系列视频数据帧以随着佩戴者/用户在环境中移动而更新定位。在这个方面,该方法随着佩戴者相对于物理环境移动而持续地更新眼戴设备100的当前本地定位,使得所呈现的虚拟对象在相对于物理环境逻辑上真实的位置中是持久可见的。
在框808处,处理器432识别在当前定位的预定义阈值(限制或范围)内的第一标记定位。为了识别第一标记定位,根据一个示例,处理器432识别在眼戴设备100的当前位置坐标周围的坐标范围,该坐标范围包括例如眼戴设备100的当前位置坐标十英尺内的所有坐标或大于一英尺且小于10英尺的所有坐标。
在处理器432识别环境后,环境内的标记可被存储在由眼戴设备100从服务器498检索的查找表中。处理器432例如通过网络495且任选地通过移动设备401将其位置坐标发送到服务器498。然后,处理器432例如通过网络495且任选地通过移动设备401从服务器498接收与其位置/当前环境对应的查找表。处理器432将查找表存储在存储器中,例如存储器434。
在一个示例中,处理器432从标记定位的子集中识别第一标记定位,该子集包括环境内具有在眼戴设备100的位置坐标周围的坐标范围内的坐标的所有标记定位。处理器432可通过在存储器434中查询包括环境内的所有标记的查找表、从查找表中识别在坐标范围内的所有标记定位、以及从所识别的标记定位中选择最靠近眼戴设备100的当前定位的标记作为第一标记定位,从而识别第一标记定位。
在另一示例中,处理器432从标记定位的子集中识别第一标记定位,该子集包括所有标记定位,环境的坐标在眼戴设备100的位置坐标周围的坐标范围内并且也在眼戴设备100的视场内。处理器432可通过在存储器434中查询包括环境内的所有标记的查找表、从查找表中识别既在坐标范围内又在眼戴设备100的视场内的所有标记定位、以及从所识别的标记定位中选择在视场内且最靠近眼戴设备100的当前定位的标记作为第一标记定位,从而识别第一标记定位。
在框810处,处理器432登记第一标记定位。处理器432使用标记配准程序462相对于眼戴设备100周围的环境来选择并配准标记位置。标记登记包括将标记位置存储在存储器(例如,存储器434)中。在一个示例中,标记位置包括基于从数字图像或数字视频帧获得的深度信息或与之相关的一组三维标记坐标。在另一示例中,标记定位包括基于由处理器432获得的GPS信息或其他定位信息或与之相关的一组三维标记坐标。
在一些实施例中,标记位置与标记坐标系的原点(0,0,0)重合。标记坐标系可用作标记位置以及标记所放置的位置或附近的各种其他位置的参考。在一个示例中,原点对应于环境,并且所有的标记定位是相对于环境而限定的。
在框812处,处理器432生成叠层图像,该叠层图像包括用于在第一标记定位处显示的第一引导标记。处理器432可使用显示系统来生成叠层图像,该显示系统执行渲染程序466并且包括图像处理器412、图像显示驱动器442和图像显示器180。第一引导标记包括多个属性(例如,形状、大小、颜色)。属性可存储在标记定位查找表或另一表中。在一个示例中,处理器432例如通过基于距离调整属性(诸如大小),从而响应于眼戴设备100相对于第一标记定位的定位而生成叠层图像,使得标记的表观大小随着眼戴设备100接近标记而增大。
在框814处,处理器432呈现叠层图像。图像处理器412使用图像显示驱动器442在图像显示器180A-B上呈现包括第一引导标记的叠层图像,使得第一引导标记出现在第一标记定位处。例如,使用从使用所捕获的视频数据帧的定位获得的位置和定向结果(步骤802)和虚拟对象渲染程序466,眼戴设备100执行以与标记位置相关的大小、形状和定向在显示器上呈现具有第一引导标记的叠层图像的步骤814。第一引导标记呈现在眼戴设备100的镜头上,从而便于观看第一引导标记和物理环境两者。例如,右镜头(右光学组件180B)包括右显示矩阵177B,其被配置为与来自右投影仪150B的光交互,该右投影仪被定位成将图像投影到镜头180B的内表面上。在这个方面,第一引导标记被呈现为相对于物理环境的叠层的一部分,使得第一虚拟标记是持久可见的。图9A描绘了具有叠层图像的示例性眼戴设备100,该叠层图像包括定位在环境904内的第一标记定位处的第一引导标记902(具有第一颜色属性;例如,绿色)。
在框816处,处理器432识别在当前定位的预定义阈值(限制或范围)内的第二标记定位。可基本上如上文针对第一标记所述(框808)来识别第二标记定位—修改为查看下一最靠近的标记。在一个示例中,处理器432可通过在存储器434中查询包括环境内的所有标记的查找表、从查找表中识别在坐标范围内的所有标记定位、以及从所识别的标记定位中选择第一标记定位之后的下一最接近眼戴设备100的当前定位的标记,从而识别第二标记定位。在另一示例中,处理器432可通过在存储器434中查询包括环境内的所有标记的查找表、从查找表中识别既在坐标范围内又在眼戴设备100的视场内的所有标记定位、以及从所识别的标记定位中选择在视场内且在第一标记定位之后的下一最靠近眼戴设备100的当前定位的标记,从而识别第二标记定位。
在框818和820处,处理器432配准第二标记定位并生成包括第二标记定位的另一叠层图像。处理器432配准第二标记定位,并使用与上文针对第一标记定位所述的相同过程(框810和812)来生成另一叠层图像。所生成的另一叠层图像可仅包括第二引导标记,或者包括第一和第二引导标记两者。
在框822处,处理器432呈现另一叠层图像。图像处理器412使用图像显示驱动器442在图像显示器180A-B上呈现包括第二引导标记(以及任选地,第一引导标记)的另一叠层图像,使得第二引导标记出现在第二标记定位处。处理器432使用与上文针对叠层图像所述的相同过程来呈现另一叠层图像(框814)。图9A描绘了具有叠层图像的示例性眼戴设备100,该叠层图像包括定位在环境904内的第二标记定位处的第二引导标记906(具有第二颜色属性;例如,浅绿色)。
在框824处,处理器432识别在当前位置的预定义阈值(限制或范围)内的其他标记定位。其他标记定位可基于上文针对第一和第二标记(框808、810、816和818)的描述来被识别并登记。用于登记的标记位置的叠层图像然后可参考上文所述框812、814、820和822来呈现并生成。图9A描绘了具有叠层图像的示例性眼戴设备100,该叠层图像包括在环境904内定位的第三标记定位处的另一引导标记(第三引导标记908;具有第三颜色属性;例如,红色)。
在框826处,处理器432抑制小于预定义阈值的引导标记的显示。例如,如果引导标记的标记定位在眼戴设备100的当前位置的一英尺内,则处理器432阻止在生成叠层图像期间包括对应的引导标记。因此,为避免视场变得杂乱,已用于引导眼戴设备100的佩戴者的引导标记不会被显示。图9B描绘了具有叠层图像的示例性眼戴设备100,该叠层图像包括定位在环境内的第三引导标记908,但是不再显示第一引导标记902和第二引导标记904(参见图9A)。
在图8B中,流程图850描绘了用于创建和显示动态引导标记的步骤的示例。在框852处,处理器432监视计数器。计数器可由处理器432实施。
在框854处,处理器432生成包括在不同定向上的引导标记的接续叠层图像(例如,每个图像对应计数器的一次递增)。处理器432可使用显示系统来生成接续叠层图像。在一个示例中,动态引导标记包括具有相同形状但具有不同定向的多个引导标记。对于计数器的每次递增,选择多个引导标记中的不同引导标记以在叠层图像中显示。通过加快和减慢计数器,处理器432能够增大和减小变化率(例如,引导标记绕轴的旋转)。图9D-F描绘了在每个帧中具有不同定向(例如,从引导标记910a转变到引导标记910b再转变到引导标记910c)的动态引导标记(最终引导标记910)。
在图8C中,流程图860描绘了用于基于距离来改变引导标记的外观的步骤的示例。在框862处,处理器432确定引导标记的标记定位与眼戴设备102之间的距离。例如,处理器432可计算引导标记的标记定位与眼戴设备102的当前定位之间的差值,并使用该差值的绝对值和距离。在框864处,图像处理器412在处理器432的控制下响应于所确定的距离而调整引导标记的视觉属性。例如,图像处理器412可以随着距离减小而增大引导标记的大小,并且随着距离增大而增大引导标记的大小。图9B描绘了具有第一尺寸的引导标记914a,并且图9C描绘了具有第二更大尺寸的引导标记914b。也可基于距离来调整其他属性(诸如颜色)。在框866处,处理器432生成包括经调整的引导标记的另一叠层图像。可以如上文参考框812和820所述来生成叠层图像。
在图8D中,流程图870描绘了用于基于距离来改变引导标记的外观的另一示例性步骤。在框872处,处理器432确定引导标记的标记定位与眼戴设备102之间的距离。例如,处理器432可如上参考框862所述来计算距离。
在决策框874处,处理器432将所确定的距离(框872)与阈值距离(例如,4英尺)进行比较。如果距离大于阈值距离,则处理在框876处继续选择用于引导标记的第一视觉图像(例如,图9B中具有第一大小的引导标记914a)。如果距离小于或等于阈值距离,则处理在框878处继续选择用于引导标记的第二视觉图像(例如,图9C中具有第二更大尺寸的引导标记914b)。具有其他属性差异(诸如颜色)的图像也可基于距离来选择。
在框880处,处理器432生成包括所选择的引导标记的另一叠层图像。可以如上文参考框812和820所述来生成叠层图像。
在图8E中,流程图890描绘了用于基于环境的特性来调整引导标记的示例。在框892处,处理器432感测环境的特性(例如,走廊宽度)。处理器432可通过应用CV算法至由相机捕获的图像来感测特性(框802)。在框894处,处理器432响应于所感测的特性而调整引导标记的视觉属性。例如,可调整引导标记的大小以填充走廊的宽度(参见图9C)。处理器432可经由执行渲染程序466的图像处理器412来调整视觉属性。
图9A-F示出了经引导的增强现实体验,其中眼戴设备100的用户在环境904中被引导到达目的地(例如,碎纸机920)。图9A描绘了呈现在眼戴设备100的显示器180上的叠层图像,其包括位于环境(例如,办公室或博物馆)内的标记定位处的第一引导标记902、第二引导标记906和第三引导标记908。引导标记被成形为在引导方向(在例示的示例中为正前方)上引导用户。图9B描绘了叠层图像,其中随着眼戴设备100的用户在环境904中移动,第三引导标记908、第四引导标记912和第五引导标记914被包括在叠层中(并且第一引导标记902和第二引导标记904不再可见)。
图9B、图9C示出了引导标记的特性(在图示示例中为尺寸)基于眼戴设备100与引导标记的标记定位之间的距离而改变的示例。当眼戴设备100接近标记定位时,对应的引导标记从相对较小的引导标记914a转变到相对较大的引导标记914b。
图9D-9F示出了当在眼戴设备100的视场内时连续地转变(例如,旋转)的附加引导标记916和918以及动态引导标记910。在例示的实施方案中,动态引导标记910是识别物理世界(在这种情况下为碎纸机盒920)中的特征/位置的最终引导标记。
如本文所述,眼戴设备100、移动设备401和服务器系统498的功能中的任何功能可以被体现在一个或多个计算机软件应用或编程指令集中。根据一些示例,“功能”、“应用”、“指令”或“程序”是执行在程序中定义的功能的程序。可采用各种程序设计语言来开发以各种方式结构化的应用中的一个或多个应用,诸如面向对象的程序设计语言(例如,Objective-C、Java或C++)或过程程序设计语言(例如,C或汇编语言)。在特定示例中,第三方应用(例如,由除特定平台的供应商之外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可包括在移动操作系统(诸如IOSTM、ANDROIDTM
Figure BDA0003969385010000241
电话或另一移动操作系统)上运行的移动软件。在该示例中,第三方应用可调用由操作系统提供的API调用,以促进本文所述的功能。
因此,机器可读介质可采取许多形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机设备等中的任何存储设备,诸如可用于实施附图中所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如此类计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内的总线的导线。载波传输介质可采取电信号或电磁信号、或声波或光波的形式,诸如在射频(RF)和红外(IR)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁介质、CD-ROM、DVD或DVD-ROM、任何其他光学介质、穿孔卡片纸带、任何其他具有孔图案的物理存储介质、RAM、PROM和EPROM、FLASH-EPROM、任何其他存储器芯片或盒、传输数据或指令的载波、传输此类载波的电缆或链路、或计算机可以从其中读取程序代码或数据的任何其他介质。许多这些形式的计算机可读介质可参与将一个或多个指令的一个或多个序列承载到处理器以供执行。
除了上文刚刚陈述的,无论是否在权利要求书中陈述,已陈述或说明的内容都不旨在或不应解释为导致任何部件、步骤、特征、对象、益处、优点或等效物献给公众。
应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。
除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量或范围变化多达正负百分之十。
此外,在前述实施例中可看出,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到实施例中,其中每个权利要求作为独立要求保护的主题而独立存在。
虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。

Claims (20)

1.一种用于在环境中引导用户的增强现实引导系统,所述系统包括:
定位检测系统;
显示系统;
眼戴设备,所述眼戴设备包括所述定位检测系统、所述显示系统、处理器和存储器;和
所述存储器中的程序,其中由安装在所述眼戴设备的所述处理器执行所述程序来实现功能,包括用于以下的功能:
利用所述定位检测系统来监视所述眼戴设备在所述环境内的当前定位;
识别在所述当前定位的预定义阈值内的第一标记定位,所述第一标记定位是相对于所述环境而限定的并且是与第一引导标记相关联的;
利用所述定位检测系统来登记所述第一标记定位;
响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成叠层图像,所述叠层图像包括用于在所述第一标记定位处显示的所述第一引导标记;
由所述显示系统呈现所述叠层图像;
识别在所述当前定位的所述预定义阈值内的第二标记定位,所述第二标记定位是相对于所述环境而限定的并且是与第二引导标记相关联的;
利用所述定位检测系统来登记所述第二标记定位;
响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成另一叠层图像,所述另一叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记;以及
由所述显示系统呈现所述另一叠层图像。
2.根据权利要求1所述的系统,其中所述第二引导标记是最终目的地标记,并且所述第二标记定位与所述环境中的物理目的地相关联。
3.根据权利要求2所述的系统,其中所述最终目的地标记是动态图像,并且其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:
监控一个计数器;
在显示系统响应计数器和眼戴设备的当前位置的情况下,生成包括用于在第二标记位置显示的第二引导标记的连续叠加图像,所述第二引导标记在所述接续叠层图像中的相邻图像中具有不同定向。
4.根据权利要求1所述的系统,其中所述另一叠层图像进一步包括用于在所述第一标记定位以及所述第二标记定位处显示的所述第一引导标记。
5.根据权利要求4所述的系统,其中所述第二引导标记具有多个视觉属性,并且其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:
确定所述第二标记定位与所述眼戴设备的所述当前定位之间的距离;
调整响应于所确定距离的多个视觉属性中的至少一个视觉属性;以及
生成,利用响应所述眼戴设备的所述当前定位的所述显示系统,所述另一叠层图像,所述另一叠层图像包括根据确定距离调整的所述第二引导标记。
6.根据权利要求5所述的系统,其中所述至少一个属性包括所述第二引导标记的大小。
7.根据权利要求4所述的系统,其中所述第二引导标记与第一视觉图像相关联并且与第二视觉图像相关联,并且其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:
确定所述第二标记定位与所述眼戴设备的所述当前定位之间的距离;
如果所确定的距离小于第一预定义距离且大于第二预定义距离,则选择所述第一视觉图像;
如果所确定的距离小于所述第二预定义距离,则选择所述第二视觉图像;以及
生成,利用响应所述眼戴设备当前定位的所述显示系统,所述另一叠层图像,所述另一叠层图像包括针对所述第二引导标记的所选择的第一视觉图像或第二视觉图像。
8.根据权利要求4所述的系统,其中由所述处理器执行所述程序进一步将所述眼戴设备配置为执行附加功能,包括用于以下的功能:
识别在所述当前定位的所述预定义阈值内的第三标记定位,所述第三标记定位是相对于所述环境而限定的并且是与第三引导标记相关联的;以及
利用所述定位检测系统来登记所述第三标记定位;
其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成所述另一叠层图像,所述另一叠层图像包括用于在所述第三标记定位处显示的所述第三引导标记以及所述第一引导标记和所述第二引导标记。
9.根据权利要求8所述的系统,其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:
识别所述第一标记定位何时在另一预定义距离内,所述另一预定义距离是更小的预定义距离;
其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成所述另一叠层图像,所述另一叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记和用于在所述第三标记定位处显示的所述第三引导标记,同时抑制所述第一引导标记。
10.根据权利要求1所述的系统,其中所述第一引导标记包括多个视觉属性,并且其中由所述处理器执行所述程序进一步将所述眼戴设备配置为执行附加功能,包括用于以下的功能:
感测邻近所述第一标记定位的环境特性;以及
调整响应所感测特性的所述多个视觉属性中的至少一个视觉属性;
其中用于生成所述另一叠层图像的所述功能包括用于以下的功能:响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成所述另一叠层图像,所述另一叠层图像包括同样响应于所感测的特性而调整的所述第一引导标记。
11.根据权利要求1所述的系统,其中所述显示系统包括:
由所述眼戴设备支撑的透视显示器,用于显示所述第一引导标记和所述第二引导标记。
12.一种用于使用眼戴设备在环境中引导用户的增强现实引导方法,所述眼戴设备具有定位检测系统和显示系统,所述方法包括:
利用所述定位检测系统来监视所述眼戴设备在所述环境内的当前定位;
识别在所述当前定位的预定义阈值内的第一标记定位,所述第一标记定位是相对于所述环境而限定的并且是与第一引导标记相关联的;
利用所述定位检测系统来登记所述第一标记定位;
生成叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述叠层图像包括用于在所述第一标记定位处显示的所述第一引导标记;
由所述显示系统呈现所述叠层图像;
识别在所述当前定位的所述预定义阈值内的第二标记定位,所述第二标记定位是相对于所述环境而限定的并且是与第二引导标记相关联的;
利用所述定位检测系统来登记所述第二标记定位;
生成另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记;以及
由所述显示系统呈现所述另一叠层图像。
13.根据权利要求12所述的方法,其中所述第二引导标记是最终目的地标记,所述第二标记定位与所述环境中的物理目的地相关联,并且所述最终目的地标记是动态图像,并且其中所述生成所述另一叠层图像包括:
监视一个计数器;
生成接续叠层图像,利用响应于所述计数器和所述眼戴设备的所述当前定位的所述显示系统,所述接续叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记,所述第二引导标记在所述接续叠层图像中的相邻图像中具有不同定向。
14.根据权利要求12所述的方法,其中所述另一叠层图像进一步包括用于在所述第一标记定位以及所述第二标记定位处显示的所述第一引导标记,所述第二引导标记具有多个视觉属性,并且所述生成所述另一叠层图像包括:
确定所述第二标记定位与所述眼戴设备的所述当前定位之间的距离;
响应于所确定的距离而调整所述多个视觉属性中的至少一个视觉属性;以及
生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括同样响应于所确定的距离而调整的所述第二引导标记。
15.根据权利要求12所述的方法,其中所述另一叠层图像进一步包括用于在所述第一标记定位以及所述第二标记定位处显示的所述第一引导标记,所述第二引导标记与第一视觉图像相关联并且与第二视觉图像相关联,并且所述生成所述另一叠层图像包括:
确定所述第二标记定位与所述眼戴设备的所述当前定位之间的距离;
如果所确定的距离小于第一预定义距离且大于第二预定义距离,则选择所述第一视觉图像;
如果所确定的距离小于所述第二预定义距离,则选择所述第二视觉图像;以及
生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括针对所述第二引导标记的所选择的第一视觉图像或第二视觉图像。
16.根据权利要求12所述的方法,其中所述另一叠层图像进一步包括用于在所述第一标记定位以及所述第二标记定位处显示的所述第一引导标记,并且其中所述方法进一步包括:
识别在所述当前定位的所述预定义阈值内的第三标记定位,所述第三标记定位是相对于所述环境而限定的并且是与第三引导标记相关联的;以及
利用所述定位检测系统来配准所述第三标记定位;
其中所述生成所述另一叠层图像包括:生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括用于在所述第三标记定位处显示的所述第三引导标记以及所述第一引导标记和所述第二引导标记。
17.根据权利要求16所述的方法,其中所述生成所述另一叠层图像包括:
识别所述第一标记定位何时在另一预定义距离内,所述另一预定义距离是更小的预定义距离;
其中所述生成所述另一叠层图像包括:生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记和用于在所述第三标记定位处显示的所述第三引导标记,同时阻止所述第一引导标记。
18.根据权利要求12所述的方法,其中所述第一引导标记包括多个视觉属性,并且其中所述方法进一步包括:
感测邻近所述第一标记定位的环境特性;以及
调整响应于所感测的特性的所述多个视觉属性中的至少一个视觉属性;
其中所述生成所述另一叠层图像包括:生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括同样响应于所感测的特性而调整的所述第一引导标记。
19.一种存储程序代码的非暂态计算机可读介质,所述程序代码在被具有定位检测系统和显示系统的眼戴设备执行时用于在环境中引导用户,所述程序代码在被执行时运行以使电子处理器执行以下步骤:
利用所述定位检测系统来监视所述眼戴设备在所述环境内的当前定位;
识别在所述当前定位的预定义阈值内的第一标记定位,所述第一标记定位是相对于所述环境而限定的并且是与第一引导标记相关联的;
利用所述定位检测系统来配准所述第一标记定位;
响应于所述眼戴设备的所述当前定位而利用所述显示系统来生成叠层图像,所述叠层图像包括用于在所述第一标记定位处显示的所述第一引导标记;
由所述显示系统呈现所述叠层图像;
识别在所述当前定位的所述预定义阈值内的第二标记定位,所述第二标记定位是相对于所述环境而限定的并且是与第二引导标记相关联的;
利用所述定位检测系统来配准所述第二标记定位;
利用响应于所述眼戴设备当前定位的所述显示系统来生成另一叠层图像,所述另一叠层图像包括用于在所述第二标记定位处显示的所述第二引导标记;以及
由所述显示系统呈现所述另一叠层图像。
20.根据权利要求19所述的存储所述程序代码的非暂态计算机可读介质,其中所述第一引导标记具有多个视觉属性,并且其中所述程序代码在被执行时运行以使电子处理器执行以下另外的步骤:
感测邻近所述第一标记定位的环境特性;以及
调整响应于所感测特性的所述多个视觉属性中的至少一个视觉属性;
其中所述生成所述另一叠层图像包括:生成所述另一叠层图像,利用响应于所述眼戴设备当前定位的所述显示系统,所述另一叠层图像包括同样响应于所感测的特性而调整的所述第一引导标记。
CN202180039088.6A 2020-05-29 2021-05-24 增强现实引导 Pending CN115698909A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/887,333 2020-05-29
US16/887,333 US11302077B2 (en) 2020-05-29 2020-05-29 Augmented reality guidance that generates guidance markers
PCT/US2021/033892 WO2021242688A1 (en) 2020-05-29 2021-05-24 Augmented reality guidance

Publications (1)

Publication Number Publication Date
CN115698909A true CN115698909A (zh) 2023-02-03

Family

ID=76641769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180039088.6A Pending CN115698909A (zh) 2020-05-29 2021-05-24 增强现实引导

Country Status (5)

Country Link
US (3) US11302077B2 (zh)
EP (1) EP4158450A1 (zh)
KR (1) KR20230017849A (zh)
CN (1) CN115698909A (zh)
WO (1) WO2021242688A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11302077B2 (en) * 2020-05-29 2022-04-12 Snap Inc. Augmented reality guidance that generates guidance markers
CN111783660B (zh) * 2020-07-01 2023-11-10 业成科技(成都)有限公司 眼动追踪装置及应用其的电子装置
US20220343534A1 (en) * 2021-04-23 2022-10-27 Google Llc Image based detection of display fit and ophthalmic fit measurements
JP2023003033A (ja) * 2021-06-23 2023-01-11 キヤノン株式会社 電子機器および電子機器の制御方法
EP4364396A1 (en) * 2021-06-30 2024-05-08 Snap Inc. Augmented reality eyewear with x-ray effect
KR20230064636A (ko) * 2021-11-01 2023-05-11 삼성디스플레이 주식회사 증강 현실 제공 장치
US11949527B2 (en) 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat
US12069399B2 (en) 2022-07-07 2024-08-20 Snap Inc. Dynamically switching between RGB and IR capture
US20240045491A1 (en) * 2022-08-05 2024-02-08 Alexander Sourov Medical image overlays for augmented reality experiences
US20240071008A1 (en) * 2022-08-31 2024-02-29 Snap Inc. Generating immersive augmented reality experiences from existing images and videos
US20240112383A1 (en) * 2022-10-04 2024-04-04 Snap Inc. Generating user interfaces in augmented reality environments

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8762041B2 (en) * 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9824384B2 (en) * 2013-01-23 2017-11-21 Wal-Mart Stores, Inc. Techniques for locating an item to purchase in a retail environment
US20140249771A1 (en) * 2013-03-01 2014-09-04 Xue Yang Location estimation using a mobile device
US9858482B2 (en) * 2013-05-28 2018-01-02 Ent. Services Development Corporation Lp Mobile augmented reality for managing enclosed areas
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9361732B2 (en) * 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US10504231B2 (en) 2014-05-21 2019-12-10 Millennium Three Technologies, Inc. Fiducial marker patterns, their automatic detection in images, and applications thereof
EP3748586A3 (en) * 2014-10-09 2020-12-23 Huawei Technologies Co., Ltd. Apparatus and method for generating an augmented reality representation of an acquired image
JP2016122392A (ja) * 2014-12-25 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
US20160282626A1 (en) 2015-03-27 2016-09-29 Osterhout Group, Inc. See-through computer display systems
US9684305B2 (en) * 2015-09-11 2017-06-20 Fuji Xerox Co., Ltd. System and method for mobile robot teleoperation
US10078916B2 (en) * 2016-07-01 2018-09-18 Invia Robotics, Inc. Pick to augmented reality
KR102257181B1 (ko) 2016-09-13 2021-05-27 매직 립, 인코포레이티드 감각 안경류
KR20200060361A (ko) * 2017-09-29 2020-05-29 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
WO2019152916A1 (en) 2018-02-02 2019-08-08 Vehicle Service Group, Llc Augmented reality and wearable technology for vehicle service
WO2020024909A1 (zh) * 2018-08-02 2020-02-06 广东虚拟现实科技有限公司 定位跟踪方法、终端设备及计算机可读取存储介质
CN117433531A (zh) * 2018-08-16 2024-01-23 北京嘀嘀无限科技发展有限公司 将用户导航至目的地的室内导航方法和系统
US10937191B2 (en) * 2018-10-23 2021-03-02 Dell Products, Lp Predictive simultaneous localization and mapping system using prior user session positional information
US10488215B1 (en) * 2018-10-26 2019-11-26 Phiar Technologies, Inc. Augmented reality interface for navigation assistance
CN113196377B (zh) * 2018-12-20 2024-04-12 Ns西日本株式会社 显示光射出装置、平视显示装置、图像显示系统及头盔
US11380011B2 (en) * 2019-04-23 2022-07-05 Kreatar, Llc Marker-based positioning of simulated reality
US11365974B2 (en) * 2019-07-23 2022-06-21 Arm Limited Navigation system
US11704874B2 (en) * 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
US11302077B2 (en) * 2020-05-29 2022-04-12 Snap Inc. Augmented reality guidance that generates guidance markers

Also Published As

Publication number Publication date
EP4158450A1 (en) 2023-04-05
US20220292780A1 (en) 2022-09-15
US11854147B2 (en) 2023-12-26
US20240087237A1 (en) 2024-03-14
WO2021242688A1 (en) 2021-12-02
US20210375048A1 (en) 2021-12-02
US11302077B2 (en) 2022-04-12
KR20230017849A (ko) 2023-02-06

Similar Documents

Publication Publication Date Title
US12008153B2 (en) Interactive augmented reality experiences using positional tracking
KR20230026505A (ko) 객체 조작을 사용한 증강 현실 경험들
KR20230025914A (ko) 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
US11302077B2 (en) Augmented reality guidance that generates guidance markers
CN115735183A (zh) 增强现实眼戴器3d绘画
CN115735178A (zh) 具有对话气泡和翻译的增强现实眼戴器
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
CN115836269A (zh) 增强现实环境增强
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
KR20230073336A (ko) 가상 아이웨어 빔들을 사용한 증강 현실 게이밍
CN115735179A (zh) 增强现实眼戴器与情绪共享
CN115812189A (zh) 用于视觉惯性里程计系统的动态传感器选择

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination