CN117321537A - 眼睛佩戴设备动态功率配置 - Google Patents

眼睛佩戴设备动态功率配置 Download PDF

Info

Publication number
CN117321537A
CN117321537A CN202280035877.7A CN202280035877A CN117321537A CN 117321537 A CN117321537 A CN 117321537A CN 202280035877 A CN202280035877 A CN 202280035877A CN 117321537 A CN117321537 A CN 117321537A
Authority
CN
China
Prior art keywords
camera
operational state
power configuration
eyewear device
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280035877.7A
Other languages
English (en)
Inventor
苏曼特·哈努曼特
伯恩哈德·荣格
马蒂亚斯·卡尔克鲁贝尔
安东·孔德拉坚科
爱德华·李·金官
杰拉尔德·尼勒斯
约翰·詹姆斯·罗伯森
德米特里·龙马
亚历山大·苏罗夫
丹尼尔·沃尔夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN117321537A publication Critical patent/CN117321537A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K7/00Measuring temperature based on the use of electric or magnetic elements directly sensitive to heat ; Power supply therefor, e.g. using thermoelectric elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • G06F1/203Cooling means for portable computers, e.g. for laptops
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • G06F1/206Cooling means comprising thermal management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K2215/00Details concerning sensor power supply
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/041Temperature compensation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Eyeglasses (AREA)

Abstract

用于可穿戴电子设备诸如眼睛佩戴设备中的热管理(例如,缓解)的动态功率配置(例如,减少)的设备与方法。可穿戴电子设备监测其温度,并响应于该温度,将所提供的服务配置为在不同的模式下操作以进行热缓解(例如,以防止过热)。例如,基于温度,可穿戴电子设备调整传感器(例如,打开或关闭相机,改变采样速率或其组合),并调整显示部件(例如,图形处理单元生成图像并且更新视觉显示的调整后的速率)。这使可穿戴电子设备能够在温度过高时消耗更少的功率,以便提供热缓解。

Description

眼睛佩戴设备动态功率配置
相关申请的交叉引用
本申请要求2021年5月17日提交的美国临时申请序列号63/189,483的优先权,其内容通过引用完全并入本文。
技术领域
本公开中阐述的示例涉及增强现实(augmented reality,AR)和可穿戴电子设备诸如眼睛佩戴设备的领域。更特别地,但不作为限制,本公开描述了用于热管理的可穿戴电子设备诸如眼睛佩戴设备的动态功率配置。
背景技术
可穿戴电子设备使用各种传感器来确定其在物理环境内的位置。增强现实(AR)设备、虚拟现实(virtual reality,VR)设备和扩展现实(extended reality,XR)设备在显示器上生成并呈现视觉叠加(visual overlay)以供用户观看。传感器和显示器消耗功率并产生热量。
附图说明
所公开的各种实施方式的特征从参照附图的以下详细描述中将容易理解。在描述和整篇附图的若干个视图中,每个元件都使用附图标记。当存在多个相似元件时,单个附图标记可以被分配给类似元件,其中附加的小写字母指代具体元件。
除非另有指示,否则图中显示的各个元件不按比例绘制。为了清楚起见,各个元件的尺寸可以放大或缩小。这几幅图描绘了一个或多个实施方式,并仅通过示例的方式呈现,而不应被解释为限制性的。附图中包括以下各图:
图1A是适合于在功率模式配置系统中使用的眼睛佩戴设备的示例硬件配置的侧(右)视图;
图1B是图1A的眼睛佩戴设备的右镜角的透视局部剖视图,描绘了右可见光相机和电路板;
图1C是图1A的眼睛佩戴设备的示例硬件配置的侧(左)视图,其显示了左可见光相机;
图1D是图1C的眼睛佩戴设备的左镜角的透视局部剖视图,描绘了左可见光相机和电路板;
图2A和图2B是增强现实产生系统中利用的眼睛佩戴设备的示例硬件配置的后视图;
图3是三维场景、由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像的图形描绘;
图4是包括实施增强现实产生系统和经由各种网络连接到可穿戴电子设备的服务器系统的可穿戴电子设备(例如,眼睛佩戴设备)的示例功率模式配置系统的功能框图;
图5是用于图4的增强现实产生系统的移动设备的示例硬件配置的图形表示;
图6是用户在用于描述增强现实产生系统中的同时定位与地图构建的示例环境中的示意图;
图7是列出了使用多个传感器来确定眼睛佩戴设备在环境内的位置的示例方法中的步骤的流程图;
图8A和图8B是列出了用于热管理的可穿戴电子设备中的动态功率配置的示例方法中的步骤的流程图。
图9A和图9B是描绘可穿戴电子设备中的热管理的曲线图。
具体实施方式
参考包括用于可穿戴电子设备诸如眼睛佩戴设备中的热管理(例如,缓解)的动态功率配置(例如,减少)的方法的示例来描述各种实施方式和细节。可穿戴电子设备监测其温度,并响应于该温度,将所提供的服务配置为在不同的模式下操作以进行热缓解(例如,以防止过热)。这些模式可以包括当温度低于预定范围或水平时的正常操作模式,以及当温度处于或高于预定范围或水平时的降低功率操作模式。例如,基于温度,眼睛佩戴设备调整传感器(例如,打开或关闭相机,改变采样速率或其组合),并调整显示部件(例如,图形处理单元生成图像的速率和更新视觉显示的速率)。这使设备能够在温度过高时消耗更少的功率,以便提供热缓解。
以下详细描述包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开主题及其相关教导的透彻理解的目的,包括了许多细节和示例。然而,相关领域的技术人员可以理解如何在没有这些细节的情况下应用相关教导。所公开主题的各方面不局限于所描述的具体设备、系统和方法,因为相关教导可以以各种各样的方式应用或实践。本文中使用的术语和命名仅是出于描述特定方面的目的,并非旨在是限制性的。一般而言,众所周知的指令实例、协议、结构和技术不一定会详细显示。
如本文中使用的术语“耦合”和“连接”是指包括链路或类似物的任何逻辑连接、光学连接、物理连接或电气连接,通过该连接,由一个系统元件产生或供应的电信号或磁信号被传递到另一个耦合或连接的系统元件。除非另有描述,否则耦合或连接的元件或设备不一定直接相互连接,并可以由中间部件、元件或通信介质分隔开,其中的一个或多个可以修改、操纵或携带电信号。术语“在……上”意味着由一个元件直接支撑,或者由元件通过集成到该元件中或被其支撑的另一个元件间接支撑。
出于示出和讨论的目的,设备和相关联的部件以及结合相机和/或惯性测量单元的任何其他完整设备(诸如附图中任一个所示)的取向仅通过示例的方式给出。在操作中,眼睛佩戴设备可以在适合于眼睛佩戴设备的特定应用的任何其他方向(例如,向上、向下、侧向或任何其他取向)上取向。另外,在本文中使用的范围内,任何方向性术语,诸如前、后、向内、向外、朝向、左、右、横向、纵向、向上、向下、上、下、顶、底、侧、水平、竖直和对角线,仅通过示例的方式使用,并不限制关于如本文中另外描述的那样构造的任何相机和/或惯性测量单元的方向或取向。
在一个示例中,一种眼睛佩戴设备提供增强现实服务。该眼睛佩戴设备包括:镜架,该镜架被配置为佩戴在用户的头部上;由镜架支撑的相机系统,该相机系统包括第一相机和第二相机;由镜架支撑的显示系统;由镜架支撑的温度传感器,该温度传感器被配置为检测眼睛佩戴设备的温度;以及由镜架支撑的电子器件,该电子器件被耦合到相机系统、显示系统和温度传感器,该电子器件具有至少两种功率配置模式,并包括处理系统。处理系统被配置为:运行眼睛佩戴设备的应用服务,该应用服务中的至少一个被配置为使用相机系统或显示系统中的至少一个;监测温度传感器的温度;将监测到的温度与阈值温度进行比较;响应于监测到的温度达到阈值温度,通知至少一个应用服务从至少两种功率配置模式中的第一功率配置模式到至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及在通知至少一个应用服务之后,将电子器件从第一功率配置模式改变到第二功率配置模式。
在另一个示例中,一种用于与提供增强现实服务的眼睛佩戴设备一起使用的方法,该方法包括:在眼睛佩戴设备的电子器件上运行应用服务,至少一个应用服务被配置为使用相机系统或显示系统中的至少一个;监测眼睛佩戴设备的温度;将监测到的温度与阈值温度进行比较;响应于监测到的温度达到阈值温度,通知至少一个应用服务从用于电子器件的至少两种功率配置模式中的第一功率配置模式到用于电子器件的至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及在通知应用服务之后,将电子器件从第一功率配置模式改变到第二功率配置模式。
在另一个示例中,一种非暂时性计算机可读介质,包括用于配置提供增强现实服务的眼睛佩戴设备的指令。该指令在由眼睛佩戴设备的处理系统执行时,将处理系统配置为执行以下功能,包括:在眼睛佩戴设备的电子器件上运行应用服务,至少一个应用服务被配置为使用相机系统或显示系统中的至少一个;监测眼睛佩戴设备的温度;将监测到的温度与阈值温度进行比较;响应于监测到的温度达到阈值温度,通知至少一个应用服务从用于电子器件的至少两种功率配置模式中的第一功率配置模式到用于电子器件的至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及在通知应用服务之后,将电子器件从第一功率配置模式改变到第二功率配置模式。
各示例的额外的目的、优点和新颖特征将在以下描述中部分地阐述,并且在检验以下内容和附图时,对本领域技术人员而言将部分地变得显而易见,或者可以通过示例的生产或操作来获知。本主题的目的和优点可以借助于所附权利要求中特别指出的方法、工具和组合来实现和达到。
现在详细参考附图中示出和下面讨论的示例。
图1A是眼睛佩戴设备100的示例硬件配置的侧(右)视图,该眼睛佩戴设备100包括触摸感应输入设备或触摸板181。如图所示,触摸板181可以具有细微且不易看清的边界;可替选地,该边界可以是清晰可见的,或包括凸起的或以其他方式的触觉边缘,该边缘向用户提供关于触摸板181的位置和边界的反馈。在其他实施方式中,眼睛佩戴设备100可以包括左侧上的触摸板。
触摸板181的表面被配置为检测手指触摸、轻击和手势(例如移动触摸),用于与由眼睛佩戴设备在图像显示器上显示的GUI一起使用,从而允许用户以直观的方式浏览和选择菜单选项,这增强和简化了用户体验。
检测触摸板181上的手指输入可以启用多种功能。例如,在触摸板181上触摸任意位置可以使GUI显示或高亮图像显示器上的项目,该图像显示器可以被投射到光学组件180A、180B中的至少一个上。在触摸板181上双击可以选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可以使项目或图标在特定方向上滑动或滚动;例如,移动至下一个项目、图标、视频、图像、页面或幻灯片。在另一个方向上滑动手指可以在相反的方向上滑动或滚动;例如,移动至上一个项目、图标、视频、图像、页面或幻灯片。触摸板181几乎可以在眼睛佩戴设备100上的任何地方。
在一个示例中,在触摸板181上单击的所识别的手指手势发起对光学组件180A、180B的图像显示器上呈现的图像中的图形用户界面元素的选择或按压。基于所识别的手指手势对光学组件180A、180B的图像显示器上呈现的图像的调整可以是选择或提交光学组件180A、180B的图像显示器上的图形用户界面元素以供进一步显示或执行的主要动作。
如图所示,眼睛佩戴设备100包括右可见光相机114B。如本文中进一步描述的,两个相机114A、114B从两个单独的视点捕获用于场景的图像信息。两个捕获的图像可以用于将三维显示投射到图像显示器上以供用3D眼镜观看。
眼睛佩戴设备100包括具有呈现图像诸如深度图像的图像显示器的右光学组件180B。如图1A和图1B所示,眼睛佩戴设备100包括右可见光相机114B。眼睛佩戴设备100可以包括多个可见光相机114A、114B,其构成无源型三维相机,诸如立体相机,其中的右可见光相机114B位于右镜角110B上。如图1C-图1D所示,眼睛佩戴设备100还包括左可见光相机114A。
左可见光相机114A和右可见光相机114B对可见光范围波长敏感。可见光相机114A、114B中的每一个都具有不同的朝前面向的视场,这些视场是重叠的以使能够生成三维深度图像,例如,右可见光相机114B描绘了右视场111B。一般而言,“视场(field ofview)”是在空间中的特定位置和取向通过相机可见的场景的一部分。视场111A和视场111B具有重叠视场304(图3)。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征不被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A、114B的图像传感器在给定场景的捕获的图像中拾取给定场景的电磁辐射的角度范围或程度。视场可以被表述为视锥的角度大小;即,视角。视角可以水平、竖直或对角线地测量。
在示例中,可见光相机114A、114B具有视角在40°至110°之间(例如大约100°)的视场,并具有480×480像素或更高的分辨率。“覆盖角”描述了可见光相机114A、114B或红外相机410(参见图2A)的透镜能够有效成像的角度范围。典型地,相机透镜产生的像圈(imagecircle)足够大到完全覆盖相机的胶片或传感器,可能包括一些渐晕(vignetting)(例如,与中心相比时,图像朝向边缘变暗)。如果相机透镜的覆盖角没有填满传感器,则像圈将是可见的,典型地朝向边缘具有强渐晕,并且有效视角将受限于覆盖角。
这样的可见光相机114A、114B的示例包括高分辨率互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)图像传感器,以及能够具有640p(例如,640×480像素,总共30万像素)、720p或1080p的分辨率的数字VGA(video graphicarray,视频图形阵列)相机。相机114A、114B可以是卷帘快门相机,其中传感器阵列的各条线顺序曝光,也可以是全局快门相机,其中传感器阵列的所有线同时显露。可以使用可见光相机114A、114B的其他示例,其可以例如捕获高清晰度(high-definition,HD)静态图像并以1642×1642像素(或更高)的分辨率存储它们;或以高帧速率(例如,每秒三十至六十帧或更高)记录高清晰度视频并以1216×1216像素(或更高)的分辨率存储该记录。
眼睛佩戴设备100可以从可见光相机114A、114B捕获图像传感器数据连同地理位置数据,这些数据由图像处理器数字化,以存储在存储器中。可见光相机114A、114B在二维空间域中捕获相应的左原始图像和右原始图像,这些图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平位置的X轴和用于竖直位置的Y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和位置属性(例如,X轴坐标和Y轴坐标)。
为了捕获立体图像用于稍后显示为三维投影,图像处理器412(图4所示)可以被耦合到可见光相机114A、114B,以接收和存储视觉图像信息。图像处理器412或另一个处理器控制可见光相机114A、114B的操作以充当模拟人类双眼视觉的立体相机,并可以将时间戳添加到每幅图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这种体验在包括虚拟现实(VR)、增强现实(AR)和视频游戏的各种情境下都是期望的。
图1B是图1A的眼睛佩戴设备100的右镜角110B的透视横剖面视图,描绘了相机系统的右可见光相机114B和电路板140B。图1C是图1A的眼睛佩戴设备100的示例硬件配置的侧(左)视图,该视图显示了相机系统的左可见相机114A。图1D是图1C的眼睛佩戴设备的左镜角110A的透视横剖面视图,描绘了三维相机的左可见光相机114A和电路板140A。左可见光相机114A的构造和放置基本上与右可见光相机114B相似,除了连接和耦合是在左横向侧170A上以外。
如图1B的示例所示,眼睛佩戴设备100包括右可见光相机114B和电路板140B,该电路板140B可以是柔性印刷电路板(flexible printed circuit,PCB)。右铰链126B将右镜角110B连接到眼睛佩戴设备100的右镜腿125B。在一些示例中,右可见光相机114B、柔性PCB140B或其他电连接器或触点的部件可以位于右镜腿125B或右铰链126B上。
右镜角110B包括镜角体190和镜角帽,镜角帽在图1B的横剖面中省略。设置在右镜角110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于右可见光相机114B、(一个或多个)麦克风、低功率无线电路系统(例如,用于经由BluetoothTM的无线短程网络通信)、高速无线电路系统(例如,用于经由Wi-Fi的无线局域网通信)的控制器电路。
右可见光相机114B被耦合到或设置在柔性PCB 140B上,并由可见光相机盖透镜覆盖,该可见光相机盖透镜通过在镜架105中形成的(一个或多个)开口对准。例如,图2A所示的镜架105的右镜缘107B被连接到右镜角110B,并包括用于可见光相机盖透镜的(一个或多个)开口。镜架105包括被配置为面向外部并远离用户眼睛的前侧。用于可见光相机盖透镜的开口被形成在镜架105的前侧或面向外部的一侧上并穿过该侧。在本示例中,右可见光相机114B具有面向外部的视场111B(如图3所示),其视线或视角与眼睛佩戴设备100的用户的右眼相关。可见光相机盖透镜也可以被粘附到右镜角110B的前侧或面向外部的表面,其中开口被形成有面向外部的覆盖角,但是在不同的向外方向上。该耦合也可以是经由中介部件的间接耦合。
如图1B所示,柔性PCB 140B被设置在右镜角110B内部并被耦合到容纳在右镜角110B中的一个或多个其他部件。尽管显示为被形成在右镜角110B的电路板上,但是右可见光相机114B还可以被形成在左镜角110A、镜腿125A、125B或镜架105的电路板上。
如图1D的示例所示,眼睛佩戴设备100包括左可见光相机114A和电路板140A,该电路板140A可以是柔性印刷电路板(PCB)。左铰链126A将左镜角110A连接到眼睛佩戴设备100的左镜腿125A。在一些示例中,左可见光相机114A、柔性PCB 140A或其他电连接器或触点的部件可以位于左镜腿125A或左铰链126A上。
左镜角110A包括镜角体190和镜角帽,镜角帽在图1D的横剖面中省略。设置在左镜角110A内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于左可见光相机114A、(一个或多个)麦克风、低功率无线电路系统(例如,用于经由BluetoothTM的无线短程网络通信)、高速无线电路系统(例如,用于经由Wi-Fi的无线局域网通信)的控制器电路。
左可见光相机114A被耦合到或设置在柔性PCB 140A上,并由可见光相机盖透镜覆盖,该可见光相机盖透镜通过在镜架105中形成的(一个或多个)开口对准。例如,图2A所示的镜架105的左镜缘107A被连接到左镜角110A,并包括用于可见光相机盖透镜的(一个或多个)开口。镜架105包括被配置为面向外部并远离用户眼睛的前侧。用于可见光相机盖透镜的开口被形成在镜架105的前侧或面向外部的一侧上并穿过该侧。在本示例中,左可见光相机114A具有面向外部的视场111A(如图3所示),其视线或视角与眼睛佩戴设备100的用户的左眼相关。可见光相机盖透镜也可以被粘附到左镜角110A的前侧或面向外部的表面,其中开口被形成有面向外部的覆盖角,但是在不同的向外方向上。该耦合也可以是经由中介部件的间接耦合。
如图1D所示,柔性PCB 140A被设置在左镜角110A内部并被耦合到容纳在左镜角110A中的一个或多个其他部件。尽管显示为被形成在左镜角110A的电路板上,但是左可见光相机114A还可以被形成在右镜角110B、镜腿125A、125B或镜架105的电路板上。
图2A和图2B是包括两种不同类型的图像显示器的眼睛佩戴设备100的示例硬件配置的从后面看的透视图。眼睛佩戴设备100的尺寸和形状是被配置以供用户佩戴的形式;示例中显示的是眼镜的形式。眼睛佩戴设备100还可以采取其他形式,并可以结合其他类型的框架,例如,头套、耳机或头盔。
在眼镜示例中,眼睛佩戴设备100包括镜架105,该镜架105包括左镜缘107A,该左镜缘107A经由适于由用户鼻子支撑的鼻梁架(bridge)106连接到右镜缘107B。左镜缘107A和右镜缘107B包括相应的孔径175A、175B,其保持相应的光学元件180A、180B,诸如透镜和显示器设备。如本文中使用的,术语“透镜”意指包括透明或半透明的玻璃片或塑料片,其具有弯曲和平坦表面使光会聚/发散,或使很少或没有会聚/发散。
尽管显示为具有两个光学元件180A、180B,但是取决于眼睛佩戴设备100的应用或预期用户,眼睛佩戴设备100可以包括其他布置,诸如单个光学元件(或者它可以不包括任何光学组件180A、180B)。如进一步所示,眼睛佩戴设备100包括与镜架105的左横向侧170A相邻的左镜角110A和与镜架105的右横向侧170B相邻的右镜角110B。镜角110A、110B可以在相应侧170A、170B上被集成到镜架105中(如图所示),也可以被实施为在相应侧170A、170B上附接到镜架105的单独部件。可替选地,镜角110A、110B可以被集成到附接到镜架105的镜腿(未示出)中。
在一个示例中,光学组件180A、180B的图像显示器包括集成图像显示器。如图2A所示,每个光学组件180A、180B包括合适的显示器矩阵177,诸如液晶显示器(liquid crystaldisplay,LCD)、有机发光二极管(organic light-emitting diode,OLED)显示器或任何其他这样的显示器。每个光学组件180A、180B还包括一个或多个光学层176,该光学层176可以包括透镜、光学涂层、棱镜、反射镜、波导、光学条和任何组合的其他光学部件。光学层176A、176B、……、176N(在图2A和本文中显示为176A-N)可以包括棱镜,该棱镜具有合适的尺寸和构造,并包括用于从显示器矩阵接收光线的第一表面和用于向用户眼睛发射光线的第二表面。光学层176A-176N的棱镜在左镜缘107A和右镜缘107B中形成的相应孔径175A、175B的全部或至少一部分上方延伸,以允许用户在用户眼睛通过对应的左镜缘107A和右镜缘170B观看时看到棱镜的第二表面。光学层176A-176N的棱镜的第一表面从镜架105面向上,并且显示器矩阵177覆盖在棱镜上,以便由显示器矩阵177发射的光子和光线撞击第一表面。棱镜的尺寸和形状被设计成使得光线在棱镜内折射,并由光学层176A-176N的棱镜的第二表面引导朝向用户眼睛。在这方面,光学层176A-176N的棱镜的第二表面可以是凸面,以将光线引导朝向眼睛的中心。可选地,棱镜的尺寸和形状被设计为放大由显示器矩阵177投射的图像,并且光线行进穿过棱镜,以便从第二表面观看的图像在一个或多个维度上大于从显示器矩阵177发射的图像。
在一个示例中,光学层176A-176N可以包括LCD层,其是透明的(保持透镜打开),除非并直到施加电压使该层不透明(关闭或阻挡透镜)。眼睛佩戴设备100上的图像处理器412可以执行编程以向LCD层施加电压,以便产生主动快门系统,使得眼睛佩戴设备100适合于在被显示为三维投影时观看视觉内容。除LCD以外的技术可以用于主动快门模式,包括响应电压或另一种类型输入的其他类型的反应层。
在另一个示例中,光学组件180A、180B的图像显示器设备包括如图2B所示的投影图像显示器。每个光学组件180A、180B包括激光投影仪150,该激光投影仪150是使用扫描镜或振镜的三色激光投影仪。在操作期间,光源(诸如激光投影仪150)被设置在眼睛佩戴设备100的镜腿125A、125B中的一个中或其上。本示例中的光学组件180B包括一个或多个光学条155A、155B、……、155N(在图2B中显示为155A-N),这些光学条155A-155N被间隔开,并跨过每个光学组件180A、180B的透镜宽度,或跨过透镜的前表面与后表面之间的透镜深度。
在由激光投影仪150投射的光子行进穿过每个光学组件180A、180B的透镜时,光子遇到光学条155A-155N。当特定光子遇到特定光学条时,该光子转向用户的眼睛,或传到下一个光学条。对激光投影仪150的调制和对光学条的调制的组合可以控制具体的光子或光束。在示例中,处理器通过发出机械信号、声学信号或电磁信号来控制光学条155A-155N。尽管显示为具有两个光学组件180A、180B,但是眼睛佩戴设备100可以包括其他布置,诸如单个或三个光学组件,或者取决于眼睛佩戴设备100的应用或预期用户,每个光学组件180A、180B可以具有布置不同的布置。
如图2A和图2B进一步所示,眼睛佩戴设备100包括与镜架105的左横向侧170A相邻的左镜角110A和与镜架105的右横向侧170B相邻的右镜角110B。镜角110A、110B可以在相应横向侧170A、170B上被集成到镜架105中(如图所示),也可以被实施为在相应侧170A、170B上附接到镜架105的单独部件。可替选地,镜角110A、110B可以被集成到附接到镜架105的镜腿125A、125B中。
在另一个示例中,图2B所示的眼睛佩戴设备100可以包括两个投影仪,左投影仪(未示出)和右投影仪150。左光学组件180A可以包括左显示器矩阵(未示出)或左光学条集合(未示出),其被配置为与来自左投影仪的光线相互作用。相似地,右光学组件180B可以包括右显示器矩阵(未示出)或右光学条集合155A、155B、……、155N,其被配置为与来自右投影仪150的光线相互作用。在本示例中,眼睛佩戴设备100包括左显示器和右显示器。
图3是三维场景306、由左可见光相机114A捕获的左原始图像302A和由右可见光相机114B捕获的右原始图像302B的示意图。如图所示,左视场111A可以与右视场111B重叠。重叠视场304表示由两个相机114A、114B捕获的图像部分。术语“重叠(overlapping)”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本重叠”意味着所生成的原始图像或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文中描述的,两个原始图像302A、302B可以被处理为包括时间戳,其允许图像作为三维投影的一部分一起显示。
对于立体图像的捕获,如图3所示,在给定时刻捕获真实场景306的一对原始红、绿和蓝(red,green,and blue,RGB)图像——由左相机114A捕获的左原始图像302A和由右相机114B捕获的右原始图像302B。当(例如,由图像处理器412;图4)处理这对原始图像302A、302B时,生成深度图像。所生成的深度图像可以在眼睛佩戴设备的光学组件180A、180B上、在另一个显示器(例如,移动设备401上的图像显示器580;图5)上或者在屏幕上观看。
所生成的深度图像在三维空间域中,并可以包括三维位置坐标系上的顶点矩阵,该坐标系包括用于水平位置(例如,长度)的X轴、用于竖直位置(例如,高度)的Y轴和用于深度(例如,距离)的Z轴。每个顶点可以包括颜色属性(例如,红色像素光值、绿色像素光值、或蓝色像素光值);位置属性(例如,X位置坐标、Y位置坐标和Z位置坐标);纹理属性;反射率属性;或其组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
在一个示例中,交互式增强现实系统400(图4)包括眼睛佩戴设备100,该眼睛佩戴设备100包括镜架105以及从镜架105的左横向侧170A延伸的左镜腿110A和从镜架105的右横向侧170B延伸的右镜腿125B。眼睛佩戴设备100还可以包括至少两个具有重叠视场的可见光相机114A、114B。在一个示例中,眼睛佩戴设备100包括具有左视场111A的左可见光相机114A,如图3所示的那样。左相机114A被连接到镜架105或左镜腿110A,以从场景306的左侧捕获左原始图像302A。眼睛佩戴设备100还包括具有右视场111B的右可见光相机114B。右相机114B被连接到镜架105或右镜腿125B,以从场景306的右侧捕获右原始图像302B。
图4是具有动态功率配置的示例交互式增强现实系统400的功能框图,该系统400包括经由各种网络495(诸如互联网)连接的可穿戴设备(例如,眼睛佩戴设备100)、移动设备401和服务器系统498。交互式增强现实系统400包括眼睛佩戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。
如图4所示,眼睛佩戴设备100包括相机系统402,该相机系统402具有一个或多个可见光相机114A、114B和图像处理器412。一个或多个可见光相机114A、114B捕获静态图像、视频图像、或静态图像和视频图像两者,如本文中描述的那样。相机114A、114B可以具有对高速电路系统430的直接存储器访问(direct memory access,DMA),并充当立体相机。相机114A、114B可以用于捕获可被渲染成三维(three-dimensional,3D)模型的初始深度图像,该三维模型是红色、绿色和蓝色(RGB)成像场景的纹理映射的图像。设备100还可以包括深度传感器213,其使用红外信号来估计对象相对于设备100的位置。在一些示例中,深度传感器213包括一个或多个红外发射器215和一个或多个红外相机410。
眼睛佩戴设备100还包括显示系统404,其具有图像显示器驱动器442以及每个光学组件180A、180B的两个图像显示器(一个与左侧170A相关联,一个与右侧170B相关联)。眼睛佩戴设备100还包括电子器件406,例如,低功率电路系统420和高速电路系统430。每个光学组件180A、180B的图像显示器用于呈现图像,包括静态图像、视频图像、或静态和视频图像。图像显示器驱动器442被耦合到每个光学组件180A、180B的图像显示器,以便控制图像的显示。
另外地,眼睛佩戴设备100包括温度传感器408和一个或多个扬声器440(例如,一个与眼睛佩戴设备的左侧相关联,另一个与眼睛佩戴设备的右侧相关联)。在一个示例中,温度传感器408包括被定位在眼睛佩戴设备100内与电子器件406相邻的一个或多个热敏电阻。温度传感器可以从单个热敏电阻获得单个温度,或从多个热敏电阻获得聚合温度。扬声器440可以被结合到眼睛佩戴设备100的镜架105、镜腿125或镜角110中。一个或多个扬声器440由音频处理器443在低功率电路系统420、高速电路系统430或两者的控制下驱动。扬声器440用于呈现音频信号,包括例如节拍音轨。音频处理器443被耦合到扬声器440,以便控制声音的呈现。
图4所示的用于眼睛佩戴设备100的部件位于一个或多个电路板上,例如位于镜缘或镜腿中的印刷电路板(PCB)或柔性印刷电路(FPC)。另外地或可替选地,所描绘的部件可以位于眼睛佩戴设备100的镜角、镜架、铰链或鼻梁架中。左可见光相机114A和右可见光相机114B可以包括数字相机元件诸如互补金属-氧化物-半导体(CMOS)图像传感器、电荷耦合器件、透镜、或可以用于捕获数据(包括具有未知对象的场景的静态图像或视频)的任何其他相应的可见光或光捕获元件。
如图4所示,高速电路系统430包括高速处理器432、存储器434和高速无线电路系统436。在本示例中,图像显示器驱动器442被耦合到高速电路系统430,并由高速处理器432操作,以便驱动每个光学组件180A、180B的左图像显示器和右图像显示器。高速处理器432可以是能够管理眼睛佩戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括使用高速无线电路系统436管理到无线局域网(wireless localarea network,WLAN)的高速无线连接437上的高速数据传输所需的处理资源。
在一些示例中,高速处理器432执行操作系统,诸如LINUX操作系统或眼睛佩戴设备100的其他这样的操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责以外,高速处理器432执行眼睛佩戴设备100的软件架构,该软件架构用于管理与高速无线电路系统436的数据传输。在一些示例中,高速无线电路系统436被配置为实施电气与电子工程师协会(Electrical and Electronic Engineers,IEEE)802.11通信标准,本文中也被称为Wi-Fi。在其他示例中,其他高速通信标准也可以由高速无线电路系统436实施。
低功率电路系统420包括低功率处理器422和低功率无线电路系统424。眼睛佩戴设备100的低功率无线电路系统424和高速无线电路系统436可以包括短程收发器(BluetoothTM或蓝牙低能量(Bluetooth Low-Energy,BLE))以及无线广域网、局域网或广域网收发器(例如,蜂窝或Wi-Fi)。移动设备401(包括经由低功率无线连接425和高速无线连接437进行通信的收发器)可以使用眼睛佩戴设备100的架构的细节来实施,网络495的其他元件也可以如此。
存储器434包括能够存储各种数据和应用的任何存储设备,其中除了别的以外,包括由左可见光相机114A、右可见光相机114B、(一个或多个)红外相机410和图像处理器412生成的相机数据,以及由图像显示器驱动器442生成的用于在每个光学组件180A、180B的图像显示器上显示的图像。虽然存储器434被显示为与高速电路系统430集成,但是在其他示例中,存储器434可以是眼睛佩戴设备100的独立的单独元件。在某些这样的示例中,电气路由线路可以提供通过包括高速处理器432的芯片从图像处理器412或低功率处理器422到存储器434的连接。在其他示例中,高速处理器432可以管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读取或写入操作的任何时候启动高速处理器432。
如图4所示,眼睛佩戴设备100的高速处理器432可以被耦合到相机系统(可见光相机114A、114B)、图像显示器驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的CPU 540可以被耦合到相机系统570、移动显示器驱动器582、用户输入层591和存储器540A。
服务器系统498可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如,这些计算设备包括处理器、存储器和网络通信接口,以通过网络495与眼睛佩戴设备100和移动设备401通信。
眼睛佩戴设备100的输出部件包括视觉元件,诸如与如图2A和图2B中描述的每个透镜或光学组件180A、180B相关联的左图像显示器和右图像显示器(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(plasma display panel,PDP)、发光二极管(LED)显示器、投影仪或波导)。眼睛佩戴设备100可以包括面向用户的指示器(例如,LED、扩音器或振动致动器),或面向外部的信号(例如,LED、扩音器)。每个光学组件180A、180B的图像显示器都由图像显示器驱动器442驱动。在一些示例配置中,眼睛佩戴设备100的输出部件还包括额外的指示器,诸如听觉元件(例如,扩音器)、触觉部件(例如,产生触觉反馈的致动器诸如振动马达)和其他信号发生器等。例如,设备100可以包括面向用户的指示器集合和面向外部的信号集合。面向用户的指示器集合被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可以包括被定位成使得用户能看到它的LED显示器,被定位成产生用户能听到的声音的一个或多个扬声器,或提供用户能感觉到的触觉反馈的致动器。面向外部的信号集合被配置为由设备100附近的观察者看到或以其他方式感知到。相似地,设备100可以包括被配置和定位成由观察者感知的LED、扩音器或致动器。
眼睛佩戴设备100的输入部件可以包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、光电键盘、或其他字母数字配置的元件),基于指针的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器、或其他指向工具)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力度或位置和力度的触摸屏或触摸板、或其他触觉配置的元件)、以及音频输入部件(例如,麦克风)等。移动设备401和服务器系统498可以包括字母数字输入部件、基于指针的输入部件、触觉输入部件、音频输入部件和其他输入部件。
在一些示例中,眼睛佩戴设备100包括运动感测部件的集合(被称为惯性测量单元472)。运动感测部件可以是具有微小移动零件(通常小到足以成为微芯片的一部分)的微机电系统(micro-electro-mechanical system,MEMS)。在一些示例配置中,惯性测量单元(inertial measurement unit,IMU)472包括加速度计、陀螺仪和磁力计。加速度计感测设备100相对于三个正交轴(x,y,z)的线性加速度(包括重力加速度)。陀螺仪感测设备100围绕三个旋转轴(俯仰,滚转,偏航)的角速度。加速度计和陀螺仪可以共同提供该设备相对于六个轴(x,y,z,俯仰,滚动,偏航)的位置、取向和运动数据。磁力计(如果存在的话)感测该设备100相对于磁北(magnetic north)的航向。设备100的位置可以由位置传感器诸如GPS单元473、一个或多个用于生成相对位置坐标的收发器、高度传感器或气压计、以及其他取向传感器来确定。这样的定位系统坐标也可以经由低功率无线电路系统424或高速无线电路系统436通过无线连接425、437从移动设备401接收。
IMU 472可以包括数字运动处理器或编程,或者与其协作,该数字运动处理器或编程从各部件收集原始数据,并计算关于设备100的位置、取向和运动的许多有用值。例如,从加速度计收集到的加速度数据可以被积分以获得相对于每个轴(x,y,z)的速度;然后再次积分以获得设备100的位置(在线性坐标x、y和z中)。来自陀螺仪的角速度数据可以被积分以获得设备100的位置(在球坐标中)。用于计算这些有用值的编程可以被存储在存储器434中,并由眼睛佩戴设备100的高速处理器432执行。
可选地,眼睛佩戴设备100可以包括额外的外围传感器,诸如生物识别传感器、专业传感器或与眼睛佩戴设备100集成的显示元件。例如,外围设备元件可以包括任何I/O部件,包括本文中描述的输出部件、运动部件、位置部件或任何其他这样的元件。例如,生物识别传感器可以包括用于检测表情(例如,手部表情、面部表情、声音表情、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、汗液或脑波)、识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)和类似物的部件。
移动设备401可以是智能手机、平板电脑、膝上型计算机、接入点、或能够使用低功率无线连接425和高速无线连接437两者与眼睛佩戴设备100连接的任何其他这样的设备。移动设备401被连接到服务器系统498和网络495。网络495可以包括有线连接和无线连接的任何组合。
如图4所示,交互式增强现实系统400包括通过网络被耦合到眼睛佩戴设备100的计算设备,诸如移动设备401。交互式增强现实系统400包括用于存储指令的存储器和用于执行指令的处理器。由处理器432执行交互式增强现实系统400的指令将眼睛佩戴设备100配置为与移动设备401协作。交互式增强现实系统400可以利用眼睛佩戴设备100的存储器434或移动设备401的存储器元件540A、540B、540C(图5)。另外,交互式增强现实系统400可以利用眼睛佩戴设备100的处理器元件432、422或移动设备401的中央处理单元(centralprocessing unit,CPU)530(图5)。另外,交互式增强现实系统400还可以利用服务器系统498的存储器元件和处理器元件。在这方面,交互式增强现实系统400的存储器和处理功能可以跨眼睛佩戴设备100、移动设备401和服务器系统498共享或分布。
存储器434包括歌曲文件482和虚拟对象484。歌曲文件482包括节奏(例如,节拍音轨)以及可选的音符序列和音符值。音符是表示特定音高或其他乐音的符号。音符值包括相对于节奏来演奏音符的持续时间,并可以包括其他品质诸如相对于其他音符的响度、重音、发音和分节。在一些实施方式中,节奏包括默认值以及用户界面,通过该用户界面,用户可以选择在回放歌曲期间使用的特定节奏。虚拟对象484包括用于识别由相机114捕获的图像中的对象或特征的图像数据。对象可以是物理特征诸如用于在环境内定位眼睛佩戴设备100种使用的已知绘图或物理标记。
另外地,存储器434还包括用于由处理器432执行的功率管理服务450、位置跟踪服务451、平面检测服务452、渲染服务453、过度渲染服务454、显示服务455、(一个或多个)后台服务456和捕获服务457。功率管理服务450通过在至少两种功率配置模式(例如,正常操作模式和低功率模式)之间改变来管理眼睛佩戴设备100的热操作模式。在正常操作模式下,处理资源(例如,相机、图形处理单元、显示器、诸如降噪的进程等)全都是可用的,并以相对较高的帧速率(例如,每秒60帧)操作。在低功率模式下,一个或多个处理资源受到约束(例如,一个相机被启用而另一个被禁用),以相对较低的帧速率(例如,每秒30帧)操作,诸如降噪的进程被关闭,或其组合。
在一个示例中,在正常操作模式下,当电子设备100的温度低于阈值温度(例如,60摄氏度)时,所有服务在提供最佳性能的第一操作状态(例如,正常操作状态)下操作。根据本示例,在低功率模式下,当电子设备的温度达到阈值温度时,功率管理服务450通知一个或多个服务(例如,所有服务)资源正受到约束,并且它们应该转换/改变到在以更少的处理资源提供可接受的性能的第二操作状态(例如,自适应状态)下操作。更少的处理资源导致热缓解,这允许眼睛佩戴设备100运行更长时间且更凉爽。
尽管本文中描述的示例涉及具有两种操作状态的服务,但是服务可以具有两种以上的操作状态,例如,不同的操作状态与不同的阈值温度和资源约束相关联(例如,从以每秒60帧可用的两台相机,步进到以每秒30帧可用的两台相机,步进到以每秒30帧可用的一台相机)。此外,在功率管理服务451的控制下,不同的服务可以在不同的阈值温度下实施不同的操作状态。根据本示例,运行功率管理服务451的处理器432可以利用存储器434中维护的查找表(未示出)来指示哪个服务转换到哪个状态以及何时转换。
在一个示例中,阈值温度是电子器件406附近的眼睛佩戴设备100的内部温度,该温度与眼睛佩戴设备100的表面上的已知热点相关。在示例中,期望保持眼睛佩戴设备100的表面温度低于43摄氏度,这可以对应于例如64摄氏度的内部温度。
位置跟踪服务451确定眼睛佩戴设备在环境内的位置,并且平面检测服务452识别环境内的平面表面。位置跟踪服务451和平面检测服务452可以包括一个或多个跟踪器。在一个示例中,跟踪器可以被分成以下三类:
·使用一台相机,例如,自然特征跟踪器,面部跟踪器等。
·优选使用两台相机(立体相机),但是可以用一台相机操作(性能潜在地下降,例如,用于六自由度跟踪的视觉里程计(visual odometry,VIO))。
·需要两台相机(立体相机),例如,实时深度提取,平面检测。
多个位置跟踪服务和平面检测服务可以同时是活动的。当温度达到阈值温度(例如,64摄氏度)时,可以通过约束资源可用性并指示服务从正常操作状态切换到自适应状态来降低功耗(以及由此的热量产生)以适应约束资源可用性的功率管理服务450,例如,通过在不需要两台相机时禁用其中一个相机(例如,上面的第1类和第2类),降低(一台或多台)相机的帧速率(例如,上面的第1类、第2类和第3类),或其组合。当温度下降至低于另一阈值温度(例如,61摄氏度)时,功率管理服务450可以通过启用两台相机、增加帧速率或其组合来恢复资源可用性。另外,功率管理服务450可以通知服务,由于资源不再受限它们能够切换到正常操作状态。
渲染服务453控制在图形处理单元(graphical processing unit,GPU)上绘制新帧的频率。在正常状态下,高渲染帧速率(例如,每秒60帧)确保动画和过渡对用户而言看起来流畅。在自适应状态下,在热压力期间降低渲染帧速率(例如,降低至每秒30帧),以延长运行时间。
过度渲染服务454实施后期扭曲(late-warping)以减少AR/VR/XR头显中的运动到光子(motion to photon)时延。过度渲染边界规定了有多少在显示视场之外的像素被渲染,以避免在执行后期扭曲之后显示黑色像素(即,尽管后期扭曲,例如由于快速的头部移动,但仍利用完整的显示FOV)。渲染的像素越多,消耗的功率就越多。在正常状态下,显示视场之外相对较大的区域会被渲染。在自适应状态下,显示视场之外的区域会被缩小或消除。
显示服务455在显示器上呈现图像以供用户观看。在正常状态下,由显示系统汲取的电流量被设置为期望的水平,以实现期望的亮度水平。在自适应状态下,电流受到限制(例如,限制到正常状态电流汲取的60%),从而以亮度换取热减少)。另外,诸如降噪的进程在正常状态下是可用的。然而,在自适应状态下,可以关闭一个或多个这样的进程,以降低功耗用于热缓解。例如,可以通过关闭降噪进程(例如,单独地或另外降低FPS)来逐渐降低所显示的图像的质量,以便保持低于热极限。
(一个或多个)后台服务456在后台运行(例如,上传或转码内容),因此典型地其关键性/时间敏感性较低,并可以被推迟直到眼睛佩戴设备100返回到正常操作模式为止。在正常状态下,后台服务456在被调用时不受约束地运行。在自适应状态下,当眼睛佩戴设备处于热压力下时,后台服务456是不同的,并仅在必要时才会运行。
捕获服务457捕获(即,记录)AR体验。在正常状态下,捕获服务457记录AR体验。在自适应状态下,捕捉服务457不记录AR体验,并通知用户他们必须首先让眼睛佩戴设备100冷却。
存储器434还包括用于由处理器432执行的位置检测实用程序460、标记注册实用程序462、定位实用程序464、虚拟对象渲染实用程序466、物理引擎468和预测引擎470。位置检测实用程序460将处理器432配置为例如使用定位实用程序464来确定环境内的位置(地点和取向)。标记注册实用程序462将处理器432配置为注册环境内的标记。标记可以是在环境内具有已知位置的预定义的物理标记,也可以是由处理器432相对于眼睛佩戴设备100正在操作的环境或相对于眼镜本身分配的特定位置。定位实用程序464将处理器432配置为获得定位数据,用于在确定眼睛佩戴设备100、由眼睛佩戴设备呈现的虚拟对象、或其组合的位置中使用。定位数据可以从一系列图像、IMU单元472、GPS单元473或其组合中导出。虚拟对象渲染实用程序466将处理器432配置为在图像显示器驱动器442和图像处理器412的控制下渲染虚拟图像以供图像显示器180显示。物理引擎468将处理器432配置为将物理定律诸如重力和摩擦力应用于虚拟世界,例如,在虚拟游戏棋子之间。预测引擎470将处理器432配置为基于对象诸如眼睛佩戴设备100的当前航向、来自传感器诸如IMU 472的输入、环境的图像或其组合来预测对象的预期移动。
图5是示例移动设备401的高级功能框图。移动设备401包括闪存540A,其存储要由CPU 540执行以实施本文中描述的所有功能或功能子集的编程。
移动设备401可以包括相机570,其包括至少两个可见光相机(具有重叠视场的第一可见光相机和第二可见光相机)或至少一个可见光相机,以及具有基本重叠视场的深度传感器。闪存540A还可以包括经由相机570生成的多个图像或视频。
如图所示,移动设备401包括图像显示器580、控制图像显示器580的移动显示器驱动器582和显示器控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),该用户输入层591被层叠在由图像显示器580使用的屏幕之上或以其他方式集成到该屏幕中。
可以使用的触摸屏型移动设备的示例包括(但不限于)智能手机、个人数字助理(personal digital assistant,PDA)、平板计算机、膝上型计算机或其他便携式设备。然而,触摸屏型设备的结构和操作是作为示例的方式提供的;本文中描述的主题技术并不旨在局限于此。因此,出于该讨论的目的,图5提供了具有用户界面的示例移动设备401的框图图示,该用户界面包括用于接收输入(通过借助于手、触控笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层591和用于显示内容的图像显示器580
如图5所示,移动设备401包括至少一个数字收发器(transceiver,XCVR)510,显示为WWAN XCVR,用于经由广域无线移动通信网络进行数字无线通信。移动设备401还包括额外的数字收发器或模拟收发器,诸如用于短程网络通信(诸如经由NFC、VLC、DECT、ZigBee、BluetoothTM或Wi-Fi)的短程收发器(XCVR)520。例如,短程XCVR 520可以采取任何可用的双向无线局域网(WLAN)收发器的形式,其类型与在无线局域网中实施的一个或多个标准通信协议兼容,诸如IEEE 802.11下的Wi-Fi标准之一。
为了生成用于定位移动设备401的位置坐标,移动设备401可以包括全球定位系统(global positioning system,GPS)接收器。可替选地或另外地,移动设备401还可以利用短程XCVR 520和WWAN XCVR 510中的任一个或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或BluetoothTM的定位系统可以生成非常准确的位置坐标,特别是在结合使用时。这样的位置坐标可以经由XCVR 510、520通过一个或多个网络连接被传送到眼睛佩戴设备。
收发器510、520(即,网络通信接口)符合由现代移动网络利用的各种数字无线通信标准中的一种或多种标准。WWAN收发器510的示例包括(但不限于)被配置为根据码分多址(Code Division Multiple Access,CDMA)和第三代合作伙伴计划(3rd GenerationPartnership Project,3GPP)网络技术(例如,包括但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”)进行操作的收发器。例如,收发器510、520提供信息的双向无线通信,包括数字化音频信号、静态图像和视频信号、用于显示的web页面信息和与web相关的输入,以及去往/来自移动设备401的各种类型的移动消息通信。
移动设备401还包括充当中央处理单元(CPU)的微处理器;如图4中的CPU 540所示。处理器是具有元件的电路,这些元件被结构化和布置为执行一个或多个处理功能,典型地执行各种数据处理功能。尽管可以使用分立逻辑部件,但是示例利用了构成可编程CPU的部件。例如,微处理器包括一个或多个集成电路(integrated circuit,IC)芯片,该集成电路芯片并入了执行CPU功能的电子元件。例如,CPU 540可以基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(Reduced Instruction Set Computing,RISC),正如当今在移动设备和其他便携式电子设备中常用的。当然,处理器电路系统的其他布置可以用于构成CPU 540或智能手机、膝上型计算机和平板电脑中的处理器硬件。
CPU 540用作用于移动设备401的可编程主控制器,通过将移动设备401配置为例如根据由CPU 540可执行的指令或编程来执行各种操作。例如,这样的操作可以包括移动设备的各种通用操作,以及与用于移动设备上的应用的编程相关的操作。尽管处理器可以通过使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行编程来配置的通用处理电路。
移动设备401包括用于存储编程和数据的存储器或存储系统。在示例中,根据需要,存储器系统可以包括闪存540A、随机存取存储器(random-access memory,RAM)540B和其他存储器部件540C。RAM 540B用作由CPU 540处理的指令和数据的短期存储,例如,作为工作数据处理存储器。闪存540A典型地提供长期存储。
因此,在移动设备401的示例中,闪存540A用于存储由CPU 540执行的编程或指令。取决于设备的类型,移动设备401存储并运行移动操作系统,通过该移动操作系统执行特定应用。移动操作系统的示例包括Google Android、Apple iOS(用于iPhone或iPad设备)、Windows Mobile、Amazon Fire OS、RIM BlackBerry OS或类似系统。
眼睛佩戴设备100内的处理器432构建眼睛佩戴设备100周围的环境的地图,确定眼睛佩戴设备在地图环境内的地点,并确定眼睛佩戴设备与地图环境中的一个或多个对象的相对位置。在一个示例中,处理器432使用应用于从一个或多个传感器接收到的数据的同时定位与地图构建(simultaneous localization and mapping,SLAM)算法来构建地图并确定地点和位置信息。在增强现实的情境下,SLAM算法被用于构建和更新环境地图,同时跟踪和更新设备(或用户)在地图环境内的地点。数学解可以使用各种统计方法来近似,诸如粒子滤波、卡尔曼滤波、扩展卡尔曼滤波和协方差交集。
传感器数据包括从相机114A、114B中的一个或两个接收到的图像、从激光测距仪接收到的(一个或多个)距离、从GPS单元473接收到的位置信息、或两个或更多个这样的传感器数据的组合、或从其他传感器提供的在确定位置信息方面有用的数据。
图6描绘了示例环境600,以及对自然特征跟踪(natural feature tracking,NFT;例如,使用SLAM算法的跟踪应用)有用的元素。眼睛佩戴设备100的用户602出现在示例物理环境600中(在图6中,该物理环境是室内房间)。眼睛佩戴设备100的处理器432使用捕获的图像确定其相对于环境600内的一个或多个对象604的位置,使用环境600的坐标系(x,y,z)构建环境600的地图,并确定其在坐标系内的位置。另外,处理器432通过使用与单个对象604a相关联的两个或更多个位置点(location point)(例如,三个位置点606a、606b和606c),或者通过使用与两个或更多个对象604a、604b、604c相关联的一个或多个位置点606,来确定眼睛佩戴设备100在环境内的头部姿态(滚动、俯仰和偏航)。在一个示例中,眼睛佩戴设备100的处理器432在环境600内定位虚拟对象484(诸如图6所示的钥匙),以用于经由图像显示器180进行增强现实观看。
图7是描绘用于在可穿戴设备(例如,眼睛佩戴设备)上进行视觉惯性跟踪(visual-inertial tracking)的方法的流程图700。尽管这些步骤是参考如本文所述的眼睛佩戴设备100来描述的,但是本领域技术人员将从本文的描述中理解针对其他类型的设备所描述的步骤的其他实施方式。另外,可以设想,图7和其他附图所示以及本文所述的一个或多个步骤可以被省略、同时或连续执行、以不同于所示和所述的顺序执行、或者结合额外的步骤执行。
在框702处,眼睛佩戴设备100捕获眼睛佩戴设备100附近的物理环境600的一个或多个输入图像。处理器432可以连续接收来自(一个或多个)可见光相机114的输入图像,并将那些图像存储在存储器434中以进行处理。另外,眼睛佩戴设备100可以捕获来自其他传感器的信息(例如,来自GPS单元473的位置信息,来自IMU 472的取向信息,或来自激光距离传感器的距离信息)。
在框704处,眼睛佩戴设备100将捕获的图像中的对象与存储在图像库中的对象进行比较,以识别匹配。在一些实施方式中,处理器432将捕获的图像存储在存储器434中。已知对象的图像库被存储在虚拟对象数据库484中。
在一个示例中,处理器432被编程为识别预定义的特定对象(例如,挂在墙上已知位置的特定图片604a、另一面墙上的窗户604b、或诸如位于地板上的保险箱604c的对象)。其他传感器数据(诸如GPS数据)可以用于缩小用于在比较中使用的已知对象的数量(例如,仅与通过GPS坐标识别到的房间相关联的图像)。在另一个示例中,处理器432被编程为识别预定义的一般对象(诸如公园内的一棵或多棵树)。
在框706处,眼睛佩戴设备100确定其相对于(一个或多个)对象的位置。处理器432可以通过将所捕获的图像中的两个或更多个点之间的距离(例如,一个对象604上的两个或更多个位置点之间的距离,或两个对象604中的每一个上的位置点606之间的距离)与所识别的对象中的对应点之间的已知距离进行比较和处理,来确定其相对于对象的位置。所捕获的图像的点之间的距离大于所识别的对象的点之间的距离表明,眼睛佩戴设备100比包括所识别的对象的所捕获的图像的成像器更靠近所识别的对象。另一方面,所捕获的图像的点之间的距离小于所识别的对象的点之间的距离表明,眼睛佩戴设备100比包括所识别的对象的所捕获的图像的成像器更远离所识别的对象。通过处理相对距离,处理器432能够确定相对于(一个或多个)对象的位置。可替选地或附加地,其他传感器信息(诸如激光距离传感器信息)也可以用于确定相对于(一个或多个)对象的位置。
在框708处,眼睛佩戴设备100构建眼睛佩戴设备100周围的环境600的地图,并确定其在环境内的位置。在一个示例中,在所识别的对象(框704)具有预定义的坐标系(x,y,z)的情况下,眼睛佩戴设备100的处理器432使用该预定义的坐标系来构建地图,并基于相对于所识别的对象的确定出的位置来确定其在该坐标系内的位置(框706)。在另一个示例中,眼睛佩戴设备使用环境内的永久或半永久对象604(例如,公园内的树或公园长椅)的图像来构建地图。根据本示例,眼睛佩戴设备100可以定义用于环境的坐标系(x’,y’,z’)。
在框710处,眼睛佩戴设备100确定眼睛佩戴设备100在环境内的头部姿态(滚动、俯仰和偏航)。处理器432通过使用一个或多个对象604上的两个或更多个位置点(例如,三个位置点606a、606b和606c),或者通过使用两个或更多个对象604上的一个或多个位置点606来确定头部姿态。使用常规的图像处理算法,处理器432通过将所捕获的图像和已知图像的位置点之间延伸的线的角度和长度进行比较来确定滚动、俯仰和偏航。
在框712处,眼睛佩戴设备100向用户呈现视觉图像。处理器432使用图像处理器412和图像显示器驱动器442在图像显示器180上向用户呈现图像。响应于眼睛佩戴设备100在环境600内的位置,处理器经由图像显示器开发并呈现视觉图像。
在框714处,重复上面参考框706-框712所描述的步骤,以更新眼睛佩戴设备100的位置以及当用户移动经过环境600时由用户602看到的内容。
再次参考图6,在本示例中,这里描述的实施增强现实虚拟指南应用的方法包括与物理对象(例如,挂画604a)相关联的虚拟标记(例如,虚拟标记610a)和与虚拟对象(例如,钥匙608)相关联的虚拟标记。在一个示例中,眼睛佩戴设备100使用与物理对象相关联的标记来确定眼睛佩戴设备100在环境内的位置,并使用与虚拟对象相关联的标记来生成覆盖图像,该覆盖图像在眼睛佩戴设备100的显示器上的虚拟标记位置处呈现环境600中(一个或多个)相关联的虚拟对象608。例如,标记在环境中的位置处注册,以用于在跟踪和更新地图环境中的用户、设备和对象(虚拟对象和物理对象)的位置中使用。标记有时被注册为高对比度物理对象,诸如安装在浅色墙壁上的相对较暗的对象604a,以协助相机和其他传感器完成检测标记的任务。标记可以是预先分配的,或者可以由眼睛佩戴设备100在进入环境时分配。标记还在环境中的位置处注册,以用于在地图环境中的那些位置处呈现虚拟图像中使用。
标记可以用信息编码或以其他方式链接到信息。标记可能包括位置信息、物理代码(诸如条形码或QR码;对用户可见或隐藏),或者其组合。与标记相关联的数据集合被存储在眼睛佩戴设备100的存储器434中。该数据集合包括关于标记610a、标记位置(地点和取向)、一个或多个虚拟对象、或其组合的信息。标记位置可以包括用于一个或多个标记地标616a的三维坐标,诸如图6所示的大致矩形标记610a的角。标记位置可以相对于真实世界地理坐标、标记坐标系、眼睛佩戴设备100的位置或其他坐标系来表示。与标记610a相关联的一个或多个虚拟对象可以包括各种素材中的任何一种,包括静态图像、视频、音频、触觉反馈、可执行应用、交互式用户界面和体验、以及这样的素材的组合或序列。在这种情境下,能够存储在存储器中并且在遇到标记610a或者与所分配的标记相关联时能够被检索的任何类型的内容都可以被归类为虚拟对象。例如,图6所示的钥匙608是在标记位置处显示为静态图像(2D或3D)的虚拟对象。
在一个示例中,标记610a可以在存储器中被注册为位于物理对象604a(例如,图6所示的有框艺术品)附近并与其相关联。在另一个示例中,标记可以在存储器中被注册为相对于眼睛佩戴设备100的特定位置。
图8A和图8B分别是列出了动态功率降低的示例方法中的各步骤的流程图800和820。流程图800的步骤描述了功率管理控制系统的操作(例如,由处理器432实施的功率管理服务450)。流程图820的步骤描述了由功率管理系统控制的服务(例如,服务451-457)的操作。尽管这些步骤是参考如本文所述的眼睛佩戴设备100来描述的,但是本领域技术人员将从本文的描述中理解针对其他类型的移动设备所描述的步骤的其他实施方式。另外,可以设想,图8A和图8B所示以及本文所述的一个或多个步骤可以被省略、同时或连续执行、以不同于所示和所描述的顺序执行、或者结合额外的步骤执行。
图8A是示出用于功率管理(和热缓解)的方法的流程图800。在框802处,眼睛佩戴设备100的电子器件406运行应用服务(例如,服务451-服务457)。在示例中,处理器432运行应用服务450-服务457,其中功率管理服务450向其他服务451-服务457提供指令,用于基于眼睛佩戴设备100的温度(例如,电子器件406的温度)适应眼睛佩戴设备100正在操作的操作模式。
在框804处,功率管理服务450监测眼睛佩戴设备100的温度。在示例中,运行功率管理服务450的处理器432周期性地从温度传感器408接收温度读数(例如,每100ms)。
在框806处,功率管理服务450将监测到的温度与阈值进行比较。在示例中,运行功率管理服务450的处理器432将监测到的温度与存储在存储器434中的阈值温度进行比较。取决于眼睛佩戴设备100正在操作的模式,可以有多个阈值温度。例如,当眼睛佩戴设备处于正常操作模式时,第一阈值(例如,64摄氏度)可以用于确定何时转换到低功率模式(例如,由于过热)。相似地,当眼睛佩戴设备处于低功率操作模式时,第二阈值(例如,60摄氏度)可以用于确定何时从低功率模式转换回正常操作模式(例如,一旦温度已经降低至可接受的水平)。根据本示例,眼睛佩戴设备100可以在正常操作模式和低功率操作模式之间转换,以最大化眼睛佩戴设备在没有过热的情况下能够在正常模式下操作(例如,提供最佳性能)的时间量。
在判定框808处,功率管理服务450确定是否已经达到阈值。在示例中,运行功率管理服务450的处理器432确定是否已经达到阈值(例如,如果眼睛佩戴设备100处于正常操作模式,则使用第一阈值,如果眼睛佩戴设备处于低功率操作模式,则使用第二阈值。如果达到阈值,则处理在框810处进行。如果尚未达到阈值,则处理在框804处进行。
在框810处,功率管理服务450向(一个或多个)其他应用服务451-457通知眼睛佩戴设备100的功率配置模式将要改变。在示例中,运行功率管理服务450的处理器432(例如,经由进程间通信)向(一个或多个)其他应用服务451-457发送通信。
在框812处,功率管理服务450监测定时器。在示例中,运行功率管理服务450的处理器432监测(例如,由处理器432使用运行时间应用维护的)定时器。
在判定框814处,功率管理服务450确定监测到的时间是否已经达到预定义的等待时间。在示例中,运行功率管理服务450的处理器432将监测到的时间与预定义的等待时间(例如,五秒)进行比较。预定义的等待时间被设置为给予其他应用服务451-457(1)当正常状态时——从正常状态转换到自适应状态的时间,因为它们在正常状态期间使用的所有资源可能不再可用,以及(2)当处于自适应状态时——从自适应状态转换到正常状态的时间,因为额外的资源将变得可用。如果达到等待时间,则处理在框816处进行。如果尚未达到等待时间,则处理在框812处进行。
在框816处,功率管理服务450改变眼睛佩戴设备的功率配置模式。在示例中,运行功率管理服务450的处理器432改变眼睛佩戴设备100的功率配置模式。如果眼睛佩戴设备100处于正常操作模式,则处理器432将操作模式改变为低功率操作模式(其中可用资源减少)。如果眼睛佩戴设备100处于低功率操作模式,则处理器432将操作模式改变为正常操作模式(即,其中可用资源增加)。
图8B是示出用于在应用服务(例如,服务451-457之一)的操作状态之间转换的示例方法的流程图820。在本示例中,该服务是跟踪服务,具有第一状态(正常状态)和第二状态(自适应状态),在第一状态下,使用两个相机确定位置变化,在第二状态下,使用一个相机确定位置变化。本领域技术人员将从本文的描述中理解对本示例方法的修改,以与其他应用服务一起使用。
在框822处,电子器件406在第一状态下操作应用服务。在示例中,运行应用服务的处理器432在第一状态(例如,正常状态)下操作应用服务。在第一状态下,应用服务被设置用于相对较高的性能,其被设计为当在正常操作模式(例如,两个相机以每秒60帧操作)下操作时利用眼睛佩戴设备的资源。
在框824处,对于跟踪服务,电子器件406使用第一相机和第二相机两者来确定位置。在示例中,运行跟踪服务的处理器432使用来自用相机系统402的两个相机114A-114B(当眼睛佩戴设备100处于正常操作模式时可用)捕获的图像的数据来确定眼睛佩戴设备100的位置变化。
在框826处,应用服务接收改变的通知。在示例中,应用服务(例如,经由进程间通信)从功率管理服务450接收改变的通知。
在框828处,应用服务转换到第二状态。在示例中,应用服务转换到第二状态(例如,自适应状态),该第二状态被配置为由于眼睛佩戴设备改变到操作的低功率模式而以更少的资源工作。例如,应用服务可以改变为依赖于以较慢的帧速率操作的一个相机来确定位置。
在框830处,电子器件406在第二状态下操作应用服务。在示例中,运行应用服务的处理器432在第二状态(例如,自适应状态)下操作应用服务。在第二状态下,应用服务被设置用于相对较低的性能,其被设计为当在低功率操作模式(例如,一个相机以每秒30帧操作)下操作时利用眼睛佩戴设备的资源。
在框832处,对于跟踪服务,电子器件406使用一个相机来确定位置。在示例中,运行跟踪服务的处理器432使用来自用相机系统402的一个相机114A(当眼睛佩戴设备100处于低功率操作模式时可用)捕获的图像的数据来确定眼睛佩戴设备100的位置变化。
在框834处,应用服务接收改变的通知。在示例中,应用服务(例如,经由进程间通信)从功率管理服务450接收改变的通知,以从第二状态转换回第一状态。
在框836处,当眼睛佩戴设备回到正常操作模式时,随着第二相机恢复在线,电子器件同步第一相机捕获时间和第二相机捕获时间。在示例中,运行跟踪服务的处理器432同步来自相机系统402的第一相机114A和第二相机114B(当眼睛佩戴设备100处于正常操作模式时可用)的数据。
在框838处,应用服务转换回到第一状态。在示例中,由于眼睛佩戴设备改变到正常操作模式,应用服务转换回到被配置为用更多资源工作的第一状态(例如,正常状态)。例如,应用服务可以改变为依赖于以更快的帧速率操作的两个相机来确定位置。
本文中描述的示例的各方面解决了AR眼睛佩戴设备中的热缓解。这样的设备中的热缓解具有以下相互竞争的目标,包括:(1)确保设备不超过某些热极限,(2)最大化AR体验的热运行时间,(3)确保设备能够在过热的情况下尽可能长时间地持续操作,从而最大化响应性(例如,设备不应该达到“关机”热极限,而是禁用某些高功率特征部以避免过度的热量,并对用户表现出响应)。
图9A描绘了示例功率管理曲线图。目标是避免达到“最高温度”阈值(其可以对应于关机极限)。在接近最高温度时,处理资源被减少/节流,以使温度曲线平缓(同时仍然提供足够的资源用于最小可接受水平的服务),从而延长运行时间。节流机制是基于设备的热状态动态实施的,以避免中断前台的用例。
图9B描绘了改变用于立体相机的相机帧速率的效果。如所描绘的,功率消耗(和温度生成)随着帧速率而增加。因此,降低帧速率本身对于热缓解而言就是一种有用的技术。另外,功率消耗(和温度生成)随着更多活动相机而增加。此外,诸如降噪的进程也会增加功率消耗。因此,具有用于眼睛佩戴设备的一种或多种配置(包括降低帧速率,减少活动相机数量,关闭进程(例如,降噪)或其组合)对于热缓解而言是有用的。
当遇到热压力时,取决于用例,眼睛佩戴设备动态地切换成较低功率的相机配置中的一种,并且所有跟踪器被配置为动态地适应(即,它们需要在没有干扰的情况下继续跟踪,因此增强在世界上保持持久)。
本文中描述的任何功能都可以体现在一个或多个计算机软件应用或编程指令的集合中,如本文中描述的那样。根据一些示例,“一个功能”、“多个功能”、“一个应用”、“多个应用”、“一个指令”、“多个指令”或“编程”是执行程序中定义的功能的(一个或多个)程序。可以采用各种编程语言,以创建按各种各样的方式结构化的一个或多个应用,诸如面向对象的编程语言(例如,Objective-C、Java或C++)或过程式编程语言(例如,C或汇编语言)。在具体示例中,第三方应用(例如,由除特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(software development kit,SDK)开发的应用)可以包括在移动操作系统(诸如IOSTM、ANDROIDTMPhone或其他移动操作系统)上运行的移动软件。在本示例中,第三方应用可以调用由操作系统提供的API调用,以促进本文中描述的功能。
因此,机器可读介质可以采取多种形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机设备或类似物中的任何存储设备,诸如可以用于实现如附图所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如这样的计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内总线的导线。载波传输介质可以采取电信号或电磁信号的形式,也可以采取声波或光波的形式,诸如射频(radio frequency,RF)和红外(infrared,IR)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁性介质、CD-ROM、DVD或DVD-ROM、任何其他光学介质、穿孔卡纸带、任何其他带孔图案的物理存储介质、RAM、PROM和EPROM、FLASH-EPROM、任何其他存储芯片或盒式磁带、传输数据或指令的载波、传输这样的载波的电缆或链路、或者计算机可以从中读取编程代码和/或数据的任何其他介质。许多这些形式的计算机可读介质可以涉及将一个或多个指令的一个或多个序列携带到处理器以供执行。
除了上面刚刚陈述的,已经陈述或示出的任何内容都不旨在或不应该被解释为致使将任何部件、步骤、特征、目的、益处、优点或等同物奉献给公众,无论其是否在权利要求中被陈述。
将理解,本文中使用的术语和表述具有如这样的术语和表述相对于其对应的各自探究和研究领域所赋予的普通含义,除非本文中另外已经阐述了其中的具体含义。关系术语(诸如第一和第二等)可以仅用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这样的实体或动作之间的任何实际的这种关系或顺序。术语“包括”、“包含”、“含有”、“涵盖”或其任何其他变型旨在涵盖非排他性的包含,使得包括或包含一系列元素或步骤的过程、方法、物品或装置不仅包括那些元素或步骤,还可以包括未明确列出的或这样的过程、方法、物品或装置固有的其他元素或步骤。在没有进一步约束的情况下,以“一”或“一个”开头的元素并不排除在包括该元素的过程、方法、物品或装置中存在额外的相同元素。
除非另有说明,否则本说明书(包括随后的权利要求)中阐述的任何及所有测量结果、值、额定值、位置、幅值、尺寸和其他规格都是近似的,而不是精确的。这些量旨在具有合理的范围,即与它们所涉及的功能以及它们所属领域的惯例一致。例如,除非另有明确说明,否则参数值或类似值可能与所述量相差多达±10%。
此外,在前面的详细描述中,可以看到,出于精简本公开的目的,各个特征在各种示例中被组合在一起。这种公开的方法不应当被解释为反映这样的意图,即所要求保护的示例要求比每个权利要求中明确陈述的特征更多。相反,正如以下权利要求所反映的,要被保护的主题在于少于任何单个所公开示例的所有特征。因此,以下权利要求由此并入详细描述中,其中每项权利要求作为单独所要求保护的主题独立存在。
尽管前面已经描述了被认为是最佳模式和其他示例的内容,但是可以理解的是,可以在其中进行各种修改,并且本文中公开的主题可以以各种形式和示例实施,并且它们可以应用于众多应用中,本文中仅已经描述了其中的一些应用。以下权利要求旨在要求保护属于本概念的真实范围内的任何及所有修改和变型。

Claims (20)

1.一种眼睛佩戴设备,其提供增强现实服务,所述眼睛佩戴设备包括:
镜架,所述镜架被配置为佩戴在用户的头部上;
由所述镜架支撑的相机系统,所述相机系统包括第一相机和第二相机;
由所述镜架支撑的显示系统;
由所述镜架支撑的温度传感器,所述温度传感器被配置为检测所述眼睛佩戴设备的温度;以及
由所述镜架支撑的电子器件,所述电子器件被耦合到所述相机系统、所述显示系统和所述温度传感器,所述电子器件具有至少两种功率配置模式,并包括处理系统,所述处理系统被配置为:
运行所述眼睛佩戴设备的应用服务,所述应用服务中的至少一个被配置为使用所述相机系统或所述显示系统中的至少一个;
监测所述温度传感器的温度;
将监测到的温度与阈值温度进行比较;
响应于所述监测到的温度达到所述阈值温度,通知至少一个应用服务从所述至少两种功率配置模式中的第一功率配置模式到所述至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及
在通知所述至少一个应用服务之后,将所述电子器件从所述第一功率配置模式改变到所述第二功率配置模式。
2.根据权利要求1所述的眼睛佩戴设备,其中,所述至少一个应用服务包括第一操作状态和第二操作状态,并且其中所述至少一个应用服务响应于所述即将发生的改变的通知而从所述第一操作状态改变到所述第二操作状态。
3.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是位置跟踪服务,所述第一操作状态利用来自所述第一相机和所述第二相机的图像来确定位置,并且所述第二操作状态利用来自所述第一相机而不是所述第二相机的图像来确定位置。
4.根据权利要求3所述的眼睛佩戴设备,所述处理系统还被配置为:
响应于所述监测到的温度下降至所述阈值温度以下,通知所述至少一个应用服务从所述至少两种功率配置模式中的第二功率配置模式到所述至少两种功率配置模式中的第一功率配置模式的另一个即将发生的改变;并且
在通知所述至少一个应用服务之后,将所述电子器件从所述第二功率配置模式改变到所述第一功率配置模式;
其中,当从其中使用来自所述第一相机而不是所述第二相机的图像来确定位置的第二操作状态改变到其中使用来自所述第一相机和所述第二相机的图像来确定位置的第一操作状态时,所述至少一个应用服务协调所述第一相机和所述第二相机的帧捕获时间。
5.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是平面检测服务,所述第一操作状态利用来自以第一帧捕获速率操作的所述第一相机和所述第二相机的图像,并且所述第二操作状态利用来自以第二帧捕获速率操作的所述第一相机和所述第二相机的图像。
6.根据权利要求5所述的眼睛佩戴设备,其中,所述第一帧捕获速率高于所述第二帧捕获速率。
7.根据权利要求2所述的眼睛佩戴设备,其中,所述电子器件包括被耦合到所述显示系统的图形处理单元(GPU),所述至少一个应用服务是渲染服务,所述渲染服务被配置为用GPU渲染图像,所述第一操作状态以第一帧速率渲染图像,并且所述第二操作状态以第二帧速率渲染图像。
8.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是过度渲染边界服务,所述过度渲染边界服务被配置为按像素数渲染所述显示系统的视场之外的图像,所述第一操作状态针对像素数渲染所述视场之外的图像,并且所述第二操作状态减少或消除用于渲染所述视场之外的图像的像素数。
9.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是显示服务,所述显示服务被配置为控制由所述显示系统呈现的图像的亮度,所述第一操作状态具有用于所述显示系统的第一电流极限,并且所述第二操作状态具有用于所述显示系统的第二电流极限,所述第二电流极限低于所述第一电流极限。
10.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是后台服务,所述第一操作状态是其中执行任务的操作状态,并且所述第二操作状态是其中推迟任务的非操作状态。
11.根据权利要求2所述的眼睛佩戴设备,其中,所述至少一个应用服务是捕获服务,所述捕获服务记录AR体验,所述第一操作状态是其中记录所述AR体验的操作状态,所述第二操作状态是其中不记录所述AR体验的非操作状态,并且所述处理系统还被配置为:
当所述捕获服务处于所述第二操作状态时,用所述显示系统呈现AR记录不可用的消息。
12.根据权利要求1所述的眼睛佩戴设备,其中,所述处理系统还被配置为:
在通知所述应用服务从所述第一功率配置模式转换到所述第二功率配置模式之后,等待预定时间段。
13.一种与眼睛佩戴设备一起使用的方法,所述眼睛佩戴设备提供增强现实服务并且包括相机系统、显示系统和电子器件,所述方法包括:
在所述眼睛佩戴设备的电子器件上运行应用服务,所述应用服务中的至少一个被配置为使用所述相机系统或所述显示系统中的至少一个;
监测所述眼睛佩戴设备的温度;
将监测到的温度与阈值温度进行比较;
响应于所述监测到的温度达到所述阈值温度,通知至少一个应用服务从用于所述电子器件的至少两种功率配置模式中的第一功率配置模式到用于所述电子器件的至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及
在通知所述应用服务之后,将所述电子器件从所述第一功率配置模式改变到所述第二功率配置模式。
14.根据权利要求13所述的方法,其中,所述至少一个应用服务包括第一操作状态和第二操作状态,并且其中所述方法还包括:
响应于所述即将发生的改变的通知,从所述第一操作状态改变到所述第二操作状态。
15.根据权利要求14所述的方法,其中,所述至少一个应用服务是位置跟踪服务,并且所述方法还包括:
利用来自所述第一相机和所述第二相机的图像来确定所述第一操作状态下的位置;以及
利用来自所述第一相机而不是所述第二相机的图像来确定所述第二操作状态下的位置。
16.根据权利要求15所述的方法,还包括:
响应于所述监测到的温度下降至所述阈值温度以下,通知所述至少一个应用服务从所述至少两种功率配置模式中的第二功率配置模式到所述至少两种功率配置模式中的第一功率配置模式的另一个即将发生的改变;
在通知所述至少一个应用服务之后,将所述电子器件从所述第二功率配置模式改变到所述第一功率配置模式;
当从其中使用来自所述第一相机而不是所述第二相机的图像来确定位置的第二操作状态改变到其中使用来自所述第一相机和所述第二相机的图像来确定位置的第一操作状态时,协调所述第一相机和所述第二相机的帧捕获时间。
17.根据权利要求14所述的方法,其中,所述至少一个应用服务是平面检测服务,所述第一操作状态利用来自以第一帧捕获速率操作的所述第一相机和所述第二相机的图像,并且所述第二操作状态利用来自以第二帧捕获速率操作的所述第一相机和所述第二相机的图像。
18.根据权利要求14所述的方法,其中,所述电子器件包括被耦合到所述显示系统的图形处理单元(GPU),所述至少一个应用服务是渲染服务,所述渲染服务被配置为用GPU渲染图像,所述第一操作状态以第一帧速率渲染图像,并且所述第二操作状态以第二帧速率渲染图像。
19.根据权利要求14所述的方法,其中,所述至少一个应用服务是捕获服务,所述捕获服务记录AR体验,所述第一操作状态是其中记录所述AR体验的操作状态,所述第二操作状态是其中不记录所述AR体验的非操作状态,并且所述方法还包括:
当所述捕获服务处于所述第二操作状态时,用所述显示系统呈现AR记录不可用的消息。
20.一种非暂时性计算机可读介质,包括用于配置提供增强现实服务的眼睛佩戴设备的指令,所述眼睛佩戴设备包括相机系统、显示系统和电子器件,所述指令在由所述眼睛佩戴设备的处理系统执行时,将所述处理系统配置为执行以下功能,包括:
在所述眼睛佩戴设备的电子器件上运行应用服务,所述应用服务中的至少一个被配置为使用所述相机系统或所述显示系统中的至少一个;
监测所述眼睛佩戴设备的温度;
将监测到的温度与阈值温度进行比较;
响应于所述监测到的温度达到所述阈值温度,通知至少一个应用服务从用于所述电子器件的至少两种功率配置模式中的第一功率配置模式到用于所述电子器件的至少两种功率配置模式中的第二功率配置模式的即将发生的改变;以及
在通知所述应用服务之后,将所述电子器件从所述第一功率配置模式改变到所述第二功率配置模式。
CN202280035877.7A 2021-05-17 2022-05-09 眼睛佩戴设备动态功率配置 Pending CN117321537A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163189483P 2021-05-17 2021-05-17
US63/189,483 2021-05-17
PCT/US2022/028295 WO2022245564A1 (en) 2021-05-17 2022-05-09 Eyewear device dynamic power configuration

Publications (1)

Publication Number Publication Date
CN117321537A true CN117321537A (zh) 2023-12-29

Family

ID=82058459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280035877.7A Pending CN117321537A (zh) 2021-05-17 2022-05-09 眼睛佩戴设备动态功率配置

Country Status (5)

Country Link
US (2) US11719939B2 (zh)
EP (1) EP4341774A1 (zh)
KR (1) KR20240009975A (zh)
CN (1) CN117321537A (zh)
WO (1) WO2022245564A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240009975A (ko) * 2021-05-17 2024-01-23 스냅 인코포레이티드 아이웨어 디바이스 동적 전력 구성
US20220382056A1 (en) * 2021-05-28 2022-12-01 Microsoft Technology Licensing, Llc SYSTEMS AND METHODS FOR POWER EFFICIENT IMAGE ACQUISITION USING SINGLE PHOTON AVALANCHE DIODES (SPADs)
US20230222692A1 (en) * 2022-01-07 2023-07-13 Johnson Controls Tyco IP Holdings LLP Systems and methods for sharing analytical resources in a camera network

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5944829A (en) * 1996-09-30 1999-08-31 Intel Corporation Adjusting software characteristics by user interface based upon battery level and the amount of time the user wants the battery to last
DE60321392D1 (de) * 2003-01-31 2008-07-10 Nokia Corp Ausgangsleistungsregelung für aufwärtsverbindungen mit mehreren zeitschlitzen
JP4832014B2 (ja) * 2004-07-12 2011-12-07 株式会社リコー 情報処理装置、電力モード管理方法及び電力モード管理プログラム
US20110249022A1 (en) * 2010-04-08 2011-10-13 Rajesh Poornachandran Techniques for managing power use
KR101967281B1 (ko) * 2015-01-07 2019-04-09 페이스북, 인크. 동적 카메라 또는 광의 동작
US10697822B2 (en) * 2017-01-31 2020-06-30 ProAxion, Inc. Devices, methods and computer program products providing multi-axis vibrational measurement with predictive analysis
US20180222391A1 (en) * 2017-02-03 2018-08-09 Da Xiang CHEN Multi-function, Network Linked Smart Rearview Mirror
US11032357B2 (en) * 2017-03-30 2021-06-08 Intel Corporation Data processing offload
US20180329465A1 (en) 2017-05-11 2018-11-15 Qualcomm Incorporated System and method for intelligent adjustment of an immersive multimedia workload in a portable computing device
US10216236B1 (en) 2017-08-31 2019-02-26 Snap Inc. Systems and methods for temperature management in wearable devices
US10817307B1 (en) 2017-12-20 2020-10-27 Apple Inc. API behavior modification based on power source health
CN109582141B (zh) * 2018-11-23 2022-05-10 华为技术有限公司 根据眼球焦点控制显示屏的方法和头戴电子设备
CN110221432B (zh) * 2019-03-29 2021-07-16 华为技术有限公司 头戴式显示器的图像显示方法及设备
WO2021014205A1 (ru) * 2019-07-25 2021-01-28 Каиргали Мукашевич ДУСАЛИЕВ Термоэлектрический генератор
KR20240009975A (ko) * 2021-05-17 2024-01-23 스냅 인코포레이티드 아이웨어 디바이스 동적 전력 구성

Also Published As

Publication number Publication date
US20230350206A1 (en) 2023-11-02
US20220365348A1 (en) 2022-11-17
EP4341774A1 (en) 2024-03-27
KR20240009975A (ko) 2024-01-23
US11719939B2 (en) 2023-08-08
WO2022245564A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
KR20230026505A (ko) 객체 조작을 사용한 증강 현실 경험들
KR20230025914A (ko) 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
US11520399B2 (en) Interactive augmented reality experiences using positional tracking
KR20230017849A (ko) 증강 현실 안내
CN117321537A (zh) 眼睛佩戴设备动态功率配置
KR20230025909A (ko) 증강 현실 안경류 3d 페인팅
CN115735178A (zh) 具有对话气泡和翻译的增强现实眼戴器
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
KR20230079155A (ko) 3d 프레임들을 갖는 가상 장면을 포함하는 아이웨어
CN115836269A (zh) 增强现实环境增强
US20240004197A1 (en) Dynamic sensor selection for visual inertial odometry systems
CN115735179A (zh) 增强现实眼戴器与情绪共享
CN117581147A (zh) 具有x射线效应的增强现实眼镜
KR20230073336A (ko) 가상 아이웨어 빔들을 사용한 증강 현실 게이밍
CN116324679A (zh) 上下文相关的眼戴器遥控器
CN117501702A (zh) 具有动态转码节流的设备
EP4352966A1 (en) Device with dynamic transcode throttling
KR20230079156A (ko) 컨텍스트-기반 전송 기능을 갖는 이미지 캡처 아이웨어

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination