CN111913568A - 与配置显示设备相关的技术 - Google Patents
与配置显示设备相关的技术 Download PDFInfo
- Publication number
- CN111913568A CN111913568A CN202010378684.4A CN202010378684A CN111913568A CN 111913568 A CN111913568 A CN 111913568A CN 202010378684 A CN202010378684 A CN 202010378684A CN 111913568 A CN111913568 A CN 111913568A
- Authority
- CN
- China
- Prior art keywords
- display device
- mounted display
- head mounted
- face
- examples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本公开描述了与配置显示设备相关的技术。例如,一种方法包括接收对应于脸部的至少一部分的传感器数据。所述方法还包括使用所述传感器数据识别所述脸部的特征。所述方法还包括基于所述特征识别与所述显示设备相关联的配置参数。所述方法还包括输出用于更改所述显示设备与所述脸部的贴合性的所述配置参数。
Description
技术领域
本申请整体涉及显示设备,并且更具体地涉及与配置此类显示设备相关的技术。
背景技术
显示设备(例如,头戴式显示器(HMD)设备)被设计来向正使用此类设备的用户提供内容。随着这些设备使用更长的时间段,显示设备的个性化配置变得越来越重要。
发明内容
本公开描述了与配置显示设备以增强显示设备与人的贴合性相关的技术。根据一些示例,描述了一种与配置头戴式显示设备相关的方法。该方法包括:接收对应于脸部的至少一部分的传感器数据;使用传感器数据识别脸部的特征;基于该特征识别与头戴式显示设备相关联的配置参数;以及输出用于更改头戴式显示设备与脸部的贴合性的配置参数。
在一些示例中,配置参数是对头戴式显示设备的调整的推荐。在一些示例中,配置参数是与头戴式显示设备相关联的物理部件的尺寸、形状或型号。
在一些示例中,该方法还包括输出用于更改头戴式显示设备的软件部件的第二配置参数。在一些示例中,软件部件是头戴式显示设备的显示器的亮度。
在一些示例中,基于脸部的多个特征来识别配置参数。在一些示例中,多个特征包括以下至少一项或多项:耳朵相对于脸部的另一特征的位置、头尺寸、头形状、头戴式显示设备的硬件的配置参数、脸部的鼻子的属性、脸部的一个或多个颊的属性、脸部的一只或两只眼睛的属性或脸部特征(例如,前额、耳朵、下巴、皮肤等)的属性。在一些示例中,基于脸部的前额相对于脸部的一只或两只眼睛的深度或第一人体测量脸部界标(例如,脸部的颊骨)相对于一个或多个其他人体测量脸部界标的位置来识别配置参数。
在一些示例中,输出配置参数使得头戴式显示设备更改头戴式显示设备的硬件部件的尺寸。在一些示例中,头戴式显示设备包括用于输出计算机生成的现实内容的显示器。在一些示例中,脸部的特征对应于脸部的拓扑结构。
在一些示例中,该方法还包括:识别耦接到头戴式显示设备的当前物理部件;以及根据确定当前物理部件未被配置为与配置参数一致,显示将当前物理部件替换为被配置为与配置参数一致的不同物理部件的推荐。在一些示例中,当前物理部件是可替换的衬垫。
在一些示例中,当前物理部件包括用于将当前物理部件的一个或多个特性传送到头戴式显示设备的部件。在一些示例中,基于一个或多个特性来识别当前物理部件。
在一些示例中,该方法还包括:在接收到传感器数据之后,接收第二传感器数据;基于第二传感器数据识别与头戴式显示设备相关联的细化配置参数;以及输出用于更改头戴式显示设备与脸部的贴合性的细化配置参数。在一些示例中,传感器数据为第一类型,并且第二传感器数据为不同于第一类型的第二类型。在一些示例中,第二传感器数据对应于头戴式显示设备的使用。在一些示例中,由头戴式显示设备的传感器捕获传感器数据。在一些示例中,由不同于头戴式显示设备的计算设备的传感器捕获传感器数据。在一些示例中,传感器为图像传感器、深度传感器或温度传感器。
在一些示例中,该方法还包括:由计算设备的应用程序接收捕获一个或多个图像的请求;响应于该请求,由计算设备的图像传感器(例如,面向内(有时称为面向用户或面向后)或面向外(有时称为面向前)的图像传感器)捕获图像;以及由应用程序显示头戴式显示设备的物理部件的表示。在一些示例中,传感器数据包括图像。在一些示例中,基于配置参数来识别物理部件。
在一些示例中,该方法还包括响应于接收到对与物理部件相关联的示能表示的用户选择,由计算设备发送对物理部件的请求。
在一些示例中,该方法还包括:显示与头戴式显示设备相关联的物理部件的多个表示;接收对对应于多个物理部件中的一个物理部件的示能表示的选择;发送对物理部件的请求;以及在发送该请求之后,接收对购买物理部件的选择。在一些示例中,多个表示中的每一个都对应于头戴式显示设备的相同部分。
根据一些示例,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于进行以下操作的指令:接收对应于脸部的至少一部分的传感器数据;使用传感器数据识别脸部的特征;基于该特征识别与头戴式显示设备相关联的配置参数;以及输出用于更改头戴式显示设备与脸部的贴合性的配置参数。
根据一些示例,描述了一种暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于进行以下操作的指令:接收对应于脸部的至少一部分的传感器数据;使用传感器数据识别脸部的特征;基于该特征识别与头戴式显示设备相关联的配置参数;以及输出用于更改头戴式显示设备与脸部的贴合性的配置参数。
根据一些示例,描述了一种电子设备。该电子设备包括一个或多个处理器和存储器,该存储器存储被配置为由一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于进行以下操作的指令:接收对应于脸部的至少一部分的传感器数据;使用传感器数据识别脸部的特征;基于该特征识别与头戴式显示设备相关联的配置参数;以及输出用于更改头戴式显示设备与脸部的贴合性的配置参数。
根据一些示例,描述了一种电子设备。该电子设备包括:用于接收对应于脸部的至少一部分的传感器数据的装置;用于使用传感器数据识别脸部的特征的装置;用于基于该特征识别与头戴式显示设备相关联的配置参数的装置;以及用于输出用于更改头戴式显示设备与脸部的贴合性的配置参数的装置。此外,上述的各个示例可以进行组合。
附图说明
图1A至图1B示出了用于各种计算机生成的包括虚拟现实和混合现实的现实技术的示例性系统。
图2A示出了根据本公开的一些示例的头戴式显示设备的前视图的示例。
图2B示出了根据本公开的一些示例的头戴式显示设备的后视图的示例。
图3是根据本公开的一些示例的示出了一种与配置头戴式显示设备相关的方法的流程图。
图4A至图4C示出了根据本公开的一些示例的人使用其设备获得头戴式显示设备的体验。
图5A至图5B示出了根据本公开的一些示例的人使用另一人的设备购买头戴式显示设备的体验。
图6示出了根据本公开的一些示例的在头戴式设备上正输出的硬件推荐的示例。
图7示出了根据本公开的一些示例的在头戴式设备上正输出的软件推荐的示例。
附图中所描绘的示例仅是示例性的。本领域技术人员将容易从下面的讨论认识到,可在不脱离本文描述的原理的情况下采用本文示出的结构和方法的替代示例。
具体实施方式
以下描述阐述了具体配置、参数等。然而,应当认识到,此类描述并非意在限制本公开,而是作为对示例性示例的描述来提供。
本公开描述了电子系统以及与各种计算机生成的现实技术有关的用于使用此类系统的技术的各种示例,这些计算机生成的现实技术包括虚拟现实和混合现实(其结合了来自物理环境的感官输入)。
物理环境(或真实环境)是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品(或物理对象或真实对象),诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
相反,计算机生成现实(CGR)环境是指人们经由电子系统感知和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,音频对象创建3D或空间音频环境,3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实(VR)环境(虚拟环境)是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置成在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置成接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个示例中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
图1A和图1B描绘了用于各种计算机生成的现实技术的示例性系统100,这些技术包括虚拟现实和混合现实。
在一些示例中,如图1A所示,系统100包括设备100a。设备100a包括各种部件,诸如一个或多个处理器102、一个或多个RF电路104、一个或多个存储器106、一个或多个图像传感器108、一个或多个取向传感器110、一个或多个麦克风112、一个或多个位置传感器116、一个或多个扬声器118、一个或多个显示器120和一个或多个触敏表面122。这些部件任选地通过设备100a的一个或多个通信总线150进行通信。
在一些示例中,系统100的元件在基站设备(例如,计算设备,诸如远程服务器、移动设备或膝上型计算机)中实现,并且系统100的其他元件在设计成由用户佩戴的头戴式显示器(HMD)设备中实现,其中HMD设备与基站设备通信。在一些示例中,设备100a在基站设备或HMD设备中实现。
如图1B所示,在一些示例中,系统100包括两个(或更多个)通信中的设备,诸如通过有线连接或无线连接。第一设备100b(例如,基站设备)包括一个或多个处理器102、一个或多个RF电路104和一个或多个存储器106。这些部件可选地通过设备100b的一个或多个通信总线150进行通信。第二设备100c(例如,头戴式设备)包括各种部件,诸如一个或多个处理器102、一个或多个RF电路104、一个或多个存储器106、一个或多个图像传感器108、一个或多个取向传感器110、一个或多个麦克风112、一个或多个位置传感器116、一个或多个扬声器118、一个或多个显示器120和一个或多个触敏表面122。这些部件可选地通过设备100c的一个或多个通信总线150进行通信。
在一些示例中,系统100为移动设备。在一些示例中,系统100为头戴式显示器(HMD)设备。在一些示例中,设备100为可穿戴HUD设备。
系统100包括一个或多个处理器102和一个或多个存储器106。一个或多个处理器102包括一个或多个通用处理器、一个或多个图形处理器、和/或一个或多个数字信号处理器。在一些示例中,存储器106是存储计算机可读指令的一个或多个非暂态计算机可读存储介质(例如,闪存存储器,随机存取存储器),所述计算机可读指令被配置为由处理器102执行以执行下述技术。
系统100包括一个或多个RF电路104。一个或多个RF电路104可选地包括用于与电子设备、网络(诸如互联网、内联网)和/或无线网络(诸如蜂窝网络和无线局域网(LAN))通信的电路。一个或多个RF电路104可选地包括用于使用近场通信和/或短程通信(诸如)进行通信的电路。
系统100包括一个或多个显示器120。在一些示例中,显示器120包括第一显示器(例如,左眼显示器面板)和第二显示器(例如,右眼显示器面板),每个显示器用于向用户的相应眼睛显示图像。对应的图像同时显示在第一显示器和第二显示器上。可选地,对应的图像包括来自不同视点的相同虚拟对象和/或相同物理对象的表示,从而产生视差效应,该视差效应向用户提供显示器上对象的立体感效应。在一些示例中,显示器120包括单个显示器。对于用户的每只眼睛,对应的图像同时显示在单个显示器的第一区域和第二区域上。可选地,对应的图像包括来自不同视点的相同虚拟对象和/或相同物理对象的表示,从而产生视差效应,该视差效应向用户提供单个显示器上对象的立体感效应。
在一些示例中,系统100包括用于接收用户输入的触敏表面122,诸如轻击输入和轻扫输入。在一些示例中,一个或多个显示器120和一个或多个触敏表面122形成一个或多个触敏显示器。
系统100包括一个或多个图像传感器108。图像传感器108可选地包括一个或多个可见光图像传感器(诸如电荷耦合器件(CCD)传感器)和/或可操作以从真实环境获得物理对象的图像的互补金属氧化物半导体(CMOS)传感器。图像传感器还可选地包括一个或多个红外(IR)传感器,诸如无源IR传感器或有源IR传感器,用于检测来自真实环境的红外光。例如,有源IR传感器包括IR发射器,诸如IR点发射器,用于将红外光发射到真实环境中。图像传感器108还可选地包括一个或多个事件相机,这些事件相机被配置为捕获真实环境中的物理对象的移动。图像传感器108还可选地包括一个或多个深度传感器,这些深度传感器被配置为检测物理对象与系统100的距离。在一些示例中,系统100组合使用CCD传感器、事件相机和深度传感器来检测系统100周围的物理环境。在一些示例中,一个或多个图像传感器108包括第一图像传感器和第二图像传感器。第一图像传感器和第二图像传感器可选地被配置为从两个不同的视角捕获真实环境中的物理对象的图像。在一些示例中,系统100使用一个或多个图像传感器108来接收用户输入,诸如手势。在一些示例中,系统100使用图像传感器108来检测系统100和/或显示器120在真实环境中的位置和取向。例如,系统100使用图像传感器108来跟踪显示器120相对于真实环境中的一个或多个固定对象的位置和取向。
在一些示例中,系统100包括麦克风112。系统100使用麦克风112来检测来自用户和/或用户的真实环境的声音。在一些示例中,麦克风112包括麦克风阵列(包括多个麦克风),其任选地串联操作,以便识别环境噪声或在真实环境的空间中定位声源。
系统100包括用于检测系统100和/或一个或多个显示器120的取向和/或移动的一个或多个取向传感器110。例如,系统100使用取向传感器110来跟踪系统100和/或显示器120的位置和/或取向的变化,诸如关于真实环境中的物理对象。一个或多个取向传感器110可选地包括一个或多个陀螺仪和/或一个或多个加速度计。
如以上简要讨论的,本公开描述了与配置显示设备(例如,可穿戴显示设备)以增强显示设备在人身上的贴合性相关的技术。该配置任选地基于人的图像。此类技术可在不同场景中实现,每种场景都可能涉及不同的步骤。
例如,第一场景可发生在人的家中。在此场景中,与配置显示设备相关的过程可包括人导航到在其移动设备上执行的应用程序,该应用程序对应于显示设备。该应用程序被配置为允许人捕获其脸部的图像。基于该图像,在脸部中识别一个或多个界标。然后,使用一个或多个界标来确定对显示设备的配置推荐。该配置推荐可包括对显示设备的硬件部件或软件设置的识别,诸如衬垫尺寸或亮度设置。
第二场景可同样发生在人的家中。在此场景中,与配置显示设备相关的过程可包括人戴上显示设备。在显示设备初始戴在人身上的时间点之前、期间或之后的某个点,显示设备捕获人的脸部的图像。基于该图像,显示设备可输出推荐(如上所述)或使得显示设备的部件(例如,可调衬垫)发生变化以改善显示设备在人身上的贴合性。
第三场景可发生在商户位置处。在此场景中,与配置显示设备相关的过程可包括商户位置处的信息亭接收脸部的图像。该图像用于为显示设备的贴合脸部的配置提供一个或多个推荐。可将该一个或多个推荐显示给人,或带给人,让他自己尝试。
为了讨论本公开中所描述的技术,将参考头戴式显示设备。应当认识到,可使用其他类型的显示设备。
图2A示出了头戴式显示设备200的前视图。头戴式显示设备200包括可被修改以更改头戴式显示设备200的贴合性的若干物理部件。虽然以下将参考图2A至图2B讨论特定部件,但应当认识到,可配置比所讨论的更多或更少的部件和/或不同的部件。下面的讨论仅旨在提供示例。
头戴式显示设备200包括前壳体210。在一些示例中,前壳体210为透镜,其至少部分地透明,使得人可透视前壳体210。在其他示例中,前壳体210是不透明的,以防止人透视前壳体210。前壳体210可以多种方式配置,包括尺寸、形状、颜色、透明度、重量、材料、厚度等。
头戴式显示设备200包括左壳体220、顶壳体230和右壳体240(称为侧壳体)。侧壳体中的每一个都联接到前壳体210并且至少部分地垂直于前壳体210延伸。在一些示例中,侧壳体中的每一个都可以为与前壳体210相同或不同的材料。例如,前壳体210可为玻璃,而侧壳体可为塑料。类似于前壳体210,侧壳体中的每一个都可以多种方式配置,包括尺寸、形状、颜色、透明度、重量、材料、厚度等。
头戴式显示设备200包括多个衬垫(例如,中心衬垫250、左衬垫260、右衬垫270和鼻衬垫280)。衬垫中的一些(例如,中心衬垫250、左衬垫260和右衬垫270)被示出为联接到侧壳体。另一个衬垫(例如,鼻衬垫280)被示出为联接到前壳体210。应当认识到,此类联接可不同于所示(例如,中心衬垫250可联接到前壳体210或鼻衬垫280可联接到侧壳体)。衬垫可以多种方式配置,包括尺寸、形状、颜色、重量、材料、厚度等。
图2B示出了头戴式显示设备200的后视图。后视图示出了人在戴上头戴式显示设备200时将具有的视图。
后视图示出头戴式显示设备200包括左下衬垫262和右下衬垫272。后视图还示出头戴式显示设备200包括显示屏290。虽然被描绘为单个屏幕,但应当认识到,显示屏290可以是不同的(例如,分成多个屏幕,一只眼睛一个屏幕)。
如图2B所描绘,头戴式显示设备200包括捕获设备292(例如,图像传感器)。捕获设备292可用于捕获人的图像,或以其他方式检测人的物理特性。然后,可如下面所讨论的使用图像/数据。
图3是示出了与配置头戴式显示设备相关的方法的流程图。该方法可由电子设备(例如,设备100a)执行。在一些示例中,电子设备具有一个或多个传感器设备(例如,图像传感器108、取向传感器110、位置传感器116)。在一些示例中,电子设备连接到与设备分开的一个或多个传感器设备(例如,图像传感器108、取向传感器110、位置传感器116)并与之通信。
在一些示例中,电子设备为头戴式显示设备。在一些示例中,电子设备与头戴式设备分开,但固定在头戴式设备上(或被配置成固定到头戴式设备)。在一些示例中,电子设备是移动设备、膝上型电脑、平板电脑等(如图4A至图4C中进一步讨论的)。在一些示例中,电子设备是商户位置处的信息亭(如图5A至图5B中进一步讨论的)。在一些示例中,电子设备是用于处理数据的远程服务器,该远程服务器从设备(例如,移动设备或信息亭)接收通信。
在一些示例中,电子设备具有显示器。在一些示例中,该显示器为至少部分透明的。在一些示例中,电子设备连接到与该设备分开的显示器并与之通信。在一些示例中,电子设备包括用于输出音频的一个或多个扬声器(例如,扬声器118)。在一些示例中,电子设备连接(或被配置成连接)到(例如,经由无线连接、经由有线连接)用于输出音频的一个或多个扬声器(例如,扬声器118)并且与之通信(或被配置成与之通信)。
在框310处,电子设备(例如,100a)接收对应于人的脸部的至少一部分的传感器数据。在一个示例中,传感器数据为脸部图像;然而,应当认识到,传感器数据可以是不同的,诸如由深度传感器、温度传感器等捕获的数据。在一些示例中,传感器数据由头戴式显示设备的传感器(例如,附接或耦接到头戴式显示设备的传感器)捕获。在其他示例中,传感器数据由不同于头戴式显示设备(例如,移动设备或信息亭)(例如,在头戴式显示设备外部)的计算设备的传感器捕获。
在框320处,识别脸部的特征(有时称为界标)。在一些示例中,电子设备识别特征。在一些示例中,使用传感器数据来识别特征。在一些示例中,脸部的特征对应于脸部的拓扑结构。特征的示例包括:人的眼睛之间的距离;人的前额的尺寸或其他特性;人的眼睛的宽度;前额的深度相对于人的一只或两只眼睛的深度的差;人的一个或多个颊骨的深度相对于一只或两只眼睛的深度的差;人的注视角度;人的鼻子的宽度;脸部的颊骨相对于一只或两只眼睛的位置;角膜的曲率;鼻子的长度;鼻子的长度与鼻子的宽度的比例;鼻子相对于其他特征(诸如颊、前额或下巴)的突起的长度;下巴相对于其他特征的相对位置;人的口或唇的位置;皮肤的阴影;与眼睑和睫毛相关的特征;与附加脸部特征结构(诸如痣或雀斑)相关的特征;眼睛周围的眼窝区域的映射(以通知任何潜在的贴合干扰);用户的处方;睫毛长度;用户鼻梁的宽度;用户耳朵之间的距离;头长;头宽;头高;头围;已知人体测量界标的位置(例如,指示脸部界标的图表);或它们的任何组合。
在框330处,基于脸部的一个或多个特征(例如,以上针对框320所讨论的特征)来识别与头戴式显示设备相关联的配置参数。在一些示例中,基于被配置为产生改善人的体验(例如,增加贴合性)的配置的一个或多个规则来识别配置参数。例如,规则可指示当人的前额具有特定深度时使用特定衬垫。
在一些示例中,配置参数是对头戴式显示设备的调整的推荐。在一些示例中,配置参数是与头戴式显示设备(例如,诸如头戴式设备的附件)相关联的物理部件的尺寸、形状或型号。
在一些示例中,配置参数与头戴式显示设备的软件部件相关。在此类示例中,配置参数与更改软件部件的执行方式相关,诸如当特定事件发生时的不同用户界面或不同过程。在一些示例中,软件部件是头戴式显示设备的显示器的亮度。
在一些示例中,电子设备识别配置参数。在其他示例中,由远离电子设备的设备识别配置参数。在此类示例中,将对应于传感器数据(例如,脸部的测量)或特征的信息从电子设备发送到远程设备。然后,远程设备识别配置参数。
在框340处,输出用于更改头戴式显示设备与脸部的贴合性的配置参数。在一些示例中,电子设备输出配置参数。
输出可包括:显示配置参数:发送用于获得(例如,购买)被配置为与配置参数一致(或被配置为适应脸部)的部件的消息;发送用于使得头戴式显示设备发生物理变化使得头戴式显示设备符合配置参数的消息;等等。在一些示例中,输出配置参数使得头戴式显示设备基于配置参数发生物理变化(例如,更改头戴式显示设备的硬件部件的尺寸(例如,体积))。
在一些示例中,该方法还包括:识别耦接到头戴式显示设备的当前物理部件;以及根据确定当前物理部件未被配置为一致(或根据确定当前物理部件未被配置为适应具有配置参数的脸部),显示将当前物理部件替换为被配置为与配置参数一致(或被配置为适应具有配置参数的脸部)的不同物理部件的推荐。在一些示例中,根据确定当前物理部件被配置为一致(或根据确定当前物理部件被配置为适应具有配置参数的脸部),放弃显示推荐。在一些示例中,当前物理部件是可替换的衬垫。在一些示例中,当前物理部件包括用于将当前物理部件的一个或多个特性传送到头戴式显示设备的部件,其中基于一个或多个特性来识别当前物理部件。例如,当前物理部件(或头戴式显示设备)可包括以下项的布置:一个或多个磁体;近场通信标签或芯片;射频识别标签或芯片;对应于特定SKU的机械钥匙;根据物理部件(例如,衬垫)的尺寸,对应于特定SKU并闩锁到头戴式显示设备的不同部分的下压或按钮机构;由相机读取的激光蚀刻或其他色彩图案;暴露于红外相机或对红外相机可见的装饰标签;从传感器/相机可见的物理标记(例如,条形码或符号)。在另一示例中,头戴式显示设备可包括与当前物理部件直接通信的接触电极。在另一示例中,当前物理部件可包括与头戴式显示设备直接通信的接触电极。
在一些示例中,该方法还包括:在接收到传感器数据之后接收第二传感器数据;基于第二传感器数据识别与头戴式显示设备相关联的细化配置参数;以及输出用于更改头戴式显示设备的贴合性的细化配置参数。例如,人可能佩戴着头带。在该示例中,第二传感器数据指示头带,使得细化配置参数考虑到人佩戴着头带。
在一些示例中,传感器数据为第一类型,并且第二传感器数据为不同于第一类型的第二类型。例如,传感器数据为图像,并且第二传感器数据为当前温度。
在一些示例中,第二传感器数据对应于头戴式显示设备的使用。例如,第二传感器数据可以是先前(或当前)已经在头戴式显示设备上使用的应用程序。
在一些示例中,传感器数据为来自第一图像传感器(例如,面向内的图像传感器)的图像,并且第二传感器数据为来自第二图像传感器(例如,面向外的图像传感器)的图像。在此类示例中,传感器数据可提供与人的脸部相关的信息,并且第二传感器数据可提供与人所在的环境相关的信息。
在一些示例中,该方法还包括:由计算设备的应用程序接收捕获图像的请求,其中传感器数据包括该图像;响应于该请求,由计算设备的面向内的图像传感器捕获图像,其中传感器数据包括该图像;以及由应用程序显示头戴式显示设备的物理部件的表示,其中基于配置参数来识别物理部件(如下面参考图4A至图4C进一步讨论的)。在一些示例中,该方法还包括响应于接收到对与物理部件相关联的示能表示的用户选择,由计算设备发送对物理部件的请求。
在一些示例中,该方法还包括:显示与头戴式显示设备相关联的物理部件的多个表示,其中多个表示中的每一个都对应于头戴式显示设备的相同部分;接收对对应于多个物理部件中的一个物理部件的示能表示的选择;发送对该物理部件的请求;以及在发送该请求之后,接收对购买该物理部件的选择(如下面参考图5A至图5B进一步讨论的)。
图4A至图4C示出了人使用其设备(例如,移动设备,诸如移动电话、平板电脑、膝上型电脑等)获得头戴式显示设备的体验。该体验从人访问其设备开始,这可在主页屏幕上开始,如以下所讨论的。应当认识到,图4A至图4C的流程仅仅是可能流程的示例,而不应是限制性的。
图4A示出了在移动设备400上正显示的主页屏幕410。在图4A所示的示例中,移动设备400包括触敏显示器和面向内的相机(例如,图像传感器402)。应当认识到,可使用其他类型的移动设备。
主页屏幕410包括多个图标,每个图标都对应于不同的应用程序。例如,图标420对应于电话应用程序,并且图标422对应于尺寸指南应用程序(下文将进一步讨论)。对图标的选择使得执行对应的应用程序。图4A描绘了对图标422的选择(例如,触敏显示器上的触摸421)。该选择使得执行尺寸指南应用程序。
图4B示出了用于捕获脸部图像的用户界面430。用户界面430为尺寸指南应用程序的用户界面。在一些示例中,响应于对图标422的选择而显示用户界面430,如上面针对图4A所讨论的。应当认识到,尺寸指南应用程序的其他用户界面可在用户界面430之前呈现。
用户界面430包括内容帧440,该内容帧显示移动设备400的图像传感器(例如,图像传感器402)所捕获的内容。在图4B中,该内容为人的脸部。用户界面430还包括示能表示450。对示能表示450的选择(例如,触敏显示器上的触摸451)使得内容帧440中正显示的内容(或图像传感器正捕获的内容)作为所捕获的图像被存储。在一些示例中,对示能表示450的选择还使得对所捕获的图像进行分析(本地地或远程地)以识别对显示设备的推荐。
当远程地进行分析时,可能考虑到人的隐私。具体地,虽然所捕获的图像可被发送到远程服务器,但比所捕获的图像更少的内容可能被发送到远程服务器。在一些示例中,发送到远程服务器的内容包括基于所捕获的图像所计算的一个或多个值(例如,眼睛之间的距离、鼻子的长度、从眼睛到鼻子的距离、前额相对于眼睛的深度、颊骨相对于眼睛的深度等)。在一些示例中,发送到远程服务器的内容为所捕获图像的一部分,该部分包括比整个脸部更少的部分。在一些示例中,对应于移动设备400的识别信息也可被发送到远程服务器。
图4C示出了用于提供推荐的用户界面460。用户界面460为尺寸指南应用程序的另一用户界面。在一些示例中,响应于接收到推荐而显示用户界面460。可从远程服务器(当远程地执行分析时)或从尺寸指南应用程序的过程(当本地地执行分析时)接收推荐。应当认识到,尺寸指南应用程序的其他用户界面可在用户界面430之后以及在用户界面460之前呈现。
用户界面460包括由图像传感器402捕获的内容的显示。内容可以是新捕获的内容或用于确定推荐的内容。头戴式显示设备的表示可显示在用户界面460中所显示的内容的顶上,使得头戴式显示设备在内容中看起来正被人佩戴着,从而提供头戴式显示设备贴合程度的视觉表示(未示出)。
用户界面460还包括内容帧480,该内容帧描绘了头戴式显示设备的另一视图。内容帧480中的视图示出了为人推荐的配置。在一些示例中,对配置的特定部分的选择使得显示关于特定部分的附加信息。在一些示例中,用户界面460还包括批准示能表示482和编辑示能表示484。对批准示能表示482的选择使得头戴式显示设备的配置获得批准(例如,基于推荐的配置)并且在一些示例中被订购。对编辑示能表示484的选择使得显示允许用户更改头戴式显示设备的一个或多个部分以更改贴合性的用户界面。
图5A至图5B示出了人使用另一人的设备(例如,商户位置处的信息亭)购买头戴式显示设备的体验。该体验从人到达商户位置开始。
商户位置包括信息亭500,如图5A所描绘的。信息亭500包括显示器510和图像传感器520。显示器510正显示由图像传感器402所捕获的内容。具体地,图5A中的内容为人的脸部。
在一些示例中,信息亭500正显示的内容为图像传感器520正捕获的流。在此类示例中,显示器510可包括按钮530,该按钮在被选择时(例如,按钮530上的触摸531)使得对所捕获的内容执行一个或多个操作。按钮530可为虚拟构造(例如,虚拟用户界面中的示能表示)或物理按钮(例如,信息亭500上的机械按钮或电气按钮)。
当分析图像并提供推荐时,响应于对按钮530的选择而执行的一个或多个操作可与上文在图4B中所描述的操作类似或相同。
在一些示例中,响应于对按钮530的选择来提供多个推荐,如图5B中所描绘的。例如,图5B中的显示器510包括头戴式设备的图形表示540。图形表示540可在视觉上描绘耦接到头戴式设备的推荐中的一个或多个。显示器510还包括针对头戴式设备(例如,452A、452B、452C和452D)的一个或多个推荐的列表。在一个示例性示例中,推荐452A对应于护目镜尺寸(例如,更改所推荐的护目镜尺寸的选项),推荐452B对应于鼻垫(例如,更改所推荐的鼻垫的选项),推荐452C对应于前额垫(例如,更改所推荐的前额垫的选项),并且推荐452D对应于颊垫(例如,更改所推荐的颊垫的选项)。在一些示例中,列表中的一个或多个推荐可对应于在视觉上描绘的一个或多个推荐。
在一些示例中,列表中的每个项目为示能表示(例如,推荐542A)。对示能表示的选择可提供关于对应于该示能表示的推荐的进一步信息。
在图5B中,显示器510还包括下一步按钮554和后退按钮556。下一步按钮554可使得(1)具有一个或多个所推荐的头戴式设备获得批准和/或被订购,或使得(2)具有一个或多个所推荐的头戴式设备被带给人进行试用。应当认识到,图5A至图5B的流程仅仅是可能流程的示例,而不应是限制性的。
在一些示例中,可在头戴式显示设备的显示器上提供推荐。例如,用户可能已经拥有头戴式显示设备,并且推荐用于改善用户的体验。
图6示出了在头戴式设备600上正输出的硬件推荐。硬件推荐正在显示器610上输出,并且包括对可用于改善头戴式设备600的贴合性的不同硬件部件的推荐。
在一些示例中,该推荐可基于头戴式设备600的所有者拥有的一个或多个硬件部件。例如,该推荐可限于头戴式设备600的所有者拥有的一个或多个硬件部件。又如,该推荐可限于头戴式设备600的所有者未拥有的一个或多个硬件部件。在一些示例中,无论头戴式设备600的所有者是否拥有,该推荐可以仅仅是与当前与头戴式设备600一起使用的硬件部件不同的硬件部件。
如图6所描绘,显示器610还包括“是”示能表示612和“否”示能表示614。对“是”示能表示612的选择使得发起用于对头戴式设备600调整尺寸的过程(例如,购买该推荐)。本领域的普通技术人员将认识到可如何进行此过程。对“否”示能表示614的选择使得从显示器610移除该推荐。在一些示例中,对“否”示能表示614的选择进一步使得当在图像中识别出类似的特征时,不会在将来再次显示该推荐。
图7示出了在头戴式设备700上正输出的软件推荐。该软件推荐正在显示器710上输出,并且包括对可用于改善对头戴式设备700的体验的不同软件设置的推荐。在一些示例中,该推荐可基于头戴式设备700的所有者拥有的一个或多个硬件部件。
如图7所示,显示器710还包括“是”示能表示712和“否”示能表示714。对“是”示能表示712的选择使得发起用于更改软件设置的过程。本领域的普通技术人员将认识到可如何进行此过程。例如,可响应于对“是”示能表示712的选择而自动更新头戴式设备700的亮度。又如,可显示允许用户更改头戴式设备700的亮度的用户界面(未示出)。用户界面可包括对应于该推荐的指示,以便提供建议(未示出)。
对“否”示能表示714的选择使得从显示器710移除该推荐。在一些示例中,对“否”示能表示714的选择进一步使得当确定了类似推荐时,不会在将来再次显示该推荐。
如上所述,本技术的一个方面在于收集并使用得自各种来源的数据,以改善显示设备的配置。本公开设想,在一些实例中,该所收集的数据可包括与人的脸部相关联的生物特征信息。
本公开认识到,个人信息数据可用于有利地改善显示设备的配置及其舒适度。负责此类个人信息数据的收集、分析、公开、传输、存储或其他用途的实体将遵守公认的隐私政策和/或隐私惯例,包括实施并一致地使用公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和隐私惯例。
此外,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,数据去标识能够被用于保护用户的隐私。例如,可发送表示瞳孔距离的值,而不是人瞳孔的图像。因此,可以设想,可在尊重使用本技术的人的隐私的同时实现本技术的各方面。
Claims (26)
1.一种与配置头戴式显示设备相关的方法,所述方法包括:
接收对应于脸部的至少一部分的传感器数据;
使用所述传感器数据识别所述脸部的特征;
基于所述特征识别与所述头戴式显示设备相关联的配置参数;以及
输出用于更改所述头戴式显示设备对所述脸部的贴合性的所述配置参数。
2.根据权利要求1所述的方法,其中所述配置参数是对所述头戴式显示设备的调整的推荐。
3.根据权利要求1所述的方法,其中所述配置参数是与所述头戴式显示设备相关联的物理部件的尺寸、形状或型号。
4.根据权利要求1所述的方法,还包括:
输出用于更改所述头戴式显示设备的软件部件的第二配置参数。
5.根据权利要求4所述的方法,其中所述软件部件是所述头戴式显示设备的显示器的亮度。
6.根据权利要求1所述的方法,其中基于所述脸部的多个特征来识别所述配置参数。
7.根据权利要求6所述的方法,其中所述多个特征包括以下至少一项或多项:所述脸部的鼻子的属性、所述脸部的一个或多个颊的属性、所述脸部的一只或多只眼睛的属性或所述脸部的前额的属性。
8.根据权利要求7所述的方法,其中基于所述脸部的所述前额相对于所述脸部的所述一只或两只眼睛的深度或所述脸部的所述颊骨相对于所述脸部的所述一只或两只眼睛的位置来识别所述配置参数。
9.根据权利要求1所述的方法,其中输出所述配置参数使得所述头戴式显示设备更改所述头戴式显示设备的硬件部件的尺寸。
10.根据权利要求1所述的方法,其中所述头戴式显示设备包括用于输出计算机生成的现实内容的显示器。
11.根据权利要求1所述的方法,其中所述脸部的所述特征对应于所述脸部的拓扑结构。
12.根据权利要求1所述的方法,还包括:
识别耦接到所述头戴式显示设备的当前物理部件;以及
根据确定所述当前物理部件未被配置为与所述配置参数一致,显示将所述当前物理部件替换为被配置为与所述配置参数一致的不同物理部件的推荐。
13.根据权利要求12所述的方法,其中所述当前物理部件是可替换的衬垫。
14.根据权利要求12所述的方法,其中所述当前物理部件包括用于将所述当前物理部件的一个或多个特性传送到所述头戴式显示设备的部件,并且其中基于所述一个或多个特性来识别所述当前物理部件。
15.根据权利要求1所述的方法,还包括:
在接收到所述传感器数据之后,接收第二传感器数据;
基于所述第二传感器数据识别与所述头戴式显示设备相关联的细化配置参数;以及
输出用于更改所述头戴式显示设备与所述脸部的贴合性的所述细化配置参数。
16.根据权利要求15所述的方法,其中所述传感器数据为第一类型,并且其中所述第二传感器数据为不同于所述第一类型的第二类型。
17.根据权利要求15所述的方法,其中所述第二传感器数据对应于所述头戴式显示设备的使用。
18.根据权利要求1所述的方法,其中由所述头戴式显示设备的传感器捕获所述传感器数据。
19.根据权利要求1所述的方法,其中由不同于所述头戴式显示设备的计算设备的传感器捕获所述传感器数据。
20.根据权利要求18所述的方法,其中所述传感器为图像传感器、深度传感器或温度传感器。
21.根据权利要求19所述的方法,还包括:
由所述计算设备的应用程序接收捕获一个或多个图像的请求;
响应于所述请求,由所述计算设备的面向前的图像传感器捕获图像,其中所述传感器数据包括所述图像;以及
由所述应用程序显示所述头戴式显示设备的物理部件的表示,其中基于所述配置参数来识别所述物理部件。
22.根据权利要求21所述的方法,还包括:
响应于接收到对与所述物理部件相关联的示能表示的用户选择,由所述计算设备发送对所述物理部件的请求。
23.根据权利要求18所述的方法,还包括:
显示与所述头戴式显示设备相关联的物理部件的多个表示,其中所述多个表示中的每一个都对应于所述头戴式显示设备的相同部分;
接收对对应于所述多个物理部件中的一个物理部件的示能表示的选择;
发送对所述物理部件的请求;以及
在发送所述请求之后,接收购买所述物理部件的选择。
24.一种计算机可读存储介质,所述计算机可读存储介质存储被配置为由电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至23中任一项所述的方法的指令。
25.一种电子设备,包括:
一个或多个处理器;和
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至23中任一项所述的方法的指令。
26.一种电子设备,包括:
用于执行根据权利要求1至23中任一项所述的方法的装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962845447P | 2019-05-09 | 2019-05-09 | |
US62/845,447 | 2019-05-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111913568A true CN111913568A (zh) | 2020-11-10 |
Family
ID=73046282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010378684.4A Pending CN111913568A (zh) | 2019-05-09 | 2020-05-07 | 与配置显示设备相关的技术 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11181973B2 (zh) |
CN (1) | CN111913568A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002162597A (ja) * | 2000-11-22 | 2002-06-07 | Toshiba Corp | 装着型ディスプレイ装置 |
US20130318776A1 (en) * | 2012-05-30 | 2013-12-05 | Joel Jacobs | Customized head-mounted display device |
CN206671689U (zh) * | 2017-04-27 | 2017-11-24 | 北京京东方光电科技有限公司 | 可穿戴设备 |
US20180046147A1 (en) * | 2016-08-10 | 2018-02-15 | Intel Corporation | Automatic Adjustment of Head Mounted Display Straps |
CN108345109A (zh) * | 2017-01-25 | 2018-07-31 | 研能科技股份有限公司 | 头戴式虚拟实境显示装置 |
CN109471264A (zh) * | 2019-01-02 | 2019-03-15 | 京东方科技集团股份有限公司 | 面罩及包含其的头戴式设备 |
CN109643152A (zh) * | 2016-06-03 | 2019-04-16 | 脸谱科技有限责任公司 | 使用头戴式显示器内的面部传感器的面部和眼睛跟踪以及面部动画 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10218954B2 (en) * | 2013-08-15 | 2019-02-26 | Cellular South, Inc. | Video to data |
KR102567431B1 (ko) * | 2016-01-19 | 2023-08-14 | 매직 립, 인코포레이티드 | 눈 이미지 수집, 선택 및 결합 |
US10474336B2 (en) * | 2016-12-20 | 2019-11-12 | Adobe Inc. | Providing a user experience with virtual reality content and user-selected, real world objects |
WO2019143864A1 (en) * | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
-
2020
- 2020-04-27 US US16/859,675 patent/US11181973B2/en active Active
- 2020-05-07 CN CN202010378684.4A patent/CN111913568A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002162597A (ja) * | 2000-11-22 | 2002-06-07 | Toshiba Corp | 装着型ディスプレイ装置 |
US20130318776A1 (en) * | 2012-05-30 | 2013-12-05 | Joel Jacobs | Customized head-mounted display device |
CN109643152A (zh) * | 2016-06-03 | 2019-04-16 | 脸谱科技有限责任公司 | 使用头戴式显示器内的面部传感器的面部和眼睛跟踪以及面部动画 |
US20180046147A1 (en) * | 2016-08-10 | 2018-02-15 | Intel Corporation | Automatic Adjustment of Head Mounted Display Straps |
CN108345109A (zh) * | 2017-01-25 | 2018-07-31 | 研能科技股份有限公司 | 头戴式虚拟实境显示装置 |
CN206671689U (zh) * | 2017-04-27 | 2017-11-24 | 北京京东方光电科技有限公司 | 可穿戴设备 |
CN109471264A (zh) * | 2019-01-02 | 2019-03-15 | 京东方科技集团股份有限公司 | 面罩及包含其的头戴式设备 |
Also Published As
Publication number | Publication date |
---|---|
US11181973B2 (en) | 2021-11-23 |
US20200356163A1 (en) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110968188B (zh) | 基于头部位置的应用程序放置 | |
AU2021290132B2 (en) | Presenting avatars in three-dimensional environments | |
CN112041788B (zh) | 使用眼睛注视来选择文本输入字段 | |
CN110673718B (zh) | 用于显示系统的基于聚焦的调试和检查 | |
US11350113B2 (en) | Gaze-driven recording of video | |
CN112540670A (zh) | 具有手指传感器的电子设备 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
US11893154B2 (en) | Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body | |
US20240077937A1 (en) | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments | |
US20240094882A1 (en) | Gestures for selection refinement in a three-dimensional environment | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
WO2020115815A1 (ja) | ヘッドマウントディスプレイ装置 | |
US11181973B2 (en) | Techniques related to configuring a display device | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
US20240104819A1 (en) | Representations of participants in real-time communication sessions | |
US20240103677A1 (en) | User interfaces for managing sharing of content in three-dimensional environments | |
US20240104843A1 (en) | Methods for depth conflict mitigation in a three-dimensional environment | |
US20240118746A1 (en) | User interfaces for gaze tracking enrollment | |
US20240103616A1 (en) | User interfaces for gaze tracking enrollment | |
US20240104871A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
WO2023096940A9 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
CN112562088A (zh) | 基于用户移动来呈现环境 | |
WO2024064350A1 (en) | User interfaces for capturing stereoscopic media | |
KR20240091224A (ko) | 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |