CN211834370U - 头戴式显示器、用于头戴式显示器的面部界面和显示系统 - Google Patents

头戴式显示器、用于头戴式显示器的面部界面和显示系统 Download PDF

Info

Publication number
CN211834370U
CN211834370U CN202020100275.3U CN202020100275U CN211834370U CN 211834370 U CN211834370 U CN 211834370U CN 202020100275 U CN202020100275 U CN 202020100275U CN 211834370 U CN211834370 U CN 211834370U
Authority
CN
China
Prior art keywords
user
face
head mounted
mounted display
facial interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202020100275.3U
Other languages
English (en)
Inventor
D·M·斯特朗沃特
K·E·鲍尔利
D·A·哈特菲尔德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Application granted granted Critical
Publication of CN211834370U publication Critical patent/CN211834370U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本实用新型涉及头戴式显示器、用于头戴式显示器的面部界面和显示系统。头戴式显示器包括显示单元和面部界面。显示单元向用户显示图形内容。所述面部界面可移除地耦接到显示单元,并且接合用户的面部的面部接合区域,由此将显示单元支撑在用户的面部上。面部界面包括用于感测面部接合区域中的用户的生理状况的生理传感器。

Description

头戴式显示器、用于头戴式显示器的面部界面和显示系统
技术领域
本实用新型涉及头戴式显示器,并且具体地,涉及用其感测生理状况。
背景技术
头戴式显示器佩戴在用户的头部上并且向其显示图形内容。典型的头戴式显示器包括显示器、头部支撑件和面部界面。显示器显示图形内容。头部支撑件耦接到显示器并且接合用户的头部以支撑显示器。面部界面耦接到显示器并且接合用户的面部以支撑显示器。例如,对于用于显示计算机生成的环境的图形内容的头戴式显示器,面部界面可基本上围绕用户的眼睛接合用户的面部,以阻挡基本上所有环境光到达眼睛。面部界面通常由与面部形状接合并与其相符的顺应性材料(例如,泡沫或橡胶)制成或包括该顺应性材料。
用户的面部可以提供可以以各种方式使用的各种生理信息,例如,在用头戴式显示器传送图形内容时。然而,面部界面可以从各种生理传感器的视图隐藏面部的部分和/或可以影响可能以其他方式提供有价值信息的生理状况。例如,用户可以提供面部表情,在不存在与面部界面的面部接触的情况下,该面部表情将采取一定的形式并且可观察到,诸如提高眉毛用于吃惊的面部表情。
发明内容
本文公开了头戴式显示器的具体实施。
在具体实施中,头戴式显示器包括显示单元和面部界面。显示单元向用户显示图形内容。所述面部界面可移除地耦接到显示单元,并且接合用户的面部的面部接合区域,由此将显示单元支撑在用户的面部上。面部界面包括用于感测面部接合区域中的用户的生理状况的生理传感器。
在具体实施中,用于头戴式显示器的面部界面包括顺应性结构、生理传感器、机械连接器和数据连接器。顺应性结构接合用户面部的面部接合区域。生理传感器耦接至顺应性结构,用于测量面部接合区域中的用户的生理状况。机械连接器耦接至顺应性结构并且面部界面通过机械连接器可移除地耦接至头戴式显示器。数据连接器耦接到生理传感器,并将生理数据从生理传感器发送到头戴式显示器。
在具体实施中,显示系统包括头戴式显示器和物理上与头戴式显示器分开的电子设备。头戴式显示器包括用于向用户显示图形内容的显示单元和耦接至该显示单元的面部界面。面部界面被配置为接合用户的面部的面部接合区域,以将显示单元支撑在面部上。面部界面包括用于感测面部接合区域中的用户的生理状况的生理传感器。电子设备与面部界面通信。该电子设备包括用于感测另一状况的另一传感器。头戴式显示器根据生理状况和该另一状况两者来形成确定,并且根据该确定执行操作。
在具体实施中,显示系统包括头戴式显示器,所述头戴式显示器具有显示单元、具有生理传感器的面部界面和另一生理传感器。显示单元向用户显示图形内容。面部界面耦接到显示单元,并且被配置为接合用户面部的面部接合区域以在其上支撑显示单元。面部界面包括用于感测面部接合区域中的用户的生理状况的生理传感器。另一生理传感器感测在面部接合区域之外的用户的另一生理状况。头戴式显示器根据该生理状况和另一生理状况两者形成确定,并且根据该确定执行操作。
附图说明
在附图中,虚线通常表示从视图中隐藏或能够在状态之间移动的部件。点划线通常表示从视图隐藏的用户的部分。
图1为头戴式显示器的侧视图,该头戴式显示器佩戴在用户的头部上,其中虚线所示的是隐藏的部件,而点划线所示的是用户的隐藏部分。
图2为佩戴在头部上的图1的头戴式显示器的前视图。
图3为头戴式显示器的电子器件的示意图。
图4为头戴式显示器的控制器的示例硬件配置的示意图。
图5为头戴式显示器和用户的前视图,示出了用户的面部接合区域和头戴式显示器的面部界面。
图5A为沿图5中的线5A-5A截取的头戴式显示器的剖视图。
图5B为沿图5中的线5B-5B截取的头戴式显示器的变型的剖视图。
图6为具有其任选传感器的面部界面的示意图。
图7为图1头戴式显示器的后视图。
图8为进一步示出面部接合区域的用户的前视图。
图9为头戴式显示器的后视图,其中面部界面处于脱离配置(实线)和耦接配置(虚线)。
图10为包括机械连接、电力连接和数据连接的头戴式显示器的示意图。
图11为用于通过头戴式显示器对用户进行生理识别的方法的流程图。
图12A为用于为用户识别头戴式显示器的合适的面部界面的方法的流程图。
图12B为用于评估用户的面部以识别合适的面部界面的面部界面的后视图。
图13为用于评估头戴式显示器的放置的方法的流程图。
图14为用于通过头戴式显示器改变图形内容的方法的流程图。
图15为用于操作显示系统的方法的流程图。
具体实施方式
本文公开的是头戴式显示器及其面部界面,其感测由面部界面本身接合的用户的面部部分中的生理状况。面部界面可以包括一个或多个传感器和/或传感器的一部分。另选地或附加地,面部界面可以包括感测窗口,该感测窗口允许用头戴式显示器的传感器(诸如在其显示器中)观察面部被面部界面接合的那些部分。
头戴式显示器还可以包括用于感测未被面部界面接合的区域中用户的生理状况的传感器,诸如用观察被面部界面围绕或位于面部界面外部的区域的头戴式显示器的传感器。来自面部界面所接合的区域的生理信息可以与来自未被面部界面所接合的区域的生理信息结合使用,例如,以做出各种确定和/或响应于此提供各种输出。
面部界面也可以可移除地或可互换地耦接到显示器。由此,例如,根据不同的图形内容和/或不同的用户,可以将具有不同感测功能和/或适合度的面部界面附接到显示器。此外,面部界面可以是可移除的用于清洁或更换。
参照图1和图2,头戴式显示器100可佩戴在用户的头H上,并向其显示图形内容,诸如计算机生成的环境的图形内容(在下面进一步详细讨论)。头戴式显示器100通常包括显示单元110、头部支撑件120、面部界面130和电子器件140。头戴式显示器100也可以被称为显示系统。
显示单元110包括一个或多个显示图形内容的显示屏112,以及外壳114,显示屏112耦接到外壳114,并且外壳114从视图隐藏了各种部件。外壳114还可以起到阻挡环境光到达用户的眼睛E的作用。显示单元110可以是例如专用设备,与具有可移除显示屏(诸如也可用作手持设备的智能手机)相反,用于在佩戴在用户的头部H上时显示内容。这样,与可互换地耦接至外壳114相反,显示屏112可以固定地耦接至外壳114。
头部支撑件120耦接至显示单元110并且接合用户的头部H以在其上支撑显示单元110。头部支撑件120可以例如是围绕用户的头部H的侧面和后部延伸的带。头部支撑件120可以耦接至显示单元110的外壳114。
面部界面130耦接至显示单元110,并且接合用户的面部F以在其上支撑显示单元110。例如,面部界面130可以耦接至显示单元110的靠近用户的后端,例如耦接至外壳114(例如,后表面或内端或内表面),而头部支撑件120可以围绕用户的头部H置于张紧,从而将面部界面130大体向后按压在用户的面部F上。面部界面130通常可以布置在用户的面部和显示屏112之间(例如,没有显示屏112或其一部分位于面部界面130和用户的面部之间)。面部界面130可以包括检测生理状况(例如,用户的状况)的一个或多个生理传感器132,并且可以还包括一个或多个触觉输出设备133,这将在下面进一步详细讨论。
电子器件140是用于操作头戴式显示器100的电子部件。电子器件140可以耦接到显示单元110,例如,被包含在外壳114内。显示系统的一些电子器件140和/或其他电子器件可以远离显示单元110放置,诸如与显示单元110和/或面部界面130通信的另一计算设备。参考图3,电子器件通常可以包括控制器342、传感器344、通信接口346和电力电子器件348,等等。电子器件140也可以被认为包括显示单元110的显示屏112。控制器342通常控制头戴式显示器100的操作,例如,从传感器344和/或通信接口346接收输入信号,并将控制信号发送到显示单元110(例如,到显示屏112)用于输出图形内容。控制器342的示例性硬件配置在下文参考图4进行论述。传感器344感测用户的状况(例如,生理状况)、头戴式显示器100的状况(例如,位置、取向、移动)和/或环境的状况(例如,声音、光、图像)。传感器344可以是下面参考传感器130讨论的任何合适类型的传感器(例如,参见图6中的传感器类型)。通信接口346被配置为从物理上与头戴式显示器100分开的电子设备350接收信号。电力电子器件348存储和/或供应用于操作头戴式显示器的电力,并且可以例如包括一个或多个电池。该电子器件350可以是用户输入设备(例如,用户控制器),与用户相关联的另一电子设备(例如,智能电话或可穿戴电子设备),或者不与用户相关联的另一电子设备(例如,服务器、与其他人相关联的智能电话)。电子设备350可以包括传感器350a,其可以感测用户的各种其他状况,诸如其位置或移动。电子设备350可以被认为是包括头戴式显示器100的显示系统的一部分。
参考图4,控制器342可以用于实现本文公开的装置、系统和方法。例如,控制器342可以从各种电子部件(例如,传感器344和通信接口346)接收各种信号,并据此控制显示屏112的输出以显示图形内容。在示例的硬件配置中,控制器342通常包括处理器442a、存储器442b、存储装置442c、通信接口442d,以及总线442e,控制器342的其他部件通过总线442e进行通信。处理器442a可以是用于执行计算机指令并执行其描述的操作的任何合适的处理器,诸如中央处理单元。存储器442b可以是易失性存储器,诸如随机存取存储器(RAM)。存储装置442c可以是非易失性存储设备,诸如硬盘驱动器(HDD)或固态驱动器(SSD)。存储装置442c可以形成计算机可读介质,该计算机可读介质存储由处理器442a执行的指令(例如,代码),用于例如以上面和下面描述的方式操作头戴式显示器100。通信接口442d与其他电子部件(例如,传感器344、通信接口346和/或显示屏112)通信,以向其发送和从其接收各种信号(例如,控制信号和/或传感器信号)。
参照图5,面部界面130在面部接合区域Fengagement中接合用户的面部F。如图所示,面部界面130围绕用户的眼睛E延伸。面部界面130与面部F接合,以通过在用户的眼睛E上方、周围和下方延伸来阻挡环境光到达眼睛E。面部接合区域Fengagement通常还在面部界面130的外边缘130a和内边缘130b之间延伸。借助于面部界面130的接合,面部接合区域Fengagement基本上被面部界面130覆盖或从视图隐藏。另选地,面部界面130可以不完全围绕用户的眼睛E延伸,例如,在眼睛E上方但不在眼睛E下方延伸,或者在用户的鼻子N的区域中具有间隙。例如,面部接合面部接合区域Fengagement可以仅包括前额接合区域FHengagement(参见例如图8)。
参照图5A和5B,面部界面130被配置为顺应性的,以便舒适地接合并贴合用户的面部F。面部界面130包括顺应性结构530a,其在面部接合区域Fengagement中接合用户的面部F以在其上支撑头戴式显示器,并且一个或多个生理传感器132和/或触觉输出设备133(未示出)耦接至该顺应性结构530a。顺应性结构530a形成面部界面130的总体形状(例如,如图5所示,围绕用户的眼睛E延伸)。
如图5A所示,顺应性结构530a可以是连续形成的结构,并且可以被朝向显示单元110的外壳114压缩(例如,虚线所示的此类挠曲)。例如,顺应性结构530a可以由诸如橡胶或硅树脂的弹性体形成,在这种情况下,顺应性结构530a可以直接接合用户的面部F。生理传感器132被顺应性结构530a包围(例如,凹陷或嵌入其中),并且被布置为感测生理状况,例如,在顺应性结构530a的外表面处或以其他方式适当的靠近用户。
如图5B所示,顺应性结构530a’的变型由多个部件形成,诸如背衬层530b(例如,由诸如塑料的聚合物形成的刚性或柔性板),顺应性层530c(例如,由泡沫、橡胶或其他可压缩材料制成)耦接至该背衬层530b。顺应性层530c可以进一步由柔性的覆盖物530d覆盖,该覆盖物530d诸如编织纺织品或其他材料(例如,柔性片状聚合物)。覆盖物530d也可以与如图5A所示的顺应性结构530A一起使用。生理传感器132被顺应性层530c围绕(例如,凹陷或嵌入其中),并且被布置为感测用户的生理状况。例如,如下面所参考的,生理传感器132可以是力传感器632a,该力传感器632a布置成紧邻覆盖物530d(例如,与覆盖物530d接触)。在另一示例中,如下面所参考的,生理传感器132可以是电极632f或另一生物电信号传感器(例如,脑活动传感器632g、肌肉活动传感器632h或心率传感器632i),在这种情况下,覆盖物530d在生理传感器132的区域中可以是导电的。覆盖物530d也可以与顺应性结构530a一起使用。
参考图6,面部界面130包括一个或多个生理传感器132,其用于感测面部接合区域Fengagement中的用户的一个或多个生理状况。生理传感器132本身可以是完整的传感器,其根据感测到的生理状况输出传感器信号。例如,生理传感器132可以是根据其感测到的力输出模拟或数字信号的力传感器。另选地,生理传感器132可以是传感器系统的部件。例如,生理传感器132可以是用于脑电图(EEG)的电极,其连接到远程计算设备(例如,控制器342),该远程计算设备继而确定用户脑部的电活动。
一个或多个生理传感器132可以被配置为感测面部接合区域Fengagement中的生理状况,其可以包括力、温度、湿度、位移、电容、脑部活动(例如,如上所述的EEG)、肌肉活动(例如,通过力传感器和/或肌电图(EMG))和/或心率。尽管将各种类型的生理传感器132中的每一个描绘为面部界面130的一部分(例如,传感器632a至632i),应当理解,面部界面130可以包括每种类型的生理传感器132中零个、一个或多个。
为了测量力,生理传感器132可以是力传感器632a,诸如弹簧位移传感器(例如,测量已知特性的弹簧的位移)、液压或气动负载传感器(例如,测量所含流体的压力)、应变计或压电式力传感器。力传感器632a可以直接接合用户的面部F,或者可以从视图隐藏,例如,在面部界面130的覆盖物530d后面(见图5B)。在力传感器632a的区域中,覆盖物530d优选地是薄的和/或通常不可压缩的,以便提供对由面部界面130施加到用户的面部F上的力的精确测量。另选地,覆盖物530d可以是可压缩的,以便在用户的面部F和力传感器632a之间提供填充(例如,由可压缩材料(诸如泡沫、硅树脂或织物)形成或以其他方式包括这些材料)。
为了测量水分,生理传感器132可以是水分传感器632b,诸如湿度计或红外水分传感器。在湿度传感器632b是湿度计的情况下,湿度传感器632b与用户的面部F的面部接合区域Fengagement流体连通。例如,湿度传感器632b可以布置在面部界面130的覆盖物530d的后面,诸如布置在水分可以通过其传播的织物或泡沫材料的后面。
为了测量温度,生理传感器132可以是温度传感器632c,诸如热电偶、热敏电阻器、电阻温度计或红外温度传感器。在热电偶、热敏电阻器或电阻温度计的情况下,温度传感器632c可以被布置成与用户的面部F的面部接合区域Fengagement直接接触,或者以其他方式与其处于导热关系(例如,在覆盖物530d的高导热材料之后并与其导电耦接)。在红外温度传感器的情况下,温度传感器632c能够直接感测用户的面部F的面部接合区域Fengagement的红外线辐射,或者通过用户的面部F的面部接合区域Fengagement热传导到中间材料(例如,覆盖物530d)。
为了测量位移,生理传感器132可以是位移传感器632d,诸如接触式位移计。随着面部F的面部接合区域Fengagement移动,位移传感器632d移动并且测量其位移。
为了测量电容,生理传感器132可以是合适类型的电容传感器632e。
为了测量脑部活动(例如,脑电图或EEG)、肌肉活动(例如,肌电图或EMG)和/或心率(例如,心电图或ECG),生理传感器132可以是合适的生物电信号传感器。在一个示例中,生物电信号传感器是电极632f。应当注意,电极632f可以取决于所感测的生理状况(例如,在物理上不同,以感测不同的生物电活动(例如,生物电信号),诸如脑部活动、肌肉活动或心脏活动)而采取不同的形式。电极632f可以被结合到覆盖物530d中,例如,具有编织成覆盖物530d的编织物的导电纤维。另选地,电极632f可以由另一种材料形成并且被布置为直接接触用户的面部F的面部接合区域Fengagement
代替电极632f,生理传感器132可以是与面部F接触以测量脑部活动的脑部活动传感器632g(例如,EEG传感器),与面部F接触以测量肌肉活动的肌肉活动传感器632h(例如,EMG传感器),或接触或观察面部F以测量心率的心率传感器632i。
参照图7,面部界面130可以包括窗口736,通过该窗口736可以光学观察面部接合区域Fengagement。例如,窗口736可以形成在覆盖物534d中,而耦接至显示单元110的传感器344中的一者观察其后的面部接合区域Fengagement以感测用户的状况(例如,用于测量用户面部运动的相机、具有光发射器和检测器的光学心率传感器或红外传感器)。
参考图8,可以在用户的面部F的面部接合区域Fengagement中的一个或多个合适的位置中提供一个或多个生理传感器132,用于测量与其相关联的生理状况(例如,力、湿度、温度、位移、脑部活动、肌肉活动或心脏活动)。例如,生理传感器132中的一者或多者可以布置在用户的面部F的面部接合区域Fengagement的前额接合区域FHengagement、太阳穴接合区域Tengagement和/或脸颊接合区域Cengagement中。力传感器632a可以布置在需要测量压力的区域中,例如,以检测特定的面部表情或评估舒适度,诸如在前额接合区域FHengagement、太阳穴接合区域Tengagement或脸颊接合区域Cengagement中。脑部活动传感器632g可以被定位在可以测脑部活动的地方,诸如在前额接合区域FHengagement中。肌肉活动传感器632h可以布置在可以测量面部运动的地方,例如以评估面部表情,诸如在前额接合区域FHengagement、太阳穴接合区域Tengagement和/或脸颊接合区域Cengagement中。心率传感器632i可以布置在可以光学地感测到心率的地方,诸如在太阳穴接合区域Tengagement中,或者可以电测量心率的地方,诸如在前额接合区域FHengagement中。
参照图9-10,面部界面130可以可移除耦接至显示单元110。头戴式显示器100在一个或多个位置处形成机械连接902,在面部界面130和显示单元110之间形成一个或多个电力连接904以及一个或多个数据连接906。
机械连接902将面部界面130机械地耦接到显示单元110,使得面部界面130和显示单元110可以被彼此支撑,诸如用于面部界面130将显示单元110支撑在用户的面部F上。机械连接902可以例如通过钩环紧固件、过盈配合(例如,面部界面130的前端紧密地装配在显示单元110之内或周围)、被动接合对应的插槽或凹槽的突起部、机构(例如,闩锁)或它们的组合磁性地形成(例如,永磁体和对应的永磁体或吸盘)。机械连接902可以形成在一个或多个位置处,例如,具有在面部界面130周围分布(例如,耦接至顺应性结构530a)的面部界面机械连接器930a以及在对应位置在显示单元110周围分布(例如,耦接至外壳114)的显示单元机械连接器910a。
电力连接904在显示单元110和面部界面130之间传递电力,诸如传递到将由显示单元110供电的面部界面130(例如,面部界面130的由显示单元110供电的生理传感器132)。电力连接904可以以任何合适的方式形成,诸如导电地(例如,由弹簧接触件接合的固定接触件,或插头和对应的插座)或无线地(例如,与对应的感应线圈)形成。电力连接904可以在一个或多个位置处形成,例如,在面部界面130上的面部界面电力连接器930b和在对应位置处的显示单元110上的显示单元电力连接器910b。面部界面电力连接器930b耦接到一个或多个生理传感器132以向其提供电力。显示单元电力连接器910b直接或间接耦接至电力电子器件348以从其传递电力。
数据连接906在显示单元110和面部界面130之间传递数据,诸如从显示单元110(例如,其控制器342)到面部界面130(例如,其生理传感器132和/或触觉输出设备133)的控制信号和/或从面部界面130(例如,其生理传感器132)到显示单元110(例如,其控制器342)的传感器信号。数据连接906可以以任何合适的方式形成,诸如导电地(例如,由弹簧接触件接合的固定接触件,或插头和对应的插座)或无线地(例如,使用合适协议(诸如蓝牙)的无线收发器)形成。数据连接906可以在一个或多个位置处形成,例如,在面部界面130上的面部界面数据连接器930c和在对应位置处的显示单元110上的显示单元数据连接器910c。面部界面数据连接器930c直接或间接耦接到一个或多个生理传感器132,例如,以向其传递控制信号和/或从其传递传感器信号(例如,传送感测到的生理信息)。显示单元数据连接器910c直接或间接地耦接至控制器342,例如,以从其传递控制信号和/或向其传递传感器信号(例如,所接收的感测到的生理信息)。
电力连接904和数据连接906都可以由公共连接系统形成,诸如能够传递电力和数据两者的插头和插座系统。例如,电源连接904和数据连接906可以由合适类型的通用串行总线(USB)连接器(诸如USB C型)形成。
头戴式显示器100,特别是其显示单元110,可以被配置为可互换地耦接到不同的面部界面130。不同的面部界面130可以例如在尺寸和/或形状上不同(例如,使得显示单元110可以与具有不同尺寸的面部F的人一起使用)。不同的面部界面130可以通过其生理传感器132的配置替代地或附加地不同,例如,通过具有不同类型的生理传感器132(例如,传感器632a至632i)、不同数量的生理传感器132和/或不同放置的生理传感器132。通过提供具有不同配置的生理传感器132的不同的面部界面130,从而可以提供不同的功能。例如,一个面部界面130可包括一个或多个脑部活动传感器632g和/或一个或多个电极632f用于监视脑部活动,而另一面部界面130可以包括力传感器632a。例如,通过以彼此相同的方式与显示单元110形成机械连接902、电力连接904和/或数据连接906,不同的面部界面130可以可互换地耦接到显示单元110。例如,两个不同的面部界面130与共同类型的电力连接器910b、930b和/或数据连接器910c、930c(诸如能够形成电力连接904和数据连接906两者的标准化连接器(例如,USB-C))形成电力连接904和/或数据连接906。
参考图11-15,通过面部接合区域Fengagement中的一个或多个生理传感器132感测到的生理信息可以以各种不同的方式来使用,例如,用于生理识别、评估用户适合度、评估和/或指导放置、改变图形内容以及仅出于其他目的输出生理信息,诸如个人健康监控、多人健康研究或尚未确定的用途。此外,在生理传感器132的各种用途中的一种或多种中,头戴式显示器100可以进一步利用来自电子器件140的传感器344的信息,例如,以补充、确认和/或否定使用通过面部接合区域Fengagement中的一个或多个生理传感器132感测到的生理信息进行的评估。传感器344可以例如在由面部接合区域Fengagement(例如,由面部界面130围绕)围绕的区域中感测用户的生理状况,诸如用户的眼睛E的状况或特征。
参照图11,提供了用于通过头戴式显示器进行生理认证的方法1100。在第一操作1110中感测生理状况,在第二操作1120中评估生理状况以识别或认证用户,并且在识别或认证用户之后,在第三操作1130中向用户授予权限。
在第一操作1110中,例如,与控制器342结合,利用面部接合区域Fengagement中的一个或多个传感器,诸如利用生理传感器132中的一者,来感测生理状况。生理状况可以例如包括在各个位置处的力和/或位移测量(例如,用于确定用户的面部F的形状或面部特征)或适合于识别用户的生物电信号。
第一操作1110可以进一步包括子操作1115,在子操作1115中,在面部接合区域Fengagement之外的面部区域中(即,在未被面部界面130接合的区域中)另外感测用户的生理状况。例如,显示单元110的电子器件140的传感器344中的一者(例如,相机)可以感测用户的一只或多只眼睛E的状况。
在第二操作1120中,利用诸如控制器342之类的计算设备评估在第一操作1110中感测的生理状况,以识别或认证用户。例如,将生理状况与一个或多个批准用户的先前测量或确定的生理状况进行比较。如果感测到的生理状况与用户的先前测得的那些状况相匹配或以其他方式有利地与之比较,则认为用户已被识别或认证。
第二操作1120可以进一步包括子操作1125,在该子操作中,评估在面部接合区域Fengagement之外的面部区域中感测到的生理状况。例如,将面部接合区域Fengagement之外的生理状况与一个或多个批准用户的先前测量或确定的生理状况进行比较。如果面部接合区域Fengagement之内和之外的生理状况与先前测量的状况相匹配或以其他方式有利地比较,则认为用户已被识别或认证。
在第三操作1130中,根据在第二操作1120中确定的识别或认证,头戴式显示器100向用户提供一个或多个权限,例如,以访问头戴式显示器100的不同功能(例如,图形内容)。
参照图12A和12B,提供了一种为用户确定合适的面部界面的方法1200。在第一操作1210中感测用户的生理状况,然后在第二操作1220中将感测到的生理状况与不同面部界面的生理标准相比较,并且在第三操作1230中识别不同面部界面中的一者。
在第一操作1210中,利用面部界面130感测用户的生理状况,诸如图12B中所示的面部界面1230a的变型,包括分布在其周围(例如,用户的眼睛E的上方、下方和/或沿着用户的眼睛E的侧面)的生理传感器132。生理传感器132是适合于测量用户的面部F的形状或其特征的类型,诸如力传感器632a(例如,围绕面部接合区域Fengagement的力分布)或位移传感器632d。
在第二操作1220中,使用诸如头戴式显示器100的控制器342之类的计算设备评估在第一操作1210中感测到的生理状况,以确定面部形状特征。例如,可以基于生理状况来广泛地表征面部形状(例如,通过尺寸和/或种族),或者可以更离散地表征面部形状特征(例如,各个特征(诸如用户的眉毛和鼻子)的尺寸和相对位置)。
在第三操作1230中,使用计算设备将面部形状特征与不同面部界面的对应特征进行比较,诸如面部界面130或缺少生理传感器132的其他面部界面,以便为用户的面部F识别一个或多个合适的面部界面。例如,具有不同尺寸或形状的不同面部界面130可以具有面部形状特征的可接受的值范围,并且如果面部形状特征落入其可接受的范围内,则为用户识别到合适的面部界面130。
参照图13,提供了一种用于评估头戴式显示器100的放置的方法1300。在第一操作1310中感测生理状况,在第二操作1320中评估位置,并且在第三操作1330中提供放置反馈。
在第一操作1310中,利用诸如适于评估面部界面130在用户的面部F上的放置的生理传感器132中的一者的传感器来感测生理状况。例如,生理传感器132可以是力传感器632a或位移传感器632d(例如,通过其可以确定面部F的形状或面部特征)、电容性传感器632e或合适的生物电信号传感器中的一者或多者。
第一操作1310可以进一步包括第一子操作1315,在该第一子操作1315中,在面部接合区域Fengagement之外的面部区域中(即,在未被面部界面130接合的区域中)另外感测用户的生理状况。例如,显示单元110的电子器件140的传感器344中的一者可以感测用户的一只或多只眼睛E的状况(例如,眼睛E的位置,例如,使用相机和图像识别)。
在第二操作1320中,利用诸如控制器342的计算设备根据在第一操作1310中感测到的生理状况来评估位置。例如,可以通过将由力传感器632a、电容性传感器632e感测到的生理状况与先前在面部界面130被正确地放置在用户的面部上时感测到的此类生理状况进行比较来评估与用户的面部F的正确接触。
第二操作1320可以进一步包括子操作1325,在该子操作中,评估在面部接合区域Fengagement之外的面部区域中感测到的生理状况。例如,可以根据感测到的用户的眼睛E的位置来进一步评估头戴式显示器100在用户的面部F上的位置。
在第三操作1330中,根据在第二操作1320中确定的位置评估来提供放置反馈(例如,位置指示),例如,作为由显示单元110输出的图形反馈,作为由音频输出设备输出的音频反馈,或由触觉输出设备133输出的触觉反馈,可以由计算设备来控制。放置反馈可以是二进制的(例如,如果面部界面130不在用户的面部F上处于正确位置,则为否定指示),或者可以是指示性的(例如,向用户提供有关如何将头戴式显示器100移动到正确位置的说明)。
参照图14,提供了一种用于通过头戴式显示器来改变图形内容的方法1400。在第一操作1410中感测生理状况,在第二操作1420中评估用户情绪状态,并且在第三操作1430中根据用户情绪状态改变图形内容。
在第一操作1410中,利用诸如适于评估用户的情绪状态的生理传感器132中的一者的传感器来感测生理状况。例如,生理传感器132可以是生物电信号传感器(诸如电极632f)、脑部活动传感器632g、肌肉活动传感器632h和/或心率传感器632i中的一者或多者。脑部活动、肌肉活动或心率升高可以表示情绪状态升高,而脑部活动、肌肉活动或心率较低则表明情绪状态平静。第一操作1410可以包括子操作1415,在该子操作1415中感测到不同类型的另一生理状况。可以在面部接合区域Fengagement之内或之外感测其他生理状况。例如,当用户尝试可能被面部界面130抑制的自然面部表情(例如,微笑)时,肌肉活动传感器632h和力传感器632a可以各自感测指示面部表情的生理状况。
在第二操作1420中,利用诸如控制器342的计算设备根据在第一操作1410中感测到的生理状况来评估用户情绪状态。例如,可以将脑部活动、肌肉活动或心率与较高阈值(例如,高于该阈值确定用户处于升高的情绪状态),与较低阈值(例如,低于该阈值确定用户处于平静的情绪状态)进行比较,评估趋势(如果增加或减少,则确定用户正朝着升高或平静的情绪状态移动)或其他标准(例如,生物电信号中的模式)。第二操作1420可以包括其中评估另一生理状况的子操作1425。例如,可以基于第一生理状况和第二(例如,其他)生理状况两者来确定情绪状态。
在其他示例中,力传感器632a和/或位移传感器632d可以用于识别指示用户的情绪状态的面部表情(例如,指示惊讶或平静的面部表情)。
在第三操作1430中,根据在第二操作1420中确定的用户情绪状态来改变图形内容。例如,可以改变图形内容以引起或维持升高的情绪状态(例如,通过显示更快移动的图形内容)或平静的情绪状态(例如,通过显示不那么快速移动的图形内容)。图形内容还可以根据递送图形内容的软件程序的性质而变化。例如,对于旨在引起高情绪状态的软件程序,可以以旨在改变用户的情绪状态远离平静的情绪状态的方式提供图形内容。对于旨在使用户放松的软件程序,可以以旨在改变用户的情绪状态远离升高的情绪状态的方式来提供图形内容。
参照图15,提供了一种方法1500,用于根据在用户的面部接合区域Fengagement中感测到的生理状况和另一状况来操作头戴式显示器。在第一操作1510中感测生理状况,在第二操作1520中感测另一状况,在第三操作1530中根据该生理状况和另一状况两者进行确定,并且在第四操作1540中根据该确定来执行操作。
在第一操作1510中,利用诸如生理传感器132的传感器在用户的面部F的面部接合区域Fengagement中感测生理状况。生理传感器132可以是上述传感器类型中的任何一种(例如,632a至632i),并且生理状况可以是上述生理状况中的任何一种。
在第二操作1520中,利用另一传感器感测另一状况。另一传感器可以是头戴式显示器100的另一个传感器,诸如传感器344,在这种情况下,传感器344可感测在面部接合区域Fengagement(例如,眼睛位置)之外的另一个面部区域中的用户的另一生理状况或另一状况(例如,头戴式显示器的移动)。另选地,另一传感器可以是电子设备350的传感器,其中另一状况可以是电子设备350的移动(例如,指示用户的移动)。
在第三操作1530中,根据在第一操作1510中感测到的生理状况和在第二操作1520中感测到的另一状况两者来确定。该确定是由诸如控制器342之类的计算设备做出的。该确定需要生理状况和其他状况两者作为输入。在一个示例中,该确定可以是头戴式显示器不在适当的位置,这可以根据不均匀分布的力的生理状况和用户的眼睛E相对于显示单元110偏移的其他状况来确定。在另一示例中,该确定可以是用户是高度活跃的,这可以根据高度脑部活动的生理状况以及电子设备350的高移动的其他状况两者来确定。
在第四操作1540中,根据在第三操作1530中做出的确定,执行进一步操作。进一步操作的各种示例包括提供二进制或指示性位置反馈(如上所述)或变化的图形内容(例如,显示用户高度活跃的快速变化的图形)。
物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
相反,计算机生成现实(CGR)环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子组或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,该音频对象创建3D或空间音频环境,该3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置成在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置成接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置成选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
如上所描述,本技术的一个方面是收集和使用可从各种来源获得的数据,包括感测用户的生理状况。本实用新型预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、twitter ID、家庭地址、与用户的健康或健身等级相关的数据或记录(例如,生命信号测量、药物信息、锻炼信息)、出生日期、或任何其他识别信息或个人信息。
本实用新型认识到在本实用新型技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据除其他用途外,还可用于用户识别和改变图形内容。此外,本实用新型还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本实用新型设想负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。此外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本实用新型还预期用户选择性地阻止使用或访问个人信息数据的实施方案。即本实用新型预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,在改变内容或认证用户的情况下,本实用新型的技术可被配置为在注册服务期间或之后任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。在另一示例中,用户可选择不为改变图形内容或其他用途(诸如健康研究)提供各种生理。在又一示例中,用户可选择限制感测生理数据的时间(例如,仅在身份验证期间)。除了提供“选择加入”和“选择退出”选项外,本实用新型设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本实用新型的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,虽然本实用新型广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本实用新型还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本实用新型技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可基于非个人信息数据或绝对最小量的个人信息(诸如与用户相关联的设备所请求的内容、其他非个人信息或公开可用信息)来改变图形内容。

Claims (31)

1.一种头戴式显示器,其特征在于,包括:
显示单元,所述显示单元用于向用户显示图形内容;和
面部界面,所述面部界面可移除地耦接至所述显示单元并且接合所述用户的面部的面部接合区域,由此所述显示单元被支撑在所述用户的所述面部上,所述面部界面包括用于感测所述面部接合区域中的所述用户的生理状况的生理传感器。
2.根据权利要求1所述的头戴式显示器,其中所述面部界面包括用于感测所述面部接合区域中的另一生理状况的另一生理传感器。
3.根据权利要求1所述的头戴式显示器,其中所述头戴式显示器在所述显示单元和所述面部界面之间形成机械连接,在所述显示单元和所述面部界面之间形成通过其将电力传递至所述生理传感器的电力连接,以及在所述显示单元和所述面部界面之间形成通过其从所述生理传感器发送传感器信号的数据连接。
4.根据权利要求3所述的头戴式显示器,其中所述面部界面能够与另一面部界面互换地耦接至所述显示单元,所述另一面部界面具有与所述面部界面的所述生理传感器不同类型的另一生理传感器。
5.根据权利要求4所述的头戴式显示器,其中所述另一面部界面以所述面部界面与所述显示单元形成所述电力连接和所述数据连接相同的方式与所述显示单元形成另一电力连接和另一数据连接。
6.根据权利要求5所述的头戴式显示器,其中所述面部界面包括用于形成所述电力连接和所述数据连接的连接器,并且所述另一面部界面包括与所述连接器共同类型的另一连接器。
7.根据权利要求1至6中任一项所述的头戴式显示器,其中所述生理传感器为电极,并且所述生理状况为生物电活动。
8.根据权利要求7所述的头戴式显示器,其中所述生理状况为力、压力、电容、湿度或温度中的一者。
9.根据权利要求8所述的头戴式显示器,其中所述面部界面包括另一生理传感器,其中所述生理传感器和所述另一生理传感器感测所述面部界面的不同位置处的所述力、所述压力或所述电容中的一者。
10.根据权利要求1至6中任一项所述的头戴式显示器,其中所述生理状况是力、压力、电容、湿度或温度中的一者。
11.根据权利要求1、3至6中任一项所述的头戴式显示器,其中所述显示单元包括另一生理传感器,并且所述面部界面被配置用于所述另一生理传感器测量所述用户的所述面部接合区域中的所述用户的另一生理状况。
12.根据权利要求11所述的头戴式显示器,其中所述面部界面包括窗口,由此所述另一生理传感器光学感测所述另一生理状况。
13.根据权利要求11所述的头戴式显示器,其中所述面部界面包括接合所述用户的所述面部接合区域的导电材料,并且所述另一生理传感器经由所述导电材料测量所述用户的所述另一生理状况。
14.根据权利要求1所述的头戴式显示器,其中还包括:
头部支撑件,所述头部支撑件耦接至所述显示单元并且接合所述用户的头部以在其上支撑所述显示单元;和
电子器件,所述电子器件耦接到所述显示单元并且被配置为操作所述头戴式显示器,所述电子器件包括控制器、传感器、通信接口和电力电子器件中的至少一者。
15.根据权利要求14所述的头戴式显示器,其中,所述显示单元包括:
一个或多个显示屏,所述显示屏用于显示所述图形内容;和
外壳,所述外壳耦接到所述显示屏并且容纳所述电子器件。
16.根据权利要求1所述的头戴式显示器,其中,所述面部接合区域在所述面部界面的外边缘和内边缘之间延伸。
17.一种用于头戴式显示器的面部界面,其特征在于,包括:
顺应性结构,所述顺应性结构用于接合用户的面部的面部接合区域;
耦接到所述顺应性结构的生理传感器,所述生理传感器用于测量所述面部接合区域中的所述用户的生理状况;
机械连接器,所述机械连接器耦接到所述顺应性结构,并且所述面部界面通过所述机械连接器可移除地耦接至所述头戴式显示器;和
数据连接器,所述数据连接器耦接到所述生理传感器,并且通过所述数据连接器将生理信息从所述生理传感器发送到所述头戴式显示器。
18.根据权利要求17所述的面部界面,其中所述机械连接器对应于所述头戴式显示器的另一机械连接器,并且所述数据连接器对应于所述头戴式显示器的另一数据连接器。
19.根据权利要求17所述的面部界面,其中所述数据连接器与所述头戴式显示器的另一数据连接器形成数据连接,其中所述数据连接器与可互换地耦接至所述头戴式显示器的另一面部界面的第三数据连接器是共同类型的。
20.根据权利要求17所述的面部界面,其中所述生理传感器与可互换地耦接至所述头戴式显示器的另一面部界面的另一生理传感器是不同类型的。
21.根据权利要求17所述的面部界面,其中所述顺应性结构包围所述生理传感器并且是由弹性体形成的连续形成的结构。
22.根据权利要求17所述的面部界面,其中所述顺应性结构包括:
背衬层,所述背衬层包括刚性或柔性板;
顺应性层,所述顺应性层由可压缩材料形成并且耦接至所述背衬层;和
柔性的覆盖物,
其中所述顺应性层包围所述生理传感器并且由所述覆盖物覆盖。
23.根据权利要求22所述的面部界面,其中,所述生理传感器布置成紧邻所述覆盖物。
24.根据权利要求22所述的面部界面,其中,所述覆盖物包括窗口,由此另一生理传感器光学感测另一生理状况。
25.根据权利要求17所述的面部界面,其中,所述机械连接器通过钩环紧固件、过盈配合、被动接合对应的插槽或凹槽的突起部、机构或其组合磁性地形成。
26.一种显示系统,其特征在于,包括:
头戴式显示器,所述头戴式显示器包括:
显示单元,所述显示单元用于向用户显示图形内容;和
面部界面,所述面部界面耦接至所述显示单元并且被配置为接合所述用户的面部的面部接合区域,用于在其上支撑所述显示单元,所述面部界面包括用于感测所述面部接合区域中的所述用户的生理状况的生理传感器;和
另一生理传感器,所述另一生理传感器用于感测所述面部接合区域之外的所述用户的另一生理状况;
其中所述头戴式显示器根据所述生理状况和所述另一生理状况两者形成确定,并且根据所述确定执行操作。
27.根据权利要求26所述的显示系统,其中所述另一生理传感器感测被所述面部接合区域围绕的另一区域中的所述另一生理状况。
28.根据权利要求27所述的显示系统,其中所述另一生理状况与所述用户的眼睛相关联。
29.根据权利要求28所述的显示系统,其中所述操作包括提供所述头戴式显示器在所述用户上的位置的指示。
30.根据权利要求29所述的显示系统,其中所述操作包括改变所述图形内容。
31.一种显示系统,其特征在于,包括:
头戴式显示器,所述头戴式显示器包括:
显示单元,所述显示单元用于向用户显示图形内容;和
面部界面,所述面部界面耦接至所述显示单元并且被配置为接合所述用户的面部的面部接合区域,以将显示单元支撑在所述面部上,所述面部界面包括用于感测所述面部接合区域中的所述用户的生理状况的生理传感器;和
物理上与所述头戴式显示器分开的电子设备,所述电子设备与所述面部界面通信并且包括用于感测另一状况的另一传感器,
其中,所述头戴式显示器根据所述生理状况和所述另一状况两者来形成确定,并且根据所述确定执行操作。
CN202020100275.3U 2019-01-17 2020-01-14 头戴式显示器、用于头戴式显示器的面部界面和显示系统 Active CN211834370U (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962793466P 2019-01-17 2019-01-17
US62/793,466 2019-01-17

Publications (1)

Publication Number Publication Date
CN211834370U true CN211834370U (zh) 2020-11-03

Family

ID=69529029

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202080009636.6A Pending CN113498503A (zh) 2019-01-17 2020-01-14 用于感测生理状况的具有面部界面的头戴式显示器
CN202020100275.3U Active CN211834370U (zh) 2019-01-17 2020-01-14 头戴式显示器、用于头戴式显示器的面部界面和显示系统

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202080009636.6A Pending CN113498503A (zh) 2019-01-17 2020-01-14 用于感测生理状况的具有面部界面的头戴式显示器

Country Status (6)

Country Link
US (2) US11740475B2 (zh)
EP (1) EP3894999A1 (zh)
JP (2) JP2022516358A (zh)
KR (1) KR20210098521A (zh)
CN (2) CN113498503A (zh)
WO (1) WO2020150193A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116068774A (zh) * 2023-03-06 2023-05-05 惠科股份有限公司 头戴式电子设备及头戴式电子设备的制备方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020236147A1 (en) * 2019-05-20 2020-11-26 Hewlett-Packard Development Company, L.P. Signal combination of physiological sensor signals
US10699124B1 (en) 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
US11961294B2 (en) 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
US10997418B2 (en) 2019-09-09 2021-05-04 Ar, Llc Augmented, virtual and mixed-reality content selection and display
JP7028854B2 (ja) * 2019-12-26 2022-03-02 株式会社オートネットワーク技術研究所 ワイヤーハーネス及び蓄電モジュール
WO2022025895A1 (en) * 2020-07-30 2022-02-03 Hewlett-Packard Development Company, L.P. Head-mounted display sensor status
US20240035892A1 (en) * 2022-07-29 2024-02-01 Apple Inc. Contactless sensors for a head-mountable device

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
EP0771433A1 (en) 1995-05-15 1997-05-07 HE HOLDINGS, INC. dba HUGHES ELECTRONICS Low-cost light-weight head-mounted virtual-image projection display with low moments of inertia and low center of gravity
JP3363327B2 (ja) 1996-10-28 2003-01-08 松下電工株式会社 ディスプレイ装置
US5954642A (en) 1997-12-23 1999-09-21 Honeywell Inc. Adjustable head mounted display and system
AUPP949999A0 (en) 1999-03-29 1999-04-22 Resmed Limited Forehead support for facial mask II
US6436285B1 (en) 1999-12-22 2002-08-20 William B. Kerfoot Laminated microporous diffuser
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
CN1681551B (zh) 2002-09-06 2011-03-02 雷斯梅德有限公司 呼吸面罩的前额衬垫
US7762665B2 (en) * 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US20150295923A1 (en) * 2007-03-28 2015-10-15 Autodesk, Inc. Environment based switching between two dimensions and three dimensions
US8605008B1 (en) 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CN102436064B (zh) 2010-09-29 2016-02-24 奥林巴斯株式会社 头戴式显示器
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP5762892B2 (ja) * 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
US8661662B1 (en) 2012-08-10 2014-03-04 Eastman Kodak Company Making transparent touch-responsive device with micro-wire electrodes
US9069166B2 (en) * 2012-02-29 2015-06-30 Recon Instruments Inc. Gaze detecting heads-up display systems
JP5903018B2 (ja) 2012-09-26 2016-04-13 ソニー株式会社 ヘッドマウントディスプレイ
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9081210B2 (en) 2012-12-12 2015-07-14 Microsoft Technology Licensing, Llc Head worn device having temple arms to provide long axis compression
CN105103243B (zh) 2013-02-05 2017-11-28 古河电气工业株式会社 电线结构体、电连接结构及电线结构体的制造方法
CN105453395B (zh) 2013-08-09 2018-06-08 株式会社成田 磁力旋转装置、电动机以及电动发电机
US20160235323A1 (en) 2013-09-25 2016-08-18 Mindmaze Sa Physiological parameter measurement and feedback system
US9452260B2 (en) * 2013-11-22 2016-09-27 Verily Life Sciences Llc Closed loop control system based on a non-invasive continuous sensor
US9377626B2 (en) 2014-02-18 2016-06-28 Merge Labs, Inc. Remote control augmented motion data capture
KR102299774B1 (ko) * 2014-08-28 2021-09-09 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
KR102230076B1 (ko) 2014-09-01 2021-03-19 삼성전자 주식회사 헤드 마운트 디스플레이 장치
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US9489044B2 (en) * 2014-11-07 2016-11-08 Eye Labs, LLC Visual stabilization system for head-mounted displays
US9904054B2 (en) 2015-01-23 2018-02-27 Oculus Vr, Llc Headset with strain gauge expression recognition system
KR102274743B1 (ko) * 2015-01-30 2021-07-08 삼성전자주식회사 전자 장치 및 전자 장치의 화면 영역 처리 방법
KR101564964B1 (ko) * 2015-02-05 2015-11-02 계명대학교 산학협력단 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치
US9836663B2 (en) 2015-03-05 2017-12-05 Samsung Electronics Co., Ltd. User authenticating method and head mounted device supporting the same
US11252399B2 (en) * 2015-05-28 2022-02-15 Microsoft Technology Licensing, Llc Determining inter-pupillary distance
US20180092588A1 (en) * 2015-06-14 2018-04-05 Facense Ltd. Suggest activities according to the dominant nostril
US10545714B2 (en) * 2015-09-04 2020-01-28 Samsung Electronics Co., Ltd. Dual screen head mounted display
CN105455792B (zh) 2015-12-18 2018-09-25 济南中景电子科技有限公司 用于虚拟现实眼镜的头带
WO2017132958A1 (en) * 2016-02-04 2017-08-10 Zeng Xinxiao Methods, systems, and media for voice communication
US10054503B2 (en) 2016-03-11 2018-08-21 Microsoft Technology Licensing, Llc Force sensor
US10359806B2 (en) 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
US9851267B1 (en) 2016-06-01 2017-12-26 Microsoft Technology Licensing, Llc Force-sensing element
EP4105921A1 (en) * 2016-06-20 2022-12-21 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
US10488830B2 (en) 2016-08-10 2019-11-26 Intel Corporation Automatic adjustment of head mounted display straps
KR102629569B1 (ko) * 2016-08-17 2024-01-29 삼성전자주식회사 카메라를 포함하는 전자 장치
EP3518730B1 (en) 2016-10-03 2024-04-17 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery
WO2018093181A1 (ko) 2016-11-16 2018-05-24 삼성전자 주식회사 전자 장치 및 그 제어 방법
CN206321884U (zh) 2016-12-22 2017-07-11 深圳市掌网科技股份有限公司 一种用于头戴设备的贴面装置
KR102078583B1 (ko) * 2017-04-06 2020-02-19 주식회사 룩시드랩스 헤드 마운트 디스플레이 장치
CA3065383A1 (en) * 2017-05-30 2018-12-06 Interaxon Inc. Wearable computing device with electrophysiological sensors
WO2019240564A1 (ko) 2018-06-15 2019-12-19 주식회사 룩시드랩스 생체 데이터 획득용 탈착식 기능모듈 및 이를 포함하는 헤드 마운트 디스플레이 장치
US10564717B1 (en) * 2018-07-16 2020-02-18 Facebook Technologies, Llc Apparatus, systems, and methods for sensing biopotential signals
KR20200103397A (ko) * 2019-02-25 2020-09-02 주식회사 룩시드랩스 생체 신호 센서 탑재 hmd 기기를 활용한 사용자의 스트레스 분석 및 개인 정신건강 관리 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116068774A (zh) * 2023-03-06 2023-05-05 惠科股份有限公司 头戴式电子设备及头戴式电子设备的制备方法

Also Published As

Publication number Publication date
EP3894999A1 (en) 2021-10-20
US11740475B2 (en) 2023-08-29
KR20210098521A (ko) 2021-08-10
WO2020150193A1 (en) 2020-07-23
US20230350214A1 (en) 2023-11-02
JP2023123654A (ja) 2023-09-05
CN113498503A (zh) 2021-10-12
US20200233220A1 (en) 2020-07-23
JP2022516358A (ja) 2022-02-25

Similar Documents

Publication Publication Date Title
CN211834370U (zh) 头戴式显示器、用于头戴式显示器的面部界面和显示系统
CN113330353B (zh) 头戴式显示器及其面部界面
US20200201042A1 (en) Modular system for head-mounted device
CN112444996B (zh) 具有张紧调节的头戴式设备
US11287886B1 (en) Systems for calibrating finger devices
CN114175045B (zh) 利用亮度变化来确定用户特征
US20230418378A1 (en) Creation of optimal working, learning, and resting environments on electronic devices
US11768379B2 (en) Electronic device with facial sensors
US20230229007A1 (en) Fit detection for head-mountable devices
US12001751B2 (en) Shared data and collaboration for head-mounted devices
US11402644B1 (en) Head securement for head-mountable device
CN209928142U (zh) 头戴式设备
US11709554B1 (en) Finger devices with adjustable housing structures
US11714286B1 (en) Accessory for head-mountable device
US11762457B1 (en) User comfort monitoring and notification
EP4312102A1 (en) Wear detection

Legal Events

Date Code Title Description
GR01 Patent grant
GR01 Patent grant