CN118355354A - 人工现实设备头戴式装置戴上和脱下检测 - Google Patents

人工现实设备头戴式装置戴上和脱下检测 Download PDF

Info

Publication number
CN118355354A
CN118355354A CN202280078871.8A CN202280078871A CN118355354A CN 118355354 A CN118355354 A CN 118355354A CN 202280078871 A CN202280078871 A CN 202280078871A CN 118355354 A CN118355354 A CN 118355354A
Authority
CN
China
Prior art keywords
threshold
imu
proximity
readings
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280078871.8A
Other languages
English (en)
Inventor
特蕾莎·洛尼·卡萨雷斯
张强
宋文
杨东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Meta Platforms Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meta Platforms Technologies LLC filed Critical Meta Platforms Technologies LLC
Publication of CN118355354A publication Critical patent/CN118355354A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

本公开的各方面涉及一种用于人工现实设备头戴式装置的多传感器戴上/脱下检测系统。多传感器戴上/脱下检测系统可以使用接近传感器、惯性测量单元(IMU)和眼动追踪/面部追踪(ET/FT)单元的组合来进行这些确定。然而,当ET/FT系统和接近传感器系统都是活动的时,它们可能会具有系统共存问题。因此,同时可能只能使用这些系统中的一个系统。多传感器戴上/脱下检测系统可以通过使用来自接近传感器和IMU的输入来更准确地识别戴上事件。多传感器戴上/脱下检测系统还可以通过使用来自IMU的输入以及A)当ET/FT系统被禁用时来自接近传感器的输入或B)当ET/FT系统被启用时来自ET/FT系统的输入来更准确地识别脱下事件。

Description

人工现实设备头戴式装置戴上和脱下检测
技术领域
本公开涉及检测何时穿上(戴上)或取下(脱下)人工现实设备头戴式装置的设备和方法。
背景技术
人工现实设备的戴上/脱下检测可能会直接影响电池寿命和用户体验。在一些现有系统中,使用接近传感器、电容传感器或机械开关中的一个来执行戴上/脱下检测。然而,这些系统中的每一个都容易出现假阳性和假阴性,这是因为用户和环境条件的范围很广,例如良视距范围、鼻子高度、肤色、用户是否戴眼镜、发型、IPD干扰、光阻挡干扰、环境照明、汗水或环境湿度、快速设备移动等。虽然可以使用各戴上/脱下检测系统的组合,但这样的系统可能会相互干扰,导致的问题比它们解决的问题更多。
发明内容
根据本公开的第一方面,提供了一种用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的方法,该方法包括:从人工现实设备头戴式装置处于脱下状态开始,确定以下两项:当前接近读数集合高于接近戴上阈值;以及当前IMU读数集合高于IMU戴上阈值;以及作为响应,将人工现实设备头戴式装置改变为处于戴上状态;以及从人工现实设备头戴式装置处于戴上状态开始,当眼动追踪/面部追踪(eyetracking/face tracking,ET/FT)系统是活动的时:确定:A)当前ET/FT读数集合是否指示持续阈值时间量的眼动追踪或面部追踪丢失,以及B)当前惯性测量单元(inertialmeasurement unit,IMU)读数集合是否低于IMU脱下阈值;以及响应于A)或B)为真,将人工现实设备头戴式装置改变为处于脱下状态;以及当ET/FT系统不是活动的时:确定:C)当前接近读数集合是否低于接近脱下阈值,以及D)当前IMU读数集合是否低于IMU脱下阈值;并且响应于C)或D)为真,将人工现实设备头戴式装置改变为处于脱下状态。
确定当前接近读数集合高于接近戴上阈值可以包括确定持续至少1秒在接近传感器的30mm内检测到对象;以及确定当前接近读数集合是否可能低于接近脱下阈值包括:确定持续至少1秒在接近传感器的30mm内没有检测到对象。
确定当前接近读数集合高于接近戴上阈值可以包括:确定持续至少阈值时间量在接近传感器的阈值距离内检测到对象;以及确定当前接近读数集合是否低于接近脱下阈值可以包括:确定持续至少阈值时间量在接近传感器的阈值距离内没有检测到对象。
确定当前IMU读数集合是否低于IMU脱下阈值可以包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度。
确定当前IMU读数集合是否低于IMU脱下阈值可以包括:确定由IMU测量的力或角速度持续至少2分钟小于阈值力或阈值角速度。
该方法还可以包括:通过确定人工现实设备上的任何活动应用程序是否被配置为启用ET/FT系统来确定ET/FT系统是否是活动的。
用于确定当前ET/FT读数集合是否指示眼动追踪或面部追踪丢失的阈值时间量可以是1秒。
根据本公开的第二方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有指令,所述指令在由计算系统执行时使所述计算系统执行用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的过程,所述过程包括:当眼动追踪/面部追踪(ET/FT)系统是活动的时:确定A)当前ET/FT读数集合是否指示持续阈值时间量的眼动或面部追踪丢失,以及B)当前IMU读数集合是否低于IMU脱下阈值;以及响应于A)或B)为真,将人工现实设备头戴式装置改变为处于脱下状态;以及当ET/FT系统不是活动的时:确定C)当前接近读数集是否低于接近脱下阈值,以及D)当前IMU读数集合是否低于IMU脱下阈值;以及响应于C)或D)为真,将人工现实设备头戴式装置改变为处于脱下状态。
所述过程还包括:确定以下两项:当前接近读数集合高于接近戴上阈值;当前IMU读数集合高于IMU戴上阈值;以及作为响应,将所述人工现实设备头戴式装置改变为处于戴上状态;
确定当前接近读数集合高于接近戴上阈值可以包括:确定持续至少阈值时间量在接近传感器的阈值距离内检测到对象;以及确定当前接近读数集合是否低于接近脱下阈值可以包括确定持续至少阈值时间量在接近传感器的阈值距离内没有检测到对象。
确定当前IMU读数集合是否低于IMU脱下阈值可以包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度。
确定当前IMU读数集合是否低于IMU脱下阈值可以包括:确定由IMU测量的力或角速度持续至少2分钟小于阈值力或阈值角速度。
该过程还可以包括:通过确定人工现实设备上的任何活动应用程序是否被配置为启用ET/FT系统来确定ET/FT系统何时是活动的。
用于确定当前ET/FT读数集合是否指示眼动追踪或面部追踪丢失的阈值时间量可以在0.5秒到3秒的范围内。
根据本公开的第三方面,提供了一种用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的计算系统,所述计算系统包括:一个或多个处理器;以及一个或多个存储器,所述一个或多个存储器存储有指令,所述指令在由所述一个或多个处理器执行时使所述计算系统执行一过程,所述过程包括:当眼动追踪/面部追踪(ET/FT)系统是活动的时:确定当前ET/FT读数集合是否指示持续阈值时间量的眼动追踪或面部追踪丢失,或者当前IMU读数集合是否低于IMU脱下阈值;以及作为响应,将所述人工现实设备头戴式装置改变为处于脱下状态;当ET/FT系统不是活动的时:确定当前接近读数集合是否低于接近脱下阈值或当前IMU读数集合是否低于IMU脱下阈值;以及作为响应,将人工现实设备头戴式装置改变为处于脱下状态。
该过程还可以包括:确定以下两项:当前接近读数集合高于接近戴上阈值;以及当前IMU读数集合高于IMU戴上阈值;以及作为响应,将人工现实设备头戴式装置改变为处于戴上状态。
确定当前接近读数集合是否低于接近脱下阈值可以包括:确定持续至少阈值时间量在接近传感器的阈值距离内没有检测到对象。
确定当前IMU读数集合是否低于IMU脱下阈值可以包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度。
该过程还可以包括:通过确定人工现实设备上的任何活动应用程序是否被配置为启用ET/FT系统来确定ET/FT系统何时是活动的。
用于确定当前ET/FT读数集合是否指示眼动追踪或面部追踪丢失的阈值时间量可以为至少1秒。
附图说明
图1为示出了本技术的一些实施方式可以在其上运行的设备的概况的框图。
图2A为示出了可在本技术的一些实施方式中使用的虚拟现实头戴式装置的第一视图的线示图。
图2B为示出了可在本技术一些实施方式中使用的混合现实头戴式装置的线示图。
图2C为示出了控制器的线示图,在一些实施方式中,用户可用单手或双手握住控制器以与人工现实环境进行交互。
图2D为示出了可在本技术的一些实施方式中使用的虚拟现实头戴式装置的第二视图的线示图。
图3为示出了本技术的一些实施方式可以在其中运行的环境的概况的框图。
图4为示出了在一些实施方式中可在采用了所公开技术的系统中使用的部件的框图。
图5为示出了在本技术的一些实施方式中用于根据IMU传感器、接近传感器和眼动追踪/面部追踪摄像头中的两个的组合来设置人工现实设备头戴式装置的戴上状态或脱下状态的过程的流程图。
通过结合附图参考以下具体实施方式,可以更好地理解这里所介绍的技术,在附图中,相似的附图标记指代相同或功能相似的元件。
具体实施方式
本公开的各方面涉及多传感器戴上/脱下检测系统,其基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置。多传感器戴上/脱下检测系统可以使用接近(proximity,“Prox”)传感器、惯性测量单元(IMU)和眼动追踪/面部追踪(ET/FT)单元的组合来进行这些确定。然而,ET/FT传感器和接近传感器两者有时在相同的频率范围和空间区域中工作,这可能导致系统共存问题(从接近传感器到ET/FT摄像头、以及从ET/FT单元使用的照明设备到接近传感器这两者)。因此,当ET/FT系统和接近传感器系统两者都是活动的时,这可能导致假阳性和/或假阴性的戴上/脱下检测。
例如,当戴上人工现实设备头戴式装置时,如果传感器太不敏感,则多传感器戴上/脱下检测系统可能具有假阴性,导致人工现实设备头戴式装置无法初始化其显示器和被禁用的其他系统;并且如果传感器太敏感,则多传感器戴上/脱下检测系统可能具有假阳性,导致在设备未实际佩戴时打开人工现实设备头戴式装置,由于不必要地初始化显示器和其他系统而浪费电池并导致损耗。此外,当脱下人工现实设备头戴式装置时,如果传感器太不敏感,则多传感器戴上/脱下检测系统可能具有假阴性,导致人工现实设备头戴式装置无法关闭其显示器或其他系统,浪费电池并造成不必要的损耗;并且如果传感器太敏感,则多传感器戴上/脱下检测系统可能具有假阳性,导致人工现实设备头戴式装置在用户仍然需要时错误地关闭其显示器和其他系统。
通过使用来自接近传感器和IMU的输入,多传感器戴上/脱下检测系统可以更准确地识别戴上事件,并设置对应的戴上状态变量。这些系统使用低功率且彼此不干扰,因此非常适合用于戴上检测。此外,因为ET/FT系统在人工现实设备头戴式装置未被戴上时是不需要的,所以可以禁用ET/FT系统,以便不干扰接近传感器。可以通过以下方式来使用来自接近传感器和IMU的输入:将来自接近传感器和IMU的输入中的每个与阈值进行比较,并且在这两者都超过阈值时,识别到戴上事件。例如,如果接近传感器持续超过1秒识别到距离其在30mm以内的对象,并且IMU的力或角速度读数超过指定阈值,则可能识别到戴上事件。
多传感器戴上/脱下检测系统还可以通过使用来自IMU的输入以及A)当ET/FT系统被禁用时来自接近传感器的输入或B)当ET/FT系统被启用时来自ET/FT系统的输入,来更准确地识别脱下事件,并设置对应的脱下状态变量。因此,多传感器戴上/脱下检测系统在较低功率的接近检测系统不会与较高功率的ET/FT系统干扰时使用该较低功率的接近检测系统,并且在较高功率的ET/FT系统反正都已被启用时使用该较高功率的ET/FT系统(禁用可能与ET/FT系统干扰的接近传感器)。多传感器戴上/脱下检测系统可以通过以下方式来使用来自接近传感器和IMU的输入:如果A)接近传感器读数持续至少1秒没有达到阈值、或者B)IMU读数持续至少2分钟没有达到阈值,则识别到脱下事件。多传感器戴上/脱下检测系统可以通过以下方式来使用来自ET/FT系统和IMU的输入:如果A)ET/FT系统持续至少1秒丢失眼动检测/面部检测、或者B)IMU读数持续至少2分钟未达到阈值,则识别到脱下事件。
所公开技术的实施例可以包括人工现实系统,或者可以结合人工现实系统来实现。人工现实或超现实(extra reality,XR)是在呈现给用户之前已经以某种方式进行了调整的现实形式,该人工现实或超现实例如可以包括虚拟现实(virtual reality,VR)、增强现实(augmented reality,AR)、混合现实(mixed reality,MR)、混合现实(hybridreality)、或它们的某种组合和/或衍生物。人工现实内容可以包括完全生成的内容或与所采集的内容(例如,真实世界的照片)相结合的生成的内容。人工现实内容可以包括视频、音频、触觉反馈或它们的某种组合,以上中的任何一种都可以在单个通道或多个通道中呈现(例如,给观看者带来三维效果的立体视频)。此外,在一些实施例中,人工现实还可以与应用程序、产品、附件、服务或它们的某种组合相关联,这些应用程序、产品、附件、服务或它们的某种组合例如用于在人工现实中创建内容,和/或用于人工现实中(例如,在人工现实中执行活动)。提供人工现实内容的人工现实系统可以在各种平台上实现,这些平台包括连接到主计算机系统的头戴式显示器(head-mounted display,HMD)、独立HMD、移动设备或计算系统、“洞穴式(cave)”环境或其他投影系统、或能够向一位或多位观看者提供人工现实内容的任何其它硬件平台。
如本文所使用的“虚拟现实”或“VR”是指这样的沉浸式体验:在该沉浸式体验中,用户的视觉输入由计算系统控制。“增强现实”或“AR”是指这样的系统:在所述系统中,用户在真实世界的图像通过计算系统之后,观看这些真实世界的图像。例如,背面带有摄像头的平板电脑可以采集多幅真实世界图像,并且随后可以在该平板电脑的与摄像头相对的一侧的屏幕上显示这些图像。该平板电脑可以在这些图像通过系统时,例如通过添加虚拟对象来处理并且调整或“增强”这些图像。“混合现实”或“MR”是指这样的系统:在所述系统中,进入用户眼睛的光部分地由计算系统产生,且部分地构成从真实世界中的对象反射出的光。例如,MR头戴式装置可以被成形为具有透传式显示器的一幅眼镜,该具有透传式显示器的眼镜允许来自真实世界的光穿过波导,该波导同时出射来自MR头戴式装置中的投影仪的光,从而允许该MR头戴式装置呈现与用户可看到的真实对象混合在一起的虚拟对象。如本文所使用的,“人工现实”、“超现实”或“XR”是指VR、AR、MR、或它们的任何组合或混合中的任何一者。
以下参考附图更详细地论述了数个实施方式。图1为示出了所公开技术的一些实施方式可以在其上运行的设备的概况的框图。设备可以包括计算系统100的多个硬件部件,该计算系统100可以根据多个检测系统来检测何时已经穿上(戴上)或取下(脱下)人工现实设备头戴式装置。在各种实施方式中,计算系统100可以包括单个计算设备103或多个计算设备(例如,计算设备101、计算设备102和计算设备103),所述多个计算设备通过有线信道或无线信道通信,以分发处理并共享输入数据。在一些实施方式中,计算系统100可以包括独立头戴式装置,该独立头戴式装置能够在无需外部处理或传感器的情况下,为用户提供计算机创建或增强的体验。在其它实施方式中,计算系统100可以包括多个计算设备,该多个计算设备诸如为头戴式装置和核心处理部件(诸如控制台、移动设备或服务器系统),其中,一些处理操作在头戴式装置上执行而其它处理操作被转移到核心处理部件。以下结合图2A和图2B描述了示例头戴式装置。在一些实施方式中,位置数据和环境数据可仅由包含在头戴式装置中的传感器收集,而在其它实施方式中,多个非头戴式装置计算设备中的一个或多个可以包括可追踪环境数据或位置数据的传感器部件。
计算系统100可以包括一个或多个处理器110(例如,中央处理单元(centralprocessing unit,CPU)、图形处理单元(graphical processing unit,GPU)、全息处理单元(holographic processing unit,HPU)等)。处理器110可以是单个处理单元或多个处理单元,所述多个处理单元位于一个设备中或分布在多个设备上(例如,分布在计算设备101至103中的两个或更多个计算设备上)。
计算系统100可以包括一个或多个输入设备120,所述一个或多个输入设备120向处理器110提供输入,从而将动作通知给这些处理器。动作可以由硬件控制器传送,该硬件控制器对从输入设备接收的信号进行解释,并使用通信协议将信息传送到处理器110。每个输入设备120可以例如包括鼠标、键盘、触摸屏、触摸板、可穿戴输入设备(例如,触觉手套、手镯、戒指、耳环、项链、手表等)、摄像头(或其它基于光的输入设备,例如红外传感器)、传声器、或其它用户输入设备。
处理器110可以例如通过使用内部总线或外部总线而耦接到其它硬件设备,上述总线例如为PCI总线、SCSI总线、或无线连接。处理器110可以与用于设备(例如,用于显示器130)的硬件控制器进行通信。显示器130可用于显示文本和图形。在一些实施方式中,显示器130包括输入设备,例如当该输入设备是触摸屏或配备有眼动方向监测系统时,该输入设备作为显示器的一部分。在一些实施方式中,显示器与输入设备分开。显示设备的示例有:LCD显示屏、LED显示屏、投影显示器、全息显示器、或增强现实显示器(例如,平视显示设备或头戴式设备)等。其他I/O设备140也可以耦接到处理器,其他I/O设备例如为网络芯片或网卡、视频芯片或视频卡、音频芯片或音频卡、USB、火线或其他外部设备、摄像头、打印机、扬声器、CD-ROM驱动器、DVD驱动器、磁盘驱动器等。
在一些实施方式中,来自I/O设备140(例如摄像头、深度传感器、IMU传感器、GPS单元、激光雷达(LiDAR)或其他飞行时间传感器等)的输入可以被计算系统100使用,以识别和绘制用户的物理环境,同时追踪用户在该环境中的位置。同步定位与地图构建(simultaneous localization and mapping,SLAM)系统可以生成区域(其可以是房间、建筑物、室外空间等)的地图(例如,拓扑、网格等)和/或获得先前由计算系统100或已经绘制该区域的另一计算系统所生成的地图。该SLAM系统可以基于GPS数据等因素追踪区域内的用户,将识别的对象和结构与所绘制的对象和结构相匹配,监测加速度和其他位置变化等。
计算系统100可以包括这样的通信设备:该通信设备能够与其它本地计算设备或网络节点无线地通信或基于有线地通信。该通信设备可以通过网络例如使用TCP/IP协议与另一设备或服务器通信。计算系统100可以利用该通信设备在多个网络设备上分发操作。
处理器110可以访问存储器150,该存储器可以被包含在计算系统100的多个计算设备中的一个计算设备上,或者可以分布在计算系统100的多个计算设备、或其它外部设备上。存储器包括用于易失性或非易失性存储的一个或多个硬件设备,并且可以包括只读存储器和可写存储器两者。例如,存储器可以包括以下中的一者或多者:随机存取存储器(random access memory,RAM)、各种高速缓冲存储器、CPU寄存器、只读存储器(read-onlymemory,ROM)和可写非易失性存储器,该可写非易失性存储器例如为闪存、硬盘驱动器、软盘、CD、DVD、磁存储设备和磁带驱动器等。存储器不是脱离底层硬件的传播信号,因此该存储器是非暂态的。存储器150可以包括存储程序和软件的程序存储器160,上述程序和软件例如为操作系统162、多传感器戴上/脱下检测系统164和其它应用程序166。存储器150还可以包括数据存储器170,数据存储器170可以包括IMU读数、接近传感器读数、ET/FT读数、戴上和脱下检测的读数阈值、ET/FT状态识别符、戴上/脱下状态识别符、配置数据、设置、用户选项或偏好等,其可以被提供给程序存储器160或计算系统100的任何元件。
一些实施方式可以与许多其它计算系统环境或配置一起运行。可适用于与该技术一起使用的计算系统、环境和/或配置的示例包括但不限于XR头戴式装置、个人计算机、服务器计算机、手持式设备或膝上型设备、蜂窝电话、可穿戴电子设备、游戏控制台、平板设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费类电子设备、网络PC、小型计算机、大型计算机、或包括上述系统或设备中的任何系统或设备的分布式计算环境等。
图2A是根据一些实施例的虚拟现实头戴式显示器(HMD)200的线示图。HMD 200包括前部刚性体205和带210。前部刚性体205包括电子显示器245的一个或多个电子显示元件、惯性测量单元(IMU)215、一个或多个位置传感器220、定位器225、以及一个或多个计算单元230。位置传感器220、IMU 215和计算单元230可以位于HMD 200内部,并且可以对用户不可见。在各种实施方式中,IMU 215、位置传感器220和定位器225可以以三自由度(threedegrees of freedom,3DoF)或六自由度(six degrees of freedom,6DoF)追踪HMD 200在真实世界中和人工现实环境中的移动和位置。例如,定位器225可以发射红外光束,这些红外光束在HMD 200周围的真实对象上产生光点。作为另一示例,IMU 215例如可以包括:一个或多个加速度计;一个或多个陀螺仪;一个或多个磁力计;一个或多个其它非基于摄像头的位置、力或方位传感器;或它们的组合。与HMD 200集成在一起的一个或多个摄像头(未示出)可以检测光点。HMD 200中的计算单元230可以使用检测到的光点,来推测HMD 200的位置和移动,以及识别HMD 200周围的真实对象的形状和位置。
电子显示器245可以与前部刚性体205集成在一起,并且可以如计算单元230所指示的向用户提供图像光。在各种实施例中,电子显示器245可以是单个电子显示器或多个电子显示器(例如,用户的每只眼睛一个显示器)。电子显示器245的示例包括:液晶显示器(liquid crystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)显示器、有源矩阵有机发光二极管显示器(active-matrix organic light-emittingdiode display,AMOLED)、包括一个或多个量子点发光二极管(quantum dot light-emitting diode,QOLED)子像素的显示器、投影仪单元(例如,微型LED、激光器(LASER)等)、一些其他显示器、或它们的某种组合。
在一些实施方式中,HMD 200可以耦接到诸如个人计算机(personal computer,PC)(未示出)等核心处理部件和/或一个或多个外部传感器(未示出)。外部传感器可以(例如通过从HMD 200发射的光)对HMD 200进行监测,PC可以使用该HMD结合来自IMU 215和位置传感器220的输出,来确定HMD 200的位置和移动。
图2B是混合现实HMD系统250的线示图,该混合现实HMD系统包括混合现实HMD 252和核心处理部件254。混合现实HMD 252和核心处理部件254可以通过如链路256所指示的无线连接(例如,60GHz链路)进行通信。在其它实施方式中,混合现实系统250仅包括头戴式装置而没有外部计算设备,或者在混合现实HMD 252与核心处理部件254之间包括其它有线或无线连接。混合现实HMD 252包括透传式显示器258和框架260。框架260可以容纳各种电子部件(未示出),诸如光投影仪(例如,激光器、LED等)、摄像头、眼动追踪传感器、微机电系统(MEMS)部件、网络部件等。
投影仪可以例如经由光学元件耦接到透传式显示器258,以向用户显示媒体。光学元件可以包括用于将来自投影仪的光引导到用户的眼睛的一个或多个波导组件、反射器、透镜、反射镜、准直器、光栅等。可以经由链路256将图像数据从核心处理部件254传输到HMD252。HMD 252中的控制器可以将图像数据转换为来自投影仪的多个光脉冲,这些光脉冲可以作为输出光经由光学元件传输到用户的眼睛。该输出光可以与穿过显示器258的光混合,从而允许输出光呈现以下虚拟对象:这些虚拟对象看起来如同存在于真实世界中一样。
与HMD 200类似,HMD系统250也可以包括运动和位置追踪单元、摄像头、光源等,上述运动和位置追踪单元、摄像头、光源等允许HMD系统250例如以3DoF或6DoF追踪其自身,追踪用户的多个部分(例如,手部、脚部、头部、或其它身体部位),将虚拟对象绘制(map)为在HMD 252移动时看起来如同静止一样,以及使虚拟对象对姿态和其它真实世界对象作出反应。
图2C示出了控制器270,在一些实施方式中,用户可以用单手或双手握住所述控制器以与由HMD 200和/或HMD 250呈现的人工现实环境进行交互。控制器270可以直接或经由外部设备(例如,核心处理部件254)与HMD通信。控制器可以有其自己的IMU单元、位置传感器,和/或可以发射更远的光点。HMD 200或250、外部传感器或控制器中的传感器可以追踪这些控制器光点以确定控制器的位置和/或方位(例如,以便以3DoF或6DoF追踪控制器)。HMD 200中的计算单元230或核心处理部件254可以结合IMU输出和位置输出,使用该追踪来监测用户手部的位置和运动。控制器还可以包括各种按钮(例如,按钮272A至272F)和/或操纵杆(例如,操纵杆274A至274B),用户可以对这些按钮和/或操纵杆进行致动来提供输入并与对象进行交互。
图2D为示出了可在本技术的一些实施方式中使用的人工现实设备头戴式装置280的第二视图的线示图。在一些实施方式中,人工现实设备头戴式装置280与虚拟现实HMD200或混合现实HMD系统250相同或共享部件。人工现实设备头戴式装置280可以包括透镜282A和282B。人工现实设备头戴式装置280可以包括接近传感器284,该接近传感器284可以发射光束(例如红外光),并检测光束如何从目标反弹以获得到该目标的距离。人工现实设备头戴式装置280可以包括眼动追踪/面部追踪(ET/FT)系统,包括ET/FT摄像头286A至286E。在一些实施方式中,这些ET/FT摄像头可以以72赫兹(Hz)或90Hz运行。作为另一示例,一个或多个光源可以照亮透镜282前的用户的两只眼睛中的任一眼睛或两只眼睛,并且ET/FT摄像头可以采集该光的反射光以(例如,基于用户角膜周围的一组反射光)确定眼睛位置,对用户的眼睛建模并确定注视方向。ET/FT摄像头286还可以采集用户面部的部分以检测例如面部表情。
在各种实施方式中,HMD 200、250或者人工现实设备头戴式装置还可以包括多个附加子系统以监测用户交互和意图的指示,该多个附加子系统例如为音频系统、各种网络部件等。例如,在一些实施方式中,代替控制器或除控制器之外,HMD 200、HMD 250或者人工现实设备头戴式装置280中所包括的或来自外部摄像头的一个或多个摄像头可以监测用户的手部的位置和姿势,以确定姿态和其它手部和身体运动。
图3为示出了所公开技术的一些实施方式可以在其中运行的环境300的概况的框图。环境300可以包括一个或多个客户端计算设备305A至305D,客户端计算设备的示例可以包括计算系统100。在一些实施方式中,客户端计算设备中的一些客户端计算设备(例如,客户端计算设备305B)可以是HMD 200或HMD系统250。客户端计算设备305可以在网络环境中使用通过网络330到一个或多个远程计算机(诸如,服务器计算设备)的逻辑连接来运行。
在一些实施方式中,服务器310可以是边缘服务器,该边缘服务器接收多个客户端请求,并通过其它服务器(诸如,服务器320A至320C)协调对那些请求的实现。服务器计算设备310和320可以包括计算系统,例如计算系统100。尽管每个服务器计算设备310和320在逻辑上被显示为单个服务器,但服务器计算设备中的每个均可以是以下分布式计算环境:该分布式计算环境包含位于同一物理位置或位于地理上不同的物理位置处的多个计算设备。
客户端计算设备305以及服务器计算设备310和320均可以充当一个或多个其它服务器/客户端设备的服务器或客户端。服务器310可以连接到数据库315。服务器320A至320C可以各自连接到对应的数据库325A至325C。如以上所论述的,每个服务器310或320可以与一组服务器相对应,并且这些服务器中的每个可以共享数据库,或者可以具有其自己的数据库。尽管数据库315和325在逻辑上被显示为单个单元,但数据库315和325均可以是包含多个计算设备的分布式计算环境,可以位于其对应的服务器内,或者可以位于同一物理位置处或位于地理上不同的物理位置处。
网络330可以是局域网(local area network,LAN)、广域网(wide area network,WAN)、网状网络、混合网络、或其它有线或无线网络。网络330可以是互联网或某种其它的公共或专用网络。客户端计算设备305可以经由网络接口诸如通过有线或无线通信连接到网络330。尽管服务器310与服务器320之间的连接被显示为单独的连接,但这些连接可以是包括网络330或单独的公共或专用网络的任何类型的局域网、广域网、有线网络、或无线网络。
图4为示出了在一些实施方式中可在采用了所公开技术的系统中使用的部件400的框图。部件400可以被包括在计算系统100的一个设备中,或者可以分布在计算系统100的多个设备上。部件400包括硬件410、中间件420和多个专用部件430。如以上所论述的,实现所公开技术的系统可以使用各种硬件,所述各种硬件包括处理单元412、工作存储器414、输入和输出设备416(例如,摄像头、显示器、IMU单元、网络连接等)和存储内存418。在各种实施方式中,存储内存418可以是以下中的一者或多者:本地设备、到远程存储设备的接口、或它们的组合。例如,存储内存418可以是可通过系统总线访问的一个或多个硬盘驱动器或闪存驱动器,或者可以是可经由一个或多个通信网络访问的云存储供应商(诸如,在存储器315或325中)或其它网络存储器。在各种实施方式中,部件400可以在客户端计算设备(诸如客户端计算设备305)中实现,或者在服务器计算设备(诸如服务器计算设备310或320)上实现。
中间件420可以包括以下部件:所述部件在硬件410与专用部件430之间协调资源。例如,中间件420可以包括操作系统、服务系统(services)、驱动器、基本输入输出系统(basic input output system,BIOS)、控制器电路、或其它硬件或软件系统。
多个专用部件430可以包括被配置为执行用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的操作的软件或硬件。多个专用部件430可以包括:接近感测系统434;IMU系统436;ET/FT系统438;戴上/脱下状态追踪系统440;以及可用于提供用户界面、传输数据以及控制多个专用部件的部件和API(诸如接口432)。在一些实施方式中,部件400可以位于分布在多个计算设备上的计算系统中,或者可以是到基于服务器的应用程序的接口,该基于服务器的应用程序执行多个专用部件430中的一个或多个。尽管多个专用部件430被描绘为单独的部件,但这些专用部件可以是逻辑功能或其它非物理区分的功能,和/或可以是一个或多个应用程序的子模块或代码块。
接近感测系统434可以与I/O 416的接近传感器交互以获得接近传感器读数,并且可以将这些读数与接近戴上阈值或接近脱下阈值(其可以是相同或不同的阈值)进行比较,并将比较结果报告给戴上/脱下状态追踪系统440。接近感测系统434还可以在ET/FT系统438指示I/O 416的ET/FT设备被启用时禁用I/O 416的接近传感器,并且在ET/FT系统438指示I/O 416的ET/FT设备被禁用时启用I/O 416的接近传感器。下面参照图5的框502和510提供了关于追踪与阈值相比较的接近感测读数并控制接近传感器状态的附加细节。
IMU系统436可以与I/O 416的IMU系统交互以获得IMU读数,并且可以将这些读数与IMU戴上阈值或IMU脱下阈值(其可以是相同或不同的阈值)进行比较,并将比较结果报告给戴上/脱下状态追踪系统440。下面参照图5的框502、508和510提供了关于追踪与阈值相比较的IMU读数的附加细节。
ET/FT系统438可以与I/O 416的ET/FT设备交互以获得ET/FT状态读数,并且可将这些读数处于给定状态(检测到眼动、未检测到眼动、检测到面部、未检测到面部)的时间与ET/FT定时脱下阈值进行比较,并将比较结果报告给戴上/脱下状态追踪系统440。ET/FT系统438还可以例如响应于这些系统被指示为被当前应用程序使用而禁用和启用I/O 416的ET/FT设备。下面参照图5的框506和508提供了关于追踪与定时阈值相比较的ET/FT状态读数并控制ET/FT设备的附加细节。
戴上/脱下状态追踪系统440可以追踪人工现实设备头戴式装置是正在被用户佩戴(即,处于戴上状态)还是未正在被用户佩戴(即,处于脱下状态)。
当处于脱下状态时,戴上/脱下状态追踪系统440可以从接近感测系统434获得接近阈值比较,并且可以从IMU系统436获得IMU与戴上阈值比较,并且如果两个比较都评估为真,则可以将戴上/脱下状态设置为戴上状态。
当处于戴上状态并且ET/FT系统438指示ET/FT设备被启用时,戴上/脱下状态追踪系统440可以从ET/FT系统438获得ET/FT定时比较,并且可以从IMU系统436获得IMU与脱下阈值比较,并且如果任一个比较评估为真,则可以将戴上/脱下状态设置为脱下状态。
当处于戴上状态并且ET/FT系统438指示ET/FT设备被禁用时,戴上/脱下状态追踪系统440可以从接近感测系统434获得接近阈值比较,并且可以从IMU系统436获得IMU与脱下阈值比较,并且如果任一个比较评估为真,则可以将戴上/脱下状态设置为脱下状态。
本领域技术人员将理解的是,上述图1至图4中所示的、以及以下所论述的各流程图中每个流程图所示的部件可以以各种方式改变。例如,可以重新排列逻辑的顺序,可以并行执行各子步骤,可以省略所示逻辑,可以包括其它逻辑等。在一些实施方式中,上述多个部件中的一个或多个部件可以执行以下描述的各过程中的一个或多个过程。
图5是示出了在本技术的一些实施方式中用于根据IMU传感器、接近传感器和眼动追踪/面部追踪系统中的两个的组合来设置人工现实设备头戴式装置(头戴式装置)的戴上状态或脱下状态的过程500的流程图。过程500可以由人工现实设备执行,例如,作为该人工现实设备的操作系统的子进程来执行。在一些实施方式中,当头戴式装置处于脱下状态时,过程500可以在框502处开始。在其他实施方式中,当头戴式装置处于戴上状态时,过程500可以改为在框506处开始。
在框502,过程500可以确定来自接近传感器的当前读数集合是否高于接近戴上阈值,以及来自IMU的当前读数集合是否高于IMU戴上阈值。当来自接近传感器的读数指示在接近传感器的30mm内持续至少1秒存在对象(即,用户的脸)时,这些读数可以高于接近戴上阈值。当测量到高于阈值力或高于角速度的运动时,来自IMU的读数可以高于IMU戴上阈值。如果来自接近传感器的当前读数集合高于接近戴上阈值,并且来自IMU的当前读数集合高于IMU戴上阈值,则过程500可以继续到框504;否则,过程500可以留在框502。
在框504,过程500可以将人工现实设备头戴式装置设置为戴上状态。这可以包括例如将在人工现实设备头戴式装置的操作系统中定义的环境变量设置为对应于头戴式装置被戴上的值。
在框506处,过程500可以确定ET/FT系统是否是活动的。这可以通过以下方式来完成:检查ET/FT系统的硬件(通过操作系统或其他控制系统中的状态指示器)是否发射光和/或捕捉光,或者通过检查在人工现实设备上执行的任何当前应用程序是否使用ET/FT系统并因此启用它。如果ET/FT系统是活动的,则过程500可以前进到框508;否则,过程500可以前进到框510。
在框508,过程500可以确定ET/FT系统是否持续阈值时间量(例如,1秒)没有识别到人脸或眼动,或者来自IMU的所有读数是否持续一定时间量(例如,2分钟)低于IMU脱下阈值。如果两者都不为真,则过程500可以返回到框506。如果任一个为真,则过程500可以前进到框512。
在框510,过程500可以确定来自接近传感器的当前读数集合是否持续阈值时间量(例如,1秒)低于接近脱下阈值(例如,在30mm内没有测量到对象),或者来自IMU的所有读数是否持续阈值时间量(例如,2分钟)低于IMU脱下阈值。如果两者都不为真,则过程500可以返回到框506。如果任一个为真,则过程500可以前进到框512。
在框512,过程500可以将人工现实设备头戴式装置设置为脱下状态。这可以包括例如将在人工现实设备头戴式装置的操作系统中定义的环境变量设置为对应于头戴式装置被脱下的值。过程500可以在头戴式装置通电时重复,返回到框502。
在本说明书中对“多个实施方式”(例如,“一些实施方式”、“各种实施方式”、“一个实施方式”、“一实施方式”等)的引用意味着,结合该实施方式而描述的特定的特征、结构或特性被包括在本公开的至少一个实施方式中。这些短语在说明书中不同地方的出现不一定都指同一实施方式,也不一定是与其它实施方式相互排斥的单独实施方式或替代实施方式。此外,描述了可由一些实施方式而不是由其它实施方式呈现的各种特征。类似地,描述了各种要求,这些要求可以是一些实施方式的要求而不是其它实施方式的要求。
如本文所使用的,高于阈值意味着被比较项的值高于指定的其它值,被比较项位于具有最大值的、某个指定数量的项中,或者被比较项具有在指定的最高百分比值内的值。如本文所使用的,低于阈值意味着被比较项的值低于指定的其它值,被比较项位于具有最小值的、某个指定数量的项中,或者被比较项具有在指定的最低百分比值内的值。如本文所使用的,处于阈值内意味着被比较项的值在两个指定的其它值之间,被比较项位于中间的指定数量的项中,或者被比较项具有在中间指定百分比范围内的值。当没有另外定义时,诸如高或不重要等相对术语可以被理解为分配一个值并确定该值如何与所建立的阈值进行比较。例如,短语“选择快速连接”可以被理解为意味着选择具有分配的与其高于阈值的连接速度相对应的值的连接。
如本文所使用的,词语“或”是指一组项的任何可能的排列。例如,短语“A、B或C”指的是A、B、C中的至少一者、或它们的任何组合,例如以下任何一种:A;B;C;A和B;A和C;B和C;A、B和C;或多个任何项,例如A和A;B、B和C;A、A、B、C和C;等等。
尽管已经用专用于结构特征和/或方法动作的语言描述了该主题,但应理解,在所附权利要求书中所限定的主题不必限于上述特定特征或动作。本文已出于说明的目的描述了特定的实施例和实施方式,但可以在不脱离这些实施例和实施方式的范围的情况下进行各种修改。上述特定特征和动作是作为实现所附权利要求书的示例形式而公开的。因此,除了所附权利要求书之外,实施例和实施方式不受限制。
以上所提到的任何专利、专利申请和其它参考文献都通过引用并入到本文。如果需要,可以对各方面进行修改,以采用上述各种参考文献的系统、功能和概念来提供又一些的实施方式。如果通过引用并入的文献中的陈述或主题与本申请的陈述或主题相冲突,则以本申请为准。

Claims (15)

1.一种用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的方法,所述方法包括:
从所述人工现实设备头戴式装置处于脱下状态开始,
确定以下两项:
当前接近读数集合高于接近戴上阈值;以及
当前惯性测量单元IMU读数集合高于IMU戴上阈值;以及
作为响应,将所述人工现实设备头戴式装置改变为处于戴上状态;以及
从所述人工现实设备头戴式装置处于所述戴上状态开始,
当眼动追踪/面部追踪(ET/FT)系统是活动的时:
确定:A)当前ET/FT读数集合是否指示持续阈值时间量的眼动追踪或面部追踪丢失;
以及B)当前IMU读数集合是否低于IMU脱下阈值;以及
响应于A)或B)为真,将所述人工现实设备头戴式装置改变为处于所述脱下状态;以及
当ET/FT系统不是活动的时:
确定:C)当前接近读数集合是否低于接近脱下阈值;以及D)当前IMU读数集合是否低于IMU脱下阈值;以及
响应于C)或D)为真,将所述人工现实设备头戴式装置改变为处于所述脱下状态。
2.根据权利要求1所述的方法,其中:
(a)确定所述当前接近读数集合高于所述接近戴上阈值包括:确定持续至少1秒在接近传感器的30mm内检测到对象;以及
确定所述当前接近读数集合是否低于所述接近脱下阈值包括:确定持续至少1秒在所述接近传感器的30mm内没有检测到对象;和/或
(b)确定所述当前接近读数集合高于所述接近戴上阈值包括:确定持续至少阈值时间量在接近传感器的阈值距离内检测到对象;以及
确定所述当前接近读数集合是否低于接近脱下阈值包括:确定持续至少所述阈值时间量在所述接近传感器的阈值距离内没有检测到对象;和/或
(c)确定所述当前IMU读数集合是否低于所述IMU脱下阈值包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度;和/或
(d)确定所述当前IMU读数集合是否低于所述IMU脱下阈值包括:确定由IMU测量的力或角速度持续至少2分钟小于阈值力或阈值角速度;和/或
(e)其中,用于确定所述当前ET/FT读数集合是否指示眼动追踪或面部追踪丢失的阈值时间量是1秒。
3.根据任一前述权利要求所述的方法,还包括:通过确定人工现实设备上的任何活动应用程序是否被配置为启用所述ET/FT系统来确定所述ET/FT系统是否是活动的。
4.一种计算机可读存储介质,所述计算机可读存储介质存储有指令,所述指令在由计算系统执行时,使得所述计算系统执行用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的过程,所述过程包括:
当眼动追踪/面部追踪(ET/FT)系统是活动的时:
确定:A)当前ET/FT读数集合是否指示持续阈值时间量的眼动追踪或面部追踪丢失;以及
B)当前惯性测量单元IMU读数集合是否低于IMU脱下阈值;以及
响应于A)或B)为真,将所述人工现实设备头戴式装置改变为处于脱下状态;以及
当ET/FT系统不是活动的时:
确定:C)当前接近读数集合是否低于接近脱下阈值;以及D)当前IMU读数集合是否低于IMU脱下阈值;以及
响应于C)或D)为真,将所述人工现实设备头戴式装置改变为处于所述脱下状态。
5.根据权利要求4所述的计算机可读存储介质,其中,所述过程还包括:
确定以下两项:
当前接近读数集合高于接近戴上阈值;以及
当前IMU读数集合高于IMU戴上阈值;以及
作为响应,将所述人工现实设备头戴式装置改变为处于戴上状态,其中优选地:
确定所述当前接近读数集合高于接近戴上阈值包括:确定持续至少阈值时间量在接近传感器的阈值距离内检测到对象;以及
确定所述当前接近读数集合是否低于所述接近脱下阈值包括:确定持续至少所述阈值时间量在所述接近传感器的阈值距离内没有检测到对象。
6.根据权利要求4或5所述的计算机可读存储介质,其中,确定所述当前IMU读数集合是否低于所述IMU脱下阈值包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度。
7.根据权利要求4至6中任一项所述的计算机可读存储介质,其中,确定所述当前IMU读数集合是否低于所述IMU脱下阈值包括:确定由IMU测量的力或角速度持续至少2分钟小于阈值力或阈值角速度。
8.根据权利要求4至7中任一项所述的计算机可读存储介质,其中,所述过程还包括:通过确定人工现实设备上的任何活动应用程序是否被配置为启用所述ET/FT系统来确定所述ET/FT系统何时是活动的。
9.根据权利要求4至8中任一项所述的计算机可读存储介质,其中,用于确定所述当前ET/FT读数集合是否指示所述眼动追踪或面部追踪丢失的阈值时间量在0.5秒至3秒的范围内。
10.一种用于基于来自多个检测系统的输入来确定何时已经戴上或脱下人工现实设备头戴式装置的计算系统,所述计算系统包括:
一个或多个处理器;以及
一个或多个存储器,所述一个或多个存储器存储有指令,所述指令在由所述一个或多个处理器执行时使得所述计算系统执行一过程,所述过程包括:
当眼动追踪/面部追踪(ET/FT)系统是活动的时:
确定当前ET/FT读数集合是否指示持续阈值时间量的眼动追踪或面部追踪丢失,或者当前惯性测量单元IMU读数集合是否低于IMU脱下阈值;以及
作为响应,将所述人工现实设备头戴式装置改变为处于脱下状态;以及
当ET/FT系统不是活动的时:
确定当前接近读数集合是否低于接近脱下阈值,或者当前IMU读数集合是否低于IMU脱下阈值;以及
作为响应,将所述人工现实设备头戴式装置改变为处于所述脱下状态。
11.根据权利要求10所述的计算系统,其中,所述过程还包括:
确定以下两项:
当前接近读数集合高于接近戴上阈值;以及
当前IMU读数集合高于IMU戴上阈值;以及
作为响应,将所述人工现实设备头戴式装置改变为处于戴上状态。
12.根据权利要求10或11所述的计算系统,其中:
确定所述当前接近读数集合是否低于所述接近脱下阈值包括确定持续至少所述阈值时间量在接近传感器的阈值距离内没有检测到对象。
13.根据权利要求10至12中任一项所述的计算系统,其中,确定所述当前IMU读数集合是否低于IMU脱下阈值包括:确定由IMU测量的力或角速度持续至少阈值时间小于阈值力或阈值角速度。
14.根据权利要求10至13中的任一项所述的计算系统,其中,所述过程还包括:通过确定所述人工现实设备上的任何活动应用程序是否被配置为启用所述ET/FT系统来确定所述ET/FT系统何时是活动的。
15.根据权利要求10至14中任一项所述的计算系统,其中,用于确定所述当前ET/FT读数集合是否指示眼动追踪或面部追踪丢失的阈值时间量为至少1秒。
CN202280078871.8A 2021-12-22 2022-12-20 人工现实设备头戴式装置戴上和脱下检测 Pending CN118355354A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/559,429 2021-12-22
US17/559,429 US11586283B1 (en) 2021-12-22 2021-12-22 Artificial reality device headset DONN and DOFF detection
PCT/US2022/053471 WO2023122067A1 (en) 2021-12-22 2022-12-20 Artificial reality device headset donn and doff detection

Publications (1)

Publication Number Publication Date
CN118355354A true CN118355354A (zh) 2024-07-16

Family

ID=85222031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280078871.8A Pending CN118355354A (zh) 2021-12-22 2022-12-20 人工现实设备头戴式装置戴上和脱下检测

Country Status (4)

Country Link
US (2) US11586283B1 (zh)
CN (1) CN118355354A (zh)
TW (1) TW202326075A (zh)
WO (1) WO2023122067A1 (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9719871B2 (en) 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
KR102439993B1 (ko) * 2015-02-27 2022-09-06 삼성전자주식회사 방열 장치를 구비한 전자 장치 및 이의 제어 방법
KR20170051013A (ko) * 2015-11-02 2017-05-11 엘지전자 주식회사 테더링 형 hmd 및 그 hmd의 제어 방법
KR102571818B1 (ko) * 2016-01-06 2023-08-29 삼성전자주식회사 머리 장착형 전자장치
US10438394B2 (en) 2017-03-02 2019-10-08 Colopl, Inc. Information processing method, virtual space delivering system and apparatus therefor
US10750162B2 (en) * 2017-09-11 2020-08-18 Google Llc Switchable virtual reality headset and augmented reality device
EP3649920B1 (en) * 2018-11-08 2021-01-13 Vivior AG System for detecting whether a visual behavior monitor is worn by the user
CN115362440A (zh) 2020-04-21 2022-11-18 惠普发展公司,有限责任合伙企业 经由凝视跟踪的认证和校准

Also Published As

Publication number Publication date
US11720173B2 (en) 2023-08-08
US20230195221A1 (en) 2023-06-22
TW202326075A (zh) 2023-07-01
WO2023122067A1 (en) 2023-06-29
US11586283B1 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
US11625103B2 (en) Integration of artificial reality interaction modes
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
JP6730286B2 (ja) 拡張現実視野オブジェクトフォロワー
US10175483B2 (en) Hybrid world/body locked HUD on an HMD
US9727132B2 (en) Multi-visor: managing applications in augmented reality environments
US20120154277A1 (en) Optimized focal area for augmented reality displays
US20140002442A1 (en) Mechanism to give holographic objects saliency in multiple spaces
US20130342571A1 (en) Mixed reality system learned input and functions
TW202113428A (zh) 用於針對頭戴式顯示器產生動態障礙物碰撞警告之系統和方法
KR20160132411A (ko) 제스처 파라미터 튜닝
KR20140034252A (ko) 헤드 마운티드 디스플레이를 위한 tfov 분류 기법
KR20230016209A (ko) 포지션 추적을 사용한 인터랙티브 증강 현실 경험들
JP2014504413A (ja) 理解および意図に基づく拡張現実表示用コンテンツ
WO2013138647A1 (en) Using convergence angle to select among different ui elements
JP2022515978A (ja) Ar/vr環境におけるユーザ注意の視覚インジケータ
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
WO2023287830A1 (en) Look to pin interaction modality for a notification on an artificial reality device
US11586283B1 (en) Artificial reality device headset DONN and DOFF detection
EP4268059A1 (en) Partial passthrough in virtual reality
US20230326144A1 (en) Triggering Field Transitions for Artificial Reality Objects
US20240029329A1 (en) Mitigation of Animation Disruption in Artificial Reality
US20230324997A1 (en) Virtual Keyboard Selections Using Multiple Input Modalities
US20240248528A1 (en) Artificial Reality Entry Spaces for Virtual Reality Experiences
US20230206622A1 (en) Information processing device, information processing method, and program
CN117677920A (zh) 通知在人工现实设备上的查看到固定交互模式

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination