CN117043714A - 用于腕带系统的分体式结构及相关的设备和方法 - Google Patents

用于腕带系统的分体式结构及相关的设备和方法 Download PDF

Info

Publication number
CN117043714A
CN117043714A CN202180096288.5A CN202180096288A CN117043714A CN 117043714 A CN117043714 A CN 117043714A CN 202180096288 A CN202180096288 A CN 202180096288A CN 117043714 A CN117043714 A CN 117043714A
Authority
CN
China
Prior art keywords
wristband
watch body
user
sensor
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180096288.5A
Other languages
English (en)
Inventor
普拉纳夫·瓦萨瓦达
德里克·威廉·赖特
蒂莫西·洛
乔瑟夫·莫克
彼得·韦斯利·布里斯托尔
尼桑特·斯里尼瓦桑
陈春利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Meta Platforms Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/210,547 external-priority patent/US12001171B2/en
Application filed by Meta Platforms Technologies LLC filed Critical Meta Platforms Technologies LLC
Priority claimed from PCT/US2021/029002 external-priority patent/WO2022203697A1/en
Publication of CN117043714A publication Critical patent/CN117043714A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04BMECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
    • G04B37/00Cases
    • G04B37/14Suspending devices, supports or stands for time-pieces insofar as they form part of the case
    • G04B37/1486Arrangements for fixing to a bracelet
    • AHUMAN NECESSITIES
    • A44HABERDASHERY; JEWELLERY
    • A44CPERSONAL ADORNMENTS, e.g. JEWELLERY; COINS
    • A44C5/00Bracelets; Wrist-watch straps; Fastenings for bracelets or wrist-watch straps
    • A44C5/0007Bracelets specially adapted for other functions or with means for attaching other articles
    • AHUMAN NECESSITIES
    • A44HABERDASHERY; JEWELLERY
    • A44CPERSONAL ADORNMENTS, e.g. JEWELLERY; COINS
    • A44C5/00Bracelets; Wrist-watch straps; Fastenings for bracelets or wrist-watch straps
    • A44C5/14Bracelets; Wrist-watch straps; Fastenings for bracelets or wrist-watch straps characterised by the way of fastening to a wrist-watch or the like
    • A44C5/147Watchcase itself used as fastener
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4519Muscles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G17/00Structural details; Housings
    • G04G17/02Component assemblies
    • G04G17/04Mounting of electronic components
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G17/00Structural details; Housings
    • G04G17/08Housings
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1654Details related to the display arrangement, including those related to the mounting of the display in the housing the display being detachable, e.g. for remote use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0443Modular apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/16Details of sensor housings or probes; Details of structural supports for sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Dentistry (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electric Clocks (AREA)

Abstract

所公开的系统可以包括表带、表体、耦接机构以及至少一个生物传感器,该表体包括至少一个图像传感器,该至少一个图像传感器被配置成采集广角图像,该耦接机构被配置为将表体可拆卸地耦接到表带,该至少一个生物传感器位于表带或表体中的至少一者上。还公开了各种其他相关的方法和系统。

Description

用于腕带系统的分体式结构及相关的设备和方法
相关申请的交叉引用
本申请要求于2020年4月24日提交的、名称为“SPLIT ARCHITECTURE FOR AWRISTBAND SYSTEM AND RELATED DEVICES AND METHODS(用于腕带系统的分体式结构及相关的设备和方法)”的第63/015,410号美国临时专利申请,和于2020年7月24日提交的、名称为“SPLIT ARCHITECTURE FOR A WRISTBAND SYSTEM AND RELATED DEVICES AND METHODS(用于腕带系统的分体式结构及相关的设备和方法)”的第63/056,345号美国临时专利申请的权益,这两个专利申请的全部内容通过引用结合在本申请中。
附图说明
附图示出了多个示例实施例,且附图是本说明书的一部分。这些附图与以下描述一起展示并解释本公开的各种原理。
图1A为根据本公开的至少一个实施例的示例性腕带系统的平面图。
图1B为根据本公开的至少一个实施例的图1A的示例腕带系统的侧视图。
图2A为根据本公开的至少一个实施例的示例腕带系统的立体图。
图2B为根据本公开的至少一个实施例的另一示例腕带系统的侧视图。
图2C为根据本公开的至少一个实施例的另一示例腕带系统的立体图。
图3为根据本公开的至少一个实施例的腕带系统的示例框图。
图4为根据本公开的至少一个实施例的可拆卸腕带系统的横截面平面图。
图5为根据本公开的至少一个实施例的腕带耦接机构的详细横截面图。
图6为根据本公开的至少一个实施例的腕带耦接机构的立体图。
图7为根据本公开的至少一个实施例的防止竖直运动的腕带耦接机构的局部横截面图。
图8为根据本公开的至少一个实施例的防止旋转运动的腕带耦接机构的局部横截面图。
图9为根据本公开的至少一个实施例的示例表体的底部立体图。
图10为根据本公开的至少一个实施例的示例表带的顶部立体图。
图11为根据本公开的至少一个实施例的从示例表带分离的示例表体的立体图。
图12为根据本公开的至少一个实施例的示例表带的一部分的详细立体图。
图13为根据本公开的至少一个实施例的按钮解锁机构的横截面图。
图14A为根据本公开的至少一个实施例的示例表带轮廓的俯视图。
图14B为根据本公开的至少一个实施例的具有同心轮廓的示例表带的横截面图。
图14C为根据本公开的至少一个实施例的具有非同心轮廓的示例表带的横截面图。
图15为根据本公开的至少一个实施例的示出了将表体从表带分离的示例方法的流程图。
图16为可以与本公开的实施例结合使用的示例性增强现实眼镜的图示。
图17为可以与本公开的实施例结合使用的示例性虚拟现实头戴式设备(headset)的图示。
图18为可以与本公开的实施例结合使用的示例性触觉设备的图示。
图19为根据本公开的实施例的示例性虚拟现实环境的图示。
图20为根据本公开的实施例的示例性增强现实环境的图示。
图21A和图21B为被配置成佩戴在用户的下臂或手腕上的示例性人机接口的图示。
图22A和图22B为示出了可穿戴系统的内部部件的示例性示意图的图示。
在所有附图中,相同的附图标记和描述指示相似但不一定相同的元件。尽管本文描述的示例实施例易于进行各种修改和替代形式,但在附图中已经以示例方式示出了具体实施例,并且本文将详细描述这些具体实施例。然而,本文描述的示例实施例并不旨在限于所公开的特定形式。而是,本公开涵盖了落入所附权利要求书的范围内的所有修改、等同物和替代物。
具体实施方式
可穿戴设备可以被配置成佩戴在用户的身体部位(例如用户的手腕或手臂)上。这种可穿戴设备可以被配置成执行各种功能。腕带系统可以是佩戴在用户手腕上的电子设备,该电子设备执行诸如向用户递送内容、执行社交媒体应用程序、执行人工现实应用程序、发送消息、网页浏览、感测环境条件、与头戴式显示器接口、监控与用户相关联的健康状态等功能。然而,由于可穿戴设备通常佩戴在用户的身体部位上,因此腕带系统可能会给用户带来不便,例如当用户睡觉或从事体育活动时。
本公开详细描述了与腕带系统相关的系统、设备和方法,该腕带系统包括可拆卸地耦接到表体的表带。表体可以包括用于将表体电和机械地耦接到表带的耦接机构。腕带系统可以具有允许表带和表体独立地操作并彼此通信的分体式结构。机械结构可以包括在表带和/或表体上的耦接机构,该耦接机构允许用户方便地将表体附接到表带上和从表带上拆下。本公开的优点包括:与表体耦接到表带时相比,当表体与表带分离时可以减少佩戴表带对用户的负担。本公开的优点还可以包括通过使表体和表带中的每一者具有独立的功耗模式来降低腕带系统的总功耗和延长腕带系统的电池电荷时间。
腕带系统可以与人工现实(artificial-reality,AR)系统结合使用。腕带系统的传感器(例如,图像传感器、惯性测量单元(inertial measurement unit,IMU)等)可以用于增强在AR系统上运行的AR应用程序。此外,表带可以包括测量用户的生物特征的传感器。例如,表带可以包括设置在表带的内表面(内表面接触用户)上的神经肌肉传感器(例如,图21A的神经肌肉传感器2110),该神经肌肉传感器检测用户的肌肉意图。AR系统可以包括头戴式显示器,该头戴式显示器被配置成基于用户的肌肉意图来增强用户与AR环境内的对象的交互。由神经肌肉传感器感测到的信号可以被处理并用于向用户提供与物理对象和/或AR环境中的虚拟对象的增强交互。例如,AR系统可以结合神经肌肉传感器一起操作,以在AR环境中的对象上或其附近覆盖一个或多个可视指示器,使得用户可以执行与该对象的“增强的(enhanced)”或“增强的(augmented)”交互。
在一些示例中,腕带系统可以具有足够的处理能力(例如,中央处理单元(CPU)、存储器、带宽、电池功率等)以将计算任务从头戴式显示器(head-mounted display,HMD)卸载到腕带系统。本公开的方法可以确定适合在表体的可用计算资源上进行处理的、HMD的计算任务。可以基于计算要求、功耗、电池充电水平、延迟要求或它们的组合来确定要卸载的计算任务。卸载到表体的任务可以包括:处理由HMD的图像传感器采集的图像、位置确定任务、神经网络训练任务等。表体可以处理计算任务并将结果返回到HMD。在一些示例中,将计算任务从HMD卸载到腕带系统可以减少热量产生、减少功耗和/或减少HMD中的计算任务执行延迟。
在一些示例中,头戴式显示器(HMD)可以具有足够的处理能力(例如,中央处理单元(CPU)、存储器、带宽、电池功率等)以将计算任务从腕带系统(例如,表体、表带)卸载到HMD。本公开的方法可以包括确定适合在HMD的可用计算资源上进行处理的、腕带系统的计算任务。作为示例,可以基于计算要求、功耗、电池电量水平、延迟要求或它们的组合来确定要卸载的计算任务。卸载到HMD的任务可以包括处理由腕带系统的图像传感器采集的图像、位置确定任务、神经网络训练任务等。HMD可以处理一个或多个计算任务并将结果返回到腕带系统。在一些示例中,将计算任务从腕带系统卸载到HMD可以减少热量产生、减少功耗和/或减少腕带系统中的计算任务执行延迟。
在一些示例中,腕带系统可以包括多个电子设备,这些电子设备包括但不限于智能手机、服务器、HMD、膝上型计算机、台式计算机、游戏系统、物联网设备等。这样的电子设备可以(例如通过个人局域网)与腕带系统通信。腕带系统可以具有足够的处理能力(例如,CPU、存储器、带宽、电池功率等)以将计算任务从多个电子设备中的每一个电子设备卸载到腕带系统。附加地或替代地,多个电子设备中的每一个电子设备可以具有足够的处理能力(例如,CPU、存储器、带宽、电池功率等)以将计算任务从腕带系统卸载到一个或多个电子设备。
下面将参考图1至图22B提供对腕带系统的分体式结构的详细描述,该描述包括相关设备和方法。首先,参考图1A和图1B描述包括表带和表体的腕带系统以及将表体从表带上分离的方法。参考图2A、图2B和图2C描述将表体的神经肌肉传感器与AR系统集成。参考图3给出了腕带系统的分体式结构的示例框图。参考图4至图14示出了将表体可拆卸地耦接到表带上的各种类型的机构。参考图9给出了选择性地将头戴式显示器的计算任务卸载到表体的方法。参考图16至图22B呈现了可以与腕带系统结合使用的各种类型的示例人工现实设备。
图1A示出了示例腕带系统100,该腕带系统100包括耦接到表带112的表体104。表体104和表带112可以具有被配置成允许用户在身体部位(例如,手腕)上佩戴腕带系统100的任何尺寸和/或形状。腕带系统100可以包括用于将表带112固定到用户手腕上的保持机构113(例如,锁扣)。腕带系统100还可以包括用于将表体104可拆卸地耦接到表带112的耦接机构106和110。腕带系统100可以执行与用户相关联的各种功能。这些功能可以在表体104中独立地执行、在表带112中独立地执行、和/或在表体104与表带112之间的通信中执行。表带112可以被配置成独立于表体104操作(例如,独立地执行功能)。附加地或替代地,表体104可以被配置成独立于表带112操作(例如,独立地执行功能)。如下面将参考图3的框图更详细描述的,表带112和/或表体104可以各自包括独立执行功能所需的独立资源。例如,表带112和/或表体104可以各自包括电源(例如,电池)、存储器、数据存储装置、处理器(例如,CPU)、通信、光源(例如,用于通过外部传感器在空间中跟踪表体104和/或表带112的至少一个红外发光二极管(light emitting diode,LED))和/或输入/输出设备。
如下面将参考图3更详细地描述的,可以由表体104、表带112或腕带系统100独立执行的功能可以包括但不限于:向用户显示可视内容(例如,显示在显示屏102上的可视内容)、感测用户输入(例如,感测对按钮108的触摸、用传感器114感测生物特征数据、用传感器115感测神经肌肉信号等)、发送消息(例如,文本、语音、视频等)、图像采集(例如,利用前置图像传感器115A和/或后置图像传感器115B)、无线通信(例如,蜂窝、近场、WiFi、个人局域网等)、位置确定、金融交易、提供触觉反馈等。多个功能可以由表体104、表带112或者在腕带系统100上结合诸如图16至图22B中描述的人工现实系统等人工现实系统而独立地执行。在一些示例中,腕带系统100可以包括图18的振动触觉系统1800、图20的触觉设备2030和/或图21A的神经肌肉传感器2110。
在一些示例中,显示屏102可以向用户显示可视内容。在一些示例中,表体104可以确定表体104的显示屏102相对于用户的眼睛注视方向的朝向,并且可以将在显示屏102上观看的内容定向到用户的眼睛注视方向。可以将所显示的可视内容定向到用户的眼睛注视,使得用户可以在没有用户干预的情况下容易地观看内容。腕带系统上的传统显示器可能以静态方式定向可视内容,使得当用户移动或旋转腕带系统时,内容可能保持在相对于表带系统的相同位置,导致用户难以观看该内容。
本公开的实施例可以定向(例如,旋转、翻转、拉伸等)所显示的内容,使得所显示的内容相对于用户的眼睛注视保持在基本相同的朝向(例如,用户正在观看的方向)上。也可以在没有用户干预的情况下,基于用户的眼睛注视来修改所显示的可视内容。例如,为了降低腕带系统100的功耗,当确定用户没有看显示屏102时,显示屏102可以调暗所显示内容的亮度、暂停视频内容的显示、或者关闭显示屏102的电源。在一些示例中,腕带系统100的一个或多个传感器可以确定显示屏102相对于用户的眼睛注视方向的朝向。
本公开的实施例可以以各种方式测量用户的眼睛的位置、朝向和/或运动,这些方式包括通过使用基于光学的眼动跟踪技术、基于超声波的眼动跟踪技术等。例如,前置图像传感器115A和/或后置图像传感器115B可以采集用户眼睛的图像,并基于对所采集的图像的处理来确定眼睛注视方向。可以使用CPU 326、微控制器单元352(见图3)、与腕带系统100通信的处理器(例如,头戴式显示器(HMD)的处理器)或它们的组合来处理所采集的图像。
在一些示例中,除了腕带系统100的传感器之外的传感器可以用于确定用户的眼睛注视方向。例如,与腕带系统100通信的HMD的眼动跟踪子系统(例如,图16的增强现实系统1600、图17的虚拟现实系统1700、图19的头戴式显示器1902或图20的增强现实眼镜2020)可以包括各种不同的传感器,例如,二维(two-dimensional,2D)或三维(three-dimensional,3D)摄像头、飞行时间深度传感器、单光束或扫描激光测距仪、3D光探测和测距传感器,这些传感器可以用于确定和跟踪用户的眼睛注视。在该示例中,处理子系统可以处理来自这些传感器中的一个或多个传感器的数据,以测量、检测、确定和/或以其他方式监控用户一只或两只眼睛的位置、朝向和/或运动。显示屏102可以从HMD、CPU 326、微控制器单元352或它们的组合接收眼动跟踪信息,并基于用户的眼睛注视方向来定向所显示的内容。
在一些示例中,表体104可以通信地耦接到HMD(例如,图16的增强现实系统1600、图17的虚拟现实系统1700、图19的头戴式显示器1902、或图20的增强现实眼镜2020)。前置图像传感器115A和/或后置图像传感器115B可以采集前置图像传感器115A和/或后置图像传感器115B周围区域的广角图像,例如半球图像(例如,至少半球形、基本球形等)、180度图像、360度区域图像、全景图像、超广域图像或它们的组合。在一些示例中,前置图像传感器115A和/或后置图像传感器115B可以被配置成采集范围在45度与360度之间的图像。在一些示例中,表体104可以通信地耦接到HMD,并且HMD可以被配置成显示所采集的图像(例如,广角图像)的至少一部分。所采集的图像可以被传送到HMD,并且可以在HMD上向用户显示所采集的图像的至少一部分。可以以2D和/或3D来采集图像,并将其以2D和/或3D显示给用户。在一些示例中,可以结合人工现实应用向用户显示所采集的图像。由前置图像传感器115A和/或后置图像传感器115B所采集的图像可以在HMD上显示之前被处理。例如,所采集的图像的某些特征和/或对象(例如,人、脸、设备、背景等)可以在HMD上显示之前被减去、被添加和/或被增强。
图1B示出了包括与表带112分离的表体104的示例腕带系统100。表带112可以戴在(例如,佩戴)在用户的身体部位(例如,手腕)上,并且可以独立于表体104操作。例如,表带112可以被配置成由用户佩戴,且表带112的内表面可以与用户的皮肤接触。当用户佩戴时,传感器114可以与用户的皮肤接触。传感器114可以是感测用户的心率、生物阻抗、饱和氧水平、温度、汗液水平、肌肉意图、所走的步数或它们的组合的生物传感器。表带112可以包括多个传感器114,这些传感器可以分布在表带112的内表面上、内部容积中和/或外表面上。传感器114还可以包括提供关于用户环境的数据的传感器,该数据包括用户的运动(例如,IMU)、所处高度、位置、朝向、步态(例如计步器)或它们的组合。表带112可以使用有线通信方法(例如,通用异步收发器(Universal Asynchronous Receiver Transmitter,UART)、通用串行总线(Universal Serial Bus,USB)收发器等)和/或无线通信方法(例如,近场通信、蓝牙TM等)来将传感器114获得的数据传输到表体104。在一些示例中,表体104可以包括与表带112的连接器120匹配的电连接器118,以用于有线通信和/或电力传输。在一些示例中,表体104和表带112可以包括无线通信设备,例如以下参考图3描述的那些设备。
表带112和/或表体104可以包括触觉设备116(例如,振动触觉致动器),该触觉设备被配置成向用户的皮肤提供触觉反馈(例如,皮肤知觉和/或动觉知觉)。表带112和/或表体104可以包括触觉致动器,该触觉致动器被配置成基于来自表体104的多个指令或来自人工现实系统的头戴式显示器的多个指令中的至少一个指令向用户提供触觉反馈。传感器114和/或触觉设备116可以被配置成结合多种应用来操作,这些应用包括但不限于健康监测、社交媒体、玩游戏和人工现实(例如,下面参考图16至图22B描述的与人工现实相关联的应用)。如下面参考图2A详细描述的,集成到表带112和/或表体104中的肌电传感器(例如,图21A的神经肌肉传感器2110)可以感测用户的肌肉意图。所感测的肌肉意图可以被传送到人工现实系统(例如,图16中的增强现实系统1600或图17中的虚拟现实系统1700)以在相关联的人工现实环境中执行动作,例如从而控制向用户显示的物理和/或虚拟对象。此外,人工现实系统可以经由触觉设备116协同人工现实应用向用户提供触觉反馈。
腕带系统100可以包括用于将表体104可拆卸地耦接到表带112的耦接机构。用户可以将表体104从表带112上分离,以减少腕带系统100对用户的负担。将表体104从表带112上分离可以减小腕带系统100的物理轮廓和/或重量。腕带系统100可以包括一个或多个表体耦接机构106和/或一个或多个表带耦接机构110。任何方法或耦接机构都可以用于将表体104可拆卸地耦接到表带112。例如,下面参考图4至图14C描述的机构可以用于将表体104可拆卸地耦接到表带112上。用户可以进行任何类型的动作,以将表体104耦接到表带112,以及将表体104与表带112分离。例如,用户可以相对于表带112对表体104进行扭转、滑动、转动、推、拉、旋转或它们的组合,以将表体104附接到表带112,以及将表体104从表带112分离。
一个或多个表体耦接机构106和/或一个或多个表带耦接机构110可以包括允许用户重复表体104相对于表带112的耦接和分离循环的任何类型的机构。一个或多个表体耦接机构106和/或一个或多个表带耦接机构110可以包括但不限于:基于旋转的连接器、剪切销耦合器、保持弹簧、一个或多个磁体、夹持件、销轴、钩环紧固件或它们的组合。
如图1B所示,在一些示例中,表体104可以包括前置图像传感器115A和后置图像传感器115B。前置图像传感器115A可以位于表体104的正面上,而后置图像传感器115B可以位于表体104的背面上。在一些示例中,当表体104从表带112拆下时,可以修改表带112或表体104中的至少一者的功能级别。可以修改的功能级别可以包括前置图像传感器115A和/或后置图像传感器115B的功能。举例来说,当表体104附接到表带112或从表带112拆下时,用户可以使用前置图像传感器115A来采集用户的图像(例如,静止图像或视频),以获得所谓的“自拍视图”。当表体104从表带112拆下时,用户可以使用后置图像传感器115B来采集远离用户的场景或对象的图像(例如,静止图像或视频),以获得所谓的“环境视图”。尽管图1B示出了单个前置图像传感器115A和单个后置图像传感器115B,但是本公开不限于此。相反,表体104可以包括多个前置图像传感器115A和/或多个后置图像传感器115B。附加地或替代地,表带112可以包括至少一个前置图像传感器115A和至少一个后置图像传感器115B。当然,用户握持表体104的朝向可以改变图像传感器115A和图像传感器115B分别用于自拍视图还是环境视图。
在一些示例中,图像传感器115A和/或图像传感器115B可以被定向为在第一方向上采集第一广角图像。在一些示例中,图像传感器115A和/或图像传感器115B可以被定向为在与第一方向相反的第二方向上采集第二广角图像。该系统可以被配置成将第一广角图像和第二广角图像拼接在一起以创建组合图像。在一些实施例中,来自前置图像传感器115A和来自后置图像传感器115B的图像可以被拼接在一起(例如,利用处理器),以提供围绕表体104的单个广角图像(例如,至少半球形、基本球形、广角视图等)、180度图像、360度图像、全景图像、超广域图像、45度至360度范围内的图像或它们的组合。在一些实施例中,前置图像传感器115A可以是广角图像传感器,该广角图像传感器可以单独被配置成采集表体104周围的至少一个半球视图。在一些示例中,当表体104附连到表带112时,可以使用后置图像传感器115B或其一部分(例如,其某些像素)来光学感测用户的生物特征数据。
图2A示出了包括与表带212分离的表体204的示例腕带系统200的立体图。腕带系统200的结构和/或功能可以类似于图1A和图1B的腕带系统100。表体204和表带212可以具有基本矩形或圆形,并且可以被配置成允许用户在身体部位(例如,手腕)上佩戴腕带系统200。腕带系统200可以包括保持机构213(例如,锁扣、钩环紧固件等),该保持机构用于将表带212固定到用户的手腕上。腕带系统200还可以包括用于将表体204可拆卸地耦接到表带212的耦接机构206,例如下面参考图4至图14C描述的机构。
腕带系统200可以执行与用户相关联的各种功能,如以上参考图1A和图1B所描述的。如将参考图3更详细描述的,由腕带系统200执行的功能可以包括但不限于:向用户显示可视内容(例如,显示在显示屏202上的可视内容),感测用户输入(例如,在按钮208上感测触摸、在传感器214上感测生物特征数据、在神经肌肉传感器215上感测神经肌肉信号等),发送消息(例如,文本、语音、视频等),图像采集(例如通过前置图像传感器203和/或后置图像传感器),无线通信(例如,蜂窝、近场、WiFi、个人局域网等),位置确定,金融交易,提供触觉反馈、警报、通知,生物特征验证,健康监测,睡眠监测等。这些功能可以在表体204中独立地执行、在表带212中独立地执行、和/或在表体204与表带212之间的通信中执行。可以结合诸如图16至图22B中描述的人工现实系统等人工现实系统在腕带系统200上执行功能。在一些示例中,腕带系统200可以包括图18中的振动触觉系统1800和/或图19中的触觉设备1930。
表带212可以被配置成由用户佩戴,使得表带212的内表面可以与用户的皮肤接触。当用户佩戴时,传感器214可以与用户的皮肤接触。传感器214可以是感测用户的心率、饱和氧水平、温度、汗液水平、肌肉意图或它们的组合的生物传感器。表带212可以包括多个传感器214,这些传感器可以分布在表带212的内表面和/或外表面上。附加地或替代地,表体204可以包括与表带212相同或不同的传感器。例如,多个传感器可以分布在表体204的内表面和/或外表面上。如下面参考图3所描述的,表体204可以包括但不限于:前置图像传感器115A、后置图像传感器115B、生物传感器、IMU、心率传感器、饱和氧传感器、一个或多个神经肌肉传感器(例如,图21A中的神经肌肉传感器2110)、高度计传感器、温度传感器、生物阻抗传感器、计步器传感器、光学传感器、触摸传感器、汗液传感器等。传感器214还可以包括提供关于用户环境的数据的传感器,该数据包括用户的运动(例如,IMU)、所处高度、位置、朝向、步态或它们的组合。传感器214还可以包括被配置成跟踪表体204和/或表带212的位置和/或运动的光传感器(例如,红外光传感器、可见光传感器)。表带212可以使用有线通信方法(例如,UART、USB收发器等)和/或无线通信方法(例如,近场通信、蓝牙TM等)来将传感器214采集的数据传输到表体204。表带212可以被配置成与表体204是耦接到表带212还是与表带212分离无关地操作(例如,使用传感器214来收集数据)。
表带212和/或表体204可以包括触觉设备216(例如,振动触觉致动器),该触觉设备被配置成向用户的皮肤提供触觉反馈(例如,皮肤知觉和/或动觉知觉等)。传感器214和/或触觉设备216可以被配置成结合多种应用来操作,这些应用包括但不限于健康监测、社交媒体、玩游戏和人工现实(例如,下面参考图16至图22B描述的与人工现实相关联的应用)。
在一些示例中,表带212可以包括神经肌肉传感器215(例如,肌电(electromyography,EMG)传感器、肌动图(mechanomyogram,MMG)传感器、声肌图(sonomyography,SMG)传感器等)。神经肌肉传感器215可以感测用户的肌肉意图。神经肌肉传感器215可以包括图21A的神经肌肉传感器2110。所感测的肌肉意图可以被传输到人工现实(AR)系统(例如,图16的增强现实系统1600、图17的虚拟现实系统1700、图19的头戴式显示器1902,或图20的增强现实眼镜2020)以在相关联的人工现实环境中执行动作,例如从而控制显示给用户的虚拟设计的运动。此外,人工现实系统可以经由触觉设备216与人工现实应用协同向用户提供触觉反馈。
来自神经肌肉传感器215的信号可以用于向用户提供与由AR系统(例如,图16的增强现实系统1600、图17的虚拟现实系统1700、图19的头戴式显示器1902或图20的增强现实眼镜2020)生成的AR环境中的物理对象和/或虚拟对象的增强交互。来自神经肌肉传感器215的信号可以由表带212的一个或多个神经肌肉传感器215获得(例如,感测和记录)。尽管图2A示出了一个神经肌肉传感器215,但是表带212可以包括在表带212的内表面上周向布置的多个神经肌肉传感器215,使得该多个神经肌肉传感器215接触用户的皮肤。表带212可以包括在表带212的内表面上周向布置的多个神经肌肉传感器215,如图21A的可穿戴系统2100中所示。当用户进行肌肉激活(例如,运动、手势等)时,神经肌肉传感器215可以感测并记录来自用户的神经肌肉信号。用户进行的肌肉激活可以包括:静态手势,例如,用户的掌心朝下放在桌子上;动态手势,例如,抓住物理或虚拟对象;以及另一个人察觉不到的隐蔽手势,例如,通过共同收缩相对的肌肉或使用肌下激活来轻微地绷紧关节。用户进行的肌肉激活可以包括符号手势(例如,比如基于指定手势到命令的映射的手势词汇,映射到其他手势、交互或命令的手势)。
AR系统(例如,图16至图22B的AR系统)可以结合神经肌肉传感器215操作,以在AR环境中的物理和/或虚拟对象上或附近覆盖一个或多个可视指示器。这些可视指示器可以向用户指示物理对象和/或虚拟对象(例如,运动对象、游戏对象)是具有与其相关联的一组虚拟控件的对象,使得如果用户与该对象交互(例如,通过拿起该对象),用户可以执行与该对象的一个或多个“增强的(enhanced)”或“增强的(augmented)”交互。一个或多个可视指示器可以指示该对象是能够进行增强交互的对象。
在另一示例中,可由用户激活以控制对象的、物理或虚拟对象的一组虚拟控件的指示可以覆盖在AR环境中的对象上或显示在该对象附近。用户可以通过例如执行肌肉激活以选择多个虚拟控件中的一个虚拟控件来与该组虚拟控件的一个或多个指示器交互。神经肌肉传感器215可以感测肌肉激活,并且响应于用户与一组虚拟控件的一个或多个指示器的交互,可以确定与对象的交互有关的信息。例如,如果对象是虚拟剑(例如,在AR游戏中使用的剑),则用户可以执行手势来选择虚拟剑的功能,使得当用户拿起虚拟剑时,它可以用于在AR环境内玩游戏。
可以基于由神经肌肉传感器215获得的神经肌肉信号和/或从神经肌肉信号导出的信息(例如,基于神经肌肉信号的模拟和/或数字处理的信息)来确定关于用户与物理和/或虚拟对象的交互的信息。附加地或替代地,来自一个或多个辅助设备(例如,前置图像传感器115A、后置图像传感器115B、IMU 342、传声器308、心率传感器358、图16至图22B的AR系统的图像传感器等)的辅助信号可以补充神经肌肉信号,以确定关于用户与物理和/或虚拟对象的交互的信息。例如,神经肌肉传感器215可以确定用户对物理和/或虚拟对象的抓握有多紧,并且可以基于施加到物理对象的抓握力的量向AR系统发送控制信号。继续以上示例,对象可以是虚拟剑,并且在与AR环境中的虚拟游戏交互时,向虚拟剑施加不同量的抓握和/或摆动力(例如,使用由IMU 342收集的数据)可以改变(例如,增强)虚拟剑的功能。
腕带系统200可以包括用于将表体204可拆卸地耦接到表带212的耦接机构。用户可以将表体204从表带212分离,以减少腕带系统200对用户的负担。腕带系统200可以包括一个或多个表体耦接机构206和/或一个或多个表带耦接机构210(例如,支架、跟踪带、支撑底座、扣环)。可以使用任何方法或耦接机构来将表体204可拆卸地耦接到表带212,例如参考图4至图14C描述的机构。用户可以进行任何类型的动作,以将表体204耦接到表带212,以及将表体204从表带212分离。例如,用户可以相对于表带212对表体204进行扭转、滑动、转动、推、拉、旋转或它们的组合,以将表体204附接到表带212,以及将表体204从表带212拆下。
如图2A的示例所示,表带耦接机构210可以包括允许表体耦接机构206保持在表带耦接机构210内的一种框架或外壳。表体204可以通过摩擦配合、磁性耦接、基于旋转的连接器、剪切销耦合器、保持弹簧、一个或多个磁铁、夹持件、销轴、钩环紧固件或它们的组合可拆卸地耦接到表带212。在一些示例中,表体204可以通过释放机构220的致动从表带212分离。释放机构220可以包括但不限于:按钮、旋钮、柱塞、手柄、操纵杆、紧固件、扣环、拨盘、闩锁或它们的组合。
腕带设备200可以包括单个释放机构220或多个释放机构220(例如,位于腕带设备200的相对侧上的两个释放机构220,例如图4的弹簧加载按钮)。如图2A所示,释放机构220可以位于表体204和/或表带耦接机构210上。尽管图2A示出了释放机构220位于表体204的一角和表带耦接机构210的一角,但是释放机构220可以位于表体204和/或表带耦接机构210上方便腕带系统200的用户致动的任何位置。腕带系统200的用户可以通过推动、转动、抬起、按下、移动或在释放机构220上进行其他动作来致动释放机构220。释放机构220的致动可以将表体204从表带耦接机构210和表带212释放(例如,分离),从而允许用户独立于表带212使用表体204。例如,将表体204从表带212分离可以允许用户使用后置图像传感器115B来采集图像。
图2B是另一示例腕带系统的侧视图,图2C是其立体图。图2B和图2C的腕带系统可以包括表体接口230。表体204可以可拆卸地耦接到表体接口230。如参考图2A和图4至图13详细描述的,表体204可以可拆卸地耦接到表体接口230。表体204可以通过摩擦配合、磁性耦接、基于旋转的连接器、剪切销耦合器、保持弹簧、一个或多个磁铁、夹持件、销轴、钩环紧固件或它们的组合可拆卸地耦接到表体接口230。
在一些示例中,表体204可以通过对释放机构的致动从表体接口230分离。释放机构可以包括但不限于:按钮、旋钮、柱塞、手柄、操纵杆、紧固件、扣环、拨盘、闩锁或它们的组合。在一些示例中,腕带系统功能可以独立地在表体204中执行、独立地在表体接口230中执行、和/或在表体204与表体接口230之间的通信中执行。表体接口230可以被配置成独立于表体204操作(例如,独立地执行功能)。附加地或替代地,表体204可以被配置成独立于表体接口230操作(例如,独立地执行功能)。如下面将参考图3的框图更详细描述的,表体接口230和/或表体204可以各自包括独立执行功能所需的独立资源。例如,表体接口230和/或表体204可以各自包括电源(例如,电池)、存储器、数据存储装置、处理器(例如,CPU)、通信、光源和/或输入/输出设备。
在该示例中,表体接口230可以包括表带212的所有电子部件。在其他示例中,一个或多个电子部件可以容纳于表体接口230中,并且一个或多个其他电子部件可以容纳于表带212的远离表体接口230的部分中。
图3为根据本公开至少一个实施例的示例腕带系统300的框图。参考图3,腕带系统300可以具有表体304和表带312之间的分体式结构(例如,分体式机械结构、分体式电结构),如上面参考图1和图2所讨论的。表体304和表带312中的每一者可以具有电源、处理器、存储器、传感器、充电设备和通信设备,上述设备使表体304和表带312中的每一者都能够独立地在表体304中、独立地在表带312中和/或在表体304与表带312之间的通信中执行计算、控制、通信和传感功能。
例如,表体304可以包括电池328、CPU 326、存储装置302、心率传感器358、EMG传感器346、血氧饱和度(SpO2)传感器354、高度计348、随机存取存储器303、充电输入端330和通信设备NFC 315、LTE 318和WiFi/蓝牙TM 320。类似地,表带312可以包括电池338、微控制器单元352、存储器350、心率传感器358、EMG传感器346、SpO2传感器354、高度计348、充电输入端334和无线收发器340。在一些示例中,当表体304从表带312拆下时,可以修改表带312或表体304中的至少一者的功能级别。可以修改的功能级别可以包括至少一个传感器(例如,心率传感器358、EMG传感器346等)的功能。表体304和表带312中的每一者可以执行分别存储于存储装置302和存储器350中的指令,所述指令在表带312从表体304拆下时以及当表带312附接到表体304时启用表带312中的至少一个传感器(例如,心率传感器358、EMG传感器346等)以获取数据。
表体304和表带312可以进一步执行分别存储在存储装置302和存储器350中的指令,所述指令使得表带312能够使用有线通信327和/或无线收发器340将获取的数据传输到表体304(或HMD)。如以上参考图1A和图1B所描述的,腕带系统300可以包括用户界面。例如,表体304可以在触摸屏显示器313上向用户显示可视内容,并在扬声器310上播放音频内容。表体304可以接收用户输入,例如来自传声器308的音频输入和来自按钮324的触摸输入。表体304还可以接收与用户的位置和/或环境相关联的输入。例如,表体304可以从GPS 316和/或表带312的高度计348接收位置信息。
表体304可以接收来自至少一个图像传感器306(例如,摄像头)的图像数据。图像传感器306可以包括前置图像传感器115A和/或后置图像传感器115B。前置图像传感器115A和/或后置图像传感器115B可以采集前置图像传感器115A和/或后置图像传感器115B周围区域的广角图像,例如半球图像(例如,至少半球形、基本球形等)、180度图像、360度区域图像、全景图像、超广域图像或它们的组合。在一些示例中,前置图像传感器115A和/或后置图像传感器115B可以被配置成采集范围在45度与360度之间的图像。由表体304接收的某些输入信息(例如,用户输入等)可以被传送到表带312。类似地,由表带312接收的某些输入信息(例如,获取的传感器数据、神经肌肉传感器数据等)可以被传送到表体304。
表体304和表带312可以采用各种技术来接收电荷。在一些实施例中,表体304和表带312可以使用有线充电组件(例如,电源线)来接收电荷。替代地或附加地,表体304和/或表带312可以被配置用于无线充电。例如,可以将便携式充电设备设计为与表体304和/或表带312的一部分相匹配,并向表体304的电池和/或表带312的电池无线输送可用电力。
表体304和表带312可以具有独立的电源和充电源,以使各自能够独立操作。表体304和表带312还可以经由表体304中的电源管理IC 332和表带312中的电源管理IC 336共享功率(例如,一者可以为另一者充电)。电源管理IC 332和电源管理IC 336可以通过电力和接地导线和/或无线充电天线共享电力。
腕带系统300可以与健康监测应用相结合地操作,该健康监测应用获取与用户关联的生物特征和活动信息。健康监测应用可以被设计成向用户提供与该用户的健康相关的信息。例如,腕带系统300可以通过从IMU 342获取数据来监控用户的身体活动,同时通过心率传感器358监控用户的心率,并通过SpO2传感器354监控饱和血氧水平。CPU 326可以处理所获取的数据,并在触摸屏显示器313上向用户显示健康相关信息。
腕带系统300可以检测表体304与表带312何时彼此连接(例如,机械连接和/或电连接)或彼此分离。例如,一个或多个引脚505、电源/接地连接360、无线收发器340、和/或有线通信327可以检测表体304与表带312是否彼此机械连接和/或电连接(例如,检测到电源/接地连接360和/或有线通信327的一个或多个电接触之间的断开)。在一些示例中,当表体304和表带312彼此机械和/或电断开(例如,如参考图4至图14C所描述的,表体312已经从表带312拆下)时,与表体304和表带312彼此机械和/或电连接时相比,表体304和/或表带312可以以修改的功能级别(例如,减少的功能)操作。当腕带系统300分别确定表体304和表带312彼此机械和/或电断开以及彼此连接时,修改的功能级别(例如,从全功能切换到简化功能以及从简化功能切换到全功能)可以自动发生(例如,无需用户干预)。
修改功能级别(例如,减少表体304和/或表带312中的功能)可以降低电池328和/或电池338中的功耗。例如,当表体304与表带312彼此机械和/或电断开时,如下各项中的任何项可以减少功能和/或功耗(例如,进入睡眠模式):传感器(例如,心率传感器358、EMG传感器346、SpO2传感器354、高度计348等)、处理器(例如,CPU 326、微控制器单元352等)、通信元件(例如,NFC 315、GPS 316、LTE 318、WiFi/蓝牙TM 320等)或致动器(例如,触觉322和349等)。当表体304和表带312彼此机械和/或电连接时,表体304和表带312可以恢复到全功能。传感器、处理器、致动器和存储器中的每一者的功能级别都可以独立控制。
如上所述,腕带系统300可以检测表体304和表带312何时彼此耦接(例如,机械连接和/或电连接)或彼此分离。在一些示例中,表体304可以基于表体304是否与表带312耦接来修改功能级别(例如,激活和/或禁用某些功能)。例如,CPU 326可以执行检测表体304与表带312何时彼此耦接并激活前置图像传感器115A的指令。CPU 326可以基于接收到用户输入(例如,来自触摸屏显示器313的用户触摸输入、来自传声器308的用户语音命令、来自EMG传感器346的用户手势识别输入等)来激活前置图像传感器115A。
当CPU 326检测到表体304与表带312彼此分离时,CPU 326可以修改功能级别(例如,激活和/或禁用附加功能)。例如,CPU 326可以检测表体304与表带312何时彼此分离并且激活后置图像传感器115B。CPU 326可以自动地(例如,无需用户输入)和/或基于接收到用户输入(例如,触摸输入、语音输入、意图检测等)来激活后置图像传感器115B。自动激活后置图像传感器115B可以允许用户在无需提供用户输入来激活后置图像传感器115B的情况下,拍摄广角图像。
在一些示例中,可以基于图像采集标准(例如,图像质量、图像分辨率等)来激活后置图像传感器115B。例如,后置图像传感器115B可以接收图像(例如,测试图像)。CPU 326和/或后置图像传感器115B可以分析所接收的测试图像数据,并确定测试图像数据是否满足图像采集标准(例如,图像质量超过阈值、图像分辨率超过阈值等)。当测试图像数据满足图像采集标准时,可以激活后置图像传感器115B。附加地或替代地,当测试图像数据未能满足图像采集标准时,可以禁用后置图像传感器115B。
在一些示例中,CPU 326可以检测表体304何时耦接到表带312并禁用后置图像传感器115B。CPU 326可以自动地(例如,无需用户输入)和/或基于接收到用户输入(例如,触摸输入、语音输入、意图检测等)来禁用后置图像传感器115B。禁用后置图像传感器115B可以自动地(例如,无需用户输入)降低表体304的功耗并增加表体304中的电池电荷时间。在一些示例中,腕带系统300可以包括耦接传感器307,该耦接传感器感测表体304是否与表带312耦接或分离。耦接传感器307可以被包括在图2A的表体304、表带312或表带耦接机构210中的任何一者中。耦接传感器307(例如,接近传感器)可以包括但不限于:电感式接近传感器、限位开关、光学接近传感器、电容式接近传感器、磁接近传感器、超声波接近传感器或它们的组合。CPU 326可以通过读取耦接传感器307的状态来检测表体304何时耦接到表带312或从表带312分离。
图4为根据本公开的至少一个实施例的可拆卸腕带系统400的横截面平面图。腕带系统400可以包括可从表带412拆卸并可附接到表带412的表体404。如方向箭头409所示,通过朝表带412同时向内按压多个按钮403,表体404可以与表带412分离。多个按钮403可以设置在表体404的相对侧上,并且通过弹簧407(例如,螺旋压缩弹簧)从表带412偏置到向外的位置。当弹簧加载按钮403被向内按压时,销402可以从表带412中的凹口缩回,使得由销402施加在表体404上的保持力被去除。保持力的去除允许表体404容易地从表带412分离。在一些示例中,销402可以是弹簧加载的,并且被配置成当保持力被去除时远离表带412缩回。
尽管图4示出了将表体404可拆卸地耦接到表带412的四个销402,但是本公开不限于此,并且可以使用任何数量的销402。在一些示例中,通过如方向箭头409所指示的向内朝表带412同时按压按钮403,按钮403可以在锁杆406上施加力,使得锁杆406移动位置,使得销402可以从表带412中的凹口缩回,并且销402施加在表体404上的保持力被去除。
按钮403可以包括与锁杆406上的倾斜表面相邻设置的倾斜表面。在由方向箭头409指示的方向上按压按钮403可以使按钮403的倾斜表面沿着锁杆406的倾斜表面滑动,从而导致锁杆406横向移动以将销402与锁杆406中的相应凹处对准。销402可以从表带412中的凹口缩回,并进入锁杆406中的相应凹处中。将表体404耦接到表带412可以通过朝向表带412向表体404施加基本线性的力来实现。销402的倾斜(例如,弯曲)面可以与表带412接合,以使销402缩回并与表带412上的凹口接合。当按钮403未被按下时,弹簧407可以将按钮403保持在缩回位置,并且弹簧405可以将锁杆406保持在向销402施加保持力的位置,如下面参考图5详细描述的。
如上所述和如图4所示,表带412可以包括凹口,表体404的销402与该凹口接合,以将表体404保持在表带412上。然而,本公开不限于该配置。在一些实施例中,该配置可以是相反的:表体404可以包括凹口,而表带412可以包括销402、锁杆406和按钮403。
图5为根据本公开的至少一个实施例的腕带耦接机构500的详细横截面图。腕带耦接机构500可以包括表体504,该表体可以从表带512拆下以及可以附接到表带512。图5示出了以上参考图4描述的多个腕带耦接机构中的一个腕带耦接机构的横截面。通过同时朝着表带512向内按压按钮(例如,图4的按钮403),按钮可以在锁杆506上施加力,以使锁杆506的位置移动,使得销502可以从表带512中的凹口511缩回,并且销502施加在表体504上的保持力被去除。
在一些示例中,凹口511的区域513的几何形状可以被配置成使得销502产生净力,该净力朝向表体504驱动表带512(例如,从图5的视角向上),从而在表带512和表体504之间保持机械稳定性。销502在区域513中的有轮廓表面被成形为当锁杆506在销502上施加保持力时,销502的有轮廓表面产生净力。在一些示例中,表带512和表体504可以具有互补的电接触(例如,弹簧销接触或销502),以允许电力和/或信号在表带512和表体504之间传递,如以上参考图3所描述的。除了提供机械稳定性之外,销502产生的净力可以保持表带512和表体504之间的电接触的完整性。
图6为根据本公开至少一个实施例的耦接机构600的立体图。耦接机构600可以是可拆卸地耦接到表体的表带的一部分。例如,耦接机构600可以是图2A的表带耦接机构210,该表带耦接机构将表体204可拆卸地耦接到表带212。通过朝向耦接机构600在表体上施加基本线性的力(例如,在图6的立体图中向下),表体可以耦接到耦接机构600,使得表体上的至少一个弹簧加载棘爪接合耦接机构600的锁定表面602和604。
耦接机构600可以包括至少一个锁定表面602,该锁定表面在表体耦接到表带时防止表体旋转。耦接机构600可以包括至少一个竖直锁定表面604,该竖直锁定表面在表体耦接到表带时防止表体相对于耦接机构600竖直运动。在一些示例中,耦接机构600可以包括一个锁定表面602和三个竖直锁定表面604,该一个锁定表面用于防止旋转运动,该三个竖直锁定表面布置在一个平面中以防止竖直运动。
通过向表体施加旋转力,使得表体上的至少一个弹簧加载棘爪脱离耦接机构600的锁定表面602和604,表体可以从耦接机构600脱离。在一些示例中,表体可以通过致动释放机构620与耦接机构600分离。释放机构620可以包括但不限于:按钮、旋钮、柱塞、手柄、操纵杆、紧固件、扣环、拨盘、闩锁或它们的组合。耦接机构600可以包括单个释放机构620或多个释放机构620(例如,位于耦接机构600的相对角处的两个释放机构620)。
尽管图6示出了释放机构620位于耦接机构600的角处,但是释放机构620可以位于耦接机构600上便于用户致动的任何位置。用户可以通过推动、转动、抬起、按压、移动或在释放机构620上进行其他动作来致动释放机构620。释放机构620的致动可以将表体从耦接机构600释放(例如,分离),从而允许用户独立于耦接机构600和表带使用表体。
耦接机构600可以在耦接机构600的角中包括斜坡表面(例如,锥形表面)以帮助耦接。例如,在图6中在耦接机构600的一个角中示出了斜坡表面613。耦接机构600的每个角可以包括斜坡表面613。附加地或替代地,耦接机构600可以包括位于耦接机构600的角中的槽,以有助于表体与表带的旋转分离。例如,耦接机构600可以在耦接机构600的每个角中包括两个槽615。槽615可以包括挨着锁定表面602和/或604设置的一端。
槽615可与锁定表面602和/或604成一角度,使得表体相对于耦接机构600的旋转运动(例如,扭转运动)允许表体沿顺时针或逆时针方向旋转离开耦接机构600。槽615在以角度603远离锁定表面602和/或604延伸时可以成角度。角度603可以被定义为与耦接机构600的底面的夹角。角度603可以被配置成允许表体沿顺时针或逆时针方向平稳地旋转离开耦接机构600。例如,角度603可以在大约5度和大约30度之间,例如在大约10度和20度之间(例如,大约10度、大约12度、大约14度、大约16度、大约18度或大约20度)。在一些示例中,槽615可以具有这样的长度,使得当表体的销到达槽615的端部时,表体的旋转可以使表体从耦接机构600拆下。
例如,表体沿顺时针或逆时针方向旋转角度605可使销到达槽615的端部,并使表体从耦接机构600拆下。角度605可以在大约5度和大约30度之间,例如在大约10度和大约20度之间(例如,大约10度、大约12度、大约14度、大约16度、大约18度或大约20度)。下面将参考图7和图8更详细地描述将表体耦接到耦接机构600和从耦接机构600分离的机构和方法。
图7为根据本公开的至少一个实施例的阻止竖直运动的腕带耦接机构700的横截面图。图7示出了耦接到表带712的表体704。通过朝向表带712向表体704施加基本线性的力,使得表体704上的弹簧加载棘爪707接合竖直锁定表面706,可以将表体704耦接到表带712。当表体704耦接到表带712时,竖直锁定表面706可以防止表体704相对于表带712竖直运动,如方向箭头709所示。弹簧710(例如,螺旋压缩弹簧、片簧或扭簧)可以在棘爪707上施加朝向竖直锁定表面706的径向向外的力,使得设置在棘爪707上端的倾斜表面被配置成接合竖直锁定表面706,以在线性方向(例如,竖直方向)上将表体704固定到表带。
当将表体704耦接到表带712时,可以向表体704施加朝向表带712的基本线性的力,使得棘爪707起初接触斜坡表面713。弹簧710可以被径向向内压缩,棘爪707可以向内移动,直到棘爪707接触竖直锁定表面706并将表带712固定到表体704。当将表体704与表带712分离时,相对于表带712向表体704施加旋转运动(例如,扭转运动),以使棘爪707的上端在倾斜的槽(例如,图6的槽615)中移动,使得棘爪707从竖直锁定表面706脱离。因此,旋转运动可以允许表体704沿顺时针或逆时针方向旋转离开表带712。
如上所述,表体704可以通过棘爪707和弹簧710固定到表带712。然而,本公开并不限于这种固定机构。例如,在另外的实施例中,表体704可以用一个或多个磁体至少部分地固定到表带712,如下面参考图9至13所描述的。在一些示例中,除了棘爪707和弹簧710之外,还可以使用磁体来增加当接合时将表体704固定到表带712的力。
图8为根据本公开的至少一个实施例的抑制表体804和表带812之间的旋转运动的腕带耦接机构800的横截面图。图8示出了耦接到表带812的表体804。通过朝向表带812向表体804施加基本线性的力,使得弹簧加载棘爪807接合旋转锁定表面806,表体804可以耦接到表带812。当表体804耦接到表带812时,旋转锁定表面806可以抑制表体804相对于表带812的旋转运动,如方向箭头809所示。弹簧810(例如,扭簧)可以在棘爪807上朝向旋转锁定表面806施加径向向外的力,使得设置在棘爪807上端的倾斜(例如,有轮廓的)表面接合旋转锁定表面806,以在旋转方向上将表体804固定到表带812。
当将表体804耦接到表带812时,可以朝向表带812向表体804施加基本线性的力,以使棘爪807接触斜坡表面(例如,如图6的斜坡表面613),使得弹簧810径向向内压缩,棘爪807向内移动,直到棘爪807接触旋转锁定表面806并将表带812固定到表体804。换句话说,通过线性向下推动表体804以与表带812接合,表体804可以耦接到表带812,其中表体804相对于表带812旋转或不旋转。当从表带812分离表体804时,可以相对于表体804将旋转力(例如,扭力)施加到表体804,以克服来自弹簧810的弹簧力,使得棘爪807远离旋转锁定表面806缩回。棘爪807的上端可以在倾斜的槽(例如,诸如图6的槽615)中移动,使得旋转运动允许表体804沿顺时针或逆时针方向旋转离开表带812。
表体804可以具有与表带812互补的形状。例如,表体804和表带812可以各自基本上是矩形、正方形、圆形、六边形、八边形、带有圆角的矩形(如图8所示),或者任何其他合适的形状。
图9为根据本公开的至少一个实施例的与表带分离的表体904底部的底部立体图。图10为根据本公开的至少一个实施例的表带1012的顶部立体图,图9的表体904可以耦接到该表带或者与该表带分离。表体904可以使用任何类型的运动和/或机构耦接到表带1012和/或从表带1012分离。例如,通过施加扭转运动、线性运动、转动运动、摇动运动、弯曲运动、推动运动、拉动运动、螺旋运动或它们的组合,表体904可以耦接到表带1012和/或从表带1012分离。在一些示例中,表体904可以使用一系列前述动作耦接到表带1012和/或从表带1012分离。例如,通过表体904相对于表带1012的扭转运动,表体904可以耦接到表带1012和/或从表带1012分离。例如,用户可以将表体904放置在表带1012附近。当表体904靠近表带1012时(例如,当表体904的中心大约位于表带1012中心的顶部时),至少一个表体磁体960可以被吸引到表带磁体1060。表体磁体960和表带磁体1060之间的吸引力可以将表体904相对于表带1012对准到预耦接位置。表体904相对于表带1012的预耦接位置可以是表体904和表带1012之间的耦接机构预接合的位置。在一些示例中,表体磁体960和表带磁体1060之间的吸引力可以将表体904耦接(例如,固定)到表带1012。
在将表体904与表带1012预耦接对准之后,用户可以相对于表带1012旋转表体904,以便将表体904耦接到表带1012。例如,用户可以顺时针方向旋转表体904,如下面参考图11和图12详细描述的。在一些示例中,用户可以相对于表带1012沿顺时针方向旋转表体904小于5度,大约5度至10度,大约10度至15度,或者大于15度。如下面参考图11至图13详细描述的,锁销928可以被配置成接合表带1012中的凹处1072(例如,孔、槽),以在表体904耦接到表带1012时抑制表体904的运动。
在一些示例中,表体904可以通过在按压按钮920时向表体904施加旋转力来从表带1012分离。按压按钮920可以致动按钮分离机构(例如,下面参考图11详细描述的按钮分离机构1100),允许表体904旋转离开表带1012。在一些示例中,传感器914(例如,接近传感器、心率监测传感器)可以被配置成感测表体904何时从表带1012分离。表体904的处理器(例如,图3的CPU 326)可被配置成检测分离状态并修改表体904的功能。例如,当表体904与表带1012分离时,处理器可以执行指令以启用图像传感器(例如,后置图像传感器915)和/或改变功耗设置。附加地或替代地,表体904的处理器可以被配置成检测耦接状态并执行指令以禁用后置图像传感器915和/或改变功耗设置。
在一些示例中,按钮920还可以用于将表体904耦接到表带1012。例如,用户可以按压按钮920,以使表体904能够移动到表体磁体960与表带磁体1060对准的预耦接位置。当用户将表体904从预耦接位置扭转到耦接位置时,用户可以释放按钮920,以使锁销928能够接合表带1012的凹处1072。在一些示例中,表带1012可以包括闩锁机构,并且表体904可以包括被配置成接收设置在表带1012上的锁销的凹处。
图11为根据本公开的至少一个附加实施例的与表带1112分离的表体1104的底部部分的立体图。通过表体1104相对于表带1112的扭转运动,表体1104可以耦接到表带1112和/或与表带1112分离。例如,为了将表体1104耦接到表带1112,用户可以将表体1104放置在表带1112的顶部。当表体1104的中心大约放置在表带1112的中心的顶部时,至少一个表体磁体1160可以被吸引到至少一个表带磁体1162。一个或多个表体磁体1160和一个或多个表带磁体1162之间的吸引力可以将表体1104相对于表带1112对准到预耦接位置。在将表体1104与表带1112对准到预耦接位置之后,用户可以相对于表带1112旋转表体1104,以便将表体1104耦接到表带1112。
在一些示例中,表体1104的突出部1174可以被配置成沿着表带1112的槽1165移动,从而将表体1104拉近表带1112并进入耦接位置。尽管图11示出了设置在对角的两组突出部1174和槽1165,但是本公开不限于此,可以使用任意数量组的突出部1174和槽1165。例如,每个角可以包括一组突出部1174和槽1165,或者仅一个角可以包括一组突出部1174和槽1165。用户可以相对于表带沿顺时针方向旋转表体1104,如方向箭头1168所示。在一些示例中,用户可以相对于表带沿顺时针方向旋转表体1104小于5度,大约5度至10度,大约10度至15度,或者大于15度。尽管图11示出了通过顺时针扭转运动将表体1104耦接到表带1112,但是本公开不限于此,表体1104可以通过如方向箭头1168所示的逆时针扭转运动耦接到表带1112。
如下面参考图13详细描述的,锁销1128可以被配置成接合表带1112中的凹处1172(例如,孔、槽),以在表体1104耦接到表带1112时抑制表体1104的运动。
在一些示例中,当在表带1104上按压按钮时,通过在如方向箭头1168所示的逆时针方向(或顺时针方向)上扭转表体1104,可以将表体1104与表带1112分离。按压按钮可以致动按钮分离机构(例如,图11的按钮分离机构1100),以允许表体1104旋转离开表带1112。在另外的实施例中,锁销1128可以被弹簧偏置到耦接位置,并且可以省略分离按钮。在这种情况下,用户可以通过以足够的力相对于表带1112沿逆时针方向扭转表体1104以克服将锁销1128偏置到耦接位置的弹簧力来将表体1104与表带1112分离。
图12是配置有接收器1265的表带1212的一部分的详细立体图。如以上参考图9至图11所描述的,当设置在表带1212和表体中的磁铁之间的吸引力将表体相对于表带1212对准到预耦接位置时,设置在表体上的突出部(例如,图11的突出部1174)可以与接收器1265的入口区域1280对准。通过在接合方向(例如,顺时针方向)上旋转表体,如方向箭头1268所示,当表体突出部与入口区域1280对准时,表体突出部可以被配置成沿着接收器1265中的斜坡表面1273(例如,锥形表面)移动,从而将表体拉近表带1212。表体可以相对于表带1212旋转到这样一个点,在该点,表体突出部到达斜坡表面端部止挡部1275,以防止表体进一步旋转。当表体突出部到达端部止挡部1275时,表体突出部的圆角可抵靠斜坡表面1273的圆角1274。当表体突出部到达阻止表体进一步旋转的端部止挡部1275时,表体上的锁销(例如,图13中的锁销1328)可以与凹处1272对准。表体可以相对于表带1212旋转到这样一个点,在该点,锁销被对准并被配置成接合表带1212中的凹处1272(例如,孔、凹口)。锁销(例如,图13的锁销1328)可以被配置成将表体固定到表带1212。
斜坡表面1273可以成角度,使得表体相对于表带1212的旋转运动(例如,扭转运动)允许表体如方向箭头1268所示沿逆时针方向旋转离开表带1212。斜坡表面1273可以配置成角度1203。角度1203可以被定义为斜坡表面1273相对于表带1212的底面的角度。角度1203可以被配置成允许表体沿着逆时针方向平稳地旋转离开表带1212。
尽管图12示出了表带1212被配置成允许表体通过顺时针旋转耦接到表带1212,并且通过逆时针方向分离,但是本公开不限于此,表带1212可以被配置成允许表体通过逆时针旋转耦接到表带1212,并且通过顺时针方向分离。在一些示例中,角度1203可以在大约5度和大约30度之间,例如在大约10度和20度之间(例如,大约10度、大约12度、大约14度、大约16度、大约18度或大约20度)。在一些示例中,斜坡表面1273可以具有这样的长度,使得表体的旋转可以使表体在其锁销离开入口区域1280时,从表带1212拆下。
图13为根据本公开的至少一个实施例的按钮分离机构1300的横截面图。如以上参考图9至图12所描述的,通过相对于表带1312旋转表体1304,表体1304可以从表带1312分离(例如,物理分离)。在一些实施例中,表体1304可以被配置成通过用户按下按钮1320并相对于表带1312旋转表体1304来与表带1312分离。按钮分离机构1300可以包括被配置成在表体1304的凹陷区域1321内移动的按钮1320。在一些示例中,用于耦接和/或分离表带1312和表体1304的机构可以包括闩锁、夹持件、杆、螺栓、搭扣、卡扣、销、弹簧、凸轮、夹具、带子、楔、钩或它们的组合。在一些示例中,O形环1322可以围绕按钮1320的轴,并且其尺寸和配置被设计为可以保护表体1304不受外来物质(例如,水、灰尘、头发等)的侵入。
按钮分离机构1300可以包括被配置成绕轴线1327枢转的操纵杆1326。按钮1320的轴的远端部分可以接触操纵杆1326的中间区域1338。当沿箭头1319所示的方向按压按钮1320时,操纵杆1326的轴接触中间区域1338可导致操纵杆1326沿逆时针方向(从图13的视图看)绕轴线1327枢转。当操纵杆1326绕轴线1327枢转时,操纵杆1326的下部区域也可以逆时针方向枢转。当操纵杆1326由于按钮1320被按压而逆时针枢转时,操纵杆1326的底部区域可以压靠锁销杆1341的顶部区域,使得锁销1328绕闩锁轴线1340沿顺时针方向(从图13的视图看)枢转。当锁销1328如方向箭头1368所示绕闩锁轴线1340沿顺时针方向枢转时,锁销1328的底部区域可沿箭头1342所示的方向移动,并从表带1312内的凹陷区域退出。
当锁销1328的底部区域延伸到表带1312内的凹陷区域中时,锁销1328可以被配置成将表体1304固定到表带1312。在一些示例中,表体1304可以包括多个按钮分离机构1300。在一些示例中,O形环1323可以围绕锁销1328的轴,并且其尺寸和配置被设计为可以保护表体1304不受外来物质(例如,水、灰尘、头发等)的侵入。
按钮分离机构1300可以包括弹簧1336(例如,扭簧、螺旋压缩弹簧、叶片弹簧等)。弹簧1336可以被配置成绕轴线1340旋转,并在与箭头1342所示方向相反的方向上对锁销1328施加力。弹簧1336可以被配置成在锁销杆1341上施加力,该力可以传递到锁销1328,使得锁销1328的底部区域延伸到凹陷区域中,从而保持表体1304和表带1312之间的耦接。由于锁销1328的上部区域与操纵杆1326的底部区域重叠,所以施加在锁销杆1341上的力可以传递到操纵杆1326的底部区域。传递到操纵杆1326的底部区域的力可以传递到操纵杆1326的中间区域和按钮1320的轴之间的接触区域,从而使得按钮1320移动到延伸位置(例如,不被按下)。保持夹1324可以被配置成限制按钮1320的延伸移动长度,并将按钮1320的轴保持在表体1304内。
表体1304可以被配置成通过用户按压按钮1320并相对于表带1312旋转表体1304来与表带1312分离。通过按压按钮1320,按钮分离机构1300可以将锁销1328从表带1312中的凹处缩回,从而允许用户将表体1304扭转离开表带1312。
在一些示例中,按钮1320可以被配置成多功能按钮。例如,按钮1320可以被配置成将锁销1328从表带1312中的凹处缩回。附加地或替代地,按钮1320可以被配置成启用和/或禁用表体1304的功能。按钮1320可以被配置成感测用户按下按钮1320,并将按钮1320的状态(例如,按下或未按下)提供给处理器(例如,图3的CPU 326)。处理器可以基于按钮1320的状态,执行指令以启用和/或禁用表体1304的功能。例如,处理器可以感测到用户按下按钮1320。作为响应,处理器可以执行指令来采集图像(例如,使用图1的前置图像传感器115A来采集图像)。
在一些示例中,按钮1320的多功能能力可以基于按钮1320的移动长度。例如,当按钮1320未被按压并且完全伸出时,按钮1320可以使锁销1328保持伸入表带1312中的凹处,从而将表体1304固定到表带1312上。当以第一移动长度按下按钮1320时,按钮1320可以被配置成向处理器提供按钮按压的状态,以便执行功能。在一些示例中,第一移动长度可以是大约0.1毫米(mm)、大约0.2mm、大约0.3mm或更多。当以第二移动长度按下按钮1320时,按钮1320可以被配置成从表带1312中的凹处缩回锁销1328,从而允许用户将表体1304扭转离开表带1312。第二移动长度可以是大约0.2mm、大约0.3mm、大约0.4mm、大约0.5mm或更大。
在一些示例中,第二移动长度可以长于第一移动长度。当按压按钮1320时,随着以第一移动长度按下按钮1320,用户可以感觉到推回用户手指的第一水平的力(例如,力反馈)。当用户继续按压按钮1320时,用户可以感觉到增加的力,以指示已经移动第一移动长度并且第二移动长度正在开始。这种力反馈可以允许用户控制按钮1320的移动长度,从而控制相关的功能。
图14A为根据本公开的至少一个实施例的表带1412的俯视图。表带1412(例如,表座)可以佩戴在用户的手腕上。如以上参考图9至图13所描述的,表带1412可以以各种方式耦接到表体。当将表体耦接到表带1412时,表体和表带1412之间的界面处可能会存在外来物质(例如,用户的臂毛)。本公开的实施例可以抑制(例如,防止和/或减少)在表体和表带1412之间的界面处卡住外来物质。例如,表带1412可以被配置成在表体和表带1412之间包括间隔间隙,以防止用户的臂毛在表体和表带1412之间的界面处被卡住(例如,被夹住),从而防止用户不舒服。
表带1412可以包括沿着表带1412的内侧周边(例如,底侧周边)在表带1412和表体之间的第一轮廓1432。当表体耦接到表带1412时,表体和表带1412可以不沿着第一轮廓彼此接触。表带1412还可以包括在表带1412和表体之间沿着内侧周边的第二轮廓1430,该第二轮廓位于包括第一轮廓1432的表带1412的相对侧(例如顶侧)。当表体耦接到表带1412时,表体和表带1412可以沿着第二轮廓的至少一部分彼此接触。
在一些实施例中,第一轮廓1432可以相对于表体中耦接到表带1412的邻近表面同心(例如,可以具有相同的形状)。相反,第二轮廓1430可以相对于表体中耦接到表带1412的邻近表面是非同心的(例如,可以具有不同的形状)。例如,第二轮廓1430可以具有一个或多个向内的突出物,当表体耦接到表带1412时,这些突出物可以紧靠表体。
图14B示出了沿图14A的剖切面A-A的表带1412的横截面图。如参照图14B所示,第一轮廓1432的尺寸和配置可以被设计为使得在表体1404和表带1412之间围绕表带1412的整个周边形成基本均匀的间隔间隙1452。间隔间隙1452可具有大约0.1mm、大约0.2mm、大约0.3mm、大约0.4mm或更大的宽度。设置在表体1404和表带1412之间的间隔间隙1452的尺寸和配置可以被设置为防止用户的臂毛在表体1404和表带1412之间的界面处被卡住(例如,被夹住)。
图14C示出了沿图14A的剖切面B-B的表带1412的横截面图。如参考图14C所示,第二轮廓1430的尺寸和配置可以被设计为使得在表体1404和表带1412之间围绕表带1412的整个周边产生非均匀间隔间隙1450。在第二轮廓1430的某些区域中可以比在其他区域中间隔间隙1450更小。例如,在可能存在一个或多个向内突出物的角区域1460中,间隔间隙1450可以是0mm(例如,没有间隙)。在角区域1460处,表体1404和表带1412可以在表体1404耦接到表带1412时彼此接触。
通过将表体1404配置为在角区域1460接触表带1412,可以增加表组件(例如,耦接到表带1412的表体1404)的机械稳定性。在第二轮廓1430除角区域1460之外的区域(例如,侧部区域)中,间隔间隙1450可以具有大约0.1mm、大约0.2mm、大约0.3mm、大约0.4mm或更大的宽度。在第二轮廓1430的除了角区域1460之外的区域中,表体1404和表带1412之间的间隔间隙1450可以被配置成防止用户的臂毛在表体1404和表带1412之间的界面处被卡住(例如,被夹住)。
图15为示出将计算任务从头戴式显示器卸载到表体的示例方法1500的流程图。在操作1510,方法1500可以包括确定适合在表体的可用计算资源上进行处理的、头戴式显示器(HMD)的至少一个计算任务。考虑到本公开,本领域技术人员将理解,操作1510可以以多种方式执行。可以基于计算要求、功耗、延迟要求或它们的组合来确定卸载的计算任务。
在操作1520,方法1500可以包括选择性地将适合在表体的可用计算资源上进行处理的、HMD的至少一个计算任务卸载到表体。操作1520可以以多种方式执行。例如,从HMD卸载到表体的任务可以包括图像处理任务。HMD的传感器(例如,图像传感器)可以获取采集HMD周围的图像的数据。这些图像可以包括采集到的图像的某些特征和/或对象(例如,人、脸、设备、背景等)。在HMD和/或表体的显示器(例如,显示屏102)上显示之前,表体可以处理这些图像以减去、增加和/或增强对象。在一些示例中,将计算任务从HMD卸载到腕带系统可以降低功耗和/或减少HMD中的计算任务执行延迟。
在一些示例中,从HMD卸载到表体的任务可以包括位置确定任务。HMD的传感器(例如,光探测和测距传感器、雷达传感器)和/或接收器(例如,射频(RF)接收器、WiFi接收器、GPS接收器)可以获取需要处理(例如,三角测量)的数据,以确定对象相对于HMD的定位、朝向和/或位置(例如,HMD相对于表体的3D定位)。由HMD获取的数据可以被传输到表体进行处理。表体可以通过处理该数据并将所得的对象的定位返回给HMD来执行定位确定任务。在一些示例中,从HMD卸载到表体的任务可以包括神经网络处理任务。例如,由HMD的传感器(例如,布置在接触用户头部的HMD带的表面上的神经肌肉传感器)获取的数据可能需要处理,以便训练神经网络(例如,递归神经网络、长短期记忆网络、卷积神经网络)以准确预测事件。由HMD获取的数据可以被传输到表体进行处理。表体可以使用所获取的来训练神经网络,并将经训练的模型返回给HMD。
在一些示例中,从HMD卸载到表体的任务可以包括图形处理任务。例如,在HMD上运行的人工现实应用程序(例如,游戏应用程序)的图形数据可能需要处理以便在HMD上正确地渲染。图形数据的至少一部分可以被传输到表体以供处理。表体可以处理图形数据(例如,执行渲染算法)并将经处理的图形数据返回给HMD和/或基于经处理的图形数据在表体的显示器(例如,显示屏102)上显示图像。
在操作1530,方法1500可以包括由表体的可用计算资源处理至少一个计算任务。操作1530可以以多种方式执行。例如,至少一个计算任务可以使用表体的存储器和一个或多个处理器来执行,例如上面参考图3描述的那些。
在操作1540,方法1500可以包括将经处理的至少一个计算任务的结果发送到HMD。例如,表带可以使用无线通信方法将结果发送到HMD。
如上所述,本公开详细描述了与包括可拆卸地耦接到表带的表体的腕带系统相关的系统、设备和方法。表体可以与表带分离,以减少佩戴表带的用户的负担。腕带系统可以具有允许表带和表体独立地操作并彼此通信的分体式结构。例如,表带在表体被拆下时可以独立地获取传感器数据(例如,神经肌肉传感器数据),并将该数据发送到表体。机械结构可以包括表带和/或表体上的耦接机构,该耦接机构允许用户方便地将表体附接到表带上和从表带上拆下。表体可以基于表体是与表带耦接还是与表带分离来修改功能。
在一些实施例中,计算系统的一个或多个对象(例如,与传感器相关联的数据和/或活动信息)可以与一个或多个隐私设置相关联。这些对象可以存储在任何合适的计算系统或应用上或以其他方式与任何合适的计算系统或应用相关联,所述合适的计算系统或应用例如是社交网络系统、客户端系统、第三方系统、消息传递应用、照片共享应用、生物特征数据获取应用、人工现实应用和/或任何其他合适的计算系统或应用。
可以以任何合适的方式存储对象的隐私设置(或“访问设置”),这些方式例如为与该对象相关联、以授权服务器中的索引的方式、另一合适的方式、或它们的任何合适的组合。对象的隐私设置可以指定如何在应用(例如,人工现实应用)中访问、存储或以其他方式使用(例如,查看、共享、修改、复制、执行、显现或识别)该对象(或与该对象相关联的特定信息)。在对象的隐私设置允许特定用户或其它实体访问该对象的情况下,该对象可以被描述为相对于该用户或该其它实体是“可见的”。作为示例,人工现实应用的用户可以指定用户简档页面的隐私设置,该隐私设置标识了可以访问用户简档页面上的人工现实应用信息的一组用户,从而拒绝其他用户访问该信息。作为另一示例,人工现实应用可以存储隐私策略/指南。隐私策略/指南可以指定哪些实体和/或哪些进程(例如,内部研究、广告算法、机器学习算法)可以访问用户的哪些信息,从而确保只有用户的某些信息可以被某些实体或进程访问。
在一些实施例中,对象的隐私设置可以指定不应被允许访问与该对象相关联的某些信息的用户或其它实体的“黑名单”。在某些情况下,黑名单可以包括第三方实体。黑名单可以指定对象对其不可见的一个或多个用户或实体。
与对象相关联的隐私设置可以指定允许访问或拒绝访问的任何合适的粒度。作为示例,可以为以下用户指定访问或拒绝访问:特定用户(例如,仅我、我的室友、我的领导)、在特定分离度内的用户(例如,朋友、朋友的朋友)、用户群组(例如,游戏俱乐部、我的家人)、用户网络(例如,特定雇主的雇员、特定大学的学生或校友)、所有用户(“公共”)、无用户(“私人”)、第三方系统的用户、特定应用(例如,第三方应用、外部网站)、其他合适的实体或它们的任何组合。在一些实施例中,与用户相关联的相同类型的不同对象可以具有不同的隐私设置。此外,可以为特定对象类型的每个对象设置一个或多个默认隐私设置。
本公开的实施例可以包括各种类型的人工现实系统、或结合各种类型的人工现实系统来实现。人工现实是在呈现给用户之前已经以某种方式进行了调整的现实形式,该现实形式例如可以包括:虚拟现实、增强现实、混合现实(mixed reality)、混杂现实(hybridreality)、或它们的某种组合和/或衍生物。人工现实内容可以包括完全的计算机生成内容、或与所采集的(例如,真实世界)内容相结合的计算机生成内容。人工现实内容可以包括视频、音频、触觉反馈、或它们的某种组合,以上任何一种都可以在单个通道或多个通道(例如,给观看者带来三维(3D)效果的立体视频)中呈现。另外,在一些实施例中,人工现实还可以与应用、产品、附件、服务、或它们的某种组合相关联,这些应用、产品、附件、服务、或它们的某种组合例如用于在人工现实中创建内容和/或以其他方式用于人工现实(例如,在人工现实中执行活动)。
人工现实系统可以以各种不同的形状要素和配置来实现。一些人工现实系统可以被设计成在没有近眼显示器(near-eye display,NED)的情况下工作。其他人工现实系统可以包括NED,该NED还提供对真实世界的可见性(例如,图16中的增强现实系统1600)或使用户在视觉上沉浸在人工现实中(例如,图17中的虚拟现实系统1700)。尽管一些人工现实设备可以是独立的系统,但其它人工现实设备可以与外部设备通信和/或配合,以向用户提供人工现实体验。这种外部设备的示例包括手持控制器、移动设备、台式计算机、由用户穿戴的设备、由一个或多个其他用户穿戴的设备、和/或任何其它合适的外部系统。
转到图16,增强现实系统1600可以包括具有框架1610的眼镜设备1602,该框架被配置为将左显示设备1615(A)和右显示设备1615(B)保持在用户眼睛的前方。显示设备1615(A)和显示设备1615(B)可以一起或独立地动作,以向用户呈现图像或系列图像。尽管增强现实系统1600包括两个显示器,但是本公开的实施例可以在具有单个NED或多于两个NED的增强现实系统中实现。
在一些实施例中,增强现实系统1600可以包括一个或多个传感器,例如传感器1640。传感器1640可以响应于增强现实系统1600的运动而生成测量信号,并且可以基本上位于框架1610的任何部分上。传感器1640可以代表各种不同的传感机构中的一种或多种,例如位置传感器、惯性测量单元(inertial measurement unit,IMU)、深度摄像头组件、结构化光发射器和/或检测器、或它们的任意组合。在一些实施例中,增强现实系统1600可以包括或不包括传感器1640,或者可以包括多于一个的传感器。在传感器1640包括IMU的实施例中,该IMU可以基于来自传感器1640的测量信号生成校准数据。传感器1640的示例可以包括但不限于:加速度计、陀螺仪、磁力计、检测运动的其它合适类型的传感器、用于IMU的误差校正的传感器、或它们的某种组合。
在一些示例中,增强现实系统1600还可以包括传声器阵列,该传声器阵列具有多个声学转换器1620(A)至1620(J),它们被统称为声学转换器1620。声学转换器1620可以代表检测由声波引起的气压变化的转换器。每个声学转换器1620可以被配置成检测声音并将所检测到的声音转换成电子格式(例如,模拟格式或数字格式)。图16中的传声器阵列例如可以包括十个声学转换器:可被设计成置于用户的相应耳朵内的1620(A)和1620(B);可被定位在框架1610上的各个位置处的声学转换器1620(C)、1620(D)、1620(E)、1620(F)、1620(G)和1620(H);和/或可被定位在对应的颈带1605上的声学换能器1620(I)和1620(J)。
在一些实施例中,声学转换器1620(A)至1620(J)中的一个或多个声学转换器可以用作输出转换器(例如,扬声器)。例如,声学转换器1620(A)和/或1620(B)可以是耳塞、或任何其它合适类型的耳机或扬声器。
传声器阵列中的各声学转换器1620的配置可以改变。尽管增强现实系统1600在图16中被显示为具有十个声学转换器1620,但声学转换器1620的数量可以多于或少于十个。在一些实施例中,使用更多数量的声学转换器1620可以增加收集到的音频信息的量和/或提高音频信息的灵敏度和准确度。相比之下,使用更少数量的声学转换器1620可以降低相关联的控制器1650处理收集到的音频信息所需的计算能力。另外,传声器阵列中的各个声学转换器1620的位置可以改变。例如,声学转换器1620的位置可以包括用户身上的限定位置、框架1610上的限定坐标、与每个声学转换器1620相关联的朝向、或它们的某种组合。
声学转换器1620(A)和1620(B)可以被定位在用户耳朵的不同部位上,例如耳廓(pinna)后面、耳屏后面、和/或耳廓(auricle)或耳窝内。或者,除了耳道内的声学转换器1620之外,在耳朵上或耳朵周围还可以存在附加的声学转换器1620。将声学转换器1620定位在用户的耳道附近可以使传声器阵列能够收集关于声音如何到达耳道的信息。通过将多个声学转换器1620中的至少两个声学转换器定位在用户头部的两侧上(例如,作为双耳传声器),增强现实设备1600可以模拟双耳听觉并采集用户头部周围的3D立体声场。在一些实施例中,声学转换器1620(A)和1620(B)可以经由有线连接1630而连接到增强现实系统1600,而在其它实施例中,声学转换器1620(A)和1620(B)可以经由无线连接(例如,蓝牙连接)而连接到增强现实系统1600。在另一些实施例中,声学转换器1620(A)和1620(B)可以完全不与增强现实系统1600结合使用。
框架1610上的多个声学转换器1620可以以各种不同的方式而被定位,这些不同的方式包括沿着眼镜腿(temple)的长度、跨过鼻梁架、在显示设备1615(A)和显示设备1615(B)的上方或下方、或它们的某种组合。该多个声学转换器1620还可以被定向为使得传声器阵列能够检测正佩戴着增强现实系统1600的用户周围的宽方向范围内的声音。在一些实施例中,可以在增强现实系统1600的制造期间执行优化过程,以确定各个声学转换器1620在传声器阵列中的相对定位。
在一些示例中,增强现实系统1600可以包括或连接到外部设备(例如,配对设备),例如,颈带1605。颈带1605概括地代表任何类型或形式的配对设备。因此,以下对颈带1605的论述也可以应用于各种其它的配对设备,例如充电盒、智能手表、智能手机、腕带、其它可穿戴设备、手持控制器、平板计算机、膝上型计算机、其它外部计算设备等。
如图所示,颈带1605可以经由一个或多个连接器而耦接到眼镜设备1602。这些连接器可以是有线的或无线的,并且可以包括电子部件和/或非电子部件(例如,结构部件)。在一些情况下,眼镜设备1602和颈带1605可以在它们之间没有任何有线连接或无线连接的情况下独立地操作。尽管图16示出了眼镜设备1602和颈带1605中的多个部件位于眼镜设备1602和颈带1605上的示例位置处,但这些部件可以位于眼镜设备1602和/或颈带1605上的其它位置、和/或以不同的方式分布在该眼镜设备和/或该颈带上。在一些实施例中,眼镜设备1602和颈带1605中的多个部件可以位于一个或多个附加的外围设备上,该一个或多个附加的外围设备与眼镜设备1602、颈带1605、或它们的某种组合配对。
将外部设备(例如,颈带1605)与增强现实眼镜设备配对可以使该眼镜设备能够实现一副眼镜的形状要素,同时仍然为扩展后的能力提供足够的电池电量和计算能力。增强现实系统1600的电池电量、计算资源和/或附加特征中的一些或全部可以由配对设备来提供,或者在配对设备与眼镜设备之间共享,从而总体上降低眼镜设备的重量、热量分布和形状要素,同时仍然保持所期望的功能。例如,颈带1605可以允许本来要包括在眼睛设备上的部件被包括在颈带1605中,这是因为与用户在其头部上承受的相比,他们可以在其肩部上承受更重的重量负荷。颈带1605还可以具有较大的表面积,以通过该较大的表面积将热量扩散和散发到周围环境。因此,与在独立眼镜设备上以其它方式可行的电池容量和计算能力相比,颈带1605可以允许更大的电池容量和更强的计算能力。由于颈带1605中携带的重量可以比眼镜设备1602中携带的重量对用户的侵害小,因此,与用户忍受佩戴重的独立眼镜设备相比,用户可以忍受更长时间佩戴较轻的眼镜设备并携带或佩戴配对设备,从而使用户能够将人工现实环境更充分地融入其日常活动中。
颈带1605可以与眼镜设备1602通信地耦接,和/或通信地耦接至其它设备。这些其它设备可以向增强现实系统1600提供某些功能(例如,追踪、定位、深度图构建(depthmapping)、处理、存储等)。在图16的实施例中,颈带1605可以包括两个声学转换器(例如,1620(I)和1620(J)),该两个声学转换器是传声器阵列的一部分(或者潜在地形成它们自己的传声器子阵列)。颈带1605还可以包括控制器1625和电源1635。
颈带1605中的声学转换器1620(I)和1620(J)可以被配置成检测声音并将检测到的声音转换成电子格式(模拟或数字)。在图16的实施例中,声学转换器1620(I)和1620(J)可以被定位在颈带1605上,从而增加了颈带的声学转换器1620(I)和1620(J)与被定位在眼镜设备1602上的其它声学转换器1620之间的距离。在一些情况下,增加传声器阵列中的各声学转换器1620之间的距离可以提高经由该传声器阵列执行的波束成形的准确性。例如,如果声学转换器1620(C)和1620(D)检测到声音,且声学转换器1620(C)与1620(D)之间的距离大于例如声学转换器1620(D)与1620(E)之间的距离,则所确定的检测到的声音的源位置可以比当该声音被声学转换器1620(D)和1620(E)检测到时更准确。
颈带1605中的控制器1625可以对由颈带1605和/或增强现实系统1600上的各传感器生成的信息进行处理。例如,控制器1625可以对来自传声器阵列的、描述由该传声器阵列检测到的声音的信息进行处理。对于每个检测到的声音,控制器1625可以执行波达方向(direction-of-arrival,DOA)估算,以估计检测到的声音从哪个方向到达传声器阵列。当传声器阵列检测到声音时,控制器1625可以使用该信息填充音频数据集。在增强现实系统1600包括惯性测量单元的实施例中,控制器1625可以从位于眼镜设备1602上的IMU计算所有惯性和空间计算。连接器可以在增强现实系统1600和颈带1605之间、以及在增强现实系统1600和控制器1625之间传送信息。该信息可以是光学数据形式、电子数据形式、无线数据形式、或任何其它可传输的数据形式。将对由增强现实系统1600所生成的信息进行的处理移动至颈带1605可以减少眼镜设备1602的重量和热量,使得该眼镜设备对用户而言更舒适。
颈带1605中的电源1635可以向眼镜设备1602和/或颈带1605供电。电源1635可以包括但不限于:锂离子电池、锂聚合物电池、一次锂电池、碱性电池、或任何其它形式的电力存储器。在一些情况下,电源1635可以是有线电源。将电源1635包括在颈带1605上而不是眼镜设备1602上可以有助于更好地分散由电源1635产生的重量和热量。
如所提到的,一些人工现实系统可以使用虚拟体验来大体上代替用户对真实世界的感官知觉中的一个或多个感官知觉,而不是将人工现实与真实现实混合。这种类型的系统的一个示例是大部分或完全覆盖用户的视场的头戴式显示系统,例如图17中的虚拟现实系统1700。虚拟现实系统1700可以包括前部刚性体1702和被成形为适合围绕用户头部的带1704。虚拟现实系统1700还可以包括输出音频转换器1706(A)和1706(B)。此外,尽管图17中未示出,但前部刚性体1702可以包括一个或多个电子元件,该一个或多个电子元件包括一个或多个电子显示器、一个或多个惯性测量单元(IMU)、一个或多个追踪发射器或检测器、和/或用于生成人工现实体验的任何其它合适的设备或系统。
人工现实系统可以包括各种类型的视觉反馈机制。例如,增强现实系统1600中和/或虚拟现实系统1700中的显示设备可以包括:一个或多个液晶显示器(liquid crystaldisplay,LCD)、一个或多个发光二极管(LED)显示器、一个或多个有机LED(organic LED,OLED)显示器、一个或多个数字光投影(digital light project,DLP)微型显示器、一个或多个硅基液晶(liquid crystal on silicon,LCoS)微型显示器、和/或任何其它合适类型的显示屏。这些人工现实系统可以包括用于双眼的单个显示屏,或者可以为每只眼睛提供一个显示屏,这可以为变焦调整或为校正用户的屈光不正而提供额外的灵活性。这些人工现实系统中的一些人工现实系统还可以包括多个光学子系统,这些光学子系统具有一个或多个透镜(例如,常规的凹透镜或凸透镜、菲涅耳透镜、可调整的液体透镜等),用户可以透过该一个或多个透镜观看显示屏。这些光学子系统可以用于各种目的,包括准直(例如,使对象显现在比其物理距离更远的距离处)、放大(例如,使对象显现得比其实际尺寸更大)、和/或传递光(例如,传递到观看者的眼睛)。这些光学子系统可以用于直视型架构(non-pupil-forming architecture)(例如,直接对光进行准直但会产生所谓的枕形失真(pincushion distortion)的单透镜配置)和/或非直视型架构(pupil-formingarchitecture)(例如,产生所谓的桶形失真以抵消枕形失真的多透镜配置)。
除了使用显示屏之外,或代替使用显示屏,本文所描述的人工现实系统中的一些人工现实系统可以包括一个或多个投影系统。例如,增强现实系统1600和/或虚拟现实系统1700中的显示设备可以包括微型LED投影仪,该微型LED投影仪将光投射(例如,使用波导投射)到显示设备中,该显示设备诸如为允许环境光通过的透明组合透镜。显示设备可以朝向用户的瞳孔折射所投射的光,并且可以使用户能够同时观看人工现实内容和真实世界这两者。显示设备可以使用各种不同光学部件中的任何光学部件来实现该目的,这些不同光学部件包括波导部件(例如,全息元件、平面元件、衍射元件、偏振元件、和/或反射波导元件)、光操纵表面和元件(诸如衍射、反射、折射元件和光栅)、耦合元件等。人工现实系统还可以配置有任何其它合适类型或形式的图像投影系统,例如用于虚拟视网膜显示器的视网膜投影仪。
本文所描述的人工现实系统还可以包括各种类型的计算机视觉部件和子系统。例如,增强现实系统1600和/或虚拟现实系统1700可以包括一个或多个光学传感器,例如二维(2D)摄像头或3D摄像头、结构化光发射器和检测器、飞行时间深度传感器、单波束测距仪或扫描激光测距仪、3D激光雷达传感器、和/或任何其它合适类型或形式的光学传感器。人工现实系统可以对来自这些传感器中的一个或多个传感器的数据进行处理,以识别用户的位置、绘制真实世界的地图、向用户提供与真实世界周围环境有关的背景、和/或执行各种其它功能。
本文所描述的人工现实系统还可以包括一个或多个输入和/或输出音频转换器。输出音频转换器可以包括音圈扬声器、带式扬声器、静电式扬声器、压电式扬声器、骨传导转换器、软骨传导转换器、耳屏振动转换器、和/或任何其它合适类型或形式的音频转换器。类似地,输入音频转换器可以包括电容式传声器、动态传声器、带式传声器、和/或任何其它类型或形式的输入转换器。在一些实施例中,对于音频输入和音频输出这两者,可以使用单个转换器。
在一些实施例中,本文所描述的人工现实系统还可以包括触觉(tactile)(即触感(haptic))反馈系统,该触觉反馈系统可以结合到头饰、手套、服装、手持控制器、环境设备(例如椅子、地板垫等)、和/或任何其它类型的设备或系统中。触觉反馈系统可以提供各种类型的皮肤反馈,这些类型的皮肤反馈包括振动、力、牵拉、质地和/或温度。触觉反馈系统还可以提供各种类型的动觉反馈,例如运动和顺应性。可以使用电机、压电式致动器、流体系统、和/或各种其它类型的反馈机构实现触觉反馈。触觉反馈系统可以独立于其它人工现实设备而实现,在其它人工现实设备内实现,和/或结合其它人工现实设备来实现。
通过提供触觉感知、听觉内容和/或视觉内容,人工现实系统可以在各种背景和环境中创建完整的虚拟体验或增强用户的真实世界体验。例如,人工现实系统可以辅助或扩展用户在特定环境中的知觉、记忆或认知。一些系统可以增强用户与真实世界中的其他人的交互,或者可以实现与虚拟世界中的其他人的更沉浸式的交互。人工现实系统还可以用于教育目的(例如,用于学校、医院、政府机构、军事机构、企业等中的教学或训练)、娱乐目的(例如,用于玩视频游戏、听音乐、观看视频内容等)、和/或用于可接入性目的(例如,作为助听器、视觉辅助等)。本文所公开的实施例可以在这些背景和环境中的和/或在其它背景和环境中的一个或多个背景和环境中实现或增强用户的人工现实体验。
如上所提到的,人工现实系统1600和1700可以与各种其他类型的设备一起使用,以提供更引人入盛的人工现实体验。这些设备可以是具有多个转换器的触觉接口,这些转换器提供触觉反馈和/或收集用户与环境的交互有关的触觉信息。本文所公开的人工现实系统可以包括各种类型的触觉接口,这些类型的触觉接口检测或传送各种类型的触觉信息,这些类型的触觉信息包括触觉反馈(例如,用户经由皮肤中的神经而觉察到的反馈,该反馈也可以称为皮肤反馈)和/或动觉反馈(例如,用户经由位于肌肉、关节和/或肌腱中的感受器而觉察到的反馈)。
触觉反馈可以通过定位在用户环境(例如,椅子、桌子、地板等)内的接口和/或用户可以佩戴或携带的物品(例如,手套、腕带等)上的接口来提供。作为一示例,图18示出了可穿戴手套(触觉设备1810)和腕带(触觉设备1820)形式的振动触觉系统1800。触觉设备1810和触觉设备1820分别被示出为可穿戴设备的示例,可穿戴设备包括柔性的可穿戴纺织材料1830,其被成形和配置为抵靠用户的手和手腕而定位。本公开也包括可以被成形和配置为抵靠其他人体部位(例如,手指、手臂、头部、躯干、足部、或腿)而定位的振动触觉系统。作为示例而非限制,根据本公开各种实施例的振动触觉系统也可以是手套、头带、臂带、袖子、头罩、袜子、衬衫、或裤子等其他可能的形式。在一些示例中,术语“纺织”可以包括任何柔性的可穿戴的材料,包括纺织织物、非纺织织物、皮革、布、柔性聚合物材料、复合材料等。
一个或多个振动触觉设备1840可以被定位成至少部分地位于形成在振动触觉系统1800的纺织材料1830中的一个或多个相应的口袋内。振动触觉设备1840可以被定位在向振动触觉系统1800的用户提供振动知觉(例如,触觉反馈)的位置处。例如,振动触觉设备1840可以定位成抵靠用户的一个或多个手指、拇指或手腕,如图18所示。在一些示例中,振动触觉设备1840可以是足够柔性的,以顺应用户的一个或多个相应身体部位,或随着用户的一个或多个相应身体部位弯曲。
用于向多个振动触觉设备1840施加电压以用于激活这些振动触觉设备的电源1850(例如,电池)可以电耦接到(例如,经由导线1852电耦接到)这些振动触觉设备1840。在一些示例中,多个振动触觉设备1840中的每个振动触觉设备可以独立地电耦接到电源1850以用于单独激活。在一些实施例中,处理器1860可以可操作地耦接到电源1850,并且被配置(例如,被编程)为控制对多个振动触觉设备1840的激活。
振动触觉系统1800可以以各种方式实现。在一些示例中,振动触觉系统1800可以是具有多个集成子系统和多个部件以独立于其他设备和系统运行的独立系统。作为另一示例,振动触觉系统1800可以被配置为与另一设备或系统1870交互。例如,在一些示例中,振动触觉系统1800可以包括用于接收信号和/或向该另一设备或系统1870发送信号的通信接口1880。该另一设备或系统1870可以是移动设备、游戏控制台、人工现实(例如,虚拟现实、增强现实、混合现实)设备、个人计算机、平板计算机、网络设备(例如,调制解调器、路由器等)、手持控制器等。通信接口1880可以经由无线(例如,Wi-Fi、蓝牙、蜂窝、无线电等)链路或有线链路实现振动触觉系统1800与该另一设备或系统1870之间的通信。如果存在通信接口1880,则该通信接口可以与处理器1860通信,例如以向处理器1860提供信号来激活或去激活多个振动触觉设备1840中的一个或多个振动触觉设备。
振动触觉系统1800可以可选地包括其他子系统和部件,例如多个触摸感应垫1890、多个压力传感器、多个运动传感器、多个位置传感器、多个照明元件、和/或多个用户接口元件(例如,开/关按钮、振动控制元件等)。在使用期间,振动触觉设备1840可以被配置为出于各种不同的原因而被激活,例如响应于用户与用户接口元件的交互、来自运动传感器或位置传感器的信号、来自触摸感应垫1890的信号、来自压力传感器的信号、来自该另一设备或系统1870的信号等而被激活。
尽管电源1850、处理器1860和通信接口1880在图18中被示出为被定位在触觉设备1820中,但本公开不限于此。例如,电源1850、处理器1860或通信接口1880中的一者或多者可以被定位在触觉设备1810内或另一个可穿戴织物内。
触觉可穿戴物(例如,在图18中示出和结合图18所描述的那些)可以在各种类型的人工现实系统和环境中实现。图19显示了示例人工现实环境1900,该人工现实环境包括一个头戴式虚拟现实显示器和两个触觉设备(即,手套),并且在其他实施例中,任何数量的这些部件和其他部件、和/或这些部件和其他部件的任何组合可以被包括在人工现实系统中。例如,在一些实施例中,可以存在多个头戴式显示器,每个头戴式显示器具有相关联的触觉设备,每个头戴式显示器和每个触觉设备与同一控制台、同一便携式计算设备、或同一其他计算系统通信。
头戴式显示器1902概括地表示任何类型或形式的虚拟现实系统,例如图17中的虚拟现实系统1700。触觉设备1904概括地表示由人工现实系统的用户穿戴的任何类型或形式的可穿戴设备,该可穿戴设备向用户提供触觉反馈,以给予用户他或她正与虚拟对象物理接触的感知。在一些实施例中,触觉设备1904可以通过向用户施加振动、运动和/或推力来提供触觉反馈。例如,触觉设备1904可以限制或增强用户的动作。给出一特定的示例,触觉设备1904可以限制用户的手向前移动,使得用户感知到他或她的手已经与虚拟壁物理接触。在该特定示例中,触觉设备内的一个或多个致动器可以通过将流体泵入触觉设备的可膨胀气囊中来实现物理移动限制。在一些示例中,用户还可以使用触觉设备1904来向控制台发送动作请求。动作请求的示例包括但不限于:启动应用程序和/或结束应用程序的请求、和/或执行应用程序内的特定动作的请求。
尽管触觉接口可以与虚拟现实系统一起使用,如图19所示,但触觉接口也可与增强现实系统一起使用,如图20所示。图20是用户2010与增强现实系统2000交互的立体图。在该示例中,用户2010可以佩戴一副增强现实眼镜2020,该副增强现实眼镜可以具有一个或多个显示器2022并且与触觉设备2030配对。在该示例中,触觉设备2030可以是腕带,该腕带包括多个带元件2032和将这些带元件2032彼此连接的拉伸机构2034。
多个带元件2032中的一个或多个带元件可以包括适于提供触觉反馈的任何类型或形式的致动器。例如,多个带元件2032中的一个或多个带元件可以被配置成提供各种类型的皮肤反馈中的一种或多种类型的皮肤反馈,这些类型的皮肤反馈包括振动、推力、牵拉、质地和/或温度。为了提供这种反馈,多个带元件2032可以包括各种类型的致动器中的一种或多种类型的致动器。在一个示例中,多个带元件2032中的每个带元件可以包括振动触觉器(vibrotactor)(例如,振动触觉致动器),该振动触觉器被配置为联合地或独立地振动,以向用户提供各种类型的触觉知觉中的一种或多种类型的触觉知觉。替代地,仅单个带元件或多个带元件的子集可以包括振动触觉器。
触觉设备1810、1820、1904和2030可以包括任何合适数量和/或类型的触觉转换器、传感器和/或反馈机构。例如,触觉设备1810、1820、1904和2030可以包括一个或多个机械式转换器、一个或多个压电式转换器、和/或一个或多个流体转换器。触觉设备1810、1820、1904和2030也可以包括一起或独立工作以增强用户的人工现实体验的、不同类型和形式的转换器的各种组合。在一个示例中,触觉设备2030的多个带元件2032中的每个带元件可以包括振动触觉器(例如,振动触觉致动器),该振动触觉器被配置为联合地或独立地振动,以向用户提供各种类型的触觉知觉中的一种或多种触觉知觉。
图21A示出了被配置成作为可穿戴系统900佩戴在用户的下臂或手腕周围的示例性人机接口(在本文中也称为EMG控制接口)。在该示例中,可穿戴系统2100可以包括围绕弹性带2120周向布置的16个神经肌肉传感器2110(例如,EMG传感器)。然而,可以使用任何适当数量的神经肌肉传感器。神经肌肉传感器的数量和布置可取决于可穿戴设备所用于的特定应用。例如,可穿戴臂章或腕带可用于生成控制信息,以用于控制增强现实系统、机器人、控制车辆、滚动文本、控制虚拟化身或任何其他合适的控制任务。如图所示,可以使用结合到无线设备中的柔性电子设备将多个传感器耦接在一起。图21B示出了穿过图21A所示的可穿戴设备的一个传感器的横截面图。在一些实施例中,可以可选地使用硬件信号处理电路来处理一个或多个感测部件的输出(例如,以执行放大、滤波和/或整流)。在其他实施例中,感测部件的输出的至少一些信号处理可以在软件中执行。因此,由传感器采样的信号的信号处理可以在硬件、软件或硬件和软件的任何合适的组合中执行,因为本文所描述的技术的方面在这方面不受限制。下面参考图22A和图22B更详细地讨论用于处理来自传感器2110的记录数据的信号处理链的非限制性示例。
图22A和图22B示出了具有EMG传感器的可穿戴系统的内部部件的示例性示意图。如图所示,可穿戴系统可以包括可穿戴部分2210(图22A)和与可穿戴部分2210通信(例如,经由蓝牙或另一种合适的无线通信技术)的连接部分2220(图22B)。如图22A所示,可穿戴部分2210包括传感器2110,结合图21A和图21B描述了这些传感器的示例。传感器2110的输出被提供给模拟前端2230,该模拟前端可以被配置成对记录的信号执行模拟处理(例如,放大、降噪、滤波等)。经处理的模拟信号然后被提供给模数转换器2232,该模数转换器可以将模拟信号转换成可由一个或多个计算机处理器处理的数字信号。根据一些实施例可以使用的计算机处理器的示例是微控制器(MCU)2234,如图22A所示。如图所示,MCU 2234还可以包括来自其他传感器(例如,IMU传感器2240)以及电源和电池模块2242的输入。由MCU执行的处理的输出可以被提供给天线2250,用于传输到图22B所示的连接部分2220。
连接部分2220包括被配置成与天线2250通信的天线2252,天线2250作为可穿戴部分2210的一部分被包括在其内。天线2250和2252之间的通信可以使用任何合适的无线技术和协议来进行,其非限制性示例包括射频信令和蓝牙。如图所示,由连接部分2220的天线2252接收的信号可以被提供给主机,用于进一步处理、显示和/或用于实现对特定物理或虚拟对象的控制。
尽管参考图21A至图21B和图22A至图22B提供的示例是在具有EMG传感器的接口的背景中讨论的,但是本文所里描述的用于减少电磁干扰的技术也可以在具有其他类型传感器的可穿戴接口中实现,其他类型传感器包括但不限于肌动图(mechanomyography,MMG)传感器、声肌图(sonomyography,SMG)传感器和电阻抗断层成像(electrical impedancetomography,EIT)传感器。本文所描述的用于减少电磁干扰的技术也可以在可穿戴接口中实现,该可穿戴接口通过电线和电缆(例如,USB电缆、光纤电缆等)与计算机主机通信。
上述实施例可以以多种方式中的任何一种方式来实现。例如,可以使用硬件、软件或它们的组合来实现这些实施例。当在软件中实现时,软件代码可以在任何合适的处理器或处理器集合上执行,无论其是在单个计算机中提供还是分布在多个计算机中。应当理解,执行上述功能的任何部件或部件集合概括地可以被认为是控制上述功能的一个或多个控制器。该一个或多个控制器可以以多种方式实现,例如使用微码或软件编程以执行上述功能的专用硬件或一个或多个处理器。
在这方面,应当理解,本发明的实施例的一个实施方式包括至少一个用计算机程序(例如,多个指令)编码的非暂态计算机可读存储介质(例如,计算机存储器、便携式存储器、光盘等),当这些计算机程序在处理器上执行时,执行本发明的实施例的上述功能。计算机可读存储介质可以是可运输的,使得存储在其上的程序可以被加载到任何计算机资源上,以实现本文所讨论的本发明的各方面。此外,应当理解,对当被执行时执行上述功能的计算机程序的引用不限于在主机上运行的应用程序。相反,术语“计算机程序”在本文中以一般意义使用,指可用于对处理器编程以实现本发明的上述方面的任何类型的计算机代码(例如,软件或微码)。
本发明的各个方面可以单独使用、组合使用,或者以在前述实施例中未具体讨论的各种布置使用,因此它们的应用不限于前面描述中阐述的或者附图中示出的部件的细节和布置。例如,一个实施例中描述的方面可以以任何方式与其他实施例中描述的方面组合。
此外,本发明的实施例可以被实现为一个或多个方法,其中已经提供了一个示例。作为一个或多个方法的一部分执行的动作可以以任何适当的方式排序。因此,实施例可以被构造为以与所示的顺序不同的顺序执行动作,这可以包括同时执行一些动作,尽管这些动作在所示实施例中被示为顺序动作。
在权利要求中使用诸如“第一”、“第二”、“第三”等顺序术语来修饰权利要求元素本身并不意味着一个权利要求元素相对于另一个权利要求元素的任何优先级、优先顺序或顺序,或者方法的动作被执行的时间顺序。这些术语仅用作标签,以将具有特定名称的一个权利要求元素与具有相同名称的另一个元素区分开来(但是使用了序数术语)。
本文所使用的词语和术语是出于描述的目的,而不应被认为是限制性的。“包括(including)”、“包括(comprising)”、“具有(having)”、“包含(containing)”、“涉及(involving)”及其变体的使用意味着包含其后列出的项目和附加项目。
已经详细描述了本发明的几个实施例,本领域技术人员将容易想到各种修改和改进。这些修改和改进旨在落入本发明的精神和范围内。因此,前面的描述仅作为示例,并不旨在作为限制。
作为非限制性示例,在本公开中包括以下实施例。
示例1:一种系统,该系统包括表带、表体、耦接机构以及至少一个生物传感器,该表体包括至少一个图像传感器,该至少一个图像传感器被配置成采集广角图像,该耦接机构被配置成将表体可拆卸地耦接到表带,该至少一个生物传感器位于表带或表体中的至少一者上。
示例2:根据示例1所述的系统,其中,表体被配置成独立于表带操作,并且表体和表带被配置成彼此通信。
示例3:根据示例1或2所述的系统,其中,表带或表体中至少一者的功能级别在表体从表带上拆下时被修改。
示例4:根据示例1至3中任一项所述的系统,其中,广角图像包括来自表体的多个图像传感器的被拼接在一起的多个图像。
示例5:根据示例1至4中任一项所述的系统,其中,该系统被配置成确定表体的显示器相对于用户的眼睛注视方向的朝向,并将显示器上观看的内容定向到用户的眼睛注视方向。
示例6:根据示例1至5中任一项所述的系统,还包括头戴式显示器,其中,表体通信地耦接到该头戴式显示器,并且该头戴式显示器被配置成显示所采集的图像的至少一部分。
示例7:根据示例6所述的系统,还包括至少一个神经肌肉传感器,其中,表体被配置成将由该至少一个神经肌肉传感器采集的数据发送到头戴式显示器,并且由该至少一个神经肌肉传感器采集的数据包括用户的肌肉意图。
示例8:根据示例7所述的系统,其中,头戴式显示器被配置成基于肌肉意图来增强用户与人工现实环境中的对象的交互。
示例9:根据示例1至8中任一项所述的系统,其中,头戴式显示器被配置成基于肌肉意图来增强用户与人工现实环境中的对象的交互。
示例10:根据示例1至9中任一项所述的系统,还包括头戴式显示器,其中,表带还包括触觉致动器,该触觉致动器被配置成基于来自表体的指令或来自头戴式显示器的指令中的至少一者向用户提供触觉反馈。
示例11:根据示例1至10中任一项所述的系统,其中,耦接机构被配置成通过在第一方向上朝向表带向表体施加基本线性的力或在第二方向上相对于表带向表体施加基本旋转的力中的至少一者来将表体耦接到表带,以及通过在与第一方向相反的第三方向上朝向表带向表体施加基本线性的力或在与第二方向相反的第四方向上相对于表带向表体施加基本旋转的力中的至少一者来将表体从表带分离。
示例12:根据示例1至11中任一项所述的系统,其中,耦接机构包括设置在表体上的至少一个弹簧加载按钮、设置在表体上的至少一个第一磁体、设置在表带上的至少一个第二磁体以及至少一个销,其中,在将表体耦接到表带之前,该至少一个第一磁体和该至少一个第二磁体之间的磁吸引力使表体相对于表带对准,该至少一个销被配置成由于按压至少一个弹簧加载按钮而缩回并将表体从表带分离。
示例13:根据示例1至12中任一项所述的系统,其中,耦接机构包括设置在表体上的至少一个弹簧加载按钮,其中,按压该至少一个弹簧式按钮被配置成导致修改表体的功能或使表体与表带分离中的至少一者。
示例14:根据示例1至13中任一项所述的系统,其中,表带包括第一轮廓和第二轮廓,该第一轮廓沿着表带的第一周边位于表体和表带之间,该第二轮廓沿着表带的第二周边位于表体和表带之间,其中,当表体耦接到表带时,表体和表带不沿第一轮廓彼此接触,并且当表体耦接到表带时,表体和表带沿着第二轮廓的至少一部分彼此接触。
示例15:根据示例1至14中任一项所述的系统,其中,耦接机构包括:至少一个第一弹簧,该至少一个第一弹簧被配置成向至少一个第一棘爪施加径向向外的力;至少一个第二弹簧,该至少一个第二弹簧被配置成向至少一个第二棘爪施加径向向外的力;设置在该至少一个第一棘爪的上端的第一倾斜表面,该第一倾斜表面被配置成接合表带的第一锁定表面,以在线性方向上将表体固定到表带;以及设置在该至少一个第二棘爪的一侧的第二倾斜表面,该第二倾斜表面被配置成接合表带的第二锁定表面,以在旋转方向上将表体固定到表带。
示例16:根据示例1至15中任一项所述的系统,其中,耦接机构被配置成通过朝向表带向表体施加基本线性的力来将表体耦接到表带,并通过按压设置在表体上的至少一个弹簧加载按钮来将表体从表带分离。
示例17:根据示例1至16中任一项所述的系统,其中,耦接机构包括至少一个弹簧加载按钮、至少一个锁杆以及至少一个销,该至少一个弹簧式按钮设置在表体上,该至少一个锁杆被配置成由于按压至少一个弹簧加载按钮而移动位置,该至少一个销被配置成由于该至少一个锁杆的位置移动而缩回并且将表体从表带分离。
示例18:根据示例1至17中任一项所述的系统,其中,耦接机构还包括:锁杆弹簧,该锁杆弹簧被配置成向至少一个锁杆施加保持力;以及位于该至少一个锁杆上的倾斜表面,该倾斜表面被配置成将保持力传递到至少一个销,其中,该至少一个销被定位成将保持力传递到表带,该保持力具有沿使表体靠着表带的方向的力分量。
示例19:根据示例1至18中任一项所述的系统,还包括第一电接触和补充性的第二电接触,第一电接触设置在表体上,第二电接触设置在表带上,其中,当表体耦接到表带时,保持力保持第一电接触和第二电接触之间的电连接。
示例20:一种方法,该方法包括:确定适合在表体的可用计算资源上进行处理的、头戴式显示器(HMD)的至少一个计算任务;选择性地将适合在表体的可用计算资源上进行处理的、HMD的至少一个计算任务卸载到表体;由表体的可用计算资源处理该至少一个计算任务;以及将经处理的至少一个计算任务的结果发送到HMD。
示例21:根据示例20所述的方法,其中,该至少一个计算任务包括图像处理任务、位置确定任务、神经网络处理任务或图形处理任务中的至少一者。
示例22:根据示例20或21所述的方法,还包括通过选择性地将HMD的至少一个计算任务卸载到表体来降低HMD的功耗。
示例23:根据示例20至22中任一项所述的方法,还包括通过选择性地将HMD的至少一个计算任务卸载到表体来减少在HMD内产生的热量。
示例24:一种系统,该系统包括表带和可拆卸地耦接到该表带的表体,该表体包括正面、与正面相对的背面、位于正面的第一图像传感器和位于背面的第二图像传感器。
示例25:根据示例21所述的系统,其中,当表体耦接到表带并且用户佩戴腕带系统时,第二图像传感器与腕带系统的用户的皮肤邻近地设置,并且第二图像传感器被配置成获取用户的生物特征。
示例26:根据示例21或22中任一项所述的系统,其中,第一图像传感器被定向为在第一方向上采集第一广角图像,第二图像传感器被定向为在与该第一方向相反的第二方向上采集第二广角图像,并且腕带系统的处理器被配置成将第一广角图像和第二广角图像拼接在一起以创建无缝全景图像。
示例27:根据示例21至23中任一项所述的系统,其中,第二图像传感器响应于表体从表带拆下而被激活。
示例28:根据示例21至24中任一项所述的系统,还包括位于背面的至少一个生物传感器,其中,该至少一个生物传感器响应于表体被附接到表带而被激活。
示例29:一种方法,该方法包括:确定适合在头戴式显示器(HMD)的可用计算资源上进行处理的、表体的至少一个计算任务;选择性地将适合在HMD的可用计算资源上进行处理的、表体的至少一个计算任务卸载到HMD;由HMD的可用计算资源处理该至少一个计算任务;以及将经处理的至少一个计算任务的结果发送到表体。
示例30:一种系统,该系统包括可穿戴设备、头戴式显示器(HMD)、智能手机、服务器和电子设备,其中,该可穿戴设备选择性地将可穿戴设备的至少一个计算任务卸载到HMD、智能手机、服务器或电子设备中的至少一者的可用计算资源。
示例31:一种系统,该系统包括可穿戴设备、头戴式显示器(HMD)、智能手机、服务器和电子设备,其中,HMD、智能手机、服务器或电子设备中的至少一者选择性地将至少一个计算任务卸载到可穿戴设备的可用计算资源。
示例32:一种非暂态计算机可读介质,该非暂态计算机可读介质编码有多个指令,这些指令在被至少一个计算机处理器执行时执行一种方法,该方法:确定适合在表体的可用计算资源上进行处理的、头戴式显示器(HMD)的至少一个计算任务;选择性地将适合在表体的可用计算资源上进行处理的、HMD的至少一个计算任务卸载到表体;由表体的可用计算资源处理该至少一个计算任务;以及将经处理的至少一个计算任务的结果发送到HMD。
示例33:一种可穿戴设备,该可穿戴设备包括表带、表体、耦接机构、一个或多个处理器、以及存储器,该表体包括(i)正面,(ii)与正面相对的背面,(iii)位于正面的第一图像传感器;以及(iv)位于背面的第二图像传感器,该耦接机构被配置成将表体可拆卸地耦接到表带,该存储器存储一个或多个程序,该一个或多个程序被配置成由一个或多个处理器执行,该一个或多个程序包括指令,这些指令用于:在第一时间检测表体通过耦接机构耦接到表带;响应于检测到表体通过耦接机构耦接到表体,允许用户激活第一图像传感器;在第二时间检测表体没有通过耦接机构耦接到表带;并且响应于检测到表体没有通过耦接机构耦接到表带,在没有用户输入的情况下激活第二图像传感器。
示例34:根据示例33所述的可穿戴设备,其中,该一个或多个程序还包括用于如下的指令:响应于检测到表体通过耦接机构耦接到表体,不允许用户激活第二图像传感器。
示例35:根据示例33或34所述的可穿戴设备,还包括至少一个附加传感器,该至少一个附加传感器耦接到腕带、表体或耦接机构,该至少一个附加传感器被配置成测量表体与表带之间的耦接,其中,检测表体耦接到表带包括评估由该至少一个附加传感器产生的耦接数据。
示例36:根据示例3至35中任一项所述的可穿戴设备,还包括一个或多个电接触,当表体耦接到表带时,该一个或多个电接触连接,其中,检测表体耦接到表带包括检测该一个或多个电接触之间的断开。
示例37:根据示例33至36中任一项所述的可穿戴设备,其中,该一个或多个程序还包括用于如下的指令:从第二图像传感器接收测试图像数据,以及确定该测试图像数据是否满足图像采集标准,其中,响应于确定测试图像数据满足图像采集标准而执行激活第二图像传感器。
示例38:一种系统,该系统包括:表带、表体以及耦接机构,该表带包括被配置成收集生物特征信息的至少一个生物传感器,该表体包括被配置成采集广角图像的至少一个图像传感器,该耦接机构被配置成将表体可拆卸地耦接到表带。
示例39:根据示例38所述的系统,其中,表体被配置成独立于表带操作,表带被配置成独立于表体操作,并且表体和表带被配置成彼此通信。
示例40:根据示例38或39所述的系统,其中,表带或表体中至少一个的功能级别在表体从表带拆下时被修改。
示例41:根据示例38至40中任一项所述的系统,其中,该系统被配置成确定表体的显示器相对于用户的眼睛注视方向的朝向,并且将在显示器上观看的内容定向到用户的眼睛注视方向。
示例42:根据示例38至41中任一项所述的系统,还包括头戴式显示器,其中,表体通信地耦接到头戴式显示器,并且头戴式显示器被配置成显示所采集的广角图像的至少一部分。
示例43:根据示例38至42中任一项所述的系统,还包括至少一个神经肌肉传感器,其中,表体被配置成将由该至少一个神经肌肉传感器采集的数据发送到头戴式显示器,并且由该至少一个神经肌肉传感器采集的数据包括用户的肌肉意图。
示例44:根据示例38至43中任一项所述的系统,其中,头戴式显示器被配置成基于肌肉意图来增强用户与人工现实环境中的对象的交互。
示例45:根据示例38至44中任一项所述的系统,还包括头戴式显示器,其中,表带还包括触觉致动器,该触觉致动器被配置成基于来自表体的指令或来自头戴式显示器的指令中的至少一者向用户提供触觉反馈。
示例46:根据示例38至45中任一项所述的系统,其中,耦接机构被配置成通过朝向表带向表体施加基本线性的力来将表体耦接到表带,并且通过按压设置在表体上的至少一个弹簧加载按钮或相对于表带向表体施加基本旋转的力中的至少一个,将表体从表带分离。
示例47:根据示例38至46中任一项所述的系统,其中,耦接机构包括至少一个第一弹簧,该至少一个第一弹簧被配置成向至少一个第一棘爪施加径向向外的力;至少一个第二弹簧,该至少一个第二弹簧被配置成向至少一个第二棘爪施加径向向外的力;设置在该至少一个第一棘爪的上端的第一倾斜表面,该第一倾斜表面被配置成接合表带的第一锁定表面,以在线性方向上将表体固定到表带;以及设置在至少一个第二棘爪的一侧上的第二倾斜表面,该第二倾斜表面被配置成接合表带的第二锁定表面,以在旋转方向上将表体固定到表带。
示例48:根据示例38至47中任一项所述的系统,其中,耦接机构包括至少一个弹簧加载按钮、至少一个锁杆以及至少一个销,该至少一个弹簧加载按钮设置在表体上,该至少一个锁杆被配置成由于按压至少一个弹簧加载按钮而移动位置,该至少一个销被配置成由于该至少一个锁杆的位置移动而缩回并将表体从表带分离。
示例49:根据示例38至48中任一项所述的系统,其中,耦接机构还包括锁杆弹簧,该锁杆弹簧被配置成向至少一个锁杆施加保持力;以及位于该至少一个锁杆上的倾斜表面,该倾斜表面被配置成将保持力传递到至少一个销,其中,该至少一个销被定位成将保持力传递到表带,该保持力具有沿使表体保持靠着表带上的方向的力分量。
示例50:根据示例38至49中任一项所述的系统,其中,至少一个图像传感器包括第一图像传感器和第二图像传感器,该第一图像传感器被定向为在第一方向上采集第一广角图像,该第二图像传感器被定向为在与第一方向相反的第二方向上采集第二广角图像,并且该系统的处理器被配置成将第一广角图像和第二广角图像拼接在一起以创建组合图像。
示例51:根据示例38至50中任一项所述的系统,其中,至少一个生物传感器设置在表体的背面上,并且该至少一个生物传感器被配置成响应于表体附接到表带而被激活。
示例52:一种可穿戴设备,该可穿戴设备包括表带、表体、耦接机构、一个或多个处理器、以及存储器,该表体包括(i)正面,(ii)与正面相对的背面,(iii)位于正面的第一图像传感器;以及(iv)位于背面的第二图像传感器,该耦接机构被配置成将表体可拆卸地耦接到表带,该存储器存储一个或多个程序,该一个或多个程序被配置成由一个或多个处理器执行,该一个或多个程序包括指令,这些指令用于:在第一时间检测表体通过耦接机构耦接到表带;响应于检测到表体通过耦接机构耦接到表体,允许用户激活第一图像传感器;在第二时间检测表体没有通过耦接机构耦接到表带;并且响应于检测到表体没有通过耦接机构耦接到表带,在没有用户输入的情况下激活第二图像传感器。
示例53:根据示例52所述的可穿戴设备,其中,该一个或多个程序还包括用于如下的指令:响应于检测到表体通过耦接机构耦接到表带,不允许用户激活第二图像传感器。
示例54:根据示例52或53所述的可穿戴设备,还包括至少一个接近传感器,该至少一个接近传感器耦接到表带、表体或耦接机构,该至少一个接近传感器被配置成测量表体和表带之间的耦接,其中,检测表体耦接到表带包括评估由该至少一个接近传感器产生的耦接数据。
示例55:根据示例52至54中的任一项所述的可穿戴设备,还包括一个或多个电接触,当表体耦接到表带时,该一个或多个电接触连接,其中,检测表体耦接到表带包括检测该一个或多个电接触之间的电连接。
示例56:根据示例52至55中任一项所述的可穿戴设备,其中,该一个或多个程序还包括用于如下的指令:从第二图像传感器接收测试图像数据,以及确定该测试图像数据是否满足图像采集标准,其中,响应于确定测试图像数据满足图像采集标准而执行激活第二图像传感器。
示例57:一种非暂态计算机可读介质,该非暂态计算机可读介质编码有多个指令,这些指令在被至少一个计算机处理器执行时执行:确定至少一个计算任务,确定是在表体上还是在头戴式显示器(HMD)上执行该至少一个计算任务,基于对是在表体上还是在HMD上执行该至少一个计算任务的确定,在表体或HMD上执行该至少一个计算任务,当HMD执行该至少一个计算任务时,将该至少一个计算任务的结果发送到表体,以及当表体执行该至少一个计算任务时,将该至少一个计算任务的结果发送到HMD。
本文描述和/或示出的步骤的工艺参数和顺序仅以示例的方式给出并且可以根据需要改变。例如,虽然本文所示出和/或所描述的步骤可能是以特定顺序显示或论述的,但这些步骤不一定需要按照所示出或所论述的顺序来执行。本文所描述和/或所示出的各种示例性方法也可以省略本文所描述或所示出的各步骤中的一个或多个步骤,或者可以包括除了所公开的那些步骤之外的附加步骤。
提供上述描述是为了使本领域的其他技术人员能够最佳地利用本文公开的示例性实施例的各个方面。该示例性描述并不旨在穷举或限于所公开的任何精确形式。在不脱离本公开的精神和范围的情况下,许多修改和变型是可能的。本文所公开的实施例在所有方面都应被认为是说明性的而不是限制性的。在确定本公开的范围时,应当参考所附的任何权利要求及其等同物。
除非另有说明,否则如说明书和权利要求书中所使用的术语“连接到”和“耦接到”(及其派生词)应被解释为允许直接连接和间接连接(即,通过其他元件或部件)这两者。此外,如说明书和权利要求书中所使用的术语“一(a)”或“一(an)”将被解释为表示“中的至少一个”。最后,为了便于使用,如说明书和权利要求书中所使用的术语“包括(including)”和“具有”(及其派生词)可以与词语“包括(comprising)”互换,并且具有与词语“包括”相同的含义。

Claims (20)

1.一种系统,包括:
表带;
表体,所述表体包括至少一个图像传感器,所述至少一个图像传感器被配置成采集广角图像;
耦接机构,所述耦接机构被配置成将所述表体可拆卸地耦接到所述表带;以及
至少一个生物传感器,所述至少一个生物传感器位于所述表带或所述表体中的至少一者上。
2.根据权利要求1所述的系统,其中:
所述表体被配置成独立于所述表带操作;并且
所述表体和所述表带被配置成彼此通信。
3.根据权利要求1所述的系统,其中,所述表带或所述表体中的至少一者的功能级别在所述表体从所述表带拆下时被修改。
4.根据权利要求1所述的系统,其中,所述系统被配置成:
确定所述表体的显示器相对于用户的眼睛注视方向的朝向;以及
将在所述显示器上观看的内容定向到所述用户的眼睛注视方向。
5.根据权利要求1所述的系统,还包括头戴式显示器,其中:
所述表体通信地耦接到所述头戴式显示器;并且
所述头戴式显示器被配置成显示所采集的所述广角图像的至少一部分。
6.根据权利要求5所述的系统,还包括至少一个神经肌肉传感器,其中:
所述表体被配置成将由所述至少一个神经肌肉传感器采集的数据传输到所述头戴式显示器;并且
由所述至少一个神经肌肉传感器采集的所述数据包括用户的肌肉意图。
7.根据权利要求6所述的系统,其中,所述头戴式显示器被配置成基于所述肌肉意图来增强用户与人工现实环境中的对象的交互。
8.根据权利要求1所述的系统,还包括头戴式显示器,其中,所述表带还包括触觉致动器,所述触觉致动器被配置成基于来自所述表体的指令或来自所述头戴式显示器的指令中的至少一者向用户提供触觉反馈。
9.根据权利要求1所述的系统,其中,所述耦接机构被配置成:
通过施加以下至少一项将所述表体耦接到所述表带:
在第一方向上朝向所述表带向所述表体施加的基本线性的力;或者
在第二方向上相对于所述表带向所述表体施加的基本旋转的力;以及
通过施加以下至少一项将所述表体与所述表带分离:
在与所述第一方向相反的第三方向上朝向所述表带向所述表体施加的基本线性的力;或者
在与所述第二方向相反的第四方向上相对于所述表带对所述表体施加的基本旋转的力。
10.根据权利要求1所述的系统,其中,所述耦接机构包括:
设置在所述表体上的至少一个弹簧加载按钮;
设置在所述表体上的至少一个第一磁体;
设置在所述表带上的至少一个第二磁体,其中,在将所述表体耦接到所述表带之前,所述至少一个第一磁体和所述至少一个第二磁体之间的磁吸引力使所述表体相对于所述表带对准;以及
至少一个销,所述至少一个销被配置成由于按压所述至少一个弹簧加载按钮而缩回并使所述表体从所述表带分离。
11.根据权利要求1所述的系统,其中,所述耦接机构包括:
设置在所述表体上的至少一个弹簧加载按钮,其中,按压所述至少一个弹簧加载按钮被配置成引起以下至少一项:
修改所述表体的功能;或者
将所述表体从所述表带分离。
12.根据权利要求1所述的系统,其中,所述表带包括:
第一轮廓,所述第一轮廓沿着所述表带的第一周边位于所述表体和所述表带之间;以及
第二轮廓,所述第二轮廓沿所述表带的第二周边位于所述表体和所述表带之间,其中:
当所述表体耦接到所述表带时,所述表体和所述表带不沿所述第一轮廓彼此接触;并且
当所述表体耦接到所述表带时,所述表体和所述表带沿所述第二轮廓的至少一部分彼此接触。
13.根据权利要求1所述的系统,其中:
所述至少一个图像传感器包括第一图像传感器和第二图像传感器;
所述第一图像传感器被定向为在第一方向上采集第一广角图像;
所述第二图像传感器被定向为在与所述第一方向相反的第二方向上采集第二广角图像;并且
所述系统的处理器被配置成将所述第一广角图像和所述第二广角图像拼接在一起以创建组合图像。
14.根据权利要求1所述的系统,其中:
所述至少一个生物传感器设置在所述表体的背面上;并且
所述至少一个生物传感器被配置成响应于所述表体附接到所述表带而被激活。
15.一种可穿戴设备,包括:
表带;
表体,所述表体包括:(i)正面;(ii)与所述正面相对的背面;(iii)位于所述正面的第一图像传感器;以及(iv)位于所述背面的第二图像传感器;
耦接机构,所述耦接机构被配置成将所述表体可拆卸地耦接到所述表带;
一个或多个处理器;以及
存储器,所述存储器存储一个或多个程序,所述一个或多个程序被配置成由所述一个或多个处理器执行,所述一个或多个程序包括用于如下的指令:
在第一时间检测所述表体通过所述耦接机构耦接到所述表带;
响应于检测到所述表体通过所述耦接机构耦接到所述表带,允许用户激活所述第一图像传感器;
在第二时间检测所述表体没有通过所述耦接机构耦接到所述表带;以及
响应于检测到所述表体没有通过所述耦接机构耦接到所述表带,在没有用户输入的情况下激活所述第二图像传感器。
16.根据权利要求15所述的可穿戴设备,其中,所述一个或多个程序还包括用于如下的指令:响应于检测到所述表体通过所述耦接机构耦接到所述表带,禁止所述用户激活所述第二图像传感器。
17.根据权利要求15所述的可穿戴设备,还包括至少一个接近传感器,所述至少一个接近传感器耦接到所述表带、所述表体或所述耦接机构中的至少一者,所述至少一个接近传感器被配置成确定所述表体和所述表带之间的耦接,其中,检测所述表体耦接到所述表带包括评估由所述至少一个接近传感器产生的耦接数据。
18.根据权利要求15所述的可穿戴设备,还包括一个或多个电接触,所述一个或多个电接触在所述表体耦接到所述表带时连接,其中,检测所述表体耦接到所述表带包括检测所述一个或多个电接触之间的电连接。
19.根据权利要求15所述的可穿戴设备,其中,所述一个或多个程序还包括用于如下的指令:
从所述第二图像传感器接收测试图像数据;以及
确定所述测试图像数据是否满足图像采集标准,其中:
所述图像采集标准决定所述表体与所述表带的接近程度;以及
响应于确定所述测试图像数据满足所述图像采集标准,执行激活所述第二图像传感器。
20.一种非暂态计算机可读介质,所述非暂态计算机可读介质编码有多个指令,所述多个指令在由至少一个计算机处理器执行时执行:
确定至少一个计算任务;
确定是在表体上还是在头戴式显示器(HMD)上执行所述至少一个计算任务;
基于对是在所述表体上还是在所述HMD上执行所述至少一个计算任务的确定,在所述表体上或所述HMD上执行所述至少一个计算任务;
当所述HMD执行所述至少一个计算任务时,将所述至少一个计算任务的结果发送到所述表体;以及
当所述表体执行所述至少一个计算任务时,将所述至少一个计算任务的结果发送到所述HMD。
CN202180096288.5A 2020-04-24 2021-04-23 用于腕带系统的分体式结构及相关的设备和方法 Pending CN117043714A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063015410P 2020-04-24 2020-04-24
US202063056345P 2020-07-24 2020-07-24
US17/210,547 2021-03-24
US17/210,547 US12001171B2 (en) 2021-03-24 Electronic system and related devices and methods
PCT/US2021/029002 WO2022203697A1 (en) 2020-04-24 2021-04-23 Split architecture for a wristband system and related devices and methods

Publications (1)

Publication Number Publication Date
CN117043714A true CN117043714A (zh) 2023-11-10

Family

ID=78222135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180096288.5A Pending CN117043714A (zh) 2020-04-24 2021-04-23 用于腕带系统的分体式结构及相关的设备和方法

Country Status (4)

Country Link
US (2) US11526133B2 (zh)
EP (1) EP4314994A1 (zh)
JP (1) JP2024516475A (zh)
CN (1) CN117043714A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD967801S1 (en) 2021-02-10 2022-10-25 Meta Platforms Technologies, Llc Wearable device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042340B2 (ja) 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
US9582035B2 (en) 2014-02-25 2017-02-28 Medibotics Llc Wearable computing devices and methods for the wrist and/or forearm
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US8725842B1 (en) 2013-07-11 2014-05-13 Khalid Al-Nasser Smart watch
TWI524861B (zh) * 2013-11-14 2016-03-11 仁寶電腦工業股份有限公司 組合式穿戴電子裝置
US9563234B2 (en) 2014-05-30 2017-02-07 Arrow Technologies Inc. Modular wearable computing device
KR102218913B1 (ko) 2014-09-04 2021-02-23 엘지전자 주식회사 스마트 팔찌
EP3210437B1 (en) 2014-10-16 2020-05-27 LG Electronics Inc. Watch type terminal and method for controlling the same
US10129503B1 (en) 2016-09-20 2018-11-13 Apple Inc. Image-capturing watch
CN206282085U (zh) 2016-11-15 2017-06-27 歌尔科技有限公司 一种智能手表及其外部设备
US20180348815A1 (en) 2017-06-02 2018-12-06 Arrow Technologies Inc. Systems and methods for automatically capturing images using a wearable computing device
US10866619B1 (en) 2017-06-19 2020-12-15 Apple Inc. Electronic device having sealed button biometric sensing system
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11181863B2 (en) * 2018-08-24 2021-11-23 Apple Inc. Conductive cap for watch crown
US11194298B2 (en) 2018-08-30 2021-12-07 Apple Inc. Crown assembly for an electronic watch
US11347189B1 (en) 2018-09-18 2022-05-31 Apple Inc. Watch having a camera
US10878959B1 (en) 2019-10-25 2020-12-29 Anexa Labs Llc Electronic device for monitoring health metrics

Also Published As

Publication number Publication date
US11662692B2 (en) 2023-05-30
EP4314994A1 (en) 2024-02-07
JP2024516475A (ja) 2024-04-16
US20210333759A1 (en) 2021-10-28
US11526133B2 (en) 2022-12-13
US20220100148A1 (en) 2022-03-31
US20220091564A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
KR20190004088A (ko) 생체신호연동 가상현실 교육 시스템 및 방법
TW201443760A (zh) 用以擴增實境及虛擬實境之目鏡
US20240095948A1 (en) Self-tracked controller
US11662692B2 (en) Electronic devices and systems
US20230359422A1 (en) Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques
WO2022203697A1 (en) Split architecture for a wristband system and related devices and methods
US12001171B2 (en) Electronic system and related devices and methods
TW202315217A (zh) 用於可穿戴裝置的天線系統
US11550397B1 (en) Systems and methods for simulating a sensation of expending effort in a virtual environment
CN117063142A (zh) 用于自适应输入阈值化的系统和方法
US20240118749A1 (en) Systems for calibrating neuromuscular signals sensed by a plurality of neuromuscular-signal sensors, and methods of use thereof
US20240069359A1 (en) Spherically-shaped mechanical interface used in a head-wearable device to accomodate a variety of wearers, and head-wearable devices using the spherically-shaped mechanical interface
US20240192765A1 (en) Activation force detected via neuromuscular-signal sensors of a wearable device, and systems and methods of use thereof
US20240169681A1 (en) Arrangements of illumination sources within and outside of a digit-occluded region of a top cover of a handheld controller to assist with positional tracking of the controller by an artificial-reality system, and systems and methods of use thereof
US20240148331A1 (en) Systems for detecting fit of a wearable device on a user by measuring the current draw to amplify a biopotential signal sensor and method of use thereof
US20230281938A1 (en) Hardware-agnostic input framework for providing input capabilities at various fidelity levels, and systems and methods of use thereof
US11571159B1 (en) Floating biopotential samplings
US11844623B1 (en) Systems and methods for tracking sleep
US11399074B2 (en) Devices, systems, and methods for modifying features of applications based on predicted intentions of users
US20240077946A1 (en) Systems and methods of generating high-density multi-modal haptic responses using an array of electrohydraulic-controlled haptic tactors, and methods of manufacturing electrohydraulic-controlled haptic tactors for use therewith
US20230327328A1 (en) Antenna system for mobile devices
US20240192766A1 (en) Controlling locomotion within an artificial-reality application using hand gestures, and methods and systems of use thereof
US20210378571A1 (en) Composite bioelectrodes
US20230368478A1 (en) Head-Worn Wearable Device Providing Indications of Received and Monitored Sensor Data, and Methods and Systems of Use Thereof
WO2023167892A1 (en) A hardware-agnostic input framework for providing input capabilities at various fidelity levels, and systems and methods of use thereof

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination