CN107209566A - 身体内部组织的光学检测和分析 - Google Patents

身体内部组织的光学检测和分析 Download PDF

Info

Publication number
CN107209566A
CN107209566A CN201680006414.2A CN201680006414A CN107209566A CN 107209566 A CN107209566 A CN 107209566A CN 201680006414 A CN201680006414 A CN 201680006414A CN 107209566 A CN107209566 A CN 107209566A
Authority
CN
China
Prior art keywords
user
light
electronic equipment
light source
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680006414.2A
Other languages
English (en)
Other versions
CN107209566B (zh
Inventor
桑蒂亚戈·奥特加·阿维拉
赛义德·萨迪
波格丹娜·拉科娃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107209566A publication Critical patent/CN107209566A/zh
Application granted granted Critical
Publication of CN107209566B publication Critical patent/CN107209566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4504Bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • A61B2562/0238Optical sensor arrangements for performing transmission measurements on body tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Hardware Design (AREA)
  • Rheumatology (AREA)
  • Physiology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

在一实施方式中,电子设备可包括:配置为发射穿透到用户身体一部分中的光的光源;配置为检测所发射的光的扩散模式的多个光传感器;以及配置为基于所检测的所发射的光的扩散模式来检测用户做出的姿势的控制器。控制器可配置为控制光源和多个光传感器检测用户做出的姿势。

Description

身体内部组织的光学检测和分析
技术领域
本公开大体涉及可穿戴电子设备的改进用法和内容。
背景技术
即使当用户在各种位置四处移动时,移动电子设备也向用户提供对计算能力的访问。移动电子设备的示例包括移动电话、多媒体播放器、膝上型电脑、平板电脑、个人数字助理(PDA)或包括该类型的多个设备的功能的混合型设备。
移动电子设备可以是通信网络的一部分,所述通信网络诸如局域网、广域网、蜂窝网络、互联网或任何其他合适的网络。移动电子设备可使用通信网络与其他电子设备通信,例如,以访问远程存储的数据、访问远程处理能力、访问远程显示器、提供本地存储的数据、提供本地处理能力或者提供对本地显示器的访问。例如,网络可向能管理用户可经由移动电子设备访问或使用的应用、内容和服务的服务器提供通信路径等。内容可包括文本、视频数据、音频数据、用户设置或其他类型的数据。网络可使用任何合适的通信协议或技术来促进移动电子设备之间的通信,所述通信协议或技术例如BLUETOOTH(蓝牙)、IEEE WI-FI(802.11a/b/g/n/ac)或传输控制协议/互联网协议(TCP/IP)。
发明内容
问题的解决方案
在具体实施方式中,一种方法可包括:将一个或多个传感器信号从电子设备输出到用户身体的一部分中;以及从一个或多个传感器信号检测一个或多个偏转信号。该方法还可包括:基于一个或多个偏转信号检测用户身体的骨骼结构。之后,该方法可包括基于一个或多个偏转信号确定用户测量值,其中健康测量值通过所检测的骨骼结构进行调整。
在具体实施方式中,一种电子设备可包括:配置为发射穿透到用户身体一部分中的光的光源;配置为检测所发射的光的扩散模式的多个光传感器;以及配置为基于所检测的所发射的光的扩散模式来检测用户做出的姿势的控制器。控制器可因此配置为控制光源和多个光传感器检测用户做出的姿势。
以上公开的实施方式仅是示例,本公开的范围不限于此。具体实施方式可包括上面公开的实施方式的组件、元件、特征、功能、操作或步骤中的全部、一些,或者不包括所述组件、元件、特征、功能、操作或步骤。根据本发明的实施方式在涉及方法、存储介质、系统和计算机程序产品的所附权利要求中具体地公开,其中在一个权利要求类别(例如,方法)中提及的任何特征还可在另一权利要求类别(例如,系统)中被保护。所附权利要求中的从属关系或回引仅是出于形式推理来选择。然而,也可保护由有意地回引至任意前述权利要求(在特定的多个从属关系中)所形成的任何主题,以使得权利要求及其特征的任何组合被公开且可被保护,而与所附权利要求中所选择的从属关系无关。可保护的主题不仅包括如所附权利要求中阐述的特征的结合,还包括权利要求中的特征的任何其他结合,其中权利要求中提及的每个特征可与权利要求中的任何其他特征或其他特征的组合进行结合。此外,本文描述或阐述的任意实施方式和特征可在单独的权利要求中和/或与本文描述或阐述的任意实施方式或特征或与所附权利要求的任意特征进行任意结合地被保护。
附图说明
图1示出用于身体内部组织和骨骼的光学检测系统的具体实施方式的示例性网络环境。
图2A示出根据本发明具体实施方式的示例性光学检测系统。
图2B示出根据本发明具体实施方式用于光学检测系统的示例性定位信息。
图3A示出根据本发明具体实施方式用于身体组织的示例性光学窗口。
图3B示出根据本发明具体实施方式光学检测设备的示例性组件的图形。
图3C示出根据本发明具体实施方式的光学检测设备的截面。
图4A示出根据本发明具体实施方式包括覆盖用户身体的一部分的光源和光传感器配置的光学检测设备的示例性实施方式。
图4B示出根据本发明具体实施方式光学检测设备的光源和光传感器配置的示例图。
图4C示出根据本发明具体实施方式在光向后散射期间光的穿透深度。
图5A示出包括覆盖用户身体的整个部分的光源和光传感器配置的光学检测设备的示例性实施方式。
图5B至图5D示出根据具体实施方式光学检测设备的光源和光传感器配置的示例图。
图5E至图5G示出根据具体实施方式光学检测设备的光源和光传感器的操作的示例图。
图6A至图6E示出根据本发明具体实施方式针对特定姿势由光学检测设备接收的信号的示例图。
图7示出根据本发明具体实施方式包括对从多个对象采集的数据的校准过程和分类过程的示例性处理方法。
图8示出根据本发明具体实施方式用于姿势识别的示例性方法。
图9示出根据本发明一些实施方式基于所检测的骨骼操作光学检测设备的示例性方法。
图10示出根据本发明具体实施方式光学检测系统的示例性应用。
图11示出根据本发明具体实施方式用于设备滑移校正的示例性方法。
图12示出根据本发明具体实施方式用于生物认证的示例性方法。
图13示出根据本发明具体实施方式用于概况识别的示例性方法。
图14示出根据本发明具体实施方式的示例性计算机系统。
具体实施方式
系统概况
图1示出用于身体内部组织和骨骼的光学检测系统的具体实施方式的示例性网络环境100。网络环境100包括用户110、客户端系统120、网络130、一个或多个服务器140以及一个或多个数据储存器150。用户110、客户端系统120、服务器140和数据储存器150可通过网络130经由链路160连接至彼此。虽然图1示出用户110、客户端系统120、网络130、服务器140和数据储存器150的具体布置,但是本公开可设想到用户110、客户端系统120、网络130、服务器140和数据储存器150的任何合适布置。如一示例而不以限制的方式,客户端系统120、服务器140和数据储存器150中的两个或更多可绕过网络130直接连接至彼此。如另一示例,客户端系统120、服务器140和数据储存器150中的两个或更多可物理上或逻辑上整体地或部分地与彼此共同定位。此外,虽然图1示出特定数量的用户110、客户端系统120、网络130、服务器140和数据储存器150,但是本公开可设想到任何合适数量的用户110、客户端系统120、网络130、服务器140和数据储存器150。如一示例而不以限制的方式,网络环境100可包括多个用户110、客户端系统120、网络130、服务器140和数据储存器150。
在具体实施方式中,用户110可为个体(例如,人类用户)、实体(例如,公司、企业或第三方应用)或者与客户端系统120交互或通信的(例如,个体或实体的)组群。在具体实施方式中,客户端系统120可为任何合适的计算设备,例如,可穿戴计算设备、移动计算设备、智能电话、蜂窝电话、平板计算机、膝上型计算机、个人计算机、增强/虚拟现实设备或它们的任意组合。用户110可与这些设备中的一个或多个交互。此外,这些设备可通过任何其他合适的方法或它们的任意组合经由网络130直接地(例如,通过非网络连接)与彼此通信。如一示例而不以限制的方式,客户端系统120的设备可经由诸如Wi-Fi或BLUETOOTH的无线通信协议与网络130通信。在具体实施方式中,客户端系统120可包括网页浏览器,诸如微软INTERNET EXPLORER、谷歌CHROME或MOZILLA FIREFOX;并且可具有一个或多个附加组件、外挂模组或其他扩充套件,诸如TOOLBAR或YAHOO TOOLBAR。在客户端系统120处,用户可将面向网页浏览器的统一资源定位符(URL)或其他地址输入特定服务器(诸如服务器140),网页浏览器可生成超文本传输协议(HTTP)请求并且可向服务器传送HTTP请求。服务器可接受HTTP请求并且可响应于HTTP请求向客户端系统120传送一个或多个超文本标记语言(HTML)文件。客户端系统120可基于来自服务器的HTML文件渲染网页,以向用户呈现。本公开可设想到任何合适的文件。如一示例而不以限制的方式,根据具体需求,网页可从HTML文件、可扩展超文本标记语言(XHTML)文件或可扩展标记语言(XML)文件进行渲染。这样的网页还可执行例如而不限于以JAVASCRIPT、JAVA、MICROSOFT SILVERLIGHT、标记语言的结合编写的脚本,以及诸如AJAX(Asynchronous JAVASCRIPT和XML)等的脚本。此处,根据情况,对网页的引用包括一个或多个相应的网页文件(浏览器可使用它来渲染网页);反之,对网页文件的引用包括一个或多个相应的网页。
在具体实施方式中,网络130可为任何合适的网络。如一示例而不以限制的方式,网络130的一个或多个部分可包括自组织网络、内联网、外联网、虚拟专用网(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、互联网的一部分、公用交换式电话网(PSTN)的一部分、蜂窝电话网络或这些中的两个或更多的结合。网络130可包括一个或多个网络。
在具体实施方式中,链路160可将客户端系统120、服务器140和数据储存器150连接至网络130或彼此连接。本公开可设想到任何合适的链路160。在具体实施方式中,一个或多个链路160包括一个或多个电线链路(例如数字用户线(DSL)或电缆数据业务接口规范(DOCSIS))、无线链路(例如Wi-Fi或微波接入全球互通(WiMAX))或光学链路(例如同步光纤网路(SONET)或同步数字体系(SDH))。在具体实施方式中,一个或多个链路160各自包括自组织网络、专用网、外联网、VPN、LAN、WLAN、WAN、WWAN、MAN、互联网的一部分、PSTN的一部分、基于蜂窝技术的网络、基于卫星通信技术的网络、另一链路160或者两个或更多这样的链路160的结合。在整个网络环境100中,链路160并非一定需要相同。一个或多个第一链路160可在一个或多个方面与一个或多个第二链路160不同。
在具体实施方式中,服务器140可为任何合适的服务器。每个服务器140可为集中式服务器或者跨越多个计算机或多个数据中心的分布式服务器。服务器140可为各种类型,例如而不限于,网页服务器、文件服务器、应用服务器、交换服务器、数据库服务器、代理服务器、适于执行本文描述的功能或过程的另一服务器或它们的任意组合。在具体实施方式中,每个服务器140可包括用于执行由服务器140执行或支持的适当功能的硬件、软件或嵌入式逻辑组件或两个或更多这样的组件的结合。
在具体实施方式中,数据储存器150可为任何合适的数据储存器。数据储存器150可用于存储各种类型的信息。在具体实施方式中,存储在数据储存器150中的信息可根据特定数据结构进行排布。在具体实施方式中,每个数据储存器150可为关系型、柱型、关联型或其他合适的数据库。数据储存器150可包括联网的储存器,诸如云储存器或其他网络可访问的储存器。另外或可替代地,数据储存器150可包括在客户端系统120的任一设备内或直接附接至所述任一设备的本地储存器,诸如固态驱动(“SSD”)或硬盘驱动(“HDD”)。
在具体实施方式中,数据储存器150可存储与光学检测设备和由光学检测设备采集的数据的处理相关的各种数据结构。如一示例而不以限制的方式,数据储存器150可存储与生物信息(例如,肌腱、肌肉、骨骼和其他身体组织的截面和测量值)对应的数据结构。如另一示例而不以限制的方式,数据储存器150可存储与由光学检测设备的传感器采集的姿势传感器数据和预分类校准数据对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与基于对光学检测设备的特征评估过程所确定的特征数据和特征向量对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与用于对用户姿势数据分类的分类数据对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与跟姿势识别过程相关的校准测量值、骨骼结构测量值、校准参数、参照系数据和肌腱特性数据对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与用于滑移校正过程的校准数据和分类算法对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与用于生物认证过程的分类算法、用户生物特性和用户特有“指纹”数据对应的数据结构。如又一示例而不以限制的方式,数据储存器150可存储与用于概况识别过程的分类算法、用户概况特性聚类和用户概况“指纹”数据对应的数据结构。虽然本公开已描述和展示特定类型的组件和网络环境100的这些组件的使用,但是本公开可设想到任何合适类型的组件、任何合适的网络拓扑(例如,包括独立设备拓扑)以及网络环境100的这些组件的任何合适的使用。
示例性实施方式的描述
全球可穿戴设备市场是随着可穿戴技术变成物联网的组成部分而迅速发展的市场,在所述物联网中,嵌入有电子器件、软件、传感器和网络连接件的物理对象/事物网络使得这些对象/事物能够与一个另外的对象/事物通信以及采集数据并与一个另外的对象/事物交换数据。随着所述技术迅速地在该领域中发展,用户需要能够通过可穿戴设备无缝地控制可穿戴设备及附近的计算设备。对于诸多可穿戴设备的示例性考虑包括以下能力:在没有不适、打扰或难堪的情况下,设备在日常场景中使用时无缝地穿戴在用户身体上而不会太大或扎眼;设备在全部时间以及在全部场景中始终可用并且易于拿取;设备使用简便,包括使用简单、自然且不会引起疲劳的姿势和/或在操作中可不使用手的运动;容易地集成到诸如手表(例如,智能手表)和其他配件(例如,腕带、手环、戒指、臂环等)的现有设备中;以及在电力消耗方面有效率。
在具体实施方式中,可穿戴设备可检测利用设备执行的或在设备上执行的一个或多个用户姿势。姿势可为任何合适的类型,可被任何合适的传感器(例如,惯性传感器、触摸传感器、相机或深度传感器)检测,并且可与任何合适的功能相关联。作为示例,用户姿势可包括与用户身体的一部分相关的用户的预定量运动或运动序列(例如,用户手指的运动,如下所讨论)。在适当时,可激活或禁用用于检测姿势(或用于初始化与姿势相关的功能的处理)的传感器,以节省电力或提供安全。在具体实施方式中,姿势可包括与穿戴有设备的用户的至少一只手和附器(例如,手腕,或可替代地,另一只手的手腕)有关的姿势。例如,在具体实施方式中,用户可使用穿戴有设备的手/臂来感测该特定手/臂的姿势。可替代地,用户可使用上面穿戴有设备的手/臂来适当地对准设备的光学传感器,并且可移动或定位另一臂/手/手指以执行特定姿势。关于姿势、姿势处理和姿势示例的更多信息可在于2013年8月30日提交的第14/015,795号美国专利申请、公开为第2014/0139637号的美国专利申请公开文本中找到,该美国专利申请通过引用被并入。
在具体实施方式中,可穿戴设备可包括用于姿势识别的感测技术,所述感测技术使用可见和/或不可见光谱中的光来检测身体组织(例如,肌腱、肌肉等)和骨骼的位置和形式的改变。可穿戴设备可包括布置成当穿戴在用户身体上时面向用户皮肤的光源(例如,发光二极管)和光传感器(例如,光电二极管)。
在操作中,光源可将可见和/或不可见光谱中的光发射到用户的皮下组织中。所发射的光的一部分由于被皮下组织反射而向后散射。另外,所发射的光的一部分在穿透到用户身体的皮下组织中并被皮下组织偏转之后向前散射。反射的光可包括向后散射光,偏转的光既可包括向后散射光又可包括向前散射光。以这种方式,向后散射光对应于在不超过所发射光波传播方向的-90°方向上偏转或在不超过所发射光波传播方向的90°方向上偏转的光;向前散射光对应于在所发射光波传播方向的-90°至-180°内或者在所发射光波传播方向的90°至180°内的方向上偏转的光。
在示例性实施方式中,可穿戴设备包括多个光源和/或多个光传感器。光源可配置为不同的结构(例如,群集式、对称式等),光传感器可定位在距离彼此不同的距离处以在不同的深度获得不同的透光度。除了测量向后散射光和向前散射光之外,光源和光传感器的这种配置有利于测量不同的空间扩散模式,所述空间扩散模式可被处理以获得关于身体组织和骨骼的位置和形式的数据。于是,空间扩散模式的这些光学特性可与皮下内部身体组织的特性一起用于识别用户输入(例如,用户做出的姿势)。
在具体实施方式中,可穿戴设备可配置为执行对用户身体的测量。例如,可穿戴设备可利用光源和光传感器来执行对用户身体的测量。这些测量可用于测量用户的健康、监视用户的活动、检测作为用户输入的姿势、其他相关测量或统计或者它们中的任意结合。这些测量可能对用户身体上的可穿戴设备的位置敏感。例如,可穿戴设备的位置在用户身体的目标区域周围稍微变化可显著地影响可穿戴设备采集的测量值。此外,可穿戴设备的目标区域可因每个用户可略微不同地穿戴可穿戴设备而可变,每当用户穿上可穿戴设备时可穿戴设备可能在不同的位置处,并且在操作期间可穿戴设备可进行位置转移。此外,可穿戴设备可能需要针对每个用户基于用户的特定特性进行校准(例如,如上所述以及如下面更具体地描述,在被用于执行姿势识别之前,设备可能需要基于用户特有特性进行校准)。例如,校准过程可包括以迅速且高效的方式执行大量预定义姿势并且校正错误。这种校准可以固定的参照系(例如,用户的一个或多个骨骼)为基准,这可有利于相对于用户身体(例如,用户身体的特定部分,诸如特定的骨骼或骨骼结合)定位设备、标准化测量数据以及促进设备校准。除了执行组织和骨骼特性分析(例如,尺寸、密度、成分等)以在生物认证和概况识别中使用之外,对于姿势识别和生物感测应用(例如,生体测量、健康护理应用、虚拟现实应用等),可穿戴设备的这些校准的测量值还可用于校正可穿戴设备的滑移以增加它的操作准确性。
图2A示出根据具体实施方式的示例性光学检测系统200。图2B示出根据具体实施方式光学检测系统210的示例性定位信息。在具体实施方式中,如图2A中所示,光学检测系统200可包括光学检测设备210。光学检测设备210可为可被用户110穿戴在他的/她的身体的一部分上的可穿戴电子设备(例如,客户端设备120),所述部分诸如,臂、腕、手指、腿、踝、脚趾、身躯、颈、头、任何其他合适的身体部分或它们的任意组合。如一示例而不以限制的方式,穿戴在用户腕上的可穿戴设备可配置为检测手和手指的姿势,穿戴在用户踝上的可穿戴设备可配置为检测脚和脚趾的姿势、穿戴在用户颈上的可穿戴设备可配置为检测头的姿势,以及穿戴在用户身躯(例如,胸区域、胃区域等)上的可穿戴设备可配置为检测臂、手、腿或脚的姿势。在具体实施方式中,如图2B中所示,光学检测设备210可为穿戴在用户110的身体220(例如,腕部)上的智能手表状设备。在其他具体实施方式中,光学检测设备可为穿戴在用户110的身体(例如,踝和/或脚部)上的袜子状或鞋状设备。在其他具体实施方式中,光学检测设备可为穿戴在用户110的身体(例如,颈部)上的项链状设备。在其他具体实施方式中,光学检测设备可为穿戴在用户110的身体(例如,身躯部分)上的带或电子织物(例如,衬衫)。如一示例而不以限制的方式,可在身体220的腕部、身体的踝部、身体的颈部和身体的身躯部分采集的数据包括:骨骼(例如,尺骨、桡骨等)、肌腱(例如,屈肌腱、伸肌腱等)、韧带(例如,尺骨侧韧带、横向腕骨韧带、桡骨侧韧带等)、和肌肉(例如,连接至屈肌腱的肌肉、连接至伸肌腱的肌肉等)以及血管(例如,桡动脉、尺动脉等)的身体组织特性,包括它们在位置、尺寸、密度、成分、其他相关测量值或它们的任意组合中的改变。在具体实施方式中,光学检测系统200可包括附加组件,诸如数据储存器(例如,类似于数据储存器150,但是为光学检测系统200的一部分)、客户端系统120的任何其他设备、其他相关组件或它们的任意组合。虽然本公开描述了以特定方式的光学检测系统200,但是本公开可设想到以任何合适的方式和具有任何合适的组件的光学检测系统200。
在具体实施方式中,如图2A中所示,光学检测系统200可包括移动电子设备230。光学检测设备210可直接地或经由网络130连接至移动电子设备230,这可促进光学检测设备210和移动电子设备230与之间的交互和/或可在光学检测设备210与移动电子设备230之间传送数据。在具体实施方式中,移动电子设备230可为智能电话式设备。光学检测设备210和移动电子设备230可连接至网络130、服务器140、数据储存器150或它们的任意组合。数据(例如,骨骼和/或组织特性数据、光的空间扩散模式、设备位置数据等)可存储在光学检测设备210、移动电子设备230、其他客户端系统120、数据储存器150、其他合适的数据库或它们的任意组合上。此外,数据的处理和特定算法和校准方法的计算(如下所讨论)可由光学检测设备210、移动电子设备230执行,在服务器140上执行,由任何其他客户端系统120、其他合适的设备/系统或它们的任意组合来执行。在具体实施方式中,可通过经由网络130从数据储存器150访问用户数据、参照系数据、校准数据、其他相关数据或它们的任意组合来执行数据的处理和特定算法的计算。
图3A示出根据具体实施方式光学检测设备210的示例性组件的图形,图3B示出根据具体实施方式用于身体组织的示例性光学窗口,以及图3C示出根据具体实施方式光学检测设备210的截面。如图3A中所示,光学检测设备210可包括控制器310、光源驱动器320、光源330、光传感器340和模拟前端(AFE)350。控制器310可直接地或间接地控制光源驱动器320、光源330、光传感器340和AFE 350。控制器310可包括存储可由控制器310执行的软件指令的存储器312。如一示例而不以限制的方式,指令可由控制器310执行以控制光源驱动器320、光源330、光传感器340、AFE 350或它们的任意组合。控制器310还可包括配置为向第二设备传输由用户做出的信息(例如,如下面讨论的,所检测的姿势、与所检测的姿势相关的动作、其他相关信息或它们的任意组合)的通信模块314。如图2A中所示的那样,第二设备可包括移动电子设备230。在具体实施方式中,通信模块314可通过网络130与移动电子设备230传送和传输信息,所述网络130诸如自组织网络、内联网、外联网、虚拟专用网(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、互联网的一部分、公用交换式电话网(PSTN)的一部分、蜂窝电话网络、任何其他合适的连接或它们的任意组合。
在具体实施方式中,发射硬件可包括光源驱动器320和光源330。光源驱动器320可包括可编程的电流源,并且可配置为基于来自控制器310的指令将电力导向光源330。光源330可包括发射有色和/或无色光的一个或多个发光二极管(LED)。作为示例且不以限制的方式,光源330的LED可发射近红外(NIR)光、红外(IR)光、可见光(例如,红光、白光、蓝光、其他颜色的光等)、紫外(UV光)、其他合适的光或它们的任意组合。在具体实施方式中,控制器310可控制光源驱动器320驱动光源330的LED,以将光发射到用户身体220上(例如,到腕部上)。感测硬件可包括光传感器340和AFE 350。光传感器340可包括配置为检测光然后将光转换成电流的一个或多个光电二极管,所述电流之后要被发送至AFE 350以进行处理。AFE350可包括与控制器310、模拟数字转换器(ADC)352和可变增益放大器(VGA)354交互的一组模拟信号调节电路。VGA 354可配置为根据控制器310确定的控制电压改变它的可由通过光源330运行的电流来控制的增益,以增加或减少衰减值;并且ADC 352可配置为将从光传感器340接收的电压转换成代表数量幅值的数字值,该数字值之后可在预定时间周期上相对于时间被绘制以产生针对特定姿势所接收的信号的图形(如下面结合图6A至图6E所讨论的)。
在具体实施方式中,光源330发射的光可包括近红外光(NIR),所述近红外光(NIR)可分别由LED发射并且由光电二极管感测以检测骨骼和其他身体组织特性。如图3B中所示,NIR能够以可观的深度穿透到身体组织中,具有650nm到1400nm的波长,该波长范围是针对身体组织的NIR光学窗口范围,并且在850nm波长处尤其具有穿透性。在该区域中,水、黑色素、含氧血红蛋白(HbO2)和脱氧血红蛋白(Hb)对光的吸收率较低,并且允许更好地对身体组织成像。此外,因为骨骼和其他身体组织具有不同的成分和结构,在这些波长处的NIR光在骨骼和其他身体组织之间表现得不同并且导致可微的差别。
在示例性实施方式中,光源330配置为生成在约650nm到1400nm波长的光学窗口内的光。在另一示例性实施方式中,光源330配置为生成在约750nm到950nm波长的光学窗口内的光。在另一示例性实施方式中,光源330配置为生成在约850nm波长处的光。在具体实施方式中,如下面更详细地讨论,使用光学窗口内的多个波长来生成光的空间扩散模式。
在具体实施方式中,光学检测设备310可包括如图3C中所示的结构,它通过改进光的传输以及用户身体220与光源330的LED和/或光传感器340的光电二极管之间的接触,来提高光学检测设备210的效率。在具体实施方式中,光学检测设备310可包括带层360、泡沫层370、印刷电路板(PCB)层380和耦合材料390。带层360(例如,腕带层)可包括与控制器310、存储器312、光源驱动器320和AFE 350附接的材料层。泡沫层370可设置在带层360上方,并且可帮助使带层360刚性更小以及可更加适于由身体组织和骨骼产生的不规则表面。PCB层380可设置在泡沫层370上方,并且可帮助机械地支撑和电连接电子组件。如一示例而不以限制的方式,PCB层380可将控制器310、光源驱动器320和AFE 350与光源330和光传感器340电连接。光源330和光传感器340的层设置在PCB层380上方。此外,耦合材料390可设置在PCB层380上方,并且可围绕光源330和光传感器340的层。耦合材料390可设置成当光学检测设备310被用户110穿戴时抵靠身体220,并且可通过允许光以最小吸收、衰减或干扰进行传输而帮助促进光在光源330和光传感器340的层与身体220的身体组织之间传输。
图4A示出根据具体实施方式包括覆盖用户身体的一部分的光源和光传感器的配置的光学检测设备210的示例性实施方式,图4B示出根据该实施方式光源330和光传感器340的配置的示例性图形,以及图4C示出根据该实施方式在光向后散射期间光的穿透深度。在具体实施方式中,穿戴在用户腕上的光学检测设备210可包括容纳光源330和光传感器340配置的腕带。如图4A中所示,光学检测设备210可包括覆盖用户身体220的腕的一部分的光源330和光传感器340的配置410。配置410可定位在用户身体220的腕周围的任何位置处,使得配置410覆盖腕的一部分。如一示例而不以限制的方式,配置410可定位成邻近用户身体220的腕的底部(例如,如图4A中所示)、邻近于用户身体220的腕的顶部、邻近于用户身体220的腕的侧部或者用户身体220的腕的任何其他合适的部分。在具体实施方式中,如下面讨论的,光420可由光源330发射然后被光传感器340检测。在具体实施方式中,光源330可包括红色LED。如一示例而不以限制的方式,如图4B中所示,光源330和光传感器340的矩阵430可包括分布在八乘六(8x6)的网格中的总共二十四(24)个光源330(例如,LED)和二十四(24)个光传感器340(例如,光电二极管)。在具体实施方式中,光源330和光传感器340以交替的LED-光电二极管配置进行排布。在具体实施方式中,如图4A中所示,当控制器310控制光源330发射穿透到用户的身体组织中的光420时,根据光的波长(例如,参见图3B),光420中的一些可被身体组织吸收,而光420中的一些将因特定身体组织或骨骼而偏转。在具体实施方式中,光420的穿透深度和相应的成像位置可通过光源330与光传感器340之间的距离、光源330输出的光的波长、光源330和光传感器340的数量和/或配置、其他相关特征和任何它们的组合来确定。
如图4C中所示,光源330与光传感器340之间的距离440决定穿透深度450。当光源330与光传感器340之间的距离440是L1时,光420的穿透深度450在深度A处;然而,当光源330与光传感器340之间的距离440是比L1长的L2时,光420的穿透深度450在比A深的深度B处。此外,如图1中所示,在遵循大致弯曲路径(例如,香蕉形路径)被向后散射以被光传感器430检测之前,光源330发射的光420可穿过身体组织。在具体实施方式中,向后散射的光420可包括在光学检测设备210的第一部分处的光源330发射的、通过身体组织和/或骨骼使之在不超过所发射光波传播方向的-90°的方向上或在不超过所发射光波传播方向的90°的方向上偏转的光。
可替代地,在具体实施方式中,腕带壳体可包括覆盖腕区(例如,覆盖腕周围的整个区域)的光源330和光传感器340的配置。如一示例而不以限制的方式,光源330和光传感器340的配置可沿着腕带壳体的整个长度设置。如另一示例而不以限制的方式,所述配置可包括:在腕带壳体的第一部分(例如,在腕的顶部处)处的一个或多个第一光源330/光传感器340配置;以及在腕带壳体的第二部分(例如,在腕的与顶部相反的底部)处的一个或多个第二光源330/光传感器340配置;以及在第一光源330/光传感器340配置与第二光源330/光传感器340配置之间的一个或多个空间。
图5A示出根据具体实施方式包括覆盖用户身体的一部分的光源330和光传感器340的配置的光学检测设备210的示例性实施方式,图5B至图5D示出根据该实施方式光源330和光传感器340的配置的示例图;以及图5E至图5G示出根据该实施方式光源330和光传感器340的操作的示例图。如图5A中所示,光学检测设备210可包括跨越用户身体220的腕的整个部分的光源330和光传感器340的配置510。在具体实施方式中,光源330可包括NIRLED,并且光传感器340可包括配置为检测NIR光的光电二极管。如一示例而不以限制的方式,如图5B中所示,光源330和光传感器340的矩阵530可包括分布在十二乘三(12x3)网格中的总共十八(18)个光源330(例如,NIR LED)和十八(18)个光传感器340(例如,光电二极管)。在具体实施方式中,光源330和光传感器340可以对称的、交替的LED-光电二极管配置进行排布。可替代地,在具体实施方式中,光源330和光传感器340的矩阵540可包括分布在十二乘三(12x3)的网格中的总共六(6)个光源330(例如,NIR LED)和三十(30)个光传感器340(例如,光电二极管)。光源330和光传感器340可排布成使得仅中间排包括交替的LED-光电二极管配置而顶排和底排仅包括光电二极管的群集。可替代地,在具体实施方式中,光源330和光传感器340的矩阵550可包括分布在十二乘三(12x3)的网格中的总共三十(30)个光源330(例如,NIR LED)和六(60)个光传感器340(例如,光电二极管)。光源330和光传感器340可排布成使得仅中间排包括交替的LED-光电二极管配置而顶排和底排仅包括LED的群集。在这三种配置之中,矩阵540可因具有数量最少的LED而为最具能量效率的配置,而矩阵550可因具有数量最多的LED而为最消耗能量的配置。矩阵530可因LED的数量与光电二极管的数量相等而为消耗能量适中的配置。矩阵550可因它提供(需要穿透身体的)最多发射光而最适于检测向前散射光。矩阵540可生成检测向后散射光所需的发射光(少于检测向前散射光所需要的发射光的量)。矩阵530可为用于检测向前散射光以及向后散射光的中间解决方案。
在具体实施方式中,当光源330发射光时,光源330可配置为通过不同的配置循环。如一示例而不以限制的方式,如图5E至图5G中所示,六个光源330可基于不同的模式进行操作。在第一配置542中,控制器310可配置为关断LED 560并且接通LED 570。在第二配置544中,控制器310可配置为接通LED 570并且关断LED 560。在第三配置546中,控制器310可配置为关断全部的LED 560。在具体实施方式中,光源330可配置为以预定的时间间隔(例如,数秒)通过第一配置、第二配置和第三配置的结合循环。此外,光源330可配置为通过用于各种光的波长的这种组合循环。在该时间期间,如下面所讨论的,从光传感器340检测的光可被采集和检验。
在具体实施方式中,光520、522可由光源330发射,然后作为向后散射光和向前散射光二者被光传感器340检测。如上所述,当控制器310控制光源330发射穿透到用户的身体组织中的光520时,根据光的波长,光520中的一些可被身体组织吸收而光520中的一些将因特定身体组织或骨骼而偏转。偏转的光520可作为向后散射光被光传感器340检测。此外,光学检测设备210的第一部分上的光源330发射的光522可穿透身体220的身体组织,并且在处于所发射光波传播方向的-90°和-180°内或者处于所发射光波传播方向的90°和180°内的方向上偏转。这种光522可作为向前散射光被光传感器340检测。
在具体实施方式中,当光学检测设备210位于用户身体220的腕上以及用户使一个或多个手指运动作为一个或多个姿势时,手指的运动可导致附接至手指的肌腱的运动,使得肌腱的厚度和位置略微地改变。当光源330发射要穿透身体组织的光时,可被光传感器340检测的向后散射和向前散射的NIR光的模式发生改变。通过使光源330和光传感器340的矩阵530、540、550置于腕周围,可检测因用户姿势而发生的改变。
此外,如上面所讨论的,控制器310可配置为控制光源330以预定时间间隔根据不同的配置进行操作,以使得光传感器340针对全部这些配置采集关于向后散射和向前散射的光的数据。此外,可基于时间顺序、频率域、波形、其他相关信号特性或任何合适的结合对光传感器340针对特定姿势接收的信号的特定特性进行彼此比较。
图6A至图6E示出根据本发明具体实施方式针对特定姿势接收的信号的示例图。在具体实施方式中,图610、620、630、640和650示出光传感器340基于用户姿势接收的信号。在具体实施方式中,当用户的手指移动两次时,图形的每个窗口代表通过LED上方和下方的两个光电二极管接收的信号。如一示例而不以限制的方式,图6A示出当用户移动他的拇指时接收的信号的图形610,图6B示出当用户移动他的食指时接收的信号的图形620,图6C示出当用户移动他的中指时接收的信号的图形630,图6D示出当用户移动他的无名指时接收的信号的图形640,以及图6E示出当用户移动他的小指时接收的信号的图形650。如图6A至图6E中所示,这些不同的姿势导致光传感器340接收不同的信号。这些信号图可同与光源330以不同波长输出的向后散射光和向前散射光、光源330和光传感器340的不同配置以及光源330以不同时间间隔进行的不同操作有关的数据整合在一起,以创建可被处理以检测用户做出的姿势的不同空间扩散模式。
在具体实施方式中,可使用其他传感器(例如,加速度计、陀螺仪、其他合适的传感器或它们的任意组合)来检测用户姿势的开始和/或交互(例如,通过检测运动的开始)。在具体实施方式中,这些另外的传感器可通过仅在确定满足某些预定条件(例如,检测到运动持续多于预定时间周期)时初始化来自光源330的光的发射,来帮助改进光学检测设备210的电力消耗。虽然本公开描述了以特定方式的光学检测设备的组件和配置,但是本公开可设想到以任何合适的方式的光学检测设备的组件和配置。
示例性实施方式的应用
在具体实施方式中,在光学检测系统200的光学检测设备210可用于针对特定用户的姿势识别之前,光学检测设备210可首先基于从大量用户采集的数据进行校准过程和姿势分类过程,以生成要用于姿势识别的“标准”规模的读取,如下面所讨论的。此外,从大量用户采集的数据可用于生成用于处理特定用户的姿势信息的固定参照系。如上所述,可分析肌腱以用于检测与用户手部相关的姿势。作为示例,肌腱向骨骼传输肌肉收缩的力,从而允许这些骨骼运动。此外,通过传递来自前臂肌肉的运动并且可被观察到在腕处皮肤下方移动的长肌腱来移动手指。具体地,可通过使用在从650nm到1400nm的波长中的NIR传输光来观察肌腱。在具体实施方式中,如上面所讨论的,光学检测设备210可包括腕安装式NIR成像传感器,该腕安装式NIR成像传感器可通过基于向后散射的NIR光和向前散射的NIR光感知腕区内肌腱的宽度和位置的改变来检测手指运动。
在具体实施方式中,如下面所讨论的,光学检测设备210可首先检测设备本身与腕中相关骨骼(例如,尺骨和桡骨)的位置相对的位置。特定骨骼的位置可充当用于定位设备的参照系。因此,通过检测骨骼位置,光学设备210可减少当光学检测设备210从用户腕上的默认位置移动时可能发生的错误读取。
这些骨骼可基于通过骨骼偏转的光被检测,因为骨骼的成分与其他身体组织相比有所不同,所以所述光与通过身体组织的其余部分偏转的光不同。
如上所述,校准数据可基于固定参照系(例如,腕中的一个或多个骨骼)被处理,这可有助于相对于用户身体(例如,用户腕上的特定位置)定位设备以使测量数据标准化以及有助于设备校准。之后,光学检测设备210的这些校准的测量值可用于校正设备的滑移(例如,以增加它对于姿势识别的操作准确性)、用于生物认证、用于概况识别以及用于除了与其他现有设备(例如,与服装、珠宝、配件等相关联的设备)集成之外还与健康监测设备和虚拟现实系统集成为输入设备的各种其他实施例。
预处理阶段
在具体实施方式中,手部姿势分类预处理步骤可包括:利用校准过程校准光学检测系统200;以及姿势分类过程。图7示出根据本发明具体实施方式包括对从多个对象采集的数据的校准过程和分类过程的示例性预处理方法700。所述方法在步骤710处开始,其中若干光学检测设备210从不同的用户获取传感器数据。在具体实施方式中,手部姿势分类预处理步骤可包括大量的离线用户研究步骤,所述离线用户研究步骤遵循图7中所述的过程在多个用户中执行。所述方法在步骤710处开始,其中,从多个对象聚集用于预定义姿势集合的数据。在受控环境中获取所述数据,并且利用统计学指标作为特征执行进一步的特征评估。针对每个姿势,通过原始传感器数据计算统计学指标。它们包括诸如平均值、标准差、峰值量、最大增加和减小宽度、原始数据的一阶和二阶导数等指标。这些特征形成根据姿势分类框730进行排序的不同向量。对于参数的每个向量,框730根据用户研究群组中正确分类的姿势的数量计算准确性得分。在步骤720期间,所述方法考虑针对在分类过程中使用的模型超参数的多个值来估算730的准确度。这些包括诸如特征向量的维数(参数向量的长度)、规则化参数等参数。步骤740选择在用户研究中产生最好结果的校准参数。
在具体实施方式中,光学检测设备210可从参与到机器学习训练过程中的多个用户、从光传感器340检测和采集传感器数据(例如,如图6A至图6E中所示的原始传感器数据)。所采集的传感器数据可基于特定校准顺序的受控环境、针对一个或多个特定姿势来进行采集。如一示例而不以限制的方式,用作机器学习过程的一部分的校准过程可包括具有以下不同姿势的特定校准顺序:(1)拳头姿势的开始位置,其中全部手指紧握成拳,(2)拇指姿势,其中除拇指外的全部手指保持在拳头中而拇指保持伸直立且指向前,(3)两个手指姿势,包括除了拇指和食指外的全部手指保持在拳头中而拇指和食指保持伸直且指向前,以及(4)打开手姿势的结束位置,其中全部手指保持伸直且指向前。该校准序列可允许检测较大肌腱运动和运动之间的差异,并且对于机器学习训练过程,可从每个用户采集与不同姿势中的每一个相关的数据。在具体实施方式中,该姿势传感器数据可被采集并用作预分类校准数据。在具体实施方式中,传感器数据和预分类校准数据可存储在诸如数据储存器140的任何合适的数据库上。校准参数可包括在光学设备210的操作期间要应用至原始传感器数据的矩阵变换。校准参数可包括可包括对于在光学检测系统200中使用的机器学习模型具有最好准确度的超参数。校准参数选择成使得它们最大化参与到大量离线用户研究中的不同对象之间的效率。
在步骤720处,预处理方法700可包括对来自步骤710的全部传感器数据的特征评估过程。特征评估过程可用于确定多个“特征”,包括与可从所采集的校准数据确定的这些用户相关的独特属性。例如,用户的特定特征向量(例如,有序的特征列表)可链接至姿势。
特征评估过程可包括:由来自在上面讨论的步骤中采集的原始数据的校准数据进行特征数据标准化。特征评估过程还可包括确定多个特征。如一示例而不以限制的方式,对于每个光传感器340,特征向量可包括基于有多少光被光传感器340吸收所确定的相应吸收-统计学特征集合。如另一示例而不以限制的方式,基于由腕和臂部骨骼偏转的光可与由腕组织的其余部分偏转的光区分开的数据,特征向量可包括基于来自光传感器340的数据确定的骨骼检测特征。如下面讨论的,骨骼检测特征可用于确定腕上光学检测设备210的定位。如又一示例而不以限制的方式,特征向量可包括附加的生物数据,诸如与基于设备的方位和诸如心电图(ECG)率、肌电图(EMG)率、心率和呼吸率、血压、其他合适参数的参数确定的人类特性相关的指标。在具体实施方式中,特征数据和特征向量可存储在诸如数据储存器140的任何合适的数据库上。
在步骤730处,预处理方法700可包括对于光学检测设备210的姿势分类过程。在具体实施方式中,可利用诸如K-最近邻(k-NN)、支持向量机(SVM)模型、其他合适的模型或它们的任意组合的一个或多个机器学习模型来评估校准数据。此外,可基于诸如一对所有(OvA)多类别分类技术、一对一(OvO)缩小技术、其他合适的技术或它们的任意组合的分类技术来确定姿势的分类。在步骤740处,预处理方法700可包括用于光学检测设备210的性能评估过程。在评估过程的性能中,方法可在全部样本中的数量n上,基于n个校正样本来确定分类比率。在具体实施方式中,该分类数据可存储在诸如数据储存器140的任何合适的数据库上。
之后,在步骤750处,预处理方法700可包括基于所获取的传感器数据确定光学检测设备210的性能是否被改进。在具体实施方式中,预处理方法700确定所获取的传感器数据的每一轮是否为机器学习过程提供更多信息以改进姿势分类,或者附加数据是否不再向机器学习过程添加任何统计学上显著的信息。如果确定是(YES),则预处理方法700可返回步骤710以从不同的对象获取附加的传感器数据。如果确定否(NO),则预处理方法700可终止。
虽然本公开描述了光学检测系统200的以特定方式的预处理方法,但是本公开可设想到光学检测系统200的以任何合适的方式的预处理方法。
姿势识别
在具体实施方式中,用于光学检测系统200的姿势识别过程可包括检测骨骼结构以基于骨骼结构的固定位置确定参照系。如上所述,可基于固定参照系(例如,腕中的一个或多个骨骼)处理校准数据,这可有利于相对于用户身体(例如,用户腕上的特定位置)定位设备、可减少因光学检测设备210的滑移引起的错误读取以及可改进姿势识别过程。
图8示出根据本发明具体实施方式用于姿势识别的示例性方法800。步骤810、820和830与可针对特定用户采集和分析校准测量值的校准阶段相关联。该方法在步骤810处开始,光学检测系统200可在校准过程期间通过测量对用户执行若干预定义姿势的响应来确定校准测量值。如上面讨论的预处理方法700中所描述的那样,该校准过程和所采集的校准测量值可用于增加从离线用户研究中推导出的校准参数。
在步骤820处,光学检测系统200可通过感测骨骼结构确定骨骼校准参数。如上所述,可基于由光传感器340检测的光来检测诸如尺骨和桡骨的骨骼,并且可将它与其他身体组织区分开。可通过关于各个单个用户的单个设备、针对多个用户中的每一个确定这些骨骼结构测量值。
在步骤830处,针对单个对象,光学检测系统200可将输入视为包括来自步骤810的原始传感器数据的校准测量值。步骤830针对同一用户使用从预处理方法700输出的校准参数以及来自步骤820的骨骼校准参数。这些参数的集合表示为向量,并且可因此被应用为对由光学检测系统200检测的原始传感器数据的矩阵转换。在全部矩阵相乘之后的最终输出是在下面讨论的机器学习算法的训练和分类步骤期间使用的特征向量。在具体实施方式中,校准测量值、骨骼结构测量值和校准参数可存储在诸如数据储存器140的任何合适的数据库上。
步骤840、850和860与可确定特定用户姿势的姿势识别阶段相关。在步骤840处,光学检测系统200可经由光学检测设备210感测骨骼结构以生成参照系数据。在步骤850处,光学检测系统200可在姿势识别期间经由光学检测设备210感测肌腱特性。如上所述,可基于光传感器340检测的光检测骨骼和身体组织并且将其彼此区分开。之后,在步骤860处,光学检测系统200可利用(例如,基于多个用户确定的)校准参数、(例如,与特定用户相关的)参照系数据和(例如,与特定用户相关的)所感测的肌腱特性,基于分类算法确定所估计的姿势。在具体实施方式中,参照系数据和肌腱特性数据可存储在诸如数据储存器140的任何合适的数据存储设备上,或者可替代地,可因用户数据的个人化存储在与光学检测系统200(例如,光学检测设备210、移动电子设备230等)相关的任何设备上。针对用户和/或基于用户请求,校准步骤810-830可发生一次。步骤840可以重复,重复的频率与步骤850和860不同。步骤840可周期性地重复且重复频率低于步骤850和860,或者可基于检测到运动、检测到活动、检测到光学检测系统200的性能较差、检测到可指示光学检测系统200滑移的其它合适条件或其任意组合来执行。
在具体实施方式中,所检测的骨骼结构可用于光学检测设备210的光源330和光传感器340的操作。图9示出根据本发明具体实施方式基于所检测的骨骼操作光学检测设备210的示例性方法900。所述方法在步骤910处开始,其中光学检测系统200可经由光学检测设备210感测骨骼和组织结构。在步骤920处,光学检测系统200可基于感测骨骼结构生成参照系数据。这种感测骨骼结构和生成参照系数据可与上面讨论的姿势识别方法的步骤840和850类似。
在步骤930处,光学检测系统200可动态地选择目标肌腱区域上的光源阵列中的一个或多个光源,其中所选择的光源配置成用于姿势识别。此外,光学检测系统200可确定表现出特性改变的骨骼结构,诸如特定骨骼相对于肌腱结构位置的位置。此外,参照系数据可用于确定光学检测设备210相对于用户腕的位置和/或定向。因此,光学检测200之后可动态地选择位于目标肌腱区域上方的、用于发射要被光传感器340捕捉的光的一个或多个光源330,以最大化光源阵列的效率并且最小化电力消耗。在具体实施方式中,骨骼结构测量值、参照系数据、目标肌腱区域数据和关于动态选择的光源的数据可存储在诸如数据储存器140的任何合适的数据上,或可替代地,可因用户数据的个人化性质存储在与光学检测系统200相关的任何设备(例如,光学检测设备210、移动电子设备230等)上。虽然本公开描述了用于光学检测系统200的以特定方式的姿势识别过程,但是本公开可设想到用于光学检测系统200的以任何合适的方式的姿势识别过程。
滑移校正器
图10示出根据本发明具体实施方式光学检测系统200的示例性功能单元和应用。光学检测系统200的这些示例性功能单元和应用可通过存储在联接至一个或多个处理器的存储器中的程序代码来执行。在具体实施方式中,光学检测系统200可包括:包括骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040的功能单元1010;以及包括滑移校正应用1060、生物认证应用1070和概况识别应用1080的应用1050。骨骼特性分析器1020可配置为确定一个或多个用户的骨骼特性,所述骨骼特性可包括内在骨骼特性,诸如骨骼尺寸、骨骼密度、骨骼以前是否受伤害、骨骼相对于其他身体组织的位置、其他相关骨骼特性或它们的任意组合。骨骼空间位置检测器1030可配置为确定一个或多个用户的骨骼的位置,这可包括作为参照系测量值的一个或多个骨骼的位置、一个或多个骨骼相对于其他骨骼的位置、其他相关骨骼位置特性或它们的任意组合。身体组织分析器1040可配置为确定一个或多个用户的身体组织的特性,包括身体组织的尺寸/厚度、身体组织的密度、身体组织的位置、其他相关身体组织特性或它们的任意组合。
在具体实施方式中,如图10中的箭头所示,骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040可用于滑移校正应用1060。如上所述,由于光学检测设备210从预定义的“默认”位置滑移可能导致错误的读数,因此,通过确定有多少设备已经从默认位置移动(例如,“滑移”)来相对于用户身体定位设备的位置可有助于姿势识别过程。
图11示出根据本发明具体实施方式用于设备滑移校正的示例性方法1100。方法在步骤1110处开始,其中光学检测系统200可经由光学检测设备210的骨骼特性分析器1020感测用户的骨骼结构。在具体实施方式中,控制器310控制光源330以多种不同模式(例如,上面针对图5E至图5G所讨论的)以及利用光学窗口中的多种不同波长(例如,上面针对图3B所讨论的)来发射光,并且从光传感器340采集光散射信息(例如,如上面讨论的,包括向后散射光和向前散射光)。
在步骤1120处,光学检测系统200可基于对骨骼结构的感测生成参照系。在具体实施方式中,骨骼空间位置检测器1030可检测一个或多个骨骼的位置作为针对光学检测系统210的位置和定向的参照系数据。此外,光学检测系统200可预处理所采集的原始数据以去除噪声、将原始数据投影到低维空间中并且提取与在上面讨论的每个配置(例如,使用光模式和光波长的结合)中有多少光已经被每个光传感器340吸收对应的关键统计信息。统计数据可包括诸如平均值、标准偏差和均方根值的计算值。可使用诸如主分量分析(PCA)的方法来减少原始特征向量的维数,这有助于下面描述的机器学习模型在多个用户之中达到较好的准确性得分。之后,光学检测系统200可提取标准向量作为特定子空间中的参照系。
在步骤1130处,光学检测系统200可将参照系动态地应用至标准化的新引入数据。在具体实施方式中,通过将每个新设定的采集数据集应用至预处理校准方法(例如,参照图7所讨论的),参照系数据可用于改进姿势识别过程中的分类算法。此外,该标准化数据(即,参照系数据)可作为向量空间变换应用于由特定设备(例如,光学检测系统210)获取的每个新数据样本。换言之,分类算法基于从在受控环境中执行特定姿势的大量用户采集到数据库中的数据来确定,并且当新的用户首先使用光学检测设备时,可询问新的用户执行与用户在受控环境中执行的姿势相似的某一校准姿势,以使得系统可确定姿势信息的数据库中的位置和/或基于与新用户最密切匹配的分类算法来确定。在具体实施方式中,校准数据和分类算法可存储在网络130、服务器140或数据储存器150上,并且与新的用户相关的特定数据可存储在光学检测系统200的一个或多个设备上或者可存储在网络130、服务器140或数据储存器150上。虽然本公开描述了光学检测系统200的以特定方式的滑移校正程序,但是本公开可设想到光学检测系统200的以任何合适的方式的滑移校正程序。
生物认证器
在具体实施方式中,如图10中的箭头所示,骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040可用于生物认证应用1070。生物认证应用1070可包括用于测量和分析用户的生物特性以验证用于认证和安全访问的用户身份的技术。作为示例,用户骨骼特性对于每个用户是独特的,因此可出于识别和认证的目的使用它们,所述识别和认证的目的诸如设备解锁(例如,电话解锁)、登录账户(例如,针对个人账户、父母控制、管理员访问等)、阻止年龄限制的内容(例如,通过确定用户的身份或年龄)、其他相关目的或它们的任意组合。图12示出根据本发明具体实施方式用于生物认证的示例性方法1200。方法在步骤1210处开始,其中光学检测系统200可从单个用户收集来自骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040的数据。数据可包括每个用户特有的全部数据,包括骨骼和其他身体组织在NIR光下的可观察参数,诸如空间位置、尺寸、材料密度、矿物结构、其他合适的参数或它们的任意组合。在步骤1220处,光学检测系统200可创建用户特有的“指纹”。该“指纹”可变成特征向量(上面讨论)。此外,之后可通过将每个新设定的采集数据集应用于处理校准方法(例如,参照图7所讨论的),来在分类算法的训练中进一步处理和使用这种用户特有的“指纹”向量。
在步骤1230处,光学检测系统200可选择鉴别特征(例如,将特定用户与数据库中的其他用户区分开的特征)并且可提取数据之间的关系和相关性(例如,用于在认证目的中使用)。在具体实施方式中,该步骤可由光学检测系统200自动地进行。之后,在步骤1240处,光学检测系统200将使用针对多个用户所采集的数据来训练要在生物认证应用1070中使用的支持向量机模型。这个过程既包括训练程序又包括测试程序。步骤1240将创建SVM模型以使属于已在数据库中的不同用户的数据的高维特征空间中的支持向量之间的距离最大化。分类器之后将在这个高维空间中定位每个新的测试样本、基于支持向量确定它的位置并且使用该信息来预测校正类型。最后,在步骤1250处,光学检测系统200可对新的样本动态地分类。在具体实施方式中,当使用生物认证器时,出于认证的目的获取来自新用户的新样本并且将其分类。此外,分类算法基于从大量用户采集到数据库中的数据(例如,包括骨骼和其他身体组织的用户特有特性)来确定;并且当出于认证的目的添加新的用户时,骨骼和其他身体组织的新用户特性被确定为基于分类算法对用户数据进行分类,以将所述用户的生物特性与数据库中的其他用户区分开。在具体实施方式中,分类算法和用户生物特性可存储在网络130、服务器140或数据储存器150上,并且新用户特有数据(例如,用户特有“指纹”数据)可存储在光学检测系统200的一个或多个设备上或者可存储在网络130、服务器140或数据储存器150上。虽然本公开描述光学检测系统200的以特定方式的生物认证器,但是本公开可设想到光学检测系统200的以任何合适的方式的生物认证器。
概况识别器
在具体实施方式中,如图10中的箭头所示,骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040可用于概况识别应用1080。概况识别应用1080可包括用于识别穿戴光学检测设备210的用户的概况的技术。用户概况可包括关于他们的年龄、性别、性情、身高、重量级、种族、生活方式、其他相关信息或它们的任意组合。如一示例而不以限制的方式,这种信息可用于广告目的、内容选择目的(例如,要向用户显示的内容)、设备配置目的(例如,为年长用户提供更大的字体大小、为孩子们提供彩色的UI等)、其他合适的目的或它们的任意组合。图13示出根据本发明具体实施方式用于概况识别的示例性方法1300。方法在步骤1310处开始,其中光学检测系统200可从大量用户聚集来自骨骼特性分析器1020、骨骼空间位置检测器1030和身体组织分析器1040的数据。在具体实施方式中,该数据可映射到特定用户的概况,该数据可包括特定用户的用户特有信息,诸如年龄、性别、性情、身高、重量级、种族、生活方式、其他相关信息或它们的任意组合。
在步骤1320处,光学检测系统200可确定用户概况特性的聚类。在具体实施方式中,光学检测系统200可在原始数据上应用聚类技术(例如,K-均值聚类、高斯混合模型等),以在由用户概况特性生成的特征向量的高维空间中基于使可能的聚类中心之间的距离最大化的前提分析和确定可能聚类。在步骤1330处,光学检测系统200可创建一般化的用户概况“指纹”。在具体实施方式中,每个用户概况“指纹”可与不同的用户概况特性的聚类对应。之后,在步骤1340处,光学检测系统200可对新的样本动态地分类并且可将它们分配给特定聚类。在具体实施方式中,新的样本利用分类算法(例如,线性判别分析(LDA)、k-NN等)被动态地分类,以每当使用概况识别器来生成新用户的概况时将每个新的样本分类到特定组中。在具体实施方式中,分类算法和用户概况特性的聚类可存储在网络130、服务器140或数据储存器150上,并且新用户特有数据(例如,用户概况“指纹”数据)可存储在光学检测系统200的一个或多个设备上或者可存储在网络130、服务器140或数据储存器150上。虽然本公开描述了光学检测系统200的以特定方式的概况识别器,但是本公开可设想到光学检测系统200的以任何合适的方式的概况识别器。
其他用途
在具体实施方式中,上述系统和实施方式可与可穿戴健康技术设备集成,以执行健康相关的监测任务(例如,监测心率、压力水平等)、姿势识别、运动追踪(例如,在康复期间)、其他相关任务或它们的任意组合。
在具体实施方式中,对于虚拟现实(VR)环境,上述系统和实施方式可用于改进输入设备的准确性。如一示例而不以限制的方式,系统和实施方式可通过确定用户视点的定向以及向VR系统发送该信息而实现为头部追踪设备。头部追踪设备可用于基于眼睛的图像,所述基于眼睛的图像可操作成使得在该特定方向上用户眼睛运动导致用户的视野向上、向下、向左或向右移动。此外,头部追踪设备可用于基于头部运动的导航,这可操作成使得用户使其头部倾斜一角度或者使其头部向前或向后运动(例如,没有改变他注视的角度)导致用户的视野在该角度中或者向前或向后移动。如另一示例而不以限制的方式,系统和实施方式可实现为可追踪用户手部在VR环境中的运动的手部追踪设备。除了以直观的方式指导虚拟对象的操作、与其他用户通信(例如,利用身体语言、符号语言等)之外,还可允许用户真实手部的运动转换成VR环境中虚拟手部的运动。如又一示例而不以限制的方式,系统和实施方式可实现为可感测身体的运动(腿、脚、臂、手、头、身躯等的运动)并且将用户真实身体的运动转换成VR环境中的虚拟身体的运动的身体追踪设备。这可允许用户利用用户的化身与其他用户交互、在VR环境中四处行走、检测VR环境内的导航等。
在具体实施方式中,上述系统和实施方式还可与服装、珠宝和其他配件集成,以执行姿势识别、运动追踪、其他相关任务或它们的任意组合。
虽然本公开描述了光学检测系统200以特定方式的特定用途,但是本公开可设想到光学检测系统200以任何合适的方式的任何其他用途。
系统和方法
图14示出根据本发明一些实施方式的示例性计算机系统1400。在具体实施方式中,一个或多个计算机系统1400执行本文所描述或示出的一个或多个方法的一个或多个步骤。在具体实施方式中,一个或多个计算机系统1400提供本文所描述或示出的功能。在具体实施方式中,在一个或多个计算机系统1400上运行的软件执行本文所描述或示出的一个或多个方法的一个或多个步骤,或者提供本文所描述或示出的功能。具体实施方式包括一个或多个计算机系统1400的一个或多个部分。在本文中,在适当的情况下,提及计算机系统可包括计算设备;反之,提及计算设备可包括计算机系统。此外,在适当的情况下,提及计算机系统可包括一个或多个计算机系统。
本公开可设想到任何合适数量的计算机系统1400。本公开可设想到采用任何合适的物理形式的计算机系统1400。作为示例且不以限制的方式,计算机系统1400可为嵌入式计算机系统、片上系统(SOC)、单板计算机系统(SBC)(例如,计算机模块(COM)或系统模组(SOM))、台式计算机系统、膝上型或笔记本计算机系统、交互亭、主机、计算机系统网、移动电话、个人数字助理(PDA)、服务器、平板计算机系统或这些中两个或更多的结合。在适当的情况下,计算机系统1400可包括一个或多个计算机系统1400;可以是集中式或分布式的;可跨越多个位置;可跨越多个机器;可跨越多个数据中心;或者可在一个或多个网络中驻留在可包括一个或多个云组件的云中。在适当的情况下,一个或多个计算机系统1400可在没有大量空间或时间限制的情况下执行本文所描述或示出的一个或多个方法的一个或多个步骤。如一示例而不以限制的方式,一个或多个计算机系统1400可实时地或以分批模式执行本文所描述或示出的一个或多个方法的一个或多个步骤。在适当的情况下,一个或多个计算机系统1400可以不同次数或在不同位置处执行本文所描述或示出的一个或多个方法的一个或多个步骤。
在具体实施方式中,计算机系统1400包括处理器1402、存储器1404、储存器1406、输入/输出(I/O)接口1408、通信接口1410和总线1412。虽然本公开已描述和展示具有呈特定布置的特定数量的特定组件的特定计算机系统,但是本公开可设想到具有呈任何合适布置的任何合适数量的组件的任何合适的计算机系统。
在具体实施方式中,处理器1402包括用于执行诸如构成计算机程序的指令的硬件。如一示例而不以限制的方式,为了执行指令,处理器1402可从内部寄存器、内部缓存、存储器1404或储存器1406中检索(或取用)指令;可将它们解码并执行它们;然后将一个或多个结果写入内部寄存器、内部缓存、存储器1404或储存器1406。在具体实施方式中,处理器1402可包括用于数据、指令或地址的一个或多个内部缓存。在适当的情况下,本公开可设想到包括任何合适数量的任何合适的内部缓存的处理器1402。如一示例而不以限制的方式,处理器1402可包括一个或多个指令缓存、一个或多个数据缓存和一个或多个翻译后援缓冲器(TLB)。指令缓存中的指令可为存储器1404或储存器1406中的指令的复本,并且指令缓存可加速处理器1402对那些指令的检索。数据缓存中的数据可为:存储器1404或储存器1406中的、供在处理器1402处执行的指令进行操作的数据的复本;在处理器1402处执行的、用于供在处理器1402处执行的后续指令访问或者供写入存储器1404或储存器1406的先前指令结果;或其他合适的数据。数据缓存可回事处理器1402的读取或写入操作。TLB可加速对于处理器1402的虚拟地址翻译。在具体实施方式中,处理器1402可包括用于数据、指令或地址的一个或多个内部寄存器。在适当的情况下,本公开可设想到包括任何合适数量的任何合适内部寄存器的处理器1402。在适当的情况下,处理器1402可包括一个或多个算术逻辑单元(ALU);可以是多核处理器;或者包括一个或多个处理器1402。虽然本公开已描述和展示特定处理器,但是本公开可设想到任何合适的处理器。
在具体实施方式中,存储器1404包括存储用于由处理器1402执行的指令或用于由处理器1402操作的数据的主存储器。如一示例而不以限制的方式,计算机系统1400可从储存器1406或另一来源(例如,另一计算机系统1400)加载指令到存储器1404。处理器1402之后可将来自存储器1404的指令加载到内部寄存器或内部缓存。为了执行指令,处理器1402可从内部寄存器或内部缓存中检索指令并且对它们解码。在指令执行期间或者在指令执行之后,处理器1402可将一个或多个结果(可为中间结果或最终结果)写入内部寄存器或内部缓存。处理器1402之后可将这些结果中的一个或多个写入存储器1404。在具体实施方式中,处理器1402仅执行一个或多个内部寄存器或内部缓存中或者存储器1404(如与储存器1406相反或在别处)中的指令,并且仅操作一个或多个内部寄存器或内部缓存中或者存储器1404(如与储存器1406相反或在别处)中的数据。一个或多个存储器总线(可各自包括地址总线和数据总线)可将处理器1402联接至存储器1404。如下面所描述,总线1412可包括一个或多个存储器总线。在具体实施方式中,一个或多个内存管理单元(MMU)位于处理器1402与存储器1404之间,并且促进由处理器1402请求的对存储器1404的存取。在具体实施方式中,存储器1404包括随机存取存储器(RAM)。在适当的情况下,这种RAM可为易失性存储器。在适当的情况下,这种RAM可为动态随机存取存储器(DRAM)或静态随机存取存储器(SRAM)。此外,在适当的情况下,这种RAM可为单端口或多端口RAM。本公开可设想到任何合适的RAM。在适当的情况下,存储器1404可包括一个或多个存储器1404。虽然本公开已描述和展示特定存储器,但是本公开可设想到任何合适的存储器。
在具体实施方式中,储存器1406包括用于数据或指令的大容量储存器。如一示例而不以限制的方式,储存器1406可包括硬盘驱动(HDD)、软盘驱动、闪速存储器、光盘、磁光盘、磁带或通用串行总线(USB)驱动或这些中的两个或更多的结合。在适当的情况下,储存器1406可包括可移除或不可移除(或固定的)介质。在适当的情况下,储存器1406可在计算机系统1400的内部或外部。在具体实施方式中,储存器1406是非易失性固态存储器。在具体实施方式中,储存器1406包括只读存储器(ROM)。在适当的情况下,这种ROM可为掩模可编程ROM、可编程只读存储器(PROM)、可擦可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)、电可改写只读存储器(EAROM)或闪速存储器或这些中的两个或更多的结合。本公开可设想到采用任何合适的物理形式的大容量储存器1406。在适当的情况下,储存器1406可包括促进处理器1402与储存器1406之间的通信的一个或多个储存器控制单元。在适当的情况下,储存器1406可包括一个或多个储存器1406。虽然本公开已描述和展示特定储存器,但是本公开可设想到任何合适的储存器。
在具体实施方式中,I/O接口1408包括硬件、软件或两者,从而提供用于在计算机系统1400与一个或多个I/O设备之间通信的一个或多个接口。在适当的情况下,计算机系统1400可包括这些I/O设备中的一个或多个。这些I/O设备中的一个或多个可使能人与计算机系统1400之间的通信。如一示例而不以限制的方式,I/O设备可包括键盘、小键盘、麦克风、显示器、鼠标、打印机、扫描机、扬声器、静态相机、触控笔、平板计算机、触摸屏幕、追踪球、摄影机、另一合适的I/O设备或这些中的两个或更多的结合。I/O设备可包括一个或多个传感器。本公开可设想到任何合适的I/O设备和用于它们的任何合适的I/O接口1408。在适当的情况下,I/O接口1408可包括使处理器1402能够驱动这些I/O设备中的一个或多个的一个或多个设备或软件驱动器。在适当的情况下,I/O接口1408可包括一个或多个I/O接口1408。虽然本公开描述和展示特定I/O接口,但是本公开可设想到任何合适的I/O接口。
在具体实施方式中,通信接口1410包括提供用于在计算机系统1400与一个或多个其他计算机系统1400或一个或多个网络之间通信(例如,基于数据包的通信)的一个或多个接口的硬件、软件或两者。如一示例而不以限制的方式,通信接口1410可包括:用于与以太网或其他基于电线的网络通信的网络接口控制器(NIC)或网络适配器,或者用于与诸如WI-FI网络的无线网络通信的无线NIC(WNIC)或无线适配器。本公开可设想到任何合适的网络和用于它的任何合适的通信接口1410。如一示例而不以限制的方式,计算机系统1400可与临时网络、个域网(PAN)、局域网(LAN)、广域网(WAN)、城域网(MAN)或互联网的一个或多个部分或这些中的两个或更多的结合通信。这些网络中的一个或多个的一个或多个部分可为有线或无线的。作为示例,计算机系统1400可与无线PAN(WPAN)(例如,BLUETOOTH WPAN)、WI-FI网络、WI-MAX网络、蜂窝电话网络(例如,全球移动通信系统(GSM)网络)或其他合适的无线网络或这些中的两个或更多的结合通信。在适当的情况下,计算机系统1400可包括用于这些网络中的任意网络的任何合适的通信接口1410。在适当的情况下,通信接口1410可包括一个或多个通信接口1410。虽然本公开描述和展示特定通信接口,但是本公开可设想到任何合适的通信接口。
在具体实施方式中,总线1412包括将计算机系统1400的组件彼此联接的硬件、软件或两者。如一示例而不以限制的方式,总线1412可包括加速图形端口(AGP)或其他图形总线、增强型工业标准架构(EISA)总线、前端总线(FSB)、HYPERTRANSPORT(HT)互连件、工业标准架构(ISA)总线、INFINIBAND互连件、低脚数(LPC)总线、存储器总线、微通道架构(MCA)总线、外围设备互连(PCI)总线、PCI-Express(PCIe)总线、串行高级技术连接(SATA)总线、视频电子标协会本地(VLB)总线或另一合适的总线或这些中的两个或更多的结合。在适当的情况下,总线1412可包括一个或多个总线1412。虽然本公开描述和展示特定总线,但是本公开可设想到任何合适的总线或互连件。
在本文中,在适当的情况下,计算机可读非暂时性存储介质或介质可包括一个或多个基于半导体的或其他集成电路(IC)(例如,现场可编程门阵列(FPGA)或专用IC(ASIC))、硬盘驱动(HDD)、混合型硬盘驱动(HHD)、光盘、光盘驱动(ODD)、磁光盘、磁光式驱动、软盘、软盘驱动(FDD)、磁带、固态驱动(SSD)、RAM驱动、安全数字卡或驱动、任何其他合适的计算机可读非暂时性存储介质、或这些中的两个或更多的任何合适的结合。在适当的情况下,计算机可读非暂时性存储介质可为易失性的、非易失性的或易失性和非易失性的结合。
其他
在本文中,除非明确地另行指出或者由上下文另行指出,否则“或”是包含性且不是排他性的。因此,在本文中,除非明确地另行指出或者由上下文另行指出,否则“A或B”是指“A、B或两者”。此外,除非明确地另行指出或者由上下文另行指出,否则“和”既是共同的又是各自的。因此,在本文中,除非明确地另行指出或者由上下文另行指出,否则“A和B”是指“A和B共同或各自”。
本公开的范围包括本领域普通技术人员将理解的对本文所描述或示出的示例性实施方式的全部改变、替代、变型、更改和修改。本公开的范围不限于本文所描述或示出的示例性实施方式。此外,虽然在本文中本公开将相应实施方式描述和展示为包括特定组件、元件、特征、功能、操作或步骤,但是这些实施方式中的任意实施方式可包括本领域普通技术人员将理解的、在本文中任何地方描述或示出的任意所述组件、元件、特征、功能、操作或步骤的任意结合或排列。此外,在所附权利要求中对装置或系统或者装置或系统的组件适于、布置成、有能力、配置为、能够、操作为或操作性地执行特定功能的引用包括这种装置、系统、组件,不管它或特定功能是否激活、开启或锁定,只要装置、系统或组件是如此适于、布置、有能力、配置、能够、操作为或操作性的即可。另外,虽然本公开将具体实施方式描述或示出为提供特定有益效果,但是具体实施方式可不提供有益效果、提供这些有益效果中的一些或者提供这些有益效果中的全部。

Claims (18)

1.一种电子设备,包括:
光源,配置为发射光,所述光穿透到用户身体的一部分中;
多个光传感器,配置为检测所发射的光的扩散模式;以及
控制器,配置为基于所检测的所发射的光的扩散模式,来检测由所述用户做出的姿势。
2.如权利要求1所述的电子设备,其中所述一个或多个光源包括第一光源和第二光源,以及
其中所述一个或多个控制器配置为通过使电力在所述第一光源和所述第二光源之间交替供应来控制所述第一光源和所述第二光源。
3.如权利要求1所述的电子设备,其中,所发射的光的扩散模式包括向前散射光和向后散射光中的一种或多种。
4.如权利要求3所述的电子设备,其中,所述向前散射光包括在第一位置处检测的光,所述第一位置不同于发射所述光的一个或多个光源的第二位置。
5.如权利要求4所述的电子设备,其中,所述向前散射光还包括在所述用户身体的所述一部分中穿透一个或多个身体内部组织的光。
6.如权利要求3所述的电子设备,其中,所述向后散射光还包括在所述用户身体的所述一部分中由一个或多个身体内部组织反射的光。
7.如权利要求6所述的电子设备,其中,所述向后散射光包括遵循从所述一个或多个光源至所述一个或多个光传感器的大致弯曲的路径反射的光。
8.如权利要求1所述的电子设备,其中,检测所述姿势包括:
由所述一个或多个控制器在连接至所述电子设备的网络上访问一个或多个姿势数据数据库;以及
由所述一个或多个控制器从所述姿势数据数据库和所检测的所发射的光的扩散模式中,确定与由所述用户做出的姿势对应的一个或多个姿势。
9.如权利要求8所述的电子设备,其中,在检测由所述用户做出的姿势之前,所述一个或多个控制器配置为初始化用户校准过程。
10.如权利要求9所述的电子设备,其中,所述用户校准过程包括:
当所述用户执行一个或多个预定姿势时,由所述一个或多个控制器测量所发射的光的一个或多个扩散模式;以及
由所述一个或多个控制器从所述姿势数据数据库中基于所发射的光的所述一个或多个扩散模式确定一个或多个校准参数,
其中所述一个或多个校准参数用于检测由所述用户做出的姿势。
11.如权利要求1所述的电子设备,其中检测由所述用户做出的姿势还包括:由所述一个或多个控制器检测所述用户身体中的一个或多个骨骼的状态。
12.如权利要求11所述的电子设备,其中,检测所述用户身体中的一个或多个骨骼的状态包括:检测桡骨和尺骨中的至少一个的状态。
13.如权利要求12所述的电子设备,其中所检测的所述一个或多个骨骼的状态包括:所述桡骨和所述尺骨中的至少一个相对于所述电子设备的位置。
14.如权利要求1所述的电子设备,其中由所述用户做出的姿势包括与所述用户身体的所述一部分相关的所述用户的预定量运动。
15.一种方法,包括:
将一个或多个传感器信号从电子设备输出到用户身体的一部分中;
从所述一个或多个传感器信号中检测一个或多个偏转信号;
基于所述一个或多个偏转信号检测所述用户身体的骨骼结构;以及
基于所述一个或多个偏转信号确定用户测量值,所述健康测量值由所检测的骨骼结构调整。
16.如权利要求15所述的方法,其中所述一个或多个骨骼的特性包括:
内在骨骼特性;
所述一个或多个骨骼的空间位置;
邻近所述一个或多个骨骼的身体组织的特性;或者
以上特性的任意组合。
17.如权利要求15所述的方法,还包括:
在输出所述一个或多个传感器信号之前,确定与所述用户相关的一个或多个校准参数;以及
基于所述一个或多个骨骼的特性和所述一个或多个校准参数,确定所述电子设备相对于所述用户身体的所述一部分的位置。
18.如权利要求17所述的方法,其中,所述校准参数由校准过程确定,所述校准过程包括:
针对一个或多个预定义用户姿势,检测所述一个或多个骨骼的特性;以及
基于针对所述一个或多个预定义用户姿势所检测的所述一个或多个骨骼的特性,生成标准化数据,
其中基于所述一个或多个骨骼的特性和所述标准化数据来确定所述一个或多个校准参数。
CN201680006414.2A 2015-01-19 2016-01-19 身体内部组织的光学检测和分析 Active CN107209566B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562105163P 2015-01-19 2015-01-19
US62/105,163 2015-01-19
US14/997,437 US10362944B2 (en) 2015-01-19 2016-01-15 Optical detection and analysis of internal body tissues
US14/997,432 2016-01-15
US14/997,432 US11119565B2 (en) 2015-01-19 2016-01-15 Optical detection and analysis of bone
US14/997,437 2016-01-15
PCT/KR2016/000525 WO2016117898A1 (en) 2015-01-19 2016-01-19 Optical detection and analysis of internal body tissues

Publications (2)

Publication Number Publication Date
CN107209566A true CN107209566A (zh) 2017-09-26
CN107209566B CN107209566B (zh) 2021-11-05

Family

ID=56406884

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201680006414.2A Active CN107209566B (zh) 2015-01-19 2016-01-19 身体内部组织的光学检测和分析
CN201680079057.2A Withdrawn CN108471955A (zh) 2015-01-19 2016-07-01 内部身体组织的光学检测与分析

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201680079057.2A Withdrawn CN108471955A (zh) 2015-01-19 2016-07-01 内部身体组织的光学检测与分析

Country Status (5)

Country Link
US (2) US11119565B2 (zh)
EP (2) EP3248084B1 (zh)
KR (2) KR102219911B1 (zh)
CN (2) CN107209566B (zh)
WO (2) WO2016117898A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113423341A (zh) * 2018-11-27 2021-09-21 脸谱科技有限责任公司 用于可穿戴电极传感器系统的自动校准的方法和装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US11119565B2 (en) * 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone
US9864400B2 (en) 2015-10-30 2018-01-09 Essential Products, Inc. Camera integrated into a display
US9754526B2 (en) * 2015-10-30 2017-09-05 Essential Products, Inc. Mobile device with display overlaid with at least a light sensor
US10331260B2 (en) 2015-10-30 2019-06-25 Essential Products, Inc. Variable transparency layers for electronic devices
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
KR102629629B1 (ko) * 2016-12-07 2024-01-29 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
US10380875B1 (en) * 2016-12-21 2019-08-13 Alarm.Com Incorporated Immersive virtual reality detection and alerting technology
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
JP7052604B2 (ja) * 2018-07-05 2022-04-12 富士通株式会社 業務推定方法、情報処理装置、及び業務推定プログラム
KR102574087B1 (ko) 2018-07-27 2023-09-04 삼성전자주식회사 광 센서, 광 센서 어레이, 생체 신호 측정 장치 및 방법
KR102515833B1 (ko) 2018-08-01 2023-03-29 삼성전자주식회사 대상체의 성분 분석 장치 및 방법과, 이미지 센서
US11099647B2 (en) 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10802598B2 (en) * 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
KR102313622B1 (ko) * 2019-08-21 2021-10-19 한국과학기술연구원 생체신호 기반 아바타 제어시스템 및 방법
CN111616716B (zh) * 2020-01-09 2023-10-20 成都维客昕微电子有限公司 一种基于多波长光源联合的步频测量装置及方法
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
CN115039063A (zh) 2020-02-10 2022-09-09 平蛙实验室股份公司 改进的触摸感测设备
CN111476158B (zh) * 2020-04-07 2020-12-04 金陵科技学院 一种基于pso-pca-svm的多通道生理信号体感手势识别方法
TWI804758B (zh) * 2020-09-29 2023-06-11 國立陽明交通大學 骨質密度檢測裝置及骨質密度檢測方法
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN113238650B (zh) * 2021-04-15 2023-04-07 青岛小鸟看看科技有限公司 手势识别和控制的方法、装置及虚拟现实设备
WO2023209979A1 (ja) * 2022-04-28 2023-11-02 日本電信電話株式会社 状態推定装置、状態推定方法、およびプログラム
US11935386B2 (en) 2022-06-06 2024-03-19 Hand Held Products, Inc. Auto-notification sensor for adjusting of a wearable device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1192273A (zh) * 1995-06-07 1998-09-02 马西默有限公司 血糖监测系统
JP2002361576A (ja) * 2001-06-05 2002-12-18 Toshiba Corp 3次元空間内サービス提供システム
US20090174578A1 (en) * 2006-07-21 2009-07-09 Brother Kogyo Kabushiki Kaisha Operating apparatus and operating system
CN101711677A (zh) * 2008-09-30 2010-05-26 索尼株式会社 静脉成像装置及缩略图创建方法
CN102781315A (zh) * 2010-02-19 2012-11-14 伯恩菲黛股份公司 非侵入性分析骨组织的结构和化学成分并能消除周围组织的影响的方法和装置
CN103529936A (zh) * 2012-06-13 2014-01-22 马克西姆综合产品公司 姿势检测和识别
US20140031698A1 (en) * 2012-05-02 2014-01-30 San Diego State University Research Foundation Apparatus and method for sensing bone position and motion

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6747632B2 (en) 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US6475153B1 (en) * 2000-05-10 2002-11-05 Motorola Inc. Method for obtaining blood pressure data from optical sensor
US6720984B1 (en) 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
US6510346B2 (en) * 2000-12-13 2003-01-21 Lawrence D. Gordan Therapeutic infrared energy wrist cover
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7610080B1 (en) 2002-11-08 2009-10-27 Wintec, Llc Method and device for determining tension in ligaments and tendons
CA2515695A1 (en) 2003-02-10 2004-10-07 Palomar Medical Technologies, Inc. Light emitting oral appliance and method of use
DE10333075B4 (de) 2003-07-21 2011-06-16 Siemens Ag Verfahren und Vorrichtung zur Trainingseinstellung im Sport, insbesondere im Laufsport
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US9526421B2 (en) * 2005-03-11 2016-12-27 Nrv-Wellness, Llc Mobile wireless customizable health and condition monitor
US8193328B2 (en) * 2005-09-08 2012-06-05 Philadelphia Health & Education Corporation Identification of modulators of serine protease inhibitor Kazal and their use as anti-cancer and anti-viral agents
KR100866258B1 (ko) * 2006-12-28 2008-11-03 전자부품연구원 리니어 이미지센서를 이용한 피부두께 측정 장치 및 그측정 방법
FR2912642B1 (fr) 2007-02-15 2009-05-08 Gibaud Soc Par Actions Simplif Dispositif de serrage de l'avant-bras d'un utilisateur souffrant de troubles musculaires du coude
AU2008290211A1 (en) * 2007-08-19 2009-02-26 Ringbow Ltd. Finger-worn devices and related methods of use
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8786575B2 (en) * 2009-05-18 2014-07-22 Empire Technology Development LLP Touch-sensitive device and method
US8581856B2 (en) 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
KR101581954B1 (ko) 2009-06-25 2015-12-31 삼성전자주식회사 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
JP4988016B2 (ja) 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8463347B2 (en) * 2009-09-30 2013-06-11 Nellcor Puritan Bennett Ireland Systems and methods for normalizing a plethysmograph signal for improved feature analysis
KR20110047600A (ko) 2009-10-30 2011-05-09 삼성전자주식회사 근접 센싱이 가능한 전자장치
US8669842B2 (en) 2009-12-18 2014-03-11 Electronics And Telecommunications Research Institute Apparatus and method for controlling contents player
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
KR101413539B1 (ko) 2010-11-22 2014-07-02 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
TWI487505B (zh) 2010-12-17 2015-06-11 Ind Tech Res Inst 肌動訊號輸入裝置、人機操作系統及其辨識方法
US20120316456A1 (en) * 2011-06-10 2012-12-13 Aliphcom Sensory user interface
GB201111138D0 (en) 2011-06-30 2011-08-17 Leman Micro Devices Uk Ltd Personal health data collection
JP5794526B2 (ja) * 2011-08-02 2015-10-14 国立大学法人 奈良先端科学技術大学院大学 インタフェースシステム
GB2494622A (en) 2011-08-30 2013-03-20 Oxitone Medical Ltd Wearable pulse oximetry device
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
WO2013165380A2 (en) 2012-04-30 2013-11-07 Empire Technology Development, Llc Infrared guide stars for endoscopic orienteering
US8947353B2 (en) 2012-06-12 2015-02-03 Microsoft Corporation Photosensor array gesture detection
US9442100B2 (en) 2013-12-18 2016-09-13 Medibotics Llc Caloric intake measuring system using spectroscopic and 3D imaging analysis
US8948832B2 (en) 2012-06-22 2015-02-03 Fitbit, Inc. Wearable heart rate monitor
US20140003674A1 (en) 2012-06-27 2014-01-02 Christopher D. Coley Skin-Based User Recognition
EP2698686B1 (en) 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
JP6003471B2 (ja) 2012-09-25 2016-10-05 オムロンヘルスケア株式会社 血圧測定装置及びその制御方法
CN109799900B (zh) 2012-11-01 2023-02-28 艾卡姆有限公司 手腕可安装计算通信和控制设备及其执行的方法
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US20140334653A1 (en) 2013-03-14 2014-11-13 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
WO2014197443A1 (en) * 2013-06-03 2014-12-11 Kacyvenski Isaiah Motion sensor and analysis
US8988345B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc Adaptive event recognition
CN105518576B (zh) 2013-06-28 2019-04-16 陈家铭 根据手势的控制装置操作
US9207771B2 (en) 2013-07-08 2015-12-08 Augmenta Oy Gesture based user interface
CN104281254A (zh) 2013-07-12 2015-01-14 上海硅通半导体技术有限公司 一种手势识别装置
US9477314B2 (en) 2013-07-16 2016-10-25 Google Technology Holdings LLC Method and apparatus for selecting between multiple gesture recognition systems
US9226094B2 (en) 2013-07-25 2015-12-29 Elwha Llc Systems and methods for receiving gesture indicative data at a limb wearable computing device
US9208566B2 (en) 2013-08-09 2015-12-08 Microsoft Technology Licensing, Llc Speckle sensing for motion tracking
WO2015033327A1 (en) 2013-09-09 2015-03-12 Belfiori Alfredo Wearable controller for wrist
US20150140934A1 (en) 2013-09-10 2015-05-21 Playtabase, LLC Wireless motion activated user device with bi-modality communication
US9483123B2 (en) 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
US9389694B2 (en) 2013-10-22 2016-07-12 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
JP2015121979A (ja) 2013-12-24 2015-07-02 株式会社東芝 装着型情報入力装置、情報入力システム、及び情報入力方法
KR20150077684A (ko) 2013-12-30 2015-07-08 삼성전자주식회사 생체 신호 기반 기능 운용 방법 및 이를 지원하는 전자 장치
US9910508B2 (en) * 2014-02-12 2018-03-06 Koninklijke Philips, N.V. Movement detection apparatus for detecting a hand movement
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
WO2016003268A2 (en) 2014-06-30 2016-01-07 Scint B.V. Method and device for measuring a health status and physiological parameters of an user at rest and under movement
US9772684B2 (en) 2014-09-17 2017-09-26 Samsung Electronics Co., Ltd. Electronic system with wearable interface mechanism and method of operation thereof
US10488936B2 (en) * 2014-09-30 2019-11-26 Apple Inc. Motion and gesture input from a wearable device
US11119565B2 (en) * 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1192273A (zh) * 1995-06-07 1998-09-02 马西默有限公司 血糖监测系统
JP2002361576A (ja) * 2001-06-05 2002-12-18 Toshiba Corp 3次元空間内サービス提供システム
US20090174578A1 (en) * 2006-07-21 2009-07-09 Brother Kogyo Kabushiki Kaisha Operating apparatus and operating system
CN101711677A (zh) * 2008-09-30 2010-05-26 索尼株式会社 静脉成像装置及缩略图创建方法
CN102781315A (zh) * 2010-02-19 2012-11-14 伯恩菲黛股份公司 非侵入性分析骨组织的结构和化学成分并能消除周围组织的影响的方法和装置
US20140031698A1 (en) * 2012-05-02 2014-01-30 San Diego State University Research Foundation Apparatus and method for sensing bone position and motion
CN103529936A (zh) * 2012-06-13 2014-01-22 马克西姆综合产品公司 姿势检测和识别

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113423341A (zh) * 2018-11-27 2021-09-21 脸谱科技有限责任公司 用于可穿戴电极传感器系统的自动校准的方法和装置

Also Published As

Publication number Publication date
WO2016117898A1 (en) 2016-07-28
EP3393343A1 (en) 2018-10-31
CN108471955A (zh) 2018-08-31
US11119565B2 (en) 2021-09-14
KR20170107016A (ko) 2017-09-22
EP3248084B1 (en) 2020-01-01
US20160206207A1 (en) 2016-07-21
EP3248084A4 (en) 2018-05-09
CN107209566B (zh) 2021-11-05
KR102219911B1 (ko) 2021-02-24
EP3393343A4 (en) 2019-01-23
KR20180095675A (ko) 2018-08-27
EP3248084A1 (en) 2017-11-29
US10362944B2 (en) 2019-07-30
WO2017122889A1 (en) 2017-07-20
US20160206206A1 (en) 2016-07-21

Similar Documents

Publication Publication Date Title
CN107209566A (zh) 身体内部组织的光学检测和分析
Demrozi et al. Human activity recognition using inertial, physiological and environmental sensors: A comprehensive survey
US10503883B1 (en) Radar-based authentication
Biswas et al. CorNET: Deep learning framework for PPG-based heart rate estimation and biometric identification in ambulant environment
Naranjo-Hernández et al. Sensor technologies to manage the physiological traits of chronic pain: a review
US20150182160A1 (en) Function operating method based on biological signals and electronic device supporting the same
US20170147079A1 (en) Human Body-Based Interaction Method and Interaction Apparatus
Sato et al. Zensei: Embedded, multi-electrode bioimpedance sensing for implicit, ubiquitous user recognition
JP2008276353A (ja) 通信システム、管理装置、端末、方法、プログラム、及びデータ構造
Ha et al. WiStress: Contactless stress monitoring using wireless signals
Ortega-Avila et al. Non-invasive optical detection of hand gestures
Diraco et al. Review on human action recognition in smart living: Sensing technology, multimodality, real-time processing, interoperability, and resource-constrained processing
CN108697335A (zh) 利用信号分析来检测活体组织的方法和设备
US11210381B2 (en) Individualized control system and detection device thereof with high security
US11989274B2 (en) Virtual reality system incorporating wearable accessary
Ni et al. Design and assessment of the data analysis process for a wrist-worn smart object to detect atomic activities in the smart home
Wagner et al. A sensing architecture for empathetic data systems
Mahboob et al. EMG-based 3D hand gesture prediction using transformer–encoder classification
Lambert et al. Low‐powered wearable motion detecting system using static electric fields
Biswas et al. Recognition of elementary upper limb movements in an activity of daily living using data from wrist mounted accelerometers
Rylo et al. Gesture recognition of wrist motion based on wearables sensors
Lee et al. Hand Gesture Segmentation Method using a Wrist-Worn Wearable Device
Khan et al. Classification of Human Physical Activities and Postures During Everyday Life
CN108897444A (zh) 利用可穿戴手环式鼠标实现光标控制的方法及系统
Gwak Internet of things (iot)-enabled health monitoring systems: Implementation and validation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant