CN107250947A - 用于监控和影响基于姿势的行为的方法和系统 - Google Patents

用于监控和影响基于姿势的行为的方法和系统 Download PDF

Info

Publication number
CN107250947A
CN107250947A CN201580076106.2A CN201580076106A CN107250947A CN 107250947 A CN107250947 A CN 107250947A CN 201580076106 A CN201580076106 A CN 201580076106A CN 107250947 A CN107250947 A CN 107250947A
Authority
CN
China
Prior art keywords
user
sensing data
probability
smoking
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580076106.2A
Other languages
English (en)
Other versions
CN107250947B (zh
Inventor
艾兰·奥菲尔
尤里·沙茨伯格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Soma Tick J Co
Original Assignee
Soma Tick J Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Soma Tick J Co filed Critical Soma Tick J Co
Publication of CN107250947A publication Critical patent/CN107250947A/zh
Application granted granted Critical
Publication of CN107250947B publication Critical patent/CN107250947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A24TOBACCO; CIGARS; CIGARETTES; SIMULATED SMOKING DEVICES; SMOKERS' REQUISITES
    • A24FSMOKERS' REQUISITES; MATCH BOXES; SIMULATED SMOKING DEVICES
    • A24F47/00Smokers' requisites not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0228Microwave sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本文提供用于实时地分析、监控和/或影响用户的行为姿势的方法和系统。可以提供一种姿势识别方法。该方法可以包括:获取使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及,分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述传感器数据中的运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。

Description

用于监控和影响基于姿势的行为的方法和系统
相关申请的交叉引用
本申请要求2014年12月16日提交的美国临时申请号62/092,283的优先权,其内容全部并入本文。
背景技术
近年来,可以看到在消费电子装置市场中诸如智能手表和腕带之类的可穿戴设备的增多。可穿戴设备通过将计算技术交织到用户的日常生活中来使计算技术无处不在。这些可穿戴设备通常允许用户通过在这些设备中使用电子装置、软件和传感器来追踪其健身、活动、健康和/或幸福感。
现有的可穿戴设备通常旨在改善用户的健身和幸福感。另外,可以将可穿戴设备的使用扩展到诸如医疗保健监控之类的其他领域。虽然可穿戴设备能够收集关于用户的大量数据,但是目前缺乏能够在某些医疗保健领域内精确且有效地分析大量数据的系统和算法。这些医疗保健领域的示例可以包括监控吸烟行为(例如戒烟)、监控某些类型的进食和/或饮酒失调、监控某些类型的强迫症或监控某些类型的神经疾病,其显示与人的手的重复振动或摆动有关的症状。上述每种行为可以由不同且频繁的“手到口”姿势来表征。现有的系统和算法常常缺乏实时精确地检测和监控这些姿势的能力。
因此,需要能够实时精确地检测和监控各种用户姿势并且以及时的方式向用户提供相关和个性化的信息的方法和系统,以帮助他们管理某些行为和习惯,从而帮助他们以逐步的方式改善自己的生活。
发明内容
在一些常规系统中,多个物理运动轮廓模式可以存储在库中,并且可以通过将用户的物理姿势(例如,姿势的形状)与多个运动轮廓模式进行比较来执行姿势识别。然而,这种形式的姿势识别有若干缺点。例如,身体移动对于不同的人而言是不同的并且取决于大量的参数(例如,身体结构及其物理比例、身高、体重、姿态(站立/坐着/驾驶)、习惯等)。每个人的身体移动也可能会在不同的时间取决于他/她的心情和压力水平、伤害、位置(工作/家里/和朋友在酒吧)、正在使用哪只手、一天中的时间等而变化。例如,在吸烟的情况下,人们可能会以不同的方式吸烟,不同品牌的香烟可能会被不同地吸,并且用户的吸烟习惯可能会取决于使用哪只手、他们的心情、一天中的时间、位置等而改变。本文所使用的香烟可以是指任何类型的烟草产品,包括但不限于卷烟、香烟、电子香烟、雪茄和/或吸烟管。
针对不同类型的身体移动而存在显著大量的排列。为了记录和存储物理运动轮廓模式的库,并且将大量用户的实际实时姿势运动与库中的每个物理运动轮廓模式进行比较,将需要大量的存储器储存和计算能力,这是大多数移动设备和可穿戴设备目前所缺乏的。另外,考虑到数据通信和处理所需的高带宽,上面使用基于云的服务器的实现可能是不可行的。
此外,物理运动轮廓模式通常是固定的/通用化的,并且没有虑及用户姿势的细微差别。因此,现有的姿势识别系统可能无法检测用户是在饮用热饮还是饮用冷饮,或是在用左手还是右手吸烟。现有的姿势识别系统也缺乏适应性,并且通常无法捕获并反映用户的姿势和/或行为随时间的变化。
在许多实例中,人们可能希望通过减少或消除某些类型的不良行为例如吸烟来改善其健康和幸福感。吸烟被认为是与吸入烟草引起的癌症和其他疾病有关的重大危险因素。一些吸烟者可能会采取旨在治愈成瘾的戒烟计划。然而,研究显示,虽然约有50%的吸烟者在某个时间点试图戒烟,但他们之中只有7%成功设法完成了戒烟。大多数吸烟者在这些计划过程中容易发生失误——无论是在潜意识中还是由于压力、同伴压力或是缺乏自控。特别而言,吸烟者缺乏这样的工具:该工具可以帮助他们监控他们的吸烟行为,并且可以在吸烟失误期间实时提供指导,鼓励他们掐灭香烟,并停留在戒烟计划中。
另外,吸烟涉及唯一且复杂的手到口姿势,其取决于香烟的类型、尺寸和/或品牌、个人的吸烟历史、性别、吸烟的日期和时间、和许多其他因素而在吸烟者之间变化。所有这些因素使得难以跟踪和滤出吸烟的姿势和模式。
因此,存在对于可以帮助吸烟者控制他们的吸烟行为、减少吸烟数目以及设置帮助吸烟者减少或戒烟的目标的系统和算法的需要。特别而言,存在对于能够精确地识别用户的手到口姿势并且实时检测吸烟失误的系统和算法的需要。还需要监控用户的吸烟行为并预测用户何时/何地可能吸烟,使得可以提供信息(例如,建议)来帮助用户继续停留在戒烟计划过程中并跟踪计划目标。这样的信息可以被个性化并且在计算设备上实时地向用户动态地提供。该信息可以帮助用户对他/她的整体幸福感做出明智的决定,并向用户显示已经取得的进展。本文公开的系统和方法至少解决了上述需要。
实施方式#1
一种姿势识别方法,可以包括:获取使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及,分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
实施方式#2
一种用于实现姿势识别的系统,可以包括:存储器,其用于存储使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴。该系统还可以包括一个或多个处理器,其被配置用于执行软件指令集,以分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
实施方式#3
一种存储指令的有形计算机可读介质,所述指令当由一个或多个处理器执行时使所述一个或多个处理器执行计算机实现的姿势识别方法。该方法可以包括:获取使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及,分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
在上述实施方式#1、#2和/或#3中的一个或多个中,可以从与不同活动相关联的不同姿势的组中选择预定义姿势。可以部分地基于所述传感器数据中的不同运动矢量的幅度并且在不将所述运动矢量与所述一个或多个物理运动轮廓进行比较的情况下,来彼此区分与所述不同活动相关联的姿势。至少一个传感器可以包括加速度计和陀螺仪。
运动矢量的幅度可以包括:(1)从加速度计获取的加速度矢量的幅度和/或(2)从陀螺仪获取的角速度矢量的幅度。可以部分地基于所述加速度矢量的幅度和/或所述角速度矢量的幅度来确定所述概率。可以部分地基于不同时间段内的所述加速度矢量的幅度和/或所述角速度矢量的幅度并且在不将所述加速度矢量和/或所述角度速度矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
可以基于加速度矢量和/或角速度矢量来计算可穿戴设备的俯仰角、滚动角和/或横摆角。可以基于所述俯仰角、所述滚动角和/或所述横摆角来确定所述概率。
可以确定不同时间段内的所述加速度矢量的幅度与所述角速度矢量的幅度之间的相关性,以便确定所述用户执行所述预定义姿势的所述概率。
至少一个传感器还可以包括以下中的一个或多个:磁力计、心率监控器、全球定位系统(GPS)接收机、外部温度传感器、麦克风、皮肤温度传感器、电容传感器和/或被配置用于检测皮肤电反应的传感器。
可以在不将传感器数据与一个或多个物理运动轮廓进行比较的情况下分析所述传感器数据。所述一个或多个物理运动轮廓的形状可以基本上类似于所述用户的一个或多个物理姿势的形状。
分析所述传感器数据还可以包括计算多维分布函数,其中所述多维分布函数是多个特征的概率函数。所述多个特征可以与预定义姿势的各个方面相关联。所述多个特征可以包括以下特征中的两个或更多个:(1)在所述姿势期间的子动作的持续时间;(2)所述加速度矢量的幅度;(3)所述角速度矢量的幅度;(4)所述滚动角;和(5)所述俯仰角。所述多维分布函数可以与所述预定义姿势的一个或多个特性相关联。所述多个特征可以被编码在所述传感器数据内,并从所述传感器数据中提取。两个或更多个特征可以是相关的。
所述多维分布函数可以被配置用于返回0和1之间的单个概率值,并且其中所述概率值表示每个特征的概率。在一些情况下,每个特征可以由离散值表示。在其他情况下,每个特征可以沿着连续体是可测量的。可以通过使用奇异值分解(SVD)来计算所述多维分布函数,以对所述两个或更多个相关特征去相关,使得它们彼此近似正交。所述SVD的使用可以减少计算针对所述多维分布函数的概率值所需的处理时间,并且可以减少确定所述用户执行所述预定义姿势的概率所需的传感器数据量。可以通过将每个特征的去相关(旋转)1D可能密度分布相乘来计算多维分布函数,使得多维分布函数f(p1,p2,...,pn)=f(p1)*f(p2)*...*f(pn)。函数f(p1)可以是第一特征的1D概率密度分布,函数f(p2)可以是第二特征的1D概率密度分布,并且函数f(pn)可以是第n个特征的1D概率密度分布。可以从每个特征的采样尺寸获取每个特征的1D概率密度分布。在一些情况下,所述采样尺寸在所有特征上是恒定的。在其他情况下,所述采样尺寸可以在不同特征之间是可变的。可以确定多个特征中的一个或多个是否是在统计学上不显著的。一个或多个统计学上不显著的特征可以与所述预定义姿势具有低相关性。可以从所述多维分布函数中移除所述一个或多个统计学上不显著的特征。从所述多维分布函数中移除所述一个或多个统计学上不显著的特征可以减少计算所述多维分布函数的概率值所需的计算时间和/或功率。
分析所述传感器数据还可以包括将滤波器应用于所述传感器数据。所述滤波器可以是包括有限脉冲响应(FIR)滤波器和/或无限脉冲响应(IIR)滤波器的较高阶复数滤波器。所述滤波器可以是卡尔曼滤波器或帕克斯-麦克莱伦(Parks-McClellan)滤波器。
所述可穿戴设备可以被配置用于将传感器数据传输到用户设备和/或服务器,以用于所述传感器数据的分析。所述传感器数据的传输可以经由一个或多个无线或有线通信信道。所述一个或多个无线通信信道可以包括BLE(蓝牙低能力)、WiFi、3G和/或4G网络。
当所述可穿戴设备没有与所述用户设备和/或所述服务器处于可操作通信中时,可以将所述传感器数据存储在所述可穿戴设备上的存储器中。当所述可穿戴设备与所述用户设备和/或所述服务器之间的可操作通信被重新建立时,可以将所述传感器数据从可穿戴设备传输到所述用户设备和/或所述服务器。
可以将数据压缩步骤应用于所述传感器数据。所述传感器数据的压缩可以减少传输所述传感器数据所需的带宽,并且所述传感器数据的压缩可以减少在所述传感器数据的传输期间所述可穿戴设备的功耗。所述数据压缩步骤可以包括沿着不同的测量轴计算所述传感器数据的采样之间的基于时间的差异。所述基于时间的差异可以从所述可穿戴设备传输到用户设备和/或服务器。可以使用预定义数目的比特来压缩所述传感器数据。
所述一个或多个传感器可以被配置用于以预定频率收集所述传感器数据。所述预定频率可以被配置用于优化和/或减少所述可穿戴设备的功耗。所述预定频率可以为从约10Hz至约20Hz的范围。所述一个或多个传感器可以被配置用于,当所述用户正在执行所述姿势的概率低于预定义阈值时,以第一预定频率收集所述传感器数据。所述一个或多个传感器可以被配置用于,当所述用户正在执行所述姿势的概率高于预定义阈值时,以第二预定频率收集所述传感器数据。所述第二预定频率可以高于所述第一预定频率。所述一个或多个传感器可以被配置用于在预定的持续时间内收集所述传感器数据。所述一个或多个传感器可以被配置用于当所述可穿戴设备通电时实时地连续收集所述传感器数据。
所述一个或多个传感器可以包括第一组传感器和第二组传感器。可以选择性地激活所述第一组传感器和所述第二组传感器以减少所述可穿戴设备的功耗。可以选择性地激活所述第一组传感器和所述第二组传感器以减少所收集的传感器数据量。所述传感器数据量的减少可以允许更快速地分析/处理所述传感器数据,并且减少存储所述传感器数据所需的存储量。当所述可穿戴设备通电时,可以激活所述第一组传感器。可以使用所述第一组传感器来确定所述用户执行所述预定义姿势的概率。当所述用户正在执行所述姿势的概率低于预定义阈值时,所述第二组传感器可以是不起作用的。当所述可穿戴设备通电时以及当所述用户正在执行所述姿势的概率高于预定义阈值时,可以选择性地激活所述第二组传感器。可以在确定所述用户正在执行预定义姿势时选择性地激活第二组传感器。可以激活所述第二组传感器以收集附加的传感器数据,以便确认所述用户正在执行所述预定义姿势,监控所述姿势,以及收集与所述姿势相关的附加传感器数据。
所述可穿戴设备可以被配置用于以多个能量和/或性能模式操作。所述多个模式可以包括低功率模式,在所述低功率模式中开启所述可穿戴设备中的至少一个加速度计。当所述可穿戴设备处于所述低功率模式时,所述可穿戴设备可以具有低功耗。由于在低功率模式下,较少的信息(较少的传感器数据量)可用于进行分析,所以当所述可穿戴设备处于所述低功率模式时可能降低所述预定义姿势的检测精度。所述多个模式可以包括其中所有传感器都被开启的精度模式。当所述可穿戴设备处于所述精度模式时,所述可穿戴设备可以具有高功耗。由于在所述精度模式下较多的信息(较大量的传感器数据)可用于进行分析,所以当所述可穿戴设备处于所述精度模式时可以提高所述预定义姿势的检测精度。在一些情况下,当所述可穿戴设备处于空闲模式或充电模式时,所述传感器数据可以不被分析或传输。
所述传感器数据可以包括以下参数中的至少一个:(1)所述用户用于进行所述姿势的活动手;(2)所述用户的脉冲模式;(3)所述用户的位置;(4)所述可穿戴设备和/或用户设备的标识符;和(5)与所述姿势相关的所述用户的行为统计。可以基于所述参数中的一个或多个来认证所述用户的身份。可以确定所述用户在一天中的不同时间和/或在不同地理位置处执行所述预定义姿势的概率。可以基于一天的不同时间和/或不同的地理位置来调整所述传感器数据收集的频率。可以在所述用户执行所述预定义姿势的概率高于预定阈值的地理位置处和/或一天的时间处增加所述传感器数据收集的频率。可以在所述用户执行所述预定义姿势的概率低于预定阈值的地理位置处和/或一天的时间处降低所述传感器数据收集的频率。可以基于所述用户在一天中的不同时间和/或在不同地理位置执行预定义姿势的概率来选择性地激活所述传感器中的一个或多个。
实施方式#4
一种检测抽烟姿势的方法,可以包括:获取使用一个或多个传感器收集的传感器数据,其中所述传感器包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上;以及,分析所述传感器数据以确定所述用户吸烟的概率,其中部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
实施方式#5
一种用于实现姿势识别的系统可以包括存储器,其用于存储使用一个或多个传感器收集的传感器数据,其中所述传感器可以包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上。所述系统还可以包括一个或多个处理器,其被配置用于执行软件指令集,以分析所述传感器数据以确定所述用户吸烟的概率,其中部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
实施方式#6
一种存储指令的有形计算机可读介质,所述指令当由一个或多个处理器执行时使所述一个或多个处理器执行计算机实现的姿势识别方法。该方法可以包括:获取使用一个或多个传感器收集的传感器数据,其中所述传感器包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上;以及,分析所述传感器数据以确定所述用户吸烟的概率,其中部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
在上述实施方式#4、#5和/或#6中的一个或多个中,分析所述传感器数据可以包括分析所述传感器数据中的一个或多个特征以确定所述用户进行香烟抽吸(puff)的概率。所述特征可以包括以下中的至少一个:(1)在所述用户的口中检测到潜在的香烟的持续时间;(2)所述用户的手臂的滚动角;(3)吸烟者的手臂的俯仰角;(4)潜在吸烟抽吸的持续时间;(5)连续的潜在抽吸之间的持续时间;(6)所述用户完成吸烟的潜在抽吸数目;(7)所述加速度矢量的幅度;(8)所述用户的手臂的速度;(9)与手臂到口的姿势相对应的吸气区域;和/或(10)与手臂从口向下的姿势相对应的呼气区域。可以从所述传感器数据中提取所述特征。
可以基于一个或多个用户输入来调整所述用户吸烟的概率。所述用户输入可以包括:(1)指示所述用户不吸烟的输入信号;(2)指示所述用户已经吸烟的输入信号;和(3)指示所述用户已经吸烟但没有识别或检测到吸烟姿势的输入信号。可以基于所分析的传感器数据和所述一个或多个用户输入来为所述用户生成用户配置文件(UCF)。所述UCF对于多个用户可以是通用的。所述UCF可以在一段时间后变成对于每个用户是唯一的。所述UCF可以被配置用于取决于所述用户的行为而随时间进行适配和改变。所述UCF可以包括与除了吸烟之外的不同活动相关联的用户参数的列表。所述不同的活动可以包括以下中的至少一个:站立、行走、坐着、驾驶、饮用、进食和/或当不管站立还是坐着时的倚靠。当在预定时间段内没有检测到用户的吸烟时,可以动态地改变所述UCF。可以动态地改变所述UCF以验证所述用户在预定时间段内没有吸烟。
基于从所述传感器数据提取的滚动角、俯仰角和/或横摆角,可以确定用户是用右手还是左手吸烟。可以用所述用户的左/右手信息来更新所述UCF。
可以使用与一个或多个吸烟特性相关联的多维分布函数来确定所述概率。所述一个或多个吸烟特性可以包括所述用户进行一个或多个香烟抽吸。可以生成针对每个抽吸的多维分布函数。基于以下来确定所述用户吸烟的概率:(1)潜在抽吸的数目;(2)针对每个潜在抽吸的多维分布函数;和(3)发生潜在抽吸的数目的持续时间。可以确定针对多个潜在抽吸的多维分布函数的和是否等于或大于预定概率阈值。当所述和等于或大于所述预定概率阈值时,可以确定所述用户正在吸烟,并且当所述和小于所述预定概率阈值时,可以确定所述用户没在吸烟。当在预定时间段内已经检测到预定数目的抽吸时,可以确定所述用户正在吸烟。可以分析与所述潜在抽吸相关联的滚动角和俯仰角,并且可以丢弃其滚动角和俯仰角落在预定的滚动/俯仰阈值之外的抽吸。可以分析所述潜在抽吸之间的持续时间,并且可以丢弃所述持续时间在预定时间段之外的抽吸。
可以确定所述用户在一天的不同时间和/或在不同地理位置处吸烟的概率。可以基于一天的不同时间和/或不同的地理位置来调整所述传感器数据收集的频率。在用户吸烟的概率高于预定阈值的地理位置处和/或一天的时间处增加所述传感器数据收集的频率。在用户吸烟的概率低于预定阈值的地理位置处和/或一天的时间处降低所述传感器数据收集的频率。可以基于所述用户在一天中的不同时间和/或在不同地理位置处吸烟的概率来选择性地激活所述传感器中的一个或多个。
应当理解,可以单独地、共同地或彼此组合地理解本公开内容的不同方面。本文所描述的公开内容的各个方面可以被应用于以下阐述的任何特定应用或任何其他类型的能量监控系统和方法。
通过对说明书、权利要求和附图的查看,本公开内容的其他目的和特征将变得显而易见。
援引并入
本说明书中提及的所有出版物、专利和专利申请通过引用并入本文,其程度如同具体和单独地指示通过引用并入每个单独的出版物、专利或专利申请。
附图说明
在所附权利要求中具体阐述了本公开内容的新颖特征。通过参考阐述了说明性实施方式的以下详细描述和附图,将获得对本公开内容的特征和优点的更好理解,在所述说明性实施方式中利用了本公开内容的原理,在附图中:
图1图示出了根据一些实施方式的医疗保健监控系统;
图2图示出了根据一些实施方式的医疗保健监控系统中的示例性组件;
图3图示出了根据一些实施方式的基于来自可穿戴设备上的陀螺仪和/或加速度计的传感器数据来确定可穿戴设备的俯仰角(pitch angle)、滚动角(roll angle)和/或横摆角(yaw angle);
图4图示出了根据一些实施方式的用户正在吸烟时角速度矢量的幅度与参考的相关性;
图5图示出了根据一些实施方式的用户正在进食时加速度矢量和角速度矢量的幅度的相关性;
图6图示出了根据一些实施方式的用户正在刷牙时加速度矢量和角速度矢量的幅度的相关性;
图7图示出了根据一些实施方式的用户正在饮用冷饮时加速度矢量和角速度矢量的幅度的相关性;
图8图示出了根据一些实施方式的(对于单个抽吸(puff))在吸烟发作期间加速度矢量和角速度矢量的幅度的相关性;
图9是根据一些实施方式的作为吸烟抽吸数目的函数的用户吸烟概率的图;
图10是根据一些实施方式的检测用户吸烟的概率的方法的流程图;
图11是根据一些其他实施方式的检测用户吸烟的概率的方法的流程图;
图12是根据一些另外实施方式的检测用户吸烟的概率的方法的流程图;
图13图示出了根据一些实施方式的描绘了用户在一天中吸的香烟数目的示例性窗口;
图14图示出了根据一些实施方式的描绘了吸的香烟在一天中的时间上的分解的示例性窗口;
图15图示出了根据一些实施方式的描绘了用户在一周内的工作日和周末吸的香烟数目的示例性窗口;
图16图示出了根据一些实施方式的描绘了在四周的时间段内吸的香烟在一天的时间上的分解的示例性窗口;
图17图示出了根据一些实施方式的描绘了用户的每日目标的示例性窗口;
图18图示出了根据一些实施方式的对吸烟者相对于组中其他吸烟者的戒烟成功/执行进行排名的示例性窗口;以及
图19图示出了根据一些实施方式的示出用户的多个抽烟度量的示例性窗口。
具体实施方式
现在将详细参考本公开内容的一些示例性实施方式,其示例在附图中图示出。将尽可能地在整个附图和公开内容中使用相同的附图标号来指代相同或相似的部分。
引言
可穿戴设备近年来变得越来越受欢迎。虽然可穿戴设备能够收集有关用户的大量数据,但目前缺乏可以精确且有效地分析大量数据的系统和算法——特别是在某些医疗保健领域中。
本文所描述的本公开内容的实施方式可以使得手到口姿势的实时测量可应用于某些医疗保健领域(例如,为了戒烟而监控吸烟行为等)。数据可以用于帮助用户有效地管理或控制他们的行为/习惯。在一些情况下,医疗保健组织或保险公司可以使用这些数据来为用户量身定制预防行为健康计划,其能够帮助用户改善他们的健康和幸福感。
本公开内容的实施方式可以帮助用户更好地了解他们的行为/习惯,以便更有效地改变他们的行为/习惯。例如,在吸烟的情况下,本公开内容的某些实施方式允许用户看到按时间和位置吸的香烟的数目、抽吸的数目、发生吸烟的社会环境等。可以针对不同的用户生成吸烟统计和警报,并且可以针对戒除计划设置目标。用户还可以将他在戒烟计划中的进展与同一社交网络中的其他用户进行比较。在一些情况下,可向用户实时提供激励来奖励进展并进一步激发用户。
接下来,将参照附图描述本公开内容的各种实施方式。
图1图示出了根据一些实施方式的医疗保健监控系统。在一个方面,医疗保健监控系统100可以包括用户设备102、可穿戴设备104、服务器106、姿势分析引擎108和数据库110。组件102、104、106、108和110中的每一个可以经由网络112或允许数据从一个组件传输到另一个组件的任何类型的通信链路而彼此可操作地连接。姿势分析引擎可以被配置用于分析来自用户设备和/或可穿戴设备的输入数据,以便检测和/或监控预定姿势,并提供信息(例如,建议)以辅助用户管理与预定姿势相关联的行为。姿势分析引擎可以在医疗保健监控系统内部和/或医疗保健监控系统之外的任何地方实现。在一些实施方式中,姿势分析引擎可以在服务器上实现。在其他实施方式中,姿势分析引擎可以在用户设备上实现。另外,姿势分析引擎可以在可穿戴设备上实现。在一些另外的实施方式中,可以在一个或多个服务器、用户设备和/或可穿戴设备上实现多个姿势分析引擎。备选地,姿势分析引擎可以在一个或多个数据库中实现。姿势分析引擎可以在医疗保健监控系统内的一个或多个上面提及的组件中使用软件、硬件或软件和硬件的组合来实现。
用户设备102可以是被配置用于执行与所公开的实施方式一致的一个或多个操作的计算设备。用户设备的示例可以包括但不限于移动设备、智能电话/蜂窝电话、平板电脑、个人数字助理(PDA)、膝上型或笔记本计算机、台式计算机、媒体内容播放器、电视机、视频游戏站/系统、虚拟现实系统、增强现实系统、麦克风或能够向用户分析、接收、提供或显示某些类型的行为数据(例如,吸烟数据)的任何电子设备。用户设备可以是手持对象。用户设备可以是便携式的。用户设备可以由人类用户携带。在一些情况下,用户设备可以位于远离人类用户,并且用户可以使用无线和/或有线通信来控制用户设备。
用户设备102可以包括能够执行非暂时性计算机可读介质的一个或多个处理器,所述非暂时性计算机可读介质可以提供用于与所公开的实施方式一致的一个或多个操作的指令。用户设备可以包括一个或多个存储器储存设备,其包括非暂时性计算机可读介质,所述非暂时性计算机可读介质包括用于执行一个或多个操作的代码、逻辑或指令。用户设备可以包括允许用户设备在可穿戴设备104、服务器106、姿势分析引擎108和/或数据库110之间传送数据以及与之通信的软件应用。用户设备可以包括通信单元,其可以允许与医疗保健监控系统100中的一个或多个其他组件的通信。在一些实例中,通信单元可以包括单个通信模块或多个通信模块。在一些实例中,用户设备可以能够使用单个通信链路或多个不同类型的通信链路来与医疗保健监控系统100中的一个或多个组件交互。
用户设备102可以包括显示器。显示器可以是屏幕。显示器可以是或者可以不是触摸屏。显示器可以是发光二极管(LED)屏幕、OLED屏幕、液晶显示器(LCD)屏幕、等离子屏幕或任何其他类型的屏幕。显示器可以被配置用于示出通过应用(例如,经由在用户设备上执行的应用编程接口(API))呈现的用户界面(UI)或图形用户界面(GUI)。GUI可以示出允许用户监控一个或多个类型的行为(例如吸烟)的图像。用户设备还可以被配置用于显示因特网上的网页和/或网站。网页/网站中的一个或多个可以由服务器106托管和/或由姿势分析引擎108呈现。
用户可以通过应用在GUI内导航。例如,用户可以通过直接触摸屏幕(例如,触摸屏)来选择链接。用户可以通过触摸屏幕上的点来触摸屏幕的任何部分。备选地,用户可以借助于用户交互设备(例如,鼠标、操纵杆、键盘、轨迹球、触摸板、按钮、语言命令、姿势识别、姿态传感器、热传感器、触摸电容传感器或任何其他设备)来选择图像的一部分。触摸屏可以被配置用于检测用户触摸的位置、触摸的长度、触摸的压力和/或触摸动作,由此上述触摸方式中的每一个可以指示来自用户的特定输入命令。
可穿戴设备104可以包括智能手表、腕带、眼镜、手套、头盔(例如帽子、安全帽、虚拟现实耳机、增强现实耳机、头戴式装置(HMD)、头带)、吊坠、臂带、腿带、鞋、背心、运动感测设备等。可穿戴设备可以被配置为被穿戴在用户身体的部位上(例如,智能手表或腕带可穿戴在用户的手腕上)。可穿戴设备可以包括一个或多个类型的传感器。传感器类型的示例可以包括惯性传感器(例如加速度计、陀螺仪和/或重力检测传感器、其可以形成惯性测量单元(IMU))、位置传感器(例如全球定位系统(GPS)传感器、支持位置三角测量的移动设备发射机)、心率监控器、外部温度传感器、皮肤温度传感器、电容式触摸传感器、被配置用于检测皮肤电反应(GSR)的传感器、视觉传感器(例如能够检测可见光、红外线或紫外线的成像设备,诸如相机)、接近度或范围传感器(例如超声波传感器、激光雷达、飞行时间或深度相机)、高度传感器、姿态传感器(例如罗盘)、压力传感器(例如气压计)、湿度传感器、振动传感器、音频传感器(例如麦克风)和/或场传感器(例如磁力计、电磁传感器、无线电传感器)。
可穿戴设备104还可以包括能够将信号发出到环境中的一个或多个设备。例如,可穿戴设备可以包括沿着电磁光谱的发射器(例如可见光发射器,紫外发射器,红外发射器)。可穿戴设备可以包括激光器或任何其他类型的电磁发射器。可穿戴设备可以发出一个或多个振动,诸如超声波信号。可穿戴设备可以(例如,从扬声器)发出可听的声音。可穿戴设备可以发出诸如无线电信号或其他类型的信号之类的无线信号。
本文可以存在于可穿戴设备104中的传感器的任何示例也可以应用于用户设备102。例如,可以将一个或多个不同的传感器并入到用户设备102中。
尽管图1将用户设备102和可穿戴设备104图示为两个分离的设备,但是本公开内容不限于此。在一些实施方式中,用户设备和可穿戴设备可以集成到单个设备中。在一些实施方式中,可以将可穿戴设备并入到用户设备中。在其他实施方式中,可以将用户设备并入到可穿戴设备中。备选地,用户设备可以能够执行可穿戴设备的一个或多个功能。可选地,可穿戴设备可以能够执行用户设备的一个或多个功能,并且用户设备可以能够执行可穿戴设备的一个或多个功能。
用户设备102和可穿戴设备104可以由与所公开的实施方式一致的一个或多个用户操作。在一些实施方式中,用户可以与唯一的用户设备和唯一的可穿戴设备相关联。备选地,用户可以与多个用户设备和可穿戴设备相关联。如本文所述的用户可以指代寻求通过医疗保健监控系统100改善其幸福感的个体或个体群组。例如,吸烟者或吸烟者群组可能希望戒烟。患有酒瘾的个人或个人群组可能希望戒酒。患有过度饮食失调的个人或个人群组可能希望减少其食物摄入。上述用户可以使用医疗保健监控系统100来控制和管理这些行为。
用户可以注册到提供与由所公开的实施方式执行的一个或多个操作相关联的服务的实体,或者与之相关联。例如,用户可以是实体的注册用户(例如,公司、组织、个体等),所述实体提供姿势分析引擎108以执行用于辅助用户管理某些类型的行为(例如,抽烟)的操作。所公开的实施方式不限于用户设备102和可穿戴设备104的用户与提供姿势分析引擎108的实体、个人或多个实体之间的任何特定关系或关联。
用户设备102和/或可穿戴设备104可以被配置用于接收来自一个或多个用户的输入。用户可以使用输入设备例如键盘、鼠标、触摸屏面板、语音识别和/或听写软件或上述的任何组合来向用户设备和/或可穿戴设备提供输入。用户输入可以包括与某些类型的行为(例如吸烟)相关的陈述、评论、问题或答案。不同的用户可以提供不同的输入。例如,用户可以提供输入以指示用户在预定时间段内是否正在吸烟或已经吸了烟。在一些实例中,输入还可以指示在旨在减轻某些行为(例如,吸烟)的计划课程期间用户感觉如何(例如,用户感到被激发还是气馁)。在这些实例中,用户的输入可以指示与吸烟有关的用户的想法、感觉、情绪、意见、问题和/或答案。
服务器106可以是被配置用于执行与所公开的实施方式一致的一个或多个操作的一个或多个服务器计算机。在一个方面,服务器可以被实现为单个计算机,通过该单个计算机,用户设备102和可穿戴设备104能够与姿势分析引擎108和数据库110通信。在一些实施方式中,用户设备和/或可穿戴设备可以通过网络直接与姿势分析引擎通信。在一些实施方式中,服务器可以通过网络来代表用户设备和/或可穿戴设备与姿势分析引擎或数据库进行通信。在一些实施方式中,服务器可以体现一个或多个姿势分析引擎的功能性。在一些实施方式中,可以在服务器内部和/或外部实现一个或多个姿势分析引擎。例如,姿势分析引擎可以是包括在服务器中或远离服务器的软件和/或硬件组件。
在一些实施方式中,用户设备和/或可穿戴设备可以通过单独的链路(图1中未示出)直接连接到服务器。在某些实施方式中,服务器可以被配置用于操作为前端设备,其被配置用于提供对与某些公开的实施方式一致的一个或多个姿势分析引擎的访问。在一些实施方式中,服务器可以利用一个或多个姿势分析引擎来分析来自用户设备和/或可穿戴设备的输入数据,以便检测和/或监控预定姿势,并且提供信息(例如,建议)以辅助用户管理与预定姿势相关联的行为。服务器还可以被配置用于存储、搜索、取回和/或分析存储在一个或多个数据库中的数据和信息。数据和信息可以包括从一个或多个可穿戴设备上的加速度计和陀螺仪收集的原始数据,以及每个用户的与行为类型(例如吸烟)相关的历史行为模式和社交交互。虽然图1将服务器图示为单个服务器,但是在一些实施方式中,多个设备可以实现与服务器相关联的功能性。
服务器可以包括网络服务器、企业服务器或任何其他类型的计算机服务器,并且可以被计算机编程以接受来自计算设备(例如用户设备和/或可穿戴设备)的请求(例如HTTP或者可以发起数据传输的其他协议)并且以向计算设备提供所请求的数据。此外,服务器可以是用于分发数据的广播设施,诸如免费、有线、卫星和其他广播设施。服务器也可以是数据网络(例如,云计算网络)中的服务器。
服务器可以包括已知的计算组件,诸如一个或多个处理器、存储由处理器执行的软件指令和数据的一个或多个存储器设备。服务器可以具有一个或多个处理器和用于存储程序指令的至少一个存储器。处理器可以是能够执行特定指令集的单个或多个微处理器、现场可编程门阵列(FPGA)或数字信号处理器(DSP)。计算机可读指令可以存储在有形的非暂时性计算机可读介质上,诸如软盘、硬盘、CD-ROM(紧凑盘-只读存储器)和MO(磁光)、DVD-ROM(数字多功能盘-只读存储器)、DVD RAM(数字多功能盘-随机存取存储器)或半导体存储器。备选地,该方法能够以硬件组件或硬件和软件的组合来实现,诸如ASIC、专用计算机或通用计算机。
虽然图1将服务器图示为单个服务器,但是在一些实施方式中,多个设备可以实现与服务器相关联的功能性。
网络112可以是被配置用于提供图1所图示的各种组件之间的通信的网络。在一些实施方式中,网络可以被实现为连接网络布局中的设备和/或组件以允许它们之间的通信的一个或多个网络。例如,用户设备102、可穿戴设备104和姿势分析引擎108可以通过网络112彼此处于可操作通信中。可以在两个或更多个上述组件之间提供直接通信。可以在不需要任何中间设备或网络的情况下发生直接通信。可以在两个或更多个上述组件之间提供间接通信。可以借助于一个或多个中间设备或网络发生间接通信。例如,间接通信可以利用电信网络。可以借助于一个或多个路由器、通信塔、卫星或任何其他中间设备或网络来执行间接通信。通信类型的示例可以包括但不限于经由以下的通信:因特网、局域网(LAN)、广域网(WAN)、蓝牙、近场通信(NFC)技术、基于移动数据协议的网络诸如通用分组无线业务(GPRS)、GSM、增强型数据GSM环境(EDGE)、3G、4G或长期演进(LTE)协议、红外(IR)通信技术和/或Wi-Fi,以及可以是无线、有线或其组合。在一些实施方式中,可以使用蜂窝和/或寻呼机网络、卫星、许可无线电或者已许可和未许可的无线电的组合来实现网络。网络可以是无线的、有线的或其组合。
用户设备102、可穿戴设备104、服务器106和/或姿势分析引擎110可以连接或互连至一个或多个数据库110。数据库可以是被配置用于存储数据的一个或多个存储器设备。另外,在一些实施方式中,数据库还可以被实现为具有储存设备的计算机系统。在一个方面,数据库可以由网络布局的组件使用以执行与所公开的实施方式一致的一个或多个操作。
在一个实施方式中,数据库可以包括包含与所公开的实施方式一致的各种数据集的储存器。例如,数据库可以包括例如由位于可穿戴设备104上的加速度计和陀螺仪所收集的原始数据。数据库还可以包括用户的偏好、历史行为模式、与行为类型相关联的特点、用户的生活方式的改变和/或改善、用户在管理或克服某些类型的行为方面的成功、用户与特定类型的行为相关的社交交互、指示用户在不同时间点感觉如何的陈述或评论等。在一些实施方式中,数据库可以包括源自人群的数据,其包括与从互联网论坛和社交媒体网站获取的用户戒烟尝试相关的评论和见解。因特网论坛和社交媒体网站可以包括个人和/或群组博客,FacebookTM,TwitterTM等。此外,在一些实施方式中,数据库可以包括源自人群的数据,其包括与其他用户尝试戒烟相关的评论和见解,由此,这些评论和见解由一个或多个其他用户直接输入到姿势分析引擎中。源自人群的数据可以包含有关在试图戒烟的其他用户的进展情况的最新信息或当前信息、关于戒烟方式的建议等。源自人群的数据可以由具有试图戒烟的经验或者已经成功设法戒烟的其他用户提供。
在某些实施方式中,数据库中的一个或多个可以与服务器共同定位、可以彼此共同定位在网络上、或者可以与其他设备分开定位(由将数据库连接到网络的虚线来表示)。本领域普通技术人员将认识到,所公开的实施方式不限于数据库的配置和/或布置。
在一些实施方式中,用户设备、可穿戴设备、服务器、姿势分析引擎和数据库中的任何一个可以被实现为计算机系统。另外,在图1中将网络示出为用于组件之间的通信的“中心”点,但是所公开的实施方式不限于此。例如,网络布局的一个或多个组件可以以各种方式互连,并且在一些实施方式中,如本领域普通技术人员将会理解的那样,可以彼此直接连接、彼此共同定位或彼此远离。另外,虽然一些公开的实施方式可以在服务器上实现,但是所公开的实施方式不限于此。例如,在一些实施方式中,其他设备(诸如姿势分析系统和/或数据库)可以被配置用于执行与所公开的实施方式——包括关于服务器所描述的实施方式一致的一个或多个过程和功能性。
虽然图示了特定的计算设备和所描述的网络,但是应当了解和理解,在不脱离本文所描述的实施方式的精神和范围的情况下,可以利用其他计算设备和网络。此外,网络布局的一个或多个组件可以以各种方式互连,并且在一些实施方式中,如本领域普通技术人员将会理解的那样,可以彼此直接连接、彼此共同定位或彼此远离。
姿势分析引擎可以被实现为存储指令的一个或多个计算机,所述指令在由处理器执行时分析来自用户设备和/或可穿戴设备的输入数据,以便检测和/或监控预定姿势,并提供信息(例如,建议)以辅助用户管理与预定姿势相关联的行为。姿势分析引擎还可以被配置用于存储、搜索、取回和/或分析存储在一个或多个数据库中的数据和信息。数据和信息可以包括从一个或多个可穿戴设备上的加速度计和陀螺仪收集的原始数据,以及每个用户的与行为类型(例如吸烟)相关的历史行为模式和社交交互。在一些实施方式中,服务器106可以是在其中实现了姿势分析引擎的计算机。
然而,在一些实施方式中,一个或多个姿势分析引擎108可以从服务器106远程实现。例如,用户设备可以向服务器106发送用户输入,并且服务器可以通过网络112连接到一个或多个姿势分析引擎108以取回、过滤和分析来自一个或多个远程定位的数据库110的数据。在其他实施方式中,姿势分析引擎可以表示软件,所述软件当被一个或多个处理器执行时执行用于分析数据的过程,以检测和/或监控预定姿势,以及提供信息(例如,建议)以辅助用户管理或克服某些类型的行为。
服务器可以访问和执行姿势分析引擎以执行与所公开的实施方式一致的一个或多个过程。在某些配置中,姿势分析引擎可以是存储在服务器可访问的存储器中(例如,在对服务器而言是本地的存储器中或者通过诸如网络的通信链路可访问的远程存储器中)的软件。因此,在某些方面,姿势分析引擎可以被实现为一个或多个计算机、实现为存储在服务器可访问的存储器设备中的软件或其组合。例如,一个姿势分析引擎可以是执行一个或多个姿势识别技术的计算机,并且另一姿势分析引擎可以是当被服务器执行时执行一个或多个姿势识别技术的软件。
以下将参考图2详细描述姿势分析引擎的功能及其与用户设备和可穿戴设备的通信。虽然本文中使用监控或戒除吸烟行为作为示例来描述各种实施方式,但是应当注意,本公开内容不限于此,并且可以用于监控吸烟以外的其他类型的行为和活动。
图2图示出了根据一些实施方式的医疗保健监控系统中的示例性组件。参考图2,医疗保健监控系统200可以包括用户设备102、可穿戴设备104和姿势分析引擎108。如前所述,在服务器内部和/或外部均可以实现姿势分析引擎。例如,姿势分析引擎可以是包括在服务器中或远离服务器的软件和/或硬件组件。在一些实施方式中,姿势分析引擎(或姿势分析引擎的一个或多个功能)可以在用户设备和/或可穿戴设备上实现。备选地,用户设备、可穿戴设备和/或服务器可以被配置用于执行姿势分析引擎的不同功能。可选地,可以跨在用户设备、可穿戴设备和/或服务器上复制姿势分析引擎的一个或多个功能。
在图2的示例中,可穿戴设备104可以包括至少一个传感器105。例如,可穿戴设备可以包括加速度计105-1和陀螺仪105-2。如本文其他地方所描述的一个或多个其他类型的传感器可并入到可穿戴设备中。
用户设备和/或可穿戴设备可以被配置用于向姿势分析引擎提供输入数据114。输入数据可以包括传感器数据114a、用户输入114b、用户位置114c、历史行为数据114d和社交网络交互数据114e。
传感器数据可以包括由可穿戴设备上的加速度计和陀螺仪收集的原始数据。传感器数据可以存储在可穿戴设备、用户设备和/或服务器上的存储器中。在一些实施方式中,传感器数据可以存储在一个或多个数据库中。数据库可以位于服务器、用户设备和/或可穿戴设备上。备选地,数据库可以位于远离服务器、用户设备和/或可穿戴设备。
用户输入可以由用户经由用户设备和/或可穿戴设备来提供。用户输入可以对由姿势分析引擎提供的问题进行回复。问题的示例可以包括:用户当前是否吸烟,用户是否在预定时间段内(例如,最近8小时内)吸烟,在预定时间段内吸的香烟数目,用户吸烟的时间和地点、香烟品牌、用户是否计划吸那个香烟,用户是单独吸烟还是与他人吸烟、用户与吸烟相关的特定时刻的感觉如何等等。用户对这些问题的回复可以用来补充传感器数据以确定当前或未来吸烟发作的概率,并预测用户何时/何地可能吸烟。可以使用机器学习过程来分析从用户输入获取的信息。
用户位置可以由用户设备和/或可穿戴设备上的位置传感器(例如,GPS接收机)来确定。用户位置可以用于确定用户正在吸烟或可能吸烟的地方。用户位置也可以用来补充传感器数据以确定当前或未来吸烟发作的概率。
历史行为数据可以对应于在预定时间段上收集的吸烟相关数据。历史行为数据可以存储在可穿戴设备、用户设备和/或服务器上的存储器中。在一些实施方式中,历史行为数据可以存储在一个或多个数据库中。数据库可以位于服务器、用户设备和/或可穿戴设备上。备选地,数据库可以位于远离服务器、用户设备和/或可穿戴设备。
可以从由姿势分析引擎提供的应用(例如,移动应用)获取社交网络交互数据。应用可以允许用户在应用内挑选一个社交群组,并将他/她的表现与社交群组中的其他用户进行比较。社交群组可以由用户定义。社交群组中的用户可能正在寻求使用该应用来管理或控制某种类型的行为或习惯(例如吸烟)。与该群组中的其他用户相比,用户的表现可以包括用户在管理该类型的行为或习惯方面的成功和/或失败。
姿势分析引擎可以被配置用于从位于可穿戴设备和/或用户设备上的至少一个传感器获取传感器数据。例如,姿势分析引擎可以被配置用于从位于可穿戴设备上的加速度计和/或陀螺仪获取传感器数据。如前所述,可穿戴设备可被用户穿戴(例如,在用户的手腕上)。姿势分析引擎还可以被配置用于分析传感器数据以确定用户执行预定义姿势的概率。可以在不将运动矢量与一个或多个物理运动轮廓(profile)进行比较的情况下,部分地基于传感器数据中的运动矢量的幅度来确定概率。
姿势的类型
预定义姿势可以与以下活动中的至少一个相关联并且对以下活动中的至少一个而言是唯一的:吸烟、饮酒、进食、刮胡、刷牙、咬指甲、呕吐或慢性咳嗽。姿势分析引擎可以被配置用于确定用户执行以上活动中的一个或多个的概率。可以在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下并且至少基于传感器数据中的不同运动矢量的幅度,来将与不同活动相关联的姿势相互区分。
在一些情况下,姿势分析引擎可以基于传感器数据中的运动矢量的幅度及其持续时间来确定用户是否正在饮用热液体或饮用冷液体。在其他情况下,姿势分析引擎可以能够基于传感器数据中的运动矢量的幅度及其持续时间来确定用户对不同类型食物的消耗。例如,姿势分析引擎可以基于啜饮次数、啜饮持续时间、滚动、俯仰等来标识热饮或冷饮。姿势分析引擎还可以标识正在消耗的食物的一般类型(例如,用户是否在用勺子喝汤、用刀叉吃固体食物、吃零食、使用筷子等)。因此,姿势分析引擎可以能够检测每个活动内的各种子类别。
在一些情况下,预定义姿势可以与引起用户的肢体的重复运动和/或振动的神经系统疾病相关联。姿势分析引擎可以被配置用于确定用户执行预定义姿势的概率,以便确定用户正在遭受神经系统疾病的程度。
传感器数据
如前所述,可以将加速度计安置在可穿戴设备上。在一些实施方式中,加速度计可以是诸如n轴加速度计的多轴加速度计,其中n可以是等于或大于2的整数。例如,在一些实施方式中,加速度计可以是3-轴加速度计。加速度计可以能够沿着相对于可穿戴设备而定义的局部坐标系中的X轴、Y轴和Z轴来测量加速度。
因此,在这些实施方式中,传感器数据中的运动矢量可以是加速度矢量,并且运动矢量的幅度可以对应于加速度矢量的幅度。加速度矢量可以包括沿着加速度计的不同轴所测量的多个加速度分量。例如,沿着X轴、Y轴和Z轴的多个加速度分量可以分别由Ax、Ay和Az给出。每个加速度分量可以是矢量。加速度矢量的幅度可以由下式给出:Am=SQRT(Ax 2+Ay 2+Az 2)。加速度矢量的幅度可以是标量。
姿势分析引擎可以被配置用于部分地基于加速器矢量的幅度来确定用户执行预定义姿势的概率。例如,姿势分析引擎可以被配置用于:在不将加速度矢量(和/或加速度矢量中的每个加速度分量)与一个或多个物理运动轮廓进行比较的情况下,部分地基于不同时间段内的加速度矢量的幅度来确定概率。
在一些实施方式中,可穿戴设备的俯仰角和/或滚动角可以通过姿势分析引擎使用沿着X轴,Y轴和Z轴的加速度分量来计算。在一些情况下,俯仰角可以由θ=arctan[Ay/SQRT(Ax 2+Az 2)]给出。在一些实施方式中,可以使用沿X轴和Z轴的加速度分量来计算可穿戴设备的滚动角。在一些情况下,滚动角度可由下式给出:φ=arctan[-Ax/Az]。俯仰角和滚动角可以分别指示用户的身体的一部分(其中穿戴了可穿戴设备)分别围绕Y轴和X轴的旋转运动。在一些实施方式中,姿势分析引擎可以被配置用于部分地基于俯仰角和/或滚动角来确定用户执行预定义姿势的概率。
如前所述,也可以将陀螺仪安置在可穿戴设备上。在这些实施方式中,传感器数据中的运动矢量可以是角速度矢量,并且运动矢量的幅度可以对应于角速度矢量的幅度。角速度矢量可以包括沿着陀螺仪的不同轴测量的多个角速度分量。
姿势分析引擎可以被配置用于:在不将角速度矢量与一个或多个物理运动轮廓进行比较的情况下,部分地基于角速度矢量的幅度来确定用户执行预定义姿势的概率。例如,姿势分析引擎可以被配置用于部分地基于不同时间段内的角速度矢量的幅度来确定概率。
在一些实施方式中,如图3所示,可穿戴设备的俯仰角、滚动角和/或横摆角度可以基于来自可穿戴设备上的陀螺仪和/或加速度计的传感器数据来确定。俯仰角、滚动角和/或横摆角可以指示用户身体的部位围绕在可穿戴设备上所定义的局部坐标系中的X轴、Y轴和Z轴的旋转运动。在图3中,俯仰角可以指示用户的手腕围绕Y轴的旋转运动,滚动角可以指示用户的手腕围绕X轴的旋转运动,并且横摆角可以指示用户手腕围绕Z轴的旋转运动。可以将来自可穿戴设备的传感器数据传输到用户设备,该用户设备随后可以将传感器数据传输到姿势分析引擎。在一些实施方式中,来自可穿戴设备的传感器数据可以直接传输到姿势分析引擎而不经过用户设备。姿势分析引擎可以被配置用于部分地基于俯仰角、滚动角和/或横摆角来确定用户执行预定义姿势的概率。
在一些实施方式中,姿势分析引擎可以被配置用于:在不将加速度矢量以及角速度矢量与一个或多个物理运动轮廓进行比较的情况下,部分地基于加速度矢量的幅度和角速度矢量的幅度来确定用户执行预定义姿势的概率。如前所提及,预定义姿势可以与诸如吸烟、饮酒、刷牙和吸饮等活动相关联并且对这些活动而已是唯一的。姿势分析引擎可以被配置用于确定用户执行以上活动中的一个或多个的概率。可以至少基于传感器数据中的不同运动矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来将与不同活动相关联的姿势相互区分。
图4、图5、图6和图7图示出了根据一些实施方式的用户正在执行不同的活动(姿势)时由可穿戴设备上的加速度计和陀螺仪收集的数据。例如,图4的部分A和部分B分别图示出了用户正在吸烟时角速度矢量和加速度矢量的幅度。如图4所示,部分A中的角速度矢量和部分B中的加速度矢量的幅度显示时间相关性,如圆圈区域所指示的。通过在不同的时间段上将A部分中的角速度矢量与B部分中的加速度矢量的幅度进行比较,姿势分析引擎可以确定用户的姿势对应于吸烟的概率。例如,在图4中,数据可以指示用户已经进行四根香烟抽吸(如部分A中的四个圆圈区域所指示)。
可以将上述分析扩展到其他类型的行为或活动。例如,图5的部分A和部分B分别图示出了用户正在进食时的加速度矢量和角速度矢量的幅度。图5的部分A和部分B中的圆圈区域图示出了用户正在进食时的加速度矢量与角速度矢量的幅度之间的相关性。
图6的部分A和部分B分别图示出了当用户正在刷牙时加速度矢量和角速度矢量的幅度。在图6中,尽管加速度矢量的幅度以高频率变化(在部分A中示出),但是可以观察到角速度矢量的幅度以较低频率变化。仍然可以进行相关——因为加速度矢量和角速度矢量的这种幅度模式可能是刷牙唯一的。
图7的部分A和部分B分别图示出了当用户正在喝冷饮时加速度矢量和角速度矢量的幅度。如图7所示,加速度矢量与角速度矢量的幅度之间也存在相关性。
比较图5、图6和图7,可以看出,加速度矢量和角速度矢量的幅度在不同的活动之间是不同的(并且以不同的频率变化),因此可以用于在不同的活动之间进行区分。特别而言,根据本公开内容中所描述的各种实施方式,在不将矢量与实际的物理运动轮廓(或模式)进行比较的情况下,并且通过在不同的时间段内单独地比较矢量的幅度,可以减少检测与行为/活动相关联的姿势所需的处理功率和/或时间。
在一些实施方式中,姿势分析引擎可以被配置用于确定在相同/不同的时间周期内的加速度矢量的幅度和角速度矢量之间的相关性,以便确定用户执行预定义姿势的概率。图8图示出了根据一些实施方式的用户正在吸烟时由在可穿戴设备上的加速度计和陀螺仪所收集的数据。图8的部分A和部分B分别图示出了当用户吸烟时的加速度矢量和角速度矢量的幅度(对于单个抽吸)。在抽烟发作的单个抽吸期间,用户可以首先将香烟带到口中(手到口的姿势)、吸气(进行抽吸)、从口中取出香烟(口到手的姿势)、以及呼气。在图8的区域802中,用户的手可以处于静止位置。在区域804中,用户可以将香烟带到口中。在区域806中,用户可以正在进行抽吸(吸气)。在区域808中,用户可以从口中取出香烟并呼气。在区域810中,用户的手可以再次处于静止位置。如图8所示,加速度矢量和角速度矢量的幅度可以显示针对吸烟姿势的每个子动作的相关性。
传感器数据的统计分析,以确定用户执行预定义姿势的概率
姿势分析引擎可以被配置用于在不将传感器数据与一个或多个物理运动轮廓模式进行比较的情况下分析传感器数据。本文使用的物理运动轮廓模式可以是指具有与用户的对应物理姿势基本相同的轮廓的任何模式。物理运动轮廓模式的形状可以基本上类似于用户的相应物理姿势的形状。例如,如果用户物理上做出一个L形姿势,则对应的物理运动轮廓模式可以具有基本上L形的形状。
在一些实施方式中,姿势分析引擎可以被配置用于计算多维分布函数,所述多维分布函数是传感器数据中的多个特征的概率函数。可以从传感器数据中提取特征。多个特征可以包括由p1到pn标注的n个特征,其中n可以是大于1的任何整数。多维分布函数可以由f(p1,p2,...,pn)表示。
多个特征可以与预定义姿势的各种特征相关联。例如,在一些实施方式中,多个特征可以包括以下特征中的两个或更多个:(1)在姿势期间的子动作的持续时间;(2)加速度矢量的幅度;(3)角速度矢量的幅度;(4)滚动角;(5)俯仰角;和/或(6)横摆角。子动作可以是例如手到口姿势和/或口到手姿势。因此,取决于由姿势分析引擎选择和分析的特征的类型,多维分布函数可以与预定义姿势的一个或多个特征相关联。多维分布函数可以被配置用于返回在0和1之间的单个概率值,其中概率值表示针对每个特征的可能值的范围上的概率。每个特征可以由离散值表示。此外,每个特征沿着连续体可以是可测量的。可以在传感器数据内对多个特征进行编码,并且使用姿势分析引擎108从传感器数据中提取多个特征。
在一些实施方式中,两个或更多个特征可以相关。姿势分析引擎可以被配置用于通过使用奇异值分解(SVD)来计算多维分布函数以对特征进行去相关,使得特征彼此近似正交。使用SVD可以减少计算针对多维分布函数的概率值所需的处理时间,并且可以减少姿势分析引擎为了确定用户正在执行预定义姿势的高概率(统计学上显著的)所需的数据量。
在一些实施方式中,姿势分析引擎可以被配置用于通过将每个特征的去相关(旋转)1D可能密度分布相乘来计算多维分布函数,使得多维分布函数f(p1,p2,...,pn)=f(p1)*f(p2)*...*f(pn)。函数f(p1)可以是第一特征的1D概率密度分布,函数f(p2)可以是第二特征的1D概率密度分布,函数f(p3)可以是第三特征的1D概率密度分布,函数f(pn)可以是第n个特征的1D概率密度分布。每个特征的1D概率密度分布可以从每个特征的采样尺寸获取。在一些实施方式中,所有特征的采样尺寸可以是恒定的。在其他实施方式中,在不同特征之间采样尺寸可以是可变的。
在一些实施方式中,姿势分析引擎可以被配置用于确定多个特征中的一个或多个在统计学上是否是不显著的。例如,一个或多个统计学上不显著的特征可能与预定义姿势具有低相关性。在一些实施方式中,姿势分析引擎可以被进一步配置用于从多维分布函数中移除一个或多个统计学上不显著的特征。通过从多维分布函数中移除一个或多个统计学上不显著的特征,可以减少计算针对多维分布函数的概率值所需的计算时间和/或功率。
吸烟统计示例
在一些实施方式中,姿势分析引擎可以被配置用于分析传感器数据以确定用户吸烟的概率。可以部分地基于传感器数据中的加速度矢量和/或角速度矢量的幅度并且在不将加速度矢量和/或角速度矢量与一个或多个物理运动轮廓进行比较的情况下来确定概率。在这些实施方式中,姿势分析引擎可以被配置用于分析传感器数据中的一个或多个特征以确定用户进行香烟抽吸的概率。特征可以包括以下中的至少一个:(1)在用户的口中检测到潜在的香烟的持续时间;(2)用户的手臂的滚动角;(3)吸烟者的手臂的俯仰角;(4)潜在吸烟抽吸的持续时间;(5)连续的潜在抽吸之间的持续时间;(6)用户完成吸烟的潜在抽吸数目;(7)加速度矢量的幅度;(8)用户的手臂的速度;(9)与手臂到口的姿势相对应的吸气区域;和(10)与手臂从口向下的姿势相对应的呼气区域。
姿势分析引擎可以从传感器数据中提取特征并将它们插入到数学函数中以获取这些特征与吸烟姿势匹配的置信度(0-100%)水平。如果置信水平较高,则姿势分析引擎可以确定用户已经吸了香烟。数学函数表示用户统计。不同的用户具有不同的统计和函数。数学函数可以由其多项式系数(a’s)表示。因此,该函数可以由一组数字(a’s)定义。例如,在下面的等式中,P是函数,x是插入到函数中的特征,并且a’s是表示函数的系数。
在一些实施方式中,姿势分析引擎可以被配置用于计算与一个或多个吸烟特性相关联的多维分布函数。一个或多个吸烟特性可以与用户进行香烟抽吸相关联。姿势分析引擎可以被配置用于生成针对每个抽吸的多维分布函数。姿势分析引擎可以被配置用于基于以下来确定用户吸烟的概率:(1)潜在抽吸的数目;(2)针对每个潜在抽吸的多维分布函数;和(3)发生潜在抽吸的数目的持续时间。姿势分析引擎可以被配置用于确定针对多个潜在抽吸的多维分布函数的和是否等于或大于预定概率阈值。例如,当和等于或大于预定概率阈值时,姿势分析引擎可以确定用户正在吸烟,并且当和小于预定概率阈值时,确定用户没在吸烟。在一些实施方式中,当在预定时间段内已经检测到预定数目的抽吸时,姿势分析引擎可以确定用户正在吸烟。对于在一些情况下,预定数目的抽吸可以是至少三次抽吸,并且预定时间段可以是约五到六分钟。姿势分析引擎可以被配置用于分析与潜在抽吸相关联的滚动和俯仰角,并且丢弃其滚动角和俯仰角落在预定的滚动/俯仰阈值之外的那些抽吸。姿势分析引擎还可以被配置用于分析潜在抽吸之间的持续时间,并且丢弃持续时间落在预定时间段之外的抽吸。
图9是根据一些实施方式的作为吸烟抽吸数目的函数的用户吸烟概率的图。姿势分析引擎(例如,姿势分析引擎)可以被配置用于分析传感器数据以确定用户吸烟的概率。在一些情况下,如图9所示,姿势分析引擎可以基于第一次抽吸来确定用户吸烟的概率约83%。第一次抽吸可能是一次实际的香烟抽吸。当用户进行第二次抽吸时,姿势分析引擎可以确定用户实际吸烟的概率约95%。到用户进行第三次抽吸的时候,姿势分析引擎可以确定用户实际吸烟的概率约99%。因此,姿势分析引擎可以基于潜在的检测到的抽吸数目来确定用户是否正在吸烟。在一些情况下,姿势分析引擎可以能够基于第一次抽吸来确定用户的高概率(例如,99%)。
自适应姿势识别
如前所述,输入数据可以包括由用户提供的用户输入。姿势分析引擎可以被配置用于基于一个或多个用户输入来调整用户吸烟的概率。用户输入可以包括:(1)指示用户不吸烟的输入信号;(2)指示用户已经吸烟的输入信号;和(3)指示用户已经吸烟但没有识别或检测到吸烟姿势的输入信号。
在一些实施方式中,姿势分析引擎可以实现具有针对特定类型的行为或姿势适合于普通人(每个人)的广泛统计的算法。该算法可以被配置用于随着时间使统计适于特定人员。每个人可以随后拥有具有他/她个人统计的唯一配置文件,如下所述。
例如,姿势分析引擎可以被配置用于基于所分析的传感器数据和一个或多个用户输入来为用户生成用户配置文件(UCF)。最初,姿势分析引擎可以生成通用UCF。通用UCF可以是通用的并且对于任何用户都是非特定的。通用UCF可以包括与吸烟相关联的用户参数的列表。此外,通用UCF可以包括与吸烟之外的不同活动相关联的用户参数的列表。这些活动的示例可以包括以下中的至少一个:站立、行走、坐着、驾驶、饮酒、进食和当不管站立还是坐着时的倚靠。倚靠可以与用户的肘部相关联。例如,用户可以坐着并且肘部倚靠在物体上。在一些实施方式中,姿势分析引擎可以被配置用于除了通用UCF之外还为用户生成左手UCF和/或右手UCF。在一些实施方式中,可以将左手UCF和/或右手UCF并入通用UCF中。
UCF可以被配置用于取决于用户的行为来随着时间进行适配和改变。因此,在姿势分析引擎已经收集并分析了用户的历史行为数据一段时间之后,姿势分析引擎可以基于对通用UCF和/或左手/右手UCF的改变来生成用户唯一的个人UCF。
在一些实施方式中,姿势分析引擎可以被配置用于当系统检测到用户在预定时间段内尚未执行预定义姿势时动态地改变通用UCF、左/右UCF和/或个人UCF。例如,当系统检测到用户在预定时间段内尚未吸烟时,可以动态地改变上述UCF中的一个或多个。在一些实施方式中,系统可以向用户(在用户设备和/或可穿戴设备上)发送问题或提示,请求用户验证在预定时间段内他/她没有吸烟。
在一些实施方式中,姿势分析引擎可以被配置用于基于从传感器数据获取的滚动角和俯仰角来确定用户是用右手还是左手吸烟。在这些实施方式中,姿势分析引擎可以被配置用于用用户的左/右手信息来更新左/右手UCF。
个性化信息的递送
在一些实施方式中,姿势分析引擎可以被配置用于将(除了来自传感器数据的特征外的)附加特征包括到多维分布函数中。例如,这些附加特征可以与用户输入、用户位置、用户的历史行为数据和/或用户的社交网络交互相关联。可以从不是基于传感器的数据中提取这些附加特征。
姿势分析引擎可以被配置用于使用一个或多个统计函数来分析输入数据,并且将分析的数据提供给姿势分析引擎。姿势分析引擎可以包括自然语言处理(NLP)聚类和/或机器学习能力。NLP聚类可以基于机器学习,例如统计机器学习。统计机器学习可以基于统计推理。姿势分析引擎可以被配置用于学习与预定义姿势相关联的度量或特性,并且确定用户在管理某些类型的行为方面的进展。这个机器学习可以通过分析存储在一个或多个数据库中的现实世界输入的大型语料库来实现姿势分析引擎。姿势分析引擎可以包括能够依赖于其上下文(例如,何时何地以及在何种情况下执行姿势)做出基于附加实值权重的软性概率决策的统计模型。统计模型对于不熟悉的输入(例如,用户的新的手臂运动)和错误的输入(例如姿势的错误检测)可以是鲁棒的。
姿势分析引擎可以被配置用于通过将信息传输到用户设备和/或可穿戴设备来向用户递送个性化信息(例如,建议)。该信息随后可以在用户设备和/或可穿戴设备上显示给用户。用户可以依赖于该信息来监控某些类型的行为。在一些实施方式中,姿势分析引擎可以被配置用于基于提供给姿势分析引擎和姿势分析引擎的输入数据来主动地提供用于辅助用户管理某些类型的行为的指导。
在一些实施方式中,姿势分析引擎可以被配置用于使用由姿势分析引擎提供的应用(例如,移动应用)来分析用户的社交网络交互。应用可以允许用户在应用内选择一个社交群组,并将他/她的表现与社交群组中的其他用户进行比较。社交群组可以由用户定义。社交群组中的用户可能正在寻求使用该应用来管理或控制某种类型的行为或习惯(例如吸烟)。与该群组中的其他用户相比,用户的表现可以包括用户在管理该类型的行为或习惯方面的成功和/或失败。在一些实施方式中,通过在社交群组中和在不同的时间线上外推数据,姿势分析引擎可以更精确地监控用户的进展并向用户提供个性化的建议。在一些实施方式中,姿势分析引擎可以被配置用于确定用户在一天的不同时间和/或在不同的地理位置处执行预定义姿势的概率。例如,姿势分析引擎可以被配置用于确定用户在一天的不同时间和/或在不同的地理位置处吸烟的概率。在一些实施方式中,姿势分析引擎可以被配置用于基于一个或多个用户的累积吸烟模式来宣传和广告不同的产品或服务。
在一些实施方式中,姿势分析引擎可以实时地向用户动态地提供个性化的建议。也可以以预定的频率——例如每小时、12小时、24小时、2天、4天等来提供个性化的建议。在某些实例中,姿势分析引擎可以基于用户的行为或者当用户的行为发生变化时(例如,当用户吸烟比之前更多的香烟或更少的香烟时)提供个性化的建议。
在一些实施方式中,除了向用户提供用户寻求并将最可能消费的信息之外,姿势分析引擎还可以提供个性化的建议以影响用户的需求和行为。
在戒烟计划期间,用户的需求和挑战可以每天不同。例如,用户可能遭受焦虑、抑郁、精神不振、缺乏能量、想要抽烟等。此外,用户可能受到诸如压力和同伴压力之类的其他事件的影响。姿势分析引擎可以被配置用于考虑在戒烟计划期间的用户体验的动态性质。例如,姿势分析引擎可以将不同的时间帧处的用户的行为和身体反应特性参数化。在一些实施方式中,姿势分析引擎可以被配置用于确定用户的潜在需要,并且基于那些潜在需要来提供个性化的建议。因此,在一些实施方式中,姿势分析引擎可以能够进行情绪分析,以便更精确地解读和预测用户的需求和行为。
在一些实施方式中,分析的数据可以由姿势分析引擎提供给医疗保健组织、保险公司和/或政府机构。上述实体中的一个或多个可以使用数据来定制促进用户健康和幸福感的预防行为计划。
用于检测吸烟行为的方法
图10是根据一些实施方式的检测用户吸烟的概率的方法1000的流程图。首先,传感器数据可以由可穿戴设备上的一个或多个传感器以固定或不同的频率、实时、间歇地收集(步骤1002)。传感器数据可以直接从可穿戴设备或经由用户设备传输到姿势分析引擎。在一些实施方式中,姿势分析引擎可以位于远离用户设备和/或可穿戴设备的服务器上。备选地,姿势分析引擎可以位于用户设备和/或可穿戴设备上。可选地,姿势分析引擎的各个方面或功能可以使用服务器、用户设备和/或可穿戴设备来实现。姿势分析引擎可以被配置用于基于传感器数据来确定用户吸烟的概率。吸烟行为可以包括用户进行一次或多次香烟抽吸。
可以在任何时间激活可穿戴传感器上的一些或所有传感器。在一些实施方式中,可以激活传感器的子集以减少可穿戴设备的功率消耗。当姿势分析引擎和/或用户设备检测到用户可能正在进行第一次潜在香烟抽吸(例如,概率<1)时,姿势分析引擎和/或用户设备可以被配置用于向可穿戴传感器传输信号以打开其他传感器。传感器数据中的一些或全部可以被聚合并以块的形式从可穿戴设备实时地(直接地或经由用户设备)发送到姿势分析引擎。
姿势分析引擎可以被配置用于从传感器数据的一些或全部中提取预定义的特征集合(步骤1004)。姿势分析引擎可以被配置用于使用预定义特征集合来通过评定(rating)潜在的香烟抽吸和/或抽吸数目来检测用户吸烟的概率(步骤1006和步骤1008)。这可以通过分析针对某些吸烟模型的手到口和口到手姿势的加速度矢量和/或角速度矢量的幅度来实现。
基于评定的抽吸,姿势分析引擎可以检测用户是正在吸烟还是已经吸完了烟(步骤1010)。姿势分析引擎可以将吸烟相关信息传输并存储到数据库中以用于进一步和/或将来的分析(步骤1012)。吸烟相关信息可以包括香烟抽吸的持续时间、香烟类型、用户的个人信息、用户的位置、吸烟的时间等。吸烟相关信息可以随着时间而进行累积并且被用来生成用户的吸烟行为趋势。吸烟相关信息可以显示在用户设备上的图形显示器上(步骤1014)。姿势分析引擎可以使用吸烟行为趋势来改善统计分析的置信度水平,并预测用户何时/何地可能吸烟。例如,姿势分析引擎可以分析吸烟行为趋势以检测信息中不同参数之间的隐藏的相关性。隐藏的相关性可以用于预测用户行为和/或习惯。
图11是根据一些其他实施方式的检测用户吸烟的概率的方法1100的流程图。首先,数据可以由可穿戴设备上的加速度计和陀螺仪收集(步骤1102和步骤1104)。在一些情况下,可以调整数据以补偿重力的影响(步骤1106)。在一些情况下,如果数据不足以检测姿势,则可以增加传感器数据收集的时间计数(例如,持续时间或频率)(步骤1108)。可以将传感器数据传输到用户设备。用户设备可以被配置用于监控由可穿戴设备(例如,加速度计和/或陀螺仪数据)收集的传感器数据。用户设备可以被配置用于寻找信号中的加速度计或陀螺仪数据中的一个或两个信号低于预定义阈值的区域(步骤1110)。这些区域可能对应于“疑似抽吸区”。如果加速度计或陀螺仪数据中的一个或多个信号低于预定义阈值,则用户设备可以指示可穿戴设备增加事件计数(步骤1112)以增加采样频率(步骤1112)。如果加速度计或陀螺仪数据中的一个或多个信号高于预定义阈值,则传感器数据的收集以其先前的采样频率继续。接下来,用户设备确定时间窗口是否已经期满(步骤1114)。如果时间窗口尚未期满,则可穿戴设备可以继续收集传感器数据。如果时间窗口已经期满,则用户设备可以确定事件计数是否大于阈值计数(步骤1116)。如果事件计数小于阈值计数,则可以重置时间窗口和事件计数(步骤1120),使得可以收集新的传感器数据集合。如果事件计数大于阈值计数,则可以将一些或全部传感器数据传输到姿势分析引擎以检测用户吸烟的概率(步骤1118)。例如,当在预定义的时间窗口(例如,10分钟)中检测到足够的区域时,用户设备可以将一些或全部传感器数据(包括其已经处理的传感器数据)传输到姿势分析引擎。
姿势分析引擎可以被配置用于通过将每个抽吸候选与预定义的统计进行比较并对每个抽吸进行评定来评估每个抽吸候选。例如,姿势分析引擎可以从抽吸信号中提取信息(例如,信号的时间长度为低等),并将每个值与预定义的经验统计模型进行比较。该模型可以是通用的(对于所有吸烟者是相同的),或者对于每个吸烟者是特定的。然后将概率聚合成抽吸评定值。在一些实施方式中,可以从候选抽吸信号中提取一个或多个特征,并使用机器学习算法进行处理以产生抽吸评定值。机器学习可以包括监督学习、半监督学习或无监督学习技术。
在时间窗口中的所有候选抽吸已经被评定之后,姿势分析引擎继而可以确定是否吸了香烟。例如,姿势分析引擎可以将高于某一评定值(例如50%)的抽吸进行计数,并将抽吸的数目与阈值(例如4次抽吸)进行比较。如果计数的抽吸数目大于阈值,则姿势分析引擎可以确定用户正在吸烟。相反,如果计数的抽吸数目小于阈值,则姿势分析引擎可以确定用户没在吸烟,并且可能正在执行某些其他姿势。
在一些实施方式中,姿势分析引擎可以被配置用于处理整个香烟信号,而不是各个地分析单个抽吸(例如,10分钟信号而不是8秒信号)。整个香烟信号可以在例如图4中图示出。单个抽吸信号可以在例如图8中图示出。姿势分析引擎可以分析加速度计和/或陀螺仪信号的预定义时间窗口(例如,抽烟可能需要花费的时间大约是10分钟),并且基于该方法检测用户可能吸烟的信号。姿势分析引擎可以被配置用于确定信号方差低于预定义阈值的总时间。备选地,姿势分析引擎可以被配置用于确定信号方差低于阈值的时间与其高于阈值的时间之间的关系。
如果姿势分析引擎确定时间大于预定义的值,那么系统继而可以确定用户可能吸烟。一旦检测到可能的香烟,就可以将整个信号传输到姿势分析引擎。姿势分析引擎可以分析所有的信号(而不是分别地处理每个抽吸)并评定可能的香烟。这可以通过将信号变换到频域并提取特征(例如,特定频率中的能量等)来完成。姿势分析引擎还可以处理信号、信号功率和/或信号导数(变化率)并从中提取特征。然后可以使用这些特征来评定可能的香烟。一旦对香烟进行评定,姿势分析引擎可以确定评定值是否大于预定义阈值(例如50%)。如果评定值高于阈值,那么确定已经检测到香烟。一旦检测到香烟,姿势分析引擎可以尝试基于第一抽吸采样来估计其他抽吸。在一些实施方式中,姿势分析引擎可以被配置用于从抽吸候选中以及从整个香烟中提取特征,以确定用户是否已经吸了香烟。
在一些实施方式中,姿势分析引擎可以被配置用于警报并通知用户有关行为、模式、目标匹配和其他与消费相关的警报的变化。例如,当用户行为偏离用户的典型行为或历史行为时,姿势分析引擎可以提供警报。例如,姿势分析引擎可以检测到用户通常在早上吸2支香烟,并在晚上吸2支香烟。当系统检测到用户在中午开始抽吸2支额外的香烟时,系统可以向用户发送警报,使得用户可以克制吸额外的香烟。
图12是根据一些另外实施方式的检测用户吸烟的概率的方法1200的流程图。
首先,传感器数据(例如,加速度计数据(Acc)和陀螺仪数据(Gyro))可以从可穿戴设备传输到用户设备、服务器和/或姿势分析引擎。可以经由一个或多个无线或有线通信信道传输传感器数据。无线通信信道包括BLE(蓝牙低能量)、WiFi、3G和/或4G网络。
如图12所示,传感器数据可以被传输到算法管理器(ALGO管理器)。ALGO管理器可以是位于可穿戴设备、用户设备、服务器和/或姿势分析引擎上的模块。ALGO管理器可以被配置用于提取传感器数据的部分,并将提取的部分传输到滤波器模块(预滤波器)。预滤波器可以位于可穿戴设备、用户设备、服务器和/或姿势分析引擎上。在分析传感器数据之前,预滤波器可以对传感器数据应用滤波器。在一些实施方式中,分析传感器数据还可以包括对传感器数据应用滤波器。可以应用滤波器以减少传感器数据中的噪声。在一些实施方式中,滤波器可以是较高阶复数滤波器,诸如有限脉冲响应(FIR)滤波器或无限脉冲响应(IIR)滤波器。例如,滤波器可以是卡尔曼滤波器或帕克斯-麦克莱伦(Parks-McClellan)滤波器。在一些实施方式中,可以使用可穿戴设备上的一个或多个处理器来应用滤波器。备选地,可以使用用户设备上的一个或多个处理器来应用滤波器。可选地,可以使用服务器上的一个或多个处理器来应用滤波器。在一些实施方式中,可以使用姿势分析引擎中的一个或多个处理器来应用滤波器。
经滤波的传感器数据可以作为预定时间块(例如,12秒块)的缓冲数据而被提供给姿势分析引擎。可以在姿势分析引擎处以预定时间间隔(例如,每5秒)接收缓冲数据。姿势分析引擎可以被配置用于从缓冲的块中检测抽吸的概率。例如,姿势分析引擎可以被配置用于检测候选抽吸信号中的静态区。静态区可以对应于信号中的一个或两个信号在预定义的相应阈值之下的区域。这些区域可以对应于“疑似抽吸区”。姿势分析引擎可以被配置用于从候选抽吸信号中提取特征,并且使用统计(例如,多维分布函数)来对特征进行分析以产生抽吸评定值。可以将具有相应抽吸评定值的候选抽吸插入到抽吸队列中。姿势分析引擎可以被配置用于基于抽吸队列中的抽吸来确定用户吸烟的概率。另外,图12可以并入图10和图11中先前描述的一个或多个步骤。
传感器数据管理
在一些实施方式中,当可穿戴设备没有与用户设备和/或服务器处于可操作通信中时,可将传感器数据存储在可穿戴设备上的存储器中。在那些实施方式中,当用户设备和可穿戴设备之间的可操作通信被重新建立时,传感器数据可以从可穿戴设备传输到用户设备。备选地,当服务器和可穿戴设备之间的可操作通信被重新建立时,传感器数据可以从可穿戴设备传输到服务器。
在一些实施方式中,可以在数据传输之前将数据压缩步骤应用于传感器数据。传感器数据的压缩可以减少传输传感器数据所需的带宽,并且还可以减少了在传感器数据的传输期间可穿戴设备的功耗。在一些实施方式中,数据压缩步骤可以包括计算传感器数据的采样之间的差异。差异可以是基于时间的(t)或基于空间的(X,Y和Z)。例如,如果当前数据采样和先前数据采样的加速度幅度没有差异,则传感器数据不被重新传输。相反,如果当前数据采样和先前数据采样的加速度幅度存在差异,则可以仅传输差异(例如,从可穿戴设备到用户设备和/或服务器)。传感器数据可以使用预定义的比特数(例如,16比特)进行压缩。例如,32比特或64比特传感器数据可被压缩到16比特。
可以以预定频率收集传感器数据。在一些实施方式中,预定频率可以被配置用于优化和/或减少可穿戴设备的功耗。在一些实施方式中,预定频率可以为从约10Hz至约20Hz的范围。在一些实施方式中,当姿势分析引擎确定用户没在吸烟时,一个或多个传感器可以被配置用于以第一预定频率收集传感器数据。当姿势分析引擎确定用户正在吸烟的高概率时,一个或多个传感器可以被配置用于以第二预定频率收集传感器数据。第二预定频率可以高于第一预定频率。在一些实施方式中,一个或多个传感器可以被配置用于在预定的持续时间内收集传感器数据。可选地,一个或多个传感器可以被配置用于当可穿戴设备通电时实时地连续收集传感器数据。
可以基于一天的不同时间和/或不同的地理位置来调整传感器数据收集的频率。例如,可以在用户执行预定义姿势的概率高于预定阈值的地理位置处和/或一天的时间处增加传感器数据收集的频率。相反,可以在用户执行预定义姿势的概率低于预定阈值的地理位置处和/或一天的时间处降低传感器数据收集的频率。在一些实施方式中,可以基于用户在一天中的不同时间处和/或在不同地理位置处执行预定义姿势的概率来选择性地激活可穿戴设备和/或用户设备中的一个或多个传感器。
在一些实施方式中,一个或多个传感器可以包括第一组传感器和第二组传感器。可以选择性地激活第一组传感器和第二组传感器以减少可穿戴设备的功耗,并减少所收集的传感器数据量。传感器数据的减少可以允许更快速地分析/处理传感器数据,并减少存储传感器数据所需的存储量。
在一些实施方式中,当可穿戴设备通电时,可以激活第一组传感器。可以使用第一组传感器来确定用户正在吸烟的概率是否为高。在确定用户是否正在吸烟之前,第二组传感器可以是不起作用的。取决于用户正在吸烟的概率是否为高,第二组传感器可以在可穿戴设备通电时被选择性地激活。例如,可以在确定用户在吸烟的概率为高时选择性地激活第二组传感器。可以激活第二组传感器以收集附加的传感器数据,以便确认用户正在吸烟、监控吸烟并收集附加的吸烟相关数据。
在一些实施方式中,可穿戴设备可以被配置用于以多个能量和/或性能模式操作。这些模式可以包括在其中只开启一些传感器的低功率模式。当可穿戴设备处于低功率模式时,可穿戴设备可以具有低功耗。由于在低功率模式下,较少的信息(较少的传感器数据量)可用于进行分析,所以当可穿戴设备处于低功率模式时可能降低预定义姿势的检测精度。另外,模式可以包括其中所有传感器都被开启的精度模式。当可穿戴设备处于精度模式时,可穿戴设备可以具有高功耗。由于在精度模式下更多的信息(较大量的传感器数据)可用于进行分析,所以当可穿戴设备处于精度模式时可以改善预定义姿势的检测精度。在一些实施方式中,当可穿戴设备和/或用户设备处于空闲模式或充电模式时,可以不分析传感器数据。
在一些实施方式中,传感器数据可以包括一个或多个参数。参数可以包括以下中的至少一个:(1)用户用来吸烟的手;(2)用户的脉冲模式;(3)用户的位置;(4)可穿戴设备标识符和用户设备标识符(例如,MSISDN或安卓ID或广告商ID或IMEI+mac地址);以及(5)用户的吸烟统计。一个或多个参数可以对用户、可穿戴设备和/或用户设备而言是唯一的。在一些实施方式中,可以基于一个或多个参数来认证用户的身份。可能需要认证用户的身份以防止可穿戴设备和/或用户设备的误用。
用户界面
在一些实施方式中,姿势分析引擎可以生成包括用户行为统计的一个或多个图形用户界面(GUI)。GUI可以在用户设备上的显示屏幕上呈现。GUI是这样一种类型的界面:其允许用户不是基于文本的界面、键入的命令标签或文本导航而是通过诸如辅助符号之类的可视指示符和图形图标来与电子设备进行交互。通常通过直接操纵图形元素来执行GUI中的动作。除了计算机之外,还可以在诸如MP3播放器、便携式媒体播放器、游戏设备和较小的家庭、办公和工业设备之类的手持设备中找到GUI。GUI可以在软件、软件应用、网络浏览器等中提供。GUI可以显示在用户设备(例如,图1的用户设备102)上。GUI可以通过移动应用来提供。此类GUI的示例在图13至图19中图示出并如下所述。
可以在用户设备连接到姿势分析引擎并且已经从姿势分析引擎获取数据之后生成图13的窗口1300。窗口1300可以是描绘各种吸烟监控度量的示例性窗口。在一些情况下,窗口1300可以对应于用户在打开应用或登录到应用时将首先查看的主着陆页面。窗口1300可以指示用户在一天中的吸烟度量。在图13的示例中,窗口1300可以显示用户那天吸了4支香烟,与前一天相比改善了0%,在香烟上花费了1.30美元,并且吸4支香烟潜在地“浪费了”他/她生命的44分钟。“浪费”的时间量可以指示吸烟数目对健康的影响。
在一些实施方式中,用户可以查看针对一天内的不同时间的他/她的吸烟模式。例如,如图14的窗口1400所示,用户那天可能吸了9支香烟,超过三次吸烟发作(6+1+2支香烟)。窗口1400中的饼图进一步图示出那天的全部吸烟中,18%的吸烟发生在早晨,39%发生在中午,23%发生在晚上,20%发生在夜里。
在一些实施方式中,用户可以按周查看他/她的吸烟度量。例如,如窗口1500所示,条形图指示用户星期日吸了16支香烟,星期一14支,星期二19支,星期三17支,星期四12支,星期五15支,并且星期六14支。可以观察到,用户星期四吸烟最少、星期二吸烟最多。窗口1500中的饼图进一步图示出38%的吸烟发生在工作日,62%发生在周末。
在一些实施方式中,用户可以按月查看他/她的吸烟度量。例如,如窗口1600所示,条形图指示用户在第1周吸了102支香烟,第2周115支,第3周98支,并且第4周104支。可以观察到,用户第3周吸烟最少,第2周吸烟最多。窗口1600中的饼图进一步图示出了12%的吸烟发生在早晨,45%发生在中午,26%发生在晚上,并且17%发生在夜里。
在一些实施方式中,用户可以在应用中设置目标。例如,如图17的窗口1700所示,用户可以设定在一天内限制为14支香烟的目标。这可能需要用户在香烟上花费4.48美元。此外,吸14支香烟可能会潜在地浪费用户生命的154分钟。
在一些实施方式中,用户可以查看他与其他用户相比的吸烟行为。例如,如图18的窗口1800所示,每天平均吸烟14支、平均每周吸烟98支可能使用户在用户群组中为第6位。
在一些实施方式中,用户可以查看与他的吸烟模式相关联的各种度量。例如,图19的窗口1900图示了用户已经吸了总共425支香烟,在香烟上花费了136美元,平均每天吸烟17支,吸烟潜在地“浪费”了他生命的77小时。另外,窗口1900显示:18%的吸烟发生在家中,62%发生在办公场所,并且20%发生在其他地方。
在图13至图19的GUI中,可以使用不同的颜色和阴影来彼此区分这些段。可以以不同的颜色和阴影来提供用于各种度量的数字和单词,以提高可读性,并且将度量彼此区分开。可以想到任何配色方案或任何其他视觉区分方案。
在一些实施方式中,用户可以能够与其他用户或联系人共享他的吸烟度量信息。用户还可以选择窗口中的一个或多个社交媒体链接以与其他用户(例如,他所选择的社交媒体中的联系人网络)共享吸烟度量信息。社交媒体链接可以包括到诸如FacebookTM和TwitterTM之类的社交媒体的链接。
在一些实施方式中,姿势分析引擎可以被配置用于从多个可穿戴设备和/或用户设备接收抽吸/香烟信息。每个可穿戴设备和/或用户设备可以用作将用户消费数据提供给连接到姿势分析引擎的数据库的数据节点。可以用用户的吸烟数据实时地更新数据库。姿势分析引擎可以被配置用于生成消费统计并确定吸烟相关的社交模式。例如,姿势分析引擎可以生成聚合消费数据的视觉表示(例如,按日/周/月吸的香烟的数目)。消费数据还可以包括每个香烟品牌的市场份额、香烟品牌的每个用户性别消费以及消费者偏好。消费者偏好可以包括香烟品牌的吸烟时间、吸烟位置(家里/工作/驾驶/其他)、吸烟频率(每事件、每次、每人)、人均消费量以及吸烟与其他产品消费的相关性(诸如咖啡)。姿势分析引擎还可以分析消费统计以确定针对不同品牌、地理和/或时间段的消费模式(相关性)。在一些情况下,通过具有吸烟行为的多个输入,姿势分析引擎可以能够交叉学习并识别不同吸烟者之间的相关性/影响,这可以针对用户以及他/她的社交圈来帮助评估戒烟的优化途径。例如,姿势分析引擎可以检测到用户X是他的社交圈中的领导者,并且用户X的戒烟可能会显著影响他的社交圈中的其他人改变他们的吸烟行为。因此,姿势分析引擎可以向用户X提供额外的激励以辅助他戒烟,使得效果可以在整个社交圈中扩散。
在一个或多个先前描述的实施方式中,姿势分析系统能够在移动手的吸烟模式和不是吸烟相关的其他移动之间进行区分。这里描述的算法可以部分地基于统计分析、机器学习、信号处理、模式识别和检测理论。一种算法可以假设一个特定的吸烟模型,并尝试基于该模型来检测吸烟。该算法也可以为每个吸烟者估计不同的吸烟模型,并使用该模型来检测特定吸烟者正在吸烟。
在一些实施方式中,姿势分析系统可以通过聚合来自由多个吸烟用户所穿戴的多个可穿戴设备的数据来分析地理的、基于时间的和用户属性(例如,年龄、性别、工作职业等)的香烟消费趋势。
在一些实施方式中,通过使用在计划中接近实时的吸烟的持续监控和目标完成,姿势分析系统可以用于部分地基于认知行为心理学来实现戒烟计划。使用监控系统,可以向用户通知他/她吸的每支香烟,并收到关于他/她吸烟模式的即时通知和有关达到他/她减少吸烟目标进展的信息。吸烟警报的实时生成可以很有效地戒烟。
另外,通过将吸烟行为数据传输到服务器以用于进一步分析,可以使用各种模式识别算法来确定要向用户供给的所需里程碑/激励以便有效地影响他/她的吸烟习惯,这可以帮助改变用户的吸烟行为并降低吸烟引起的健康风险。
本文所使用的A和/或B包括A或B、及其组合诸如A和B中的一个或多个。应当理解,尽管术语“第一”、“第二”、“第三”等可用于描述各种元件、组件、区域和/或部分,但是这些元件、组件、区域和/或部分不应受这些术语的限制。这些术语仅用于将一个元件、组件、区域或部分与另一个元件、组件、区域或部分区分开来。因此,在不脱离本发明的教导的情况下,下面讨论的第一元件、组件、区域或部分可以被称为第二元件、组件、区域或部分。
本文使用的术语仅用于描述特定实施方式的目的,而不旨在限制本公开内容。如本文所使用的,除非上下文另有明确指示,否则单数形式“一”,“一个”和“该”也旨在包括复数形式。进一步应理解,当在本说明书中使用时,术语“包括”或“包含”指定所述特征、区域、整体、步骤、操作、元件和/或组件的存在,但不排除一个或多个其他特征、区域、整体、步骤、操作、元件、组件和/或其组合的存在或添加。
尽管在本文中已经示出和描述了本公开的优选实施方式,但是对于本领域技术人员显而易见的是,这样的实施方式仅以示例的方式提供。在不脱离本公开内容的情况下,本领域技术人员将会想到许多变型、变化和替换。应当理解,在实践本公开内容中可以采用本文所述的本公开内容的实施方式的各种替代方案。以下权利要求旨在限定本公开内容的范围,并且因此涵盖在这些权利要求及其等同物的范围内的方法和结构。

Claims (112)

1.一种姿势识别方法,包括:
获取使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及
分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
2.一种用于实现姿势识别的系统,包括:
存储器,其用于存储使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及
一个或多个处理器,其被配置用于执行软件指令集,以分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
3.一种存储指令的有形计算机可读介质,所述指令当由一个或多个处理器执行时使所述一个或多个处理器执行计算机实现的姿势识别方法,所述方法包括:
获取使用位于可穿戴设备上的至少一个传感器收集的传感器数据,其中所述可穿戴设备被配置为由用户穿戴;以及
分析所述传感器数据以确定所述用户执行预定义姿势的概率,其中部分地基于所述传感器数据中的运动矢量的幅度并且在不将所述运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
4.根据权利要求1所述的方法,其中,从与不同活动相关联的不同姿势的组中选择所述预定义姿势。
5.根据权利要求4所述的方法,还包括:部分地基于所述传感器数据中的不同运动矢量的幅度并且在不将所述运动矢量与所述一个或多个物理运动轮廓进行比较的情况下,来彼此区分与所述不同活动相关联的姿势。
6.根据权利要求1所述的方法,其中,所述至少一个传感器包括加速度计和陀螺仪。
7.根据权利要求6所述的方法,其中,所述运动矢量的幅度包括:(1)从所述加速度计获取的加速度矢量的幅度和/或(2)从所述陀螺仪获取的角速度矢量的幅度。
8.根据权利要求7所述的方法,还包括:部分地基于所述加速度矢量的幅度和/或所述角速度矢量的幅度来确定所述概率。
9.根据权利要求8所述的方法,还包括:部分地基于不同时间段内的所述加速度矢量的幅度和/或所述角速度矢量的幅度并且在不将所述加速度矢量和/或所述角度速度矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
10.根据权利要求7所述的方法,还包括:基于所述加速度矢量和/或所述角速度矢量来计算所述可穿戴设备的俯仰角、滚动角和/或横摆角。
11.根据权利要求10所述的方法,还包括:基于所述俯仰角、所述滚动角和/或所述横摆角来确定所述概率。
12.根据权利要求7所述的方法,还包括:确定不同时间段内的所述加速度矢量的幅度与所述角速度矢量的幅度之间的相关性,以便确定所述用户执行所述预定义姿势的所述概率。
13.根据权利要求1所述的方法,其中,所述至少一个传感器还包括以下中的一个或多个:磁力计、心率监控器、全球定位系统(GPS)接收机、外部温度传感器、麦克风、皮肤温度传感器、电容传感器和/或被配置用于检测皮肤电反应的传感器。
14.根据权利要求1所述的方法,其中,在不将所述传感器数据与所述一个或多个物理运动轮廓进行比较的情况下分析所述传感器数据。
15.根据权利要求14所述的方法,其中,所述一个或多个物理运动轮廓的形状基本上类似于所述用户的一个或多个物理姿势的形状。
16.根据权利要求11所述的方法,其中,分析所述传感器数据还包括计算多维分布函数,其中所述多维分布函数是多个特征的概率函数。
17.根据权利要求16所述的方法,其中,所述多个特征与所述预定义姿势的各个方面相关联。
18.根据权利要求17所述的方法,其中,所述多个特征包括以下特征中的两个或更多个:(1)在所述姿势期间的子动作的持续时间;(2)所述加速度矢量的幅度;(3)所述角速度矢量的幅度;(4)所述滚动角;和(5)所述俯仰角。
19.根据权利要求16所述的方法,其中,所述多维分布函数与所述预定义姿势的一个或多个特性相关联。
20.根据权利要求16所述的方法,其中,所述多维分布函数被配置用于返回0和1之间的单个概率值,并且其中所述概率值表示每个特征的概率。
21.根据权利要求16所述的方法,其中,每个特征由离散值表示。
22.根据权利要求16所述的方法,其中,每个特征沿着连续体是可测量的。
23.根据权利要求16所述的方法,其中,所述多个特征被编码在所述传感器数据内,并从所述传感器数据中提取。
24.根据权利要求16所述的方法,其中,两个或更多个特征是相关的。
25.根据权利要求24所述的方法,其中,通过使用奇异值分解(SVD)来计算所述多维分布函数以对所述两个或更多个相关特征去相关。
26.根据权利要求25所述的方法,其中,所述SVD的使用减少了计算针对所述多维分布函数的概率值所需的处理时间,并且减少了确定所述用户执行所述预定义姿势的概率所需的传感器数据量。
27.根据权利要求16所述的方法,其中,通过将每个特征的去相关(旋转)1D可能密度分布相乘来计算所述多维分布函数,使得所述多维分布函数f(p1,p2,...,pn)=f(p1)*f(p2)*...*f(pn)。
28.根据权利要求27所述的方法,其中,函数f(p1)是第一特征的1D概率密度分布,函数f(p2)是第二特征的1D概率密度分布,并且函数f(pn)是第n个特征的1D概率密度分布。
29.根据权利要求28所述的方法,其中,从每个特征的采样获取每个特征的1D概率密度分布。
30.根据权利要求29所述的方法,其中,所述采样尺寸在所有特征上是恒定的。
31.根据权利要求29所述的方法,其中,所述采样尺寸在不同特征之间是可变的。
32.根据权利要求16所述的方法,还包括:确定所述多个特征中的一个或多个是否是在统计学上不显著的。
33.根据权利要求32所述的方法,其中,一个或多个统计学上不显著的特征与所述预定义姿势具有低相关性。
34.根据权利要求32所述的方法,还包括:从所述多维分布函数中移除所述一个或多个统计学上不显著的特征。
35.根据权利要求34所述的方法,其中,从所述多维分布函数中移除所述一个或多个统计学上不显著的特征减少了计算所述多维分布函数的概率值所需的计算时间和/或功率。
36.根据权利要求1所述的方法,其中,分析所述传感器数据还包括将滤波器应用于所述传感器数据。
37.根据权利要求37所述的方法,其中,所述滤波器是包括有限脉冲响应(FIR)滤波器和/或无限脉冲响应(IIR)滤波器的较高阶复数滤波器。
38.根据权利要求37所述的方法,其中,所述滤波器是卡尔曼滤波器或帕克斯-麦克莱伦滤波器。
39.根据权利要求1所述的方法,其中,所述可穿戴设备被配置用于将一些或全部传感器数据传输到用户设备和/或服务器以用于所述传感器数据的分析。
40.根据权利要求1所述的方法,其中,所述传感器数据的传输是经由一个或多个无线或有线通信信道。
41.根据权利要求40所述的方法,其中所述一个或多个无线通信信道包括BLE(蓝牙低能量)、WiFi、3G和/或4G网络。
42.根据权利要求39所述的方法,还包括:当所述可穿戴设备没有与所述用户设备和/或所述服务器处于可操作通信中时,将所述传感器数据存储在所述可穿戴设备上的存储器中。
43.根据权利要求42所述的方法,还包括:当所述可穿戴设备与所述用户设备和/或所述服务器之间的可操作通信被重新建立时,将所述传感器数据从所述可穿戴设备传输到所述用户设备和/或所述服务器。
44.根据权利要求1所述的方法,还包括:将数据压缩步骤应用于所述传感器数据。
45.根据权利要求44所述的方法,其中,所述传感器数据的压缩减少了传输所述传感器数据所需的带宽,并且其中所述传感器数据的压缩减少了在所述传感器数据的传输期间所述可穿戴设备的功耗。
46.根据权利要求44所述的方法,其中,所述数据压缩步骤包括沿着不同的测量轴计算所述传感器数据的采样之间的基于时间的差异。
47.根据权利要求46所述的方法,其中,所述基于时间的差异从所述可穿戴设备传输到用户设备和/或服务器。
48.根据权利要求44所述的方法,其中,使用预定义数目的比特来压缩所述传感器数据。
49.根据权利要求1所述的方法,其中,所述一个或多个传感器被配置用于以预定频率收集所述传感器数据。
50.根据权利要求49所述的方法,其中,所述预定频率被配置用于优化和/或减少所述可穿戴设备的功耗。
51.根据权利要求49所述的方法,其中,所述预定频率为从约10Hz至约20Hz的范围。
52.根据权利要求49所述的方法,其中,所述一个或多个传感器被配置用于,当所述用户正在执行所述姿势的概率低于预定义阈值时,以第一预定频率收集所述传感器数据。
53.根据权利要求52所述的方法,其中,所述一个或多个传感器被配置用于,当所述用户正在执行所述姿势的概率高于预定义阈值时,以第二预定频率收集所述传感器数据。
54.根据权利要求53所述的方法,其中,所述第二预定频率高于或等于所述第一预定频率。
55.根据权利要求49所述的方法,其中,所述一个或多个传感器被配置用于在预定的持续时间内收集所述传感器数据。
56.根据权利要求49所述的方法,其中,所述一个或多个传感器被配置用于当所述可穿戴设备通电时实时地连续收集所述传感器数据。
57.根据权利要求49所述的方法,其中所述一个或多个传感器包括第一组传感器和第二组传感器,并且所述方法还包括:选择性地激活所述第一组传感器和所述第二组传感器以减少所述可穿戴设备的功耗。
58.根据权利要求57所述的方法,还包括:选择性地激活所述第一组传感器和所述第二组传感器以减少所收集的传感器数据量。
59.根据权利要求58所述的方法,其中,所述传感器数据量的减少允许更快速地分析/处理所述传感器数据,并且减少存储所述传感器数据所需的存储量。
60.根据权利要求57所述的方法,其中,当所述可穿戴设备通电时,激活所述第一组传感器。
61.根据权利要求60所述的方法,其中,所述第一组传感器用于确定所述用户执行所述预定义姿势的概率。
62.根据权利要求57所述的方法,其中,当所述用户正在执行所述姿势的概率低于预定义阈值时,所述第二组传感器是不起作用的。
63.根据权利要求57所述的方法,其中,当所述可穿戴设备通电时以及当所述用户正在执行所述姿势的概率高于预定义阈值时,选择性地激活所述第二组传感器。
64.根据权利要求64所述的方法,其中,在确定所述用户正在执行所述预定义姿势时,选择性地激活所述第二组传感器。
65.根据权利要求64所述的方法,其中,激活所述第二组传感器以收集附加的传感器数据,以便确认所述用户正在执行所述预定义姿势,监控所述姿势,以及收集与所述姿势相关的附加传感器数据。
66.根据权利要求1所述的方法,其中,所述可穿戴设备被配置用于以多个能量和/或性能模式操作。
67.根据权利要求66所述的方法,其中,所述多个模式包括低功率模式,在所述低功率模式中开启所述可穿戴设备中的至少一个加速度计。
68.根据权利要求67所述的方法,其中,当所述可穿戴设备处于所述低功率模式时,所述可穿戴设备具有低功耗。
69.根据权利要求68所述的方法,其中,当所述可穿戴设备处于所述低功率模式时,降低了检测所述用户是否正在执行所述预定义姿势的精度。
70.根据权利要求66所述的方法,其中,所述多个模式包括其中所有所述传感器都开启的精度模式。
71.根据权利要求70所述的方法,其中,当所述可穿戴设备处于所述精度模式时,所述可穿戴设备具有高功耗。
72.根据权利要求71所述的方法,其中,当所述可穿戴设备处于所述精度模式时,提高了检测所述用户是否正在执行所述预定义姿势的精度。
73.根据权利要求1所述的方法,其中,当所述可穿戴设备处于空闲模式或充电模式时,所述传感器数据不被分析或传输。
74.根据权利要求1所述的方法,其中,所述传感器数据包括以下参数中的至少一个:(1)所述用户用于进行所述姿势的活动手;(2)所述用户的脉冲模式;(3)所述用户的位置;(4)所述可穿戴设备和/或用户设备的标识符;和(5)与所述姿势相关的所述用户的行为统计。
75.根据权利要求74所述的方法,还包括:基于所述参数中的一个或多个来认证所述用户的身份。
76.根据权利要求1所述的方法,还包括:确定所述用户在一天的不同时间和/或在不同地理位置处执行所述预定义姿势的概率。
77.根据权利要求76所述的方法,还包括:基于一天的不同时间和/或不同的地理位置来调整所述传感器数据收集的频率。
78.根据权利要求77所述的方法,其中,在所述用户执行所述预定义姿势的概率高于预定阈值的地理位置处和/或一天的时间处增加所述传感器数据收集的频率。
79.根据权利要求77所述的方法,其中,在所述用户执行所述预定义姿势的概率低于预定阈值的地理位置处和/或一天的时间处降低所述传感器数据收集的频率。
80.根据权利要求77所述的方法,还包括:基于所述用户在一天中的不同时间和/或在不同地理位置处执行所述预定义姿势的概率来选择性地激活所述传感器中的一个或多个。
81.一种检测吸烟姿势的方法,包括:
获取使用一个或多个传感器收集的传感器数据,其中所述传感器包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上;以及
分析所述传感器数据以确定所述用户吸烟的概率,其中部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
82.一种用于实现姿势识别的系统,包括:
存储器,其用于存储使用一个或多个传感器收集的传感器数据,其中所述传感器包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上;以及
一个或多个处理器,其被配置用于执行软件指令集,以分析所述传感器数据以确定所述用户吸烟的概率,其中,部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
83.一种存储指令的有形计算机可读介质,所述指令在由一个或多个处理器执行时使所述一个或多个处理器执行计算机实现的姿势识别方法,所述方法包括:
获取使用一个或多个传感器收集的传感器数据,其中所述传感器包括多轴加速度计,所述多轴加速度计位于被配置为由用户穿戴的可穿戴设备上;以及
分析所述传感器数据以确定所述用户吸烟的概率,其中部分地基于所述传感器数据中的加速度矢量的幅度并且在不将运动矢量与一个或多个物理运动轮廓进行比较的情况下来确定所述概率。
84.根据权利要求81所述的方法,其中,分析所述传感器数据包括分析所述传感器数据中的一个或多个特征以确定所述用户进行香烟抽吸的概率。
85.根据权利要求84所述的方法,其中,所述特征包括以下中的至少一个:(1)在所述用户的口中检测到潜在的香烟的持续时间;(2)所述用户的手臂的滚动角;(3)吸烟者的手臂的俯仰角;(4)潜在吸烟抽吸的持续时间;(5)连续的潜在抽吸之间的持续时间;(6)所述用户完成吸烟的潜在抽吸数目;(7)所述加速度矢量的幅度;(8)所述用户的手臂的速度;(9)与手臂到口的姿势相对应的吸气区域;和/或(10)与手臂从口向下的姿势相对应的呼气区域。
86.根据权利要求85所述的方法,还包括:从所述传感器数据中提取所述特征。
87.根据权利要求81所述的方法,还包括:基于一个或多个用户输入来调整所述用户吸烟的概率。
88.根据权利要求87所述的方法,其中,所述用户输入包括:(1)指示所述用户不吸烟的输入信号;(2)指示所述用户已经吸烟的输入信号;和(3)指示所述用户已经吸烟但没有识别或检测到吸烟姿势的输入信号。
89.根据权利要求88所述的方法,还包括:基于所分析的传感器数据和所述一个或多个用户输入来为所述用户生成用户配置文件(UCF)。
90.根据权利要求89所述的方法,其中,所述UCF对于多个用户是通用的。
91.根据权利要求89所述的方法,其中,所述UCF在一段时间后变成对于每个用户是唯一的。
92.根据权利要求91所述的方法,其中,所述UCF被配置用于取决于所述用户的行为而随时间进行适配和改变。
93.根据权利要求91所述的方法,其中,所述UCF包括与除了吸烟之外的不同活动相关联的用户参数的列表。
94.根据权利要求93所述的方法,其中,所述不同的活动包括以下中的至少一个:站立、行走、坐着、驾驶、饮用、进食和/或当不管站立还是坐着时的倚靠。
95.根据权利要求89所述的方法,还包括:当在预定时间段内没有检测到用户的吸烟时,动态地改变所述UCF。
96.根据权利要求95所述的方法,其中,动态地改变所述UCF以反映所述用户的吸烟行为的变化。
97.根据权利要求89所述的方法,还包括:基于从所述传感器数据提取的滚动角/俯仰角和/或横摆角,确定所述用户是用右手还是左手吸烟。
98.根据权利要求97所述的方法,还包括:用所述用户的左/右手信息来更新所述UCF。
99.根据权利要求81所述的方法,其中,使用与一个或多个吸烟特性相关联的多维分布函数来确定所述概率。
100.根据权利要求99所述的方法,其中,所述一个或多个吸烟特性包括所述用户进行一个或多个香烟抽吸。
101.根据权利要求100所述的方法,还包括:生成针对每个抽吸的多维分布函数。
102.根据权利要求101所述的方法,还包括:基于以下来确定所述用户吸烟的概率:(1)潜在抽吸的数目;(2)针对每个潜在抽吸的多维分布函数;和(3)发生潜在抽吸的数目的持续时间。
103.根据权利要求102所述的方法,还包括:确定针对多个潜在抽吸的多维分布函数的和是否等于或大于预定概率阈值。
104.根据权利要求103所述的方法,还包括:当所述和等于或大于所述预定概率阈值时,确定所述用户正在吸烟,并且当所述和小于所述预定概率阈值时,确定所述用户没在吸烟。
105.根据权利要求104所述的方法,其中,当在预定时间段内已经检测到预定数目的抽吸时,确定所述用户正在吸烟。
106.根据权利要求102所述的方法,还包括:分析与所述潜在抽吸相关联的滚动角和俯仰角,并且丢弃其滚动角和俯仰角落在预定的滚动/俯仰阈值之外的抽吸。
107.根据权利要求102所述的方法,还包括:分析所述潜在抽吸之间的持续时间,并且丢弃所述持续时间在预定时间段之外的抽吸。
108.根据权利要求81所述的方法,还包括:确定所述用户在一天的不同时间和/或在不同的地理位置处吸烟的概率。
109.根据权利要求108所述的方法,还包括:基于一天的不同时间和/或在不同的地理位置来调整所述传感器数据收集的频率。
110.根据权利要求109所述的方法,其中,在用户吸烟的概率高于预定阈值的地理位置处和/或一天的时间处增加所述传感器数据收集的频率。
111.根据权利要求109所述的方法,其中,在用户吸烟的概率低于预定阈值的地理位置处和/或一天的时间处降低所述传感器数据收集的频率。
112.根据权利要求108所述的方法,还包括:基于所述用户在一天的不同时间和/或在不同地理位置处吸烟的概率来选择性地激活所述传感器中的一个或多个。
CN201580076106.2A 2014-12-16 2015-12-15 用于监控和影响基于姿势的行为的方法和系统 Active CN107250947B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462092283P 2014-12-16 2014-12-16
US62/092,283 2014-12-16
PCT/US2015/065862 WO2016100368A1 (en) 2014-12-16 2015-12-15 Methods and systems for monitoring and influencing gesture-based behaviors

Publications (2)

Publication Number Publication Date
CN107250947A true CN107250947A (zh) 2017-10-13
CN107250947B CN107250947B (zh) 2020-07-28

Family

ID=56127477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580076106.2A Active CN107250947B (zh) 2014-12-16 2015-12-15 用于监控和影响基于姿势的行为的方法和系统

Country Status (6)

Country Link
US (5) US10126829B2 (zh)
EP (1) EP3234731B1 (zh)
JP (2) JP2018506773A (zh)
CN (1) CN107250947B (zh)
HK (1) HK1245940A1 (zh)
WO (1) WO2016100368A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109737957A (zh) * 2019-01-31 2019-05-10 济南大学 一种采用级联FIR滤波的INS/LiDAR组合导航方法及系统
CN110122929A (zh) * 2019-05-17 2019-08-16 南京大学 一种基于惯性传感器的抽烟事件监测系统及监测方法
CN110411460A (zh) * 2018-04-27 2019-11-05 高树安弗(杭州)科技有限公司 自适应控制操作以选择主体或设备的状况的移动设备的定位计算精度和功耗之间的折衷
CN110779148A (zh) * 2019-11-14 2020-02-11 宁波奥克斯电气股份有限公司 一种基于毫米波的空调趣味控制方法、装置及空调器
CN111919262A (zh) * 2018-04-26 2020-11-10 菲利普莫里斯生产公司 用于气溶胶生成制品的消耗转换的自动消耗检测
CN112216062A (zh) * 2020-09-11 2021-01-12 深圳市朗尼科智能股份有限公司 社区安全预警方法、装置、计算机设备以及系统
CN112955070A (zh) * 2018-08-17 2021-06-11 Lvl科技股份有限公司 情境饮用检测的系统和方法
CN113288122A (zh) * 2021-05-21 2021-08-24 河南理工大学 一种可穿戴坐姿监测装置和坐姿监测方法
CN115240365A (zh) * 2022-07-19 2022-10-25 成都信息工程大学 一种融合多维信息的电力作业人员危险态势动态感知方法
CN116649959A (zh) * 2023-05-31 2023-08-29 北京欧应科技有限公司 监测系统、判断佩戴装置定位的方法及存储介质

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US9552070B2 (en) * 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
WO2016100368A1 (en) 2014-12-16 2016-06-23 Somatix, Inc. Methods and systems for monitoring and influencing gesture-based behaviors
US10064432B2 (en) 2015-04-22 2018-09-04 Altria Client Services Llc Pod assembly, dispensing body, and E-vapor apparatus including the same
USD874059S1 (en) 2015-04-22 2020-01-28 Altria Client Servies Llc Electronic vaping device
US10671031B2 (en) 2015-04-22 2020-06-02 Altria Client Services Llc Body gesture control system for button-less vaping
US10327474B2 (en) 2015-04-22 2019-06-25 Altria Client Services Llc Pod assembly, dispensing body, and E-vapor apparatus including the same
US10104913B2 (en) 2015-04-22 2018-10-23 Altria Client Services Llc Pod assembly, dispensing body, and E-vapor apparatus including the same
USD874720S1 (en) 2015-04-22 2020-02-04 Altria Client Services, Llc Pod for an electronic vaping device
USD980507S1 (en) 2015-04-22 2023-03-07 Altria Client Services Llc Electronic vaping device
US11103139B2 (en) * 2015-06-14 2021-08-31 Facense Ltd. Detecting fever from video images and a baseline
US11154203B2 (en) * 2015-06-14 2021-10-26 Facense Ltd. Detecting fever from images and temperatures
US10129348B2 (en) * 2015-12-04 2018-11-13 At&T Intellectual Property I, L.P. Method and apparatus for modifying behavior of a user via a network
CN105549408B (zh) * 2015-12-31 2018-12-18 歌尔股份有限公司 可穿戴设备、智能家居服务器及其控制方法和系统
GB2546737A (en) * 2016-01-26 2017-08-02 Univ Bristol Method and device for detecting a smoking gesture
CN113035322A (zh) 2016-01-28 2021-06-25 克鲁有限公司 用于跟踪食物摄入和其它行为并提供相关反馈的方法和设备
US20230368046A9 (en) * 2016-01-28 2023-11-16 Medtronic Minimed, Inc. Activation of Ancillary Sensor Systems Based on Triggers from a Wearable Gesture Sensing Device
EP3413796A4 (en) * 2016-02-12 2019-06-19 ALS Therapy Development Institute MEASUREMENT OF ALS PROGRESSION BASED ON KINETIC DATA
EP3487395A4 (en) 2016-07-25 2020-03-04 CTRL-Labs Corporation METHODS AND APPARATUS FOR PREDICTING MUSCULOSKELETAL POSITION INFORMATION USING PORTABLE SELF-CONTAINED SENSORS
US10255738B1 (en) * 2016-07-25 2019-04-09 United Services Automobile Association (Usaa) Authentication based on through-body signals detected in body area networks
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3507731A4 (en) * 2016-09-02 2020-04-22 Lumme Inc SYSTEMS AND METHODS FOR MONITORING HEALTH
US10007948B1 (en) * 2016-12-22 2018-06-26 Capital One Services, Llc Systems and methods for facilitating a transaction relating to newly identified items using augmented reality
CA3048671A1 (en) * 2016-12-27 2018-07-05 Altria Client Services Llc Body gesture control system for button-less vaping
US11417426B2 (en) 2017-02-24 2022-08-16 Masimo Corporation System for displaying medical monitoring data
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US10551935B2 (en) 2017-04-07 2020-02-04 University Of South Carolina Wearable computing device featuring machine-learning-based smoking detection
CN110809804B (zh) 2017-05-08 2023-10-27 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
EP3667564A4 (en) * 2017-08-08 2021-04-07 Fang, Chao GESTURE ACQUISITION SYSTEM
CN109426827B (zh) * 2017-08-25 2021-05-07 中国科学院计算技术研究所 一种多模态传感器协同感知方法及系统
US11039645B2 (en) * 2017-09-19 2021-06-22 Rai Strategic Holdings, Inc. Differential pressure sensor for an aerosol delivery device
CN111565637A (zh) * 2017-10-09 2020-08-21 钛深科技 基于可穿戴压力传感器阵列的人体动作和位置感测、识别与分析
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
EP3723604A4 (en) * 2017-12-15 2021-04-21 Somatix Inc. SYSTEMS AND PROCEDURES FOR MONITORING THE WELL-BEING OF A USER
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP4241661A1 (en) * 2018-08-31 2023-09-13 Facebook Technologies, LLC Camera-guided interpretation of neuromuscular signals
EP3853698A4 (en) 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
US10831280B2 (en) * 2018-10-09 2020-11-10 International Business Machines Corporation Augmented reality system for efficient and intuitive document classification
US20200135320A1 (en) 2018-10-31 2020-04-30 Medtronic Minimed, Inc. Automated detection of a physical behavior event and corresponding adjustment of a medication dispensing system based on historical events
CN113423341A (zh) * 2018-11-27 2021-09-21 脸谱科技有限责任公司 用于可穿戴电极传感器系统的自动校准的方法和装置
US20200326765A1 (en) * 2019-04-12 2020-10-15 XRSpace CO., LTD. Head mounted display system capable of indicating a tracking unit to track a hand gesture or a hand movement of a user or not, related method and related non-transitory computer readable storage medium
JP7152357B2 (ja) * 2019-05-24 2022-10-12 株式会社日立製作所 正解データ作成支援システムおよび正解データ作成支援方法
CN110146657A (zh) * 2019-06-10 2019-08-20 中国烟草总公司郑州烟草研究院 一种评价卷烟落头倾向的方法
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
KR102661485B1 (ko) * 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
US11032409B1 (en) * 2019-09-20 2021-06-08 Yellcast, Inc Methods for geographic gesturing using a mobile device for interactions with nearby other mobile devices
KR20210052874A (ko) * 2019-11-01 2021-05-11 삼성전자주식회사 복수의 센서 신호를 이용하여 사용자의 제스처를 인식하는 전자 장치
IT202000001603A1 (it) * 2020-01-28 2021-07-28 St Microelectronics Srl Sistema e metodo di riconoscimento di un gesto di tocco
US20230148135A1 (en) * 2020-02-24 2023-05-11 Agt International Gmbh Tracking user and object dynamics using a computerized device
US11150737B2 (en) * 2020-03-16 2021-10-19 Facebook Technologies, Llc Apparatus, system, and method for wrist tracking and gesture detection via time of flight sensors
AU2021106501A4 (en) * 2020-10-23 2021-11-04 Elbaware Limited Device, system and method for determining face touching
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN116774597A (zh) * 2023-05-05 2023-09-19 杭州手趣科技有限公司 一种基于可穿戴设备的智能家居设备控制方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102377871A (zh) * 2010-08-24 2012-03-14 联想(北京)有限公司 一种信息处理设备及其控制方法

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6605038B1 (en) 2000-06-16 2003-08-12 Bodymedia, Inc. System for monitoring health, wellness and fitness
US7689437B1 (en) 2000-06-16 2010-03-30 Bodymedia, Inc. System for monitoring health, wellness and fitness
IL137759A (en) 2000-08-08 2007-07-16 Eddie Karnieli Method for monitoring food intake
JP2004008573A (ja) * 2002-06-07 2004-01-15 Seiko Instruments Inc 遠隔健康診断装置、及びその診断方法、並びに遠隔健康診断プログラム
JP2004024551A (ja) * 2002-06-26 2004-01-29 Renesas Technology Corp センサシステム用半導体装置
JP2006026037A (ja) * 2004-07-15 2006-02-02 Hitachi Ltd 健康管理支援システム
WO2006090371A2 (en) * 2005-02-22 2006-08-31 Health-Smart Limited Methods and systems for physiological and psycho-physiological monitoring and uses thereof
US7652609B2 (en) * 2005-08-01 2010-01-26 Samsung Electronics Co., Ltd. Apparatus and method for detecting motion with low power consumption in inertia sensor
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
CN101326526A (zh) 2005-12-15 2008-12-17 皇家飞利浦电子股份有限公司 改正人的饮食和活动习惯
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US8968195B2 (en) 2006-05-12 2015-03-03 Bao Tran Health monitoring appliance
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US8075499B2 (en) 2007-05-18 2011-12-13 Vaidhi Nathan Abnormal motion detector and monitor
WO2008134313A1 (en) 2007-04-26 2008-11-06 Heather Raymond A method and system for developing or tracking a program for medical treatment
WO2008157622A1 (en) 2007-06-18 2008-12-24 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Method, apparatus and system for food intake and physical activity assessment
JP2009140107A (ja) * 2007-12-04 2009-06-25 Sony Corp 入力装置及び制御システム
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US8920345B2 (en) 2008-12-07 2014-12-30 Apdm, Inc. System and apparatus for continuous monitoring of movement disorders
US8682608B2 (en) * 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
US20110153360A1 (en) 2009-12-23 2011-06-23 Al Cure Technologies LLC Method and Apparatus for Verification of Clinical Trial Adherence
US8760392B2 (en) * 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US20120016641A1 (en) * 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
WO2012135325A2 (en) * 2011-03-29 2012-10-04 Heartmiles, Llc Data collection unit power and noise management
JP5703090B2 (ja) * 2011-03-30 2015-04-15 株式会社日立製作所 健康管理システム
US8543135B2 (en) * 2011-05-12 2013-09-24 Amit Goyal Contextually aware mobile device
US20130194066A1 (en) 2011-06-10 2013-08-01 Aliphcom Motion profile templates and movement languages for wearable devices
US10463300B2 (en) * 2011-09-19 2019-11-05 Dp Technologies, Inc. Body-worn monitor
US20130077820A1 (en) * 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
JP5885292B2 (ja) * 2011-11-08 2016-03-15 公立大学法人首都大学東京 行動認識プログラムおよび行動認識用の処理装置
WO2013074868A1 (en) * 2011-11-16 2013-05-23 Flextronics Ap, Llc Complete vehicle ecosystem
JP2015505694A (ja) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー 行動トラッキングおよび修正システム
US10776103B2 (en) * 2011-12-19 2020-09-15 Majen Tech, LLC System, method, and computer program product for coordination among multiple devices
US9352207B2 (en) * 2012-01-19 2016-05-31 Nike, Inc. Action detection and activity classification
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
GB2502087A (en) * 2012-05-16 2013-11-20 St Microelectronics Res & Dev Gesture recognition
US9254099B2 (en) 2013-05-23 2016-02-09 Medibotics Llc Smart watch and food-imaging member for monitoring food consumption
JP6011127B2 (ja) * 2012-08-06 2016-10-19 富士ゼロックス株式会社 行為検出プログラム及び行為検出装置
JP6222096B2 (ja) * 2012-09-19 2017-11-01 株式会社ニコン 電子機器、及びプログラム
JP6159556B2 (ja) 2012-09-20 2017-07-05 シャープ株式会社 非水系二次電池、並びに非水系二次電池用難燃剤及び添加剤
US9092600B2 (en) * 2012-11-05 2015-07-28 Microsoft Technology Licensing, Llc User authentication on augmented reality display device
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9081571B2 (en) * 2012-11-29 2015-07-14 Amazon Technologies, Inc. Gesture detection management for an electronic device
US9865176B2 (en) * 2012-12-07 2018-01-09 Koninklijke Philips N.V. Health monitoring system
KR102037416B1 (ko) * 2012-12-17 2019-10-28 삼성전자주식회사 외부 기기 관리 방법, 외부 기기의 동작 방법, 호스트 단말, 관리 서버 및 외부 기기
US9174084B2 (en) * 2013-03-05 2015-11-03 Microsoft Technology Licensing, Llc Automatic exercise segmentation and recognition
US20150164377A1 (en) 2013-03-13 2015-06-18 Vaidhi Nathan System and method of body motion analytics recognition and alerting
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US20140288876A1 (en) * 2013-03-15 2014-09-25 Aliphcom Dynamic control of sampling rate of motion to modify power consumption
EP2992499B1 (en) * 2013-04-30 2021-10-27 Essity Hygiene and Health Aktiebolag Process and arrangement for collecting and storing data related to a condition of an absorbent product
JP2014238812A (ja) * 2013-05-10 2014-12-18 株式会社リコー 情報処理装置、動作特定方法及び動作特定プログラム
US9798860B1 (en) 2013-05-16 2017-10-24 Carepredict, Inc. Methods and systems for remotely determining levels of healthcare interventions
US20140376773A1 (en) * 2013-06-21 2014-12-25 Leap Motion, Inc. Tunable operational parameters in motion-capture and touchless interface operation
US10456622B2 (en) 2013-11-04 2019-10-29 Intel Corporation Detection of biking, walking, and running
IL229369A (en) * 2013-11-11 2017-12-31 Vestigo Tech Ltd Low-bandwidth system and methods for wireless data monitoring for moving devices
JP5613314B1 (ja) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 ジェスチャー検出装置、ジェスチャー検出プログラム、ジェスチャー認識装置およびジェスチャー認識プログラム
US9418342B2 (en) * 2013-12-06 2016-08-16 At&T Intellectual Property I, L.P. Method and apparatus for detecting mode of motion with principal component analysis and hidden markov model
EP2911089B1 (en) * 2014-02-25 2018-04-04 Karlsruher Institut für Technologie Method and system for handwriting and gesture recognition
US20150254992A1 (en) * 2014-03-06 2015-09-10 Maneesh SETHI Memory-enhancing and habit-training methods and devices
US9740396B1 (en) * 2014-06-25 2017-08-22 Amazon Technologies, Inc. Adaptive gesture recognition
US9847012B2 (en) 2014-07-07 2017-12-19 Google Llc Meal-based medication reminder system
US9699859B1 (en) * 2014-08-01 2017-07-04 Moov Inc. Configuration of an automated personal fitness coaching device
WO2016100368A1 (en) 2014-12-16 2016-06-23 Somatix, Inc. Methods and systems for monitoring and influencing gesture-based behaviors
CN113035322A (zh) 2016-01-28 2021-06-25 克鲁有限公司 用于跟踪食物摄入和其它行为并提供相关反馈的方法和设备
JP6727921B2 (ja) * 2016-05-18 2020-07-22 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理システム、情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102377871A (zh) * 2010-08-24 2012-03-14 联想(北京)有限公司 一种信息处理设备及其控制方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111919262A (zh) * 2018-04-26 2020-11-10 菲利普莫里斯生产公司 用于气溶胶生成制品的消耗转换的自动消耗检测
CN110411460A (zh) * 2018-04-27 2019-11-05 高树安弗(杭州)科技有限公司 自适应控制操作以选择主体或设备的状况的移动设备的定位计算精度和功耗之间的折衷
CN112955070A (zh) * 2018-08-17 2021-06-11 Lvl科技股份有限公司 情境饮用检测的系统和方法
CN109737957A (zh) * 2019-01-31 2019-05-10 济南大学 一种采用级联FIR滤波的INS/LiDAR组合导航方法及系统
CN110122929A (zh) * 2019-05-17 2019-08-16 南京大学 一种基于惯性传感器的抽烟事件监测系统及监测方法
CN110122929B (zh) * 2019-05-17 2021-07-30 南京大学 一种基于惯性传感器的抽烟事件监测系统及监测方法
CN110779148A (zh) * 2019-11-14 2020-02-11 宁波奥克斯电气股份有限公司 一种基于毫米波的空调趣味控制方法、装置及空调器
CN112216062A (zh) * 2020-09-11 2021-01-12 深圳市朗尼科智能股份有限公司 社区安全预警方法、装置、计算机设备以及系统
CN113288122A (zh) * 2021-05-21 2021-08-24 河南理工大学 一种可穿戴坐姿监测装置和坐姿监测方法
CN113288122B (zh) * 2021-05-21 2023-12-19 河南理工大学 一种可穿戴坐姿监测装置和坐姿监测方法
CN115240365A (zh) * 2022-07-19 2022-10-25 成都信息工程大学 一种融合多维信息的电力作业人员危险态势动态感知方法
CN116649959A (zh) * 2023-05-31 2023-08-29 北京欧应科技有限公司 监测系统、判断佩戴装置定位的方法及存储介质

Also Published As

Publication number Publication date
JP2018506773A (ja) 2018-03-08
EP3234731A1 (en) 2017-10-25
EP3234731B1 (en) 2020-07-01
US20170262064A1 (en) 2017-09-14
JP7336549B2 (ja) 2023-08-31
CN107250947B (zh) 2020-07-28
US11550400B2 (en) 2023-01-10
US20190079593A1 (en) 2019-03-14
US10126829B2 (en) 2018-11-13
US20200225760A1 (en) 2020-07-16
US10474244B2 (en) 2019-11-12
US11112874B2 (en) 2021-09-07
HK1245940A1 (zh) 2018-08-31
EP3234731A4 (en) 2018-07-18
JP2022058756A (ja) 2022-04-12
US20230359282A1 (en) 2023-11-09
WO2016100368A1 (en) 2016-06-23
US20220155872A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
CN107250947A (zh) 用于监控和影响基于姿势的行为的方法和系统
US9750433B2 (en) Using health monitor data to detect macro and micro habits with a behavioral model
US20170039480A1 (en) Workout Pattern Detection
US20180374381A1 (en) Craving input and support system
CN105996984B (zh) 利用可穿戴电子装置的久坐时间段检测
US20120326873A1 (en) Activity attainment method and apparatus for a wellness application using data from a data-capable band
US20140085077A1 (en) Sedentary activity management method and apparatus using data from a data-capable band for managing health and wellness
US20170309196A1 (en) User energy-level anomaly detection
US20120313776A1 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
US20140129007A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
CN107205655A (zh) 协调关系可穿戴物
CN110780707A (zh) 信息处理设备、信息处理方法与计算机可读介质
CN102982059A (zh) 信息处理装置、信息处理方法和程序
KR102089002B1 (ko) 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법
WO2012170584A1 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
Vinci et al. The use of ambulatory assessment in smoking cessation
US20140125480A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
Fan et al. A new approach for smoking event detection using a variational autoencoder and neural decision forest
Chen et al. Are you smoking? Automatic alert system helping people keep away from cigarettes
Su et al. Accelerometer-based activity recognition on smartphone
Bayındır A survey of people-centric sensing studies utilizing mobile phone sensors
Lukowicz et al. On-body sensing: From gesture-based input to activity-driven interaction
Parate Designing Efficient and Accurate Behavior-Aware Mobile Systems
Chavhan et al. Context Mining with Machine Learning Approach: Understanding, Sensing, Categorizing, and Analyzing Context Parameters
US20210124980A1 (en) Augmented group experience event correlation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant