CN112130678B - 一种手臂放下识别方法及可穿戴终端 - Google Patents

一种手臂放下识别方法及可穿戴终端 Download PDF

Info

Publication number
CN112130678B
CN112130678B CN202011011043.1A CN202011011043A CN112130678B CN 112130678 B CN112130678 B CN 112130678B CN 202011011043 A CN202011011043 A CN 202011011043A CN 112130678 B CN112130678 B CN 112130678B
Authority
CN
China
Prior art keywords
arm
wearable terminal
axes
momentum
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011011043.1A
Other languages
English (en)
Other versions
CN112130678A (zh
Inventor
何岸
赵燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DO Technology Co ltd
Original Assignee
DO Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DO Technology Co ltd filed Critical DO Technology Co ltd
Priority to CN202011011043.1A priority Critical patent/CN112130678B/zh
Publication of CN112130678A publication Critical patent/CN112130678A/zh
Application granted granted Critical
Publication of CN112130678B publication Critical patent/CN112130678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种手臂放下识别方法,应用于具有加速度传感器的可穿戴终端,包括数据采集步骤,滤波处理步骤,动量计算步骤,疑似手臂放下识别步骤,手臂放下动作识别步骤。本发明通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似手臂放下,再通过加速度特征对抬起姿态作进一步的判断识别,不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作。本发明减小了手臂放下识别的复杂度,降低了加速度传感器在可穿戴设备中位置不同对识别手臂放下动作的影响。

Description

一种手臂放下识别方法及可穿戴终端
技术领域
本发明运动识别技术领域,尤其涉及一种手臂放下识别方法及可穿戴终端。
背景技术
随着智能穿戴行业的发展,用户对穿戴设备的智能程度期待越来越高,为了满足用户对智能穿戴设备的期待,增加智能穿戴设备的实用性和趣味性,对智能穿戴识别实现了抬腕亮屏、放下熄屏的功能。
目前多数采用提取角度或旋转方向的特征来识别手臂放下。然而角度和旋转方向的计算复杂,且受传感器在智能穿戴设备中位置因素的影响(目前智能穿戴设备趋于大屏幕化,加速度值传感器放置在智能穿戴设备中偏上、中间、偏下等位置,其计算的角度值和旋转角度值是有差异的)。
发明内容
本发明主要解决的技术问题是提供一种手臂放下识别方法及可穿戴终端,解决采用提取角度或旋转方向的特征识别手臂放下动作时,计算过程复杂,受传感器在可穿戴终端中的位置对识别结果影响较大的问题。
为解决上述技术问题,本发明采用的一个技术方案是提供一种手臂放下识别方法,应用于具有加速度传感器的可穿戴终端,所述方法包括:数据采集步骤,实时采集所述加速度传感器的X、Y、Z三轴的加速度信号;滤波处理步骤,对X、Y、Z三轴分别对应在每个方向上的加速度信号进行滤波处理;动量计算步骤,分别计算X、Y、Z三轴在第一预设时间内的动量值;疑似手臂放下识别步骤,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,当X、Y、Z轴三轴的动量值均大于或等于每一轴的预设阈值时,则识别为疑似手臂放下;手臂放下动作识别步骤,若识别为疑似手臂放下,则根据可穿戴终端的姿态特征识别手臂放下动作。
优选的,所述加速度传感器的Z轴垂直于所述可穿戴终端的触摸屏,所述加速度传感器的X轴与Y轴互相垂直且均平行于所述可穿戴终端的触摸屏,且所述X轴平行于人体前臂。
优选的,所述手臂放下动作识别步骤包括:判断所述可穿戴终端的姿态是否为抬起姿态;若所述可穿戴终端不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作。
优选的,还包括运动状态识别步骤,根据X、Y、Z三轴的瞬时动量中的最大瞬时动量判断所述可穿戴终端的运动状态。
优选的,在所述疑似手臂放下识别步骤中,X、Y、Z三轴中每一轴的预设阈值根据所述可穿戴终端的不同运动状态设置为不同。
优选的,所述手臂放下动作识别步骤中,根据所述加速度传感器X、Y、Z三轴的加速度数据分别是否满足预设的抬起姿态阈值条件判断所述可穿戴终端是否为抬起姿态。
优选的,所述预设的抬起姿态阈值条件根据所述可穿戴终端的不同运动状态设置为不同。
优选的,所述可穿戴终端的运动状态包括剧烈运动和非剧烈运动。
优选的,所述第二预设时间为0.5秒至3秒。
一种可穿戴终端,具有加速度传感器,可穿戴终端包括:数据采集模块,实时采集加速度传感器的X、Y、Z三轴的加速度信号;滤波处理模块,对X、Y、Z三轴分别对应在每个方向上的加速度信号进行滤波处理;动量计算模块,分别计算X、Y、Z三轴在第一预设时间内的动量值;疑似手臂放下识别模块,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,所述X、Y、Z轴三轴的动量值均大于每一轴的预设阈值则识别为疑似疑似手臂放下;手臂放下动作识别模块,若识别为疑似手臂放下,则根据所述可穿戴终端的姿态特征识别手臂放下动作。
本发明的有益效果是:本发明提供一种手臂放下识别方法,应用于具有加速度传感器的可穿戴终端,包括数据采集步骤,滤波处理步骤,动量计算步骤,疑似手臂放下识别步骤,手臂放下动作识别步骤。本发明通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似手臂放下,再通过加速度特征对抬起姿态作进一步的判断识别,不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作。本发明减小了手臂放下识别的复杂度,降低了加速度传感器在可穿戴设备中位置不同对识别手臂放下动作的影响。
附图说明
图1是根据本发明一种手臂放下识别方法一实施例的流程图;
图2是根据本发明一种手臂放下识别方法一实施例的可穿戴终端方向示意图;
图3是根据本发明一种手臂放下识别方法一实施例的人体抬起姿态示意图;
图4是根据本发明可穿戴终端一实施例的示意框图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
需要说明的是,除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,手臂放下识别方法应用于具有加速度传感器的可穿戴终端,方法包括:
数据采集步骤S1,实时采集加速度传感器的X、Y、Z三轴的加速度信号;
滤波处理步骤S2,对X、Y、Z三轴分别对应在每个方向上的加速度信号进行滤波处理;
动量计算步骤S3,分别计算X、Y、Z三轴在第一预设时间内的动量值;
疑似手臂放下识别步骤S4,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,当X、Y、Z轴三轴的动量值均大于或等于每一轴的预设阈值时,则识别为疑似手臂放下;
手臂放下动作识别步骤S5,若识别为疑似手臂放下,则根据可穿戴终端的姿态特征识别手臂放下动作。
进一步的,可穿戴终端为内部具有加速度传感器的手表、手环或手套等穿戴于手臂上的各类可穿戴设备。加速度传感器是能够测量加速度值,数量大于或等于一。
优选的,如图2所示,图2为可穿戴终端方向示意图。在数据采集步骤S1中,加速度传感器的Z轴垂直于可穿戴终端的触摸屏,加速度传感器的X轴与Y轴互相垂直且均平行于可穿戴终端的触摸屏,且X轴平行于人体前臂。
进一步的,在滤波处理步骤S2中,通过IIR滤波和中值滤波对X、Y、Z三轴的加速度信号进行滤波处理,消除噪声点。
进一步的,在动量计算步骤S3中,X方向上的加速度为x_a,Y方向上的加速度为y_a,Z方向上的加速度为z_a。由加速度x_a、y_a和z_a分别对应计算出第一预设时间内X方向上的瞬时动量x_feature,Y方向上的瞬时动量y_feature,以及Z方向上的瞬时动量z_feature。
优选的,第一预设时间选取为50毫秒-500毫秒。
进一步的,在疑似手臂放下识别S4中,预设X、Y、Z轴三轴的动量阈值,X轴的预设阈值为X轴第一动量阈值x_d,Y轴的预设阈值为Y轴第一动量阈值y_d,Z轴的预设阈值为Z轴第一动量阈值z_d;若X、Y、Z三轴在第一预设时间内的动量值均大于或等于对应的每轴方向上的第一动量阈值,确定为疑似手臂放下;若X、Y、Z三轴在第一预设时间内的动量值中,任意一轴小于对应的每轴方向上的第一动量阈值,返回到上述数据采集步骤;继续采集数据。
优选的,如图3所示,图3为人体抬起姿态示意图。在手臂放下动作识别步骤S5中,判断可穿戴终端的姿态是否为抬起姿态;若可穿戴终端不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作。第二预设时间为0.5秒至3秒。
因此,在手臂放下动作识别步骤S5中,需要进一步对可穿戴终端的姿态是否为抬起姿态进行判断,进而识别可穿戴终端是否为手臂放下动作。在本发明中,根据加速度传感器X、Y、Z三轴的加速度数据分别是否满足预设的抬起姿态阈值条件判断可穿戴终端是否为抬起姿态。
具体的,加速度传感器中包括质量块、弹性元件等部分组成,输出加速度。由加速度传感器中的质量块和弹性元件获得检测值。在没有加速度的情况下,弹性元件不会发生形变,质量块静止,当产生加速度时,弹性元件发生形变,质量块的位置会发生变化。由弹性元件的弹性系数和质量块的质量计算获得检测值。由检测值计算获得加速度。
检测值的计量单位是通常用g表示,1g代表一个重力加速度,即9.8m/s2,此时质量块仅在重力作用下产生位移。当X方向的检测值X_test、Y方向的检测值Y_test或Z方向的检测值Z_test任一检测值的数值为1g,其余两个方向的检测值的数值为0g时,可穿戴终端处于静止状态,手臂水平或竖直且保持为静止状态。
当前臂为抬起姿态时,不管加速度传感器在可穿戴终端中的任何位置,前臂与水平面都会具有一定的抬起角度,抬起角度为-30°~45°。即此时加速度传感器中的质量块具有一定的倾斜角度,分别预设抬起姿态时加速度传感器X、Y、Z轴的抬起姿态区间值为X_interval、Y_interval、Z_interval,分别判断X方向的检测值X_test是否在X轴的抬起姿态区间值X_interval内、Y方向的检测值Y_test是否在Y轴的抬起姿态区间值Y_interval内、Z方向的检测值Z_test是否在Z轴的抬起姿态区间值Z_interval内。
因此,加速度数据为:X方向的检测值X_test、Y方向的检测值Y_test或Z方向的检测值Z_test。抬起姿态阈值条件为:同时满足检测值X_test在抬起姿态区间值X_interval内、检测值Y_test在抬起姿态区间值Y_interval内、检测值Z_test在抬起姿态区间值Z_interval内,则判断前臂为抬起姿态。
通过判断加速度传感器的检测值判断抬起姿态,不管加速度传感器在可穿戴终端的什么位置,不会影响对抬起姿态的判断,减少了加速度传感器的在可穿戴终端中的位置不同对识别结果产生的影响。
因此,手臂放下是一种相对静止的状态,当可穿戴终端不处于抬起姿态或处于抬起姿态的时间小于第二预设时间(0.5秒至3秒),则确定为放下姿态,并进一步识别为手臂放下动作。因此放下姿态实际包括了垂臂、手臂放在桌面上(但不是处于抬起姿态)或其中间状态。
进一步的,还包括运动状态识别步骤,根据X、Y、Z三轴的瞬时动量中的最大瞬时动量判断可穿戴终端的运动状态。对比x_feature、y_feature和z_feature的数值,选取x_feature、y_feature和z_feature中数值最大的瞬时动量作为最大瞬时动量max_feature。
可穿戴终端的运动状态包括剧烈运动和非剧烈运动。非剧烈运动对应的运动状态区间值为(a,b),剧烈运动对应的运动状态区间值为(b,c),运动越剧烈预设的运动状态区间值内的上限数值和下限数值越大。当a<max_feature≤b时,则确定为非剧烈运动,当b<max_feature≤c时,则确定为剧烈运动。
优选的,在疑似手臂放下识别步骤S4中,X、Y、Z三轴中每一轴的预设阈值根据可穿戴终端的不同运动状态设置为不同。当可穿戴终端的运动状态为非剧烈运动时,X、Y、Z三轴的预设阈值分别为:X轴第一动量阈值x_d、Y轴第一动量阈值y_d、Z轴第一动量阈值z_d;当可穿戴终端的运动状态为剧烈运动时,X、Y、Z三轴的预设阈值分别为:X轴第二动量阈值x_D,Y轴的预设阈值为Y轴第二动量阈值y_D,Z轴的预设阈值为Z轴第二动量阈值z_D。x_d<x_D,y_d<y_D,z_d<z_D。
优选的,在手臂放下动作识别步骤S5中,预设的抬起姿态阈值条件根据可穿戴终端的不同运动状态设置为不同。当确定运动状态为非剧烈运动时,抬起姿态阈值条件为:同时满足检测值X_test在抬起姿态区间值X_interval内、检测值Y_test在抬起姿态区间值Y_interval内、检测值Z_test在抬起姿态区间值Z_interval内;当确定运动状态为剧烈运动时,返回到上述数据采集步骤;继续采集数据。
进一步的,运动状态还可以细分为完全静止、轻微活动、正常活动、剧烈运动。
如图4所示,基于总的发明构思,本发明还提供一种可穿戴终端10,具有加速度传感器,可穿戴终端10包括:
数据采集模块110,实时采集所述加速度传感器的X、Y、Z三轴的加速度信号;
滤波处理模块120,对所述X、Y、Z三轴的加速度信号,分别对应在每个方向上的加速度信号进行滤波处理;
动量计算模块130,分别计算X、Y、Z三轴在第一预设时间内的动量值;
疑似手臂放下模块140,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,X、Y、Z轴三轴的动量值均大于每一轴的预设阈值则识别为疑似疑似手臂放下;
手臂放下动作识别模块150,若识别为疑似手臂放下,则根据可穿戴终端的姿态特征识别手臂放下动作。
关于可穿戴终端10各模块执行的操作的详细描述可以参照本申请提供的手臂放下识别方法的实施例中的描述,在此不再一一赘述。
应理解,上述方法实施例的各步骤可以通过可穿戴终端处理器中的硬件形式的逻辑电路或者软件形式的指令完成。软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(random access memory,RAM)、闪存、只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable rom,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。
由此可见,本发明提供一种手臂放下识别方法,应用于具有加速度传感器的可穿戴终端,包括数据采集步骤,滤波处理步骤,动量计算步骤,疑似手臂放下识别步骤,手臂放下动作识别步骤。本发明通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似手臂放下,再通过加速度特征对抬起姿态作进一步的判断识别,不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作。本发明减小了手臂放下识别的复杂度,降低了加速度传感器在可穿戴设备中位置不同对识别手臂放下动作的影响。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种手臂放下识别方法,应用于具有加速度传感器的可穿戴终端,其特征在于,所述方法包括:
数据采集步骤,实时采集所述加速度传感器的X、Y、Z三轴的加速度信号;
滤波处理步骤,对X、Y、Z三轴分别对应在每个方向上的加速度信号进行滤波处理;
动量计算步骤,分别计算X、Y、Z三轴在第一预设时间内的动量值;
疑似手臂放下识别步骤,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,当X、Y、Z轴三轴的动量值均大于或等于每一轴的预设阈值时,则识别为疑似手臂放下;若X、Y、Z三轴在第一预设时间内的动量值中,任意一轴小于对应的每轴方向上的预设阈值,返回到所述数据采集步骤;
在所述疑似手臂放下识别步骤中,X、Y、Z三轴中每一轴的预设阈值根据所述可穿戴终端的不同运动状态设置为不同;
手臂放下动作识别步骤,若识别为疑似手臂放下,则根据可穿戴终端的姿态特征识别手臂放下动作;
所述手臂放下动作识别步骤包括:判断所述可穿戴终端的姿态是否为抬起姿态;若所述可穿戴终端不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作;
还包括运动状态识别步骤,根据X、Y、Z三轴的瞬时动量中的最大瞬时动量判断所述可穿戴终端的运动状态。
2.根据权利要求1所述的手臂放下识别方法,其特征在于,所述加速度传感器的Z轴垂直于所述可穿戴终端的触摸屏,所述加速度传感器的X轴与Y轴互相垂直且均平行于所述可穿戴终端的触摸屏,且所述X轴平行于人体前臂。
3.根据权利要求2所述的手臂放下识别方法,其特征在于,所述手臂放下动作识别步骤中,根据所述加速度传感器X、Y、Z三轴的加速度数据分别是否满足预设的抬起姿态阈值条件判断所述可穿戴终端是否为抬起姿态。
4.根据权利要求3所述的手臂放下识别方法,其特征在于,所述预设的抬起姿态阈值条件根据所述可穿戴终端的不同运动状态设置为不同。
5.根据权利要求1所述的手臂放下识别方法,其特征在于,所述可穿戴终端的运动状态包括剧烈运动和非剧烈运动。
6.根据权利要求1所述的手臂放下识别方法,其特征在于,所述第二预设时间为0.5秒至3秒。
7.一种可穿戴终端,具有加速度传感器,其特征在于,所述可穿戴终端包括:
数据采集模块,实时采集加速度传感器的X、Y、Z三轴的加速度信号;
滤波处理模块,对X、Y、Z三轴分别对应在每个方向上的加速度信号进行滤波处理;
动量计算模块,分别计算X、Y、Z三轴在第一预设时间内的动量值;
疑似手臂放下识别模块,将X、Y、Z轴三轴的动量值分别与每一轴的预设阈值进行比较,所述X、Y、Z轴三轴的动量值均大于或等于每一轴的预设阈值则识别为疑似疑似手臂放下;若X、Y、Z三轴在第一预设时间内的动量值中,任意一轴小于对应的每轴方向上的预设阈值,返回到所述数据采集模块;
在所述疑似手臂放下识别模块中,X、Y、Z三轴中每一轴的预设阈值根据所述可穿戴终端的不同运动状态设置为不同;
手臂放下动作识别模块,若识别为疑似手臂放下,则根据所述可穿戴终端的姿态特征识别手臂放下动作;在所述手臂放下动作识别模块中,判断所述可穿戴终端的姿态是否为抬起姿态;若所述可穿戴终端不处于抬起姿态或处于抬起姿态的时间小于第二预设时间,则识别为手臂放下动作;
运动状态识别模块,根据X、Y、Z三轴的瞬时动量中的最大瞬时动量判断所述可穿戴终端的运动状态。
CN202011011043.1A 2020-09-23 2020-09-23 一种手臂放下识别方法及可穿戴终端 Active CN112130678B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011011043.1A CN112130678B (zh) 2020-09-23 2020-09-23 一种手臂放下识别方法及可穿戴终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011011043.1A CN112130678B (zh) 2020-09-23 2020-09-23 一种手臂放下识别方法及可穿戴终端

Publications (2)

Publication Number Publication Date
CN112130678A CN112130678A (zh) 2020-12-25
CN112130678B true CN112130678B (zh) 2023-06-02

Family

ID=73839165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011011043.1A Active CN112130678B (zh) 2020-09-23 2020-09-23 一种手臂放下识别方法及可穿戴终端

Country Status (1)

Country Link
CN (1) CN112130678B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107070474A (zh) * 2016-12-27 2017-08-18 广东小天才科技有限公司 一种可穿戴设备播放模式的切换控制方法及可穿戴设备
KR101775932B1 (ko) * 2017-02-20 2017-09-19 주식회사 빅오이 반려동물 케어를 위한 멀티모달 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106037179B (zh) * 2016-08-01 2018-01-09 广东乐源数字技术有限公司 一种可实现抬手亮屏的智能手环
CN106227355B (zh) * 2016-09-09 2019-01-25 广东乐源数字技术有限公司 一种可实现抬手亮屏的智能手环
KR101941604B1 (ko) * 2017-01-20 2019-01-24 만도헬라일렉트로닉스(주) 웨어러블 장치의 위치를 추정하는 방법 및 이를 이용하는 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107070474A (zh) * 2016-12-27 2017-08-18 广东小天才科技有限公司 一种可穿戴设备播放模式的切换控制方法及可穿戴设备
KR101775932B1 (ko) * 2017-02-20 2017-09-19 주식회사 빅오이 반려동물 케어를 위한 멀티모달 시스템

Also Published As

Publication number Publication date
CN112130678A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
US9402568B2 (en) Method and system for detecting a fall based on comparing data to criteria derived from multiple fall data sets
JP5674766B2 (ja) 着用位置を検出するためのセンシングデバイス
JP6064280B2 (ja) ジェスチャを認識するためのシステムおよび方法
EP3985488A1 (en) Method and wearable device for performing actions using body sensor array
CN106228200B (zh) 一种不依赖于动作信息采集设备的动作识别方法
US20180070889A1 (en) Devices and methods for fall detection based on phase segmentation
CN103927851B (zh) 一种个人化多阈值跌倒检测方法及系统
CN106981174A (zh) 一种基于智能手机的老人跌倒检测方法
CN108196668B (zh) 一种便携式手势识别系统及方法
CN112130675B (zh) 一种抬腕识别方法及可穿戴终端
CN111288986B (zh) 一种运动识别方法及运动识别装置
CN111854738A (zh) 一种基于三轴加速度计的人体运动状态检测方法及装置
CN108693982A (zh) 一种将手机内置传感器采集数据从手机坐标系转换到参考坐标系的处理方法
CN105551191B (zh) 一种跌倒检测方法
CN112130678B (zh) 一种手臂放下识别方法及可穿戴终端
CN112130676B (zh) 一种可穿戴终端及其翻腕识别方法
CN110929766B (zh) 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法
CN111803902B (zh) 泳姿识别方法、装置、可穿戴设备及存储介质
Dwiyantoro et al. A simple hierarchical activity recognition system using a gravity sensor and accelerometer on a smartphone
CN112130677B (zh) 一种可穿戴终端及其举手识别方法
CN109793497B (zh) 一种睡眠状态识别方法及装置
CN114298105B (zh) 一种跑步过程中快速响应抬腕动作并亮屏的信号处理方法
CN112162595B (zh) 一种垂臂旋转识别方法及可穿戴终端
Pipanmaekaporn et al. Mining Acceleration Data for Smartphone-based Fall Detection
Ahmer et al. Using non-linear support vector machines for detection of activities of daily living

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant