CN112130675A - 一种抬腕识别方法及可穿戴终端 - Google Patents
一种抬腕识别方法及可穿戴终端 Download PDFInfo
- Publication number
- CN112130675A CN112130675A CN202011008527.0A CN202011008527A CN112130675A CN 112130675 A CN112130675 A CN 112130675A CN 202011008527 A CN202011008527 A CN 202011008527A CN 112130675 A CN112130675 A CN 112130675A
- Authority
- CN
- China
- Prior art keywords
- wrist
- lifting
- momentum
- preset
- acceleration sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000001133 acceleration Effects 0.000 claims abstract description 106
- 210000000707 wrist Anatomy 0.000 claims description 53
- 210000000245 forearm Anatomy 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种抬腕识别方法,包括:数据采集步骤,最大瞬时动量计算步骤,疑似抬腕识别步骤,抬腕动作识别步骤,本发明通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似抬腕,再通过加速度特征和姿态特征对疑似抬腕动作进一步的判断识别,最终输出抬腕识别结果,降低了计算复杂度,减少了传感器在可穿戴终端中位置的影响。
Description
技术领域
本发明属于运动识别技术领域,尤其涉及一种抬腕识别方法及可穿戴终端。
背景技术
随着智能穿戴行业的发展,用户对穿戴设备的智能程度期待越来越高,为了满足用户对智能穿戴设备的期待,增加智能穿戴设备的实用性和趣味性,对智能穿戴识别实现了抬腕亮屏、放下熄屏的功能。
目前多数智能穿戴设备采用提取角度或旋转方向的特征来识别抬腕。然而角度和旋转方向的计算复杂,且受传感器在智能穿戴设备中位置因素的影响(目前智能穿戴设备趋于大屏幕化,加速度传感器放置在智能穿戴设备中偏上、中间、偏下等位置,其计算的角度值和旋转角度值具有一定的差异)。
发明内容
本发明主要解决的技术问题是提供一种抬腕识别方法及可穿戴终端,解决采用提取角度或旋转方向的特征识别抬腕计算复杂,受传感器在可穿戴终端中位置的影响较大的问题。
为解决上述技术问题,本发明采用的一个技术方案是提供一种抬腕识别方法,包括步骤:
数据采集步骤,实时采集加速度传感器的X、Y、Z三轴的加速度;
最大瞬时动量计算步骤,根据加速度分别计算X、Y、Z三轴的瞬时动量,并获取X、Y、Z三轴的瞬时动量中的最大瞬时动量;
疑似抬腕识别步骤,将最大瞬时动量与第一预设动量阈值进行比较,最大瞬时动量大于或等于第一预设动量阈值则识别为疑似抬腕;
抬腕动作识别步骤,若识别为疑似抬腕,则根据加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
优选的,加速度传感器的Z轴垂直于可穿戴终端的触摸屏,加速度传感器的X轴与Y轴互相垂直且均平行于触摸屏,且X轴平行于人体前臂,Y轴垂直于人体前臂。
优选的,抬腕动作识别步骤还包括:
Y轴动量计算步骤,计算所述加速度传感器Y轴方向上在一预设时间段内的总动量;
姿态识别步骤,通过可穿戴终端内的加速度传感器判断前臂的姿态是否为抬起姿态;
综合处理步骤,Y轴在一预设时间段内的总动量大于或等于第二预设动量阈值,且前臂处于抬起姿态的时间大于预设时间,则识别为抬腕动作。
优选的,抬腕识别方法还包括:运动状态识别步骤,根据加速度传感器X、Y、Z三轴的瞬时动量中的最大瞬时动量判断可穿戴终端的运动状态。
优选的,运动状态包括有非剧烈运动和剧烈运动。
优选的,疑似抬腕识别步骤中,预设的第一预设动量阈值和第二预设动量阈值与运动状态相匹配。
优选的,姿态识别步骤包括:预设加速度传感器X、Y、Z三轴的抬起姿态区间值,若加速度传感器X、Y、Z三轴的检测值均满足于抬起姿态区间值时,判断为抬起姿态。
优选的,预设的抬起姿态区间值与运动状态相匹配。
优选的,抬腕动作识别步骤还包括,分别对加速度传感器的X、Y、Z三轴的加速度数据进行滤波处理。
一种可穿戴终端,具有加速度传感器,可穿戴终端还包括:
数据采集模块,实时采集加速度传感器的X、Y、Z三轴的加速度;
最大瞬时动量计算模块,根据加速度分别计算X、Y、Z三轴的瞬时动量,并获取X、Y、Z三轴的瞬时动量中的最大瞬时动量;
疑似抬腕识别模块,将最大瞬时动量与第一预设动量阈值进行比较,最大瞬时动量大于或等于第一预设动量阈值则识别为疑似抬腕;
抬腕动作识别模块,在识别为疑似抬腕时,根据加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
本发明的有益效果是:本发明通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似抬腕,再通过加速度特征和姿态特征对疑似抬腕动作进一步的判断识别,最终确定抬腕动作识别结果,降低了计算复杂度,减少了传感器在可穿戴终端中位置的影响。
附图说明
图1是人体抬腕动作的示意图;
图2是根据本发明抬腕识别方法一实施例的流程图;
图3是根据本发明抬腕识别方法一实施例中的加速度传感器的方向示意图;
图4是根据本发明抬腕识别方法一实施例抬腕动作识别步骤的流程图;
图5是根据本发明可穿戴终端一实施例的示意框图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
需要说明的是,除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本实施例提供一种抬腕识别方法,可用于人体的抬腕动作识别,人体抬腕动作如图1所示,抬腕动作识别能用于腕式可穿戴终端的亮屏控制或接听电话等应用场景,例如当用户完成抬腕动作时候,可穿戴终端亮屏;或者当可穿戴终端接收到来电消息时,可通过抬腕动作,可穿戴终端接通来电。可穿戴终端可以为内部具有加速度传感器的手环、手表或其他腕式设备。
图2显示了本发明抬腕识别方法一实施例的流程图。包括步骤:
数据采集步骤S10,实时采集加速度传感器的X、Y、Z三轴的加速度。
最大瞬时动量计算步骤S20,根据加速度分别计算X、Y、Z三轴的瞬时动量,并获取X、Y、Z三轴的瞬时动量中的最大瞬时动量;
疑似抬腕识别步骤S30,将最大瞬时动量与第一预设动量阈值进行比较,最大瞬时动量大于或等于第一预设动量阈值则识别为疑似抬腕。
抬腕动作识别步骤S40,若识别为疑似抬腕,则根据加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
通过加速度传感器实时采集可穿戴终端的加速度,由加速度计算获得瞬时动量,由瞬时动量确定动作是否为疑似抬腕,再通过加速度特征和姿态特征对疑似抬腕动作进一步的判断识别,最终判断识别抬腕动作。降低了计算复杂度,减少了传感器在可穿戴终端中位置的影响。
进一步的,加速度传感器是能够测量加速度的加速度传感器,加速度传感器的数量大于或等于一。
进一步的,如图3所示,加速度传感器的Z轴垂直于可穿戴终端的触摸屏,加速度传感器的X轴与Y轴互相垂直且均平行于触摸屏,且X轴平行于人体前臂,Y轴垂直于人体前臂。
X方向上的加速度为x_a,Y方向上的加速度为y_a,Z方向上的加速度为z_a。
由加速度x_a、y_a和z_a分别对应计算出X方向上的瞬时动量x_feature,Y方向上的瞬时动量y_feature,以及Z方向上的瞬时动量z_feature。
对比x_feature、y_feature和z_feature的数值,选取x_feature、y_feature和z_feature中数值最大的瞬时动量作为最大瞬时动量max_feature。
进一步的,预设第一预设动量阈值,对比最大瞬时动量max_feature和第一预设动量阈值,当最大瞬时动量max_feature的数值大于或等于第一预设动量阈值时,确定为疑似抬腕,当最大瞬时动量max_feature的数值小于第一预设动量阈值时,返回到上述数据采集步骤;继续采集数据。
通过对比最大瞬时动量和第一预设动量阈值,判断疑似抬腕,降低了计算复杂度,不需要对较多的数据进行计算来判断抬腕动作,排除小于第一预设动量阈值的最大瞬时动量,不再参与到抬腕动作的识别步骤中,减少了需要计算的数据量,降低了计算复杂度,提高了识别效率。
进一步的,如图4所示,抬腕动作识别步骤S40还包括:
滤波处理步骤S401,分别对加速度传感器的X、Y、Z三轴的加速度数据进行滤波处理。
Y轴动量计算步骤S402,计算所述加速度传感器Y轴方向上在一预设时间段内的总动量。
姿态识别步骤S403,通过可穿戴终端内的加速度传感器判断前臂的姿态是否为抬起姿态。
综合处理步骤S404,Y轴在一预设时间段内的总动量大于或等于第二预设动量阈值,且前臂处于抬起姿态的时间大于预设时间,则识别为抬腕动作。
在本发明实施例中,Y轴动量计算步骤S402,计算所述加速度传感器Y轴方向上在一预设时间段内的总动量。具体的,预设加速度特征时间窗,优选加速度特征时间窗为50毫秒-500毫秒,获得在加速度特征时间窗内加速度传感器Y轴方向上的加速度y_at,由Y轴方向上的加速度y_at计算获得在加速度特征时间窗内加速度传感器的Y轴上的总动量Y_featuret。并预设第二预设动量阈值。
在本发明实施例中,姿态识别步骤S403,通过可穿戴终端内的加速度传感器判断前臂的姿态是否为抬起姿态。具体的,加速度传感器中包括质量块、弹性元件等部分组成,输出加速度。由加速度传感器中的质量块和弹性元件获得检测值。在没有加速度的情况下,弹性元件不会发生形变,质量块静止,当产生加速度时,弹性元件发生形变,质量块的位置会发生变化。由弹性元件的弹性系数和质量块的质量计算获得检测值。由检测值计算获得加速度。
检测值的计量单位是通常用g表示,1g代表一个重力加速度,即9.8m/s2,此时质量块仅在重力作用下产生位移。当X方向的检测值X_test、Y方向的检测值Y_test或Z方向的检测值Z_test任一检测值的数值为1g,其余两个方向的检测值的数值为0g时,可穿戴终端处于静止状态,手臂水平或竖直且保持为静止状态。
当前臂为抬起姿态时,不管加速度传感器在可穿戴终端中的任何位置,前臂与水平面都会具有一定的抬起角度,抬起角度为-30°~45°。即此时加速度传感器中的质量块具有一定的倾斜角度,分别预设抬起姿态时加速度传感器X、Y、Z轴的抬起姿态区间值为X_interval、Y_interval、Z_interval,分别判断X方向的检测值X_test是否在X轴的抬起姿态区间值X_interval内、Y方向的检测值Y_test是否在Y轴的抬起姿态区间值Y_interval内、Z方向的检测值Z_test是否在Z轴的抬起姿态区间值Z_interval内。当同时满足检测值X_test在抬起姿态区间值X_interval内、检测值Y_test在抬起姿态区间值Y_interval内、检测值Z_test在抬起姿态区间值Z_interval内时判断前臂为抬起姿态。
通过判断加速度传感器的检测值判断抬起姿态,不管加速度传感器在可穿戴终端的什么位置,不会影响对抬起姿态的判断,减少了加速度传感器的在可穿戴终端中的位置不同对识别结果产生的影响。
在本发明实施例中,综合处理步骤S404,Y轴在一预设时间段内的总动量大于或等于第二预设动量阈值,且前臂处于抬起姿态的时间大于预设时间,则识别为抬腕动作。具体的,可预设抬起姿态的持续时间为500毫秒-3000毫秒,优选800毫秒,当Y轴上的总动量Y_featuret大于或等于第二预设动量阈值,且抬起姿态的持续时间大于800毫秒时,判断识别为抬腕动作。
进一步的,抬腕识别方法还包括:运动状态识别步骤,根据加速度传感器X、Y、Z三轴的瞬时动量中的最大瞬时动量判断可穿戴终端的运动状态。
运动状态包括有多个,每个运动状态对应预设有运动状态区间值,当max_feature的数值在某一运动状态区间值内,则确定为该运动状态。
进一步的,运动状态分为非剧烈运动和剧烈运动;非剧烈运动对应的运动状态区间值为(a,b),剧烈运动对应的运动状态区间值为(b,c),运动越剧烈预设的运动状态区间值内的上限数值和下限数值越大。当a<max_feature≤b时,则确定为非剧烈运动,当b<max_feature≤c时,则确定为剧烈运动。当确定运动状态为非剧烈运动,且Y轴上的总动量Y_featuret大于或等于第二预设动量阈值,且抬起姿态的持续时间大于800毫秒时,判断识别为抬腕动作。当确定运动状态为剧烈运动时,返回到上述数据采集步骤;继续采集数据。
进一步的,运动状态还可以分为完全静止、轻微活动、正常活动、剧烈运动。
进一步的,疑似抬腕识别步骤中,预设的第一预设动量阈值和第二预设动量阈值与运动状态相匹配。
在非剧烈运动中预设的第一预设动量阈值和第二预设动量阈值小于在剧烈运动中预设的第一预设动量阈值和第二预设动量阈值。
进一步的,预设的抬起姿态区间值与运动状态相匹配。
在非剧烈运动中预设的抬起姿态区间值的两端的端值对应小于在剧烈运动中预设的抬起姿态区间值的两端的端值。
可以根据Y轴加速度特征和姿态判断识别抬腕动作,能够快速获取抬腕动作的判断识别结果,具有较高的识别效率。为了进一步的提高判断识别结果的准确性,还可以结合运动状态判断识别抬腕动作,具有较高的准确度。可以根据需要选择是否使用运动状态判断识别抬腕动作,以采用不同的识别效率或准确度。
如图5所示,本发明还提供一种可穿戴终端10,可穿戴终端具有加速度传感器,可穿戴终端10还包括:
数据采集模块110,实时采集加速度传感器的X、Y、Z三轴的加速度。
最大瞬时动量计算模块120,根据加速度分别计算X、Y、Z三轴的瞬时动量,并获取X、Y、Z三轴的瞬时动量中的最大瞬时动量。
疑似抬腕识别模块130,将最大瞬时动量与第一预设动量阈值进行比较,最大瞬时动量大于或等于第一预设动量阈值则识别为疑似抬腕。
抬腕动作识别模块140,在识别为疑似抬腕时,根据加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
关于可穿戴终端10各模块执行的操作的详细描述可以参照本申请提供的抬腕识别方法的实施例中的描述,在此就不再一一赘述。
应理解,上述方法实施例的各步骤可以通过可穿戴终端处理器中的硬件形式的逻辑电路或者软件形式的指令完成。软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(randomaccess memory,RAM)、闪存、只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable rom,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。
以上仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种抬腕识别方法,应用于具有加速度传感器的可穿戴终端,其特征在于,所述方法包括:
数据采集步骤,实时采集所述加速度传感器的X、Y、Z三轴的加速度;
最大瞬时动量计算步骤,根据所述加速度分别计算所述X、Y、Z三轴的瞬时动量,并获取所述X、Y、Z三轴的瞬时动量中的最大瞬时动量;
疑似抬腕识别步骤,将所述最大瞬时动量与第一预设动量阈值进行比较,所述最大瞬时动量大于或等于所述第一预设动量阈值则识别为疑似抬腕;
抬腕动作识别步骤,若识别为所述疑似抬腕,则根据所述加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
2.根据权利要求1所述的抬腕识别方法,其特征在于,所述加速度传感器的Z轴垂直于所述可穿戴终端的触摸屏,所述加速度传感器的X轴与Y轴互相垂直且均平行于所述触摸屏,且所述X轴平行于人体前臂,所述Y轴垂直于人体前臂。
3.根据权利要求2所述的抬腕识别方法,其特征在于,所述抬腕动作识别步骤还包括:
Y轴动量计算步骤,计算所述加速度传感器Y轴方向上在一预设时间段内的总动量;
姿态识别步骤,通过所述可穿戴终端内的加速度传感器判断前臂的姿态是否为抬起姿态;
综合处理步骤,所述Y轴在一预设时间段内的总动量大于或等于第二预设动量阈值,且前臂处于所述抬起姿态的时间大于预设时间,则识别为抬腕动作。
4.根据权利要求3所述的抬腕识别方法,其特征在于,所述抬腕识别方法还包括:
运动状态识别步骤,根据所述加速度传感器X、Y、Z三轴的瞬时动量中的最大瞬时动量判断所述可穿戴终端的运动状态。
5.根据权利要求4所述的抬腕识别方法,其特征在于,所述运动状态包括有非剧烈运动和剧烈运动。
6.根据权利要求5所述的抬腕识别方法,其特征在于,所述疑似抬腕识别步骤中,预设的所述第一预设动量阈值和所述第二预设动量阈值与所述运动状态相匹配。
7.根据权利要求6所述的抬腕识别方法,其特征在于,所述姿态识别步骤包括:预设所述加速度传感器X、Y、Z三轴的抬起姿态区间值,若加速度传感器X、Y、Z三轴的检测值均满足于所述抬起姿态区间值时,判断为所述抬起姿态。
8.根据权利要求7所述的抬腕识别方法,其特征在于,预设的所述抬起姿态区间值与所述运动状态相匹配。
9.根据权利要求3所述的抬腕识别方法,其特征在于,所述抬腕动作识别步骤还包括,分别对所述加速度传感器的X、Y、Z三轴的加速度数据进行滤波处理。
10.一种可穿戴终端,具有加速度传感器,其特征在于,所述可穿戴终端还包括:
数据采集模块,实时采集所述加速度传感器的X、Y、Z三轴的加速度;
最大瞬时动量计算模块,根据所述加速度分别计算所述X、Y、Z三轴的瞬时动量,并获取所述X、Y、Z三轴的瞬时动量中的最大瞬时动量;
疑似抬腕识别模块,将所述最大瞬时动量与第一预设动量阈值进行比较,所述最大瞬时动量大于或等于所述第一预设动量阈值则识别为疑似抬腕;
抬腕动作识别模块,在识别为所述疑似抬腕时,根据所述加速度传感器的Y轴加速度特征和姿态识别抬腕动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011008527.0A CN112130675A (zh) | 2020-09-23 | 2020-09-23 | 一种抬腕识别方法及可穿戴终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011008527.0A CN112130675A (zh) | 2020-09-23 | 2020-09-23 | 一种抬腕识别方法及可穿戴终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112130675A true CN112130675A (zh) | 2020-12-25 |
Family
ID=73842809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011008527.0A Pending CN112130675A (zh) | 2020-09-23 | 2020-09-23 | 一种抬腕识别方法及可穿戴终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112130675A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298062A (zh) * | 2021-11-23 | 2022-04-08 | 深圳市立创电子商务有限公司 | 抬腕扫码装置及其方法、计算机可读存储介质 |
CN117573269A (zh) * | 2024-01-15 | 2024-02-20 | 荣耀终端有限公司 | 穿戴设备的屏幕点亮校正方法、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227355A (zh) * | 2016-09-09 | 2016-12-14 | 广东乐源数字技术有限公司 | 一种可实现抬手亮屏的智能手环 |
US20170153992A1 (en) * | 2015-07-31 | 2017-06-01 | Samsung Electronics Co., Ltd. | Smart device and method of operating the same |
JP2017215976A (ja) * | 2017-07-04 | 2017-12-07 | カシオ計算機株式会社 | 端末装置、モーション認識方法及びプログラム |
CN107451724A (zh) * | 2017-07-17 | 2017-12-08 | 惠州市德赛工业研究院有限公司 | 基于手环的学生校园活动管理方法 |
CN108446733A (zh) * | 2018-03-19 | 2018-08-24 | 上海玺翎智能科技有限公司 | 一种基于多传感器数据的人体行为监测及智能识别方法 |
CN108803897A (zh) * | 2018-06-07 | 2018-11-13 | 北京握奇智能科技有限公司 | 一种可穿戴设备的亮屏控制方法及装置 |
CN110850988A (zh) * | 2019-12-02 | 2020-02-28 | 合肥工业大学 | 一种防干扰抬腕亮屏的系统及方法 |
-
2020
- 2020-09-23 CN CN202011008527.0A patent/CN112130675A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170153992A1 (en) * | 2015-07-31 | 2017-06-01 | Samsung Electronics Co., Ltd. | Smart device and method of operating the same |
CN106227355A (zh) * | 2016-09-09 | 2016-12-14 | 广东乐源数字技术有限公司 | 一种可实现抬手亮屏的智能手环 |
JP2017215976A (ja) * | 2017-07-04 | 2017-12-07 | カシオ計算機株式会社 | 端末装置、モーション認識方法及びプログラム |
CN107451724A (zh) * | 2017-07-17 | 2017-12-08 | 惠州市德赛工业研究院有限公司 | 基于手环的学生校园活动管理方法 |
CN108446733A (zh) * | 2018-03-19 | 2018-08-24 | 上海玺翎智能科技有限公司 | 一种基于多传感器数据的人体行为监测及智能识别方法 |
CN108803897A (zh) * | 2018-06-07 | 2018-11-13 | 北京握奇智能科技有限公司 | 一种可穿戴设备的亮屏控制方法及装置 |
CN110850988A (zh) * | 2019-12-02 | 2020-02-28 | 合肥工业大学 | 一种防干扰抬腕亮屏的系统及方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298062A (zh) * | 2021-11-23 | 2022-04-08 | 深圳市立创电子商务有限公司 | 抬腕扫码装置及其方法、计算机可读存储介质 |
CN117573269A (zh) * | 2024-01-15 | 2024-02-20 | 荣耀终端有限公司 | 穿戴设备的屏幕点亮校正方法、设备及存储介质 |
CN117573269B (zh) * | 2024-01-15 | 2024-06-04 | 荣耀终端有限公司 | 穿戴设备的屏幕点亮校正方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508688A (zh) | 基于骨架的行为检测方法、终端设备及计算机存储介质 | |
CN105184325B (zh) | 一种移动智能终端 | |
JP6064280B2 (ja) | ジェスチャを認識するためのシステムおよび方法 | |
CN101111886B (zh) | 发声内容识别装置与发声内容识别方法 | |
US20130054180A1 (en) | Method and system for detecting a fall based on comparing data to criteria derived from multiple fall data sets | |
CN106228200B (zh) | 一种不依赖于动作信息采集设备的动作识别方法 | |
CN112130675A (zh) | 一种抬腕识别方法及可穿戴终端 | |
WO2020164320A1 (zh) | 定位方法及电子设备 | |
CN108446733A (zh) | 一种基于多传感器数据的人体行为监测及智能识别方法 | |
Thiemjarus et al. | A study on instance-based learning with reduced training prototypes for device-context-independent activity recognition on a mobile phone | |
CN107085367B (zh) | 一种智能手表的抬手亮屏方法 | |
CN111288986B (zh) | 一种运动识别方法及运动识别装置 | |
CN113031840B (zh) | 腕戴设备的防误触发方法、装置、电子设备及存储介质 | |
CN111722713A (zh) | 多模态融合的手势键盘输入方法、设备、系统及存储介质 | |
CN108629170A (zh) | 身份识别方法以及相应的装置、移动终端 | |
CN110151136A (zh) | 有条件参考心率睡眠状态监测方法、装置、设备及介质 | |
CN116226727A (zh) | 一种基于ai的运动识别系统 | |
CN112596366B (zh) | 一种智能手表佩戴状态的检测方法、检测系统及手表 | |
CN110929766B (zh) | 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 | |
CN111803902B (zh) | 泳姿识别方法、装置、可穿戴设备及存储介质 | |
Tao et al. | Research on communication APP for deaf and mute people based on face emotion recognition technology | |
CN112162595B (zh) | 一种垂臂旋转识别方法及可穿戴终端 | |
CN112130678B (zh) | 一种手臂放下识别方法及可穿戴终端 | |
CN115904086A (zh) | 基于可穿戴计算的手语识别方法 | |
CN112130677B (zh) | 一种可穿戴终端及其举手识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |