CN114098719A - 一种动作检测方法、装置和穿戴设备 - Google Patents
一种动作检测方法、装置和穿戴设备 Download PDFInfo
- Publication number
- CN114098719A CN114098719A CN202111450080.7A CN202111450080A CN114098719A CN 114098719 A CN114098719 A CN 114098719A CN 202111450080 A CN202111450080 A CN 202111450080A CN 114098719 A CN114098719 A CN 114098719A
- Authority
- CN
- China
- Prior art keywords
- action
- motion
- dimensional model
- user
- collected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 162
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims abstract description 105
- 230000000694 effects Effects 0.000 claims abstract description 47
- 238000001914 filtration Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 238000000034 method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
- A61B5/1117—Fall detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7405—Details of notification to user or communication with user or patient ; user input means using sound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/08—Elderly
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Artificial Intelligence (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
本申请实施例公开了一种动作检测方法、装置和穿戴设备,利用图像采集器采集的图像,构建用户活动空间的三维模型;对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。在构建三维模型时,会针对于三维模型划分用户活动的安全区域和非安全区域。在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,判定动作类型为危险动作。采用传感器和图像采集器结合的方式对用户的运动姿态进行判断,从而更加精确的计算出用户的运动姿态,提升了穿戴设备动作检测的准确性。并且采用可存储式的三维建模方式,可以避免一直开启图像采集器进行监测,能够有效地减少穿戴设备的功耗。
Description
技术领域
本申请涉及智能设备技术领域,特别是涉及一种动作检测方法、装置和穿戴设备。
背景技术
随着年龄的增长,人们身体的灵活性会逐渐下降,尤其是老年人由于腿脚行动不灵活,容易出现意外跌倒的情况。为了方便对空巢老人的安全健康进行实时监控,实施无人化管理,及时发现老人的跌倒情况,从而便于进行第一时间救治,目前有很多可穿戴式设备具备用户动作检测的功能。
目前穿戴设备一般采用三轴加速度传感器、三轴陀螺仪等测量物体三轴姿态角及加速度的系统(Inertial measurement unit,IMU),来检测人体的跌倒动作。但是传感器在人体运动状态监测中存在误差较大的问题。比如,传感器检测到使用者出现躺卧动作时往往会进行报警提示,但是在实际应用中,使用者存在正常躺卧的动作,此时进行报警提示属于误报。
可见,如何提升穿戴设备动作检测的准确性,是本领域技术人员需要解决的问题。
发明内容
本申请实施例的目的是提供一种动作检测方法、装置和穿戴设备,可以提升穿戴设备动作检测的准确性。
为解决上述技术问题,本申请实施例提供一种动作检测方法,适用于穿戴设备,所述方法包括:
利用图像采集器采集的图像,构建用户活动空间的三维模型;
对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息;
在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
可选地,所述传感器采集的运动状态数据包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
可选地,所述对传感器采集的运动状态数据进行分析,以识别用户的动作类型包括:
对获取的角速度信息和姿态角信息进行模数转换,以得到运动参数;
对所述运动参数进行滤波处理,将滤波后的运动参数与各动作对应的参数变化范围进行比较,确定出动作类型。
可选地,所述在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作包括:
判断所述动作类型是否为设定的风险动作;
若所述动作类型为设定的风险动作,则判断所述位置信息是否位于所述三维模型的非安全区域范围内;
若所述位置信息位于所述三维模型的非安全区域范围内,则将所述动作类型为危险动作。
可选地,在所述判定所述动作类型为危险动作之后还包括:
通过报警器进行报警。
可选地,在所述判定所述动作类型为危险动作之后还包括:
向与所述穿戴设备绑定的终端设备发送报警提示信息。
可选地,所述利用图像采集器采集的图像,构建用户活动空间的三维模型包括:
对采集的图像样本进行分析,以得到用户活动空间中各物品对应的区域位置以及物品类型;
基于各物品对应的区域位置以及物品类型,构建所述用户活动空间的三维模型;其中,不同物品类型对应不同的安全指数;
将安全指数低于预设值的目标物品作为危险物品;
将所述三维模型中所述危险物品所在的区域划分为非安全区域,将所述用户活动空间的剩余区域划分为安全区域。
本申请实施例还提供了一种动作检测装置,适用于穿戴设备,所述装置包括构建单元、识别单元和判定单元;
所述构建单元,用于利用图像采集器采集的图像,构建用户活动空间的三维模型;
所述识别单元,用于对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息;
所述判定单元,用于在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
可选地,所述传感器采集的运动状态数据包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
可选地,所述识别单元包括转换子单元、滤波子单元和比较子单元;
所述转换子单元,用于对获取的角速度信息和姿态角信息进行模数转换,以得到运动参数;
所述滤波子单元,用于对所述运动参数进行滤波处理;
所述比较子单元,用于将滤波后的运动参数与各动作对应的参数变化范围进行比较,确定出动作类型。
可选地,所述判定单元用于判断所述动作类型是否为设定的风险动作;若所述动作类型为设定的风险动作,则判断所述位置信息是否位于所述三维模型的非安全区域范围内;若所述位置信息位于所述三维模型的非安全区域范围内,则将所述动作类型为危险动作。
可选地,还包括报警单元;
所述报警单元,用于通过报警器进行报警。
可选地,还包括提示单元;
所述提示单元,用于向与所述穿戴设备绑定的终端设备发送报警提示信息。
可选地,所述构建单元用于对采集的图像样本进行分析,以得到用户活动空间中各物品对应的区域位置以及物品类型;基于各物品对应的区域位置以及物品类型,构建所述用户活动空间的三维模型;其中,不同物品类型对应不同的安全指数;将安全指数低于预设值的目标物品作为危险物品;将所述三维模型中所述危险物品所在的区域划分为非安全区域,将所述用户活动空间的剩余区域划分为安全区域。
本申请实施例还提供了一种穿戴设备,包括处理器、传感器和图像采集器;
所述图像采集器与所述处理器连接,用于将采集的用户活动空间的图像传输至所述处理器;
所述传感器与所述处理器连接,用于将采集的运动状态数据传输至所述处理器;
所述处理器,用于接收所述图像采集器传输的图像;利用所述图像,构建用户活动空间的三维模型;接收所述传感器传输的运动状态数据,对所述运动状态数据进行分析,以识别用户的动作类型和位置信息;在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
由上述技术方案可以看出,利用图像采集器采集的图像,构建用户活动空间的三维模型;对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。动作类型用于表征用户当前的运动方式,位置信息用于表征用户在用户活动空间的位置。在构建三维模型时,会针对于三维模型划分用户活动的安全区域和非安全区域。在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,说明用户当前的运动方式存在较高的风险,此时可以判定动作类型为危险动作。在该技术方案中,采用传感器进行信息采集和利用图像采集器采集的图像进行三维建模,通过两种方式的结合可以对用户的运动姿态进行判断,从而更加精确的计算出用户的运动姿态,有效地区分用户是处于躺卧状态还是突然摔倒,提升了穿戴设备动作检测的准确性。并且采用可存储式的三维建模方式,可以避免一直开启图像采集器进行监测,能够有效地减少穿戴设备的功耗。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种动作检测方法的流程图;
图2为本申请实施例提供的一种动作检测装置的结构示意图;
图3为本申请实施例提供的一种穿戴设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下,所获得的所有其他实施例,都属于本申请保护范围。
本申请的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
为了使本技术领域的人员更好地理解本申请方案,下面结合附图和具体实施方式对本申请作进一步的详细说明。
接下来,详细介绍本申请实施例所提供的一种动作检测方法。图1为本申请实施例提供的一种动作检测方法的流程图,适用于穿戴设备,该方法包括:
S101:利用图像采集器采集的图像,构建用户活动空间的三维模型。
在本申请实施例中,考虑到单一传感器进行用户行为的分析会存在一定的误判,因此引入了图像采集器采集图像构建三维模型的方式。
用户活动空间中往往包括有一些对用户存在潜在威胁的物品,例如,冰箱、橱柜、地板等。用户活动空间中相对安全的区域可以为沙发、床等。因此,在构建三维模型时可以进行安全区域和非安全区域的划分。
在具体实现中,可以对采集的图像样本进行分析,以得到用户活动空间中各物品对应的区域位置以及物品类型。
物品对应的区域位置表征了物品在用户活动空间中占用的位置。物品类型表征了物品所属的品类,例如,物品为床、沙发或橱柜等。
通过图像识别可以确定出物品类型。考虑到实际应用中,不同物品类型对用户安全造成的影响不同,因此可以对不同物品类型设置不同的安全指数。安全指数越高,说明物品对用户造成安全威胁的风险越低,例如,床、沙发等物品,属于用户经常躺卧的区域,并且床、沙发具有较高的柔软度,即使用户不小心磕碰到,其造成的危险也会比较小。而橱柜、地板等物品对用户造成安全威胁的风险越高,例如,橱柜、地板的硬度较高,即使用户不小心磕碰到,也可能造成用户受伤。因此,在本申请实施例中,可以先基于各物品对应的区域位置以及物品类型,构建用户活动空间的三维模型;然后将安全指数低于预设值的目标物品作为危险物品;将三维模型中危险物品所在的区域划分为非安全区域,将用户活动空间的剩余区域划分为安全区域。
在具体实现中,在利用图像采集器采集的图像,构建用户活动空间的三维模型时,作为模型训练的一部分,该穿戴设备可以首先提示用户通过走动,可视化现实世界环境,使得用户从一个位置到另一个位置。例如,从他的起居室走到卧室。通过大量的训练,可以识别到周围物体的具体定义,明确的区分床、沙发、座椅、地板等,可以将床、沙发和座椅所在的区域作为安全区域。剩余的区域作为非安全区域。
S102:对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。
传感器构成的IMU系统可以包含高精度的陀螺仪、一个或多个加速度传感器、位置传感器。因此,在本申请实施例中,传感器采集的运动状态数据可以包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
陀螺仪采集的角速度信息可以用于表征人体运动信息;加速度传感器可以用于表征用户的姿态;位置传感器可以确定出用户当前所在的位置。
在识别用户的动作类型时,可以对获取的角速度信息和姿态角信息进行模数转换,以得到运动参数;对运动参数进行滤波处理,将滤波后的运动参数与各动作对应的参数变化范围进行比较,确定出动作类型。
滤波处理可以采用卡尔曼滤波的方式。通过对运动参数进行滤波处理,可以避免一些干扰数据的影响,提升了运动参数的准确性。
运动参数的变化方式不同,代表用户具有不同类型的动作,因此在实际应用中,可以预先存储不同动作类型各自对应的参数变化范围。将滤波后的运动参数与各动作对应的参数变化范围进行比较,可以确定出动作类型。
动作类型可以包括静态动作和动态动作,静态动作表征用户一直处于一种动作方式,未发生过改变,例如用户一直处于静坐、站立或者躺卧等状态。动态动作表示用户由静态向动态的一种转变,其中,动态动作可以包括用户行走、用户执行仰卧动作、用户执行坐下动作等。
S103:在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,判定动作类型为危险动作。
不同的动作类型具有的风险性不一样,因此在实际应用中,可以将具有高风险性的动作划分为风险动作,例如,用户执行仰卧动作、用户执行坐下动作等。
在具体实现中,可以判断动作类型是否为设定的风险动作;若动作类型为设定的风险动作,则进一步判断位置信息是否位于三维模型的非安全区域范围内。
若位置信息位于三维模型的非安全区域范围内,则说明用户在非安全区域范围内执行当前的动作具有较高的风险,此时可以将用户当前的动作类型判定为危险动作。
举例说明,当用户正在执行仰卧或坐下等动作时,如果执行该动作的用户处于接近安全区域的范围内,说明用户当前的动作存在的风险较低。当用户正在执行仰卧或坐下等动作时,如果执行该动作的用户处于正在接近的非安全区域的范围内,说明用户当前的动作存在较高的风险,很有可能是用户出现了意外跌倒。
在本申请实施例中,为了及时便于用户身边的人员获知用户当前存在危险,可以在判定动作类型为危险动作之后,通过报警器进行报警。
报警器报警的方式可以有多种,例如,播放报警提示声、播放语音提示声、或者进行灯光闪烁等。
考虑到用户身边可能会存在没有人照看的情况,为了便于用户的亲属或者用户的照顾者及时获知用户当前的情况,可以在判定动作类型为危险动作之后,向与穿戴设备绑定的终端设备发送报警提示信息。
与穿戴设备绑定的终端设备可以为用户的亲属或者照顾者所使用的终端设备。
需要说明的是,在本申请实施例中,为了简化穿戴设备的操作流程,在构建好三维模型之后,可以将三维模型存储在穿戴设备的存储空间中,以供将来使用。
例如,用户第一次在房间中使用穿戴设备时,作为训练阶段的一部分,穿戴设备的系统即处理器可能会提示用户使用图像采集器扫描或完全查看真实世界环境。系统可以生成三维模型,然后将三维模型保存在存储空间。用户第二次以及后续任何时间在同一房间中使用该穿戴设备时,可以从房间获得一些信息,这些信息可以用作该房间的标识符,系统可以使用识别信息来查询是否保存了该三维模型。如果找到匹配的三维模型,则三维模型可以由系统加载给用户,而无需每次都生成新的三维模型,该功能可以大大降低穿戴设备的功耗以及存储。
以用户处于家庭环境为例,家庭环境的区域内一般包含了沙发、床、橱柜、地板、墙壁等信息,沙发与床可以作为安全边界,用户执行仰卧或坐下等动作将不会引起报警。但是用户一旦在安全边界之外的区域执行仰卧或坐下等动作,说明用户极有可能属于意外跌倒,此时可以触发报警功能。
由上述技术方案可以看出,利用图像采集器采集的图像,构建用户活动空间的三维模型;对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。动作类型用于表征用户当前的运动方式,位置信息用于表征用户在用户活动空间的位置。在构建三维模型时,会针对于三维模型划分用户活动的安全区域和非安全区域。在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,说明用户当前的运动方式存在较高的风险,此时可以判定动作类型为危险动作。在该技术方案中,采用传感器进行信息采集和利用图像采集器采集的图像进行三维建模,通过两种方式的结合可以对用户的运动姿态进行判断,从而更加精确的计算出用户的运动姿态,有效地区分用户是处于躺卧状态还是突然摔倒,提升了穿戴设备动作检测的准确性。并且采用可存储式的三维建模方式,可以避免一直开启图像采集器进行监测,能够有效地减少穿戴设备的功耗。
图2为本申请实施例提供的一种动作检测装置的结构示意图,适用于穿戴设备,装置包括构建单元21、识别单元22和判定单元23;
构建单元21,用于利用图像采集器采集的图像,构建用户活动空间的三维模型;
识别单元22,用于对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息;
判定单元23,用于在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,判定动作类型为危险动作。
可选地,传感器采集的运动状态数据包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
可选地,识别单元包括转换子单元、滤波子单元和比较子单元;
转换子单元,用于对获取的角速度信息和姿态角信息进行模数转换,以得到运动参数;
滤波子单元,用于对运动参数进行滤波处理;
比较子单元,用于将滤波后的运动参数与各动作对应的参数变化范围进行比较,确定出动作类型。
可选地,判定单元用于判断动作类型是否为设定的风险动作;若动作类型为设定的风险动作,则判断位置信息是否位于三维模型的非安全区域范围内;若位置信息位于三维模型的非安全区域范围内,则将动作类型为危险动作。
可选地,还包括报警单元;
报警单元,用于通过报警器进行报警。
可选地,还包括提示单元;
提示单元,用于向与穿戴设备绑定的终端设备发送报警提示信息。
可选地,构建单元用于对采集的图像样本进行分析,以得到用户活动空间中各物品对应的区域位置以及物品类型;基于各物品对应的区域位置以及物品类型,构建用户活动空间的三维模型;其中,不同物品类型对应不同的安全指数;将安全指数低于预设值的目标物品作为危险物品;将三维模型中危险物品所在的区域划分为非安全区域,将用户活动空间的剩余区域划分为安全区域。
图2所对应实施例中特征的说明可以参见图1所对应实施例的相关说明,这里不再一一赘述。
由上述技术方案可以看出,利用图像采集器采集的图像,构建用户活动空间的三维模型;对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。动作类型用于表征用户当前的运动方式,位置信息用于表征用户在用户活动空间的位置。在构建三维模型时,会针对于三维模型划分用户活动的安全区域和非安全区域。在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,说明用户当前的运动方式存在较高的风险,此时可以判定动作类型为危险动作。在该技术方案中,采用传感器进行信息采集和利用图像采集器采集的图像进行三维建模,通过两种方式的结合可以对用户的运动姿态进行判断,从而更加精确的计算出用户的运动姿态,有效地区分用户是处于躺卧状态还是突然摔倒,提升了穿戴设备动作检测的准确性。并且采用可存储式的三维建模方式,可以避免一直开启图像采集器进行监测,能够有效地减少穿戴设备的功耗。
图3为本申请实施例提供的一种穿戴设备30的结构示意图,包括处理器31、传感器32和图像采集器33;
图像采集器33与处理器31连接,用于将采集的用户活动空间的图像传输至处理器31;
传感器32与处理器31连接,用于将采集的运动状态数据传输至处理器31;
处理器31,用于接收图像采集器33传输的图像;利用图像构建用户活动空间的三维模型;接收传感器32传输的运动状态数据,对运动状态数据进行分析,以识别用户的动作类型和位置信息;在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,判定动作类型为危险动作。
图3所对应实施例中特征的说明可以参见图1所对应实施例的相关说明,这里不再一一赘述。
由上述技术方案可以看出,利用图像采集器采集的图像,构建用户活动空间的三维模型;对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息。动作类型用于表征用户当前的运动方式,位置信息用于表征用户在用户活动空间的位置。在构建三维模型时,会针对于三维模型划分用户活动的安全区域和非安全区域。在动作类型属于设定的风险动作,并且位置信息处于三维模型的非安全区域的情况下,说明用户当前的运动方式存在较高的风险,此时可以判定动作类型为危险动作。在该技术方案中,采用传感器进行信息采集和利用图像采集器采集的图像进行三维建模,通过两种方式的结合可以对用户的运动姿态进行判断,从而更加精确的计算出用户的运动姿态,有效地区分用户是处于躺卧状态还是突然摔倒,提升了穿戴设备动作检测的准确性。并且采用可存储式的三维建模方式,可以避免一直开启图像采集器进行监测,能够有效地减少穿戴设备的功耗。
以上对本申请实施例所提供的一种动作检测方法、装置和穿戴设备进行了详细介绍。说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上对本申请所提供的一种动作检测方法、装置和穿戴设备进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
Claims (10)
1.一种动作检测方法,其特征在于,适用于穿戴设备,所述方法包括:
利用图像采集器采集的图像,构建用户活动空间的三维模型;
对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息;
在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
2.根据权利要求1所述的动作检测方法,其特征在于,所述传感器采集的运动状态数据包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
3.根据权利要求2所述的动作检测方法,其特征在于,所述对传感器采集的运动状态数据进行分析,以识别用户的动作类型包括:
对获取的角速度信息和姿态角信息进行模数转换,以得到运动参数;
对所述运动参数进行滤波处理,将滤波后的运动参数与各动作对应的参数变化范围进行比较,确定出动作类型。
4.根据权利要求1所述的动作检测方法,其特征在于,所述在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作包括:
判断所述动作类型是否为设定的风险动作;
若所述动作类型为设定的风险动作,则判断所述位置信息是否位于所述三维模型的非安全区域范围内;
若所述位置信息位于所述三维模型的非安全区域范围内,则将所述动作类型为危险动作。
5.根据权利要求1所述的动作检测方法,其特征在于,在所述判定所述动作类型为危险动作之后还包括:
通过报警器进行报警。
6.根据权利要求1所述的动作检测方法,其特征在于,在所述判定所述动作类型为危险动作之后还包括:
向与所述穿戴设备绑定的终端设备发送报警提示信息。
7.根据权利要求1至6任意一项所述的动作检测方法,其特征在于,所述利用图像采集器采集的图像,构建用户活动空间的三维模型包括:
对采集的图像样本进行分析,以得到用户活动空间中各物品对应的区域位置以及物品类型;
基于各物品对应的区域位置以及物品类型,构建所述用户活动空间的三维模型;其中,不同物品类型对应不同的安全指数;
将安全指数低于预设值的目标物品作为危险物品;
将所述三维模型中所述危险物品所在的区域划分为非安全区域,将所述用户活动空间的剩余区域划分为安全区域。
8.一种动作检测装置,其特征在于,适用于穿戴设备,所述装置包括构建单元、识别单元和判定单元;
所述构建单元,用于利用图像采集器采集的图像,构建用户活动空间的三维模型;
所述识别单元,用于对传感器采集的运动状态数据进行分析,以识别用户的动作类型和位置信息;
所述判定单元,用于在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
9.根据权利要求8所述的动作检测装置,其特征在于,所述传感器采集的运动状态数据包括陀螺仪采集的角速度信息、加速度传感器采集的姿态角信息、位置传感器采集的位置信息。
10.一种穿戴设备,其特征在于,包括处理器、传感器和图像采集器;
所述图像采集器与所述处理器连接,用于将采集的用户活动空间的图像传输至所述处理器;
所述传感器与所述处理器连接,用于将采集的运动状态数据传输至所述处理器;
所述处理器,用于接收所述图像采集器传输的图像;利用所述图像,构建用户活动空间的三维模型;接收所述传感器传输的运动状态数据,对所述运动状态数据进行分析,以识别用户的动作类型和位置信息;在所述动作类型属于设定的风险动作,并且所述位置信息处于所述三维模型的非安全区域的情况下,判定所述动作类型为危险动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111450080.7A CN114098719A (zh) | 2021-11-30 | 2021-11-30 | 一种动作检测方法、装置和穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111450080.7A CN114098719A (zh) | 2021-11-30 | 2021-11-30 | 一种动作检测方法、装置和穿戴设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114098719A true CN114098719A (zh) | 2022-03-01 |
Family
ID=80368918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111450080.7A Pending CN114098719A (zh) | 2021-11-30 | 2021-11-30 | 一种动作检测方法、装置和穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114098719A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240367A (zh) * | 2022-09-23 | 2022-10-25 | 杭州中芯微电子有限公司 | 一种基于uwb智能定位的用户管理预警方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061631A1 (en) * | 2015-08-27 | 2017-03-02 | Fujitsu Limited | Image processing device and image processing method |
CN106725445A (zh) * | 2017-02-27 | 2017-05-31 | 厦门大学 | 一种脑电波控制的便携式人体运动损伤监护系统与方法 |
US20180177436A1 (en) * | 2016-12-22 | 2018-06-28 | Lumo BodyTech, Inc | System and method for remote monitoring for elderly fall prediction, detection, and prevention |
CN108514421A (zh) * | 2018-03-30 | 2018-09-11 | 福建幸福家园投资管理有限公司 | 提升混合现实与日常健康监测的方法 |
KR20200020295A (ko) * | 2018-08-17 | 2020-02-26 | 주식회사 트레셋 | 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법 |
KR20200104759A (ko) * | 2019-02-27 | 2020-09-04 | 구요한 | 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 |
KR20200104758A (ko) * | 2019-02-27 | 2020-09-04 | 구요한 | 위험 상황을 판단하고, 사용자의 안전을 관리하는 방법 및 장치 |
WO2020230927A1 (ko) * | 2019-05-15 | 2020-11-19 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
-
2021
- 2021-11-30 CN CN202111450080.7A patent/CN114098719A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061631A1 (en) * | 2015-08-27 | 2017-03-02 | Fujitsu Limited | Image processing device and image processing method |
US20180177436A1 (en) * | 2016-12-22 | 2018-06-28 | Lumo BodyTech, Inc | System and method for remote monitoring for elderly fall prediction, detection, and prevention |
CN106725445A (zh) * | 2017-02-27 | 2017-05-31 | 厦门大学 | 一种脑电波控制的便携式人体运动损伤监护系统与方法 |
CN108514421A (zh) * | 2018-03-30 | 2018-09-11 | 福建幸福家园投资管理有限公司 | 提升混合现实与日常健康监测的方法 |
KR20200020295A (ko) * | 2018-08-17 | 2020-02-26 | 주식회사 트레셋 | 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법 |
KR20200104759A (ko) * | 2019-02-27 | 2020-09-04 | 구요한 | 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 |
KR20200104758A (ko) * | 2019-02-27 | 2020-09-04 | 구요한 | 위험 상황을 판단하고, 사용자의 안전을 관리하는 방법 및 장치 |
WO2020230927A1 (ko) * | 2019-05-15 | 2020-11-19 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240367A (zh) * | 2022-09-23 | 2022-10-25 | 杭州中芯微电子有限公司 | 一种基于uwb智能定位的用户管理预警方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sebestyen et al. | Human activity recognition and monitoring for elderly people | |
Wang et al. | An enhanced fall detection system for elderly person monitoring using consumer home networks | |
Casilari et al. | Analysis of android device-based solutions for fall detection | |
EP2598028B1 (en) | Automatic orientation calibration for a body-mounted device | |
Kaluža et al. | An agent-based approach to care in independent living | |
Bai et al. | Design and implementation of a fall monitor system by using a 3-axis accelerometer in a smart phone | |
Buke et al. | Healthcare algorithms by wearable inertial sensors: a survey | |
CN108670261B (zh) | 运动状态检测方法、可佩戴设备以及装置 | |
EP3525673B1 (en) | Method and apparatus for determining a fall risk | |
CN105528859A (zh) | 基于人体跌倒检测技术的养老智能报警系统 | |
KR20170023770A (ko) | 진단모델 생성 시스템 및 방법 | |
Li et al. | Grammar-based, posture-and context-cognitive detection for falls with different activity levels | |
Gjoreski et al. | Context-based fall detection and activity recognition using inertial and location sensors | |
JP2001087247A (ja) | 身体活動判別方法及びその装置 | |
KR101993649B1 (ko) | 가우시안 분포를 이용한 생활패턴 규칙성 산출 방법 및 그 장치 | |
Bai et al. | Recognition of direction of fall by smartphone | |
Colon et al. | Human fall detection with smartphones | |
Fiorini et al. | Combining wearable physiological and inertial sensors with indoor user localization network to enhance activity recognition | |
CN114098719A (zh) | 一种动作检测方法、装置和穿戴设备 | |
Lee et al. | Using a smartwatch to detect stereotyped movements in children with developmental disabilities | |
Amiroh et al. | Intelligent System for Fall Prediction Based on Accelerometer and Gyroscope of Fatal Injury in Geriatric | |
Tan et al. | Reliable fall detection system using an 3-DOF accelerometer and cascade posture recognitions | |
Sudirman et al. | Fall Detection in the Elderly With Android Mobile IoT Devices Using Nodemcu And Accelerometer Sensors | |
WO2015076752A1 (en) | Hypermotor activity detection system and method therefrom | |
Howedi et al. | Accelerometer-based human fall detection using fuzzy entropy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |