CN110338804A - 基于动作识别的人体活跃度评估方法 - Google Patents
基于动作识别的人体活跃度评估方法 Download PDFInfo
- Publication number
- CN110338804A CN110338804A CN201910590048.5A CN201910590048A CN110338804A CN 110338804 A CN110338804 A CN 110338804A CN 201910590048 A CN201910590048 A CN 201910590048A CN 110338804 A CN110338804 A CN 110338804A
- Authority
- CN
- China
- Prior art keywords
- human body
- action
- acceleration information
- appraisal procedure
- liveness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000001133 acceleration Effects 0.000 claims abstract description 42
- 230000002503 metabolic effect Effects 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims abstract description 4
- 230000033001 locomotion Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 230000007257 malfunction Effects 0.000 claims description 3
- 230000001351 cycling effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Animal Behavior & Ethology (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了一种基于动作识别的人体活跃度评估方法,包括:利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
Description
技术领域
本发明涉及医疗设备技术领域,更具体地,涉及一种基于动作识别的人体活跃度评估方法。
背景技术
随着生活水平的提高,人们越来越注重对于健康生活的追求,也更加体会到运动对身心带来的巨大好处。日常生活中,一个人的身体活跃度不仅体现了他的运动习惯是否良好,同时也可以及时的反映出他的身体健康状况。因此,科学的人体活跃度评估方法对医疗健康技术的发展具有重要的意义。
目前主流的评估方法有基于调查问卷的评估方法、基于体检的评估方法和基于可穿戴设备的评估方法等。其中前两种方法都具有较大的局限性,不能应用于人们的日常生活中。而随着医疗终端向着智能化、便携化和可穿戴化发展,作为代表性应用的智能手环展现出了巨大发展潜力。智能手环借助于惯性传感器,能够实时采集人体的运动加速度信号等数据,再经过数据处理并计算MVPA或TAC/d等指标。MVPA是对个人中度到剧烈活动量的度量,而TAC/d是根据一天的运动数据,包括所有程度的活动计算出的加权和。然而,不管是MVPA还是TAC/d都是比较粗略的评估方法,无法反映出运动总体量(频率、强度和持续时间)。
发明内容
本发明为解决现有技术提供的人体活跃度评估方法比较粗略的技术缺陷,提供了一种基于动作识别的人体活跃度评估方法。
为实现以上发明目的,采用的技术方案是:
一种基于动作识别的人体活跃度评估方法,包括:
利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;
训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
随着可穿戴终端比如智能手环的逐步广泛应用,使得应用智能手环长时间地采集人体的运动数据成为了可能。本发明提供的方法通过终端采集人体的加速度数据,然后基于所述采集的加速度数据识别动作类型,然后基于识别的动作类型及查表得到的所述动作类型对应的代谢当量计算人体活跃度指标。与现有技术相比,本发明提供的方法在活跃度评估上更加的细化、精准,能够准确地反映出运动总体量。
优选地,所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。通过设置卡尔曼滤波器对所述加速度数据进行数字滤波,能够去除所述加速度数据中的随机噪声,避免对后续的识别过程造成干扰。
优选地,所述提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。
优选地,所述动作识别模型通过LightGBM算法进行构建。
优选地,所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
优选地,所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
优选地,所述时间周期为1分钟。
优选地,所述基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
优选地,还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
与现有技术相比,本发明的有益效果是:
本发明提供的方法通过终端采集人体的加速度数据,然后基于所述采集的加速度数据识别动作类型,然后基于识别的动作类型及查表得到的所述动作类型对应的代谢当量计算人体活跃度指标。与现有技术相比,本发明提供的方法在活跃度评估上更加的细化、精准,能够准确地反映出运动总体量。
附图说明
图1为实施例1方法的流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所述,本发明提供了一种基于动作识别的人体活跃度评估方法,包括如下步骤:
步骤S1.利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;本实施例中,时间周期为1分钟;
步骤S2.训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
步骤S3.基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
其中,提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
在具体的实施过程中,通过LightGBM算法构建动作识别模型。
实施例2
本实施例在实施例1的基础上,进行了更进一步的优化,具体为:
所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。通过设置卡尔曼滤波器对所述加速度数据进行数字滤波,能够去除所述加速度数据中的随机噪声,避免对后续的识别过程造成干扰。
在具体的实施过程中,所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
实施例3
本实施例对实施例2进行了更进一步的优化,具体为:
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
实施例4
本实施例在实施例4的基础上,还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (9)
1.一种基于动作识别的人体活跃度评估方法,其特征在于:包括:
利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;
训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
2.根据权利要求1所述的基于动作识别的人体活跃度评估方法,其特征在于:所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。
3.根据权利要求1所述的基于动作识别的人体活跃度评估方法,其特征在于:所述提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。
4.根据权利要求3所述的基于动作识别的人体活跃度评估方法,其特征在于:所述动作识别模型通过LightGBM算法进行构建。
5.根据权利要求1~4任一项所述的基于动作识别的人体活跃度评估方法,其特征在于:所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
6.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
7.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述时间周期为1分钟。
8.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
9.根据权利要求8所述的基于动作识别的人体活跃度评估方法,其特征在于:还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910590048.5A CN110338804A (zh) | 2019-07-02 | 2019-07-02 | 基于动作识别的人体活跃度评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910590048.5A CN110338804A (zh) | 2019-07-02 | 2019-07-02 | 基于动作识别的人体活跃度评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110338804A true CN110338804A (zh) | 2019-10-18 |
Family
ID=68177263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910590048.5A Pending CN110338804A (zh) | 2019-07-02 | 2019-07-02 | 基于动作识别的人体活跃度评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110338804A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110680338A (zh) * | 2019-11-14 | 2020-01-14 | 广州校角文化传播有限公司 | 用户活跃度监测判定方法及其装置 |
CN111460978A (zh) * | 2020-03-30 | 2020-07-28 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种基于动作判定传感器和深度学习技术的幼儿行为监控系统及其判定方法 |
CN114533048A (zh) * | 2022-02-23 | 2022-05-27 | 首都体育学院 | 一种基于可穿戴加速度传感器的身体活动强度分级算法 |
WO2023151200A1 (zh) * | 2022-02-10 | 2023-08-17 | 成都拟合未来科技有限公司 | 基于动作识别的人体活跃度检测方法及系统及装置及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1133165A (zh) * | 1994-09-07 | 1996-10-16 | 欧姆龙公司 | 能显示下一步将要完成的运动量的运动量测定装置 |
CN101528129A (zh) * | 2006-10-27 | 2009-09-09 | 欧姆龙健康医疗株式会社 | 运动辅助装置 |
CN102292025A (zh) * | 2009-01-21 | 2011-12-21 | 皇家飞利浦电子股份有限公司 | 确定用户的能量消耗 |
CN102804238A (zh) * | 2011-12-15 | 2012-11-28 | 北京英福生科技有限公司 | 运动提醒设备及系统 |
CN104586402A (zh) * | 2015-01-22 | 2015-05-06 | 清华大学深圳研究生院 | 一种人体活动的特征提取方法 |
CN104706318A (zh) * | 2013-12-16 | 2015-06-17 | 中国移动通信集团公司 | 一种睡眠分析方法及装置 |
CN206026334U (zh) * | 2016-05-03 | 2017-03-22 | 广东乐心医疗电子股份有限公司 | 一种运动量检测装置以及包括该装置的智能可穿戴设备 |
-
2019
- 2019-07-02 CN CN201910590048.5A patent/CN110338804A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1133165A (zh) * | 1994-09-07 | 1996-10-16 | 欧姆龙公司 | 能显示下一步将要完成的运动量的运动量测定装置 |
CN101528129A (zh) * | 2006-10-27 | 2009-09-09 | 欧姆龙健康医疗株式会社 | 运动辅助装置 |
CN102292025A (zh) * | 2009-01-21 | 2011-12-21 | 皇家飞利浦电子股份有限公司 | 确定用户的能量消耗 |
CN102804238A (zh) * | 2011-12-15 | 2012-11-28 | 北京英福生科技有限公司 | 运动提醒设备及系统 |
CN104706318A (zh) * | 2013-12-16 | 2015-06-17 | 中国移动通信集团公司 | 一种睡眠分析方法及装置 |
CN104586402A (zh) * | 2015-01-22 | 2015-05-06 | 清华大学深圳研究生院 | 一种人体活动的特征提取方法 |
CN206026334U (zh) * | 2016-05-03 | 2017-03-22 | 广东乐心医疗电子股份有限公司 | 一种运动量检测装置以及包括该装置的智能可穿戴设备 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110680338A (zh) * | 2019-11-14 | 2020-01-14 | 广州校角文化传播有限公司 | 用户活跃度监测判定方法及其装置 |
CN111460978A (zh) * | 2020-03-30 | 2020-07-28 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种基于动作判定传感器和深度学习技术的幼儿行为监控系统及其判定方法 |
WO2023151200A1 (zh) * | 2022-02-10 | 2023-08-17 | 成都拟合未来科技有限公司 | 基于动作识别的人体活跃度检测方法及系统及装置及介质 |
CN114533048A (zh) * | 2022-02-23 | 2022-05-27 | 首都体育学院 | 一种基于可穿戴加速度传感器的身体活动强度分级算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | InnoHAR: A deep neural network for complex human activity recognition | |
Quaid et al. | Wearable sensors based human behavioral pattern recognition using statistical features and reweighted genetic algorithm | |
CN110338804A (zh) | 基于动作识别的人体活跃度评估方法 | |
Biswas et al. | CorNET: Deep learning framework for PPG-based heart rate estimation and biometric identification in ambulant environment | |
Uddin et al. | A body sensor data fusion and deep recurrent neural network-based behavior recognition approach for robust healthcare | |
Celik et al. | Gait analysis in neurological populations: Progression in the use of wearables | |
Münzner et al. | CNN-based sensor fusion techniques for multimodal human activity recognition | |
Moncada-Torres et al. | Activity classification based on inertial and barometric pressure sensors at different anatomical locations | |
Huang et al. | TSE-CNN: A two-stage end-to-end CNN for human activity recognition | |
de la Concepción et al. | Mobile activity recognition and fall detection system for elderly people using Ameva algorithm | |
Mortazavi et al. | Determining the single best axis for exercise repetition recognition and counting on smartwatches | |
Yoneyama et al. | Accelerometry-based gait analysis and its application to Parkinson's disease assessment—part 1: detection of stride event | |
Yuwono et al. | Unsupervised nonparametric method for gait analysis using a waist-worn inertial sensor | |
CN108514421A (zh) | 提升混合现实与日常健康监测的方法 | |
Alinia et al. | A reliable and reconfigurable signal processing framework for estimation of metabolic equivalent of task in wearable sensors | |
Torres | The rates of change of the stochastic trajectories of acceleration variability are a good predictor of normal aging and of the stage of Parkinson's disease | |
CN109805935A (zh) | 一种基于人工智能分层分级运动识别方法的智能腰带 | |
Kwon et al. | Analysis and evaluation of smartphone-based human activity recognition using a neural network approach | |
Zhen et al. | Hybrid Deep‐Learning Framework Based on Gaussian Fusion of Multiple Spatiotemporal Networks for Walking Gait Phase Recognition | |
Al Abiad et al. | Smartstep: A robust STEP detection method based on SMARTphone inertial signals driven by gait learning | |
Ren et al. | Multivariate analysis of joint motion data by Kinect: application to Parkinson’s disease | |
Baldominos et al. | Feature selection for physical activity recognition using genetic algorithms | |
Jitpattanakul et al. | Enhancing Sensor-Based Human Activity Recognition using Efficient Channel Attention | |
De Cillis et al. | Long-term gait pattern assessment using a tri-axial accelerometer | |
Bejinariu et al. | Automatic gait analysis and classification in video sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |
|
RJ01 | Rejection of invention patent application after publication |