CN110338804A - 基于动作识别的人体活跃度评估方法 - Google Patents

基于动作识别的人体活跃度评估方法 Download PDF

Info

Publication number
CN110338804A
CN110338804A CN201910590048.5A CN201910590048A CN110338804A CN 110338804 A CN110338804 A CN 110338804A CN 201910590048 A CN201910590048 A CN 201910590048A CN 110338804 A CN110338804 A CN 110338804A
Authority
CN
China
Prior art keywords
human body
action
acceleration information
appraisal procedure
liveness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910590048.5A
Other languages
English (en)
Inventor
李鹏飞
黄晓
保延翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910590048.5A priority Critical patent/CN110338804A/zh
Publication of CN110338804A publication Critical patent/CN110338804A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种基于动作识别的人体活跃度评估方法,包括:利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。

Description

基于动作识别的人体活跃度评估方法
技术领域
本发明涉及医疗设备技术领域,更具体地,涉及一种基于动作识别的人体活跃度评估方法。
背景技术
随着生活水平的提高,人们越来越注重对于健康生活的追求,也更加体会到运动对身心带来的巨大好处。日常生活中,一个人的身体活跃度不仅体现了他的运动习惯是否良好,同时也可以及时的反映出他的身体健康状况。因此,科学的人体活跃度评估方法对医疗健康技术的发展具有重要的意义。
目前主流的评估方法有基于调查问卷的评估方法、基于体检的评估方法和基于可穿戴设备的评估方法等。其中前两种方法都具有较大的局限性,不能应用于人们的日常生活中。而随着医疗终端向着智能化、便携化和可穿戴化发展,作为代表性应用的智能手环展现出了巨大发展潜力。智能手环借助于惯性传感器,能够实时采集人体的运动加速度信号等数据,再经过数据处理并计算MVPA或TAC/d等指标。MVPA是对个人中度到剧烈活动量的度量,而TAC/d是根据一天的运动数据,包括所有程度的活动计算出的加权和。然而,不管是MVPA还是TAC/d都是比较粗略的评估方法,无法反映出运动总体量(频率、强度和持续时间)。
发明内容
本发明为解决现有技术提供的人体活跃度评估方法比较粗略的技术缺陷,提供了一种基于动作识别的人体活跃度评估方法。
为实现以上发明目的,采用的技术方案是:
一种基于动作识别的人体活跃度评估方法,包括:
利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;
训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
随着可穿戴终端比如智能手环的逐步广泛应用,使得应用智能手环长时间地采集人体的运动数据成为了可能。本发明提供的方法通过终端采集人体的加速度数据,然后基于所述采集的加速度数据识别动作类型,然后基于识别的动作类型及查表得到的所述动作类型对应的代谢当量计算人体活跃度指标。与现有技术相比,本发明提供的方法在活跃度评估上更加的细化、精准,能够准确地反映出运动总体量。
优选地,所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。通过设置卡尔曼滤波器对所述加速度数据进行数字滤波,能够去除所述加速度数据中的随机噪声,避免对后续的识别过程造成干扰。
优选地,所述提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。
优选地,所述动作识别模型通过LightGBM算法进行构建。
优选地,所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
优选地,所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
优选地,所述时间周期为1分钟。
优选地,所述基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
优选地,还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
与现有技术相比,本发明的有益效果是:
本发明提供的方法通过终端采集人体的加速度数据,然后基于所述采集的加速度数据识别动作类型,然后基于识别的动作类型及查表得到的所述动作类型对应的代谢当量计算人体活跃度指标。与现有技术相比,本发明提供的方法在活跃度评估上更加的细化、精准,能够准确地反映出运动总体量。
附图说明
图1为实施例1方法的流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所述,本发明提供了一种基于动作识别的人体活跃度评估方法,包括如下步骤:
步骤S1.利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;本实施例中,时间周期为1分钟;
步骤S2.训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
步骤S3.基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
其中,提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
在具体的实施过程中,通过LightGBM算法构建动作识别模型。
实施例2
本实施例在实施例1的基础上,进行了更进一步的优化,具体为:
所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。通过设置卡尔曼滤波器对所述加速度数据进行数字滤波,能够去除所述加速度数据中的随机噪声,避免对后续的识别过程造成干扰。
在具体的实施过程中,所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
实施例3
本实施例对实施例2进行了更进一步的优化,具体为:
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
实施例4
本实施例在实施例4的基础上,还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种基于动作识别的人体活跃度评估方法,其特征在于:包括:
利用人体佩戴的终端采集人体的加速度数据,按照固定的时间周期对所述加速度数据进行分割;提取所述每个时间周期的加速度数据的特征;
训练动作识别模型,将分割的所述每个时间周期的加速度数据的特征输入到所述动作识别模型中进行识别,得到每个时间周期的人体动作类型;
基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度。
2.根据权利要求1所述的基于动作识别的人体活跃度评估方法,其特征在于:所述终端采集到的人体加速度数据经过卡尔曼滤波器数字滤波后,再按照固定的时间周期对所述加速度数据进行分割。
3.根据权利要求1所述的基于动作识别的人体活跃度评估方法,其特征在于:所述提取所述每个时间周期的加速度数据的特征包括平均值、方差、峰峰值、最大值、偏度和皮尔逊相关系数。
4.根据权利要求3所述的基于动作识别的人体活跃度评估方法,其特征在于:所述动作识别模型通过LightGBM算法进行构建。
5.根据权利要求1~4任一项所述的基于动作识别的人体活跃度评估方法,其特征在于:所述人体动作类型包括睡觉、静坐、站立、慢速步行、跑步、骑自行车、中速步行、跳跃、上楼梯、下楼梯。
6.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述终端采集的加速度数据中,若相邻的两个采样点的时间差大于(1000/采样频率)/2,则认为在后的采样点出错并丢弃该样本。
7.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述时间周期为1分钟。
8.根据权利要求5所述的基于动作识别的人体活跃度评估方法,其特征在于:所述基于识别的每个时间周期的人体动作类型、动作类型对应的代谢当量,计算人体活跃度的具体过程如下:
w(t)=k×MET(tp)×μ×n
其中w(t)表示第t个时间周期的人体活跃度指标,k表示加权系数,MET(tp)表示第t个时间周期识别的人体动作类型对应的代谢当量,μ表示第t个时间周期的加速度数据合方向的绝对值的平均数,n表示第t个时间周期的加速度数据波动的次数。
9.根据权利要求8所述的基于动作识别的人体活跃度评估方法,其特征在于:还包括有计算一天时间内人体活跃度加权和的步骤,具体如下:
f(d)=∑tw(t)。
CN201910590048.5A 2019-07-02 2019-07-02 基于动作识别的人体活跃度评估方法 Pending CN110338804A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910590048.5A CN110338804A (zh) 2019-07-02 2019-07-02 基于动作识别的人体活跃度评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910590048.5A CN110338804A (zh) 2019-07-02 2019-07-02 基于动作识别的人体活跃度评估方法

Publications (1)

Publication Number Publication Date
CN110338804A true CN110338804A (zh) 2019-10-18

Family

ID=68177263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910590048.5A Pending CN110338804A (zh) 2019-07-02 2019-07-02 基于动作识别的人体活跃度评估方法

Country Status (1)

Country Link
CN (1) CN110338804A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110680338A (zh) * 2019-11-14 2020-01-14 广州校角文化传播有限公司 用户活跃度监测判定方法及其装置
CN111460978A (zh) * 2020-03-30 2020-07-28 中国科学院自动化研究所南京人工智能芯片创新研究院 一种基于动作判定传感器和深度学习技术的幼儿行为监控系统及其判定方法
CN114533048A (zh) * 2022-02-23 2022-05-27 首都体育学院 一种基于可穿戴加速度传感器的身体活动强度分级算法
WO2023151200A1 (zh) * 2022-02-10 2023-08-17 成都拟合未来科技有限公司 基于动作识别的人体活跃度检测方法及系统及装置及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1133165A (zh) * 1994-09-07 1996-10-16 欧姆龙公司 能显示下一步将要完成的运动量的运动量测定装置
CN101528129A (zh) * 2006-10-27 2009-09-09 欧姆龙健康医疗株式会社 运动辅助装置
CN102292025A (zh) * 2009-01-21 2011-12-21 皇家飞利浦电子股份有限公司 确定用户的能量消耗
CN102804238A (zh) * 2011-12-15 2012-11-28 北京英福生科技有限公司 运动提醒设备及系统
CN104586402A (zh) * 2015-01-22 2015-05-06 清华大学深圳研究生院 一种人体活动的特征提取方法
CN104706318A (zh) * 2013-12-16 2015-06-17 中国移动通信集团公司 一种睡眠分析方法及装置
CN206026334U (zh) * 2016-05-03 2017-03-22 广东乐心医疗电子股份有限公司 一种运动量检测装置以及包括该装置的智能可穿戴设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1133165A (zh) * 1994-09-07 1996-10-16 欧姆龙公司 能显示下一步将要完成的运动量的运动量测定装置
CN101528129A (zh) * 2006-10-27 2009-09-09 欧姆龙健康医疗株式会社 运动辅助装置
CN102292025A (zh) * 2009-01-21 2011-12-21 皇家飞利浦电子股份有限公司 确定用户的能量消耗
CN102804238A (zh) * 2011-12-15 2012-11-28 北京英福生科技有限公司 运动提醒设备及系统
CN104706318A (zh) * 2013-12-16 2015-06-17 中国移动通信集团公司 一种睡眠分析方法及装置
CN104586402A (zh) * 2015-01-22 2015-05-06 清华大学深圳研究生院 一种人体活动的特征提取方法
CN206026334U (zh) * 2016-05-03 2017-03-22 广东乐心医疗电子股份有限公司 一种运动量检测装置以及包括该装置的智能可穿戴设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110680338A (zh) * 2019-11-14 2020-01-14 广州校角文化传播有限公司 用户活跃度监测判定方法及其装置
CN111460978A (zh) * 2020-03-30 2020-07-28 中国科学院自动化研究所南京人工智能芯片创新研究院 一种基于动作判定传感器和深度学习技术的幼儿行为监控系统及其判定方法
WO2023151200A1 (zh) * 2022-02-10 2023-08-17 成都拟合未来科技有限公司 基于动作识别的人体活跃度检测方法及系统及装置及介质
CN114533048A (zh) * 2022-02-23 2022-05-27 首都体育学院 一种基于可穿戴加速度传感器的身体活动强度分级算法

Similar Documents

Publication Publication Date Title
Xu et al. InnoHAR: A deep neural network for complex human activity recognition
Quaid et al. Wearable sensors based human behavioral pattern recognition using statistical features and reweighted genetic algorithm
CN110338804A (zh) 基于动作识别的人体活跃度评估方法
Biswas et al. CorNET: Deep learning framework for PPG-based heart rate estimation and biometric identification in ambulant environment
Uddin et al. A body sensor data fusion and deep recurrent neural network-based behavior recognition approach for robust healthcare
Celik et al. Gait analysis in neurological populations: Progression in the use of wearables
Münzner et al. CNN-based sensor fusion techniques for multimodal human activity recognition
Moncada-Torres et al. Activity classification based on inertial and barometric pressure sensors at different anatomical locations
Huang et al. TSE-CNN: A two-stage end-to-end CNN for human activity recognition
de la Concepción et al. Mobile activity recognition and fall detection system for elderly people using Ameva algorithm
Mortazavi et al. Determining the single best axis for exercise repetition recognition and counting on smartwatches
Yoneyama et al. Accelerometry-based gait analysis and its application to Parkinson's disease assessment—part 1: detection of stride event
Yuwono et al. Unsupervised nonparametric method for gait analysis using a waist-worn inertial sensor
CN108514421A (zh) 提升混合现实与日常健康监测的方法
Alinia et al. A reliable and reconfigurable signal processing framework for estimation of metabolic equivalent of task in wearable sensors
Torres The rates of change of the stochastic trajectories of acceleration variability are a good predictor of normal aging and of the stage of Parkinson's disease
CN109805935A (zh) 一种基于人工智能分层分级运动识别方法的智能腰带
Kwon et al. Analysis and evaluation of smartphone-based human activity recognition using a neural network approach
Zhen et al. Hybrid Deep‐Learning Framework Based on Gaussian Fusion of Multiple Spatiotemporal Networks for Walking Gait Phase Recognition
Al Abiad et al. Smartstep: A robust STEP detection method based on SMARTphone inertial signals driven by gait learning
Ren et al. Multivariate analysis of joint motion data by Kinect: application to Parkinson’s disease
Baldominos et al. Feature selection for physical activity recognition using genetic algorithms
Jitpattanakul et al. Enhancing Sensor-Based Human Activity Recognition using Efficient Channel Attention
De Cillis et al. Long-term gait pattern assessment using a tri-axial accelerometer
Bejinariu et al. Automatic gait analysis and classification in video sequences

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191018

RJ01 Rejection of invention patent application after publication