CN110298276A - 基于卷积神经网络的跌倒检测方法 - Google Patents

基于卷积神经网络的跌倒检测方法 Download PDF

Info

Publication number
CN110298276A
CN110298276A CN201910529955.9A CN201910529955A CN110298276A CN 110298276 A CN110298276 A CN 110298276A CN 201910529955 A CN201910529955 A CN 201910529955A CN 110298276 A CN110298276 A CN 110298276A
Authority
CN
China
Prior art keywords
layer
data
convolution
network
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910529955.9A
Other languages
English (en)
Inventor
何坚
祖天奇
余立
张子浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910529955.9A priority Critical patent/CN110298276A/zh
Publication of CN110298276A publication Critical patent/CN110298276A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

基于卷积神经网络的跌倒检测方法属于电子信息领域,本发明将通过MEMS采集的3轴加速度、角速度数据转为RGB像素,并引入滑动窗口构造能同时反映老年人活动过程中3轴加速度、角速度变化特征的像素图;参考LeNet 5架构设计了基于CNN的跌倒监测算法FD‑CNN,将像素图进行归类,实现跌倒检测算法。通过构建FD‑CNN,可以克服MEMS陀螺仪存在信号漂移误差、3轴加速度计在运动状态下产生电压波动等干扰,准确实现跌倒检测。FD‑CNN网络模型系统的准确率达到了98.62%,敏感度和特异性分别达到98.65%和99.80%。其中,系统对跌倒检测的敏感度和特异性均到达了100%。

Description

基于卷积神经网络的跌倒检测方法
技术领域
本发明属于电子信息领域,是一种基于卷积神经网络,可应用于跌倒检测的技术。
背景技术
已有跌倒检测技术根据其所采用传感器技术的不同,可总体上划分为以下三类:可穿戴感知技术(Wearable Sensors)、情景感知技术(Ambient Sensors)和视觉感知技术(Vision-based Sensors)。虽然情景感知技术和视觉感知技术具有准确率高、动作捕捉直观等特点,但传感器部署及检测算法复杂,且监控范围有限,甚至容易暴露用户隐私。随着MEMS(microelectromechanical systems)技术的发展,研究人员将惯性传感器集成到小型可穿戴设备中实现跌倒检测。基于MEMS的跌倒检测方法具有部署成本低、受环境影响小、对用户的隐私干扰较少等优点,成为跌倒检测技术研究的热点。但MEMS陀螺仪存在信号漂移误差、3轴加速度计在运动状态下会产生电压波动,这些因素会影响跌倒检测算法精度和有效性。
本发明基于MEMS采集的人体活动数据,参考LeNet 5架构设计了基于卷积神经网络(Convolutional Neural Networks,CNN)的跌倒监测算法FD-CNN。
发明内容
本发明基于通过MEMS采集的人体活动数据和卷积神经网络,设计了跌倒检测算法FD-CNN。本发明涉及如下2点:
(1)本发明将通过MEMS采集的3轴加速度、角速度数据转为RGB像素,并引入滑动窗口构造能同时反映老年人活动过程中3轴加速度、角速度变化特征的像素图。
(2)参考LeNet 5架构设计了基于CNN的跌倒监测算法FD-CNN,将像素图进行归类,实现跌倒检测算法。
本发明核心算法
(1)建立人体活动模型
人体在运动过程中,加速度和角速度会实时变化。前人研究表明人体的上躯干(即腰部以上、脖颈以下部分)是采集加速度数据并识别跌倒与其他日常动作的最佳部位。本发明从穿戴设备舒适性以及系统可靠性出发,将运动感知模块放置在定制背心的腰部,进而建立基于笛卡尔坐标系的人体活动模型。图1所示为基于笛卡尔坐标系的人体活动模型,其中ax、ay、az分别代表人体活动沿x轴、y轴和z轴的加速度;ωx、ωy、ωz为分别代表人体躯干绕x轴、y轴和z轴的角速度。
(2)活动数据可视化处理
由于人体跌倒的时间通常小于2秒钟,因此在服务器端设计了2秒钟的滑动窗口以缓存活动感知MEMS传来的3轴加速度、角速度数据。并对这些数据进行量程规范化,将规范化的数据转化为对应像素数据,并分析日常活动与跌倒的差异。
由于MEMS感知模块的采样频率为100Hz,其中的3轴加速度、角速度值通常采用2字节表示,因此本专利设计了大小为2400字节的滑动窗口用来缓存MEMS感知模块采集的2秒钟的3轴加速度、角速度数据。若将3轴(X、Y、Z轴)的加速度、角速度值分别对应于3通道图像中R、G、B通道的数值,这就可以将每份3轴加速度、角速度数据转换成一个RGB像素点,那么滑动窗口中的缓存3轴加速度、角速度数据就可以看成为尺寸为20*20*3的图像。
由于图像数据的量程范围为0~255的整型数据,而加速度计和陀螺仪的数据量程不尽相同,为此本发明采用公式(1)对加速度计和陀螺仪传感器数据的量程进行规范化,将两者传感器数据规范到0~255范围内。
公式1中,range为加速度计或陀螺仪传感器的量程,value为实测数值。计算结果result后为浮点型,为了表示方便本文通过四舍五入将result转化为整型数据。
(3)设计了基于卷积神经网络的跌倒监测架构FD-CNN
FD-CNN架构如图2所示,其输入为20ⅹ20像素的3通道RGB图像,共有6个网络层(不包含输入层)。其中,网络的卷积层标注为Cx,下采样层标准为Sx,全连接层标注为Fx,x为网络的层号。在进入网络的C1层前,系统按照公式2对数据进行规范化,即将图像数据取值范围为0~255归一化为-1~1。
C1为卷积层。在卷积前,系统对输入层数据进行了边缘扩充,扩充后的图像大小为22×22像素,扩充边缘的像素值为0。边缘扩充在卷积时可避免输入层边缘数据特征丢失。卷积核大小是5×5×3,每个特征图内只使用一个共同卷积核。每个卷积核有5×5×3个连接参数以及1个偏置共76个参数。卷积核每次滑动一个像素,因此卷积层形成的每个特征图大小是18×18。卷积过后,系统通过relu函数进行网络层激活。C1层共有32个卷积核,所以该层输出为32张大小为18×18的特征图。
S2为最大池化层。在池化前,系统对C1层输出的数据进行了边缘扩充(扩充边缘的像素值为0),扩充后的图像大小为20×20像素。系统采用2×2的卷积核以步长为2进行最大池化下采样得到32张10×10的特征图。
C3为卷积层。在卷积前,参考C1层也对S2的输出进行了边缘扩充,扩充后的图像大小为12×12像素。卷积核大小是5×5×32,卷积核每次滑动一个像素,卷积后形成的每个特征图大小是8×8。卷积过后,系统通过relu函数进行网络层激活。C3层共有64个卷积核,所以该层输出为64张大小为8×8的特征图。
S4为最大池化层。参考C1层也对C3的输出进行了边缘扩充,扩充后的图像大小为10×10像素。系统采用2×2的核以步长为2进行最大池化下采样得到64张5×5的特征图。
F5为全连接层,其含有512个神经单元。为了防止网络过拟合,在训练时加入了dropout。这一层神经元在全连接后使用relu函数进行网络激活。
最后一层是全连接网络输出层。该层有8个神经单元。在计算网络结果时,将最后一层的输出加到softmax中,得到每个类的预测概率,其中概率最大项为网络的预测结果。
发明效果
通过构建FD-CNN,可以克服MEMS陀螺仪存在信号漂移误差、3轴加速度计在运动状态下产生电压波动等干扰,准确实现跌倒检测。FD-CNN网络模型系统的准确率达到了98.62%,敏感度和特异性分别达到98.65%和99.80%。其中,系统对跌倒检测的敏感度和特异性均到达了100%,表明系统对跌倒的识别有很好的效果。
本专利的核心技术包括:
(1)创新性的活动数据可视化处理技术:将MEMS采集的3轴加速度、角速度数据转为RGB像素,并引入滑动窗口,构造能同时反映老年人活动过程中3轴加速度、角速度变化特征的像素位图;
(2)同时引入数据归一化技术,将3轴加速度、角速度数据转化为取值为[-1,1]的实数值,为构造高效跌倒监测卷积网络提供数据基础;
(3)构造了面向跌倒检测的卷积网络(FD-CNN):参考LeNet 5架构设计了FD-CNN,实现跌倒的快速准确监测。
附图说明
图1是基于笛卡尔坐标系的人体活动模型
图2是FD-CNN架构。
图3是网络架构。
具体实施方式
(1)参考人体活动模型,本发明采用的人体活动数据所用的感知模块尺寸为30mm×30mm×9mm。主要由CC2530微控制器、集成3轴加速度和陀螺仪的MEMS活动传感器、ZigBee射频和电源管理模块等组成。其中,ZigBee模块的传输速率为115200baud,传输最大距离为100m。MEMS活动传感器3轴陀螺仪、加速度计。陀螺仪测量范围最大可达到±2000°/sec,加速度计测量范围最大可达±16g。运动感知模块的采样频率为100Hz。
(2)参考人体活动模型,对SisFall和MobiFall公开的数据集进行坐标转换,并对坐标转换后的数据进行量程规范和可视化表示,将3轴加速度、角速度数据转化为像素位图。
其次,从MobiFall数据集中提取了走路、跳跃、慢跑、上楼、下楼数据各1000组,跌倒数据500组;从SisFall数据集中提取坐下和起立数据各1000组,跌倒数据500组;课题组将向前/后向跌倒、左/右侧跌倒统一归类为跌倒。本发明通过20名被试实验获得了7类日常活动和跌倒各200组数据构成数据集。本发明随机选取公开数据集和实验数据集中各90%的数据作为训练样本,其余作为测试样本。其中,每类日常活动和跌倒各有1080组训练样本,共计8640组训练样本;每类活动含120组测试样本,共计960组测试数据。
(4)本发明采用8640组训练样本对FD-CNN网络进行了训练。并按照9:1比例将训练样本划分为训练集和验证集。训练中batch size设值为64。使用Adam算法进行网络的优化,其中学习率为0.001。此外,在网络最后全连接层后加上了softmax层以计算输出结果的概率。最后,和真实值y做一次交叉熵,求其平均值,得出loss(见公式4)。并依据loss值进一步训练。网络训练迭代8个epoch时候,验证集准确率维持在99.7%左右,后续训练准确率维持稳定不再上升,所以本发明训练停止在8个epoch。
(5)跌倒检测算法的输入为人体活动感知数据,输出为跌倒判定结果。

Claims (1)

1.基于卷积神经网络的跌倒检测方法,其特征在于:
(1)建立人体活动模型
人体在运动过程中,加速度和角速度会实时变化;将运动感知模块放置在定制背心的腰部,进而建立基于笛卡尔坐标系的人体活动模型,其中ax、ay、az分别代表人体活动沿x轴、y轴和z轴的加速度;为分别代表人体躯干绕x轴、y轴和z轴的角速度;
(2)活动数据可视化处理
由于人体跌倒的时间通常小于2秒钟,因此在服务器端设计了2秒钟的滑动窗口以缓存活动感知MEMS传来的3轴加速度、角速度数据;
由于MEMS感知模块的采样频率为100Hz,其中的3轴加速度、角速度值通常采用2字节表示,因此设计了大小为2400字节的滑动窗口用来缓存MEMS感知模块采集的2秒钟的3轴加速度、角速度数据;若将3轴(X、Y、Z轴)的加速度、角速度值分别对应于3通道图像中R、G、B通道的数值,这就将每份3轴加速度、角速度数据转换成一个RGB像素点,那么滑动窗口中的缓存3轴加速度、角速度数据看成为尺寸为20*20*3的图像;
由于图像数据的量程范围为0~255的整型数据,而加速度计和陀螺仪的数据量程不尽相同,为此采用公式(1)对加速度计和陀螺仪传感器数据的量程进行规范化,将两者传感器数据规范到0~255范围内;
其中,range为加速度计或陀螺仪传感器的量程,value为实测数值;计算结果result后为浮点型,为了表示方便通过四舍五入将result转化为整型数据;
(3)设计了基于卷积神经网络的跌倒监测架构FD-CNN
FD-CNN架构其输入为20ⅹ20像素的3通道RGB图像,不包含输入层共有6个网络层;其中,网络的卷积层标注为Cx,下采样层标准为Sx,全连接层标注为Fx,x为网络的层号;在进入网络的C1层前,系统按照公式(2)对数据进行规范化,即将图像数据取值范围为0~255归一化为-1~1;
C1为卷积层;在卷积前,系统对输入层数据进行了边缘扩充,扩充后的图像大小为22×22像素,扩充边缘的像素值为0;边缘扩充在卷积时可避免输入层边缘数据特征丢失;卷积核大小是5×5×3,每个特征图内只使用一个共同卷积核;每个卷积核有5×5×3个连接参数以及1个偏置共76个参数;卷积核每次滑动一个像素,因此卷积层形成的每个特征图大小是18×18;卷积过后,系统通过relu函数进行网络层激活;C1层共有32个卷积核,所以该层输出为32张大小为18×18的特征图;
S2为最大池化层;在池化前,系统对C1层输出的数据进行了边缘扩充,扩充边缘的像素值为0,扩充后的图像大小为20×20像素;系统采用2×2的卷积核以步长为2进行最大池化下采样得到32张10×10的特征图;
C3为卷积层;在卷积前,参考C1层也对S2的输出进行了边缘扩充,扩充后的图像大小为12×12像素;卷积核大小是5×5×32,卷积核每次滑动一个像素,卷积后形成的每个特征图大小是8×8;卷积过后,系统通过relu函数进行网络层激活;C3层共有64个卷积核,所以该层输出为64张大小为8×8的特征图;
S4为最大池化层;参考C1层也对C3的输出进行了边缘扩充,扩充后的图像大小为10×10像素;系统采用2×2的核以步长为2进行最大池化下采样得到64张5×5的特征图;
F5为全连接层,其含有512个神经单元;为了防止网络过拟合,在训练时加入了dropout;这一层神经元在全连接后使用relu函数进行网络激活;
最后一层是全连接网络输出层;该层有8个神经单元;在计算网络结果时,将最后一层的输出加到softmax中,得到每个类的预测概率,其中概率最大项为网络的预测结果。
CN201910529955.9A 2019-06-19 2019-06-19 基于卷积神经网络的跌倒检测方法 Pending CN110298276A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910529955.9A CN110298276A (zh) 2019-06-19 2019-06-19 基于卷积神经网络的跌倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910529955.9A CN110298276A (zh) 2019-06-19 2019-06-19 基于卷积神经网络的跌倒检测方法

Publications (1)

Publication Number Publication Date
CN110298276A true CN110298276A (zh) 2019-10-01

Family

ID=68028325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910529955.9A Pending CN110298276A (zh) 2019-06-19 2019-06-19 基于卷积神经网络的跌倒检测方法

Country Status (1)

Country Link
CN (1) CN110298276A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927475A (zh) * 2021-01-27 2021-06-08 浙江理工大学 一种基于深度学习的跌倒检测系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722721A (zh) * 2012-05-25 2012-10-10 山东大学 一种基于机器视觉的人体跌倒检测方法
CN103211599A (zh) * 2013-05-13 2013-07-24 桂林电子科技大学 一种监测跌倒的方法及装置
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
US10198928B1 (en) * 2017-12-29 2019-02-05 Medhab, Llc. Fall detection system
CN109800860A (zh) * 2018-12-28 2019-05-24 北京工业大学 一种面向社区基于cnn算法的老年人跌倒检测方法
US20190167156A1 (en) * 2016-06-17 2019-06-06 Philips North America Llc Method for detecting and responding to falls by residents within a facility

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722721A (zh) * 2012-05-25 2012-10-10 山东大学 一种基于机器视觉的人体跌倒检测方法
CN103211599A (zh) * 2013-05-13 2013-07-24 桂林电子科技大学 一种监测跌倒的方法及装置
US20190167156A1 (en) * 2016-06-17 2019-06-06 Philips North America Llc Method for detecting and responding to falls by residents within a facility
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
US10198928B1 (en) * 2017-12-29 2019-02-05 Medhab, Llc. Fall detection system
CN109800860A (zh) * 2018-12-28 2019-05-24 北京工业大学 一种面向社区基于cnn算法的老年人跌倒检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927475A (zh) * 2021-01-27 2021-06-08 浙江理工大学 一种基于深度学习的跌倒检测系统
CN112927475B (zh) * 2021-01-27 2022-06-10 浙江理工大学 一种基于深度学习的跌倒检测系统

Similar Documents

Publication Publication Date Title
CN110309861B (zh) 一种基于生成对抗网络的多模态人类活动识别方法
Zhu et al. Efficient human activity recognition solving the confusing activities via deep ensemble learning
He et al. A low power fall sensing technology based on FD-CNN
CN110245718A (zh) 一种基于联合时域频域特征的人体行为识别方法
CN109800860A (zh) 一种面向社区基于cnn算法的老年人跌倒检测方法
CN103533888B (zh) 用于分类哺乳动物的身体方位的装置和方法
CN110674875A (zh) 一种基于深度混合模型的行人运动模式识别方法
WO2021115064A1 (zh) 基于可穿戴传感器的健身运动识别方法
Shi et al. Gait recognition via random forests based on wearable inertial measurement unit
Liu Human motion state recognition based on MEMS sensors and Zigbee network
CN108960430A (zh) 为人体运动活动生成个性化分类器的方法和设备
CN109770913A (zh) 一种基于反向传播神经网络的步态异常识别方法
Xue et al. Understanding and improving deep neural network for activity recognition
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
Yang et al. Smart wearable monitoring system based on multi-type sensors for motion recognition
CN110298276A (zh) 基于卷积神经网络的跌倒检测方法
Saeedi et al. Context aware mobile personal navigation services using multi-level sensor fusion
CN115393956A (zh) 改进注意力机制的CNN-BiLSTM跌倒检测方法
Ma et al. Research on human motion recognition system based on MEMS sensor network
CN111597881B (zh) 基于数据分离多尺度特征结合的人体复杂行为识别方法
Nouriani et al. Activity recognition using a combination of high gain observer and deep learning computer vision algorithms
Jia et al. Study on abnormal gait and fall warning method using wearable sensors and a human musculoskeletal model
Zhao et al. ANTON: Activity recognition-based smart home control system
Sangisetti et al. Review on personal activity analysis using machine learning algorithms
CN111861275A (zh) 家政工作模式的识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191001

RJ01 Rejection of invention patent application after publication