CN109726672B - 一种基于人体骨架序列和卷积神经网络的摔倒检测方法 - Google Patents

一种基于人体骨架序列和卷积神经网络的摔倒检测方法 Download PDF

Info

Publication number
CN109726672B
CN109726672B CN201811613090.6A CN201811613090A CN109726672B CN 109726672 B CN109726672 B CN 109726672B CN 201811613090 A CN201811613090 A CN 201811613090A CN 109726672 B CN109726672 B CN 109726672B
Authority
CN
China
Prior art keywords
skeleton sequence
human body
frame
skeleton
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811613090.6A
Other languages
English (en)
Other versions
CN109726672A (zh
Inventor
李瑞峰
王珂
程宝平
武军
李钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
China Mobile Hangzhou Information Technology Co Ltd
Original Assignee
Harbin Institute of Technology
China Mobile Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology, China Mobile Hangzhou Information Technology Co Ltd filed Critical Harbin Institute of Technology
Priority to CN201811613090.6A priority Critical patent/CN109726672B/zh
Publication of CN109726672A publication Critical patent/CN109726672A/zh
Application granted granted Critical
Publication of CN109726672B publication Critical patent/CN109726672B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于人体骨架序列和卷积神经网络的摔倒检测方法,它属于人体摔倒检测技术领域。本发明解决了传统的人体摔倒检测方法仅利用不连续的单时间点传感信息来检测,容易带来摔倒的误判的问题。本发明采集了一部分人体摔倒骨架序列和类摔倒骨架序列,并且将MSRDaily Activity3D数据集融合到采集的数据集中,同时为了弥补数据集的空白,本发明利用两种数据增强的方法对数据集进行扩增,以避免过拟合的问题;扩增后的数据集用来训练和测试本发明建立的卷积神经网络,实验结果显示,在测试集上的识别准确率为93.75%,灵敏度为93.9%,所以,本发明的方法克服了传统方法容易带来摔倒的误判的问题。本发明可以应用于人体摔倒检测技术领域。

Description

一种基于人体骨架序列和卷积神经网络的摔倒检测方法
技术领域
本发明属于人体摔倒检测技术领域,具体涉及一种人体摔倒检测方法。
背景技术
随着社会的发展,全球的老龄人口在不断增加,使老年人的医疗健康成为社会关注的问题之一。美国疾病控制和防疫中心的调查结果表明,摔倒已经成为导致65岁以上老年人意外死亡和伤害的最大诱因。Noury等的研究显示,老年人摔倒后,如能得到及时的救助,可以有效降低80%的死亡风险和26%的住院长期治疗风险。而根据全国老年办统计数据显示,现有大量的老人远离子女独自生活。因此,迫切需要为老年人开发智能监控系统,该系统可以自动并立即检测跌倒事件并通知护理人员或家属。
根据检测摔倒行为所涉及的设备,人体摔倒检测技术主要分为以下两类:
第一、基于穿戴式传感器的摔倒检测方法,主要原理是对人体的姿态进行检测,进而进行摔倒检测。常见的传感器包括加速度传感器、陀螺仪、压力传感器等,不仅可以进行多传感器融合,还可以与心电、脉搏等设备结合进行检测。大多数基于可穿戴传感器的检测方法都采用设定阈值或设定规则来检测摔倒。Sannino等开发了一套检测方法,根据加速度计数据提取IF-THEN规则来判断是否摔倒,通过对竖直方向速度的阈值判断将摔倒与日常行为区分开来。Kwolek等利用加速度计和Kinect数据,设计了模糊检测系统来检测摔倒。但是穿戴式检测设备需要用户长期佩戴,用户体验较差,不方便日常的活动。
第二、基于环境传感器的摔倒检测方法,主要原理是在检测人体目标的活动区域内安装传感器,进而进行摔倒检测,视频,音频和振动传感器是此类别的主要设备。Vaidechi等人利用相机设计实现了一种基于静态人体图像特征的摔倒检测系统,并通过提取人体的长宽比和倾斜角度两个特征进行摔倒判断。人体可以表示为具有铰接关节和刚性骨骼的神经系统,而人体的动作可以表示为骨骼的运动。随着Kinect基于深度数据实时捕获骨架的实现,基于深度数据的人体动作识别主要分为两个步骤,首先利用深度数据识别人体骨架,然后对骨架序列进行摔倒识别。通过估计头部,身体质心或两者的高度,从深度图像中提取的轮廓已被用于估计人体姿势。
人体摔倒检测方法必须能有效识别摔倒过程与其它日常生活运动行为,传统检测方法仅利用不连续的单时间点传感信息,并不具备描述人体运动过程的信息完备性,导致对摔倒的误判率较高。
发明内容
本发明的目的是为解决传统的人体摔倒检测方法仅利用不连续的单时间点传感信息来检测,导致对摔倒的误判率高的问题。
本发明为解决上述技术问题采取的技术方案是:
步骤一、采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列,并从MSRDailyActivity3D数据集中随机选取M3个人体骨架序列;
步骤二、对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列;
步骤三、将数据增强处理后的人体骨架序列中的人体关节空间位置信息转换为RGB分量,得到编码后的RGB图像;并将每张编码后的RGB图像的尺寸变换为l×h;l和h分别代表RGB图像的宽度和高度;
步骤四、将步骤三尺寸变换后的RGB图像随机分成训练集图像和测试集图像两部分;
步骤五、建立卷积神经网络,将训练集图像输入建立的卷积神经网络进行训练,当训练集上的损失函数值连续10次不再减小时停止训练;
步骤六、将测试集图像输入步骤五停止训练时的卷积神经网络,若测试集上的准确率不低于准确率阈值,则将步骤五停止训练时的卷积神经网络作为训练好的卷积神经网络;若测试集上的准确率低于准确率阈值,则调整卷积神经网络的参数后继续训练,直至测试集上的准确率不低于准确率阈值时,得到训练好的卷积神经网络;
步骤七、利用训练好的卷积神经网络对人体进行摔倒识别。
本发明的有益效果是:本发明提供了一种基于人体骨架序列和卷积神经网络的摔倒检测方法,本发明采集了一部分人体摔倒骨架序列和类摔倒骨架序列,并且将MSRDailyActivity3D数据集融合到采集的数据集中,同时为了弥补数据集的空白,本发明利用两种数据增强的方法对数据集进行扩增,以避免过拟合的问题;扩增后的数据集用来训练和测试本发明建立的卷积神经网络,实验结果显示,在测试集上的识别准确率为93.75%,灵敏度为93.9%,所以,本发明的方法克服了传统方法对摔倒的误判率高的问题。
在额外做的20组在线检测实验中,实验结果显示召回率为1,准确率为95%,而且本发明的方法不受环境和光照条件的影响,可以广泛用于独居老人的日常监护,具有一定的应用价值。
本发明融合了人体动作的空间和时间特征,对人体摔倒动作的识别起到很好的作用。
附图说明
图1为本发明所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法的卷积神经网络结构图;
图2为本发明采集人体骨架序列时的实验场景图;
图3为本发明采集的一个人体骨架序列的示意图;
其中:f=10代表第10帧的人体关节图,f=20代表第20帧的人体关节图,以此类推,f=110代表第110帧的人体关节图;
图4为Kinect V2和KinectV1两个设备产生的相同关节点的示意图;
其中:1代表脊柱关节,2代表头部关节,3代表右肩关节,4代表右肘关节,5代表右腕关节,6代表右手关节,7代表左肩关节,8代表左肘关节,9代表左腕,10代表左手,11代表右臀,12代表右膝,13代表右脚,14代表右脚踝,15代表左臀,16代表左膝,17代表左脚踝,18代表左脚;
图5为间隔采样的数据增强方法的示意图;
S1代表第1帧,S1+d代表第1+d帧,S1+2d代表第1+2d帧,
Figure BDA0001925228730000031
代表第1+fc帧,
Figure BDA0001925228730000032
代表第1+d+fc帧,
Figure BDA0001925228730000033
代表第1+2d+fc帧;
图6为低帧率的二次采样时,单数帧对应的编码后的RGB图;
图7为低帧率的二次采样时,双数帧对应的编码后的RGB图;
图8为利用卷积神经网络进行训练时,损失函数值与训练次数的关系曲线、以及准确率与训练次数的关系曲线图。
图9为在线测试时,有人摔倒的骨架序列编码后的RGB图像的示意图;
图10为在线测试时,没有人摔倒的骨架序列编码后的RGB图像的示意图;
图11是将数据增强处理后的人体骨架序列中的人体关节空间位置信息编码为RGB图像,再将RGB图像的尺寸变换为60×60大小的图像的示意图。
图11的中间的图代表编码的RGB图像,编码的RGB图像的横向代表时间动态信息,编码的RGB图像的纵向代表空间结构信息;图11的右图代表尺寸变换为60×60大小的RGB图像;
Figure BDA0001925228730000034
Figure BDA0001925228730000035
分别代表第1帧中的人体关节空间位置信息对应的R值、G值和B值;
Figure BDA0001925228730000036
Figure BDA0001925228730000037
分别代表第2帧中的人体关节空间位置信息对应的R值、G值和B值。
具体实施方式
下面结合附图对本发明的技术方案作进一步的说明,但并不局限于此,凡是对本发明技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,均应涵盖在本发明的保护范围中。
具体实施方式一:结合图1说明本实施方式。本实施方式所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,该方法包括以下步骤:
步骤一、采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列,并从MSRDailyActivity3D数据集中随机选取M3个人体骨架序列;
人体类摔倒动作包括坐下和躺下动作,MSRDaily Activity3D数据集中包括饮水、吃东西和读书等非摔倒、且非类摔倒动作。
步骤二、对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列;
步骤三、将数据增强处理后的人体骨架序列中的人体关节空间位置信息转换为RGB分量,得到编码后的RGB图像;并将每张编码后的RGB图像的尺寸变换为l×h;l和h分别代表RGB图像的宽度和高度;
步骤四、将步骤三尺寸变换后的RGB图像随机分成训练集图像和测试集图像两部分;
步骤五、建立卷积神经网络,将训练集图像输入建立的卷积神经网络进行训练,当训练集上的损失函数值连续10次不再减小时停止训练;
步骤六、将测试集图像输入步骤五停止训练时的卷积神经网络,若测试集上的准确率不低于准确率阈值,则将步骤五停止训练时的卷积神经网络作为训练好的卷积神经网络;若测试集上的准确率低于准确率阈值,则调整卷积神经网络的参数后继续训练,直至测试集上的准确率不低于准确率阈值时,得到训练好的卷积神经网络;
步骤七、利用训练好的卷积神经网络对人体进行摔倒识别。
本实施方式提出的一种融合全局时空特征的卷积神经网络,可以更好的提取动作的时空信息。本实施方式中的准确率阈值为不小于90%的数值。
本实施方式中采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列,每个骨架序列是一种时间延续上的序列,例如:一个摔倒动作的持续时间为t,采集的帧率为FPS,所以在一个摔倒动作中,共可以采集到t×FPS帧人体关节图,全部的t×FPS帧人体关节图被称为一个骨架序列。
具体实施方式二:本实施方式对实施方式一所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中步骤一的具体过程为:
利用微软的Kinect V2采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列;
Kinect V2采集的每个骨架序列均包含25个关节点的空间位置信息;
从MSRDaily Activity3D数据集中随机选取M3个人体骨架序列;
MSRDaily Activity3D数据集是利用Kinect V1采集的骨架序列,Kinect V1采集的每个骨架序列均包含20个关节点的空间位置信息;
选取出全部的M1+M2+M3个人体骨架序列共同包含的18个关节点的空间位置信息。
具体实施方式三:本实施方式对实施方式二所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,所述步骤二对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列,其具体过程为:
若每个骨架序列均包含L帧,帧率为FPS 30帧/秒,则每个骨架序列的持续时间t为L/FPS秒;将每个骨架序列编码为RGB图像时,若编码的每个骨架序列的持续时间长度为T,一般来说,T<t;则每个RGB图像中包含的帧数fc为T×FPS;
则将每个骨架序列的第1帧至第T×FPS帧作为一个新的骨架序列,将每个骨架序列的第2帧至第T×FPS+1帧作为一个新的骨架序列,以此类推,将每个骨架序列的第L-T×FPS帧至第L帧作为一个新的骨架序列,得到的全部新的骨架序列和原来的M1+M2+M3个人体骨架序列共同组成数据增强处理后的人体骨架序列。
具体实施方式四:本实施方式对实施方式二所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,所述步骤二对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列,其具体过程为:
若采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列时采用的帧率为F帧/秒,则在时间T内,以F/2的帧率对全部的M1+M2+M3个人体骨架序列进行二次采样,则每个人体骨架序列的单数帧组成一个新的骨架序列,每个人体骨架序列的双数帧组成一个新的骨架序列,得到的全部新的骨架序列和原来的M1+M2+M3个人体骨架序列共同组成数据增强处理后的人体骨架序列。
采用步骤二的数据增强处理的方法,可以使数据集中包含的人体骨架序列的个数增多,降低过拟合对训练效果的影响。
我们将骨架序列编码为RGB图像,唯一的限制条件为每段骨架序列所持续的时间长度是一样的,这样做的原因是如果我们将不同时间长度的骨架序列编码为相同尺寸的图像,会改变人体运动的频率,而这样做会引起误识别。比如说有一段较长的骨架序列,其中人在做的动作为慢慢蹲下,但如果我们将其频率改变后这段骨架序列可能意味着这个人一下子倒在了地上,所以必须限定每段骨架序列所持续的时间长度是一样的。
具体实施方式五:如图11所示,本实施方式对实施方式三或四所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中步骤三的具体过程为:
对于数据增强处理后的每一个人体骨架序列,若人体骨架序列的第f帧中的第n个人体关节的空间位置信息为
Figure BDA0001925228730000061
其中:
Figure BDA0001925228730000062
代表第f帧中的第n个人体关节的x轴坐标,
Figure BDA0001925228730000063
代表第f帧中的第n个人体关节的y轴坐标,
Figure BDA0001925228730000064
代表第f帧中的第n个人体关节的z轴坐标;所述x轴、y轴和z轴为相机坐标系下的三个坐标轴;
则将第f帧中的人体关节空间位置信息转换成RGB图像的RGB值,所述RGB图像的RGB值的具体形式为:
Figure BDA0001925228730000065
Rf代表第f帧中的人体关节空间位置信息对应的R值,Gf代表第f帧中的人体关节空间位置信息对应的G值,Bf代表第f帧中的人体关节空间位置信息对应的B值;其中:N=18;
同理,得到每个人体骨架序列的每帧中的人体关节空间位置信息对应的RGB值;
将排列好的骨架序列通过以下映射关系,得到编码后的RGB图像:
Figure BDA0001925228730000066
Figure BDA0001925228730000067
Figure BDA0001925228730000068
Figure BDA0001925228730000069
代表第f帧中的第n个人体关节在RGB图像中的像素点的R值,xmin代表第f帧中的所有人体关节的x轴坐标的最小值,floor函数表示向下取整,xmax代表第f帧中的所有人体关节的x轴坐标的最大值;
Figure BDA0001925228730000071
代表第f帧中的第n个人体关节在RGB图像中的像素点的G值,ymin代表第f帧中的所有人体关节的y轴坐标的最小值,ymax代表第f帧中的所有人体关节的y轴坐标的最大值;
Figure BDA0001925228730000072
代表第f帧中的第n个人体关节在RGB图像中的像素点的B值,zmin代表第f帧中的所有人体关节的z轴坐标的最小值,zmax代表第f帧中的所有人体关节的z轴坐标的最大值。
由于MSRDaily Activity3D数据集是利用Kinect V1采集的骨架序列,Kinect V1采集的每个骨架序列均包含20个关节点的空间位置信息;Kinect V2采集的每个骨架序列均包含25个关节点的空间位置信息;所以本实施方式中N=18,18代表Kinect V1采集的骨架序列和Kinect V2采集的骨架序列共同包含的18个关节点;
这种情况下,动作的全局描述非常明显,而且每个关节的空间描述也非常明确。
具体实施方式六:本实施方式对实施方式五所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中的步骤五的具体过程为:
建立卷积神经网络,所述卷积神经网络包括四个卷积层、四个最大池化层和两个全连接层,且在两个全连接层后均添加dropout,设置dropout的值为Q;
将训练集图像输入建立的卷积神经网络,mini-batch大小设置为32,采用Adam梯度下降算法进行训练,当训练集上的损失函数值连续10次不再减小时停止训练。
本实施方式建立的轻量化的卷积神经网络可以便于实时检测。
具体实施方式七:本实施方式对实施方式六所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中的卷积神经网络的第二个全连接层采用的激活函数为sofmax函数,损失函数采用Cross Entry函数:
Figure BDA0001925228730000073
其中:loss代表损失函数,N0代表输入样本数,i=1,2,…,N0,C代表输出的类别个数,C=2,j=1,2,对于,y(i,j)代表第i个样本的标签,
Figure BDA0001925228730000074
代表第i个样本经过卷积神经网络后的输出。
具体实施方式八:本实施方式对实施方式七所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中卷积神经网络的四个卷积层和第一个全连接层采用的激活函数均为LeakyReLU,激活函数LeakyReLU的具体形式为:
Figure BDA0001925228730000081
其中:α是激活函数的系数,α的取值范围是(0,1),x代表对应层的输入,y代表对应层的输出。
具体实施方式九:本实施方式对实施方式八所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中步骤七的具体过程为:
采集待识别的人体骨架序列,待识别人体骨架序列包含的帧数为E帧,将其中的第1帧至第e帧作为新的骨架序列P1,将第m+1帧至第m+e帧作为新的骨架序列P2,将第2m+1帧至第2m+e帧作为新的骨架序列P3,以此类推,得到一系列新的骨架序列P1,P2,P3,…,PK;并得到每个骨架序列对应的编码后的RGB图像;
将编码后的RGB图像输入训练好的卷积神经网络,若第k个骨架序列Pk对应的RGB图像的识别结果为摔倒,k=5,6,…,K,则继续判断第k-4个骨架序列Pk-4、第k-3个骨架序列Pk-3、第k-2个骨架序列Pk-2和第k-1个骨架序列Pk-1的识别结果,若对第k-4个骨架序列Pk-4、第k-3个骨架序列Pk-3、第k-2个骨架序列Pk-2和第k-1个骨架序列Pk-1的识别结果中有至少两个为摔倒,则判定人体有摔倒动作;否则,判定人体没有摔倒动作。
具体实施方式十:本实施方式对实施方式九所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法进行进一步的限定,本实施方式中所述dropout的值Q的取值范围为(0,1)。
实施例
本发明主要对家庭环境下的摔倒行为进行识别,但目前公开的数据集中很少有该类动作。为了验证摔倒检测系统的有效性,我们在家庭环境下进行实验.如图2所示,实验场景为一间学生公寓,面积为10平方米左右,实际可活动面积为5平方米,放置有椅子、书桌和单人床等日常用品。
我们用微软的Kinect V2进行采集,设置采样频率为FPS=30。摔倒动作:模拟因眩晕摔倒和行走过程中摔倒(包括前向摔倒、侧向摔倒及向后摔倒),并使用厚海绵垫保护。类摔倒动作:坐下和躺下。10位青年学生作为志愿模特进行以上动作采集,每个人分别对每个动作做10次,每次采集200帧,也就是T≈6.7s,采集的人体骨架序列的示意图如图3所示;
MSRDaily Activity3D数据集中的动作属于家庭环境下的一些日常活动,我们选取一部分数据加入到我们自己采集的数据集中,一方面可以扩充我们的数据集,另一方面由于两个数据集是在不同环境下采集的,可以提升我们数据集的鲁棒性。我们的数据集分布情况如表1所示。
表1
动作类型 具体动作描述 数据个数
摔倒动作 摔倒 100
类摔倒动作 坐下、躺下 140
日常动作 drink,eat,read book等 280
但由于MSRDaily Activity3D数据集是用KinectV1采集,每个人体只有20个关节点,而我们用KinectV2采集,有25个关节点。考虑到这个问题,我们经过比较,选取出了两个设备产生的相同关节点共18个,其示意图如图4所示。
在深度学习训练过程中,由于数据的缺乏以及参数的复杂性,过拟合问题对于训练效果有较大的影响,在人体动作识别的过程中,降低过拟合影响的一个有效方法是对动作数据集进行数据增强。本发明主要采取两种数据增强方法。
间隔采样的数据增强方法:若对于一个L帧的骨架序列S,其帧率FPS=30,其持续时间为t=L/FPS。我们将骨架序列编码为RGB图像时,设定编码的序列持续时间长度为T=5s,即持续帧数fc=T×FPS=150,一般来说,T<t。我们要编码的骨架序列起始帧数为fs,截止帧数为fe=fs+fc,只需要满足fe<L即可。因此我们可以从第一帧开始采样,若采样间隔为d,则第1帧,第1+d帧、第1+2d帧、…、第1+fc帧作为一个新的骨架序列,则第1+d帧、第1+2d帧、…、第1+d+fc帧作为一个新的骨架序列,第1+2d帧、第1+3d帧、…、第1+2d+fc帧作为一个新的骨架序列,以此类推,直至得到的一个新的骨架序列的最后一帧达到最大帧数L,得到一系列新的骨架序列,再将新的骨架序列编码为RGB图像,并将每张RGB图像的尺寸变换为60×60,间隔采样的数据增强方法的示意图如图5所示。
变换帧率采样的数据增强方法:我们将骨架序列编码为RGB图像,唯一的限制条件为每段骨架序列所持续的时间长度是一样的,这样做的原因是如果我们将不同时间长度的骨架序列编码为相同尺寸的图像,会改变人体运动的频率,而这样做会引起误识别。比如说有一段较长的骨架序列,其中人在做的动作为慢慢蹲下,但如果我们将其频率改变后这段骨架序列可能意味着这个人一下子倒在了地上。
当然我们可以将这段骨架序列以不同的帧率进行二次采样,由于我们在数据采集时设定的帧率为FPS=30,那么我们可以在固定时间T内进行低帧率的二次采样,比如说我们可以以FPS=15的帧率采样。这样我们可以将一段相同的骨架序列变换为3段序列。如图6和图7所示,我们将一段“坐下”的骨架序列按照不同帧率采样,生成2张新的图像。
经过数据增强之后,我们最终的数据集分布情况如表2所示。为了避免过拟合,我们尽量使两类动作的训练样本数量一致。训练集中摔倒动作和未摔倒动作各1200张image,测试集中摔倒动作和未摔倒动作各300张image。我们按照被采集的人物来划分训练集与测试集,比如本发明将8个模特采集的数据划分为训练集,而将另外两名模特采集的数据集划分为测试集。这样做可以提升模型的泛化能力,不会因为场景、人物的变换导致模型识别率降低。
表2
Figure BDA0001925228730000101
由于我们的图像输入尺寸只有60×60,所以我们设计了一个轻量化的网络,参数量一共有98722。采用Adam梯度下降法进行训练,mini-batch大小设置为32。
模型很快就可以收敛,以我们的数据量在一台普通的电脑上1个小时以内可以收敛。如图8所示,最终在训练集上loss=0.01,准确率为98.13%。而在测试集上的准确率为93.75%,召回率为93.9%。
我们的模型虽然在测试集上可以达到93.75%的准确率,但是在实际应用中的识别效果还不清楚。为此,我们特地采集了20组的人体骨架序列,每个序列2000帧。其中10组序列中有人摔倒,而另外10组中没有人摔倒。我们将10组数据按照相同的方法编码为RGB图像。如图9所示,为有人摔倒的骨架序列编码后的RGB图像,如图10所示,是没有人摔倒的骨架序列编码后的RGB图像。
我们采用投票的方式进行决策,测试算法如表3所示:
表3
Figure BDA0001925228730000111
我们每间隔m帧进行一次识别,m=15.如果只通过一次识别的结果来判断是否摔倒,会引起误识别,所以本发明采用一种投票的方式来判断。如果当前识别结果和前4次的识别结果中有3次都是摔倒,那么判定为摔倒。最终通过上述算法对20组骨架序列进行识别,识别结果的混淆矩阵如表4所示,由表4可得Sensitive=1,Accuracy=0.95.
表4
Positive Negative
Fall 10 9
No Fall 1 0
当今社会独居老人越来越多,老年人的监护已经成为了一个社会问题。为使独居老人在家摔倒时能够被及时发现,将对老年人的伤害减到最低,本发明提出了一种基于骨架的实时摔倒检测系统,首先我们将动作序列编码为一幅RGB图像,并且保留原始的空间结构信息和时间动态信息。然后我们设计了一个轻量化的卷积神经网络,用来识别编码后的图像。我们采集了一个摔倒数据集,并且将它和MSRDailyActivity3D数据集融合在一起,利用2种数据增强的方法对数据集进行扩充,我们的模型在测试集上的结果显示,模型的召回率为93.9%,准确率为93.75%。最后我们还提出一种在线检测算法,实验结果显示,算法的召回率为1,准确率为95%。

Claims (9)

1.一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,该方法包括以下步骤:
步骤一、采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列,并从MSRDailyActivity3D数据集中随机选取M3个人体骨架序列;
步骤二、对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列;
步骤三、将数据增强处理后的人体骨架序列中的人体关节空间位置信息转换为RGB分量,得到编码后的RGB图像;并将每张编码后的RGB图像的尺寸变换为l×h;l和h分别代表RGB图像的宽度和高度;
所述将数据增强处理后的人体骨架序列中的人体关节空间位置信息转换为RGB分量,得到编码后的RGB图像,其具体过程为:
对于数据增强处理后的每一个人体骨架序列,若人体骨架序列的第f帧中的第n个人体关节的空间位置信息为
Figure FDA0002536321590000011
其中:
Figure FDA0002536321590000012
代表第f帧中的第n个人体关节的x轴坐标,
Figure FDA0002536321590000013
代表第f帧中的第n个人体关节的y轴坐标,
Figure FDA0002536321590000014
代表第f帧中的第n个人体关节的z轴坐标;
则将第f帧中的人体关节空间位置信息转换成RGB图像的RGB值,所述RGB图像的RGB值的具体形式为:
Figure FDA0002536321590000015
Rf代表第f帧中的人体关节空间位置信息对应的R值,Gf代表第f帧中的人体关节空间位置信息对应的G值,Bf代表第f帧中的人体关节空间位置信息对应的B值;其中:N=18;
同理,得到每个人体骨架序列的每帧中的人体关节空间位置信息对应的RGB值;
将排列好的骨架序列通过以下映射关系,得到编码后的RGB图像:
Figure FDA0002536321590000016
Figure FDA0002536321590000017
Figure FDA0002536321590000018
Figure FDA0002536321590000021
代表第f帧中的第n个人体关节在RGB图像中的像素点的R值,xmin代表第f帧中的所有人体关节的x轴坐标的最小值,floor函数表示向下取整,xmax代表第f帧中的所有人体关节的x轴坐标的最大值;
Figure FDA0002536321590000022
代表第f帧中的第n个人体关节在RGB图像中的像素点的G值,ymin代表第f帧中的所有人体关节的y轴坐标的最小值,ymax代表第f帧中的所有人体关节的y轴坐标的最大值;
Figure FDA0002536321590000023
代表第f帧中的第n个人体关节在RGB图像中的像素点的B值,zmin代表第f帧中的所有人体关节的z轴坐标的最小值,zmax代表第f帧中的所有人体关节的z轴坐标的最大值;
步骤四、将步骤三尺寸变换后的RGB图像随机分成训练集图像和测试集图像两部分;
步骤五、建立卷积神经网络,将训练集图像输入建立的卷积神经网络进行训练,当训练集上的损失函数值连续10次不再减小时停止训练;
步骤六、将测试集图像输入步骤五停止训练时的卷积神经网络,若测试集上的准确率不低于准确率阈值,则将步骤五停止训练时的卷积神经网络作为训练好的卷积神经网络;若测试集上的准确率低于准确率阈值,则调整卷积神经网络的参数后继续训练,直至测试集上的准确率不低于准确率阈值时,得到训练好的卷积神经网络;
步骤七、利用训练好的卷积神经网络对人体进行摔倒识别。
2.根据权利要求1所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述步骤一的具体过程为:
利用微软的Kinect V2采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列;
从MSRDaily Activity3D数据集中随机选取M3个人体骨架序列;
选取出全部的M1+M2+M3个人体骨架序列共同包含的18个关节点的空间位置信息。
3.根据权利要求2所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述步骤二对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列,其具体过程为:
若每个骨架序列均包含L帧,帧率为FPS帧/秒,则每个骨架序列的持续时间t为L/FPS秒;将每个骨架序列编码为RGB图像时,若编码的每个骨架序列的持续时间长度为T;则每个RGB图像中包含的帧数fc为T×FPS;
则将每个骨架序列的第1帧至第T×FPS帧作为一个新的骨架序列,将每个骨架序列的第2帧至第T×FPS+1帧作为一个新的骨架序列,以此类推,将每个骨架序列的第L-T×FPS帧至第L帧作为一个新的骨架序列,得到的全部新的骨架序列和原来的M1+M2+M3个人体骨架序列共同组成数据增强处理后的人体骨架序列。
4.根据权利要求2所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述步骤二对步骤一中全部的M1+M2+M3个人体骨架序列进行数据增强处理,得到数据增强处理后的人体骨架序列,其具体过程为:
若采集M1个人体摔倒骨架序列和M2个人体类摔倒骨架序列时采用的帧率为F帧/秒,则在时间T内,以F/2的帧率对全部的M1+M2+M3个人体骨架序列进行二次采样,则每个人体骨架序列的单数帧组成一个新的骨架序列,每个人体骨架序列的双数帧组成一个新的骨架序列,得到的全部新的骨架序列和原来的M1+M2+M3个人体骨架序列共同组成数据增强处理后的人体骨架序列。
5.根据权利要求3或4所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述步骤五的具体过程为:
建立卷积神经网络,所述卷积神经网络包括四个卷积层、四个最大池化层和两个全连接层,且在两个全连接层后均添加dropout,设置dropout的值为Q;
将训练集图像输入建立的卷积神经网络,mini-batch大小设置为32,采用Adam梯度下降算法进行训练,当训练集上的损失函数值连续10次不再减小时停止训练。
6.根据权利要求5所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述卷积神经网络的第二个全连接层采用的激活函数为sofmax函数,损失函数采用Cross Entry函数:
Figure FDA0002536321590000031
其中:loss代表损失函数,N0代表输入样本数,i=1,2,…,N0,C代表输出的类别个数,C=2,j=1,2,y(i,j)代表第i个样本的标签,
Figure FDA0002536321590000032
代表第i个样本经过卷积神经网络后的输出。
7.根据权利要求6所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述卷积神经网络的四个卷积层和第一个全连接层采用的激活函数均为LeakyReLU,激活函数LeakyReLU的具体形式为:
Figure FDA0002536321590000041
其中:α是激活函数的系数,α的取值范围是(0,1),x代表对应层的输入,y代表对应层的输出。
8.根据权利要求7所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述步骤七的具体过程为:
采集待识别的人体骨架序列,待识别人体骨架序列包含的帧数为E帧,将其中的第1帧至第e帧作为新的骨架序列P1,将第m+1帧至第m+e帧作为新的骨架序列P2,将第2m+1帧至第2m+e帧作为新的骨架序列P3,以此类推,得到一系列新的骨架序列P1,P2,P3,…,PK;并得到每个骨架序列对应的编码后的RGB图像;
将编码后的RGB图像输入训练好的卷积神经网络,若第k个骨架序列Pk对应的RGB图像的识别结果为摔倒,k=5,6,…,K,则继续判断第k-4个骨架序列Pk-4、第k-3个骨架序列Pk-3、第k-2个骨架序列Pk-2和第k-1个骨架序列Pk-1的识别结果,若对第k-4个骨架序列Pk-4、第k-3个骨架序列Pk-3、第k-2个骨架序列Pk-2和第k-1个骨架序列Pk-1的识别结果中有至少两个为摔倒,则判定人体有摔倒动作;否则,判定人体没有摔倒动作。
9.根据权利要求8所述的一种基于人体骨架序列和卷积神经网络的摔倒检测方法,其特征在于,所述dropout的值Q的取值范围为(0,1)。
CN201811613090.6A 2018-12-27 2018-12-27 一种基于人体骨架序列和卷积神经网络的摔倒检测方法 Active CN109726672B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811613090.6A CN109726672B (zh) 2018-12-27 2018-12-27 一种基于人体骨架序列和卷积神经网络的摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811613090.6A CN109726672B (zh) 2018-12-27 2018-12-27 一种基于人体骨架序列和卷积神经网络的摔倒检测方法

Publications (2)

Publication Number Publication Date
CN109726672A CN109726672A (zh) 2019-05-07
CN109726672B true CN109726672B (zh) 2020-08-04

Family

ID=66297413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811613090.6A Active CN109726672B (zh) 2018-12-27 2018-12-27 一种基于人体骨架序列和卷积神经网络的摔倒检测方法

Country Status (1)

Country Link
CN (1) CN109726672B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390303B (zh) * 2019-07-24 2022-04-08 达闼机器人有限公司 摔倒报警方法、电子设备及计算机可读存储介质
CN110598633B (zh) * 2019-09-12 2023-04-07 品茗科技股份有限公司 一种摔倒行为识别方法、装置及系统
CN110765860B (zh) * 2019-09-16 2023-06-23 平安科技(深圳)有限公司 摔倒判定方法、装置、计算机设备及存储介质
CN111274937B (zh) * 2020-01-19 2023-04-28 中移(杭州)信息技术有限公司 摔倒检测方法、装置、电子设备及计算机可读存储介质
CN111401305B (zh) * 2020-04-08 2021-06-04 北京精准沟通传媒科技股份有限公司 一种4s店顾客统计方法、装置及电子设备
WO2022000420A1 (zh) * 2020-07-02 2022-01-06 浙江大学 人体动作识别方法、人体动作识别系统及设备
CN114201029A (zh) * 2020-09-02 2022-03-18 中国电信股份有限公司 动作检测方法、装置和存储介质
CN112180359B (zh) * 2020-11-03 2024-04-05 常州百芝龙智慧科技有限公司 一种基于fmcw的人体摔倒的检测方法
CN112633059B (zh) * 2020-11-12 2023-10-20 泰州职业技术学院 一种基于LabVIEW和MATLAB的跌倒远程监控系统
CN112906548B (zh) * 2021-02-07 2024-05-28 广东省科学院智能制造研究所 一种基于边缘计算的跌倒检测方法及系统
CN113040758A (zh) * 2021-03-05 2021-06-29 绍兴优辰科技有限公司 一种运用神经网络对孩童、老人异常行为检测的监护系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971137A (zh) * 2014-05-07 2014-08-06 上海电力学院 基于结构性稀疏特征学习的三维动态人脸表情识别方法
CN107729797A (zh) * 2016-08-10 2018-02-23 塔塔咨询服务有限公司 基于传感器数据分析识别身体关节位置的系统和方法
CN108830252A (zh) * 2018-06-26 2018-11-16 哈尔滨工业大学 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242266B2 (en) * 2016-03-02 2019-03-26 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting actions in videos

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971137A (zh) * 2014-05-07 2014-08-06 上海电力学院 基于结构性稀疏特征学习的三维动态人脸表情识别方法
CN107729797A (zh) * 2016-08-10 2018-02-23 塔塔咨询服务有限公司 基于传感器数据分析识别身体关节位置的系统和方法
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN108830252A (zh) * 2018-06-26 2018-11-16 哈尔滨工业大学 一种融合全局时空特征的卷积神经网络人体动作识别方法

Also Published As

Publication number Publication date
CN109726672A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN109726672B (zh) 一种基于人体骨架序列和卷积神经网络的摔倒检测方法
Adhikari et al. Activity recognition for indoor fall detection using convolutional neural network
CN110477925B (zh) 一种针对敬老院老人的跌倒检测与预警方法及系统
Kwolek et al. Improving fall detection by the use of depth sensor and accelerometer
Stone et al. Fall detection in homes of older adults using the Microsoft Kinect
CN101194273B (zh) 时空自组织映射
CN112784662A (zh) 基于视频的跌倒风险评价系统
CN109166275B (zh) 一种基于加速度传感器的人体跌倒检测方法
CN111368810A (zh) 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法
Dubois et al. Human activities recognition with RGB-Depth camera using HMM
CN110287825B (zh) 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
JP7019796B2 (ja) 身体機能自立支援装置およびその方法
Delachaux et al. Indoor activity recognition by combining one-vs.-all neural network classifiers exploiting wearable and depth sensors
CN104361321A (zh) 一种判断老年人摔倒行为及身体平衡能力的方法
Xu et al. Elders’ fall detection based on biomechanical features using depth camera
CN112115827B (zh) 基于人体姿态动态特征的跌倒行为识别方法
CN110321767A (zh) 图像提取装置和方法、行为分析系统和存储介质
CN112036267A (zh) 一种目标检测方法、装置、设备和计算机可读存储介质
CN112101235B (zh) 一种基于老年人行为特征的老年人行为识别检测方法
Zhang et al. Fall detection in videos with trajectory-weighted deep-convolutional rank-pooling descriptor
Lubina et al. Artificial neural networks in accelerometer-based human activity recognition
CN114255508A (zh) 一种基于OpenPose的学生体态检测分析及效率评估方法
Wu et al. Skeleton based fall detection with convolutional neural network
CN115346272A (zh) 基于深度图像序列的实时摔倒检测方法
Dai Vision-based 3d human motion analysis for fall detection and bed-exiting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant