CN113111865B - 一种基于深度学习的跌倒行为检测方法和系统 - Google Patents

一种基于深度学习的跌倒行为检测方法和系统 Download PDF

Info

Publication number
CN113111865B
CN113111865B CN202110523527.2A CN202110523527A CN113111865B CN 113111865 B CN113111865 B CN 113111865B CN 202110523527 A CN202110523527 A CN 202110523527A CN 113111865 B CN113111865 B CN 113111865B
Authority
CN
China
Prior art keywords
layer
human body
matrix
airspace
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110523527.2A
Other languages
English (en)
Other versions
CN113111865A (zh
Inventor
叶铭彬
李伟彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110523527.2A priority Critical patent/CN113111865B/zh
Publication of CN113111865A publication Critical patent/CN113111865A/zh
Application granted granted Critical
Publication of CN113111865B publication Critical patent/CN113111865B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的跌倒行为检测方法和系统,方法包括以下步骤:首先,获取人体的骨骼数据。然后对骨骼数据进行预处理,计算提取出对跌倒行为检测有用的低维特征信息。接着使用图卷积算法构建人体图矩阵,人体部位图矩阵通过空域卷积层提取深层的空域特征,并进一步送进双向LSTM层提取时域特征。分别通过若干个空域卷积层+双向LSTM层后,最后送进FC层以进行最后的跌倒行为检测。图卷积可以把非结构化的骨骼信息建模成排列整齐的矩阵形式,利用空域卷积层可以很好地从骨架信息从提取空域特征,并进一步使用双向LSTM层提取时序特征,双向LSTM层可以叠加前后帧间的时序信息,具有高准确率的特点,使整个网络模型具有更好的性能。

Description

一种基于深度学习的跌倒行为检测方法和系统
技术领域
本发明涉及深度学习领域,更具体地,涉及一种基于深度学习的跌倒行为检测方法和系统。
背景技术
由于出生率的下降和预期寿命的增长,人口老龄化成为了全世界的普遍问题。老龄化往往伴随着身体功能的退化,如力量的减退,感官反应退化,骨质疏松等等,这些因素会大大增加老年人跌倒的风险。特别是对于独居老人,跌倒是最常见和致命的风险之一。有研究表明,超过70岁以上的老年人跌倒的人数正每年增长到大约32-42%。一般来说,跌倒会导致受伤,如瘀伤,髋部骨折或头部外伤等,也会带来心理负担,经济压力甚至影响护理者的生活质量。因此,跌倒事件的检测对老年人的安全十分重要。
近年来,针对跌倒检测主要有三种解决思路,分别是基于可穿戴设备的跌倒检测方法,基于机器视觉的跌倒检测方法和基于环境传感器的跌倒检测方法。可穿戴设备发展迅速,常见的产品有智能手环,智能腰带等等,可集成加速度计,陀螺仪,倾斜传感器等实现跌倒检测。这类设备不占用环境空间,但往往需要长时间佩戴,容易造成老人抗拒,另外,老年人也容易因为操作不当,佩戴有误或者忘记佩戴,造成检测成功率的下降。因此,虽然这种方法在实验中可以取得很好的效果,但是并不适用于实际应用。基于环境传感器的跌倒检测方法需要安装较多环境传感器,具有检测范围大,成本高的特点,适用于养老院,医院等场所。
而基于机器视觉的检测方法越来越多地被研究者所青睐,深度学习技术的提高也使得这类方法适用于更多的场景。常见的机器视觉传感器有RGB摄像机,深度传感器和红外传感器。其中RGB摄像机和红外传感器更为常见,在很多场所中,已安装有监控用的RGB摄像头(有些带有红外传感器),大量的跌倒检测算法基于RGB摄像机,算法分为背景减法和特征分类两个阶段。然而,基于RGB摄像头的技术在光照变化、阴影变化以及短时运动引起的背景变化时表现不好,难以满足目前复杂场景下坠落检测的迫切需要。另外,不得不提的是,RGB摄像头也有暴露隐私的风险。
现有的技术中,中国发明专利CN109166275A公开了“一种基于加速度传感器的人体跌倒检测方法”,公开日为2019年01月08日,具体公开了一种基于双重确认的人体跌倒检测算法,其中的一级跌倒检测根据预先采集的日常行为动作(ADL)和跌倒加速度样本数据,提取阈值集;然后实时采集人体的ADL加速度数据,提取该组数据的方差作为动态阈值部分更新针对该用户的预跌倒行为阈值;设定以上阈值作为人体跌倒判断标准进行人体跌倒行为的一级检测;在一级跌倒检测过程中,一旦检测到发生预跌倒行为,将预跌倒行为前ts开始的人体行为数据发送到近数据源的服务器上进行基于SVM的二级跌倒检测判断;最后根据双重跌倒判断结果确定人体跌倒事件。该专利需要老人长时间佩戴检测设备,以便于在摔倒时及时检测,但是长时间佩戴会造成不适,佩戴在手臂或者腿部会影响老人的生活。
发明内容
本发明的首要目的是提供一种基于深度学习的跌倒行为检测方法,解决老年人长期佩戴可穿戴检测设备会影响老年人的生活、现有的算法难以满足目前复杂场景下坠落检测的技术缺陷。
本发明的进一步目的是提供一种基于深度学习的跌倒行为检测系统。
为解决上述技术问题,本发明的技术方案如下:
一种基于深度学习的跌倒行为检测方法,包括以下步骤:
S1:获取人体的骨骼数据;
S2:对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
S3:基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
S4:通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵;
S5:通过双向LSTM层对所述空域特征矩阵提取时域特征;
S6:重复步骤S4至S5若干次,得到高维特征,每一次重复步骤S4至S5时,所述空域卷积层和双向LSTM层的参数不同;
S7:最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为。
优选地,步骤S1中使用运动捕捉设备获取人体的骨骼数据,所述运动捕捉设备为Kinect V2设备,采集视频和人体的25个骨骼点的深度信息,每个骨骼点的信息为其在深度坐标下的(x,y,z)数据。
优选地,步骤S2中所述低维特征还包括骨骼点相对于躯干上四个选定节点的相对坐标和相邻帧之间x,y,z的差,所述四个选定节点为脖子neck、脊柱中心middle of thespine、左髋left hip和右髋left hip。
优选地,步骤S3中所述图卷积算法具体为一个神经网络层,所述神经网络层通过以下公式构建人体部位图矩阵:
式中,A代表邻接矩阵,I代表自身节点的特征,代表度矩阵,σ为激活函数,X*为下一层的特征,而X为当前层的特征,W为权重矩阵。
优选地,步骤S4中所述空域卷积层使用Conv2d。
优选地,步骤S5中所述双向LSTM层由前向LSTM单元和后向LSTM单元组成,包括以下算法:
ft=sigmoid(wtht-1+utxt+bt) (1)
it=sigmoid(wiht-1+uixt+bt) (2)
gt=tanh(wght-1+ugxt+bg) (3)
ct=ftct-1+itgt (4)
ot=sigmoid(woht-1+uoxt+bo) (5)
ht=pt×tanh(ct) (6)
其中wt、wi、wg和wo是每个控制门的权重的前一个特征向量的输出,ut、ui、ug和uo是每个控制门的权重的当前特征向量的输入,bt、bi、bg和bo是通过控制门的偏置项;
(1)式、(2)式、(3)式和(4)式是双向LSTM网络在时间t的偏差,ot’和ot”是两个LSTM单位处理对应时间从空域卷积层输出的特征向量的结果,将两个向量在相应时间的平均值作为输出特征向量ot;输出特征向量ot输入到注意力机制中以学习网络权重;(1)式计算通过遗忘门后被舍弃的信息,(2)式和(3)式通过输出门计算状态更新率it和状态更新向量gt的值,然后给定输入门状态更新率it,遗忘门激活值ft和状态更新向量gt,通过(4)式计算ct-1在此LSTM单元的更新值ct;(5)式和(6)式通过输出门决定单元状态的哪一部分将被输出,ft决定旧信息是否应该丢弃,it决定新信息是否该更新还是忽略,gt赋予通过的值以权重,决定其重要性级别,ct当前向LSTM单元的记忆,ot决定单元状态哪部分进入输出,ht是当前网络的输出。
优选地,步骤S6中重复步骤S4至S5共9次。
优选地,步骤S6中每一次重复步骤S4至S5时,所述空域卷积层调整的参数为输入通道数in_channels、输出通道数out_channels、stride数,所述双向LSTM层调整的参数为batch_size,输入通道数in_channels,隐藏节点数hidden_nodes。
优选地,步骤S7中最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为,具体为:
FC层中先后使用avg_pool2d进行V pooling,kernel size选择(1,V),使用view操作进行M pooling,使用avg_pool1d进行T pooling,kernel_size为M pooling输出矩阵的第三维度,使用avg_pool1d进行C pooling,最终输出分类结果。
一种基于深度学习的跌倒行为检测系统,包括:
数据获取模块,所述数据获取模块用于获取人体的骨骼数据;
预处理模块,所述预处理模块用于对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
人体部位图矩阵模块,所述人体部位图矩阵模块用于基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
高维特征提取模块,所述高维特征提取模块包括若干空域特征提取模块和时域特征提取模块,所述空域特征提取模块用于通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵,所述时域特征提取模块用于通过双向LSTM层对所述空域特征矩阵提取时域特征;
检测模块,所述检测模块用于把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为。
与现有技术相比,本发明技术方案的有益效果是:
本发明根据人体骨骼的特点,分部位进行图卷积可以把非结构化的骨骼信息建模成排列整齐的矩阵形式,利用空域卷积层中可以很好地从骨架信息从提取空域特征,并进一步使用双向LSTM层提取时序特征,双向LSTM层可以叠加前后帧间的时序信息,具有高准确率的特点,叠加使用空域卷积层和时域卷积层,可以更好地提取高维特征,使整个网络模型具有更好的性能。
附图说明
图1为本发明的方法流程示意图。
图2为本发明的所用的25个骨骼点的标签图。
图3为本发明的系统结构示意图。
图4为本发明的高维特征提取模块结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于深度学习的跌倒行为检测方法,如图1所示,包括以下步骤:
S1:获取人体的骨骼数据;
S2:对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
S3:基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
S4:通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵;
S5:通过双向LSTM层对所述空域特征矩阵提取时域特征;
S6:重复步骤S4至S5若干次,得到高维特征,每一次重复步骤S4至S5时,所述空域卷积层和双向LSTM层的参数不同;
S7:最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为。
上述方案中,首先使用运动捕捉设备获取人体的骨骼数据,之后,对骨骼数据进行预处理,计算提取出对跌倒行为检测有用的低维特征信息,然后,使用图卷积算法构建人体图矩阵,人体部位图矩阵通过空域卷积层提取深层的空域特征,并进一步送进双向LSTM层提取时域特征,分别通过若干个空域卷积层加双向LSTM层后,叠加提取高维特征,最后送进FC层以进行最后的跌倒行为检测。根据人体骨骼的特点,分部位进行图卷积可以把非结构化的骨骼信息建模成排列整齐的矩阵形式,利用空域卷积层可以很好地从骨架信息从提取空域特征,并进一步使用双向LSTM层提取时序特征,双向LSTM层可以叠加前后帧间的时序信息,具有高准确率的特点,叠加使用空域卷积层和时域卷积层,可以更好地提取高维特征,使整个网络模型具有更好的性能。
步骤S1中使用运动捕捉设备获取人体的骨骼数据,所述运动捕捉设备为KinectV2设备,采集视频和人体的25个骨骼点的深度信息,人体的25个骨骼点如图2所示,骨骼点[0,1,2,3,4,5,6,7,8,9,10,11,20,21,22,23,24]为人体上肢部分,骨骼点[0,12,13,14,15,16,17,18,19]为人体下肢部分;每个骨骼点的信息为其在深度坐标下的(x,y,z)数据。
步骤S2中所述低维特征还包括骨骼点相对于躯干上四个选定节点的相对坐标和相邻帧之间x,y,z的差,所述四个选定节点为脖子neck、脊柱中心middle of the spine、左髋left hip和右髋left hip,骨骼点相对于躯干上四个选定节点的相对坐标提供12个通道的特征,相邻帧之间x,y,z的差又提供了3个通道,从而,一个batch的视频用一个5维矩阵(N,C,T,V,M)表示,N代表视频数量,此处为8;C代表骨骼的特征,此处为15;T代表帧的数量,此处为300,V代表骨骼的数量,此处为25,M代表一帧中的最大人数,此处为2。
步骤S3中所述图卷积算法具体为一个神经网络层,所述神经网络层通过以下公式构建人体部位图矩阵:
式中,A代表邻接矩阵,I代表自身节点的特征,代表度矩阵,σ为激活函数,X*为下一层的特征,而X为当前层的特征,W为权重矩阵。
步骤S4中所述空域卷积层使用Conv2d。
步骤S5中所述双向LSTM层由前向LSTM单元和后向LSTM单元组成,包括以下算法:
ft=sigmoid(wtht-1+utxt+bt) (1)
it=sigmoid(wiht-1+uixt+bt) (2)
gt=tanh(wght-1+ugxt+bg) (3)
ct=ftct-1+itgt (4)
ot=sigmoid(woht-1+uoxt+bo) (5)
ht=pt×tanh(ct) (6)
其中wt、wi、wg和wo是每个控制门的权重的前一个特征向量的输出,ut、ui、ug和uo是每个控制门的权重的当前特征向量的输入,bt、bi、bg和bo是通过控制门的偏置项;
(1)式、(2)式、(3)式和(4)式是双向LSTM网络在时间t的偏差,ot’和ot”是两个LSTM单位处理对应时间从空域卷积层输出的特征向量的结果,将两个向量在相应时间的平均值作为输出特征向量ot;输出特征向量ot输入到注意力机制中以学习网络权重;(1)式计算通过遗忘门后被舍弃的信息,(2)式和(3)式通过输出门计算状态更新率it和状态更新向量gt的值,然后给定输入门状态更新率it,遗忘门激活值ft和状态更新向量gt,通过(4)式计算ct-1在此LSTM单元的更新值ct;(5)式和(6)式通过输出门决定单元状态的哪一部分将被输出,ft决定旧信息是否应该丢弃,it决定新信息是否该更新还是忽略,gt赋予通过的值以权重,决定其重要性级别,ct当前向LSTM单元的记忆,ot决定单元状态哪部分进入输出,ht是当前网络的输出。
步骤S6中重复步骤S4至S5共9次。
步骤S6中每一次重复步骤S4至S5时,所述空域卷积层调整的参数为输入通道数in_channels、输出通道数out_channels、stride数,9次执行的参数分别为[[64,64,1],[64,64,1],[64,64,1],[64,128,2],[128,128,1],[128,128,1],[128,256,2],[256,256,1],[256,256,1]];所述双向LSTM层调整的参数为batch_size,输入通道数in_channels,隐藏节点数hidden_nodes,9次执行的参数分别为[[16,64,86],[16,64,86],[16,64,86],[16,128,172],[16,128,172],[16,128,172],[16,256,344],[16,256,344],[16,256,344]]。
模型由9层时空图卷积算子组成。前3层的输出channels为64,后3层是128,最后三层是256。目的是为了提取更高维度的特征。实验证明,一般,9次提取的特征可以较好地用于跌倒动作识别,多加次数会导致网络过于复杂;如果数据较为简单,也可减少次数,如两层64,两层128,两层256。
步骤S7中最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为,具体为:
FC层中先后使用avg_pool2d进行V pooling,kernel size选择(1,V),使用view操作进行M pooling,使用avg_pool1d进行T pooling,kernel_size为M pooling输出矩阵的第三维度,使用avg_pool1d进行C pooling,最终输出分类结果。
实施例2
本实施例提供一种基于深度学习的跌倒行为检测系统,基于实施例1所述的基于深度学习的跌倒行为检测方法,如图3和图4,包括:
数据获取模块,所述数据获取模块用于获取人体的骨骼数据;
预处理模块,所述预处理模块用于对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
人体部位图矩阵模块,所述人体部位图矩阵模块用于基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
高维特征提取模块,所述高维特征提取模块包括若干空域特征提取模块和时域特征提取模块,所述空域特征提取模块用于通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵,所述时域特征提取模块用于通过双向LSTM层对所述空域特征矩阵提取时域特征;在本实施例中,共有9个空域特征提取模块和9个时域特征提取模块;
检测模块,所述检测模块用于把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于深度学习的跌倒行为检测方法,其特征在于,包括以下步骤:
S1:获取人体的骨骼数据;
S2:对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
S3:基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
S4:通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵;
S5:通过双向LSTM层对所述空域特征矩阵提取时域特征;
S6:重复步骤S4至S5若干次,得到高维特征,每一次重复步骤S4至S5时,所述空域卷积层和双向LSTM层的参数不同;
S7:最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为;
步骤S3中所述图卷积算法具体为一个神经网络层,所述神经网络层通过以下公式构建人体部位图矩阵:
式中,A代表邻接矩阵,I代表自身节点的特征,代表度矩阵,σ为激活函数,X*为下一层的特征,而X为当前层的特征,W为权重矩阵;
步骤S6中重复步骤S4至S5共9次;
步骤S6中每一次重复步骤S4至S5时,所述空域卷积层调整的参数为输入通道数in_channels、输出通道数out_channels、stride数,9次执行的参数分别为[[64,64,1],[64,64,1],[64,64,1],[64,128,2],[128,128,1],[128,128,1],[128,256,2],[256,256,1],[256,256,1]],所述双向LSTM层调整的参数为batch_size,输入通道数in_channels,隐藏节点数hidden_nodes,9次执行的参数分别为[[16,64,86],[16,64,86],[16,64,86],[16,128,172],[16,128,172],[16,128,172],[16,256,344],[16,256,344],[16,256,344]];
步骤S7中最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为,具体为:
FC层中先后使用avg_pool2d进行V pooling,kernel size选择(1,V),使用view操作进行M pooling,使用avg_pool1d进行T pooling,kernel_size为M pooling输出矩阵的第三维度,使用avg_pool1d进行C pooling,最终输出分类结果。
2.根据权利要求1所述的基于深度学习的跌倒行为检测方法,其特征在于,步骤S1中使用运动捕捉设备获取人体的骨骼数据,所述运动捕捉设备为Kinect V2设备,采集视频和人体的25个骨骼点的深度信息,每个骨骼点的信息为其在深度坐标下的(x,y,z)数据。
3.根据权利要求2所述的基于深度学习的跌倒行为检测方法,其特征在于,步骤S2中所述低维特征还包括骨骼点相对于躯干上四个选定节点的相对坐标和相邻帧之间x,y,z的差,所述四个选定节点为脖子neck、脊柱中心middle of the spine、左髋left hip和右髋left hip。
4.根据权利要求3所述的基于深度学习的跌倒行为检测方法,其特征在于,步骤S4中所述空域卷积层使用Conv2d。
5.根据权利要求4所述的基于深度学习的跌倒行为检测方法,其特征在于,步骤S5中所述双向LSTM层由前向LSTM单元和后向LSTM单元组成,包括以下算法:
ft=sigmoid(wtht-1+utxt+bt) (1)
it=sigmoid(wiht-1+uixt+bt) (2)
gt=tanh(wght-1+ugxt+bg) (3)
ct=ftct-1+itgt (4)
ot=sigmoid(woht-1+uoxt+bo) (5)
ht=pt×tanh(ct) (6)
其中wt、wi、wg和wo是每个控制门的权重的前一个特征向量的输出,ut、ui、ug和uo是每个控制门的权重的当前特征向量的输入,bt、bi、bg和bo是通过控制门的偏置项;
(1)式、(2)式、(3)式和(4)式是双向LSTM网络在时间t的偏差,ot’和ot”是两个LSTM单位处理对应时间从空域卷积层输出的特征向量的结果,将两个向量在相应时间的平均值作为输出特征向量ot;输出特征向量ot输入到注意力机制中以学习网络权重;(1)式计算通过遗忘门后被舍弃的信息,(2)式和(3)式通过输出门计算状态更新率it和状态更新向量gt的值,然后给定输入门状态更新率it,遗忘门激活值ft和状态更新向量gt,通过(4)式计算ct-1在此LSTM单元的更新值ct;(5)式和(6)式通过输出门决定单元状态的哪一部分将被输出,ft决定旧信息是否应该丢弃,it决定新信息是否该更新还是忽略,gt赋予通过的值以权重,决定其重要性级别,ct当前向LSTM单元的记忆,ot决定单元状态哪部分进入输出,ht是当前网络的输出。
6.一种基于深度学习的跌倒行为检测系统,其特征在于,包括:
数据获取模块,所述数据获取模块用于获取人体的骨骼数据;
预处理模块,所述预处理模块用于对获取的骨骼数据进行预处理,提取对跌倒行为检测有用的低维特征,所述低维特征包括人体骨架数据;
人体部位图矩阵模块,所述人体部位图矩阵模块用于基于人体骨架对人体部位进行划分,使用图卷积算法构建人体部位图矩阵;
高维特征提取模块,所述高维特征提取模块包括若干空域特征提取模块和时域特征提取模块,所述空域特征提取模块用于通过空域卷积层提取所述人体部位图矩阵的深层空域特征,得到空域特征矩阵,所述时域特征提取模块用于通过双向LSTM层对所述空域特征矩阵提取时域特征;
检测模块,所述检测模块用于把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为;
人体部位图矩阵模块中所述图卷积算法具体为一个神经网络层,所述神经网络层通过以下公式构建人体部位图矩阵:
式中,A代表邻接矩阵,I代表自身节点的特征,代表度矩阵,σ为激活函数,X*为下一层的特征,而X为当前层的特征,W为权重矩阵;
重复步骤高维特征提取模块的方法若干次,得到高维特征,每一次重复高维特征提取模块的方法时,所述空域卷积层和双向LSTM层的参数不同;
每一次重复高维特征提取模块的方法时,所述空域卷积层调整的参数为输入通道数in_channels、输出通道数out_channels、stride数,9次执行的参数分别为[[64,64,1],[64,64,1],[64,64,1],[64,128,2],[128,128,1],[128,128,1],[128,256,2],[256,256,1],[256,256,1]],所述双向LSTM层调整的参数为batch_size,输入通道数in_channels,隐藏节点数hidden_nodes,9次执行的参数分别为[[16,64,86],[16,64,86],[16,64,86],[16,128,172],[16,128,172],[16,128,172],[16,256,344],[16,256,344],[16,256,344]];
检测模块中最后把高维特征送进FC层,计算特征向量的权重,根据权重检测跌倒行为,具体为:
FC层中先后使用avg_pool2d进行V pooling,kernel size选择(1,V),使用view操作进行M pooling,使用avg_pool1d进行T pooling,kernel_size为M pooling输出矩阵的第三维度,使用avg_pool1d进行C pooling,最终输出分类结果。
CN202110523527.2A 2021-05-13 2021-05-13 一种基于深度学习的跌倒行为检测方法和系统 Active CN113111865B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110523527.2A CN113111865B (zh) 2021-05-13 2021-05-13 一种基于深度学习的跌倒行为检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110523527.2A CN113111865B (zh) 2021-05-13 2021-05-13 一种基于深度学习的跌倒行为检测方法和系统

Publications (2)

Publication Number Publication Date
CN113111865A CN113111865A (zh) 2021-07-13
CN113111865B true CN113111865B (zh) 2023-08-15

Family

ID=76722368

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110523527.2A Active CN113111865B (zh) 2021-05-13 2021-05-13 一种基于深度学习的跌倒行为检测方法和系统

Country Status (1)

Country Link
CN (1) CN113111865B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837005A (zh) * 2021-08-20 2021-12-24 广州杰赛科技股份有限公司 一种人体跌倒的检测方法、装置、存储介质及终端设备
CN114627427B (zh) * 2022-05-18 2022-09-23 齐鲁工业大学 基于时空信息的跌倒检测方法、系统、存储介质及设备
CN116996697B (zh) * 2023-07-24 2024-02-23 南通大学 一种面向hevc编码框架的视频恢复方法
CN117315886B (zh) * 2023-09-07 2024-04-12 安徽建筑大学 一种基于uwb雷达的人员即将跌倒检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427877A (zh) * 2019-08-01 2019-11-08 大连海事大学 一种基于结构信息的人体三维姿态估算的方法
CN111461907A (zh) * 2020-03-13 2020-07-28 南京邮电大学 一种面向社交网络平台的动态网络表征学习方法
CN112084899A (zh) * 2020-08-25 2020-12-15 广东工业大学 一种基于深度学习的跌倒事件检测方法和系统
CN112733656A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427877A (zh) * 2019-08-01 2019-11-08 大连海事大学 一种基于结构信息的人体三维姿态估算的方法
CN111461907A (zh) * 2020-03-13 2020-07-28 南京邮电大学 一种面向社交网络平台的动态网络表征学习方法
CN112084899A (zh) * 2020-08-25 2020-12-15 广东工业大学 一种基于深度学习的跌倒事件检测方法和系统
CN112733656A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Vision-Based Fall Event Detection in Complex Background Using Attention Guided Bi-Directional LSTM;YONG CHEN 等;《IEEEAccess》;第161337-161348页 *

Also Published As

Publication number Publication date
CN113111865A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN113111865B (zh) 一种基于深度学习的跌倒行为检测方法和系统
CN111383421B (zh) 隐私保护跌倒检测方法和系统
Galvão et al. A multimodal approach using deep learning for fall detection
CN105279483B (zh) 一种基于深度图像的跌倒行为实时检测方法
CN109726672B (zh) 一种基于人体骨架序列和卷积神经网络的摔倒检测方法
CN109558865A (zh) 一种基于人体关键点的对需特别看护人员的异常状态检测方法
CN109784412A (zh) 用于步态分类的基于深度学习的多传感器信号融合方法
CN113496216A (zh) 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN110321767A (zh) 图像提取装置和方法、行为分析系统和存储介质
Zia Uddin et al. Video-based indoor human gait recognition using depth imaging and hidden Markov model: a smart system for smart home
Cuppens et al. Using spatio-temporal interest points (STIP) for myoclonic jerk detection in nocturnal video
CN109389041A (zh) 一种基于关节点特征的跌倒检测方法
CN109770912A (zh) 一种基于深度卷积神经网络的步态异常分类方法
CN111488850A (zh) 一种基于神经网络的老年人跌倒检测方法
CN112949417A (zh) 一种摔倒行为识别方法、设备及系统
CN112101235B (zh) 一种基于老年人行为特征的老年人行为识别检测方法
CN114511931A (zh) 基于视频图像的动作识别方法、装置、设备及存储介质
CN113392765A (zh) 一种基于机器视觉的摔倒检测方法和系统
CN109770913A (zh) 一种基于反向传播神经网络的步态异常识别方法
CN109325474A (zh) 一种对需特别看护人员的异常状态检测方法
CN111166340B (zh) 基于自适应加速度信号分割的人体姿势实时识别方法
Dhanraj et al. Efficient smartphone-based human activity recognition using convolutional neural network
CN115346272A (zh) 基于深度图像序列的实时摔倒检测方法
CN113688740B (zh) 一种基于多传感器融合视觉的室内姿势检测方法
CN107967944A (zh) 一种基于Hadoop的户外环境大数据人体健康监测方法与平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant