CN108776775B - 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法 - Google Patents

一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法 Download PDF

Info

Publication number
CN108776775B
CN108776775B CN201810504922.4A CN201810504922A CN108776775B CN 108776775 B CN108776775 B CN 108776775B CN 201810504922 A CN201810504922 A CN 201810504922A CN 108776775 B CN108776775 B CN 108776775B
Authority
CN
China
Prior art keywords
skeleton
frame
depth
model
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810504922.4A
Other languages
English (en)
Other versions
CN108776775A (zh
Inventor
侯振杰
莫宇剑
林恩
许艳
夏宇杰
林锦雄
王涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN201810504922.4A priority Critical patent/CN108776775B/zh
Publication of CN108776775A publication Critical patent/CN108776775A/zh
Application granted granted Critical
Publication of CN108776775B publication Critical patent/CN108776775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于权重融合深度图像与骨骼关键帧的老年人室内跌倒检测的方法,该方法包括以下步骤:使用Kinect设备获取人体的深度图像和骨骼图像;对深度图像进行特征提取;对骨骼图节点进行坐标转换;计算互信息得到关键帧,表征具体的行为;提取关键帧的三个模型组成骨骼特征;将深度特征与骨骼特征进行权重融合得到识别分类模型;根据行为识别模型进行判断;判断跌倒后,发出跌倒警报。本发明的有效效果:减少了冗余信息,跌倒的检测率高,仅需要简单的设备就可以实现,价格低廉、容易实现。

Description

一种基于权重融合深度及骨骼特征的老年人室内跌倒检测 方法
技术领域
本发明涉及计算机视觉、行为识别等领域,尤其涉及一种老年人室内跌倒检测方法。
背景技术
跌倒问题,是老年人面临的主要健康威胁。跌倒可以导致心理创伤、骨折及软组织损伤等严重后果,直接影响了老年人的心身健康,间接增加了家庭和社会的负担,现已成为老年临床医学中一项很受重视的课题。采用合理有效的检测方法能够对跌倒情况进行及时的分析,进而对老年人的跌倒进行处理。由于跌倒行为与普通行为类似,所以可以使用人体行为识别的方法进行检测。
人体行为识别应用范围广泛,在视频监控、人机交互、虚拟现实等应用中较为突出。传统的人体行为识别方面的研究都是针对2D信息下RGB图像序列的,而RGB图像受到光照、背景等方面的影响,成为研究人体行为识别最大的挑战。与RGB图像相比,RGB-D图像不仅可以成功捕捉3D信息,还可以提供深度信息。深度信息代表了在可视范围内目标与深度摄像机的距离,可以忽略光照、背景等外来因素的影响。
尽管人体行为识别的研究取得了很大的进步,但其挑战性仍是巨大的,特别是在数据冗余和数据处理方面。在视频图像序列中,行为含有大量冗余数据。如果行为特征中包括所有的行为数据,那么冗余信息可能会降低识别方法的精度。
发明内容
本发明针对以上问题,提供了一种基于权重融合深度特征和骨骼特征的老年人室内跌倒检测方法,利用互信息对Kinect设备获取到的数据进行处理,保留对识别分类有效的信息,剔除大量冗余信息,对数据进行处理,并反馈结果,达到实时监测老年人室内跌倒的目的。
为了实现上述技术目的,达到上述的技术效果,本发明专利包括以下步骤:
使用Kinect设备获取人体的深度图像和骨骼图像;对深度图像进行特征提取;对骨骼图节点进行坐标转换;计算互信息得到关键帧,表征具体的行为;提取关键帧的三个模型组成骨骼特征;将深度特征与骨骼特征进行权重融合得到识别分类模型;根据行为识别模型进行判断;判断跌倒后,发出跌倒警报。
所述使用Kinect设备获取人体的深度图像和骨骼图像,就是将Kinect设备与Windows操作系统的台式机连接,实时获取数据;
所述对深度图像进行特征提取,就是将具有时间信息的深度图像序列投影到正交的笛卡儿积平面上,获得3个视角的投影图。对深度运动图进行截取感兴趣区域操作,用以保证并保证相同角度的投影图大小一致。然后从时间和空间上通过深度运动图上像素的梯度大小和方向获得2D、3D深度特征F D。假设一个深度图像序列具有M帧,则深度运动图I计算方式为其中v t表示深度图像序列在第t帧深度投影图;
所述对骨骼图节点进行坐标转换,就是以脊柱点为原点统一新的坐标系,将骨骼图节点统一到该坐标系下;
所述计算互信息得到关键帧,表征具体的行为,就是计算相邻两帧骨骼图之间的互信息,运用互信息判断相邻两帧骨骼图之间的相似度,若值越大,两帧的差异就越大,若值越小,两帧的相似度就越高,选取平均互信息作为判别依据,用多帧来表征具体的行为;
所述提取关键帧的三个模型组成骨骼特征,就是提取静态姿态模型f cc、当前运动模型f cp、全局偏移模型f co,将三个模型得到的特征组成一帧骨骼图的底层特征F c=[f cc,f cp,f co],对求得的特征进行归一化,避免一些较小元素范围中的较大元素占主导地位的情况,由于每个骨骼图序列获得关键帧的数量是不同的,故用基于高斯混合模型的费希尔向量处理不同长度的特征,得到骨骼特征F S;
所述将深度特征与骨骼特征进行权重融合得到识别分类模型,就是将深度特征FD与骨骼特征F S分别输入到极限学习分类器中,将得到的预测标签分配不同权重μ,最终得到最可能的分类标签l*,得到识别模型;
所述根据行为识别模型进行判断,就是将当前行为用得到的识别模型进行判断,得到最终的结果;
所述判断跌倒后,发出跌倒警报,就是若当前行为为老年人跌倒,则利用短信发送设备,发送短信给老年人的子女等,以便及时的处理;
进一步地,对计算互信息得到关键帧,表征具体的行为,做具体说明:
(1)使用Kinect设备获取人体的深度图像和骨骼图像;
(2)对深度图像进行特征提取;
(3)对骨骼图节点进行坐标转换;
(4)计算互信息得到关键帧,表征具体的行为;
(5)提取关键帧的三个模型组成骨骼特征;
(6)将深度特征与骨骼特征进行权重融合得到识别分类模型;
(7)根据行为识别模型进行判断;
(8)判断跌倒后,发出跌倒警报。
进一步地,所述对深度图像进行特征提取,就是将具有时间信息的深度图像序列投影到正交的笛卡儿积平面上,获得3个视角的投影图。对深度运动图进行截取感兴趣区域操作,用以保证并保证相同角度的投影图大小一致。然后从时间和空间上通过深度运动图上像素的梯度大小和方向获得2D、3D深度特征F。假设一个深度图像序列具有M帧,则深度运动图I计算方式为
Figure GDA0002568471880000021
其中v表示深度图像序列在第t帧深度投影图;
对骨骼图节点进行坐标转换,就是以脊柱点为原点统一新的坐标系,将骨骼图节点统一到该坐标系下;
计算互信息得到关键帧,表征具体的行为,就是计算相邻两帧骨骼图之间的互信息,运用互信息判断相邻两帧骨骼图之间的相似度,若值越大,两帧的差异就越大,若值越小,两帧的相似度就越高,选取平均互信息作为判别依据,用多帧来表征具体的行为;
提取关键帧的三个模型组成骨骼特征,就是提取静态姿态模型fcc、当前运动模型fcp、全局偏移模型fco,将三个模型得到的特征组成一帧骨骼图的底层特征Fc=[fcc,fcp,fco],对求得的特征进行归一化,避免一些较小元素范围中的较大元素占主导地位的情况,由于每个骨骼图序列获得关键帧的数量是不同的,故用基于高斯混合模型的费希尔向量处理不同长度的特征,得到骨骼特征Fs
将深度特征与骨骼特征进行权重融合得到识别分类模型,就是将深度特征FD与骨骼特征FS分别输入到极限学习分类器中,将得到的预测标签分配不同权重μ,最终得到最可能的分类标签l*,得到识别模型;
根据行为识别模型进行判断,就是将当前行为使用得到的识别模型进行判断,得到最终的结果;
判断跌倒后,发出跌倒警报,就是若当前行为为老年人跌倒,则利用短信发送设备,发送短信给老年人的子女等,以便及时的处理。
进一步地,计算互信息得到关键帧,表征具体的行为,具体为:
1)互信息(mutual information,MI)是一种有用的信息度量,可看成是一个随机变量中包含的关于另一个随机变量的信息量,其计算方式为MI=h(St)+h(St+1)-h(St,St+1)。附图3的符合描述。熵h(St)衡量了第t帧骨骼图S的活跃程度,熵h(St,St+1)表示相邻两帧骨骼图之间的相似度,h(St)与h(St,St+1)之间的数学关系如图2所示;
2)h(S)的计算方式为
Figure GDA0002568471880000031
3)两帧骨骼图之间的h(St,St+1)的计算方式:
Figure GDA0002568471880000032
其中,r,k表示骨骼图第t帧和第t+1的值,r的概率分布函数是
Figure GDA0002568471880000033
具体方法步骤如下:
输入:骨骼图序列的节点坐标值,该骨骼图序列共有M帧,每帧有N个节点
输出:骨骼图序列的关键帧
Step1.对骨骼图节点进行坐标转换,获得以脊柱点为原点的新骨骼节点坐标
Step2.计算相邻两帧骨骼图之间的MI及平均互信息
Figure GDA0002568471880000034
Step3.标记每个MI对应的骨骼图,如果
Figure GDA0002568471880000035
则记为1,否则记为0
Step4.保留符合条件的帧对应的骨骼图
①.第d×(a-1)+1帧到第d×a帧对应骨骼图的标记之和不为0,保留所有标记为1对应的骨骼图,否则保留第帧骨骼图,其中初始值a=1
②.a←a+1
③.重复①,②,直到
Figure GDA0002568471880000036
对提取关键帧的三个模型组成骨骼特征,做进一步说明:
1)静态姿态模型fcc:指人体在某个时刻的姿态,对于挥手动作而言,脚步动作是相对静止的,而手部的位置变化较大。该模型可以突出变化明显的部位,计算方式:
fcc={si-sj|i∈[1,N-1],j∈[2,N],i<j}
其中,表示当前帧,si表示第i个节点的坐标值,即si=(xi,yi,zi),i,j表示不同骨骼节点,N是人体骨骼节点的个数;
2)当前运动模型fcp:指相邻两帧骨骼图节点间的变化,可以突出当前节点的变化幅度,计算方式:
Figure GDA0002568471880000037
其中,p表示当前帧c的前一帧,sc i指当前帧c的第i个节点的坐标值,一帧骨骼图记为S=[s1,s2,…sN],S∈RN×3,Sc表示当前帧c的骨骼图;
3)全局偏移模型fco:指c相对初始帧o的节点动态位置变化,该模型可以反应当前节点的变化趋势,具有全局性,计算方式:
Figure GDA0002568471880000041
由于采用了上述技术方案,本发明提供的权重融合深度图像与骨骼关键帧的行为识别的方法具有以下优势
(1)在关键帧的基础上建立了静态姿态模型、当前运动模型和动态偏移模型,获得丰富的局部特征和全局特征,提高人体行为识别率。
(2)针对骨骼图序列来提取关键帧,减少了骨骼的数据量,加快了特征提取速度。
附图说明
为了更清楚的说明本发明的实施或现有的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来说,在不付出任何创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于权重融合深度特征和骨骼特征的老年人室内跌倒检测方法的流程图
图2为发明实施例中权重融合深度图像和骨骼关键帧的算法流程图
图3为发明实施例中互信息示意图
图4为发明实施例中关键帧示意图
具体实施方式
一、实现过程
本发明所提供的方法主要步骤如下:使用Kinect设备获取人体的深度图像和骨骼图像;对深度图像进行特征提取;对骨骼图节点进行坐标转换;计算互信息得到关键帧,表征具体的行为;提取关键帧的三个模型组成一帧骨骼特征;将深度特征与骨骼特征进行权重融合得到识别分类模型;根据行为识别模型进行判断;判断跌倒后,发出跌倒警报。
为使本发明的实施例的目的、技术方案和优点更加清楚,下面结合本发明的附图2,对本发明实施例中的技术方案进行完整清晰的描述:
步骤S201:使用Kinect设备获取人体的深度图像和骨骼图像;
步骤S202:将具有时间信息的深度图像序列投影到正交的笛卡儿积平面上,获得3个视角的投影图v。一个深度图像序列具有M帧,则深度运动图I计算方式为
Figure GDA0002568471880000042
其中v表示深度图像序列在第t帧深度投影图
步骤S203:对深度运动图进行截取感兴趣区域操作,并保证相同角度的投影图大小一致,本实例中的正视图大小为102×54,侧视图大小为102×75,俯视图大小为75×54;
步骤S204:分别从时间和空间上通过深度运动图上像素(x,y)的梯度大小和方向获得2D、3D深度特征F D;
步骤S205:对骨骼图节点进行坐标转换,获得以脊柱点为原点的新骨骼节点坐标;
步骤S206:计算相邻两帧骨骼图之间的互信息,运用互信息来判别相邻两帧骨骼图之间的相似度,若值越大,两帧的差异就越大,若值越小,两帧的相似度就越高,选取平均互信息作为判别依据,用多帧来表征具体的行为;
步骤S207:提取骨骼图序列的3个模型:静态姿态模型f cc、当前运动模型f cp和全局偏移模型f co;
步骤S208:对三个模型得到的特征组成一帧骨骼图的底层特征F c=[f cc,f cp,f co],对求得的特征进行归一化;
步骤S209:使用基于高斯混合模型的费希尔向量处理不同长度的特征,得到骨骼特征F S;
步骤S210:将深度特征与骨骼特征分别输入到极限学习分类器中,将得到的预测标签分配不同权重,最终得到最可能的分类标签,得到识别模型;
步骤S211:对当前行为进行识别判断,并进行相应处理;
对步骤S206中运用互信息来判别相邻两帧骨骼图之间的相似度的做进一步说明,其步骤为:
输入:骨骼图序列的节点坐标值,该骨骼图序列共有M帧,每帧有N个节点
输出:骨骼图序列的关键帧
Step1.对骨骼图节点进行坐标转换,获得以脊柱点为原点的新骨骼节点坐标
Step2.计算相邻两帧骨骼图之间的MI及平均互信息
Figure GDA0002568471880000051
Step3.标记每个MI对应的骨骼图,如果
Figure GDA0002568471880000052
则记为1,否则记为0
Step4.保留符合条件的帧对应的骨骼图
①.第d×(a-1)+1帧到第d×a帧对应骨骼图的标记之和不为0,保留所有标记为1对应的骨骼图,否则保留第帧骨骼图,其中初始值a=1
②.a←a+1
③.重复①,②,直到
Figure GDA0002568471880000053
对提取关键帧的三个模型组成骨骼特征,做进一步说明:
1)静态姿态模型fcc:指人体在某个时刻的姿态,对于挥手动作而言,脚步动作是相对静止的,而手部的位置变化较大。该模型可以突出变化明显的部位,计算方式:
fcc={si-sj|i∈[1,N-1],j∈[2,N],i<j}
其中,表示当前帧,si表示第i个节点的坐标值,即si=(xi,yi,zi),i,j表示不同骨骼节点,N是人体骨骼节点的个数;
2)当前运动模型fcp:指相邻两帧骨骼图节点间的变化,可以突出当前节点的变化幅度,计算方式:
Figure GDA0002568471880000054
其中,p表示当前帧c的前一帧,sc i指当前帧c的第i个节点的坐标值,一帧骨骼图记为S=[s1,s2,…sN],S∈RN×3,Sc表示当前帧c的骨骼图;
3)全局偏移模型fco:指c相对初始帧o的节点动态位置变化,该模型可以反应当前节点的变化趋势,具有全局性,计算方式:
Figure GDA0002568471880000061
对步骤S210将深度特征与骨骼特征分别输入到极限学习分类器中,将得到的预测标签分配不同权重,最终得到最可能的分类标签做进一步说明:
通过对数函数来估计全局的隶属度lgP(l k|F)=μp 1(l k|F S)+(1-μ)p 2(l k|F D),当隶属度最大时得到的标签则为测试得到的标签其中,p 1(l k|F S)与p 2(l k|FD)分别是F S,F D通过Sigmoid函数计算得到的后验概率。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应该在本发明的保护范围内。

Claims (1)

1.一种基于权重融合深度特征和骨骼特征的老年人室内跌倒检测方法,其特征在于,包括以下步骤:
(1)使用Kinect设备获取人体的深度图像和骨骼图像;
(2)对深度图像进行特征提取;
(3)对骨骼图节点进行坐标转换;
(4)计算互信息得到关键帧,表征具体的行为;
(5)提取关键帧的三个模型组成骨骼特征;
(6)将深度特征与骨骼特征进行权重融合得到识别分类模型;
(7)根据行为识别模型进行判断;
(8)判断跌倒后,发出跌倒警报;
所述对深度图像进行特征提取,就是将具有时间信息的深度图像序列投影到正交的笛卡儿积平面上,获得3个视角的投影图;对深度运动图进行截取感兴趣区域操作,用以保证并保证相同角度的投影图大小一致;然后从时间和空间上通过深度运动图上像素的梯度大小和方向获得2D、3D深度特征F;假设一个深度图像序列具有M帧,则深度运动图I计算方式为
Figure FDA0002398007120000011
其中v表示深度图像序列在第t帧深度投影图;
对骨骼图节点进行坐标转换,就是以脊柱点为原点统一新的坐标系,将骨骼图节点统一到该坐标系下;
计算互信息得到关键帧,表征具体的行为,就是计算相邻两帧骨骼图之间的互信息,运用互信息判断相邻两帧骨骼图之间的相似度,若值越大,两帧的差异就越大,若值越小,两帧的相似度就越高,选取平均互信息作为判别依据,用多帧来表征具体的行为;
提取关键帧的三个模型组成骨骼特征,就是提取静态姿态模型fcc、当前运动模型fcp、全局偏移模型fco,将三个模型得到的特征组成一帧骨骼图的底层特征Fc=[fcc,fcp,fco],对求得的特征进行归一化,避免一些小元素范围中的大元素占主导地位的情况,由于每个骨骼图序列获得关键帧的数量是不同的,故用基于高斯混合模型的费希尔向量处理不同长度的特征,得到骨骼特征Fs
将深度特征与骨骼特征进行权重融合得到识别分类模型,就是将深度特征FD与骨骼特征FS分别输入到极限学习分类器中,将得到的预测标签分配不同权重μ,最终得到分类标签l*,得到识别模型;
根据行为识别模型进行判断,就是将当前行为使用得到的识别模型进行判断,得到最终的结果;
判断跌倒后,发出跌倒警报,就是若当前行为为老年人跌倒,则利用短信发送设备,发送短信给老年人的子女,以便及时的处理;
计算互信息得到关键帧,表征具体的行为,具体为:
1)互信息(mutual information,MI)是一种有用的信息度量,看成是一个随机变量中包含的关于另一个随机变量的信息量,其计算方式为MI=h(St)+h(St+1)-h(St,St+1);熵h(St)衡量了第t帧骨骼图S的活跃程度,熵h(St,St+1)表示相邻两帧骨骼图之间的相似度;
2)h(S)的计算方式为
Figure FDA0002398007120000021
3)两帧骨骼图之间的h(St,St+1)的计算方式:
Figure FDA0002398007120000022
其中,r,k表示骨骼图第t帧和第t+1的值,r的概率分布函数是
Figure FDA0002398007120000023
具体方法步骤如下:
输入:骨骼图序列的节点坐标值,该骨骼图序列共有M帧,每帧有N个节点
输出:骨骼图序列的关键帧
Step1.对骨骼图节点进行坐标转换,获得以脊柱点为原点的新骨骼节点坐标
Step2.计算相邻两帧骨骼图之间的互信息MI及平均互信息
Figure FDA0002398007120000024
Step3.标记每个互信息MI对应的骨骼图,如果
Figure FDA0002398007120000031
则记为1,否则记为0
Step4.保留符合条件的帧对应的骨骼图
①.第d×(a-1)+1帧到第d×a帧对应骨骼图的标记之和不为0,保留所有标记为1对应的骨骼图,否则保留第帧骨骼图,其中初始值a=1
②.a←a+1
③.重复①,②,直到
Figure FDA0002398007120000032
对提取关键帧的三个模型组成骨骼特征,做进一步说明:
1)静态姿态模型fcc:指人体在某个时刻的姿态,对于挥手动作而言,脚步动作是相对静止的,而手部的位置变化较大;该模型突出变化明显的部位,计算方式:
fcc={si-sj|i∈[1,N-1],j∈[2,N],i<j}
其中,表示当前帧,si表示第i个节点的坐标值,即si=(xi,yi,zi),i,j表示不同骨骼节点,N是人体骨骼节点的个数;
2)当前运动模型fcp:指相邻两帧骨骼图节点间的变化,突出当前节点的变化幅度,计算方式:
Figure FDA0002398007120000033
其中,p表示当前帧c的前一帧,sc i指当前帧c的第i个节点的坐标值,一帧骨骼图记为S=[s1,s2,…sN],S∈RN×3,Sc表示当前帧c的骨骼图;
3)全局偏移模型fco:指c相对初始帧o的节点动态位置变化,该模型反应当前节点的变化趋势,具有全局性,计算方式:
Figure FDA0002398007120000034
CN201810504922.4A 2018-05-24 2018-05-24 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法 Active CN108776775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810504922.4A CN108776775B (zh) 2018-05-24 2018-05-24 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810504922.4A CN108776775B (zh) 2018-05-24 2018-05-24 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法

Publications (2)

Publication Number Publication Date
CN108776775A CN108776775A (zh) 2018-11-09
CN108776775B true CN108776775B (zh) 2020-10-27

Family

ID=64027587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810504922.4A Active CN108776775B (zh) 2018-05-24 2018-05-24 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法

Country Status (1)

Country Link
CN (1) CN108776775B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492612B (zh) * 2018-11-28 2024-07-02 平安科技(深圳)有限公司 基于骨骼点的跌倒检测方法及其跌倒检测装置
CN111274854B (zh) * 2018-12-05 2023-11-03 北京悉见科技有限公司 一种人体动作识别方法和视觉增强处理系统
CN110197531A (zh) * 2019-05-14 2019-09-03 武汉奥贝赛维数码科技有限公司 基于深度学习的角色骨骼点映射技术
CN110287825B (zh) * 2019-06-11 2022-12-02 沈阳航空航天大学 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN110633736A (zh) * 2019-08-27 2019-12-31 电子科技大学 一种基于多源异构数据融合的人体跌倒检测方法
CN110750671B (zh) * 2019-09-05 2022-09-02 杭州未名信科科技有限公司 一种基于海量非结构化特征的行人检索方法及装置
CN113205060A (zh) * 2020-12-28 2021-08-03 武汉纺织大学 采用循环神经网络依据骨骼形态判断的人体动作检测方法
CN113362324B (zh) * 2021-07-21 2023-02-24 上海脊合医疗科技有限公司 一种基于视频图像的骨骼健康检测方法及系统
CN113689951A (zh) * 2021-08-04 2021-11-23 翼健(上海)信息科技有限公司 一种智能导诊方法、系统和计算机可读存储介质
CN114170685A (zh) * 2021-12-06 2022-03-11 南京美基森信息技术有限公司 一种基于rgbd图像行人搭乘自动扶梯摔倒行为的检测方法
CN117238026B (zh) * 2023-07-10 2024-03-08 中国矿业大学 一种基于骨骼和图像特征的姿态重建交互行为理解方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366505A (zh) * 2013-06-26 2013-10-23 安科智慧城市技术(中国)有限公司 一种睡姿识别方法及装置
CN105005769A (zh) * 2015-07-08 2015-10-28 山东大学 一种基于深度信息的手语识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8295546B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366505A (zh) * 2013-06-26 2013-10-23 安科智慧城市技术(中国)有限公司 一种睡姿识别方法及装置
CN105005769A (zh) * 2015-07-08 2015-10-28 山东大学 一种基于深度信息的手语识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Combining depth-skeleton feature with sparse coding for action recognition;Hanling Zhang等;《Neurocomputing 230(2017)》;20161216;第417-426页 *
Second-Order Optimization of Mutual Information for Real-Time Image Registration;Amaury Dame等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20120930;第21卷(第9期);第4190-4200页 *

Also Published As

Publication number Publication date
CN108776775A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
CN108776775B (zh) 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法
US11188783B2 (en) Reverse neural network for object re-identification
CN109196526B (zh) 用于生成多模态数字图像的方法和系统
Yang et al. Eigenjoints-based action recognition using naive-bayes-nearest-neighbor
Storey et al. 3DPalsyNet: A facial palsy grading and motion recognition framework using fully 3D convolutional neural networks
CN111259751A (zh) 基于视频的人体行为识别方法、装置、设备及存储介质
Xiong et al. S3D-CNN: skeleton-based 3D consecutive-low-pooling neural network for fall detection
CN106650619A (zh) 一种人体动作识别方法
Ding et al. STFC: Spatio-temporal feature chain for skeleton-based human action recognition
CN108875586B (zh) 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法
CN112906545A (zh) 一种针对多人场景的实时动作识别方法及系统
Demirdjian et al. Avoiding the" streetlight effect": tracking by exploring likelihood modes
Al-Naser et al. Hierarchical Model for Zero-shot Activity Recognition using Wearable Sensors.
AU2020300066B2 (en) Systems and methods for determining actions performed by objects within images
CN104794446A (zh) 基于合成描述子的人体动作识别方法及系统
CN111274854B (zh) 一种人体动作识别方法和视觉增强处理系统
Haggag et al. An adaptable system for rgb-d based human body detection and pose estimation: Incorporating attached props
Ling et al. 3D human activity recognition using skeletal data from RGBD sensors
Saif et al. Moment features based violence action detection using optical flow
CN113837130A (zh) 一种人体手部骨架检测方法及系统
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
US9501710B2 (en) Systems, methods, and media for identifying object characteristics based on fixation points
Mucha et al. Depth and thermal images in face detection-a detailed comparison between image modalities
Kishore et al. Spatial Joint features for 3D human skeletal action recognition system using spatial graph kernels
KR20130081126A (ko) 손 제스처 인식 방법 및 그 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant