CN110321780A - 基于时空运动特性的异常摔倒行为检测方法 - Google Patents

基于时空运动特性的异常摔倒行为检测方法 Download PDF

Info

Publication number
CN110321780A
CN110321780A CN201910364298.7A CN201910364298A CN110321780A CN 110321780 A CN110321780 A CN 110321780A CN 201910364298 A CN201910364298 A CN 201910364298A CN 110321780 A CN110321780 A CN 110321780A
Authority
CN
China
Prior art keywords
frame
time
space
point
hip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910364298.7A
Other languages
English (en)
Other versions
CN110321780B (zh
Inventor
张瑾
汪一鸣
吴澄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN201910364298.7A priority Critical patent/CN110321780B/zh
Publication of CN110321780A publication Critical patent/CN110321780A/zh
Application granted granted Critical
Publication of CN110321780B publication Critical patent/CN110321780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于时空运动特性的异常摔倒行为检测方法。在基于图像信息的条件下,提炼体现人体姿态的五点倒立摆模型,进而构建体现时间、空间双特性的运动标准时空模型;再以标准时空图为基础,应用动力学原理研究运动本质特征,构建定轴运动模型,以旋转能量实现特征量化,构建摔倒行为、正常行走或站立态的特征编码数据集并进行训练,形成二类分类器,用于对处理后的实时采集的视频数据进行识别,判断是否为异常摔倒行为。本发明采用单视角场景,算法实时性更强,避免了多视角在场景融合方面的同步性等难题;以旋转能量为特征,避免了形态类特征对于顺向摔倒姿态的局限性,提升了检测有效性,对典型摔倒姿态具有较好的普适性。

Description

基于时空运动特性的异常摔倒行为检测方法
技术领域
本发明涉及一种基于视频的异常行为识别技术,特别涉及一种公共场所内异常摔倒事件的自动检测方法。
背景技术
视频监控系统(CCTV)是多媒体技术、计算机网络、工业控制和人工智能等技术的综合运用,正向着数字化、系统的网络化和管理的智能化方向不断发展。目前,视频监控广泛用于信息获取、指挥调度、安全防范等方面,可以提供生产流程控制、医疗监护、远程教育、大型公共设施的安防等多种服务。但是,目前对闭路电视监视系统的应用存在明显不足。首先,由于监控室或监控中心空间有限,因而只能通过轮换画面来监视所有的场景或选择敏感区域进行重点监视,导致在时间和空间上都难以将监控画面完全实时呈现,留下监测盲区。其次,监控系统主要依靠工作人员值守监视,依据人对视频信息的内容进行判断,鉴于人员成本,只能有重点的监视关键区域。同时人的视觉疲劳也会导致判断能力的下降,面对多点多站海量监控画面,难免出现漏查,这导致视频监控系统只能起到利用录像存储进行事后取证的作用,而难以形成主动预警和及时报警的良性机制,失去实时监控的意义。
为解决这一问题,引进机器视觉的智能检测技术,通过视频数据分析处理对指定的异常事件自动检测并实时报警,以提醒工作人员确认事件并采取相应措施。针对可疑物品遗留、穿越禁区报警、视频移动侦测、可疑人员长期滞留、客流量突变告警等异常事件已经有较多研究。
对于异常摔倒行为的检测,根据已有的研究成果, 较多的研究集中于老人摔倒检测算法[参见文献:Ezatzadeh S , Keyvanpour M R . Fall detection for elderly inassisted environments: Video surveillance systems and challenges[C]//International Conference on Information & Knowledge Technology. IEEE, 2018.],场景多选择室内(病房,居所等)。 主要包括基于传感器和基于视觉两大研究理论。 基于传感器的检测方法主要依靠穿戴式传感设备, 采用典型设备如3轴加速传感器(3-axisacceleration sensor)和陀螺仪,近年来随着电子产品的发展和普及,智能手机也成为了新型的传感设备 。
基于传感器的检测方法优势在于能够比较准确、直接的采集身体运动姿态的物理性信号,可以提高摔倒异常行为的检测正确率。但是存在必须指定检测对象的局限性,对于公共场所随机出现的人(检测对象)来说,具有明显的不适性,而更主流的方法还是基于机器视觉技术——即借助CCTV监控系统,利用图像处理相关技术实时进行分析和检测。
基于机器视觉的检测算法不断挑战实际场景中如阴影、光线,运动角度、穿着等复杂问题。检测算法的流程一般以图像预处理、特征分析和提取、分类及检测三个阶段组成。
从特征分析和提取的角度分析,现有的研究成果中划分为空间性、时间性以及时空性三类。
基于摔倒行为形态特征建模是以空间性分析的主要思路,而基于摔倒运动轨迹分析是以时间分析为主要依据。将空间和时间特性相结合,能够更加全面描述异常事件的连续性形态变化,能够丰富判断依据提高检测效果。 由于绝大多数的异常行为均具有时间过程,基于空间特性特征提取后再进行时间序列的分析[15,24], 体现了一种时空结合的分析方法。而更加合理的方式是在构造特征描述时就兼具时空特性将,有文献 [如Jiang M ,Chen Y , Zhao Y , et al. A real-time fall detection system based on HMM andRVM[C]// Visual Communica-tions & Image Processing. IEEE, 2014.]报道了一种基于运动历史图像的运动强度系数新特征——运动强度系数,反映异常运动的时空特性。也有文献 [如Yan S , Xiong Y , Lin D . Spatial Temporal Graph Convolu-tionalNetworks for Skeleton-Based Action Recognition[J]. Computer Vision andPattern Recognition , 2018.]提出了时空图卷积网络(ST-GCN)进行动作识别。
在已有单目摄像机采集视频进行摔倒行为检测方法中,最基础、最常用的技术之一是分析图像中运动目标边框或轮廓。然而,这种方法只有对某些摔倒姿态识别有效(拍摄角度与摔倒方向平行或相近则难以检测),并且可能因为人或物的遮挡而失败。在复杂的实际场景条件下,现有的利用图像数据分析运动目标时空特性的异常行为检测方法,对与拍摄角度顺向的异常摔倒姿态(与正常行走具有较大混淆性)的识别检测效果具有局限性。
发明内容
本发明针现有技术对公共场所异常摔倒突发事件识别检测效果存在一定局限性的不足,通过对连续的视频数据进行有效分析、识别和判断,提供一种基于时空运动特性的异常摔倒行为检测方法,显著提升对异常行为自动检测的有效性。
实现本发明目的的技术方案是提供一种基于时空运动特性的异常摔倒行为检测方法,包括如下步骤:
(1)实时输入视频序列中的原始图像T帧,T为连续视频帧数值,设定间隔,选取采样帧,T被整除;
(2)采用深度学习的方法,将人体的主要器官及有效肢体连接,形成具有运动目标整体空间特性的骨骼模型;
(3)获取采样帧图像中各运动个体的头部(1)、颈部(2)、臀部(3)、左膝(4)和右膝(5)为人体部位的5个关键点,按部位依次连接头部-颈部、(1-2)、颈部-臀部(2-3)、臀部-左膝(3-4)、臀部-右膝(3-5)和左膝-右膝(4-5),得到每帧图像中表达各运动个体运动目标姿态的“五点倒立摆”模型;
(4)分别连接相邻两帧“五点倒立摆”模型中所对应的头部(1)、颈部(2)和臀部(3)关键点,构成具有时间连续性的矢量边;
(5)将输入帧中的各关键点构成节点集,各矢量边构成边集,由节点集和边集得到时空模型;
(6)将时空模型中的每一个运动目标的臀部(3)关键点聚集于基准帧的臀部关键点位置,得到标准时空模型;
(7)以标准时空模型中头部(1)和颈部(2)两个关键点为质点,臀部(3)为轴心,对标准时空模型中的每一个“五点倒立摆”模型进行旋转能量计算:
其中,t为视频序列中的某一采样帧,i 为质点,t采样帧中质点i的转动惯量,t帧中质点i的质量, t帧中质点i和转轴的垂直距离, t帧中质点i的角速度;
(8)将计算得到的旋转能量按时序形成特征编码,分别形成摔倒行为、正常行走或站立态的特征编码数据集;
(9)采用支持向量机的分类方法,对特征编码数据集进行学习训练,形成识别摔倒行为、正常行走或站立态的二类分类器;
(10)将实时采集的视频序列生成的特征编码输入分类器,用于判断是否为异常摔倒行为。
本发明技术方案的步骤(1)中, T=30~50,=5;步骤(6)中,所述的基准帧为视频帧序列的第一帧。
与现有技术相比,本发明的有益效果在于:
1.采用单视角场景的研究,算法实时性更强,并且避免多视角在场景融合方面同步性等难题。
2.在基于图像信息的条件下,提炼体现人体姿态的五点倒立摆模型,并构建了能够体现时间、空间双特性的运动标准时空图。
3.以标准时空图为基础,应用动力学原理研究运动本质特征,构建定轴运动模型提出旋转能量实现特征量化,避免了形态类特征对于顺向摔倒姿态的局限性,提升了对顺向摔倒姿态的检测有效性,验证算法对典型摔倒姿态具有较好的普适性。
4.在公共场景中,降低对运动目标完整性的提取要求,对遮挡、杂物的干扰具有良好的鲁棒性。
附图说明
图1是本发明实施例提供的一种基于时空运动特性的异常摔倒行为检测的流程示意图;
图2是本发明实施例提供的一种基于时空运动特性的异常摔倒行为检测方法构建的“五点倒立摆模型”示意图;
图3是本发明实施例提供的一种基于时空运动特性的异常摔倒行为检测方法构建的示意“时空图”;
图4是本发明实施例提供的一种基于时空运动特性的异常摔倒行为检测方法构建的示意“人体运动的标准时空图”;
图5是本发明实施例提供的一种基于时空运动特性的异常摔倒行为检测方法构建的两质点简化运动体系结构示意图。
其中,1.头部;2.颈部;3.臀部;4.左膝;5.右膝。
具体实施方式
下面结合附图和实施例对本发明技术方案作进一步的阐述。
实施例1
本实施例提供的检测方法包括两部分内容组成,一是采用在单人场景下以八个方向创建异常摔倒和正常行走的特征编码集作为训练样本,建立分类模型(分类器);二是构建不同场景、不同人员、不同姿态等条件的测试样本,进行分类识别验证。
第一部分:
参见附图1,它是本实施例提供的检测方法流程示意图;基于时空运动特性的异常摔倒行为检测方法,包括如下步骤:
第一步:输入视频序列中的原始图像,设置连续帧T值(令T=30),将T帧连续的视频帧序列成组;
第二步:提炼能够体现人体运动姿态的模型——“五点倒立摆”模型,具体方法:
采用深度学习方法,将人体的主要器官及其有效肢体连接进行标记,形成具有运动目标整体空间特性的骨骼模型;
建立基于机器视觉分析的“五点倒立摆”模型,新的化简模型结构:包含人体部位:头部1;颈部2;臀部3;左膝4和右膝5。按照部位序号进行连接,头部-颈部(1-2), 颈部-臀部(2-3),臀部-左膝(3-4),臀部-右膝(3-5)以及左膝-右膝(4-5),形成表达运动目标姿态的“五点倒立摆模型”,参见附图2。
第三步:构建人体运动的标准时空图
人体摔倒行为的一般过程:由站立或行走→姿态的不平衡→人体失稳无法调整→摔倒于地面。故从站立至摔倒行为的完成,姿态具有时变性(空间)和连续性(时间)。依次可构建时空双特性的描述模型, 在已提出的五点倒立摆模型的基础上,按如下方法构建:
按“五点倒立摆”模型构造帧内运动个体的人体姿态空间表示模型;
②将相邻(等间隔,如隔5帧采样一帧)两帧中相同的头部1、颈部2和臀部3三个关键点连接起来,构成体现时间连续性的矢量边,参见附图3,它是本实施例构建的示意“时空图”,图中示意的是由采样第N帧和采样第N+1帧中,对应的头部1、颈部2和臀部3三个关键点分别连接构成构成体现时间连续性的矢量边,得到“时空图”。
③ 在规定帧数或时长中,所有输入帧中关键点构成节点集,步骤①、② 中的所有边构成边集,构成所需的时空图。
④ 将时空图中,每一个运动目标各采样帧其臀部关键点3聚集于本组视频帧序列的第一帧(基准帧)的臀部关键点位置,所构建的标准运动时空图如图4所示,图中示意的是由采样第N帧、采样第N+1帧至采样第N+T帧所形成的标准运动时空图。
第四步:计算基于运动时空图分析摔倒异常运动量化指标——旋转能量
基于五点倒立摆模型的运动时空图,分析人体在三维空间中的运动转向过程,为了减轻人体身高差异造成的影响, 将臀部关键点进行标准化处理后近似为质心,将摔倒的失稳行为描述为头部和颈部两个关键点以质心为轴心的旋转运动,而站立或正常行走行为则不具备此类旋转运动特点,因此,引入定轴旋转能量指标进行量化。
参见附图5,为两质点简化运动体系结构示意图。
转动惯量I 是刚体绕轴转动时惯性的量度, 对于任意帧中关键点1、关键点2构成两质点的简化运动体系,五点倒立摆模型绕定轴oz的转动能量按公式(1)和(2)进行计算。
(1)
(2);
其中,t为视频序列中的某一采样帧,i 为质点,t采样帧中质点i的转动惯量,t帧中质点i的质量, t帧中质点i和转轴的垂直距离, t帧中质点i的角速度;
第五步:对标准时空图中的每一个“五点倒立摆”模型计算,按照时序顺序形成特征编码序列,形成分别反映摔倒行为、正常行走(站立态)的特征编码训练数据集。
第六步:采用支持向量机(SVM)的分类,对特征编码数据集进行有监督训练,形成判断异常摔倒与否的二类分类器。
第二部分:
第一步:建立以不同场景,不同测试人员,不同姿态并考虑局部遮挡等条件构建测试数据样本,测试实验摔倒与正常数据样本如表1所示。
表1
其中,场景A:光照条件复杂场景下的单人多姿态摔倒视频数据;场景B:正常场景单人多姿态摔倒视频数据;场景C:有遮挡场景单人摔倒视频数据;场景D:光照条件复杂场景下的多人多姿态摔倒视频数据。
第二步:操作第一部分前四个步骤,形成测试数据集的特征编码序列。
第三步:利用SVM方法得到的二类分类模型(分类器)进行摔倒行为的识别验证。在实际场景的实时分析中,以场景事件为单位,当分类模型(分类器)对运动目标特征编码判断为疑似异常摔倒,则进行持续报警,该运动目标的后续状态将持续表示为异常状态,直到工作人员进行确认解除报警,则重新开始识别判断。
采用相同的训练视频数据,根据本发明和现有技术以形态学为基础的示例算法分析摔倒行为的特征表示,用本发明实施例验证中所构建的测试数据集进行SVM的分类验证,采用本发明技术方案特征描述方法分类器对测试集数据正确率达到99.29%,采用典型形态类特征算法对测试集数据正确率达到63.97%,;SVM分类器参数报告参见表2,进一步分析分类器的参数指标;表中,A、B栏分别为:A为本发明提供的检测方法;B为文献提供的典型形态类特征算法[Zerrouki N , Harrou F , Houacine A , et al. Fall detection usingsupervised machine learning algorithms: A comparative study[C]//International Conference on Modelling. IEEE, 2017.;Harrou F , Zerrouki N ,Sun Y , et al. A simple strategy for fall events detection[C]// IEEEInternational Conference on In-dustrial Informatics. IEEE, 2017.]为代表。
表2
从分类器参数结果来看,性能指标存在明显差距。主要原因在于,本发明所构建的测试数据集具有较强复杂性,包括不同姿态(大类分为侧向摔倒、顺向摔倒),多人场景(相互独立,重叠遮挡),光线、障碍物等干扰因素,更贴近真实的公共场所的环境。
由于形态学算法性能往往依赖于提取运动对象前景的正确性和完整性,但测试场景中如表1所示,存在遮挡物(场景C、D)、光线(场景A,D)、运动者衣着场景(B)等因素影响,将大大影响检测识别效果。同时顺向摔倒(场景A,B,D)姿态提取的前景与站立行走具有较强的相似性,使检测往往偏向失效。
对比形态学为代表的示例方法,本方法对验证实例的摔倒正样本具有良好的识别能力,由于测试数据的设计中包含60%以上比例的顺向摔倒事件也体现出良好的检测效果,证明本发明提出的基于时序图的运动旋转能量描述摔倒异常行为特征具有合理性,并且不仅对于侧向摔倒,对于检测难度较大的顺向摔倒姿态也具有良好的适应性。
除此之外,针对测试数据中有意添加的常见干扰因素,如固定设施(垃圾桶),多人重叠或遮挡,从表2结果可以看出,已对形态类特征检测方法造成显著影响和困难,而采用本发明方法仍然能够具有较高的检测有效性,体现出优秀的鲁棒性能。

Claims (3)

1.一种基于时空运动特性的异常摔倒行为检测方法,其特征在于包括如下步骤:
(1)实时输入视频序列中的原始图像T帧,T为连续视频帧数值,设定间隔,选取采样帧,T被整除;
(2)采用深度学习的方法,将人体的主要器官及有效肢体连接,形成具有运动目标整体空间特性的骨骼模型;
(3)获取采样帧图像中各运动个体的头部(1)、颈部(2)、臀部(3)、左膝(4)和右膝(5)为人体部位的5个关键点,按部位依次连接头部-颈部、(1-2)、颈部-臀部(2-3)、臀部-左膝(3-4)、臀部-右膝(3-5)和左膝-右膝(4-5),得到每帧图像中表达各运动个体运动目标姿态的“五点倒立摆”模型;
(4)分别连接相邻两帧“五点倒立摆”模型中所对应的头部(1)、颈部(2)和臀部(3)关键点,构成具有时间连续性的矢量边;
(5)将输入帧中的各关键点构成节点集,各矢量边构成边集,由节点集和边集得到时空模型;
(6)将时空模型中的每一个运动目标的臀部(3)关键点聚集于基准帧的臀部关键点位置,得到标准时空模型;
(7)以标准时空模型中头部(1)和颈部(2)两个关键点为质点,臀部(3)为轴心,对标准时空模型中的每一个“五点倒立摆”模型进行旋转能量计算:
其中,t为视频序列中的某一采样帧,i 为质点,t采样帧中质点i的转动惯量, t帧中质点i的质量, t帧中质点i和转轴的垂直距离, t帧中质点i的角速度;
(8)将计算得到的旋转能量按时序形成特征编码,分别形成摔倒行为、正常行走或站立态的特征编码数据集;
(9)采用支持向量机对特征编码数据集进行学习训练,形成识别摔倒行为、正常行走或站立态的二类分类器;
(10)将实时采集的视频序列生成的特征编码输入分类器,用于判断是否为异常摔倒行为。
2.根据权利要求1所述的一种基于时空运动特性的异常摔倒行为检测方法,其特征在于:步骤(1)中, T=30~50,=5。
3.根据权利要求1所述的一种基于时空运动特性的异常摔倒行为检测方法,其特征在于:步骤(6)中,所述的基准帧为视频帧序列的第一帧。
CN201910364298.7A 2019-04-30 2019-04-30 基于时空运动特性的异常摔倒行为检测方法 Active CN110321780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910364298.7A CN110321780B (zh) 2019-04-30 2019-04-30 基于时空运动特性的异常摔倒行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910364298.7A CN110321780B (zh) 2019-04-30 2019-04-30 基于时空运动特性的异常摔倒行为检测方法

Publications (2)

Publication Number Publication Date
CN110321780A true CN110321780A (zh) 2019-10-11
CN110321780B CN110321780B (zh) 2022-05-17

Family

ID=68113364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910364298.7A Active CN110321780B (zh) 2019-04-30 2019-04-30 基于时空运动特性的异常摔倒行为检测方法

Country Status (1)

Country Link
CN (1) CN110321780B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991274A (zh) * 2019-11-18 2020-04-10 杭州电子科技大学 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN111079536A (zh) * 2019-11-18 2020-04-28 高新兴科技集团股份有限公司 基于人体关键点时序的行为分析方法、存储介质及设备
CN111178216A (zh) * 2019-12-23 2020-05-19 东北大学 一种基于姿态时空特征的考场异常行为识别方法
CN112381072A (zh) * 2021-01-11 2021-02-19 西南交通大学 一种基于时空信息及人、物交互的人体异常行为检测方法
CN112699706A (zh) * 2019-10-22 2021-04-23 广州弘度信息科技有限公司 跌倒检测方法、系统和存储介质
CN113096338A (zh) * 2021-04-09 2021-07-09 南京邮电大学 一种基于智慧灯杆的社区安全预警方法
CN113468913A (zh) * 2020-03-30 2021-10-01 阿里巴巴集团控股有限公司 数据处理、动作识别、模型训练方法、设备及存储介质
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN113673494A (zh) * 2021-10-25 2021-11-19 青岛根尖智能科技有限公司 人体姿态标准运动行为匹配方法及系统
CN114241375A (zh) * 2021-12-15 2022-03-25 首都体育学院 一种用于运动过程中的监测方法
CN115881286A (zh) * 2023-02-21 2023-03-31 创意信息技术股份有限公司 一种防疫管理调度系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110218460A1 (en) * 2010-03-08 2011-09-08 Seiko Epson Corporation Fall detecting device and fall detecting method
US20110245629A1 (en) * 2010-03-31 2011-10-06 Medtronic, Inc. Patient data display
CN105046281A (zh) * 2015-08-14 2015-11-11 安徽创世科技有限公司 一种基于Kinect的人体行为检测方法
CN105929940A (zh) * 2016-04-13 2016-09-07 哈尔滨工业大学深圳研究生院 基于细分特征值法的快速三维动态手势识别方法及系统
CN107103733A (zh) * 2017-07-06 2017-08-29 司马大大(北京)智能系统有限公司 一种摔倒报警方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110218460A1 (en) * 2010-03-08 2011-09-08 Seiko Epson Corporation Fall detecting device and fall detecting method
US20110245629A1 (en) * 2010-03-31 2011-10-06 Medtronic, Inc. Patient data display
CN105046281A (zh) * 2015-08-14 2015-11-11 安徽创世科技有限公司 一种基于Kinect的人体行为检测方法
CN105929940A (zh) * 2016-04-13 2016-09-07 哈尔滨工业大学深圳研究生院 基于细分特征值法的快速三维动态手势识别方法及系统
CN107103733A (zh) * 2017-07-06 2017-08-29 司马大大(北京)智能系统有限公司 一种摔倒报警方法、装置及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HOSSEIN RAHMANI ETAL.: "Learning a Deep Model for Human Action Recognition from Novel Viewpoints", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
李文阳等: "基于Kinect V2的跌倒行为检测与分析", 《现代电子技术》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699706A (zh) * 2019-10-22 2021-04-23 广州弘度信息科技有限公司 跌倒检测方法、系统和存储介质
CN111079536A (zh) * 2019-11-18 2020-04-28 高新兴科技集团股份有限公司 基于人体关键点时序的行为分析方法、存储介质及设备
CN110991274A (zh) * 2019-11-18 2020-04-10 杭州电子科技大学 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN111079536B (zh) * 2019-11-18 2023-08-29 高新兴科技集团股份有限公司 基于人体关键点时序的行为分析方法、存储介质及设备
CN110991274B (zh) * 2019-11-18 2022-03-18 杭州电子科技大学 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN111178216B (zh) * 2019-12-23 2023-06-09 东北大学 一种基于姿态时空特征的考场异常行为识别方法
CN111178216A (zh) * 2019-12-23 2020-05-19 东北大学 一种基于姿态时空特征的考场异常行为识别方法
CN113468913A (zh) * 2020-03-30 2021-10-01 阿里巴巴集团控股有限公司 数据处理、动作识别、模型训练方法、设备及存储介质
CN112381072A (zh) * 2021-01-11 2021-02-19 西南交通大学 一种基于时空信息及人、物交互的人体异常行为检测方法
CN112381072B (zh) * 2021-01-11 2021-05-25 西南交通大学 一种基于时空信息及人、物交互的人体异常行为检测方法
CN113096338A (zh) * 2021-04-09 2021-07-09 南京邮电大学 一种基于智慧灯杆的社区安全预警方法
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN113496216B (zh) * 2021-08-31 2023-05-05 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN113673494A (zh) * 2021-10-25 2021-11-19 青岛根尖智能科技有限公司 人体姿态标准运动行为匹配方法及系统
CN114241375A (zh) * 2021-12-15 2022-03-25 首都体育学院 一种用于运动过程中的监测方法
CN114241375B (zh) * 2021-12-15 2024-08-20 首都体育学院 一种用于运动过程中的监测方法
CN115881286A (zh) * 2023-02-21 2023-03-31 创意信息技术股份有限公司 一种防疫管理调度系统
CN115881286B (zh) * 2023-02-21 2023-06-16 创意信息技术股份有限公司 一种防疫管理调度系统

Also Published As

Publication number Publication date
CN110321780B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN110321780B (zh) 基于时空运动特性的异常摔倒行为检测方法
Auvinet et al. Multiple cameras fall dataset
Lim et al. iSurveillance: Intelligent framework for multiple events detection in surveillance videos
Gowsikhaa et al. Suspicious Human Activity Detection from Surveillance Videos.
Liao et al. Slip and fall event detection using Bayesian Belief Network
CN108447078A (zh) 基于视觉显著性的干扰感知跟踪算法
Shoaib et al. View-invariant fall detection for elderly in real home environment
CN113963315A (zh) 一种复杂场景下实时视频多人行为识别方法及系统
CN114469076B (zh) 一种融合身份特征的独居老人跌倒识别方法及系统
Ezzahout et al. Conception and development of a video surveillance system for detecting, tracking and profile analysis of a person
Rougier et al. Video surveillance for fall detection
Stone et al. Silhouette classification using pixel and voxel features for improved elder monitoring in dynamic environments
Dileep et al. Suspicious human activity recognition using 2D pose estimation and convolutional neural network
Khan et al. Video analytic for fall detection from shape features and motion gradients
Kasturi et al. Classification of human fall in top Viewed kinect depth images using binary support vector machine
CN116052035A (zh) 一种基于卷积神经网络的电厂人员周界入侵检测方法
Hao et al. A detection method of abnormal event in crowds based on image entropy
Naeem et al. Vision-based real-time human malicious behavior detection
Rothmeier et al. Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System
Routray et al. An IoT Application Framework Using Deep Learning for Face Mask Detection
CN116863638B (zh) 一种基于主动预警的人员异常行为检测方法及安防系统
Hsu et al. Falling and slipping detection for pedestrians using a manifold learning approach
Shinde et al. Deep learning based face-mask and shield detection
Chiranjeevi et al. Surveillance Based Suicide Detection System Using Deep Learning
TWI820784B (zh) 一種具安全照護及高隱私處理的跌倒及姿態辨識方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant