CN112287758B - 基于关键点检测的攀爬识别方法 - Google Patents
基于关键点检测的攀爬识别方法 Download PDFInfo
- Publication number
- CN112287758B CN112287758B CN202011026072.5A CN202011026072A CN112287758B CN 112287758 B CN112287758 B CN 112287758B CN 202011026072 A CN202011026072 A CN 202011026072A CN 112287758 B CN112287758 B CN 112287758B
- Authority
- CN
- China
- Prior art keywords
- distance
- climbing
- climbing action
- human body
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了基于关键点检测的攀爬识别方法,S10,安装Detectron2开源框架;S20,配置文件参数;S30,定义人体攀爬动作类和构建主函数;S40,对采集到的图像数据进行处理;S50,判断攀爬动作。本发明对关键点之间的关系(如距离,三个点组成向量的夹角)进行计算,对视频的连续三帧图像进行判断,当每一帧图像的关键点关系都满足攀爬的条件时,系统才会做出判断,这可以有效增加识别系统的鲁棒性,可靠性更高,具有极大的实用价值。
Description
技术领域
本发明属于深度学习技术领域,涉及一种基于关键点检测的攀爬识别方法。
背景技术
人体关键点检测是识别和定位图像中所有人的关键点,这是许多视觉应用(如行人动作识别,人机交互)的基础研究课题。人体的姿态是身体不同结构部分组成的,比如分为头部、躯干部分,手肘和腿部等,它们的形变非常多样性导致人体关键点检测非常具有挑战性。近十年来,出现了很多不同方法来解决这个问题,从最开始的基于图形结构和图模型,到后面的基于深度图使用RGB-D相机来做,都取得了一些的成果,但是很难投入实用。直到2014年,卷积神经网络被引入人体关键点检测领域,关键点检测取得了一些重大进展。
从输入图像的性质分类,可以分为基于深度图像和基于普通RGB图像的关键点检测。最近几年的人体关键点检测研究都是基于普通RGB图像,基于RGB图像的人体关键点检测也可以分为两类,传统方法和深度学习方法
传统方法主要采用图形结构来解决人体关键点检测问题,例如,树模型(TreeModels)和随机森林模型(Random Forest Models)都被证明是非常有效的关键点检测算法。还有一些算法是基于图模型,比如随机场模型(Random Field Models)和依赖图模型(Dependency Graph Models)也被很多学者研究。图形结构是Fischler等[21]在1973年提出,最初这是一个经典的面部结构检测算法。后来Felzenszwalb等人对图形结构做了一些重大改进,使得图形结构方法的应用范围更广。
由于深度学习在计算机视觉领域的火热,目前很多人体关键点检测方法都是基于深度学习方法。根据处理情况不同可以分为单人关键点检测和多人关键点检测,单人关键点检测可以处理单个人的关键点检测问题,一般需要人在图片中心位置。Toshev等人提出DeepPose算法来解决关键点检测问题,这是卷积神经网络首次被引入到人体关键点检测问题上,DeepPose提出通过级联的卷积神经网络来处理关键点检测问题。DeepPose是直接对坐标点进行回归,由于人体姿态灵活,形态多样,直接坐标回归不是很容易,训练也不易收敛。Tompson等人使用卷积神经网络和图模型来预测关键点的热力图(Heatmaps),热力图中响应值最大的位置表示人体关键点位置,训练更容易收敛,其中卷积神经网络部分用于提取特征,图模型部分则用于构建人体关键点之间的位置关系。该方法奠定了热力图在关键点检测领域的重要位置,后来的方法几乎都是使用热力图的方式来预测关键点位置。2016年,一些学者通过构建很深的卷积神经网络来生成关键点的热力图,检测效果在各种数据集上达到领先水平。
近年来深度学习的兴起对于人体关键点检测问题的解决提供了新的思路,但是复杂的网络模型往往意味着需要较高硬件水平的支持与较长的计算时间,多数深度学习网络模型需要耗费大量的人力物力与计算成本。人体关键点的检测算法也从局限于单人关键点检测发展到多人情况下的人体关键点检测。而多人情况下的人体关键点检测往往伴随着更复杂的网络结构,意味着更高的计算成本与更长的训练时间。在这个移动终端普及化与倡导智能自动化的今天,一个良好的适用于人体关键点检测问题的网络模型应该具有较强鲁棒性、较低的计算成本、较好的识别精度、能容纳多名使用者等的特点,比如R-CNN。
区域卷积神经网络(Regions with convolution neural network,R-CNN)系列网络模型是近年目标检测算法中的一直在发展的较为成熟的网络结构,通过构建数个甚至数十上百个卷积层-激活层-池化层的卷积结构来对图像进行特征提取,把目标检测问题拆分为回归与分类两个问题的集合,并使用大样本下有监督的预训练与小样本微调的方式来解决具体模型难以训练甚至过拟合等问题。
发明内容
为解决上述问题,本发明使用深度学习的方法进行人体关键点识别,从而对人的动作做出判定,这对于提高生产施工现场的安全性具有重大意义。在建筑工地,检测到工人的攀爬动作,可以对攀爬的工人重点关注,以确保工人的安全;在高楼外部清洗过程中,同样可以使用基于关键点检测的攀爬识别技术,对正在进行清洗工作的工人做出标注,从而关注工人的作业安全。
为实现上述目的,本发明的技术方案为基于关键点检测的攀爬识别方法,包括以下步骤:
S10,安装Detectron2开源框架;
S20,配置文件参数;
S30,定义人体攀爬动作类和构建主函数;
S40,对采集到的图像数据进行处理;
S50,判断攀爬动作;
其中,S30定义人体攀爬动作类和构建主函数包括以下步骤:
S31,定义人体攀爬动作类,该类用于处理人的关键点以及攀爬动作的具体判定;
S32,定义人体攀爬动作类之后,定义类的方法和属性,建立计算向量角度和点距离的方法;
S33,定义写入图像的方法,该方法将计算的角度和距离实时显示在每一帧的图像中;
S34,定义处理图像的方法,将图像分为每一帧,独立进行处理;
S35,定义保存方法,该方法将计算的各个角度进行分类保存;
S36,定义角度和距离判断方法,对角度和距离的关系进行处理,分别进行上肢,下肢和距离比率的判断,并返回相应数值或数组,满足判断条件的角度或距离返回1,否则返回0;
S37,定义攀爬动作判断方法,对S36返回的数值进行加和,如果和满足条件,则返回1,表示是攀爬动作,否则返回0;
S38,定义处理视频的方法,对每一帧的图像画出关键点和人体框,运行攀爬动作判断方法,在主函数中不断返回每一帧的数值,以进行下一步判断;
主函数用于处理视频流,将每一帧的视频截屏成为图像,进行攀爬动作识别。
优选地,所述安装Detectron2开源框架,为配置detectron2的安装环境,通过GitHub安装detectron2开源框架。
优选地,所述配置文件参数包括以下步骤:
S21,在python主文件引入detectron2和opencv2模块;
S22,通过detectron2提供的yaml文件和default文件获取程序的配置参数,选择合适的RCNN模型,同时下载好需要的预训练模型;
S23,定义get_parser()函数用于接受函数的input参数。
优选地,所述对采集到的图像数据进行处理,为在应用场所布置15-20台高清摄像头,实时追踪并且持续采集图像数据,采集的图像数据即为python的输入,对输入的图像数据进行实时处理,以检测攀爬动作。
优选地,所述判断攀爬动作,为根据定义的人体攀爬动作类,在主函数运行该类并给予其特定参数,得到类的返回值,根据连续三帧图像的返回值做出判断,若返回值均为1,则确定该动作为攀爬动作,通过opencv2处理在视频页面输出警告标志或者报警。
优选地,所述判断攀爬动作,为对视频数据进行处理,得到每一帧图像的17个关键点,计算左手臂,右手臂,左腿,右腿的角度;计算肩距、臂距并得到肩臂距离比;计算胯距,腿距,得到胯腿距离比;得到角度和距离比值的数据之后,设定臂角度阈值为30°-150°,设定腿角度阈值为45°-160°;设定肩臂距离比阈值为0.5-1,胯腿距离比阈值为0.5-1;根据上述阈值对得到的每一帧数据进行判断,如连续三帧图像均超出阈值,则符合攀爬动作条件,判定此时人体动作为攀爬动作。
优选地,所述判定为攀爬动作后,在显示界面显示warning,提醒攀爬动作正在进行。
本发明至少有如下具体有益效果:
1、使用高度集成化的Facebook开源框架detectron2。简化前期关键点识别的工作,缩小项目的代码量,使检测系统稳定可靠;同时detectron2采用了目前先进的算法对人体关键点进行检测,使用这一集成框架可以有效提高检测的速度和准确率;另外使用集成框架,使系统代码简单直观,可读性高,可拓展性也比较大,可以将攀爬检测引用到其他的动作检测,比如跳跃等动作;
2、对关键点之间的关系(如距离,三个点组成向量的夹角)进行计算,对视频的连续三帧图像进行判断,当每一帧图像的关键点关系都满足攀爬的条件时,系统才会做出判断,这可以有效增加识别系统的鲁棒性,可靠性更高,具有极大的实用价值。
附图说明
图1为本发明方法实施例的基于关键点检测的攀爬识别方法的步骤流程图;
图2为本发明方法实施例的基于关键点检测的攀爬识别方法的判断攀爬动作步骤流程图;
图3为本发明方法实施例的基于关键点检测的攀爬识别方法的人体关键点检测示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
参见图1,为本发明实施例的本发明的技术方案为基于关键点检测的攀爬识别方法的步骤流程图,包括以下步骤:
S10,安装Detectron2开源框架;
S20,配置文件参数;
S30,定义人体攀爬动作类和构建主函数;
S40,对采集到的图像数据进行处理;
S50,判断攀爬动作;
其中,S30定义人体攀爬动作类和构建主函数包括以下步骤:
S31,定义人体攀爬动作类,该类用于处理人的关键点以及攀爬动作的具体判定;
S32,定义人体攀爬动作类之后,定义类的方法和属性,建立计算向量角度和点距离的方法;
S33,定义写入图像的方法,该方法将计算的角度和距离实时显示在每一帧的图像中;
S34,定义处理图像的方法,将图像分为每一帧,独立进行处理;
S35,定义保存方法,该方法将计算的各个角度进行分类保存;
S36,定义角度和距离判断方法,对角度和距离的关系进行处理,分别进行上肢,下肢和距离比率的判断,并返回相应数值或数组,满足判断条件的角度或距离返回1,否则返回0;
S37,定义攀爬动作判断方法,对S36返回的数值进行加和,如果和满足条件,则返回1,表示是攀爬动作,否则返回0;
S38,定义处理视频的方法,对每一帧的图像画出关键点和人体框,运行攀爬动作判断方法,在主函数中不断返回每一帧的数值,以进行下一步判断。
具体实施例中,安装Detectron2开源框架,为配置detectron2的安装环境,通过GitHub安装detectron2开源框架。
配置文件参数包括以下步骤:
S21,在python主文件引入detectron2和opencv2模块;
S22,通过detectron2提供的yaml文件和default文件获取程序的配置参数,选择合适的RCNN模型,同时下载好需要的预训练模型;
S23,定义get_parser()函数用于接受函数的input参数。
对采集到的图像数据进行处理,为在应用场所布置15-20台高清摄像头,实时追踪并且持续采集图像数据,采集的图像数据即为python的输入,对输入的图像数据进行实时处理,以检测攀爬动作。
判断攀爬动作,为根据定义的人体攀爬动作类,在主函数运行该类并给予其特定参数,得到类的返回值,根据连续三帧图像的返回值做出判断,若返回值均为1,则确定该动作为攀爬动作,通过opencv2处理在视频页面输出警告标志或者报警。判断攀爬动作,为对视频数据进行处理,得到每一帧图像的17个关键点,计算左手臂,右手臂,左腿,右腿的角度;计算肩距、臂距并得到肩臂距离比;计算胯距,腿距,得到胯腿距离比;得到角度和距离比值的数据之后,设定臂角度阈值为30°-150°,设定腿角度阈值为45°-160°;设定肩臂距离比阈值为0.5-1,胯腿距离比阈值为0.5-1;根据上述阈值对得到的每一帧数据进行判断,如连续三帧图像均超出阈值,则符合攀爬动作条件,判定此时人体动作为攀爬动作。判定为攀爬动作后,在显示界面显示warning,提醒攀爬动作正在进行。
结合图2,对判断攀爬动作具体说明,在工业生产或施工场地,布置15-20台高清摄像头,该摄像头可以实时追踪并且不断采集数据,将采集到的图像数据传入攀爬识别程序。
S51,通过攀爬识别方法中的人体攀爬动作类对视频数据进行处理,得到每一帧图像的17个关键点,计算左手臂,右手臂,左腿,右腿的角度;计算肩距、臂距并得到肩臂距离比;计算胯距,腿距,得到胯腿距离比;
得到角度和距离比值的数据之后,将会进行判断。设定臂角度阈值,b1为150°,b2为30°;设定腿角度阈值,b3为160°,b4为45°;设定肩臂距离比阈值d1为0.5,胯腿距离比阈值为0.5。
S52,左手臂和右手臂角度是否在(b1,b2)内;
S53,左腿和右腿角度是否在(b3,b4)内;
S54,肩臀距离比和跨腿距离比是否分别小于d1、d2;
S55,上述三项均为是,则S56判定为攀爬动作;
S52-55中有否,则S57判定为非攀爬动作。
通过设定的判断方法对得到的每一帧数据进行判断,如连续三帧图像均符合攀爬动作条件,则判定此时人体动作为攀爬动作。
图3为本发明实施例使用detectron2框架得到的人体关键点检测示意图,其位置表参见表1。
表1
0 | 嘴巴 |
1 | 左眼 |
2 | 右眼 |
3 | 左耳 |
4 | 右耳 |
5 | 左肩 |
6 | 右肩 |
7 | 左臂关节 |
8 | 右臂关节 |
9 | 左手腕 |
10 | 右手腕 |
11 | 左胯 |
12 | 右胯 |
13 | 左膝盖 |
14 | 右膝盖 |
15 | 左脚踝 |
16 | 右脚踝 |
在主函数中,θ(1-4):分别为左手臂,右手臂,左腿,右腿角度;
左手臂角度:5,7,9三点构成的角度,以7为中心点;
右手臂角度:6,8,10三点构成的角度,以8为中心点;
右腿角度:12,14,16三点构成的角度,以14为中心点;
左腿角度:11,13,15三点构成的角度,以13为中心点;
手臂角度上阈值:b1;
手臂角度下阈值:b2;
腿角度上阈值:b3;
腿角度下阈值:b4;
肩距:5,6两点的距离;
臂距:7,8两点的距离;
胯距:11,12两点的距离;
腿距:13,14两点的距离;
肩臂距离比:肩距/臂距;
胯腿距离比:胯距/臂距;
肩臂距离比阈值:d1;
胯腿距离比阈值:d2。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.基于关键点检测的攀爬识别方法,其特征在于,包括以下步骤:
S10,安装Detectron2开源框架;
S20,配置文件参数;
S30,定义人体攀爬动作类和构建主函数;
S40,对采集到的图像数据进行处理;
S50,判断攀爬动作;
其中,S30定义人体攀爬动作类和构建主函数包括以下步骤:
S31,定义人体攀爬动作类,该类用于处理人的关键点以及攀爬动作的具体判定;
S32,定义人体攀爬动作类之后,定义类的方法和属性,建立计算向量角度和点距离的方法;
S33,定义写入图像的方法,该方法将计算的角度和距离实时显示在每一帧的图像中;
S34,定义处理图像的方法,将图像分为每一帧,独立进行处理;
S35,定义保存方法,该方法将计算的各个角度进行分类保存;
S36,定义角度和距离判断方法,对角度和距离的关系进行处理,分别进行上肢,下肢和距离比率的判断,并返回相应数值或数组,满足判断条件的角度或距离返回1,否则返回0;
S37,定义攀爬动作判断方法,对S36返回的数值进行加和,如果和满足条件,则返回1,表示是攀爬动作,否则返回0;
S38,定义处理视频的方法,对每一帧的图像画出关键点和人体框,运行攀爬动作判断方法,在主函数中不断返回每一帧的数值,以进行下一步判断;
主函数用于处理视频流,将每一帧的视频截屏成为图像,进行攀爬动作识别;
所述判断攀爬动作,为对视频数据进行处理,得到每一帧图像的17个关键点,计算左手臂,右手臂,左腿,右腿的角度;计算肩距、臂距并得到肩臂距离比;计算胯距,腿距,得到胯腿距离比;得到角度和距离比值的数据之后,设定臂角度阈值为30°-150°,设定腿角度阈值为45°-160°;设定肩臂距离比阈值为0.5-1,胯腿距离比阈值为0.5-1;根据上述阈值对得到的每一帧数据进行判断,如连续三帧图像均超出阈值,则符合攀爬动作条件,判定此时人体动作为攀爬动作。
2.根据权利要求1所述的方法,其特征在于,所述安装Detectron2开源框架,为配置detectron2的安装环境,通过GitHub安装detectron2开源框架。
3.根据权利要求1所述的方法,其特征在于,所述配置文件参数包括以下步骤:
S21,在python主文件引入detectron2和opencv2模块;
S22,通过detectron2提供的yaml文件和default文件获取程序的配置参数,选择合适的RCNN模型,同时下载好需要的预训练模型;
S23,定义get_parser()函数用于接受函数的input参数。
4.根据权利要求1所述的方法,其特征在于,所述对采集到的图像数据进行处理,为在应用场所布置15-20台高清摄像头,实时追踪并且持续采集图像数据,采集的图像数据即为python的输入,对输入的图像数据进行实时处理,以检测攀爬动作。
5.根据权利要求1所述的方法,其特征在于,所述判断攀爬动作,为根据定义的人体攀爬动作类,在主函数运行该类并给予其特定参数,得到类的返回值,根据连续三帧图像的返回值做出判断,若返回值均为1,则确定该动作为攀爬动作,通过opencv2处理在视频页面输出警告标志或者报警。
6.根据权利要求1所述的方法,其特征在于,所述判定为攀爬动作后,在显示界面显示warning,提醒攀爬动作正在进行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026072.5A CN112287758B (zh) | 2020-09-26 | 2020-09-26 | 基于关键点检测的攀爬识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026072.5A CN112287758B (zh) | 2020-09-26 | 2020-09-26 | 基于关键点检测的攀爬识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112287758A CN112287758A (zh) | 2021-01-29 |
CN112287758B true CN112287758B (zh) | 2022-08-26 |
Family
ID=74421370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011026072.5A Active CN112287758B (zh) | 2020-09-26 | 2020-09-26 | 基于关键点检测的攀爬识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112287758B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113627369A (zh) * | 2021-08-16 | 2021-11-09 | 南通大学 | 一种竞拍场景下的动作识别与跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109919132A (zh) * | 2019-03-22 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架检测的行人跌倒识别方法 |
CN110619285A (zh) * | 2019-08-29 | 2019-12-27 | 福建天晴数码有限公司 | 人体骨骼关键点提取方法及计算机可读存储介质 |
CN110969078A (zh) * | 2019-09-17 | 2020-04-07 | 博康智能信息技术有限公司 | 基于人体关键点的异常行为识别方法 |
CN111507283A (zh) * | 2020-04-21 | 2020-08-07 | 浙江蓝鸽科技有限公司 | 基于课堂场景的学生行为识别方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3909504A3 (en) * | 2018-05-28 | 2022-03-09 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
US10902638B2 (en) * | 2018-09-28 | 2021-01-26 | Wipro Limited | Method and system for detecting pose of a subject in real-time |
-
2020
- 2020-09-26 CN CN202011026072.5A patent/CN112287758B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109919132A (zh) * | 2019-03-22 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架检测的行人跌倒识别方法 |
CN110619285A (zh) * | 2019-08-29 | 2019-12-27 | 福建天晴数码有限公司 | 人体骨骼关键点提取方法及计算机可读存储介质 |
CN110969078A (zh) * | 2019-09-17 | 2020-04-07 | 博康智能信息技术有限公司 | 基于人体关键点的异常行为识别方法 |
CN111507283A (zh) * | 2020-04-21 | 2020-08-07 | 浙江蓝鸽科技有限公司 | 基于课堂场景的学生行为识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
Gilbert Tanner.Detectron2 - Object Detection with PyTorch.《https://gilberttanner.com/blog/detectron-2-object-detection-with-pytorch》.2019,1-21. * |
Han S U 等.Vision-based detection of unsafe actions of a construction worker: Case study of ladder climbing.《Journal of Computing in Civil Engineering》.2013,第27卷(第6期),635-644. * |
Also Published As
Publication number | Publication date |
---|---|
CN112287758A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222665B (zh) | 一种基于深度学习和姿态估计的监控中人体动作识别方法 | |
Wang et al. | Fall detection based on dual-channel feature integration | |
CN104715493B (zh) | 一种运动人体姿态估计的方法 | |
CN107423730A (zh) | 一种基于语义折叠的人体步态行为主动检测识别系统和方法 | |
CN109298785A (zh) | 一种监测设备的人机联控系统及方法 | |
CN112287759A (zh) | 基于关键点的跌倒检测方法 | |
US20220383653A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program | |
CN111753747B (zh) | 基于单目摄像头和三维姿态估计的剧烈运动检测方法 | |
CN111553229B (zh) | 基于三维骨骼与lstm的工人动作识别方法及装置 | |
CN113920326A (zh) | 基于人体骨骼关键点检测的摔倒行为识别方法 | |
CN109711267A (zh) | 一种行人重识别、行人运动轨迹生成方法及装置 | |
CN112287758B (zh) | 基于关键点检测的攀爬识别方法 | |
CN104077591A (zh) | 电脑智能自动监控系统 | |
CN115346272A (zh) | 基于深度图像序列的实时摔倒检测方法 | |
Tang et al. | Intelligent video surveillance system for elderly people living alone based on ODVS | |
CN113384267A (zh) | 一种跌倒实时检测方法、系统、终端设备及存储介质 | |
CN115731563A (zh) | 一种远距离监控人员倒地识别方法 | |
Sugimoto et al. | Robust rule-based method for human activity recognition | |
CN116311497A (zh) | 一种基于机器视觉的隧道工人异常行为检测方法及系统 | |
CN113408435A (zh) | 一种安全监控方法、装置、设备和存储介质 | |
CN207529395U (zh) | 一种基于语义折叠的人体步态行为主动检测识别系统 | |
Xu et al. | Intelligent warning system for the elderly living alone based on OpenPose | |
Feng et al. | An Analysis System of Students' Attendence State in Classroom Based on Human Posture Recognition | |
CN111191511A (zh) | 一种监狱动态实时行为识别方法及系统 | |
Hu et al. | MAM-YOLOv5 Based Method to Detect Underground Staff Falling Down Accidents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |