CN112699771A - 基于人体姿态预测的异常行为检测算法 - Google Patents
基于人体姿态预测的异常行为检测算法 Download PDFInfo
- Publication number
- CN112699771A CN112699771A CN202011570931.7A CN202011570931A CN112699771A CN 112699771 A CN112699771 A CN 112699771A CN 202011570931 A CN202011570931 A CN 202011570931A CN 112699771 A CN112699771 A CN 112699771A
- Authority
- CN
- China
- Prior art keywords
- human body
- detection
- abnormal behavior
- body posture
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人体姿态预测的异常行为检测算法,包括:获取连续四帧视频图像中的人体关键点坐标序列;利用坐标运动分解方法,提取人体关键点坐标中的全局运动与局部运动分量;根据人体关键点之间的内部物理连接与外部连接,构建骨架拓扑结构图G=(V,E);利用骨架拓扑结构图G与设计的图卷积神经网络模型MP‑GCN,根据人体局部运动坐标序列,预测正常模式下的未来人体姿态;比较未来人体姿态的预测值与实际检测值,实现异常行为检测。本发明不仅提高了异常行为检测的准确率,而且传递了异常事件发生位置及发生原因等语义信息,同时有效增强了算法对视频噪声、光照变化、复杂背景等干扰因素的鲁棒性。
Description
技术领域
本发明涉及视频中的异常行为检测领域,具体涉及一种基于人体姿态预测的异常行为检测算法。
背景技术
视频中的异常行为检测是计算机视觉领域中具有重要研究价值和发展前景的任务,可被应用于智能监控、安防系统等产业中。异常行为检测的目的在于发现视频中不应该发生的、危害社会公共安全的行为。目前常用的方法是基于视频帧预测的检测方法,即将堆叠的若干帧连续视频图像输入预测模型中,定义包含正常事件的图像是可预测的,而异常事件无法被较好地预测。
例如,Liu Wen等人提出了一种基于生成对抗网络的异常行为检测模型。该模型将堆叠的前若干帧连续视频图像作为输入,使用U-Net网络作为生成器,结合判别器生成下一帧图像。图像质量评价指标PSNR被用于衡量生成的视频帧是否包含异常事件:若预测得到的图像质量较低(通常在异常区域出现模糊),则意味着该帧图像无法通过正常模式下的生成器进行较好的预测,即该视频帧包含异常事件。
尽管上述方法在异常检测结果上有很大进步,该方法无法解决以下问题:1)只对视频帧是否包含异常事件做出了判断,无法获取异常发生位置及发生原因等重要信息;2)视频中较小的、远离镜头的人物行为往往被忽略;3)对噪声、复杂背景、光照变化等干扰因素敏感。因此,需要设计一种能传递更多语义信息、更为鲁棒的异常检测算法。
发明内容
本发明的目的在于提出一种基于人体姿态预测的异常行为检测算法,通过构建以图卷积神经网络为基本模块的人体姿态预测模型,获取未来视频帧中人体关键点坐标信息,并将其与实际检测值进行对比,据此判断对应人物是否处于异常行为中,从而解决异常检测领域中语义信息不明确、鲁棒性较弱、忽略较小的人物等问题。
实现本发明的技术解决方案:一种基于人体姿态预测的异常行为检测算法,包括如下步骤:
步骤1、利用已有的检测、跟踪及人体姿态估计方法,获取连续四帧视频图像中的人体关键点坐标序列Pt,Pt+1,Pt+2,Pt+3;
步骤2、利用坐标运动分解方法,提取人体关键点坐标中的全局运动与局部运动分量;
步骤3、根据人体关键点之间的内部物理连接与外部连接,构建骨架拓扑结构图;
步骤4、利用骨架拓扑结构图与设计的图卷积神经网络模型MP-GCN,根据人体局部运动坐标序列,预测正常模式下的未来人体姿态;
步骤5、比较未来人体姿态的预测值与实际检测值,实现异常行为检测。
进一步的,步骤1中获取人体关键点坐标序列的具体过程为:利用单阶段目标检测器CenterNet获取人体检测框,并根据检测框置信度对输出的人体检测框进行筛选;利用多目标跟踪器Deep SORT,获取检测框对应的人物身份码,同时对检测框进行优化和筛选;利用人体姿态估计算法HRNet获取检测框内人体关键点坐标,并根据关键点置信度对人体姿态进行筛选,得到人体关键点坐标序列。
进一步的,人体检测框B=[x,y,w,h],其中(x,y)为框的左上角坐标,(w,h)为框的宽高;人体关键点包括左右眼、左右耳、鼻、左右肩、左右肘、左右手腕、左右髋部、左右膝及左右脚踝。
进一步的,步骤2中对步骤1得到的人体运动信息进行分解,人体绝对运动坐标向量Fabsolute可分解为全局运动向量Fglobal与局部运动向量Flocal,即:
Fabsolut=Fglobal+Flocal
其中Fglobal代表人体检测框左下角的坐标向量,Flocal代表以检测框左下角为原点时人体关键点的坐标向量。
进一步的,步骤3中根据人体关键点之间的内部物理连接与外部连接,构建骨架拓扑结构图G=(V,E);在人体内部物理连接的基础上,增加外部连接,即左右手腕之间、左右手肘之间、左右膝之间、左右脚踝之间、同侧手肘与膝之间及同侧手腕与脚踝之间的连接。
进一步的,步骤4中根据前4帧连续视频图像中同一个人物的局部运动坐标序列,利用图卷积神经网络模型MP-GCN,预测正常模式时下一帧视频图像中的人体关键点坐标;所述图卷积神经网络预测模型MP-GCN由基本模块ST-GCN串联而成,ST-GCN模块对堆叠的人体姿态序列依次进行空间域与时间域上的卷积,自动捕获隐藏在关键点空间分布与时间动态中的信息。
进一步的,步骤5中比较未来人体姿态的预测值与实际检测值,若二者相似度低于设定的阈值,则表示对应人物的姿态信息无法通过正常模式下的模型预测,即人物处于异常事件中。
进一步的,步骤5中所述的阈值为0.5
本发明与现有技术相比,其显著优点在于:1)本发明利用人体姿态信息,在判断视频帧是否包含异常事件的基础上,获取异常行为发生的位置及原因等重要信息;2)本发明利用运动分解方法,有效解决了较小的、离镜头较远的人物被忽略而导致漏检的问题;3)本发明对噪声、光照变化等干扰因素具有更强的鲁棒性,同时也获得了更高的检测准确率。
下面结合附图对本发明做进一步详细的描述。
附图说明
图1为本发明的流程示意图。
图2为人体绝对运动坐标向量分解示意图。
图3(a)为仅考虑了人体内部物理连接的人体骨架拓扑图,图3(b)为本发明设计的骨架拓扑结构图。
图4为图卷积神经网络预测模型MP-GCN示意图。
图5为部分异常事件的检测情况示意图。
图6为本发明提出的算法与视频帧预测方法Future Frame Prediction在增加不同强度的高斯噪声后检测效果的变化情况示意图。
具体实施方式
如图1所示,本发明提出了一种基于人体姿态预测的异常行为检测算法,该算法步骤包括:利用已有的检测、跟踪及人体姿态估计方法,获取连续四帧视频图像It,It+1,It+2,It+3中同一个人物的姿态信息,即人体关键点坐标序列Pt,Pt+1,Pt+2,Pt+3;通过对坐标序列进行运动分解,获取人体全局运动及局部运动信息;利用本发明中设计的图卷积神经网络模型MP-GCN及骨架拓扑结构图,根据已获取的局部运动坐标序列,进行正常模式下的人体姿态预测,得到下一帧视频图像It+4中该人物关键点坐标的预测值P′t+4;同时,利用已有的检测及人体姿态估计算法,获取下一帧It+4中该人物姿态信息的实际检测值Pt+4;通过对比同一个人物姿态信息的检测值Pt+4和预测值P′t+4,即可获取二者的相似度。一个低的相似度表明该人物的行为无法通过正常模式下的姿态预测模型进行预测,即该人物处于异常行为中。具体步骤如下:
步骤1、获取人体关键点坐标序列。具体过程为:利用单阶段目标检测器CenterNet获取人体检测框B=[x,y,w,h],其中(x,y)为框的左上角坐标,(w,h)为框的宽高,并根据检测框置信度对输出的人体检测框进行筛选;利用多目标跟踪器Deep SORT,获取检测框对应的人物身份码,相同的身份码代表对应检测框属于同一个人物,同时对检测框进行第二次优化和筛选;利用人体姿态估计算法HRNet获取检测框内人体的17个关键点各自对应的信息P=[x,y,acc],其中(x,y)为关键点坐标,acc为关键点的置信度,并根据关键点置信度对人体姿态进行筛选,忽略整体置信度低于0.6的人体姿态;获取连续四帧视频图像It,It+1,It+2,It+3中同一个人物的姿态信息,即可得到人体关键点坐标序列Pt,Pt+1,Pt+2,Pt+3;其在,17个关键点包括左右眼、左右耳、鼻、左右肩、左右肘、左右手腕、左右髋部、左右膝及左右脚踝。
步骤2、利用坐标运动分解方法,提取步骤1得到的人体关键点坐标中的全局运动与局部运动分量。如图2所示,人体绝对运动坐标向量Fabsolute可分解为全局运动向量Fglo与局部运动向量Flocal,即:
Fabsolute=Fglobal+Flocal
其中Fglo代表人体检测框左下角的坐标向量,Flocal代表以检测框左下角为原点时人体关键点的坐标向量。进行运动分解的主要原因在于,较小的、离镜头较远的人物坐标通常由全局运动(人体检测框的坐标变化)主导,人体局部运动(姿态变化)往往被全局运动掩盖。运动分解后较小人物的姿态信息不会被忽略。
步骤3、构建骨架拓扑结构图G=(V,E),其中V是图的节点,E是节点间的连接。如图3(a)所示,已有的人体骨架拓扑图仅考虑了人体内部物理连接,如肘部到手腕的连接,忽略了非物理连接的关节间可能的联系。如图3(b)所示,本发明设计的骨架拓扑结构图在人体内部物理连接的基础上,增加运动幅度大且运动方式耦合的关节之间的外部连接,例如左腕与右腕、左腿与右腿等。通过节点之间的充分连接,人体的动态信息能够被更好地发掘。
步骤4、预测正常模式时下一帧视频图像中的人体关键点坐标。本发明设计的图卷积神经网络预测模型MP-GCN由基本模块ST-GCN串联而成。如图4所示,ST-GCN模块对堆叠的人体姿态序列依次进行空间域与时间域上的卷积,自动捕获隐藏在关键点空间分布与时间动态中的信息。将若干个ST-GCN模块串联后即可得到预测模型MP-GCN。在时间维度上,MP-GCN中一系列串联的ST-GCN模块最终将输入的人体姿态序列从4帧降低至1帧(即预测的未来帧);在特征维度上,MP-GCN将输入特征[x,y,acc]从3维逐步增加至256维,从而充分发掘人体运动状态中隐藏的信息;空间维度上,始终保持关键点数量不变,确保人体姿态预测值与实际检测值之间能够进行逐点对比。
步骤5、比较未来人体姿态的预测值与实际检测值。本发明采用OKS值判定两个人体姿态的相似性。OKS定义如下:
其中di是预测点与实际点之间的欧氏距离;vi是实际点的可见性标志,若关键点不可见,则vi为0,不影响OKS值得计算;ki是各关键点对应的常参数;s是人物大小,通常用检测框面积代替。OKS取值范围为(0,1),当两个人体姿态完全相同时,OKS的值为1。若OKS值较低,则意味着对应人物的姿态信息无法通过正常模式下的模型很好地预测,即人物处于异常事件中。
本发明通过构建以图卷积神经网络为基本模块的人体姿态预测模型,获取未来视频帧中人体关键点坐标信息,并将其与实际检测值进行对比,据此判断对应人物是否处于异常行为中,从而解决异常检测领域中语义信息不明确、鲁棒性较弱、忽略较小的人物等问题。
表1本发明算法在ShanghaiTech数据集子集上的比较
表1是本发明提出的方法(简写为MP-GCN)与其他方法在数据集ShanghaiTech子集上结果的比较。评测指标AUC值,代表ROC曲线下的便秘。符号“↑”表示值越高性能越好。可以发现,本发明在AUC指标上取得了最高的排名,充分证明本发明能提高异常行为检测精度。
图5是部分异常事件的检测情况,包括摔倒、投掷物体和打架斗殴。由图5可见,本发明不仅能判断视频帧是否包含异常事件,还能根据对应低OKS值的检测框或关键点坐标判断异常事件发生的位置。同时,通过分析人体姿态预测值与实际检测值,可以判断异常事件发生的原因。例如,若一个人物被预测为站立,但实际姿势已经倾斜,可以判断异常事件为人物摔倒。
图6为本发明提出的算法与视频帧预测方法Future Frame Prediction在增加不同强度的高斯噪声后检测效果的变化情况。可以发现,本发明提出的算法对噪声有更好的鲁棒性。
Claims (8)
1.一种基于人体姿态预测的异常行为检测算法,其特征在于,包括如下步骤:
步骤1、利用已有的检测、跟踪及人体姿态估计方法,获取连续四帧视频图像中的人体关键点坐标序列Pt,Pt+1,Pt+2,Pt+3;
步骤2、利用坐标运动分解方法,提取人体关键点坐标中的全局运动与局部运动分量;
步骤3、根据人体关键点之间的内部物理连接与外部连接,构建骨架拓扑结构图;
步骤4、利用骨架拓扑结构图与设计的图卷积神经网络模型MP-GCN,根据人体局部运动坐标序列,预测正常模式下的未来人体姿态;
步骤5、比较未来人体姿态的预测值与实际检测值,实现异常行为检测。
2.根据权利要求1所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤1中获取人体关键点坐标序列的具体过程为:利用单阶段目标检测器CenterNet获取人体检测框,并根据检测框置信度对输出的人体检测框进行筛选;利用多目标跟踪器Deep SORT,获取检测框对应的人物身份码,同时对检测框进行优化和筛选;利用人体姿态估计算法HRNet获取检测框内人体关键点坐标,并根据关键点置信度对人体姿态进行筛选,得到人体关键点坐标序列。
3.根据权利要求2所述的基于人体姿态预测的异常行为检测算法,其特征在于,人体检测框B=[x,y,w,h],其中(x,y)为框的左上角坐标,(w,h)为框的宽高;人体关键点包括左右眼、左右耳、鼻、左右肩、左右肘、左右手腕、左右髋部、左右膝及左右脚踝。
4.根据权利要求1所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤2中对步骤1得到的人体运动信息进行分解,人体绝对运动坐标向量Fabsolute可分解为全局运动向量Fglo与局部运动向量Flocal,即:
Fabsolute=Fglobal+Flocal
其中Fglobal代表人体检测框左下角的坐标向量,Flocal代表以检测框左下角为原点时人体关键点的坐标向量。
5.根据权利要求1所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤3中根据人体关键点之间的内部物理连接与外部连接,构建骨架拓扑结构图G=(V,E);在人体内部物理连接的基础上,增加外部连接,即左右手腕之间、左右手肘之间、左右膝之间、左右脚踝之间、同侧手肘与膝之间及同侧手腕与脚踝之间的连接。
6.根据权利要求1所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤4中根据前4帧连续视频图像中同一个人物的局部运动坐标序列,利用图卷积神经网络模型MP-GCN,预测正常模式时下一帧视频图像中的人体关键点坐标;所述图卷积神经网络预测模型MP-GCN由基本模块ST-GCN串联而成,ST-GCN模块对堆叠的人体姿态序列依次进行空间域与时间域上的卷积,自动捕获隐藏在关键点空间分布与时间动态中的信息。
7.根据权利要求1所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤5中比较未来人体姿态的预测值与实际检测值,若二者相似度低于设定的阈值,则表示对应人物的姿态信息无法通过正常模式下的模型预测,即人物处于异常事件中。
8.根据权利要求7所述的基于人体姿态预测的异常行为检测算法,其特征在于,步骤5中所述的阈值为0.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011570931.7A CN112699771B (zh) | 2020-12-26 | 2020-12-26 | 基于人体姿态预测的异常行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011570931.7A CN112699771B (zh) | 2020-12-26 | 2020-12-26 | 基于人体姿态预测的异常行为检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112699771A true CN112699771A (zh) | 2021-04-23 |
CN112699771B CN112699771B (zh) | 2022-10-14 |
Family
ID=75511132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011570931.7A Active CN112699771B (zh) | 2020-12-26 | 2020-12-26 | 基于人体姿态预测的异常行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112699771B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269103A (zh) * | 2021-05-28 | 2021-08-17 | 山东大学 | 基于空间图卷积网络的异常行为检测方法及系统 |
CN113569766A (zh) * | 2021-07-30 | 2021-10-29 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机巡逻的行人异常行为检测方法 |
CN113673327A (zh) * | 2021-07-14 | 2021-11-19 | 南京邮电大学 | 一种基于人体姿态估计的罚球命中预测方法 |
CN113838218A (zh) * | 2021-09-24 | 2021-12-24 | 厦门大学 | 一种感知环境的语音驱动虚拟人姿态合成方法 |
CN114158004A (zh) * | 2021-12-09 | 2022-03-08 | 重庆邮电大学 | 一种基于图卷积神经网络的室内无源移动目标检测方法 |
CN114310917A (zh) * | 2022-03-11 | 2022-04-12 | 山东高原油气装备有限公司 | 一种油管搬运机器人关节轨迹误差补偿方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160307201A1 (en) * | 2010-11-29 | 2016-10-20 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
CN109543513A (zh) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | 智能监控实时处理的方法、装置、设备及存储介质 |
CN110598554A (zh) * | 2019-08-09 | 2019-12-20 | 中国地质大学(武汉) | 基于对抗学习的多人姿态估计方法 |
-
2020
- 2020-12-26 CN CN202011570931.7A patent/CN112699771B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160307201A1 (en) * | 2010-11-29 | 2016-10-20 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
CN109543513A (zh) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | 智能监控实时处理的方法、装置、设备及存储介质 |
CN110598554A (zh) * | 2019-08-09 | 2019-12-20 | 中国地质大学(武汉) | 基于对抗学习的多人姿态估计方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269103A (zh) * | 2021-05-28 | 2021-08-17 | 山东大学 | 基于空间图卷积网络的异常行为检测方法及系统 |
CN113673327A (zh) * | 2021-07-14 | 2021-11-19 | 南京邮电大学 | 一种基于人体姿态估计的罚球命中预测方法 |
CN113673327B (zh) * | 2021-07-14 | 2023-08-18 | 南京邮电大学 | 一种基于人体姿态估计的罚球命中预测方法 |
CN113569766A (zh) * | 2021-07-30 | 2021-10-29 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机巡逻的行人异常行为检测方法 |
CN113569766B (zh) * | 2021-07-30 | 2022-10-04 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机巡逻的行人异常行为检测方法 |
CN113838218A (zh) * | 2021-09-24 | 2021-12-24 | 厦门大学 | 一种感知环境的语音驱动虚拟人姿态合成方法 |
CN113838218B (zh) * | 2021-09-24 | 2023-10-13 | 厦门大学 | 一种感知环境的语音驱动虚拟人姿态合成方法 |
CN114158004A (zh) * | 2021-12-09 | 2022-03-08 | 重庆邮电大学 | 一种基于图卷积神经网络的室内无源移动目标检测方法 |
CN114158004B (zh) * | 2021-12-09 | 2022-11-08 | 重庆邮电大学 | 一种基于图卷积神经网络的室内无源移动目标检测方法 |
CN114310917A (zh) * | 2022-03-11 | 2022-04-12 | 山东高原油气装备有限公司 | 一种油管搬运机器人关节轨迹误差补偿方法 |
CN114310917B (zh) * | 2022-03-11 | 2022-06-14 | 山东高原油气装备有限公司 | 一种油管搬运机器人关节轨迹误差补偿方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112699771B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112699771B (zh) | 基于人体姿态预测的异常行为检测方法 | |
Nadeem et al. | Human actions tracking and recognition based on body parts detection via Artificial neural network | |
US6502082B1 (en) | Modality fusion for object tracking with training system and method | |
Dong et al. | Fast crowd segmentation using shape indexing | |
Ghazal et al. | Human posture classification using skeleton information | |
CN112347861A (zh) | 一种基于运动特征约束的人体姿态估计方法 | |
CN110472532B (zh) | 一种视频对象行为识别方法和装置 | |
Liu et al. | Si-GCN: Structure-induced graph convolution network for skeleton-based action recognition | |
Shijila et al. | Simultaneous denoising and moving object detection using low rank approximation | |
Kao et al. | Graph based skeleton modeling for human activity analysis | |
Sunil et al. | Usual and unusual human activity recognition in video using deep learning and artificial intelligence for security applications | |
Lovanshi et al. | Human pose estimation: benchmarking deep learning-based methods | |
Chan et al. | A 3-D-point-cloud system for human-pose estimation | |
Yang et al. | Dangerous Driving Behavior Recognition Based on Improved YoloV5 and OpenPose [J] | |
Younsi et al. | Comparative study of orthogonal moments for human postures recognition | |
Sree et al. | An evolutionary computing approach to solve object identification problem for fall detection in computer vision-based video surveillance applications | |
Liu et al. | Adaptive recognition method for VR image of Wushu decomposition based on feature extraction | |
Kunchala et al. | Smpl-based 3d pedestrian pose prediction | |
Yang et al. | Knowledge-based role recognition by using human-object interaction and spatio-temporal analysis | |
CN113963202A (zh) | 一种骨骼点动作识别方法、装置、电子设备及存储介质 | |
Girdhar et al. | An Improved Empirical Hyper-Parameter Tuned Supervised Model for Human Activity Recognition based on Motion Flow and Deep Learning | |
Ren et al. | Human fall detection model with lightweight network and tracking in video | |
Wu et al. | Research on human action feature detection and recognition algorithm based on deep learning | |
Chen et al. | A bio-inspired event-based size and position invariant human posture recognition algorithm | |
Dong et al. | Infrared target extraction based on immune extension neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |