CN112966628A - 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法 - Google Patents

一种基于图卷积神经网络的视角自适应多目标摔倒检测方法 Download PDF

Info

Publication number
CN112966628A
CN112966628A CN202110287827.5A CN202110287827A CN112966628A CN 112966628 A CN112966628 A CN 112966628A CN 202110287827 A CN202110287827 A CN 202110287827A CN 112966628 A CN112966628 A CN 112966628A
Authority
CN
China
Prior art keywords
frame
target
visual angle
point data
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110287827.5A
Other languages
English (en)
Inventor
曾碧
陈文轩
刘建圻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110287827.5A priority Critical patent/CN112966628A/zh
Publication of CN112966628A publication Critical patent/CN112966628A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明为克服因依赖数据集所导致的视角问题导致摔倒检测准确率低的问题,公开了一种基于图卷积神经网络的视角自适应多目标摔倒检测方法,包括以下步骤:采用目标检测算法检测目标视频源中每一帧图像的人物目标,采用姿态估计算法提取每一帧图像中人物目标的关键骨骼点数据,当连续检测到同一人物目标的帧数大于预设的检测阈值时,将所提取的关键骨骼点数据输入完成训练的视角自适应子网络中,得到视角调整参数;根据视角调整参数对关键骨骼点数据进行视角调整,再根据视角调整后的关键骨骼点数据计算运动数据,将视角调整后的关键骨骼点数据和运动数据输入完成训练的图卷积摔倒识别主网络进行摔倒检测,输出检测结果标签。

Description

一种基于图卷积神经网络的视角自适应多目标摔倒检测方法
技术领域
本发明涉及动作识别摔倒检测技术领域,更具体地,涉及一种基于图卷积神经网络的视角自适应多目标摔倒检测方法。
背景技术
针对老年群体的跌倒检测,目前主要利用视频流图像数据、佩戴式的陀螺仪传感器数据、地板传感器数据或者是骨骼数据等等进行检测摔倒。其中,基于佩戴式传感器的摔倒检测方法是让老人在腰部、手腕等地方穿戴陀螺仪、压力传感器等组成的装置,不仅使老人行动不便,而且识别准确率较低。
而在基于计算机视觉分析的摔倒检测方法中,智能视频监控与传统视频监控有本质区别,智能视频监控不需要人工实时观察,而是通过计算机智能识别视频中发生的事件,具体做法是通过摄像头实时获得视频流数据,对视频中的人物进行检测、跟踪,在提取了一系列必要的特征后由某种方法判断人物的行为,从而达到智能监控的效果;因此在老人摔倒检测的问题中应用智能监控技术,对比穿戴式的设备,可以在完全不干扰老人的日常生活下,实时捕获摔倒行为并通知救护人员。如公开号为CN110738154A(公开日:2020-01-31)公开了一种基于人体姿态估计的行人摔倒检测方法,基于LSTM模型与openpose,其中,openpose是自下而上的姿态估计算法,先检测骨骼点再使用匈牙利算法进行匹配,高精度的openpose算力较大,无法应用到实际场景,而轻量级的openpose在多人混淆时误检率较高,单纯利用骨骼信息的跟踪算法难以满足复杂情况,对后续的判断有较大的影响;而LSTM虽说可以很好地捕捉时间序列的信息,但是缺乏空间信息的解读,并且依赖数据集,而目前现有的能应用于摔倒检测的训练数据集非常有限,并且难以囊括所有的视角,不能自适应不同视角的位置部署,仍然存在摔倒检测准确率低的问题。
发明内容
本发明为解决现有的摔倒检测方法中,因依赖数据集所导致的视角问题导致摔倒检测准确率低的问题,提供一种基于图卷积神经网络的视角自适应多目标摔倒检测方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于图卷积神经网络的视角自适应多目标摔倒检测方法,包括以下步骤:
采用目标检测算法检测训练视频源中每一帧图像的人物,采用姿态估计算法提取训练视频源中每一帧图像的关键骨骼点数据,根据所提取的关键骨骼点数据作为训练集并进行预处理;
将预处理后的训练集输入视角自适应子网络中进行训练及视角调整,并根据视角调整后的关键骨骼点数据计算样本运动数据,将视角调整后的训练集和所述样本运动数据输入图卷积摔倒识别主网络中进行训练;
采用目标检测算法检测目标视频源中每一帧图像的人物目标,采用姿态估计算法提取每一帧图像中人物目标的关键骨骼点数据,当连续检测到同一人物目标的帧数大于预设的检测阈值时,将所提取的关键骨骼点数据输入完成训练的视角自适应子网络中,得到视角调整参数;
根据所述视角调整参数对所述关键骨骼点数据进行视角调整,再根据视角调整后的关键骨骼点数据计算运动数据,将所述视角调整后的关键骨骼点数据和所述运动数据输入完成训练的图卷积摔倒识别主网络进行摔倒检测,输出检测结果标签。
作为优选方案,对训练集进行预处理的步骤包括:对单帧图像的关键骨骼点数据逐一进行归一化处理,再对所有关键骨骼点数据进行平均归一化处理;对训练视频源中每一帧图像进行动作识别并标注标签,对所述标签进行平滑化处理;根据所述标签确定训练视频源中的动作衔接帧,以所述动作衔接帧作为交界取前8帧图像及后8帧图像进行前一动作递减以及后一动作递增处理,再乘以对应图像帧中所有关键骨骼点数据的平均值。
作为优选方案,所述关键骨骼点数据包括:鼻节点、左肩部节点、右肩部节点、左肘部节点、右肘部节点、左手腕节点、右手腕节点、左胯部节点、右胯部节点、左膝盖节点、右膝盖节点、左脚踝节点、右脚踝节点、胸节点,其中,胸节点利用左肩部节点和右肩部节点进行构建。
作为优选方案,采用目标检测算法检测视频源中每一帧图像的人物的步骤包括:采用YOLOv5目标检测算法逐帧捕捉视频源中的人物;若当前图像中检测到人物,采用姿态估计算法提取当前图像的关键骨骼点数据;若当前图像中没有检测到人物,采用YOLOv3目标检测算法捕捉当前图像帧的人物,若当前图像中检测到人物,采用姿态估计算法提取当前图像的关键骨骼点数据,否则对下一帧图像进行检测。
作为优选方案,所述姿态估计算法包括ResNet152和/或ResNet50,以及SSTN网络;采用膨胀优化算法EDO对所述姿态估计算法网络中的ResNet152和ResNet50残差网络结构进行优化;所述SSTN网络对姿态估计算法中的检测框偏移值进行优化。
作为优选方案,还包括以下步骤:采用以优化后的检测框作为输入的多目标跟踪算法捕捉检测人物目标,并设置人物目标对应的追踪ID;根据相邻两帧图像的检测框重合度IOU并结合检测框内图像特征,逐一判断相邻两帧图像目标的追踪ID是否一致:若是,则判定目标连续存在于相邻两帧图像;若否,则判定目标不连续存在于相邻两帧图像。
作为优选方案,还包括以下步骤:设置关节置信度阈值范围,扩大影响摔倒行为检测的胸节点、左肩膀、右肩膀、左胯部、右胯部的关节置信度,应用于姿态估计算法提取骨骼点数据。
作为优选方案,对所述关键骨骼点数据进行视角调整的步骤包括:根据视频源第一帧图像建立全局坐标轴,获取第一帧图像关键骨骼点数据的坐标;将其他帧图像的关键骨骼点数据输入视角自适应子网络得到样本视角调整参数;所述样本视角调整参数包括:与第一帧图像关键骨骼点数据的坐标相比,在x轴方向上的平移距离dx、在y轴方向的平移距离dy、绕x轴旋转角度α、绕y轴的旋转角度β、关于置信度的注意力参数φ;将其他帧图像关键骨骼点数据的坐标分别根据所述样本视角调整参数进行视角平移、旋转调整。
作为优选方案,根据视角调整后的关键骨骼点数据计算样本运动数据或运动数据的步骤包括:将后一帧图像关键骨骼点的坐标与前一帧图像关键骨骼点的坐标进行相减得到训练集帧间运动数据;将所述帧间运动数据进行整合作为样本运动数据或运动数据。
作为优选方案,所述图卷积摔倒识别主网络邻接设置有3个可学习的邻接矩阵,所述邻接矩阵包括分别由人体骨骼机理连接的矩阵及静止运动子集组成的矩阵、由向心运动子集组成的矩阵、由离心运动子集组成的矩阵。
与现有技术相比,本发明技术方案的有益效果是:
本发明通过采用视角自适应子网络对采集的关键骨骼点数据进行视角调整,实现“检测观察”视角的优化;根据视角调整后的关键骨骼点数据计算运动数据,将视角调整后的关键骨骼点数据和运动数据分别输入图卷积摔倒识别主网络进行摔倒检测,能同时捕捉空间信息和时间信息,有效提高摔倒检测准确率。
附图说明
图1为本发明的基于图卷积神经网络的视角自适应多目标摔倒检测方法的流程图;
图2为本发明的摔倒检测阶段的流程图;
图3为实施例1的图卷积摔倒识别主网络的结构示意图;
图4为实施例1的根据先验知识获得的固定的全局图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。
需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例1
本实施例提出一种基于图卷积神经网络的视角自适应多目标摔倒检测方法,如图1~2所示,为本实施例的基于图卷积神经网络的视角自适应多目标摔倒检测方法的流程图。
首先,本实施例中的关键骨骼点数据包括鼻节点、左肩部节点、右肩部节点、左肘部节点、右肘部节点、左手腕节点、右手腕节点、左胯部节点、右胯部节点、左膝盖节点、右膝盖节点、左脚踝节点、右脚踝节点、胸节点等14个节点,其中,胸节点利用左肩部节点和右肩部节点进行构建。
本实施例提出的基于图卷积神经网络的视角自适应多目标摔倒检测方法中,包括以下步骤:
S1:采用目标检测算法检测训练视频源中每一帧图像的人物,采用姿态估计算法提取训练视频源中每一帧图像的关键骨骼点数据,根据所提取的关键骨骼点数据作为训练集并进行预处理。
本实施例中的姿态估计算法包括ResNet152、ResNet50、SSTN网络,其中,ResNet152和/或ResNet50连接在姿态估计主网络前,用于检测图像帧的关键骨骼点数据;SSTN网络连接在姿态估计主网络后,用于对目标检测算法中的检测框进行偏移优化,形成更加稳定的检测框。本实施例采用开源的膨胀优化算法EDO对ResNet152、ResNet50残差网络进行优化。
本步骤中,先采用YOLOv5目标检测算法对训练视频源进行逐帧捕捉人物目标,当检测到人物目标时,采用姿态估计算法提取当前图像的关键骨骼点数据;当没有检测到人物目标时,则采用YOLOv3目标检测算法捕捉当前图像帧的人物目标,若当前图像中检测到人物,则采用姿态估计算法提取当前图像的关键骨骼点数据,否则对下一帧图像进行检测。
特别的,在本步骤的关键骨骼点数据训练集构建过程中,在采用姿态估计算法提取当前图像的关键骨骼点数据时,其中的ResNet152和ResNet50残差网络对当前图像的关键骨骼点数据进行提取,并选择高置信度的骨骼点作为数据集,得到关键骨骼点数据。
本实施例中设置有关节置信度阈值范围,扩大影响摔倒行为检测的胸节点、左肩膀、右肩膀、左胯部、右胯部的关节置信度,应用于姿态估计算法提取骨骼点数据。
进一步的,对训练集进行预处理的步骤包括:对单帧图像的关键骨骼点数据逐一进行归一化处理,再对所有关键骨骼点数据进行平均归一化处理;对训练视频源中每一帧图像进行动作识别并标注标签,对所述标签进行平滑化处理;根据所述标签确定训练视频源中的动作衔接帧,以所述动作衔接帧作为交界取前8帧图像及后8帧图像进行前一动作递减以及后一动作递增处理,再乘以对应图像帧中所有关键骨骼点数据的平均值。
本实施例中,将每30帧图像得到的关键骨骼点数据作为一个训练子集,并将第一帧图像的动作标签作为该训练自己的标签。
S2:将预处理后的训练集输入视角自适应子网络中进行训练及视角调整,并根据视角调整后的关键骨骼点数据计算样本运动数据,将视角调整后的训练集和所述样本运动数据输入图卷积摔倒识别主网络中进行训练。
本实施例中,对训练集中的关键骨骼点数据进行视角调整的步骤包括:
根据训练视频源第一帧图像建立全局坐标轴,获取第一帧图像关键骨骼点数据的坐标(x0,y0);
将其他帧图像的关键骨骼点数据输入视角自适应子网络得到样本视角调整参数;其中,样本视角调整参数包括:第t帧(t=1,2,...,n,n为图像帧总数)图像关键骨骼点数据的坐标(xt,yt)与第一帧图像关键骨骼点数据的坐标(x0,y0)相比,在x轴方向上的平移距离dx=|x0-xt|、在y轴方向的平移距离dy=|y0-yt|、绕x轴旋转角度αt、绕y轴的旋转角度βt、关于置信度的注意力参数φ;将其他帧图像关键骨骼点数据的坐标分别根据所述样本视角调整参数进行视角平移、旋转调整。
本实施例以四元素旋转矩阵表示上述样本视角调整参数,其表达公式如下:
Figure BDA0002981210380000061
Figure BDA0002981210380000062
Figure BDA0002981210380000063
其中,
Figure BDA0002981210380000064
表示绕x轴旋转矩阵,
Figure BDA0002981210380000065
表示绕y轴的旋转矩阵,
Figure BDA0002981210380000066
表示绕z轴的旋转矩阵,由于本实施例使用的是二维姿态估计算法,因此γt使用0表示;将角度αt、βt代入上述四元素旋转矩阵实现位移和旋转。
本实施例中,根据视角调整后的关键骨骼点数据计算样本运动数据或运动数据的步骤包括:将后一帧图像关键骨骼点的坐标与前一帧图像关键骨骼点的坐标进行相减得到训练集帧间运动数据;将所述帧间运动数据进行整合作为样本运动数据或运动数据。
S3:采用目标检测算法检测目标视频源中每一帧图像的人物目标,采用姿态估计算法提取每一帧图像中人物目标的关键骨骼点数据,当连续检测到同一人物目标的帧数大于预设的检测阈值时,将所提取的关键骨骼点数据输入完成训练的视角自适应子网络中,得到视角调整参数。
特别的,本步骤采用姿态估计算法提取每一帧图像中人物目标的关键骨骼点数据时,仅采用ResNet50残差网络对当前图像的关键骨骼点数据进行提取。
本步骤中,采用经SSTN网络优化后的检测框作为输入的多目标跟踪算法捕捉检测人物目标,并设置人物目标对应的追踪ID;根据相邻两帧图像的检测框重合度IOU并结合检测框内图像特征,逐一判断相邻两帧图像目标的追踪ID是否一致:若是,则判定目标连续存在于相邻两帧图像;若否,则判定目标不连续存在于相邻两帧图像。
本实施例中,当同一个追踪ID存储的关键骨骼点数据达到30帧时(即当连续检测到同一人物目标的帧数大于30帧时),将所提取的关键骨骼点数据输入完成训练的视角自适应子网络中,得到视角调整参数。
S4:根据所述视角调整参数对所述关键骨骼点数据进行视角调整,再根据视角调整后的关键骨骼点数据计算运动数据,将所述视角调整后的关键骨骼点数据和所述运动数据输入完成训练的图卷积摔倒识别主网络进行摔倒检测,输出检测结果标签。
进一步的,本实施例中的图卷积摔倒识别主网络AAGCN包括3个可学习的邻接矩阵,如图3所示,为本实施例的图卷积摔倒识别主网络的结构示意图。
其中,TCN模块为对时间维度卷积操作模块,不改变数据维度。
本实施例中的图卷积摔倒识别主网络中设置的邻接矩阵包括如下的矩阵形式:
(1)根据人体骨骼机理连接的矩阵加上以图4中Si2节点为代表的静止运动子集(单位矩阵);
(2)以图4中Si1节点为代表的向心运动子集,其中以每个Si2节点为代表产生的多个Si1节点,Si1节点比Si2节点更靠近重心X;
(3)以图4中Si3节点为代表的离心运动子集,以每个Si2节点为代表产生的多个Si3节点,Si3节点比Si2节点更远离重心X。
其中,图4为本实施例根据先验知识获得的图卷积网络的节点子集分布的全局图,网络中还有根据节点之间的特征相似性建立关系的局部图。一方面全局图可以为网络的学习提供运动时的骨骼之间的基本连接信息,让网络不至于随意学习,另一方面局部图提供了远离关节点的非连接关系,为每个样本学习唯一拓扑的独立图;其连接关系和强度由标准化的嵌入高斯函数来进行估计,高斯函数的计算公式如下:
Figure BDA0002981210380000081
其中
Figure BDA0002981210380000082
和θ是两个嵌入函数,υi表示骨骼节点i的输入特征映射,υj骨骼节点j的输入特征映射表示,N表示骨骼节点总数;该特征映射是将骨骼的二维信息和帧间差信息拼接后经过双层全连接层后进行的非线性表示。
注意力模块,分别是关节点注意力、帧注意力以及关节点信息注意力,其表达公式如下:
Mt=σ(gt(AvgPool(fin))
Ms=σ(gs(AvgPool(fin))
Mc=σ(W2(δ(W1(AvgPool(fin)))))
式中,Mt表示输入特征图加上帧注意力后的注意力图,Ms表示输入特征图加上空间注意力后的注意力图,Mc表示输入特征图加上通道注意力后的注意力图,fin表示输入特征图;gt、gs都表示一维卷积,W1、W2表示全连接层。
本实施例中,通过视角自适应子网络去优化“观察”角度,采用邻接矩阵自适应图卷积神经网络AAGCN去学习检测摔倒,模型更容易拟合并且效果更好,因为其能同时捕捉空间信息和时间信息,在以往固定的邻接矩阵的基础上加上自学习的邻接矩阵,实现网络在高层处捕获到自己所需的语义信息。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于图卷积神经网络的视角自适应多目标摔倒检测方法,其特征在于,包括以下步骤:
采用目标检测算法检测训练视频源中每一帧图像的人物,采用姿态估计算法提取训练视频源中每一帧图像的关键骨骼点数据,根据所提取的关键骨骼点数据作为训练集并进行预处理;
将预处理后的训练集输入视角自适应子网络中进行训练及视角调整,并根据视角调整后的关键骨骼点数据计算样本运动数据,将视角调整后的训练集和所述样本运动数据输入图卷积摔倒识别主网络中进行训练;
采用目标检测算法检测目标视频源中每一帧图像的人物目标,采用姿态估计算法提取每一帧图像中人物目标的关键骨骼点数据,当连续检测到同一人物目标的帧数大于预设的检测阈值时,将所提取的关键骨骼点数据输入完成训练的视角自适应子网络中,得到视角调整参数;
根据所述视角调整参数对所述关键骨骼点数据进行视角调整,再根据视角调整后的关键骨骼点数据计算运动数据,将所述视角调整后的关键骨骼点数据和所述运动数据输入完成训练的图卷积摔倒识别主网络进行摔倒检测,输出检测结果标签。
2.根据权利要求1所述的视角自适应多目标摔倒检测方法,其特征在于,对训练集进行预处理的步骤包括:对单帧图像的关键骨骼点数据逐一进行归一化处理,再对所有关键骨骼点数据进行平均归一化处理;对训练视频源中每一帧图像进行动作识别并标注标签,对所述标签进行平滑化处理;根据所述标签确定训练视频源中的动作衔接帧,以所述动作衔接帧作为交界取前8帧图像及后8帧图像进行前一动作递减以及后一动作递增处理,再乘以对应图像帧中所有关键骨骼点数据的平均值。
3.根据权利要求2所述的视角自适应多目标摔倒检测方法,其特征在于,所述关键骨骼点数据包括:鼻节点、左肩部节点、右肩部节点、左肘部节点、右肘部节点、左手腕节点、右手腕节点、左胯部节点、右胯部节点、左膝盖节点、右膝盖节点、左脚踝节点、右脚踝节点、胸节点,其中,胸节点利用左肩部节点和右肩部节点进行构建。
4.根据权利要求3所述的视角自适应多目标摔倒检测方法,其特征在于,采用目标检测算法检测视频源中每一帧图像的人物的步骤包括:
采用YOLOv5目标检测算法逐帧捕捉视频源中的人物;
若当前图像中检测到人物,采用姿态估计算法提取当前图像的关键骨骼点数据;
若当前图像中没有检测到人物,采用YOLOv3目标检测算法捕捉当前图像帧的人物,若当前图像中检测到人物,采用姿态估计算法提取当前图像的关键骨骼点数据,否则对下一帧图像进行检测。
5.根据权利要求4所述的视角自适应多目标摔倒检测方法,其特征在于,所述姿态估计算法包括ResNet152和/或ResNet50,以及SSTN网络;采用膨胀优化算法EDO对所述姿态估计算法网络中的ResNet152和ResNet50残差网络结构进行优化;所述SSTN网络对姿态估计算法中的检测框偏移值进行优化。
6.根据权利要求5所述的视角自适应多目标摔倒检测方法,其特征在于,还包括以下步骤:
采用以优化后的检测框作为输入的多目标跟踪算法捕捉检测人物目标,并设置人物目标对应的追踪ID;根据相邻两帧图像的检测框重合度IOU并结合检测框内图像特征,逐一判断相邻两帧图像目标的追踪ID是否一致:若是,则判定目标连续存在于相邻两帧图像;若否,则判定目标不连续存在于相邻两帧图像。
7.根据权利要求5所述的视角自适应多目标摔倒检测方法,其特征在于,还包括以下步骤:设置关节置信度阈值范围,扩大影响摔倒行为检测的胸节点、左肩膀、右肩膀、左胯部、右胯部的关节置信度,应用于姿态估计算法提取骨骼点数据。
8.根据权利要求1~7任一项所述的视角自适应多目标摔倒检测方法,其特征在于,对所述关键骨骼点数据进行视角调整的步骤包括:根据视频源第一帧图像建立全局坐标轴,获取第一帧图像关键骨骼点数据的坐标;将其他帧图像的关键骨骼点数据输入视角自适应子网络得到样本视角调整参数;所述样本视角调整参数包括:与第一帧图像关键骨骼点数据的坐标相比,在x轴方向上的平移距离dx、在y轴方向的平移距离dy、绕x轴旋转角度α、绕y轴的旋转角度β、关于置信度的注意力参数φ;将其他帧图像关键骨骼点数据的坐标分别根据所述样本视角调整参数进行视角平移、旋转调整。
9.根据权利要求8所述的视角自适应多目标摔倒检测方法,其特征在于,根据视角调整后的关键骨骼点数据计算样本运动数据或运动数据的步骤包括:将后一帧图像关键骨骼点的坐标与前一帧图像关键骨骼点的坐标进行相减得到训练集帧间运动数据;将所述帧间运动数据进行整合作为样本运动数据或运动数据。
10.根据权利要求8所述的视角自适应多目标摔倒检测方法,其特征在于,所述图卷积摔倒识别主网络邻接设置有3个可学习的邻接矩阵,所述邻接矩阵包括分别由人体骨骼机理连接的矩阵及静止运动子集组成的矩阵、由向心运动子集组成的矩阵、由离心运动子集组成的矩阵。
CN202110287827.5A 2021-03-17 2021-03-17 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法 Pending CN112966628A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110287827.5A CN112966628A (zh) 2021-03-17 2021-03-17 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110287827.5A CN112966628A (zh) 2021-03-17 2021-03-17 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法

Publications (1)

Publication Number Publication Date
CN112966628A true CN112966628A (zh) 2021-06-15

Family

ID=76279005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110287827.5A Pending CN112966628A (zh) 2021-03-17 2021-03-17 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法

Country Status (1)

Country Link
CN (1) CN112966628A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963445A (zh) * 2021-11-15 2022-01-21 河南理工大学 一种基于姿态估计的行人摔倒动作识别方法及设备
CN114052726A (zh) * 2021-11-25 2022-02-18 湖南中科助英智能科技研究院有限公司 一种黑暗环境下热红外人体步态识别方法及装置
CN114360060A (zh) * 2021-12-31 2022-04-15 北京航空航天大学杭州创新研究院 人体动作识别计数方法
GB2616733A (en) * 2021-11-15 2023-09-20 Univ Henan Polytechnic Pose estimation-based pedestrian fall action recognition method and device
CN117058767A (zh) * 2023-10-12 2023-11-14 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764107A (zh) * 2018-05-23 2018-11-06 中国科学院自动化研究所 基于人体骨架序列的行为与身份联合识别方法及装置
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN110222665A (zh) * 2019-06-14 2019-09-10 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN110378838A (zh) * 2019-06-25 2019-10-25 深圳前海达闼云端智能科技有限公司 变视角图像生成方法,装置,存储介质及电子设备
US20200193591A1 (en) * 2018-12-17 2020-06-18 Bodygram, Inc. Methods and systems for generating 3d datasets to train deep learning networks for measurements estimation
CN111339942A (zh) * 2020-02-26 2020-06-26 山东大学 基于视点调整的图卷积循环网络骨骼动作识别方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN108764107A (zh) * 2018-05-23 2018-11-06 中国科学院自动化研究所 基于人体骨架序列的行为与身份联合识别方法及装置
US20200193591A1 (en) * 2018-12-17 2020-06-18 Bodygram, Inc. Methods and systems for generating 3d datasets to train deep learning networks for measurements estimation
CN110222665A (zh) * 2019-06-14 2019-09-10 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN110378838A (zh) * 2019-06-25 2019-10-25 深圳前海达闼云端智能科技有限公司 变视角图像生成方法,装置,存储介质及电子设备
CN111339942A (zh) * 2020-02-26 2020-06-26 山东大学 基于视点调整的图卷积循环网络骨骼动作识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
曹毅 等: "时空自适应图卷积神经网络的骨架行为识别", 《华 中 科技大学学报(自然科学版)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963445A (zh) * 2021-11-15 2022-01-21 河南理工大学 一种基于姿态估计的行人摔倒动作识别方法及设备
WO2023082882A1 (zh) * 2021-11-15 2023-05-19 河南理工大学 一种基于姿态估计的行人摔倒动作识别方法及设备
GB2616733A (en) * 2021-11-15 2023-09-20 Univ Henan Polytechnic Pose estimation-based pedestrian fall action recognition method and device
CN114052726A (zh) * 2021-11-25 2022-02-18 湖南中科助英智能科技研究院有限公司 一种黑暗环境下热红外人体步态识别方法及装置
CN114360060A (zh) * 2021-12-31 2022-04-15 北京航空航天大学杭州创新研究院 人体动作识别计数方法
CN114360060B (zh) * 2021-12-31 2024-04-09 北京航空航天大学杭州创新研究院 人体动作识别计数方法
CN117058767A (zh) * 2023-10-12 2023-11-14 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置
CN117058767B (zh) * 2023-10-12 2024-02-09 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置

Similar Documents

Publication Publication Date Title
CN112966628A (zh) 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法
CN109522793B (zh) 基于机器视觉的多人异常行为检测与识别方法
CN110222665B (zh) 一种基于深度学习和姿态估计的监控中人体动作识别方法
Zeng et al. Silhouette-based gait recognition via deterministic learning
CN111414797B (zh) 用于估计对象的姿势和姿态信息的系统和方法
WO2017206005A1 (zh) 一种基于光流检测和身体部分模型的多人姿态识别系统
CN109949341B (zh) 一种基于人体骨架结构化特征的行人目标跟踪方法
CN114067358A (zh) 一种基于关键点检测技术的人体姿态识别方法及系统
US20080112592A1 (en) Motion Capture Apparatus and Method, and Motion Capture Program
CN110738154A (zh) 一种基于人体姿态估计的行人摔倒检测方法
CN111523559B (zh) 一种基于多特征融合的异常行为检测方法
CN117671738B (zh) 基于人工智能的人体姿态识别系统
CN111783702A (zh) 一种基于图像增强算法和人体关键点定位的高效行人摔倒检测方法
CN112989889A (zh) 一种基于姿态指导的步态识别方法
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
CN111178201A (zh) 基于OpenPose姿态检测的人体分段式跟踪方法
Chai et al. Human gait recognition: approaches, datasets and challenges
CN113408435A (zh) 一种安全监控方法、装置、设备和存储介质
Haker et al. Self-organizing maps for pose estimation with a time-of-flight camera
Henning et al. Bodyslam++: Fast and tightly-coupled visual-inertial camera and human motion tracking
CN112036324A (zh) 一种用于复杂多人场景的人体姿态判定方法及系统
Tu et al. Face and gesture based human computer interaction
CN116189049A (zh) 一种基于深度学习的眼保健操质量评估方法
CN114548224A (zh) 一种用于强交互人体运动的2d人体位姿生成方法及装置
CN111767886A (zh) 一种基于移动机器人的动捕跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination