CN110490080A - 一种基于图像的人体跌倒判别方法 - Google Patents

一种基于图像的人体跌倒判别方法 Download PDF

Info

Publication number
CN110490080A
CN110490080A CN201910659529.7A CN201910659529A CN110490080A CN 110490080 A CN110490080 A CN 110490080A CN 201910659529 A CN201910659529 A CN 201910659529A CN 110490080 A CN110490080 A CN 110490080A
Authority
CN
China
Prior art keywords
human body
image
tumble
training
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910659529.7A
Other languages
English (en)
Other versions
CN110490080B (zh
Inventor
张二虎
孙羹尧
段敬红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bi Shengyun Wuhan Information Technology Co ltd
Xi'an Huaqi Zhongxin Technology Development Co ltd
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201910659529.7A priority Critical patent/CN110490080B/zh
Publication of CN110490080A publication Critical patent/CN110490080A/zh
Application granted granted Critical
Publication of CN110490080B publication Critical patent/CN110490080B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像的人体跌倒判别方法,该方法首先对人体姿态数据库进行扩充,并添加真实人体跌倒图像;然后设计了一种人体姿态检测的深度学习网络模型,提供了一种高效的姿态关键点坐标回归损失函数;进一步,基于人体运动链模型提取表征人体跌倒状态判断的特征参数;最后通过SVM模型对人体跌倒进行判断。本发明基于单帧图像判断人体跌倒状态,具有关键点定位精度高、判断准确且快速的特点。

Description

一种基于图像的人体跌倒判别方法
技术领域
本发明属于智能视频监控技术领域,具体涉及一种基于图像的人体跌倒判别方法。
背景技术
对于独自居住的老人而言,发生意外摔倒如果不能得到及时的救助,将会出现严重后果。如果能在摔倒行为发生后立刻检测出来并通知救援人员,则将大幅度减少老年人摔倒后进一步发生危险程度概率。因此,及时准确的对老年人跌倒状态进行判断,具有重要的研究意义和实际应用价值。
目前,针对室内出现的单人摔倒状态检测,有三种主流方法。第一种是基于传感器的方法,具体应用为老人的智能监护手环,通过传感器感应到佩戴者运动速度的变化,来判断有没有摔倒情况发生,但是由于人体运动的本身的复杂性,这种方法的检测准确度不高,没有得到广泛的认可。第二是基于Kinect骨架追踪的摔倒检测方法,使用Kinect拍摄视频,重建每一帧人体运动的骨架模型,通过人体质心点的运动速度,来判断是否发生了摔倒行为,这种做法要求具备Kinect骨架追踪相机,使用成本过高且存在着遮挡的情况无法处理。第三种方法是基于对视频流进行时序分析的方法,通过提取加速度时间序列并训练模型,然后通过分析输入视频与模型的匹配程度来判断发生跌倒行为的概率,这种方法的缺点在于能够用于建立模型的人体行为视频序列数量比较少,模型没有足够的泛化能力。
发明内容
本发明的目的是提供一种基于图像的人体跌倒判别方法,解决了现有技术中存在的检测不够准确、模型鲁棒性不够强及检测速度较慢的问题。
本发明所采用的技术方案是,一种基于图像的人体跌倒判别方法,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,基于人体运动链模型;提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4;
步骤4,训练SVM分类器,进行跌倒状态的判断。
本发明的特点还在于,
步骤1中,14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部。
步骤2,具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为真实标记的关键点坐标位置用向量形式表示为则关键点坐标回归损失Loss为公式(1)所示:
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batch size设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法。
步骤3中,提取表征人体跌倒状态的4个特征,具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
步骤4中,训练SVM分类器,进行跌倒状态的判断,具体步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态,其中,1表示跌倒,0表是未跌倒;作为SVM的输出,训练SVM分类器;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
步骤4.4中,训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5。
本发明的有益效果是,
一种基于图像的人体跌倒判别方法,相比较传统的方法,克服了跌倒训练样本过于缺乏的问题,训练的样本图像有姿态图像和人体跌倒图像共同组成;所设计人体关键点检测深度学习网络模型可以应对一定程度上的视角及人体大小的变化,模型的鲁棒性强,判断的准确度高;针对图像进行姿态估计和摔倒检测,比起分析监控视频的方法,耗费的计算资源大大减少,提高了判断的速度。
附图说明
图1是本发明一种基于图像的人体跌倒判别方法的流程图;
图2是本发明一种基于图像的人体跌倒判别方法中基于人体运动链模型的人体姿态关键点及特征参数图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于图像的人体跌倒判别方法,流程图如图1所示,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像,编写Matlab软件进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;
人体运动链模型是将人体各关节简化成线条构成的,如图2所示,各关节之间的连接点称为关键点;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为真实标记的关键点坐标位置用向量形式表示为则关键点坐标回归损失Loss为公式(1)所示:
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batch size设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,建立人体运动链模型;根据图2中的关键点坐标,按照公式(2)到公式(5)提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4,具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
步骤4,训练SVM分类器,进行跌倒状态的判断;具体训练和判断步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态(1表示跌倒,0表是未跌倒)作为SVM的输出,训练SVM分类器;
训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
在MPII数据库中,首先对所建立的人体姿态检测的深度学习网络模型进行了效果验证,比较了不同关键点坐标回归损失函数下的关键点分类正确率,其中关键点坐标回归损失函数分别为均方差损失、光滑L1损失和本发明中的损失函数,三种损失函数下的关键点分类正确率分别是:77.57%、78.29%和79.00%,可以看出应用本发明中的损失函数取得了最好的结果;其次,针对跌倒状态判断进行了实验。实验中采用了本发明中提取的表征人体跌倒状态的4个特征,比较了不同分类器,包括线性SVM、径向基SVM、KNN、决策树及随机森林的判断效果,跌倒判断的正确率分别为:85.29%、100%、97.06%、97.06%及94.12%。可以看出,本发明的判断人体跌倒的4个特征参数具有非常高的判别性,同时本发明优化后的径向基SVM取得了最好的判断效果。

Claims (6)

1.一种基于图像的人体跌倒判别方法,其特征在于,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,基于人体运动链模型;提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4;
步骤4,训练SVM分类器,进行跌倒状态的判断。
2.根据权利要求1所述的一种基于图像的人体跌倒判别方法,其特征在于,所述步骤1中,14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部。
3.根据权利要求1所述的一种基于图像的人体跌倒判别方法,其特征在于,所述步骤2,具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为真实标记的关键点坐标位置用向量形式表示为则关键点坐标回归损失Loss为公式(1)所示:
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batchsize设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法。
4.根据权利要求1所述的一种基于图像的人体跌倒判别方法,其特征在于,所述步骤3中,提取表征人体跌倒状态的4个特征,具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
5.根据权利要求4所述的一种基于图像的人体跌倒判别方法,其特征在于,所述步骤4中,训练SVM分类器,进行跌倒状态的判断,具体步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态,其中,1表示跌倒,0表是未跌倒;作为SVM的输出,训练SVM分类器;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
6.根据权利要求5所述的一种基于图像的人体跌倒判别方法,其特征在于,所述步骤4.4中,训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5。
CN201910659529.7A 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法 Active CN110490080B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910659529.7A CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910659529.7A CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Publications (2)

Publication Number Publication Date
CN110490080A true CN110490080A (zh) 2019-11-22
CN110490080B CN110490080B (zh) 2023-05-09

Family

ID=68547517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910659529.7A Active CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Country Status (1)

Country Link
CN (1) CN110490080B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178134A (zh) * 2019-12-03 2020-05-19 广东工业大学 一种基于深度学习与网络压缩的摔倒检测方法
CN111209848A (zh) * 2020-01-03 2020-05-29 北京工业大学 一种基于深度学习的实时跌倒检测方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法
CN111461042A (zh) * 2020-04-07 2020-07-28 中国建设银行股份有限公司 跌倒检测方法及系统
CN111582158A (zh) * 2020-05-07 2020-08-25 济南浪潮高新科技投资发展有限公司 一种基于人体姿态估计的摔倒检测方法
CN112712042A (zh) * 2021-01-04 2021-04-27 电子科技大学 嵌入关键帧提取的行人重识别端到端网络架构
CN113506493A (zh) * 2021-06-11 2021-10-15 同济大学 一种基于虚实融合环境的化学实验教学系统
WO2022041484A1 (zh) * 2020-08-26 2022-03-03 歌尔股份有限公司 人体跌倒检测方法、装置、设备及存储介质
CN116863500A (zh) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统
CN117115862A (zh) * 2023-10-23 2023-11-24 四川泓宝润业工程技术有限公司 一种基于深度学习的多个人体的跌倒检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170344832A1 (en) * 2012-11-28 2017-11-30 Innovative Alert Systems Inc. System and method for event monitoring and detection
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN109033946A (zh) * 2018-06-08 2018-12-18 东南大学 融合方向图的人体姿态估计方法
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
WO2019036805A1 (en) * 2017-08-22 2019-02-28 Orpyx Medical Technologies Inc. METHOD AND SYSTEM FOR CLASSIFICATION OF ACTIVITIES
CN109857845A (zh) * 2019-01-03 2019-06-07 北京奇艺世纪科技有限公司 模型训练及数据检索方法、装置、终端及计算机可读存储介质
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170344832A1 (en) * 2012-11-28 2017-11-30 Innovative Alert Systems Inc. System and method for event monitoring and detection
WO2019036805A1 (en) * 2017-08-22 2019-02-28 Orpyx Medical Technologies Inc. METHOD AND SYSTEM FOR CLASSIFICATION OF ACTIVITIES
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN109033946A (zh) * 2018-06-08 2018-12-18 东南大学 融合方向图的人体姿态估计方法
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109857845A (zh) * 2019-01-03 2019-06-07 北京奇艺世纪科技有限公司 模型训练及数据检索方法、装置、终端及计算机可读存储介质
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
OLEINIKOV G,ET AL.: "Task-based control of articulated human pose detection for OpenVL", 《PROCEEDINGS OF THE APPLICATIONS OF COMPUTER VISION》 *
OLEINIKOV G,ET AL.: "Task-based control of articulated human pose detection for OpenVL", 《PROCEEDINGS OF THE APPLICATIONS OF COMPUTER VISION》, 31 December 2014 (2014-12-31) *
麻文刚等: "基于人体姿态的PSO-SVM特征向量跌倒检测方法", 《传感技术学报》 *
麻文刚等: "基于人体姿态的PSO-SVM特征向量跌倒检测方法", 《传感技术学报》, no. 10, 15 October 2017 (2017-10-15) *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178134A (zh) * 2019-12-03 2020-05-19 广东工业大学 一种基于深度学习与网络压缩的摔倒检测方法
CN111178134B (zh) * 2019-12-03 2023-05-30 广东工业大学 一种基于深度学习与网络压缩的摔倒检测方法
CN111209848A (zh) * 2020-01-03 2020-05-29 北京工业大学 一种基于深度学习的实时跌倒检测方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法
CN111461042A (zh) * 2020-04-07 2020-07-28 中国建设银行股份有限公司 跌倒检测方法及系统
CN111582158A (zh) * 2020-05-07 2020-08-25 济南浪潮高新科技投资发展有限公司 一种基于人体姿态估计的摔倒检测方法
WO2022041484A1 (zh) * 2020-08-26 2022-03-03 歌尔股份有限公司 人体跌倒检测方法、装置、设备及存储介质
CN112712042A (zh) * 2021-01-04 2021-04-27 电子科技大学 嵌入关键帧提取的行人重识别端到端网络架构
CN113506493A (zh) * 2021-06-11 2021-10-15 同济大学 一种基于虚实融合环境的化学实验教学系统
CN116863500A (zh) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统
CN116863500B (zh) * 2023-06-14 2024-05-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统
CN117115862A (zh) * 2023-10-23 2023-11-24 四川泓宝润业工程技术有限公司 一种基于深度学习的多个人体的跌倒检测方法

Also Published As

Publication number Publication date
CN110490080B (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN110490080A (zh) 一种基于图像的人体跌倒判别方法
CN105930767B (zh) 一种基于人体骨架的动作识别方法
US10417775B2 (en) Method for implementing human skeleton tracking system based on depth data
CN109863535B (zh) 运动识别装置、存储介质以及运动识别方法
CN104038738B (zh) 一种提取人体关节点坐标的智能监控系统及方法
CN107590452A (zh) 一种基于步态与人脸融合的身份识别方法及装置
CN103955699B (zh) 一种基于监控视频的实时摔倒事件检测方法
CN107908288A (zh) 一种面向人机交互的快速人体动作识别方法
CN114724241A (zh) 基于骨骼点距离的动作识别方法、装置、设备及存储介质
CN111753747B (zh) 基于单目摄像头和三维姿态估计的剧烈运动检测方法
CN108509897A (zh) 一种人体姿态识别方法和系统
CN109886241A (zh) 基于长短期记忆网络的驾驶员疲劳检测
Ahmed et al. Kinect-based gait recognition using sequences of the most relevant joint relative angles
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的系统及方法
CN105868779B (zh) 一种基于特征增强和决策融合的行为识别方法
CN110478883A (zh) 一种健身动作教学及矫正系统及方法
CN106548194B (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN109271918B (zh) 基于重心偏移模型区分平衡能力障碍人群的方法
CN110490109A (zh) 一种基于单目视觉的在线人体康复动作识别方法
CN106127733A (zh) 人体目标识别的方法和装置
US20230237694A1 (en) Method and system for detecting children's sitting posture based on face recognition of children
CN112116236A (zh) 一种基于人工智能的蹦床危险行为检测提醒方法
CN113975775B (zh) 可穿戴式惯性体感乒乓运动训练系统及其工作方法
Prathap et al. Gait recognition using skeleton data
CN104077591A (zh) 电脑智能自动监控系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230412

Address after: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant after: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

Address before: 710048 Shaanxi province Xi'an Beilin District Jinhua Road No. 5

Applicant before: XI'AN University OF TECHNOLOGY

Effective date of registration: 20230412

Address after: 444000, No. 666 Fifth Ring Avenue, Lingkong Port Economic and Technological Development Zone, Wuhan City, Hubei Province

Applicant after: Bi Shengyun (Wuhan) Information Technology Co.,Ltd.

Address before: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant before: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An Image Based Method for Identifying Human Falls

Effective date of registration: 20230921

Granted publication date: 20230509

Pledgee: Guanggu Branch of Wuhan Rural Commercial Bank Co.,Ltd.

Pledgor: Bi Shengyun (Wuhan) Information Technology Co.,Ltd.

Registration number: Y2023980058040

PE01 Entry into force of the registration of the contract for pledge of patent right