CN110490080B - 一种基于图像的人体跌倒判别方法 - Google Patents

一种基于图像的人体跌倒判别方法 Download PDF

Info

Publication number
CN110490080B
CN110490080B CN201910659529.7A CN201910659529A CN110490080B CN 110490080 B CN110490080 B CN 110490080B CN 201910659529 A CN201910659529 A CN 201910659529A CN 110490080 B CN110490080 B CN 110490080B
Authority
CN
China
Prior art keywords
human body
falling
training
key point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910659529.7A
Other languages
English (en)
Other versions
CN110490080A (zh
Inventor
张二虎
孙羹尧
段敬红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bi Shengyun Wuhan Information Technology Co ltd
Xi'an Huaqi Zhongxin Technology Development Co ltd
Original Assignee
Bi Shengyun Wuhan Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bi Shengyun Wuhan Information Technology Co ltd filed Critical Bi Shengyun Wuhan Information Technology Co ltd
Priority to CN201910659529.7A priority Critical patent/CN110490080B/zh
Publication of CN110490080A publication Critical patent/CN110490080A/zh
Application granted granted Critical
Publication of CN110490080B publication Critical patent/CN110490080B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像的人体跌倒判别方法,该方法首先对人体姿态数据库进行扩充,并添加真实人体跌倒图像;然后设计了一种人体姿态检测的深度学习网络模型,提供了一种高效的姿态关键点坐标回归损失函数;进一步,基于人体运动链模型提取表征人体跌倒状态判断的特征参数;最后通过SVM模型对人体跌倒进行判断。本发明基于单帧图像判断人体跌倒状态,具有关键点定位精度高、判断准确且快速的特点。

Description

一种基于图像的人体跌倒判别方法
技术领域
本发明属于智能视频监控技术领域,具体涉及一种基于图像的人体跌倒判别方法。
背景技术
对于独自居住的老人而言,发生意外摔倒如果不能得到及时的救助,将会出现严重后果。如果能在摔倒行为发生后立刻检测出来并通知救援人员,则将大幅度减少老年人摔倒后进一步发生危险程度概率。因此,及时准确的对老年人跌倒状态进行判断,具有重要的研究意义和实际应用价值。
目前,针对室内出现的单人摔倒状态检测,有三种主流方法。第一种是基于传感器的方法,具体应用为老人的智能监护手环,通过传感器感应到佩戴者运动速度的变化,来判断有没有摔倒情况发生,但是由于人体运动的本身的复杂性,这种方法的检测准确度不高,没有得到广泛的认可。第二是基于Kinect骨架追踪的摔倒检测方法,使用Kinect拍摄视频,重建每一帧人体运动的骨架模型,通过人体质心点的运动速度,来判断是否发生了摔倒行为,这种做法要求具备Kinect骨架追踪相机,使用成本过高且存在着遮挡的情况无法处理。第三种方法是基于对视频流进行时序分析的方法,通过提取加速度时间序列并训练模型,然后通过分析输入视频与模型的匹配程度来判断发生跌倒行为的概率,这种方法的缺点在于能够用于建立模型的人体行为视频序列数量比较少,模型没有足够的泛化能力。
发明内容
本发明的目的是提供一种基于图像的人体跌倒判别方法,解决了现有技术中存在的检测不够准确、模型鲁棒性不够强及检测速度较慢的问题。
本发明所采用的技术方案是,一种基于图像的人体跌倒判别方法,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,基于人体运动链模型;提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4;
步骤4,训练SVM分类器,进行跌倒状态的判断。
本发明的特点还在于,
步骤1中,14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部。
步骤2,具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为
Figure BDA0002138064400000031
真实标记的关键点坐标位置用向量形式表示为
Figure BDA0002138064400000032
则关键点坐标回归损失Loss为公式(1)所示:
Figure BDA0002138064400000033
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
Figure BDA0002138064400000034
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batch size设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法。
步骤3中,提取表征人体跌倒状态的4个特征,具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
Figure BDA0002138064400000041
Figure BDA0002138064400000042
Figure BDA0002138064400000043
Figure BDA0002138064400000044
步骤4中,训练SVM分类器,进行跌倒状态的判断,具体步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态,其中,1表示跌倒,0表是未跌倒;作为SVM的输出,训练SVM分类器;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
步骤4.4中,训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5。
本发明的有益效果是,
一种基于图像的人体跌倒判别方法,相比较传统的方法,克服了跌倒训练样本过于缺乏的问题,训练的样本图像有姿态图像和人体跌倒图像共同组成;所设计人体关键点检测深度学习网络模型可以应对一定程度上的视角及人体大小的变化,模型的鲁棒性强,判断的准确度高;针对图像进行姿态估计和摔倒检测,比起分析监控视频的方法,耗费的计算资源大大减少,提高了判断的速度。
附图说明
图1是本发明一种基于图像的人体跌倒判别方法的流程图;
图2是本发明一种基于图像的人体跌倒判别方法中基于人体运动链模型的人体姿态关键点及特征参数图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于图像的人体跌倒判别方法,流程图如图1所示,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像,编写Matlab软件进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;
人体运动链模型是将人体各关节简化成线条构成的,如图2所示,各关节之间的连接点称为关键点;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为
Figure BDA0002138064400000071
真实标记的关键点坐标位置用向量形式表示为
Figure BDA0002138064400000072
则关键点坐标回归损失Loss为公式(1)所示:
Figure BDA0002138064400000073
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
Figure BDA0002138064400000074
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batch size设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,建立人体运动链模型;根据图2中的关键点坐标,按照公式(2)到公式(5)提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4,具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
Figure BDA0002138064400000081
Figure BDA0002138064400000082
Figure BDA0002138064400000083
Figure BDA0002138064400000084
步骤4,训练SVM分类器,进行跌倒状态的判断;具体训练和判断步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态(1表示跌倒,0表是未跌倒)作为SVM的输出,训练SVM分类器;
训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
在MPII数据库中,首先对所建立的人体姿态检测的深度学习网络模型进行了效果验证,比较了不同关键点坐标回归损失函数下的关键点分类正确率,其中关键点坐标回归损失函数分别为均方差损失、光滑L1损失和本发明中的损失函数,三种损失函数下的关键点分类正确率分别是:77.57%、78.29%和79.00%,可以看出应用本发明中的损失函数取得了最好的结果;其次,针对跌倒状态判断进行了实验。实验中采用了本发明中提取的表征人体跌倒状态的4个特征,比较了不同分类器,包括线性SVM、径向基SVM、KNN、决策树及随机森林的判断效果,跌倒判断的正确率分别为:85.29%、100%、97.06%、97.06%及94.12%。可以看出,本发明的判断人体跌倒的4个特征参数具有非常高的判别性,同时本发明优化后的径向基SVM取得了最好的判断效果。

Claims (1)

1.一种基于图像的人体跌倒判别方法,其特征在于,具体按照以下步骤实施:
步骤1、对姿态检测库MPII中的图像进行预处理,包括水平镜像翻转、尺寸缩放、旋转,扩充原始单人姿态数据;在收集到的真实跌倒图像中手工标记出人体运动链模型中的14个关键点的坐标位置,将其加入到MPII数据库中;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2、设计人体姿态检测的深度学习网络模型,对所设计的网络进行训练;具体步骤如下:
步骤2.1,建立人体姿态检测的深度学习网络模型;
深度学习网络模型包括:1个卷积层、1个最大池化层、4个残差模块及1个预测层;
其中,预测层包括14个关键点类别的预测和14个关键点的坐标位置预测;14个关键点包括左脚踝、右脚踝、左膝盖、右膝盖、左髋关节、右髋关节、左手腕、右手腕、左手肘、右手肘、左肩膀、右肩膀、颈部及头部;
步骤2.2,对步骤2.1的人体姿态检测的深度学习网络模型进行训练,训练时的网络损失函数为:关键点定位损失与关键点坐标回归损失之和,其中关键点定位损失采用交叉熵损失函数;
设网络预测的关键点坐标位置用向量形式表示为
Figure FDA0003732642300000021
真实标记的关键点坐标位置用向量形式表示为
Figure FDA0003732642300000022
则关键点坐标回归损失Loss为公式(1)所示:
Figure FDA0003732642300000023
式(1)中,d为预测的关键点与真实标记的关键点的坐标误差的绝对值之和,其计算公式如下:
Figure FDA0003732642300000024
步骤2.3,对所建立的人体姿态检测的深度学习网络模型进行训练,训练时的Batchsize设置为1,初始学习率设置为0.1,训练时采用随机梯度下降法;
步骤3、将人体看作成一个由关节连接起来的铰链式物体,基于人体运动链模型;提取表征人体跌倒状态的4个特征angle1、angle2、angle3、angle4;具体如下:
根据人体运动链模型上的14个关键点,利用步骤2训练好的人体姿态检测深度学习网络模型可以得到这14个关键点的坐标数据,记为(xi,yi)(i=1,2,…,14),则人体跌倒状态的4个特征angle1、angle2、angle3、angle4,如式(2)-式(5)所示:
Figure FDA0003732642300000025
Figure FDA0003732642300000026
Figure FDA0003732642300000031
Figure FDA0003732642300000032
步骤4,训练SVM分类器,进行跌倒状态的判断;具体步骤如下:
步骤4.1,将步骤1扩充后的MPII数据库中的图像集按照4:1的方式分成训练集和测试集;
步骤4.2,使用步骤2设计人体姿态检测的深度学习网络模型,提取训练集和测试集中人体图像的14个关键点;
步骤4.3,使用步骤3的方法,提取训练集和测试集中表征人体跌倒状态的4个特征参数;
步骤4.4,使用LIBSVM,建立SVM分类器,用步骤4.3中提取到的训练集中的跌倒状态的4个特征参数,作为SVM的输入,训练集中图像的跌倒状态,其中,1表示跌倒,0表是未跌倒;作为SVM的输出,训练SVM分类器;
训练时的参数设置为:SVM的核函数采用径向基函数;径向基函数的参数σ取值为0.5;
步骤4.5,对于输入的需要判断跌倒状态的图像,使用步骤2设计人体姿态检测的深度学习网络模型提取该图像的14个关键点;使用步骤3的方法,提取表征人体跌倒状态的4个特征参数;使用步骤4.4得到的SVM分期器,将提取表征人体跌倒状态的4个特征参数送入该SVM分类器,由该分类器的输出即可得到是否跌倒的判断。
CN201910659529.7A 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法 Active CN110490080B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910659529.7A CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910659529.7A CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Publications (2)

Publication Number Publication Date
CN110490080A CN110490080A (zh) 2019-11-22
CN110490080B true CN110490080B (zh) 2023-05-09

Family

ID=68547517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910659529.7A Active CN110490080B (zh) 2019-07-22 2019-07-22 一种基于图像的人体跌倒判别方法

Country Status (1)

Country Link
CN (1) CN110490080B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178134B (zh) * 2019-12-03 2023-05-30 广东工业大学 一种基于深度学习与网络压缩的摔倒检测方法
CN111209848B (zh) * 2020-01-03 2023-07-21 北京工业大学 一种基于深度学习的实时跌倒检测方法
CN111274954B (zh) * 2020-01-20 2022-03-15 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法
CN111461042A (zh) * 2020-04-07 2020-07-28 中国建设银行股份有限公司 跌倒检测方法及系统
CN111582158A (zh) * 2020-05-07 2020-08-25 济南浪潮高新科技投资发展有限公司 一种基于人体姿态估计的摔倒检测方法
CN111899470B (zh) * 2020-08-26 2022-07-22 歌尔科技有限公司 人体跌倒检测方法、装置、设备及存储介质
CN112712042B (zh) * 2021-01-04 2022-04-29 电子科技大学 嵌入关键帧提取的行人重识别端到端网络架构
CN113506493A (zh) * 2021-06-11 2021-10-15 同济大学 一种基于虚实融合环境的化学实验教学系统
CN116863500B (zh) * 2023-06-14 2024-05-10 中国人民解放军总医院第一医学中心 一种患者离床监控方法和系统
CN117115862A (zh) * 2023-10-23 2023-11-24 四川泓宝润业工程技术有限公司 一种基于深度学习的多个人体的跌倒检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036805A1 (en) * 2017-08-22 2019-02-28 Orpyx Medical Technologies Inc. METHOD AND SYSTEM FOR CLASSIFICATION OF ACTIVITIES

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2834877A1 (en) * 2012-11-28 2014-05-28 Henry Leung System and method for event monitoring and detection
CN108960056B (zh) * 2018-05-30 2022-06-03 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN109033946A (zh) * 2018-06-08 2018-12-18 东南大学 融合方向图的人体姿态估计方法
CN109117831B (zh) * 2018-09-30 2021-10-12 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109857845B (zh) * 2019-01-03 2021-06-22 北京奇艺世纪科技有限公司 模型训练及数据检索方法、装置、终端及计算机可读存储介质
CN109919132B (zh) * 2019-03-22 2021-04-23 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036805A1 (en) * 2017-08-22 2019-02-28 Orpyx Medical Technologies Inc. METHOD AND SYSTEM FOR CLASSIFICATION OF ACTIVITIES

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Task-based control of articulated human pose detection for OpenVL;Oleinikov G,et al.;《Proceedings of the Applications of Computer Vision》;20141231;全文 *
基于人体姿态的PSO-SVM特征向量跌倒检测方法;麻文刚等;《传感技术学报》;20171015(第10期);全文 *

Also Published As

Publication number Publication date
CN110490080A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN110490080B (zh) 一种基于图像的人体跌倒判别方法
Hussain et al. Hand gesture recognition using deep learning
CN105550678B (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN102074034B (zh) 多模型人体运动跟踪方法
JP6025845B2 (ja) オブジェクト姿勢検索装置及び方法
CN112395977B (zh) 基于身体轮廓和腿部关节骨架的哺乳动物姿态识别方法
CN108647663B (zh) 基于深度学习和多层次图结构模型的人体姿态估计方法
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
Yang et al. Hand gesture recognition: An overview
CN110991274B (zh) 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN102622766A (zh) 多目标优化的多镜头人体运动跟踪方法
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN101894278A (zh) 基于变结构多模型的人体运动跟踪方法
CN115497596B (zh) 一种基于物联网的人体运动过程姿态纠正方法及系统
CN110135237B (zh) 一种手势识别方法
CN107742095A (zh) 基于卷积神经网络的汉语手语识别方法
Rao et al. Neural network classifier for continuous sign language recognition with selfie video
CN112163564A (zh) 基于人体关键点行为识别与lstm的跌倒预判方法
CN107122711A (zh) 一种基于角度径向变换和质心的夜视视频步态识别方法
CN109919036A (zh) 基于时域分析深度网络的工人作业姿势分类方法
KR20120089948A (ko) Mhi의 형태 정보를 이용한 실시간 동작 인식시스템 및 실시간 동작 인식 방법
CN115273150A (zh) 基于人体姿态估计的安全帽佩戴的新型识别方法及系统
Adhikari et al. A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform.
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法
CN113470073A (zh) 一种基于深度学习的动物中心追踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230412

Address after: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant after: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

Address before: 710048 Shaanxi province Xi'an Beilin District Jinhua Road No. 5

Applicant before: XI'AN University OF TECHNOLOGY

Effective date of registration: 20230412

Address after: 444000, No. 666 Fifth Ring Avenue, Lingkong Port Economic and Technological Development Zone, Wuhan City, Hubei Province

Applicant after: Bi Shengyun (Wuhan) Information Technology Co.,Ltd.

Address before: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant before: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An Image Based Method for Identifying Human Falls

Effective date of registration: 20230921

Granted publication date: 20230509

Pledgee: Guanggu Branch of Wuhan Rural Commercial Bank Co.,Ltd.

Pledgor: Bi Shengyun (Wuhan) Information Technology Co.,Ltd.

Registration number: Y2023980058040

PE01 Entry into force of the registration of the contract for pledge of patent right