CN111507185A - 一种基于堆叠空洞卷积网络的摔倒检测方法 - Google Patents

一种基于堆叠空洞卷积网络的摔倒检测方法 Download PDF

Info

Publication number
CN111507185A
CN111507185A CN202010168176.3A CN202010168176A CN111507185A CN 111507185 A CN111507185 A CN 111507185A CN 202010168176 A CN202010168176 A CN 202010168176A CN 111507185 A CN111507185 A CN 111507185A
Authority
CN
China
Prior art keywords
stack
convolution
network
human body
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010168176.3A
Other languages
English (en)
Other versions
CN111507185B (zh
Inventor
姜明
杨海杰
李鹏飞
张旻
汤景凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010168176.3A priority Critical patent/CN111507185B/zh
Publication of CN111507185A publication Critical patent/CN111507185A/zh
Application granted granted Critical
Publication of CN111507185B publication Critical patent/CN111507185B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于堆叠空洞卷积网络的摔倒检测方法。本发明步骤进行:1、准备摔倒行为训练集;2、通过目标检测算法提取摔倒行为的人物个体,得到新的训练集;3、将训练集的每个人物个体制作关节点热图,并且根据训练集人工定义的摔倒行为的骨骼点分布;4、构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络;5、用训练好的堆叠空洞卷积网络检测连续几帧采集到的图像,得到骨骼点的分布结果;将连续几帧的骨骼点分布与人工定义的摔倒行为骨骼点分布进行相似度计算,若小于阈值,则判定为摔倒行为。本发明能够在复杂的环境下实时检测摔倒行为,具有较好的鲁棒性。

Description

一种基于堆叠空洞卷积网络的摔倒检测方法
技术领域
本发明属于计算机视觉和模式识别技术领域,具体涉及到人体动作(摔倒)识别,具体是一种基于堆叠空洞卷积网络的摔倒检测方法。本发明应用于各种类型社区场景下精确检测摔倒行为。
背景技术
随着社会的不断进步,全球的老龄化呈上升趋势,老年人的医疗健康引起广泛关注,据调查统计,摔倒已经成为导致65岁以上老年人意外死亡主要原因。老年人摔倒后,如能得到及时的救助,可大大降低死亡率。
目前摔倒检测的方法主要有基于穿戴式传感器和基于环境传感器的方法。其中前者主要原理是对人体的姿态进行检测,采用加速度传感器、陀螺仪等来根据加速度计数据提取IF-THEN规则来判断是否摔倒。但穿戴设备用户体验较差,不方便日常的活动。而对于基于环境传感器的摔倒检测方法,主要原理是在检测人体目标的活动区域内安装传感器,但是不可控的因素较多,投入成本高。
发明内容
本发明的目的在于针对已有技术的不足,提出一种能够适应复杂场景下的基于堆叠空洞卷积网络摔倒检测方法。
本发明是一种基于堆叠空洞卷积网络的摔倒检测方法,包括如下步骤:
步骤1、准备摔倒行为训练集:从多个角度、多个人物和多个场景采集视频图像数据,添加到原始人体姿态数据集中,获取新的人体姿态数据集Ⅰ,实现数据增强;
所述的原始人体姿态数据集中不含有摔倒行为图像;
步骤2、通过目标检测算法提取步骤1获取的人体姿态数据集Ⅰ的每张图像的人物个体,摔倒行为的人物个体,得到新的训练集;
所述的新的训练集中行为的标注类别仅包含摔倒和非摔倒;
步骤3、将训练集的每个人物个体制作关节点热图,并且根据训练集人工定义的摔倒行为的骨骼点分布;
步骤4、构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络;
步骤5、用训练好的堆叠空洞卷积网络检测连续几帧采集到的图像,得到骨骼点的分布结果;将连续几帧的骨骼点分布与人工定义的摔倒行为骨骼点分布进行相似度计算,若小于阈值,则判定为摔倒行为。
本发明与现有技术相比具有以下优点:
第一:本发明采用了空洞卷积网络,有效避免了因重复上下采样而造成的信息损失,空洞卷积能够在保持分辨率不变的情况下同时增大感受野,学习到更多的细节特征。
第二:本发明采用了堆叠空洞卷积网络,在每次堆叠的过程中,融合了不同尺度的特征,达到了更好的效果。
附图说明
图1是本发明的流程图
图2是空洞卷积原理图
图3是堆叠空洞卷积网络模型图
具体实施方式:
下面结合附图对本发明做详细描述。
实施例1
在复杂场景中,对摔倒行为的检测设备成本大,用户体验差,不可控因素较多。针对目前存在的问题,本发明提出了一种基于堆叠空洞卷积的摔倒检测方法,流程图参照图1,包括如下步骤:
本发明一种基于堆叠空洞卷积网络的摔倒检测方法,按照如下步骤进行:
步骤1、准备摔倒行为训练集:从多个角度、多个人物和多个场景采集视频图像数据,添加到原始人体姿态数据集中,获取新的人体姿态数据集Ⅰ,实现数据增强;
所述的原始人体姿态数据集中不含有摔倒行为图像;
步骤2、通过目标检测算法提取步骤1获取的人体姿态数据集Ⅰ的每张图像的人物个体,摔倒行为的人物个体,得到新的训练集;
所述的新的训练集中行为的标注类别仅包含摔倒和非摔倒;
步骤3、将训练集的每个人物个体制作关节点热图,并且根据训练集人工定义的摔倒行为的骨骼点分布;
步骤4、构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络;
步骤5、用训练好的堆叠空洞卷积网络检测连续几帧采集到的图像,得到骨骼点的分布结果;将连续几帧的骨骼点分布与人工定义的摔倒行为骨骼点分布进行相似度计算,若小于阈值,则判定为摔倒行为。
进一步的,所述的步骤(1)所述的具体过程如下:
1.1先在一个场景的不同角度放置摄像头,对单个人物进行拍摄,视频中的人物模仿各种摔倒的过程;
1.2在不同的场景下对不同的人物个体重复步骤1.1,获得不同场景不同角度不同人物摔倒的视频数据集;
1.3将视频数据集的每一帧转化为图片,根据需要人工删除部分相邻帧的相似图片,减少数据集的规模,最终获得不同场景不同角度不同人物摔倒的摔倒数据集;将摔倒数据集添加到原始人体姿态数据集中,获取新的人体姿态数据集Ⅰ,实现数据增强。
进一步的,所述的步骤(3)所述具体实现过程如下:
3.1针对训练集中行为标注类别为摔倒的所有图像,先人工单独标注每张图像的各个骨骼点,获得摔倒数据集Ⅰ;
3.2对于训练集中的所有图像,以每个骨骼点坐标为中心,生成该骨骼点对应的高斯热图,对于图像中缺失的骨骼点生成对应的空白图;
3.3根据获得的摔倒数据集Ⅰ,将身体部位对应的骨骼点进行连接,获得多种摔倒姿态,建立摔倒姿态数据库。
进一步的,所述的步骤(4)所述构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络的过程如下:
4.1构建堆叠空洞卷积网络
堆叠空洞卷积网络由多个并联空洞卷积网络堆叠而成,每个并联空洞卷积网络包括多个具有不同步长卷积核的空洞卷积网络,假设第i个并联空洞卷积网络的第j次空洞卷积操作的特征输出为yij,卷积核k,则空洞卷积操作如下:
Figure BDA0002408206670000041
同理第i个并联空洞卷积网络的第j+1空洞卷积操作如下:
Figure BDA0002408206670000042
其中Θ表示卷积操作,+表示特征级联,r表示空洞卷积核的步长,即卷积核的间隔数量,普通的卷积是空洞卷积的一个特殊情况,当r=1的时候,即是普通的卷积核,通过设置不同的r来获得不同大小的感受野;
4.2训练堆叠空洞卷积网络
4.2.1将预训练好的深度卷积网络模型中的参数加载到堆叠空洞卷积网络,完成堆叠空洞卷积网络的参数初始化;
4.2.2将步骤2获取的训练集输入到初始化后的堆叠空洞卷积网络中,采用Adam优化器进行训练,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳,最终得到训练好的堆叠空洞卷积网络;
4.2.3判断训练好的堆叠空洞卷积网络的全局损失值是否小于设定阈值,若是则结束训练,得到最优堆叠空洞卷积网络;若不是则返回步骤4.2.2。
进一步的,所述的步骤5所述过程实现如下:
5.1把需要进行人体摔倒检测的连续几帧采集到的图像输入训练好的堆叠空洞卷积网络,得到骨骼点分布;将身体部位对应的骨骼点进行连接,得到人体姿态图像;
5.2将得到的人体姿态图像与摔倒姿态数据库中的图像做相似度计算,若相似度满足阈值要求,则判定为摔倒,相似度公式如下:
Figure BDA0002408206670000051
其中lk表示第k个骨骼边长(两个骨骼点之间的距离),p表示检测的人体姿态图像结果,g表示摔倒姿态数据库中的结果,K表示所有骨骼边的个数,L越小,相似度越大。
实施例2
本发明空洞卷积的原理如图2所示:
空洞卷积网络目前已经应用于语义分割领域,该方面实验说明空洞卷积特别对于捕捉长距离特征有比较好的效果,而人体姿态检测恰恰需要提取一些长距离特征,比如手臂(肩与手腕两个骨骼点),空洞卷积,从字面上理解,是在标准的卷积层里注入空洞,从此来增加感受野。相比原来正常的卷积层,空洞卷积多了超参数称之为dilation rate(膨胀率),指的是卷积核的间隔数量(eg.正常的卷积时dilatation rate=1)
实施例3
本发明堆叠空洞卷积网络结构如图3所示:
所谓堆叠空洞卷积网络指的是网络主体是由多个子网络(空洞卷积网络)构成,每个堆叠子模块由多个具有不同步长的空洞卷积核的空洞卷积网络组成。因此可以学习到不同尺度的特征,进而提高准确率。但是随着空洞卷积核的增大,有效卷积核权重的数量就会变小,比如特征图为65*65,当空洞卷积rate接近于特征图大小时,这时的卷积操作就相当于简单的1*1卷积核的操作,因为只有中心的卷积核为有效权重,为了解决这个问题,我们在模型的最后一层特征图采用全局平局池化,将得到的图像级特征输入到一个1×1256个通道的卷积层(加入batch normalization)中,然后将特征进行双线性上采样(bilinearlyupsample)到特定的空间维度。最后连接所有分支的最终特征,输入到另一个1×1卷积(所有的通道个数也为256,并加入batch normalization),再进入最终的1×1卷积,得到结果。

Claims (5)

1.一种基于堆叠空洞卷积网络的摔倒检测方法,其特征在于按照如下步骤进行:
步骤1、准备摔倒行为训练集:从多个角度、多个人物和多个场景采集视频图像数据,添加到原始人体姿态数据集中,获取新的人体姿态数据集Ⅰ,实现数据增强;
所述的原始人体姿态数据集中不含有摔倒行为图像;
步骤2、通过目标检测算法提取步骤1获取的人体姿态数据集Ⅰ的每张图像的人物个体,摔倒行为的人物个体,得到新的训练集;
所述的新的训练集中行为的标注类别仅包含摔倒和非摔倒;
步骤3、将训练集的每个人物个体制作关节点热图,并且根据训练集人工定义的摔倒行为的骨骼点分布;
步骤4、构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络;
步骤5、用训练好的堆叠空洞卷积网络检测连续几帧采集到的图像,得到骨骼点的分布结果;将连续几帧的骨骼点分布与人工定义的摔倒行为骨骼点分布进行相似度计算,若小于阈值,则判定为摔倒行为。
2.根据权利要求1所述的一种基于堆叠空洞卷积网络的摔倒检测方法,其特征在于步骤(1)所述的具体过程如下:
1.1先在一个场景的不同角度放置摄像头,对单个人物进行拍摄,视频中的人物模仿各种摔倒的过程;
1.2在不同的场景下对不同的人物个体重复步骤1.1,获得不同场景不同角度不同人物摔倒的视频数据集;
1.3将视频数据集的每一帧转化为图片,根据需要人工删除部分相邻帧的相似图片,减少数据集的规模,最终获得不同场景不同角度不同人物摔倒的摔倒数据集;将摔倒数据集添加到原始人体姿态数据集中,获取新的人体姿态数据集Ⅰ,实现数据增强。
3.根据权利要求2所述的一种基于堆叠空洞卷积网络的摔倒检测方法,其特征在于步骤(3)所述具体实现过程如下:
3.1针对训练集中行为标注类别为摔倒的所有图像,先人工单独标注每张图像的各个骨骼点,获得摔倒数据集Ⅰ;
3.2对于训练集中的所有图像,以每个骨骼点坐标为中心,生成该骨骼点对应的高斯热图,对于图像中缺失的骨骼点生成对应的空白图;
3.3根据获得的摔倒数据集Ⅰ,将身体部位对应的骨骼点进行连接,获得多种摔倒姿态,建立摔倒姿态数据库。
4.根据权利要求3所述的一种基于堆叠空洞卷积网络的摔倒检测方法,其特征在于步骤(4)所述构建堆叠空洞卷积网络并且训练堆叠空洞卷积网络的过程如下:
4.1构建堆叠空洞卷积网络
堆叠空洞卷积网络由多个并联空洞卷积网络堆叠而成,每个并联空洞卷积网络包括多个具有不同步长卷积核的空洞卷积网络,假设第i个并联空洞卷积网络的第j次空洞卷积操作的特征输出为yij,卷积核k,则空洞卷积操作如下:
Figure FDA0002408206660000022
同理第i个并联空洞卷积网络的第j+1空洞卷积操作如下:
Figure FDA0002408206660000021
其中Θ表示卷积操作,+表示特征级联,r表示空洞卷积核的步长,即卷积核的间隔数量,普通的卷积是空洞卷积的一个特殊情况,当r=1的时候,即是普通的卷积核,通过设置不同的r来获得不同大小的感受野;
4.2训练堆叠空洞卷积网络
4.2.1将预训练好的深度卷积网络模型中的参数加载到堆叠空洞卷积网络,完成堆叠空洞卷积网络的参数初始化;
4.2.2将步骤2获取的训练集输入到初始化后的堆叠空洞卷积网络中,采用Adam优化器进行训练,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳,最终得到训练好的堆叠空洞卷积网络;
4.2.3判断训练好的堆叠空洞卷积网络的全局损失值是否小于设定阈值,若是则结束训练,得到最优堆叠空洞卷积网络;若不是则返回步骤4.2.2。
5.根据权利要求4所述的一种基于堆叠空洞卷积网络的摔倒检测方法,其特征在于步骤5所述过程实现如下:
5.1把需要进行人体摔倒检测的连续几帧采集到的图像输入训练好的堆叠空洞卷积网络,得到骨骼点分布;将身体部位对应的骨骼点进行连接,得到人体姿态图像;
5.2将得到的人体姿态图像与摔倒姿态数据库中的图像做相似度计算,若相似度满足阈值要求,则判定为摔倒,相似度公式如下:
Figure FDA0002408206660000031
其中lk表示第k个骨骼边长(两个骨骼点之间的距离),p表示检测的人体姿态图像结果,g表示摔倒姿态数据库中的结果,K表示所有骨骼边的个数,L越小,相似度越大。
CN202010168176.3A 2020-03-11 2020-03-11 一种基于堆叠空洞卷积网络的摔倒检测方法 Active CN111507185B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010168176.3A CN111507185B (zh) 2020-03-11 2020-03-11 一种基于堆叠空洞卷积网络的摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010168176.3A CN111507185B (zh) 2020-03-11 2020-03-11 一种基于堆叠空洞卷积网络的摔倒检测方法

Publications (2)

Publication Number Publication Date
CN111507185A true CN111507185A (zh) 2020-08-07
CN111507185B CN111507185B (zh) 2020-11-24

Family

ID=71874267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010168176.3A Active CN111507185B (zh) 2020-03-11 2020-03-11 一种基于堆叠空洞卷积网络的摔倒检测方法

Country Status (1)

Country Link
CN (1) CN111507185B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392765A (zh) * 2021-06-15 2021-09-14 广东工业大学 一种基于机器视觉的摔倒检测方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805093A (zh) * 2018-06-19 2018-11-13 华南理工大学 基于深度学习的手扶电梯乘客摔倒检测算法
CN109086807A (zh) * 2018-07-16 2018-12-25 哈尔滨工程大学 一种基于空洞卷积堆叠网络的半监督光流学习方法
CN109376571A (zh) * 2018-08-03 2019-02-22 西安电子科技大学 基于变形卷积的人体姿态估计方法
CN109978032A (zh) * 2019-03-15 2019-07-05 西安电子科技大学 基于空间金字塔空洞卷积网络的桥梁裂缝检测方法
CN110163059A (zh) * 2018-10-30 2019-08-23 腾讯科技(深圳)有限公司 多人姿态识别方法、装置及电子设备
CN110263634A (zh) * 2019-05-13 2019-09-20 平安科技(深圳)有限公司 监控目标的监控方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805093A (zh) * 2018-06-19 2018-11-13 华南理工大学 基于深度学习的手扶电梯乘客摔倒检测算法
CN109086807A (zh) * 2018-07-16 2018-12-25 哈尔滨工程大学 一种基于空洞卷积堆叠网络的半监督光流学习方法
CN109376571A (zh) * 2018-08-03 2019-02-22 西安电子科技大学 基于变形卷积的人体姿态估计方法
CN110163059A (zh) * 2018-10-30 2019-08-23 腾讯科技(深圳)有限公司 多人姿态识别方法、装置及电子设备
CN109978032A (zh) * 2019-03-15 2019-07-05 西安电子科技大学 基于空间金字塔空洞卷积网络的桥梁裂缝检测方法
CN110263634A (zh) * 2019-05-13 2019-09-20 平安科技(深圳)有限公司 监控目标的监控方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIANG-CHIEH CHEN ETC.: ""Rethinking Atrous Convolution for Semantic Image Segmentation"", 《ARXIV:1706.05587V3[CS.CV]》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392765A (zh) * 2021-06-15 2021-09-14 广东工业大学 一种基于机器视觉的摔倒检测方法和系统
CN113392765B (zh) * 2021-06-15 2023-08-01 广东工业大学 一种基于机器视觉的摔倒检测方法和系统

Also Published As

Publication number Publication date
CN111507185B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN108229381B (zh) 人脸图像生成方法、装置、存储介质和计算机设备
CN111160533B (zh) 一种基于跨分辨率知识蒸馏的神经网络加速方法
CN109522850B (zh) 一种基于小样本学习的动作相似度评估方法
CN108520202B (zh) 基于变分球面投影的对抗鲁棒性图像特征提取方法
CN110135282B (zh) 一种基于深度卷积神经网络模型的考生回头抄袭作弊检测方法
CN108416266A (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN106355147A (zh) 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN112001278A (zh) 一种基于结构化知识蒸馏的人群计数模型及其方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN109902565B (zh) 多特征融合的人体行为识别方法
CN104794449B (zh) 基于人体hog特征的步态能量图获取及身份识别方法
CN109919085B (zh) 基于轻量型卷积神经网络的人人交互行为识别方法
CN110688929A (zh) 一种人体骨架关节点定位方法及装置
CN111507184B (zh) 基于并联空洞卷积和身体结构约束的人体姿态检测方法
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法
CN112581540A (zh) 一种大场景下基于人体姿态估计的相机标定方法
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN111488857A (zh) 一种三维人脸识别模型训练方法及装置
CN112489129A (zh) 位姿识别模型训练方法、装置、位姿识别方法和终端设备
CN111222459B (zh) 一种视角无关的视频三维人体姿态识别方法
CN111507185B (zh) 一种基于堆叠空洞卷积网络的摔倒检测方法
CN109522865A (zh) 一种基于深度神经网络的特征加权融合人脸识别方法
CN110705355A (zh) 一种基于关键点约束的人脸姿态估计方法
CN112613430B (zh) 一种基于深度迁移学习的步态识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20200807

Assignee: Hangzhou Greentown Information Technology Co.,Ltd.

Assignor: HANGZHOU DIANZI University

Contract record no.: X2023330000109

Denomination of invention: A Method of Falls Detection Based on Stacked Holes Convolutional Network

Granted publication date: 20201124

License type: Common License

Record date: 20230311

EE01 Entry into force of recordation of patent licensing contract