CN113269033A - 基于视频序列的跌倒检测算法 - Google Patents

基于视频序列的跌倒检测算法 Download PDF

Info

Publication number
CN113269033A
CN113269033A CN202110389790.7A CN202110389790A CN113269033A CN 113269033 A CN113269033 A CN 113269033A CN 202110389790 A CN202110389790 A CN 202110389790A CN 113269033 A CN113269033 A CN 113269033A
Authority
CN
China
Prior art keywords
algorithm
human
video sequence
human body
falling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110389790.7A
Other languages
English (en)
Inventor
黎斌
陈金浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Hanyuan Technology Co ltd
Original Assignee
Nanjing Hanyuan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Hanyuan Technology Co ltd filed Critical Nanjing Hanyuan Technology Co ltd
Priority to CN202110389790.7A priority Critical patent/CN113269033A/zh
Publication of CN113269033A publication Critical patent/CN113269033A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及电力安全施工技术领域,尤其为基于视频序列的跌倒检测算法,其算法包括如下步骤:采集配电房监控摄像头下施工人员的人体和人头数据,图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重,在预测过程中,使用yolov3预测图片中的目标;本发明的算法无需依赖于海量的跌倒数据集,人体和人头检测模型训练集只需要使用开源数据集即可训练算法中的检测器,且跌倒动作检测模块中的特征提取只需典型应用场景中的小批量视频序列即可获得,同时本算法的人体和人头部位检测模型经过模型剪枝后较为轻量级,使得该算法适用于嵌入式产品。

Description

基于视频序列的跌倒检测算法
技术领域
本发明涉及电力安全施工技术领域,具体为基于视频序列的跌倒 检测算法。
背景技术
电力施工人员在变电站、配电房等高压或者特高压环境下,施工 过程中可能会发生触电事故,如果触电人员倒地后没有被及时发现, 可能会造成更大的伤害,甚至可能会错过最佳救助时机,从而造成人 员伤亡。为了能让电力施工人员发生触电事故倒地后能够被其他人及 时发现并有效救治,对施工人员跌倒行为的预测显得十分重要。
长期以来,跌倒行为在2d图像中的检测一直是一个技术上的难 题,早期跌到检测方法大都是基于单张RGB图像,运用背景差方法从 图片中将人体和背景进行分隔,根据分隔出来的人体区域进一步做跌 倒判定,这种方法鲁棒性较差,依赖于手工调参。随着深度学习的发 展,新的跌倒检测方法取得了一定的效果,例如利用基于人体骨骼点 的openpose进行人体姿态估计,和长短期记忆 (LongShort-TermMemory,LSTM)循环神经网对视频序列进行预测。 但是无论是openpose还是LSTM,都需要大量的人体跌倒数据集训练模型权重,而跌倒数据集很难收集,少量的跌倒数据对于网络的收敛 起不到很大的作用,同时由于网络较深,运算量太大,导致现有的算 法方案很难在嵌入式产品上实施。
发明内容
本发明的目的在于提供基于视频序列的跌倒检测算法,以解决上 述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于视频序列的跌 倒检测算法,其算法包括如下步骤:
(S1):采集配电房监控摄像头下施工人员的人体和人头数据, 图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁 剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重;
(S2):在预测过程中,使用yolov3预测图片中的目标,预测向 量经过NonMaximumSuppression算法处理后输出人体和人头部位的 boundingbox的坐标值;
(S3):将步骤(S2)中输出的人头部位boundingbox的坐标值 输入至目标跟踪模块,跟踪模块为图像中的每个目标赋予一个独一无 二的trackid,在跟踪模块中加入哈希算法计算前后两帧图片中头部 区域的相似度,并利用相似度的值来约束最小欧式距离;
(S4):在步骤(S3)中给每个目标赋予一个trackid,利用跟 踪点找到当前数据帧对应人体的box坐标值,在人体发生跌倒时和在 正常行走时,前后两帧人体box坐标值的纵横比变化量比较大,前后 两帧人头box中心点相对于人体box底部中心点下降的高度变化量比 正常运动大,且始终朝向地面方向运动,人体发生跌倒时人体头box 的中心点瞬时位移变化量较大,基于以上特征设计分类器;
(S5):在收集特征时,将工人的行为动作分类为正常行走、下 蹲行为和跌倒行为,跌倒在视频序列中是连续几帧的动作,在跌倒检 测模块的输出后面加入跌倒次数计数器,当连续视频序列中某个被跟 踪目标被检测到跌倒行为的次数超过设定阈值时,判定该目标的行为 动作为跌倒行为。
优选的,所述步骤(1)中,在采集过程中,采集不同施工人员 以及不同时间的数据。
优选的,所述步骤(1)中,原始yolov3模型的分辨率为416x416。
优选的,所述步骤(2)中,输出的数据还包括有人体和人头部 位的置信度和类别信息。
优选的,所述步骤(3)中,加入的哈希算法为平均哈希算法。
优选的,所述步骤(4)中,分类器为支持向量机。
优选的,所述步骤(5)中,工人的行为动作的分类是基于box 中心点瞬时位移变化量来判断的。
优选的,所述步骤(5)中,跌倒行为次数的阀值为4-8次。
与现有技术相比,本发明的有益效果如下:
本发明的算法无需依赖于海量的跌倒数据集,人体和人头检测模 型训练集只需要使用开源数据集即可训练算法中的检测器,且跌倒动 作检测模块中的特征提取只需典型应用场景中的小批量视频序列即 可获得,同时本算法的人体和人头部位检测模型经过模型剪枝后较为 轻量级,使得该算法适用于嵌入式产品。
附图说明
图1为本发明算法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方 案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部 分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普 通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例, 都属于本发明保护的范围。
实施例一:
基于视频序列的跌倒检测算法,其算法包括如下步骤:
(S1):采集配电房监控摄像头下施工人员的人体和人头数据, 图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁 剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重, 图片中的人体预测使用yolov3算法代替传统的背景差分隔法,由于 yolov3模型较深,较深的模型主要是针对小目标,该算法中的场景 不存在很小的目标,所以需要对原始yolov3模型进行裁剪操作,而 在采集过程中,采集不同施工人员以及不同时间的数据,其实数据更 加分散且存有随机性,以免因数据过于集中而致算法出现错位;
(S2):在预测过程中,使用yolov3预测图片中的目标,预测向 量经过NonMaximumSuppression算法处理后输出人体和人头部位的 boundingbox的坐标值,其中输出的数据还包括有人体和人头部位的 置信度和类别信息;
(S3):将步骤(S2)中输出的人头部位boundingbox的坐标值 输入至目标跟踪模块,跟踪模块为图像中的每个目标赋予一个独一无 二的trackid,在跟踪模块中加入哈希算法计算前后两帧图片中头部 区域的相似度,并利用相似度的值来约束最小欧式距离,其中加入的 哈希算法为平均哈希算法,由于在人员密集的场景中,人头要比人体 更加容易预测和跟踪,所以选用人头box中心坐标点进行跟踪,跟踪 模块的实现方式是采用计算视频前后两帧图像中目标的中心点间最 小欧式距离的方法来关联前后两帧中的同一个目标,但是这种方法很 容易将靠近的两个不同的目标关联成为一个目标,所以在跟踪模块中又加入了平均哈希算法计算前后两帧图片中头部区域的相似度,利用 相似度的值来约束最小欧式距离;
(S4):在步骤(S3)中给每个目标赋予一个trackid,利用跟 踪点找到当前数据帧对应人体的box坐标值,在人体发生跌倒时和在 正常行走时,前后两帧人体box坐标值的纵横比变化量比较大,前后 两帧人头box中心点相对于人体box底部中心点下降的高度变化量比 正常运动大,且始终朝向地面方向运动,人体发生跌倒时人体头box 的中心点瞬时位移变化量较大,基于以上特征设计分类器,且分类器 为支持向量机SVM;
(S5):在收集特征时,将工人的行为动作分类为正常行走、下 蹲行为和跌倒行为,跌倒在视频序列中是连续几帧的动作,在跌倒检 测模块的输出后面加入跌倒次数计数器,当连续视频序列中某个被跟 踪目标被检测到跌倒行为的次数超过设定阈值时,判定该目标的行为 动作为跌倒行为。
实施例二:
基于视频序列的跌倒检测算法,其算法包括如下步骤:
(S1):采集配电房监控摄像头下施工人员的人体和人头数据, 图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁 剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重, 图片中的人体预测使用yolov3算法代替传统的背景差分隔法,由于 yolov3模型较深,较深的模型主要是针对小目标,该算法中的场景 不存在很小的目标,所以需要对原始yolov3模型进行裁剪操作,而 在采集过程中,采集不同施工人员以及不同时间的数据,其实数据更 加分散且存有随机性,以免因数据过于集中而致算法出现错位,同时 原始yolov3模型的分辨率为416x416;
(S2):在预测过程中,使用yolov3预测图片中的目标,预测向 量经过NonMaximumSuppression算法处理后输出人体和人头部位的 boundingbox的坐标值,其中输出的数据还包括有人体和人头部位的 置信度和类别信息;
(S3):将步骤(S2)中输出的人头部位boundingbox的坐标值 输入至目标跟踪模块,跟踪模块为图像中的每个目标赋予一个独一无 二的trackid,在跟踪模块中加入哈希算法计算前后两帧图片中头部 区域的相似度,并利用相似度的值来约束最小欧式距离,其中加入的 哈希算法为平均哈希算法,由于在人员密集的场景中,人头要比人体 更加容易预测和跟踪,所以选用人头box中心坐标点进行跟踪,跟踪 模块的实现方式是采用计算视频前后两帧图像中目标的中心点间最 小欧式距离的方法来关联前后两帧中的同一个目标,但是这种方法很 容易将靠近的两个不同的目标关联成为一个目标,所以在跟踪模块中又加入了平均哈希算法计算前后两帧图片中头部区域的相似度,利用 相似度的值来约束最小欧式距离;
(S4):在步骤(S3)中给每个目标赋予一个trackid,利用跟 踪点找到当前数据帧对应人体的box坐标值,在人体发生跌倒时和在 正常行走时,前后两帧人体box坐标值的纵横比变化量比较大,前后 两帧人头box中心点相对于人体box底部中心点下降的高度变化量比 正常运动大,且始终朝向地面方向运动,人体发生跌倒时人体头box 的中心点瞬时位移变化量较大,基于以上特征设计分类器,且分类器 为支持向量机SVM;
(S5):在收集特征时,将工人的行为动作分类为正常行走、下 蹲行为和跌倒行为,跌倒在视频序列中是连续几帧的动作,在跌倒检 测模块的输出后面加入跌倒次数计数器,当连续视频序列中某个被跟 踪目标被检测到跌倒行为的次数超过设定阈值时,判定该目标的行为 动作为跌倒行为,其中工人的行为动作的分类是基于box中心点瞬时 位移变化量来判断的。
实施例三:
基于视频序列的跌倒检测算法,其算法包括如下步骤:
(S1):采集配电房监控摄像头下施工人员的人体和人头数据, 图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁 剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重, 图片中的人体预测使用yolov3算法代替传统的背景差分隔法,由于 yolov3模型较深,较深的模型主要是针对小目标,该算法中的场景 不存在很小的目标,所以需要对原始yolov3模型进行裁剪操作,而 在采集过程中,采集不同施工人员以及不同时间的数据,其实数据更 加分散且存有随机性,以免因数据过于集中而致算法出现错位,同时 原始yolov3模型的分辨率为416x416;
(S2):在预测过程中,使用yolov3预测图片中的目标,预测向 量经过NonMaximumSuppression算法处理后输出人体和人头部位的 boundingbox的坐标值,其中输出的数据还包括有人体和人头部位的 置信度和类别信息;
(S3):将步骤(S2)中输出的人头部位boundingbox的坐标值 输入至目标跟踪模块,跟踪模块为图像中的每个目标赋予一个独一无 二的trackid,在跟踪模块中加入哈希算法计算前后两帧图片中头部 区域的相似度,并利用相似度的值来约束最小欧式距离,其中加入的 哈希算法为平均哈希算法,由于在人员密集的场景中,人头要比人体 更加容易预测和跟踪,所以选用人头box中心坐标点进行跟踪,跟踪 模块的实现方式是采用计算视频前后两帧图像中目标的中心点间最 小欧式距离的方法来关联前后两帧中的同一个目标,但是这种方法很 容易将靠近的两个不同的目标关联成为一个目标,所以在跟踪模块中又加入了平均哈希算法计算前后两帧图片中头部区域的相似度,利用 相似度的值来约束最小欧式距离;
(S4):在步骤(S3)中给每个目标赋予一个trackid,利用跟 踪点找到当前数据帧对应人体的box坐标值,在人体发生跌倒时和在 正常行走时,前后两帧人体box坐标值的纵横比变化量比较大,前后
(S5):在收集特征时,将工人的行为动作分类为正常行走、下 蹲行为和跌倒行为,跌倒在视频序列中是连续几帧的动作,在跌倒检 测模块的输出后面加入跌倒次数计数器,当连续视频序列中某个被跟 踪目标被检测到跌倒行为的次数超过设定阈值时,判定该目标的行为 动作为跌倒行为,其中工人的行为动作的分类是基于box中心点瞬时 位移变化量来判断的,且跌倒行为次数的阀值为4-8次。
本发明的算法无需依赖于海量的跌倒数据集,人体和人头检测模 型训练集只需要使用开源数据集即可训练算法中的检测器,且跌倒动 作检测模块中的特征提取只需典型应用场景中的小批量视频序列即 可获得,同时本算法的人体和人头部位检测模型经过模型剪枝后较为 轻量级,使得该算法适用于嵌入式产品。
支持向量机(SupportVectorMachine,SVM)是一类按监督学习(supervisedlearning)方式对数据进行二元分类的广义线性分类器(generalizedlinearclassifier),其决策边界是对学习样本求解的最大边 距超平面(maximum-marginhyperplane),SVM被提出于1964年,在二十世 纪90年代后得到快速发展并衍生出一系列改进和扩展算法,在人像识别、文 本分类等模式识别(patternrecognition)问题中有得到应用,SVM是由模式 识别中广义肖像算法(generalizedportraitalgorithm)发展而来的分类器, 其早期工作来自学者VladimirN.Vapnik和AlexanderY.Lerner在1963年发 表的研究。1964年,Vapnik和AlexeyY.Chervonenkis对广义肖像算法进行 了进一步讨论并建立了硬边距的线性SVM。此后在二十世纪70-80年代,随着 模式识别中最大边距决策边界的理论研究、基于松弛变量的规划问题求解技 术的出现,和VC维(Vapnik-Chervonenkisdimension,VCdimension)的提 出,SVM被逐步理论化并成为统计学习理论的一部分,SVM使用铰链损失函数(hingeloss)计算经验风险(empiricalrisk)并在求解系统中加入了正则 化项以优化结构风险(structuralrisk),是一个具有稀疏性和稳健性的分 类器。SVM可以通过核方法(kernelmethod)进行非线性分类,是常见的核学 习(kernellearning)方法之一。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅 仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定 要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺 序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排 他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备 不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还 包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限 制的情况下,由语句“包括一个……”限定的要素,并不排除在包括 所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术 人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这 些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权 利要求及其等同物限定。

Claims (8)

1.基于视频序列的跌倒检测算法,其特征在于:其算法包括如下步骤:
(S1):采集配电房监控摄像头下施工人员的人体和人头数据,图片中的人体预测使用yolov3算法,同时对原始yolov3模型进行裁剪操作,并使用采集的数据集训练裁剪之后的yolov3网络模型权重;
(S2):在预测过程中,使用yolov3预测图片中的目标,预测向量经过NonMaximumSuppression算法处理后输出人体和人头部位的boundingbox的坐标值;
(S3):将步骤(S2)中输出的人头部位boundingbox的坐标值输入至目标跟踪模块,跟踪模块为图像中的每个目标赋予一个独一无二的trackid,在跟踪模块中加入哈希算法计算前后两帧图片中头部区域的相似度,并利用相似度的值来约束最小欧式距离;
(S4):在步骤(S3)中给每个目标赋予一个trackid,利用跟踪点找到当前数据帧对应人体的box坐标值,在人体发生跌倒时和在正常行走时,前后两帧人体box坐标值的纵横比变化量比较大,前后两帧人头box中心点相对于人体box底部中心点下降的高度变化量比正常运动大,且始终朝向地面方向运动,人体发生跌倒时人体头box的中心点瞬时位移变化量较大,基于以上特征设计分类器;
(S5):在收集特征时,将工人的行为动作分类为正常行走、下蹲行为和跌倒行为,跌倒在视频序列中是连续几帧的动作,在跌倒检测模块的输出后面加入跌倒次数计数器,当连续视频序列中某个被跟踪目标被检测到跌倒行为的次数超过设定阈值时,判定该目标的行为动作为跌倒行为。
2.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(1)中,在采集过程中,采集不同施工人员以及不同时间的数据。
3.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(1)中,原始yolov3模型的分辨率为416x416。
4.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(2)中,输出的数据还包括有人体和人头部位的置信度和类别信息。
5.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(3)中,加入的哈希算法为平均哈希算法。
6.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(4)中,分类器为支持向量机。
7.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(5)中,工人的行为动作的分类是基于box中心点瞬时位移变化量来判断的。
8.根据权利要求1所述的基于视频序列的跌倒检测算法,其特征在于:所述步骤(5)中,跌倒行为次数的阀值为4-8次。
CN202110389790.7A 2021-04-12 2021-04-12 基于视频序列的跌倒检测算法 Pending CN113269033A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110389790.7A CN113269033A (zh) 2021-04-12 2021-04-12 基于视频序列的跌倒检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110389790.7A CN113269033A (zh) 2021-04-12 2021-04-12 基于视频序列的跌倒检测算法

Publications (1)

Publication Number Publication Date
CN113269033A true CN113269033A (zh) 2021-08-17

Family

ID=77228690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110389790.7A Pending CN113269033A (zh) 2021-04-12 2021-04-12 基于视频序列的跌倒检测算法

Country Status (1)

Country Link
CN (1) CN113269033A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220604A (zh) * 2017-05-18 2017-09-29 清华大学深圳研究生院 一种基于视频的跌倒检测方法
CN111144174A (zh) * 2018-11-02 2020-05-12 浙江树人学院 利用神经网络与传统算法识别视频中老人跌倒行为的系统
CN112541424A (zh) * 2020-12-07 2021-03-23 南京工程学院 复杂环境下行人跌倒的实时检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220604A (zh) * 2017-05-18 2017-09-29 清华大学深圳研究生院 一种基于视频的跌倒检测方法
CN111144174A (zh) * 2018-11-02 2020-05-12 浙江树人学院 利用神经网络与传统算法识别视频中老人跌倒行为的系统
CN112541424A (zh) * 2020-12-07 2021-03-23 南京工程学院 复杂环境下行人跌倒的实时检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
李冬冬: "基于视频监控的室内跌倒行为检测研究", 《中国优秀硕士学位论文全文数据库社会科学Ⅱ辑》》, vol. 2021, no. 01, pages 221 - 222 *
杨雪旗;唐旭;章国宝;黄永明;: "基于YOLO网络的人体跌倒检测方法", 《扬州大学学报(自然科学版)》, no. 02, pages 61 - 64 *
程语嫣等: "多特征融合和尺度适应的相关滤波跟踪算法", 《计算机工程与设计》, vol. 41, no. 12, pages 3444 - 3450 *
翁贝托·米凯卢奇: "深度学习进阶卷积神经网络和对象检测", 机械工业出版社, pages: 171 *

Similar Documents

Publication Publication Date Title
Salimi et al. Visual-based trash detection and classification system for smart trash bin robot
CN108009473B (zh) 基于目标行为属性视频结构化处理方法、系统及存储装置
CN109670396B (zh) 一种室内老人跌倒检测方法
CN103955699B (zh) 一种基于监控视频的实时摔倒事件检测方法
CN108564069B (zh) 一种工业佩戴安全帽视频检测方法
Wang et al. Histograms of optical flow orientation for visual abnormal events detection
CN111488804A (zh) 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
CN106128022B (zh) 一种智慧金睛识别暴力动作报警方法
CN105279483A (zh) 一种基于深度图像的跌倒行为实时检测方法
CN110309718A (zh) 一种电网作业人员安全帽佩戴检测方法
Xu et al. Real-time pedestrian detection based on edge factor and Histogram of Oriented Gradient
CN101344922A (zh) 一种人脸检测方法及其装置
CN106295524A (zh) 一种基于视觉词袋的人体动作识别方法
WO2010116278A1 (en) An efficient method for tracking people
CN111191667A (zh) 基于多尺度生成对抗网络的人群计数方法
Yun et al. Human fall detection in videos by fusing statistical features of shape and motion dynamics on Riemannian manifolds
CN111401301B (zh) 人员着装监控方法、装置、设备及存储介质
KR101631694B1 (ko) HOG-PCA 특징과 RBFNNs 패턴분류기를 이용한 보행자 검출 방법
Poonsri et al. Improvement of fall detection using consecutive-frame voting
CN105809206A (zh) 一种行人跟踪方法
CN110458022A (zh) 一种基于域适应的可自主学习目标检测方法
CN103049748B (zh) 行为监测方法及装置
Zhang et al. Coupled ensemble graph cuts and object verification for animal segmentation from highly cluttered videos
CN113269033A (zh) 基于视频序列的跌倒检测算法
Chandran et al. Pedestrian crowd level estimation by Head detection using bio-inspired retina model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination