CN114299050A - 一种基于改进Alphapose的红外图像摔倒检测方法 - Google Patents
一种基于改进Alphapose的红外图像摔倒检测方法 Download PDFInfo
- Publication number
- CN114299050A CN114299050A CN202111668347.XA CN202111668347A CN114299050A CN 114299050 A CN114299050 A CN 114299050A CN 202111668347 A CN202111668347 A CN 202111668347A CN 114299050 A CN114299050 A CN 114299050A
- Authority
- CN
- China
- Prior art keywords
- human body
- frame
- posture
- key point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种基于改进Alphapose的红外图像摔倒检测方法,包括:采集红外视频帧作为输入;对所述红外视频帧进行数据预处理,并通过人体检测深度网络输出关键点信息和姿态类别;以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度和人体宽高比的变换,与关键点信息和所述姿态类别进行对比,输出摔倒判断信号;接收到摔倒判断信号后,结合姿态分类,继续检测后续帧内的人体姿态,输出摔倒判断结果。本发明采用基于改进Alphapose的红外图像摔倒检测方法,利用得到的人体骨架关键点信息和姿态类别进行摔倒判定,兼顾了摔倒动作的时序性和前后动作的关联性,提高了检测的准确度和实时性,进而降低了摔倒识别的误差。
Description
技术领域
本发明涉及人体行为识别技术领域,主要涉及一种基于改进Alphapose的红外图像摔倒检测方法。
背景技术
人体摔倒检测可以有效地检测视频中的摔倒行为,降低人在摔倒后无法及时呼救的风险。传统的基于计算机视觉的人体摔倒检测方法大多使用可见光图像,这类方法受光照影响在昏暗环境下效果不佳。现有的摔倒检测方法大致可以分为三类:(1)基于Freeman链码的检测方法;(2)基于关键点的检测方法;(3)基于宽高比和质心变化率的检测方法。这些方法没有充分考虑人体在摔倒过程中的姿态变化规律,容易对类摔倒动作造成误检,兼顾摔倒动作的时序性和前后动作的关联性是提高准确度的难点。
针对上述问题,急需在原有的摔倒检测技术上进行改进。
发明内容
1、发明目的
本发明提供一种基于改进Alphapose的红外图像摔倒检测方法,用以解决上述背景技术中提出的目前现有摔倒检测方法无法考虑到人体在摔倒过程中的姿态变化规律,容易对类摔倒动作造成误检的技术难题。
2、技术方案
为了实现上述目的,本发明采用以下技术方案:
一种基于改进Alphapose的红外图像摔倒检测方法,包括:
信号采集,采集红外视频帧作为输入,输入人体目标红外图像;
生成关键点位置信息和姿态类别,使用yolov5s人体目标检测网络检测人体目标红外图像,并与姿态分类库比对完成对人体姿态的分类生成姿态类别,再将得出的人体目标红外图像输入关键点检测网络得到骨架的关键点位置信息;
关键点分析,以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度和人体宽高比的变换,与所述关键点位置信息和所述姿态类别进行对比,输出摔倒判断信号。
摔倒判定,接收到摔倒判断信号后,结合姿态分类,继续检测后续帧内的人体姿态,输出摔倒判断结果。
优选的,所述姿态分类库生成方法包括:
获取图像,通过红外摄像头采集人体图像;
标注训练样本,预定义姿态类别,使用标注工具,在红外图像中框选人体位置,对每个人体的姿态类别进行标注,生成相应的xml文件;
数据预处理,采用了Mosaic数据增强的方式;
生成深度训练模型,使用Yolov5s作为Alphapose的人体检测深度网络,训练人体检测模型,生成姿态分类库,在提取人体目标区域框输入关键点检测网络预测关键点位置的同时,完成对人体姿态的分类。
优选的,所述Mosaic数据增强的方式为通过每次随机抽取数据集中的四张图片,采用随机裁剪、随机缩放、随机组合的方式生成一张新的训练图片。
优选的,所述Yolov5s网络完成对人体姿态的直接分类,同时从输入的人体目标红外图像的人体区域框,输入关键点检测网络检测人体骨架关键点,将关键点位置信息与预测的姿态类别一并输出。
优选的,所述人体宽高比的获取方法为:
设第i帧与第i-1帧均为单人红外图像,2≤i≤N,N表示红外视频的总帧数,检出髋关节关键点a个;
将图像左上角定为原点,水平向右为X轴正方向,垂直向下为Y轴正方向,建立直角坐标系;
记第i帧中人体目标框的高度为Hi,宽度为Wi,则第i帧中的人体宽高比Pi=Wi/Hi;
所述i、a、b、c为数字。
优选的,所述髋关节关键点的相对移动速度的获取方法为:
当Fi等于1时,输出摔倒判断信号。
优选的,所述摔倒判定的方法为:
在统计后续的人体姿态中,第i帧图像中人体姿态类别为li,则对应的人体图像得分为si,两者关系可用公式为:
当图像中的人体姿态类别li为“sit_flat”、“lie”、“push_up”这三种姿态中的任意一种时,该人体图像的得分记为1,否则得分记为0;
当记为FFi=1,输出判断为摔倒;
所述sit_flat为坐地,所述lie为躺下,所述push_up为撑地,所述FFi为摔倒判断结果,所述si为人体图像得分,所述li为人体姿态类别,所述else为Fi不等于1或者si的总得分小于等于e。
优选的,所述d等于20,所述e等于10。
3、有益效果
与现有技术相比,本发明的有益效果是:
本发明通过采用红外摄像头进行数据采集,从而实现了在光照影响在昏暗环境下可以正常使用,同时红外图像能够保护个人隐私,适用于全天候的人体摔倒检测。
本发明通过采用Mosaic数据增强的方式对训练数据进行预处理,通过Mosaic数据增强,能够丰富场景内容,增强样本多样性,提高目标检测方法的抗干扰性。
本发明通过结合关键点分析结果和姿态分类做进一步判定,经过关键点分析判断有可能发生摔倒后,继续统计后续多帧内的人体姿态,从而防止快速下蹲、俯身拾取等类摔倒动作误识别为摔倒。
附图说明
图1为改进的Alphapose算法结构图;
图2为Alphapose关键点检测结果示意图;
图3为总体方法流程图;
图4为Mosaic数据增强示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
参考图1-4,一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于,包括:
信号采集,采集红外视频帧作为输入,输入人体目标红外图像;
生成关键点位置信息和姿态类别,使用yolov5s人体目标检测网络检测人体目标红外图像,并与姿态分类库比对完成对人体姿态的分类生成姿态类别,再将得出的人体目标红外图像输入关键点检测网络得到骨架的关键点位置信息;
关键点分析,以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度和人体宽高比的变换,输出摔倒判断信号。
摔倒判定,接收到摔倒判断信号后,结合姿态分类,继续检测后续帧内的人体姿态,与关键点位置信息和姿态类别进行对比,输出摔倒判断结果。
具体实施中,输入的人体目标红外图像是原始红外图像,很有可能没有人体,经人体目标检测后才可能得到人体目标图像,等于是从原始红外图像中将检测到的人体裁剪出来送到关键点检测网络。
参考图1-4,姿态分类库生成方法包括:
获取图像,通过红外摄像头采集人体图像;
标注训练样本,预定义姿态类别,使用标注工具,在红外图像中框选人体位置,对每个人体的姿态类别进行标注,生成相应的xml文件;
数据预处理,采用了Mosaic数据增强的方式;
生成深度训练模型,使用Yolov5s作为Alphapose的人体检测深度网络,训练人体检测模型,生成姿态分类库,在提取人体目标区域框输入关键点检测网络预测关键点位置的同时,完成对人体姿态的分类。本发明改进后的Alphapose算法使用Yolov5s网络完成对人体姿态的直接分类,同时从输入的红外图像中提取人体区域框,输入人体姿态估计网络检测人体骨架关键点,将关键点信息与预测的姿态类别一并输出。
具体实施中,首先构建训练样本库,其中包括大量图片和大量的标注文件,每张图片对应一个标注文件,标注文件记录了其对应图片中人体的位置以及对应的类别。通过训练网络训练样本库,得到我们需要的目标检测模型。然后使用训练出来的模型对输入的红外图片进行推理,只要检测到人体目标,就会得到相应的单人分别在八个类别上的概率,最后选择概率最大的类别作为其最终类别。
参考图1-4,Mosaic数据增强的方式为通过每次随机抽取数据集中的四张图片,采用随机裁剪、随机缩放、随机组合的方式生成一张新的训练图片。通过Mosaic数据增强,能够丰富场景内容,增强样本多样性,提高目标检测算法的抗干扰性。
参考图1-4,Yolov5s网络完成对人体姿态的直接分类,同时从输入的人体目标红外图像的人体区域框,输入关键点检测网络检测人体骨架关键点,将关键点位置信息与预测的姿态类别一并输出。
参考图1-4,具体实施中,在摔倒过程中,当前一帧人体目标框的高度明显小于其宽度时,即使下降速度不变,也会因为前一帧目标框高度减小,导致计算得到的速度偏大,所以本方法引入前一帧人体目标框的宽高比作为限制条件,防止前一帧目标框宽高比过大导致点M的微小起伏被误识别为摔倒。人体宽高比的获取方法为:
设第i帧与第i-1帧均为单人红外图像,2≤i≤N,N表示红外视频的总帧数,检出髋关节关键点a个,本发明对髋关节关键点的个数不做具体限定,本实施例中优先采用18个人体骨架关键点;
将图像左上角定为原点,水平向右为X轴正方向,垂直向下为Y轴正方向,建立直角坐标系;
记第i帧中人体目标框的高度为Hi,宽度为Wi,则第i帧中的人体宽高比Pi=Wi/Hi;
参考图1-4,站立或行走的人体目标在发生摔倒时,最直观的表现是髋关节位置在垂直方向上的迅速下跌,所以通过监测髋关节在序列帧中的移动速度可以及时发现产生的摔倒动作。但随着运动中的人体目标与摄像头的距离越来越远,其髋关节在图像上的位移也越来越小,容易造成漏检。针对该问题,本发明以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度。髋关节关键点的相对移动速度的获取方法为:
当Fi等于1时,输出摔倒判断信号。
参考图1-4,摔倒判定的方法为:
在统计后续的人体姿态中,第i帧图像中人体姿态类别为li,则对应的人体图像得分为si,两者关系可用公式为:
当图像中的人体姿态类别li为“sit_flat”、“lie”、“push_up”这三种姿态中的任意一种时,该人体图像的得分记为1,否则得分记为0;
当记为FFi=1,输出判断为摔倒;
sit_flat为坐地,lie为躺下,push_up为撑地,FFi为摔倒判断结果,si为人体图像得分,li为人体姿态类别,else为Fi不等于1或者si的总得分小于等于e。
具体实施中,生成关键点位置信息和姿态类别的过程就是改进的Alphapose算法的运行过程,其改进的Alphapose算法结构图参考图1,Alphapose算法是一种骨架关键点检测算法,能够检测出图像中的人体骨架,其提出一种区域多人姿态估计框架RMPE,主要由SSTN、PP-NMS、PGPG和Parallel SPPE组成,其中PGPG用于生成大量训练样本,ParallelSPPE则充当额外的正则项,以避免局部最小值,而SSTN又由STN、SPPE和SDTN组成。Alphapose首先使用目标检测算法检测单张图片,得到单人人体目标框,作为RMPE的输入,进入SSTN模块。检测到的人体目标框可能目标偏离中心或者目标框中人体占比过小,影响后续姿态估计的效果,所以需要先使用STN提取出高质量的单人区域,然后输入SPPE得到估计的姿态,再由SDTN将估计的姿态反变换到原始人体区域框中。冗余的人体区域框输入姿态估计网络,可能会检测到冗余的姿态。
Alphapose提出PP-NMS用来消除多余的姿态。其定义了一种姿态距离来度量姿态间的相似度,并在此基础上建立了冗余姿态的消除标准。PP-NMS首先选取最大置信度的姿态作为参考,并且根据消除标准将靠近该参考的区域框进行消除,多次重复这个过程直到消除所有的冗余识别框。本发明使用Yolov5s作为Alphapose的人体检测器,改进后的算法使用Yolov5s网络完成对人体姿态的直接分类,同时从输入的红外图像中提取人体区域框,输入人体姿态估计网络检测人体骨架关键点,将关键点信息与预测的姿态类别一并输出。
其中SSTN是对称空间变换网络、PP-NMS是参数化姿态非极大抑制、PGPG是姿态引导建议发生器、Parallel SPPE是并行单人姿态估计器、RMPE是区域多人姿态估计框架、STN是空间变换网络、SPPE是单人姿态估计器、SDTN是空间反变换网络。
本发明在实时检测过程中,以实时视频流作为输入,检测每一帧当前画面中的人体姿态和骨架关键点。从第二帧开始,如果前一帧与当前帧均检测出同一人的髋关节位置,即“无遮挡”状态,则进行关键点分析,计算髋关节关键点在这相邻两帧间的相对移动速率和方向。当满足可能摔倒的条件后,进行摔倒判定,开始统计后续20帧图像中的姿态类别,如果满足最终摔倒条件,则判断为一次摔倒。实时检测的情况下一次完整的摔倒检测流程示意图如图3所示。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于,包括:
信号采集,采集红外视频帧作为输入,输入人体目标红外图像;
生成关键点位置信息和姿态类别,使用yolov5s人体目标检测网络检测所述人体目标红外图像,并与姿态分类库比对完成对人体姿态的分类生成所述姿态类别,再将得出的所述人体目标红外图像输入关键点检测网络得到骨架的关键点位置信息;
关键点分析,以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度和人体宽高比的变换,与所述关键点位置信息和所述姿态类别进行对比,输出摔倒判断信号。
摔倒判定,接收到所述摔倒判断信号后,结合所述姿态分类,继续检测后续帧内的人体姿态,输出摔倒判断结果。
2.根据权利要求1所述的一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于:所述姿态分类库生成方法包括:
获取图像,通过红外摄像头采集人体图像;
标注训练样本,预定义姿态类别,使用标注工具,在红外图像中框选人体位置,对每个人体的姿态类别进行标注,生成相应的xml文件;数据预处理,采用了Mosaic数据增强的方式;
生成深度训练模型,使用Yolov5s作为Alphapose的人体检测深度网络,训练人体检测模型,生成所述姿态分类库,在提取人体目标区域框输入所述关键点检测网络预测关键点位置的同时,完成对人体姿态的分类。
3.根据权利要求2所述的一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于:所述Mosaic数据增强的方式为通过每次随机抽取数据集中的四张图片,采用随机裁剪、随机缩放、随机组合的方式生成一张新的训练图片。
4.根据权利要求2所述的一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于:Yolov5s网络完成对人体姿态的直接分类,同时从输入的所述人体目标红外图像的人体区域框,输入所述关键点检测网络检测人体骨架关键点,将所述关键点位置信息与预测的所述姿态类别一并输出。
8.根据权利要求1所述的一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于:所述摔倒判定的方法为:
在统计后续的人体姿态中,第i帧图像中人体姿态类别为li,则对应的人体图像得分为si,两者关系可用公式为:
当图像中的人体姿态类别li为“sit_flat”、“lie”、“push_up”这三种姿态中的任意一种时,该人体图像的得分记为1,否则得分记为0;当Fi=1,即第i帧接收到摔倒判断信号时,继续统计后续d帧图像的人体姿态,若累计图像得分之和大于e,记为FFi=1,计算公式为
当记为FFi=1,输出判断为摔倒;
所述sit_flat为坐地,所述lie为躺下,所述push_up为撑地,所述FFi为摔倒判断结果,所述si为人体图像得分,所述li为人体姿态类别,所述else为Fi不等于1或者si的总得分小于等于e。
9.根据权利要求8所述的一种基于改进Alphapose的红外图像摔倒检测方法,其特征在于:所述d等于20,所述e等于10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111668347.XA CN114299050A (zh) | 2021-12-31 | 2021-12-31 | 一种基于改进Alphapose的红外图像摔倒检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111668347.XA CN114299050A (zh) | 2021-12-31 | 2021-12-31 | 一种基于改进Alphapose的红外图像摔倒检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114299050A true CN114299050A (zh) | 2022-04-08 |
Family
ID=80973829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111668347.XA Pending CN114299050A (zh) | 2021-12-31 | 2021-12-31 | 一种基于改进Alphapose的红外图像摔倒检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114299050A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830635A (zh) * | 2022-12-09 | 2023-03-21 | 南通大学 | 一种基于关键点检测和目标识别的pvc手套识别方法 |
CN116311542A (zh) * | 2023-05-23 | 2023-06-23 | 广州英码信息科技有限公司 | 兼容拥挤场景和非拥挤场景的人体摔倒检测方法及系统 |
-
2021
- 2021-12-31 CN CN202111668347.XA patent/CN114299050A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830635A (zh) * | 2022-12-09 | 2023-03-21 | 南通大学 | 一种基于关键点检测和目标识别的pvc手套识别方法 |
CN116311542A (zh) * | 2023-05-23 | 2023-06-23 | 广州英码信息科技有限公司 | 兼容拥挤场景和非拥挤场景的人体摔倒检测方法及系统 |
CN116311542B (zh) * | 2023-05-23 | 2023-08-04 | 广州英码信息科技有限公司 | 兼容拥挤场景和非拥挤场景的人体摔倒检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990191B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
CN108830252B (zh) | 一种融合全局时空特征的卷积神经网络人体动作识别方法 | |
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
CN109635686B (zh) | 结合人脸与外观的两阶段行人搜索方法 | |
CN107909027B (zh) | 一种具有遮挡处理的快速人体目标检测方法 | |
CN109598684B (zh) | 结合孪生网络的相关滤波跟踪方法 | |
CN114299050A (zh) | 一种基于改进Alphapose的红外图像摔倒检测方法 | |
KR100826878B1 (ko) | 손 모양을 인식하는 방법 및 이를 위한 장치 | |
CN112801000B (zh) | 一种基于多特征融合的居家老人摔倒检测方法及系统 | |
CN101447023B (zh) | 人头检测方法和系统 | |
CN110781785A (zh) | 基于Faster RCNN算法改进的交通场景下行人检测方法 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN112926522B (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
CN114724082A (zh) | 一种基于改进的YOLOv5和DeepSORT的行人追踪方法 | |
CN108710841A (zh) | 一种基于MEMs红外阵列传感器的人脸活体检测装置及方法 | |
CN1168044C (zh) | 基于步态的远距离身份识别方法 | |
CN113011399B (zh) | 基于生成协同判别网络的视频异常事件检测方法及系统 | |
CN104537690B (zh) | 一种基于最大值‑时间索引联合的运动点目标检测方法 | |
CN115578621B (zh) | 一种基于多源数据融合的图像识别方法 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN110766093A (zh) | 一种基于多帧特征融合的视频目标重识别方法 | |
JP4042602B2 (ja) | 画像処理装置 | |
Kumagai et al. | Improving Accuracy of Traffic Sign Detection Using Learning Method | |
CN113361475A (zh) | 一种基于多阶段特征融合信息复用的多光谱行人检测方法 | |
CN117152826B (zh) | 基于目标跟踪和异常检测的实时跨镜追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |