CN114724177A - 结合Alphapose和YOLOv5s模型的人体溺水检测方法 - Google Patents

结合Alphapose和YOLOv5s模型的人体溺水检测方法 Download PDF

Info

Publication number
CN114724177A
CN114724177A CN202210228031.7A CN202210228031A CN114724177A CN 114724177 A CN114724177 A CN 114724177A CN 202210228031 A CN202210228031 A CN 202210228031A CN 114724177 A CN114724177 A CN 114724177A
Authority
CN
China
Prior art keywords
human body
drowning
yolov5s
model
theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210228031.7A
Other languages
English (en)
Other versions
CN114724177B (zh
Inventor
李雪桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Three Gorges University CTGU
Original Assignee
China Three Gorges University CTGU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Three Gorges University CTGU filed Critical China Three Gorges University CTGU
Priority to CN202210228031.7A priority Critical patent/CN114724177B/zh
Publication of CN114724177A publication Critical patent/CN114724177A/zh
Application granted granted Critical
Publication of CN114724177B publication Critical patent/CN114724177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Abstract

本发明涉及结合Alphapose和YOLOv5s模型的人体溺水检测方法,包括:拍摄得到水中人体的图像;利用改进的YOLOv5s模型对图像进行人体目标检测,得到人体定位框;采用改进的Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标;根据人体骨骼关键点坐标,计算得到人体体态特征,判断是否出现溺水现象。本发明采集水中人体的图像后进行人体目标检测,得到人体定位框后,利用Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标后,计算得到人体体态特征,实现人员溺水现象的实时判断,溺水检测准确率高,抗干扰能力强。

Description

结合Alphapose和YOLOv5s模型的人体溺水检测方法
技术领域
本发明属于水上救生领域,具体涉及一种结合Alphapose和YOLOv5s模型的人体溺水检测方法。
背景技术
每年全球大多数地区会遭受台风、暴雨等自然灾害的破坏,破坏房屋建筑的同时也带来洪灾,洪灾中对溺水者展开救援是极其困难的,水下救援将耗费大量人力、物力,同时溺水也是世界范围内非故意伤害死亡原因之一,为保障生命安全,急需能够从水下检测识别溺水现象并对溺水人员展开救援的机器。
现有的溺水检测模型在不同场景下速率低、应用窄。2021年第01期《传感器与微系统》刊登的彭婷等的论文“基于改进Mask R-CNN的泳池溺水行为检测系统设计”使用基于传统的 Mask R-CNN算法进行卷积主干的优化,对游泳者进行人体边缘检测,虽能检测出溺水现象,但检测速率仅有5FPS。而基于人体动作与骨骼关键点的溺水检测并不常见,因为通常的摄像头在水面上方,很难察觉水下的情况。
发明内容
本发明的目的是针对上述问题,提供一种结合Alphapose和YOLOv5s模型的人体溺水检测方法,利用改进的YOLOv5s模型检测、识别图像中的人体目标后,再利用Alphapose模型识别人体定位框中的人体姿态,根据人体体态特征判断是否出现溺水现象,提高溺水检测的效率和准确率,为生命安全提供有力保障。
本发明的技术方案是结合Alphapose和YOLOv5s模型的人体溺水检测方法,包括以下步骤:
步骤1:拍摄得到水中人体的图像;
步骤2:利用YOLOv5s模型对图像进行人体目标检测,得到人体定位框;
步骤3:采用Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标;
步骤4:根据人体骨骼关键点坐标,计算得到人体体态特征,判断是否出现溺水现象。
优选地,步骤2采用改进的YOLOv5s模型进行人体目标检测,改进的YOLOv5s模型在YOLOv5s模型的基础上,对Backbone网络单元的卷积层和head网络单元的卷积层均增加卷积权重系数,对Backbone网络单元的上采样层和head网络单元的上采样层均增加上采样系数,BottleneckCSP模块数量设置为(3,6,6,3),将类别数量nc设置为1。
步骤4中,溺水人员的体态特征包括:
1)初级溺水阶段,溺水人员的双脚不停摆动,并且身体上下浮动,脚部位的位置坐标随时间变化;
2)深度溺水阶段,人体的中心线与水面平行,并且人体漂浮在水面之上,可通过判断人体关键骨骼点随时间推移有无相对变化,以判断是否为测试溺水阶段。
优选地,步骤3采用改进的Alphapose模型,改进的Alphapose模型对区域多人姿态估计系统RMPE增加姿态引导建议发生器PGPG。
优选地,步骤3对图像中的人体目标进行检测,得到人体骨骼的18个关键点在图像中的坐标。
进一步地,步骤4具体包括以下子步骤:
步骤4.1:分别计算对应人体脚部的骨骼关键点(10)、(13)的线速度V10、V13,并利用骨骼关键点(11)、(13)的线速度计算得到人体单腿速度V11-13;计算人体重心O的线速度VO
上述线速度根据连续的M帧图像中具有时间间隔的图像帧计算得到;人体胸部重心O的位置根据骨骼关键点(1)、(8)和(11)的坐标计算得到;
步骤4.2:计算人体脚部的线速度V10、V13与人体胸部重心O线速度VO的比例,初步判断是否出现溺水现象;
溺水判断的计算式如下:
Figure RE-GDA0003642812510000021
式中λ表示设定的阈值,α、β分别表示人体单腿速度的上限、下限;
如果V10、V13、VO、V11-13满足式(I),则初步判定为水下溺水,结束;如果V10、V13、VO、V11-13不满足式(I),则执行步骤4.3;
步骤4.3:计算人体上半身中垂线与水平面夹角θa,若θ0a1,夹角θa在时间T内持续保持在此范围内,且a<VO<b,则判定为最终溺水,结束;
式中θ0表示人体上半身中垂线与水平面夹角的最小值,θ1表示人体上半身中垂线与水平面夹角的最大值,a表示人体重心线速度下限值,b表示人体重心线速度上限值;否则,执行步骤 4.4;
步骤4.4:计算人体中垂线与水平线夹角qb,若θ2b3,夹角qb在时间T内持续保持在此范围内,且c<Vo<d,并且人体头部的骨骼关键点也能被检测到,则判断为最终溺水,否则判定为未溺水,式中θ2表示人体中垂线与水平面夹角的最小值,θ3表示人体中垂线与水平面夹角的最大值,c表示人体重心线速度最小值,d表示人体重心线速度最大值。
相比现有技术,本发明的有益效果包括:
1)本发明采集水中人体的图像后进行人体目标检测,得到人体定位框后,利用Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标后,计算得到人体体态特征,实现了人员溺水现象的实时判断和多人并发式的溺水现象检测识别,溺水检测准确率高,实时性好,抗干扰能力强;
2)本发明采用改进的YOLOv5s模型进行人体目标检测,改进的YOLOv5s模型提高了人体目标检测的速度和效率,且检测精度高,提高了人体溺水检测、救援的时效性;
3)本发明改进的Alphapose模型对图像中的人体目标进行检测,得到人体关键骨骼点在图像中的坐标,改进的Alphapose模型对区域多人姿态估计系统RMPE增加了姿态引导建议发生器PGPG,利用少量的训练样本数据对本发明的Alphapose模型训练即可实现好的训练效果。
附图说明
下面结合附图和实施例对本发明作进一步说明。
图1为本发明实施例的人体溺水检测方法的流程示意图。
图2为YOLOv5s模型的结构示意图。
图3为本发明实施例改进YOLOv5s模型的示意图。
图4为本发明实施例的改进的Alphapose模型的示意图。
图5a为本发明实施例的人体骨骼关键点的示意图。
图5b为本发明实施例的水下人体骨骼关键点的示意图。
图6为本发明实施例根据人体体态特征判断是否溺水的流程示意图。
图7为本发明实施例的水中人体未出现溺水现象的检测结果示意图。
图8a为本发明实施例的第一种溺水情形的检测结果示意图。
图8b为本发明实施例的第二种溺水情形的检测结果示意图。
图8c为本发明实施例的第三种溺水情形的检测结果示意图。
图8d为本发明实施例的第四种溺水情形的检测结果示意图。
图8e为本发明实施例的第五种溺水情形的检测结果示意图。
具体实施方式
如图1所示,结合Alphapose和YOLOv5s模型的人体溺水检测方法,包括以下步骤:
步骤1:拍摄得到水中人体的图像;
步骤2:利用改进的YOLOv5s模型对图像进行人体目标检测,得到人体定位框;
如图2所示,YOLOv5s的网络模型包括骨干网络Backbone、多尺度特征融合模块Neck、预测端Prediction。
实施例的YOLOv5s在Backbone网络的第一层Focus中,对高分辨率图像进行重构,对每个像素点周围的四个点进行堆叠,得到低分辨率图像,提高每个点的视野,减少原始信息的丢失,目的是为了减少计算量,加快计算速度。Backbone网络的第三层C3/BottleNeckCSP 包含Bottleneck和CSP两部分,目的是为了提高卷积神经网络学习能力。Backbone网络的第九层的SPP模块采用5/9/13的最大池化后,再进行concat融合,提高每个点的视野。实施例的YOLOv5s的多尺度特征融合模块Neck采用Mask R-CNN和FPN框架,帮助像素传达强定位特征,两者同时使用可加强网络特征融合能力。
实施例的YOLOv5s的Prediction模块包含损失函数Bounding box和非极大值抑制(NonMaximum Suppression,NMS)。实施例的yolov5s中加入参数iou-thres,有效地解决了边界框不重合的问题,将值设为0.45,效果达到最好,有效地提高了预测框回归速度和精度。实施例的YOLOv5s在人体检测定位阶段使用NMS,对复杂的环境如光影、遮盖等增强了识别能力,获得最优目标检测框。
如图3所示,实施例改进的YOLOv5s模型在YOLOv5s模型的基础上,对Backbone网络的卷积层和head网络的卷积层均增加卷积权重系数,对Backbone网络的上采样层和head网络的上采样层均增加上采样系数,BottleneckCSP模块数量设置为(3,6,6,3),将类别数量nc设置为1。
步骤3:采用改进的Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标;
如图4所示,实施例的Alphapose模型采用区域多人姿态估计网络(RegionalMulti-person Pose Estimation,RMPE)根据图像的人体定位框检测识别出多人姿态,RMPE包括依次连接的空间变换网络(Space Transformation Network,STN)、单人姿态估计(Single Person Pose Estimation,SPPE)、空间去转换器网络(Spatial De-TransformerNetwork,SDTN)和姿态非极大值抑制器(Parametric Pose Non-Maximum Suppression,PPNMS)。
STN用于从多个人体定位框的图像中分割、提取单个的人体定位框以便于进一步进行单人姿态识别;SDTN用于将检测识别的人姿态变换还原到原图像中,SDTN实现STN的逆向过程,STN与SDTN形成对称空间变换网络(Symmetric Space Transformation Network,SSTN)。SPPE用于根据人体定位框检测识别出人姿态。实施例的SSTN与SPPE的组合,实现了对图像中多人姿态的检测识别。PPNMS用于消除冗余姿态估计,通过定义姿态的距离计算相似程度来删除冗余的检测框,提高人姿态检测识别的精度。
在训练RMPE过程中,增加一条与SSTN并行的流水线Pipeline,并行流水线包括姿态引导的样本生成器(Pose-Guided Proposals Generator,PGPG)和平行SPPE(ParallelSPPE)。 PGPG根据训练样本中已确定的真实姿态和人体定位框,生成服从特定分布的人体定位框的样本,增加人体定位框不精确的样本,以训练提高实施例的SSTN与SPPE组合的姿态检测模型对不精确人体定位框的适应能力。为提高人姿态检测识别的精度,SPPE输出的姿态标记应居中。平行SPPE和姿态检测模型中与SSTN组合的SPPE共用STN,训练过程中将平行 SPPE的姿态标记与训练样本的真实的居中的人姿态相比较并计算偏差,将偏差反向传播给 STN,以训练STN,使STN能聚焦在正确区域,提取出高准确度的人体区域。
实施例的RMPE参照卢策武等人2018年发表的论文“RMPE:Regional Multi-PersonPose Estimation”公开的RMPE模型。
如图5a所示,提取人体的18个骨骼关键点,通过18个骨骼关键点的相对位置判断人体的姿态。
溺水时,人体的体态特征包括:
1)水下溺水特征:双脚不停摆动,并且身体上下浮动,脚部位的位置坐标随时间变化;
2)最终溺水特征:人体平行于水面,并且漂浮在水面之上,可判断随时间推移关键骨骼点是否有相对变化,以得出结论是否出现最终溺水特征。
人在刚刚溺水时,人的身体往往会头朝上,水下的双腿上下浮动,从水面下拍摄的图像中不太容易识别出人的整个身体,以图5b所示的人下半身的骨骼关键点为核心,可检测骨骼关键点的相对位置随时间的变化,从而检测水下溺水的状态。
步骤4:根据人体骨骼关键点坐标,计算得到人体体态特征,判断是否出现溺水现象,如图6 所示;
步骤4.1:分别计算对应人体脚部的骨骼关键点(10)、(13)的线速度V10、V13,并利用骨骼关键点(11)、(13)的线速度计算得到人体单腿速度V11-13;计算人体重心O的线速度VO
上述线速度根据连续的M帧图像中具有时间间隔的图像帧计算得到;人体重心O的位置根据骨骼关键点(1)、(8)和(11)的坐标计算得到;
步骤4.2:计算人体脚部的线速度V10、V13与人体重心O线速度VO的比例,初步判断是否出现溺水现象;
溺水判断的计算式如下:
Figure RE-GDA0003642812510000061
式中λ表示设定的阈值,α、β分别表示人体单腿速度的上限、下限;
如果V10、V13、VO、V11-13满足式(I),则初步判定为水下溺水,结束;如果V10、V13、VO、V11-13不满足式(I),则执行步骤4.3;
步骤4.3:计算人体上半身中垂线与水平面夹角θa,若θ0a1,夹角θa在时间T内持续保持在此范围内,且a<VO<b,则判定为最终溺水,结束;
式中θ0表示溺水人体上半身中垂线与水平面夹角的最小值,θ1表示溺水人体上半身中垂线与水平面夹角的最大值,a表示人体重心线速度下限值,b表示人体重心线速度上限值;否则,执行步骤4.4;
步骤4.4:计算人体中垂线与水平线夹角θb,若θ2b3,夹角θb在时间T内持续保持在此范围内,且c<Vo<d,并且人体头部的骨骼关键点也能被检测到,则判断为最终溺水,否则判定为未溺水,式中θ2表示溺水人体中垂线与水平面夹角的最小值,θ3表示溺水人体中垂线与水平面夹角的最大值,c表示人体重心线速度最小值,d表示人体重心线速度最大值。
将本发明的人体溺水检测算法和YOLOv3-spp与AlphaPose组合算法、YOLOv4-tiny与 AlphaPose组合算法以及NanoDet-m与AlphaPose组合算法进行对比、评价,评价标准包括帧率检测、误检数、漏检数、检测准确率,对比评价结果如表1所示。漏检数为测试视频集中未能准确检测出溺水现象的视频的数量,误检数为测试视频集中未出现溺水的视频的检测结果为溺水现象视频的数量。
检测准确率η的计算式如下:
Figure RE-GDA0003642812510000062
式中Te为溺水检测视频中检测结果为溺水的视频数量,Ta为视频总数量。
表1不同溺水检测算法的检测效果对比表
检测算法 误检数 漏检数 准确率/% 帧率/FPS
YOLOv3-spp与Pose组合 17 8 75.96 3
YOLOv4-tiny与Pose组合 9 4 87.5 4
NanoDet-m与Pose组合 14 12 75 2
本发明的方法 5 3 92.31 6
由表1可见,本发明方法的准确率、帧率均明显高于其他算法。本发明算法的帧率达到 6FPS,具有较好的实时检测性,误检数和漏检数相比之下更少,准确率高达92.31%,能够满足使用条件。YOLOv4-tiny与AlphaPose组合的溺水检测算法与本发明方法的准确率更接近,但是在实际中未必能够满足实时检测的条件。其他溺水检测算法也具有较高的准确率,但对计算设备的性能要求高。本发明方法在结合准确率、设备适配上做到了最优化,更具有实用性。
实施例中,在游泳馆采集游泳池中人体的视频图像,利用本发明方法进行溺水检测。图 7为人体在水中未出现溺水现象的检测结果图。图8a、8b、8c、8d、8e均为出现溺水现象的检测结果,本发明方法成功检测出溺水现象。由图7可见,当身体正对摄像头时,可准确地检测判断是否存在溺水现象,并且关键点清晰可见。图8b、8c、8d中均有清晰可见的水花,但没有遮挡住身体的关键位置,本发明方法依然成功检测出溺水现象,本发明方法的抗干扰能力好。对比图8c、8d发现,水花在一定程度上会影响骨骼关键点的检测,但本发明方法是采用人体下半身的骨骼关键点判断是否存在溺水现象,所以水花并不影响本发明方法的溺水检测判断。

Claims (5)

1.结合Alphapose和YOLOv5s模型的人体溺水检测方法,其特征在于,包括以下步骤:
步骤1:拍摄得到水中人体的图像;
步骤2:利用YOLOv5s模型对图像进行人体目标检测,得到人体定位框;
步骤3:采用Alphapose模型识别人体定位框中的人体姿态,得到骨骼关键点并确定其坐标;
步骤4:根据人体骨骼关键点坐标,计算得到人体体态特征,判断是否出现溺水现象。
2.根据权利要求1所述的结合Alphapose和YOLOv5s模型的人体溺水检测方法,其特征在于,步骤2采用优化的YOLOv5s模型进行人体目标检测,改进的YOLOv5s模型在YOLOv5s模型的基础上,对Backbone网络单元的卷积层和head网络单元的卷积层均增加卷积权重系数,对Backbone网络单元的上采样层和head网络单元的上采样层均增加上采样系数,BottleneckCSP模块数量设置为(3,6,6,3),将类别数量nc设置为1。
3.根据权利要求1所述的结合Alphapose和YOLOv5s模型的人体溺水检测方法,其特征在于,所述人体体态特征包括:
1)初级溺水阶段,溺水人员的双脚不停摆动,并且身体上下浮动,脚部位的位置坐标随时间变化;
2)深度溺水阶段,人体的中心线与水面平行,并且人体漂浮在水面之上,可通过判断人体关键骨骼点随时间推移有无相对变化,以判断是否为测试溺水阶段。
4.根据权利要求2所述的结合Alphapose和YOLOv5s模型的人体溺水检测方法,其特征在于,步骤3对图像中的人体目标进行检测,得到人体骨骼的18个关键点在图像中的坐标。
5.根据权利要求4所述的结合Alphapose和YOLOv5s模型的人体溺水检测方法,其特征在于,步骤4具体包括以下子步骤:
步骤4.1:分别计算对应人体脚部的骨骼关键点(10)、(13)的线速度V10、V13,并利用骨骼关键点(11)、(13)的线速度计算得到人体单腿速度V11-13;计算人体胸部重心O的线速度VO
上述线速度根据连续的M帧图像中具有时间间隔的图像帧计算得到;人体重心O的位置根据骨骼关键点(1)、(8)和(11)的坐标计算得到;
步骤4.2:计算人体脚部的线速度V10、V13与人体重心O线速度VO的比例,初步判断是否出现溺水现象;
溺水判断的计算式如下:
Figure FDA0003537069730000011
式中λ表示设定的阈值,α、β分别表示人体单腿速度的上限、下限值;
如果V10、V13、VO、V11-13满足式(I),则初步判定为水下溺水,结束;如果V10、V13、VO、V11-13不满足式(I),则执行步骤4.3;
步骤4.3:计算人体上半身中垂线与水平面夹角θa,若θ0a1,夹角θa在时间T内持续保持在此范围内,且a<VO<b,则判定为最终溺水,结束;
式中θ0表示人体上半身中垂线与水平面夹角的最小值,θ1表示人体上半身中垂线与水平面夹角的最大值,a表示人体重心线速度的下限值,b表示人体重心线速度的上限值;否则,执行步骤4.4;
步骤4.4:计算人体中垂线与水平线夹角θb,若θ2b3,夹角θb在时间T内持续保持在此范围内,且c<Vo<d,并且人体头部的骨骼关键点也能被检测到,则判断为最终溺水,否则判定为未溺水,式中θ2表示人体中垂线与水平面夹角的最小值,θ3表示人体中垂线与水平面夹角的最大值,c表示人体重心线速度的最小值,d表示人体重心线速度最大值。
CN202210228031.7A 2022-03-08 2022-03-08 结合Alphapose和YOLOv5s模型的人体溺水检测方法 Active CN114724177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210228031.7A CN114724177B (zh) 2022-03-08 2022-03-08 结合Alphapose和YOLOv5s模型的人体溺水检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210228031.7A CN114724177B (zh) 2022-03-08 2022-03-08 结合Alphapose和YOLOv5s模型的人体溺水检测方法

Publications (2)

Publication Number Publication Date
CN114724177A true CN114724177A (zh) 2022-07-08
CN114724177B CN114724177B (zh) 2023-04-07

Family

ID=82237418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210228031.7A Active CN114724177B (zh) 2022-03-08 2022-03-08 结合Alphapose和YOLOv5s模型的人体溺水检测方法

Country Status (1)

Country Link
CN (1) CN114724177B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002097758A1 (en) * 2001-05-25 2002-12-05 Nanyang Technological University, Centre For Signal Processing Drowning early warning system
JP2007026331A (ja) * 2005-07-20 2007-02-01 Marine Giken:Kk 溺れ監視システム
CN106912006A (zh) * 2017-04-01 2017-06-30 成都精位科技有限公司 一种智慧游泳运动系统及实现运动管理的方法
CN108928448A (zh) * 2018-06-04 2018-12-04 湘潭大学 一种水面救援装置及施救者姿态状态操控方法
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法
CN110853301A (zh) * 2019-12-09 2020-02-28 王迪 基于机器学习的泳池防溺水识别方法
CN111191486A (zh) * 2018-11-14 2020-05-22 杭州海康威视数字技术股份有限公司 一种溺水行为识别方法、监控相机及监控系统
US20200311446A1 (en) * 2019-03-25 2020-10-01 Nomura Research Institute, Ltd. Abnormality determination device
CN112489371A (zh) * 2020-11-26 2021-03-12 上海天健体育科技发展有限公司 一种基于计算机视觉的泳池防溺水预警系统
CN113298922A (zh) * 2021-06-11 2021-08-24 深圳市优必选科技股份有限公司 人体姿态估计方法、装置及终端设备
CN113361364A (zh) * 2021-05-31 2021-09-07 北京市商汤科技开发有限公司 目标行为检测方法、装置、设备及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002097758A1 (en) * 2001-05-25 2002-12-05 Nanyang Technological University, Centre For Signal Processing Drowning early warning system
JP2007026331A (ja) * 2005-07-20 2007-02-01 Marine Giken:Kk 溺れ監視システム
CN106912006A (zh) * 2017-04-01 2017-06-30 成都精位科技有限公司 一种智慧游泳运动系统及实现运动管理的方法
CN108928448A (zh) * 2018-06-04 2018-12-04 湘潭大学 一种水面救援装置及施救者姿态状态操控方法
CN111191486A (zh) * 2018-11-14 2020-05-22 杭州海康威视数字技术股份有限公司 一种溺水行为识别方法、监控相机及监控系统
US20200311446A1 (en) * 2019-03-25 2020-10-01 Nomura Research Institute, Ltd. Abnormality determination device
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法
CN110853301A (zh) * 2019-12-09 2020-02-28 王迪 基于机器学习的泳池防溺水识别方法
CN112489371A (zh) * 2020-11-26 2021-03-12 上海天健体育科技发展有限公司 一种基于计算机视觉的泳池防溺水预警系统
CN113361364A (zh) * 2021-05-31 2021-09-07 北京市商汤科技开发有限公司 目标行为检测方法、装置、设备及存储介质
CN113298922A (zh) * 2021-06-11 2021-08-24 深圳市优必选科技股份有限公司 人体姿态估计方法、装置及终端设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SAMUEL JOHN 等: "Design of a Drowning Rescue Alert System", 《INTERNATIONAL JOURNAL OF MECHANICAL ENGINEERING AND TECHNOLOGY (IJMET) 》 *
乔羽: "基于Mask R-CNN泳池中溺水行为检测系统的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
马敬奇 等: "基于AlphaPose优化模型的老人跌倒行为检测算法", 《计算机应用》 *

Also Published As

Publication number Publication date
CN114724177B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN109522793B (zh) 基于机器视觉的多人异常行为检测与识别方法
CN107818326B (zh) 一种基于场景多维特征的船只检测方法及系统
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN110135375B (zh) 基于全局信息整合的多人姿态估计方法
CN106384093B (zh) 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN111723748A (zh) 一种红外遥感图像舰船检测方法
CN109101865A (zh) 一种基于深度学习的行人重识别方法
CN110807422A (zh) 一种基于深度学习的自然场景文本检测方法
CN108171752A (zh) 一种基于深度学习的海面船只视频检测与跟踪方法
CN109657541A (zh) 一种基于深度学习的无人机航拍图像中的船舶检测方法
US9117138B2 (en) Method and apparatus for object positioning by using depth images
CN109766796B (zh) 一种面向密集人群的深度行人检测方法
CN105022990A (zh) 一种基于无人艇应用的水面目标快速检测方法
CN109341703A (zh) 一种全周期采用CNNs特征检测的视觉SLAM算法
CN109919026B (zh) 一种水面无人艇局部路径规划方法
CN111860297A (zh) 一种应用于室内固定空间的slam回环检测方法
CN109344720A (zh) 一种基于自适应特征选择的情感状态检测方法
CN112861723A (zh) 基于人体姿势识别的体育动作识别计数方法、装置及计算机可读存储介质
CN115115672A (zh) 基于目标检测和特征点速度约束的动态视觉slam方法
CN115171336A (zh) 一种海滩监控溺水防护系统
CN111178201A (zh) 基于OpenPose姿态检测的人体分段式跟踪方法
CN102156994A (zh) 一种单视角无标记人体运动跟踪的关节定位方法
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法
Kim et al. An intelligent smart home control using body gestures
CN114724177B (zh) 结合Alphapose和YOLOv5s模型的人体溺水检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant