CN111881898B - 基于单目rgb图像的人体姿态检测方法 - Google Patents

基于单目rgb图像的人体姿态检测方法 Download PDF

Info

Publication number
CN111881898B
CN111881898B CN202011032312.2A CN202011032312A CN111881898B CN 111881898 B CN111881898 B CN 111881898B CN 202011032312 A CN202011032312 A CN 202011032312A CN 111881898 B CN111881898 B CN 111881898B
Authority
CN
China
Prior art keywords
human body
human
value
key points
foot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011032312.2A
Other languages
English (en)
Other versions
CN111881898A (zh
Inventor
苟先太
陶明江
康立烨
李高云
胡永佳
黄毅凯
唐佳璐
苟瀚文
姚一可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Bawei Jiuzhang Technology Co ltd
Original Assignee
Sichuan Bawei Jiuzhang Technology Co ltd
Sichuan Bawei Power Technology Co ltd
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Bawei Jiuzhang Technology Co ltd, Sichuan Bawei Power Technology Co ltd, Southwest Jiaotong University filed Critical Sichuan Bawei Jiuzhang Technology Co ltd
Priority to CN202011032312.2A priority Critical patent/CN111881898B/zh
Publication of CN111881898A publication Critical patent/CN111881898A/zh
Application granted granted Critical
Publication of CN111881898B publication Critical patent/CN111881898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单目RGB图像的人体姿态检测方法,其包括S1、采用单目RGB摄像头采集视频数据,并采用帧过滤方法提取视频数据中的图像帧,之后对视频数据进行预处理;S2、将预处理后图像帧依次输入人体关键点检测模型提取人体关键点,并基于人体关键点计算图像帧的人体特征参量,将当前人体特征参量标记为F t ;S3、判断F t 是否初次检测到完整的人体结构信息,若是,则初始化比较基准量为F t ,否则采用比较基准量刷新方法更新比较基准量;S4、根据人体特征信息参量与比较基准量,采用阈值判定法检测人体姿态;S5、当人体的姿态为摔倒时,发出报警。

Description

基于单目RGB图像的人体姿态检测方法
技术领域
本发明涉及人员安全监测领域的摔倒检测,具体涉及一种基于单目RGB图像的人体姿态检测方法。
背景技术
随着中国人口老龄化问题的不断加重,老人的养老安全监测问题受到越来越多的社会关注。目前针对人员安全监测领域面临的最主要问题就是摔倒检测。
针对人体摔倒检测的核心方法主要有三类:一是通过可穿戴式传感器采集人体质心的高度进行实时监测,并通过采集的实时数据传回进行摔倒检测,该方法最大的缺点就是穿戴设备易损坏、体感舒适度低;二是通过将环境传感器部署在房间中,通过对声音、地板振动以及房间的光流信息进行采集并分析来检测摔倒,该种方法的缺点是易受环境干扰、稳定性差及误判率高。三是通过安装视频监控,通过摄像头实时采集视频数据并进行分析,从而实现人体摔倒危险的检测。基于视频监控的摔倒检测由于监测的准确率高,且不需要被监护人员佩戴任何设备传感器,因此被广泛关注。
目前针对人体摔倒检测的算法主要有:基于可穿戴式传感器的摔倒检测、基于环境信息分析的摔倒检测以及基于监控视频数据的摔倒检测。现有的摔倒检测方法存在着摔倒检测准确率不高、可穿戴式传感器易损坏和体感舒适度低等问题。
发明内容
针对现有技术中的上述不足,本发明提供的基于单目RGB图像的人体姿态检测方法解决了现有技术中摔倒检测方法摔倒检测准确率不高的问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于单目RGB图像的人体姿态检测方法,其包括:
S1、采用单目RGB摄像头采集视频数据,并采用帧过滤方法提取视频数据中的图像帧,之后对视频数据进行预处理;
S2、将预处理后图像帧依次输入人体关键点检测模型提取人体关键点,并基于人体关键点计算图像帧的人体特征参量,将当前人体特征参量标记为F t
S3、判断F t 是否初次检测到完整的人体结构信息,若是,则初始化比较基准量为F t ,否则采用比较基准量刷新方法更新比较基准量;
S4、根据人体特征信息参量与比较基准量,采用阈值判定法检测人体姿态;
S5、当人体的姿态为摔倒时,发出报警。
进一步地,所述步骤S4进一步包括:
S41、获取F t 前面设定时刻内的所有人体特征参量作为历史特征,之后计算F t 和比较基准量中的人体头脚向量间的向量夹角作为人体倾斜角度;
所述人体特征参量至少包括人体高度、人体聚合距离、上下半身比例、人体头脚向量和宽高比;
S42、将比较基准量作为基准,判断F t 中人体高度变化量是否大于摔倒高度阈值或人体聚合距离是否小于摔倒阈值或人体倾斜角度是否大于其预设阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S43;
S43、判断F t 与比较基准量中人体高度的差异是否大于高度变化阈值,F t 中上下半身比例是否大于比较基准量中上下半身比例,且F t 中宽高比是否大于比较基准量中宽高比的设定倍数,若均为是,进入步骤S44,否则人体姿态为站立;
S44、获取F t 后面设定时刻内的所有人体特征参量作为未来特征,并记录历史特征、F t 和未来特征中的最小高度、人体倾斜角度最大值、人体聚合距离最小值和最大上下半身比例;
S45、判断最小高度是否小于摔倒高度阈值或人体倾斜角度最大值是否大于预设阈值或人体聚合距离最小值是否小于摔倒阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S46;
S46、判断最大上下半身比例是否大于坐姿时的上下半身比例阈值或者最小高度是否大于坐姿时的高度阈值下界且小于高度阈值上界,若满足条件,则人体姿态为坐姿,否则人体姿态为站立。
进一步地,所述采用比较基准量刷新方法更新比较基准量的方法包括:
S31、获取F t 对应的人体关键点中的脚部关键坐标;
S32、根据场景标定后的坐标转换矩阵与脚部关键坐标计算脚部场景坐标;
S33、获取F t 前面设定时刻内的所有人体特征参量和脚部场景坐标,之后计算F t 对应脚部场景坐标与F t 前面设定时刻内所有脚部场景坐标间的距离,并标记最大距离;
S34、判断最大距离是否大于设定距离,若是,采用F t 的人体特征参量更新比较基准量,否则进入步骤S35;
S35、选取F t 前面设定时刻内的所有人体特征参量中的最大值,并判断最大值是否大于比较基准量,若是采用最大值更新比较基准量,否则不更新比较基准量。
本发明的有益效果为:本方案基于单目RGB图像实现人员在房间中的定位,并结合人员定位信息变化和人体多特征信息参量的变化进行人体姿态的检测,在无遮挡情况下漏判率和误判率都能够有效降低,从而达到较高的检测准确率。
进行人体姿态检测时,通过人体关键点检测模型完成对单目RGB图像中人体关键点的检测,对场景中人体姿态的判别有较高的准确率。
本方案在进行人体姿态检测过程中,能够根据人体位置变化,不断刷新人体姿态判别时用到的比较基准量,使得比较基准量的获取真实有效,能够有效提升姿态检测的准确率。
附图说明
图1为基于单目RGB图像的人体姿态检测方法的流程图。
图2为本方案的步骤S4的实现流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
参考图1,图1示出了基于单目RGB图像的人体姿态检测方法的流程图;如图1所示,该方法包括步骤S1至步骤S5。
在步骤S1中,采用单目RGB摄像头采集视频数据,并采用帧过滤方法提取视频数据中的图像帧,之后对视频数据进行预处理。
采用单目RGB摄像头采集视频数据,其中单目RGB摄像头安装在客厅或卧室固定位置以采集环境中的视频数据,并将采集的视频数据传回后端处理器进行数据预处理。
数据预处理主要包括图像去噪和以及图像质量压缩,通过对视频数据进行预处理后可以加快后续人体关键点检测模型的预测速度。
在步骤S2中,将预处理后图像帧依次输入人体关键点检测模型提取人体关键点,并基于人体关键点计算图像帧的人体特征参量,将当前人体特征参量标记为F t
本方案的人体关键点检测模型可以采用现有技术中比较成熟的深度学习的人体关键点检测;在采用帧过滤方法提取图像帧时,每隔10帧提取一帧,这样可以实现人体姿态检测的实时性。
在步骤S3中,判断F t 是否初次检测到完整的人体结构信息,若是,则初始化比较基准量为F t ,否则采用比较基准量刷新方法更新比较基准量;
其中,完整的人体结构信息为检测到的人体关键点数量大于总人体关键点数量的预设比例。假设总人体关键点数量为18,预设比例为60%,那么在采集时至少得采集到11个人体关键点才算得到了完整的人体结构信息。
在本发明的一个实施例中,所述采用比较基准量刷新方法更新比较基准量的方法包括:
S31、获取F t 对应的人体关键点中的脚部关键坐标;
S32、根据场景标定后的坐标转换矩阵与脚部关键坐标计算脚部场景坐标:
Figure DEST_PATH_IMAGE001
其中,
Figure DEST_PATH_IMAGE002
为场景坐标;
Figure DEST_PATH_IMAGE003
为脚部关键坐标。
实施时,本方案优选所述坐标转换矩阵的获取方法为:
选出房间中含有结构化信息的点作为坐标原点建立场景坐标系;
固定摄像头的安装位置,构建图像坐标系与场景坐标系间的坐标转换矩阵:
Figure DEST_PATH_IMAGE004
其中,TM为坐标转换矩阵,x_scale和y_scale分别为场景坐标系和图像坐标系下坐标值xy的投射系数。
其中投射系数需要通过标定得到,并且与摄像头的安放高度以及倾斜角度相关。本方案通过构建真实场景坐标系和图像坐标系中的转换关系,实现人员在房间中的定位,定位不仅能够反映人的位置信息,还能够成为比较基准量刷新的依据。
S33、获取F t 前面设定时刻(设定时刻优选包括3次人体特征参量)内的所有人体特征参量和脚部场景坐标,之后计算F t 对应脚部场景坐标与F t 前面设定时刻内所有脚部场景坐标间的距离,并标记最大距离;
S34、判断最大距离是否大于设定距离,若是,采用F t 的人体特征参量更新比较基准量,否则进入步骤S35;
S35、选取F t 前面设定时刻内的所有人体特征参量中的最大值,并判断最大值是否大于比较基准量,若是,采用最大值更新比较基准量,否则不更新比较基准量。
本方案采用上述方式对比较基准量进行更新刷新,考虑了人体的一些特征信息参量在二维图像中会依据人和摄像机之间的相对距离而发生变化造成的影响,从而可以有效降低误判率。
在步骤S4中,根据人体特征信息参量与比较基准量,采用阈值判定法检测人体姿态;
如图2所示,在本发明的一个实施例中,所述步骤S4进一步包括:
S41、获取F t 前面设定时刻内的所有人体特征参量作为历史特征,之后计算F t 和比较基准量中的人体头脚向量间的向量夹角作为人体倾斜角度;
所述人体特征参量至少包括人体高度、人体聚合距离、上下半身比例、人体头脚向量和宽高比;
S42、将比较基准量作为基准,判断F t 中人体高度变化量是否大于摔倒高度阈值或人体聚合距离是否小于摔倒阈值或人体倾斜角度是否大于其预设阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S43;
S43、判断F t 与比较基准量中人体高度的差异是否大于高度变化阈值,F t 中上下半身比例是否大于比较基准量中上下半身比例,且F t 中宽高比是否大于比较基准量中宽高比的设定倍数,若均为是,进入步骤S44,否则人体姿态为站立;
S44、获取F t 后面设定时刻内的所有人体特征参量作为未来特征,并记录历史特征、F t 和未来特征中的最小高度、人体倾斜角度最大值、人体聚合距离最小值和最大上下半身比例;
S45、判断最小高度是否小于摔倒高度阈值或人体倾斜角度最大值是否大于预设阈值或人体聚合距离最小值是否小于摔倒阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S46;
S46、判断最大上下半身比例是否大于坐姿时的上下半身比例阈值或者最小高度是否大于坐姿时的高度阈值下界且小于高度阈值上界,若满足条件,则人体姿态为坐姿,否则人体姿态为站立。
在步骤S5中,当人体的姿态为摔倒时,发出报警。
在本发明的一个实施例中,基于人体关键点计算图像帧的人体特征参量的方法包括:
获取图像帧中的人体关键点的坐标数据;
采用人体关键点中的脚部关键点和头部关键点,计算人体高度:
height_t = abs(foot_maxy-head_miny)
其中,height_tt时刻的人体高度;abs()为取绝对值;foot_maxy为脚部关键点中的最大像素y值;head_miny为头部关键点中最小像素y值;
逐次遍历所有人体关键点,计算t时刻的聚合距离:
dopdis_t = min(dopdis(i)),i∈(1,N
Figure DEST_PATH_IMAGE005
其中,NF t 中检测到的关键点总数;p iy p ix 分别为第i个关键点的像素y值和x值,p jy p jx 分别为第j个关键点的像素y值和x值;
Figure DEST_PATH_IMAGE006
为第i个关键点到其余关键点之间的平均像素距离;dopdis_tt时刻的聚合距离;min()为取最小值;
根据人体关键点的坐标数据,计算上下半身比例:
top_low_scale_t = abs(hya - sya) / abs(fya - hya)
其中,top_low_scale_tt时刻的上下半身比例;sya为肩部关键点平均y值,hya为臀部关键点平均y值,fya为脚部关键点平均y值;
根据人体关键点的坐标数据,计算人体头脚向量:
hf_vector_t = ([faxfmy],[haxhmy])
其中,hf_vector_tt时刻的人体头脚向量;fax为脚部关键点平均x值;fmy为脚部关键点最大y值;hax为头部关键点平均x值;hmy为头部关键点最小y值;
根据人体关键点的坐标,计算人体的宽高比:
aspect_ratio_t = (maxx-minx)/(maxy-miny
其中,aspect_ratio_tt时刻的宽高比;maxxmaxyminxminy分别为除手部关键点外所有关键点数据中的最大x值、最大y值、最小x值和最小y值。
其中,人体关键点包括鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右脚踝、左臀、左膝、左脚踝、右眼、左眼、右耳和左耳;
所述头部关键点包括鼻子、右眼、左眼、右耳和左耳,所述脚部关键点包括左脚踝和右脚踝;,所述肩部关键点包括右肩和左肩;手部关键点为右肘、右腕、左肘和左腕,臀部关键点包括左臀和右臀。
综上所述,本方案在对人体姿态进行检测时,通过对人体多特征信息的提取,并结合F t 前后的人体特征参量,可以有效区分日常生活中的3类姿态情况(站立、坐和摔倒),在无遮挡情况下漏判率和误判率都能够有效降低。

Claims (9)

1.基于单目RGB图像的人体姿态检测方法,其特征在于,包括:
S1、采用单目RGB摄像头采集视频数据,并采用帧过滤方法提取视频数据中的图像帧,之后对视频数据进行预处理;
S2、将预处理后图像帧依次输入人体关键点检测模型提取人体关键点,并基于人体关键点计算图像帧的人体特征参量,将当前人体特征参量标记为F t
S3、判断F t 是否初次检测到完整的人体结构信息,若是,则初始化比较基准量为F t ,否则采用比较基准量刷新方法更新比较基准量;
S4、根据人体特征信息参量与比较基准量,采用阈值判定法检测人体姿态;
S5、当人体的姿态为摔倒时,发出报警;
所述步骤S4进一步包括:
S41、获取F t 前面设定时刻内的所有人体特征参量作为历史特征,之后计算F t 和比较基准量中的人体头脚向量间的向量夹角作为人体倾斜角度;
所述人体特征参量至少包括人体高度、人体聚合距离、上下半身比例、人体头脚向量和宽高比;
S42、将比较基准量作为基准,判断F t 中人体高度变化量是否大于摔倒高度阈值或人体聚合距离是否小于摔倒阈值或人体倾斜角度是否大于其预设阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S43;
S43、判断F t 与比较基准量中人体高度的差异是否大于高度变化阈值,F t 中上下半身比例是否大于比较基准量中上下半身比例,且F t 中宽高比是否大于比较基准量中宽高比的设定倍数,若均为是,进入步骤S44,否则人体姿态为站立;
S44、获取F t 后面设定时刻内的所有人体特征参量作为未来特征,并记录历史特征、F t 和未来特征中的最小高度、人体倾斜角度最大值、人体聚合距离最小值和最大上下半身比例;
S45、判断最小高度是否小于摔倒高度阈值或人体倾斜角度最大值是否大于预设阈值或人体聚合距离最小值是否小于摔倒阈值,若满足任一条件,则人体姿态为摔倒,否则进入步骤S46;
S46、判断最大上下半身比例是否大于坐姿时的上下半身比例阈值或者最小高度是否大于坐姿时的高度阈值下界且小于高度阈值上界,若满足条件,则人体姿态为坐姿,否则人体姿态为站立。
2.根据权利要求1所述的基于单目RGB图像的人体姿态检测方法,其特征在于,所述采用比较基准量刷新方法更新比较基准量的方法包括:
S31、获取F t 对应的人体关键点中的脚部关键坐标;
S32、根据场景标定后的坐标转换矩阵与脚部关键坐标计算脚部场景坐标;
S33、获取F t 前面设定时刻内的所有人体特征参量和脚部场景坐标,之后计算F t 对应脚部场景坐标与F t 前面设定时刻内所有脚部场景坐标间的距离,并标记最大距离;
S34、判断最大距离是否大于设定距离,若是,采用F t 的人体特征参量更新比较基准量,否则进入步骤S35;
S35、选取F t 前面设定时刻内的所有人体特征参量中的最大值,并判断最大值是否大于比较基准量,若是采用最大值更新比较基准量,否则不更新比较基准量。
3.根据权利要求2所述的基于单目RGB图像的人体姿态检测方法,其特征在于,所述坐标转换矩阵的获取方法为:
选出房间中含有结构化信息的点作为坐标原点建立场景坐标系;
固定摄像头的安装位置,构建图像坐标系与场景坐标系间的坐标转换矩阵:
Figure 55020DEST_PATH_IMAGE001
其中,TM为坐标转换矩阵,x_scale和y_scale分别为场景坐标系和图像坐标系下坐标值xy的投射系数。
4.根据权利要求3所述的基于单目RGB图像的人体姿态检测方法,其特征在于,计算场景坐标的公式为:
Figure 915397DEST_PATH_IMAGE002
其中,
Figure 659231DEST_PATH_IMAGE003
为场景坐标;
Figure 644373DEST_PATH_IMAGE004
为脚部关键坐标。
5.根据权利要求1-4任一所述的基于单目RGB图像的人体姿态检测方法,其特征在于,基于人体关键点计算图像帧的人体特征参量的方法包括:
获取图像帧中的人体关键点的坐标数据;
采用人体关键点中的脚部关键点和头部关键点,计算人体高度:
height_t= abs(foot_maxy-head_miny)
其中,height_tt时刻的人体高度;abs()为取绝对值;foot_maxy为脚部关键点中的最大像素y值;head_miny为头部关键点中最小像素y值;
逐次遍历所有人体关键点,计算t时刻的聚合距离:
dopdis_t= min(dopdis(i)),i∈(1,N
Figure 348935DEST_PATH_IMAGE005
其中,NF t 中检测到的关键点总数;p iy p ix 分别为第i个关键点的像素y值和x值,p jy p jx 分别为第j个关键点的像素y值和x值;
Figure 267081DEST_PATH_IMAGE006
为第i个关键点到其余关键点之间的平均像素距离;dopdis_tt时刻的聚合距离;min()为取最小值;
根据人体关键点的坐标数据,计算上下半身比例:
top_low_scale_t = abs(hya - sya) / abs(fya - hya)
其中,top_low_scale_tt时刻的上下半身比例;sya为肩部关键点平均y值,hya为臀部关键点平均y值,fya为脚部关键点平均y值;
根据人体关键点的坐标数据,计算人体头脚向量:
hf_vector_t = ([faxfmy],[haxhmy])
其中,hf_vector_tt时刻的人体头脚向量;fax为脚部关键点平均x值;fmy为脚部关键点最大y值;hax为头部关键点平均x值;hmy为头部关键点最小y值;
根据人体关键点的坐标,计算人体的宽高比:
aspect_ratio_t = (maxx-minx)/(maxy-miny
其中,aspect_ratio_tt时刻的宽高比;maxxmaxyminxminy分别为除手部关键点外所有关键点数据中的最大x值、最大y值、最小x值和最小y值。
6.根据权利要求5所述的基于单目RGB图像的人体姿态检测方法,其特征在于,所述人体关键点包括鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右脚踝、左臀、左膝、左脚踝、右眼、左眼、右耳和左耳;
所述头部关键点包括鼻子、右眼、左眼、右耳和左耳,所述脚部关键点包括左脚踝和右脚踝;所述肩部关键点包括右肩和左肩;手部关键点为右肘、右腕、左肘和左腕,臀部关键点包括左臀和右臀。
7.根据权利要求1-4、6任一所述的基于单目RGB图像的人体姿态检测方法,其特征在于,完整的人体结构信息为检测到的人体关键点数量大于总人体关键点数量的预设比例。
8.根据权利要求7所述的基于单目RGB图像的人体姿态检测方法,其特征在于,预处理包括图像去噪和图像质量压缩。
9.根据权利要求8所述的基于单目RGB图像的人体姿态检测方法,其特征在于,所述设定时刻内包括3次人体特征参量。
CN202011032312.2A 2020-09-27 2020-09-27 基于单目rgb图像的人体姿态检测方法 Active CN111881898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011032312.2A CN111881898B (zh) 2020-09-27 2020-09-27 基于单目rgb图像的人体姿态检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011032312.2A CN111881898B (zh) 2020-09-27 2020-09-27 基于单目rgb图像的人体姿态检测方法

Publications (2)

Publication Number Publication Date
CN111881898A CN111881898A (zh) 2020-11-03
CN111881898B true CN111881898B (zh) 2021-02-26

Family

ID=73200096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011032312.2A Active CN111881898B (zh) 2020-09-27 2020-09-27 基于单目rgb图像的人体姿态检测方法

Country Status (1)

Country Link
CN (1) CN111881898B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024077005A1 (en) * 2022-10-03 2024-04-11 Sensormatic Electronics, LLC Systems and methods for detecting fall events

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112380946B (zh) * 2020-11-09 2022-12-16 苏州爱可尔智能科技有限公司 一种基于端侧ai芯片的跌倒检测方法及装置
CN112907892A (zh) * 2021-01-28 2021-06-04 上海电机学院 基于多视图的人体跌倒报警方法
CN112949417A (zh) * 2021-02-05 2021-06-11 杭州萤石软件有限公司 一种摔倒行为识别方法、设备及系统
CN114724078B (zh) * 2022-03-28 2023-06-23 西南交通大学 基于目标检测网络与知识推理的人员行为意图识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法
CN111046749A (zh) * 2019-11-25 2020-04-21 西安建筑科技大学 一种基于深度数据的人体跌倒行为检测方法
CN111582231A (zh) * 2020-05-21 2020-08-25 河海大学常州校区 一种基于视频监控的跌倒检测报警系统、方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103186902A (zh) * 2011-12-29 2013-07-03 爱思开电讯投资(中国)有限公司 基于视频的摔倒检测方法和设备
CN108629300B (zh) * 2018-04-24 2022-01-28 北京科技大学 一种跌倒检测方法
CN108960056B (zh) * 2018-05-30 2022-06-03 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN111488773B (zh) * 2019-01-29 2021-06-11 广州市百果园信息技术有限公司 一种动作识别方法、装置、设备及存储介质
RU2713876C1 (ru) * 2019-02-12 2020-02-07 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система выявления тревожных событий при взаимодействии с устройством самообслуживания
CN110765964B (zh) * 2019-10-30 2022-07-15 常熟理工学院 基于计算机视觉的电梯轿厢内异常行为的检测方法
CN111241913A (zh) * 2019-12-19 2020-06-05 北京文安智能技术股份有限公司 一种检测人员摔倒的方法、装置及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法
CN111046749A (zh) * 2019-11-25 2020-04-21 西安建筑科技大学 一种基于深度数据的人体跌倒行为检测方法
CN111582231A (zh) * 2020-05-21 2020-08-25 河海大学常州校区 一种基于视频监控的跌倒检测报警系统、方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024077005A1 (en) * 2022-10-03 2024-04-11 Sensormatic Electronics, LLC Systems and methods for detecting fall events

Also Published As

Publication number Publication date
CN111881898A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN111881898B (zh) 基于单目rgb图像的人体姿态检测方法
CN109919132B (zh) 一种基于骨架检测的行人跌倒识别方法
CN110287825B (zh) 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN107766819B (zh) 一种视频监控系统及其实时步态识别方法
JP4198951B2 (ja) グループ属性推定方法及びグループ属性推定装置
CN110837750B (zh) 一种人脸质量评价方法与装置
CN111753747B (zh) 基于单目摄像头和三维姿态估计的剧烈运动检测方法
CN108537131B (zh) 一种基于人脸特征点和光流场的人脸识别活体检测方法
CN108764058A (zh) 一种基于热成像效应的双摄像头人脸活体检测方法
KR100822476B1 (ko) 원격 응급상황 모니터링 시스템 및 방법
JP2013065119A (ja) 顔認証装置及び顔認証方法
CN111209820B (zh) 人脸活体检测方法、系统、设备及可读存储介质
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
CN111783702A (zh) 一种基于图像增强算法和人体关键点定位的高效行人摔倒检测方法
CN112907892A (zh) 基于多视图的人体跌倒报警方法
CN113384267A (zh) 一种跌倒实时检测方法、系统、终端设备及存储介质
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
CN113221815A (zh) 一种基于骨骼关键点自动检测技术的步态鉴定方法
CN114639168B (zh) 一种用于跑步姿态识别的方法和系统
Wang et al. Robust pose recognition of the obscured human body
CN115731563A (zh) 一种远距离监控人员倒地识别方法
CN115331153B (zh) 一种用于辅助前庭康复训练的姿态监测方法
CN110555394A (zh) 基于人体形体特征的跌倒风险评估方法
CN113128320B (zh) 基于tof相机的人脸活体检测方法、检测装置及电子设备
JP2022019988A (ja) 情報処理装置、ディスプレイ装置、及び制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210201

Address after: 610000, No. two, section 111, North Ring Road, Jinniu District, Sichuan, Chengdu

Applicant after: SOUTHWEST JIAOTONG University

Applicant after: Sichuan Bawei Power Technology Co.,Ltd.

Applicant after: Sichuan Bawei Jiuzhang Technology Co.,Ltd.

Address before: 610000, No. two, section 111, North Ring Road, Jinniu District, Sichuan, Chengdu

Applicant before: SOUTHWEST JIAOTONG University

Applicant before: Sichuan Bawei Innovation Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231020

Address after: 610000 Chengdu, Sichuan Province, China (Sichuan) Free Trade Pilot Zone

Patentee after: Sichuan Bawei Jiuzhang Technology Co.,Ltd.

Address before: 610000, No. two, section 111, North Ring Road, Jinniu District, Sichuan, Chengdu

Patentee before: SOUTHWEST JIAOTONG University

Patentee before: Sichuan Bawei Power Technology Co.,Ltd.

Patentee before: Sichuan Bawei Jiuzhang Technology Co.,Ltd.