CN110490109B - 一种基于单目视觉的在线人体康复动作识别方法 - Google Patents
一种基于单目视觉的在线人体康复动作识别方法 Download PDFInfo
- Publication number
- CN110490109B CN110490109B CN201910733962.0A CN201910733962A CN110490109B CN 110490109 B CN110490109 B CN 110490109B CN 201910733962 A CN201910733962 A CN 201910733962A CN 110490109 B CN110490109 B CN 110490109B
- Authority
- CN
- China
- Prior art keywords
- action
- human body
- sample
- rehabilitation
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于单目视觉的在线人体康复动作识别方法。该方法包括建模训练和在线识别,建模训练步骤中包括采集样本、提取特征、构建模型和模型训练四个分步骤,在线识别步骤中包括识别目标、识别特征和识别动作三个分步骤。通过以上步骤,本发明融合姿态估计方法OpenPose与最近邻匹配方法对监控视频流中的目标人体进行识别并生成动作序列,再通过滑动窗口从动作序列中识别检测动作特征,再将检测动作特征输入到经过建模训练得到的检测模型中进行康复动作识别。本发明只需对每帧图像中提取的少数关节点进行处理从而极大地降低了计算成本,模型易于部署,能够适应非理想、嘈杂的环境,在线识别连续的康复动作准确率达90.66%。
Description
技术领域
本发明涉及计算机视觉和图形学技术领域,尤其涉及一种基于单目视觉的在线人体康复动作识别方法。
背景技术
近年来基于视觉的人体动作识别的研究得到了广泛的关注,当前仍是计算机视觉中一个极具挑战性的课题,涉及图像处理、模式识别、人工智能等多个学科,在智能监控、人机交互、康复运动等领域有着广泛的应用前景。
脑卒中是最常见的慢性病之一,具有高发病率、高致残率的特点,是老年人健康的重大威胁。而康复锻炼是恢复卒中患者日常生活能力的主要手段,也是广泛推荐的康复疗法。
当前在居家康复领域缺乏护理医师的现场指导,同时存在看护者缺乏耐心和信心、康复知识不足的问题,导致患者出院后在家中难以完成有针对性的康复目标,依从性较差,因此需要建立一种居家康复场景下的在线动作识别方法,实现患者康复过程中动作的实时监督与指导,对患者中长期的康复水平有着重要的意义。
发明内容
本发明主要解决的技术问题是提供一种基于单目视觉的在线人体康复动作识别方法,解决现有技术中的难以实现在线识别人体康复动作的问题。
为解决上述技术问题,本发明采用的一个技术方案是提供一种基于单目视觉的在线人体康复动作识别方法,包括以下步骤:第一步,建模训练,包括采集样本、提取特征、构建模型和模型训练四个分步骤:在所述采集样本中,通过单目视觉采集设备拍摄人体动作样本,分别获得康复动作短视频样本和正常动作短视频样本;在所述提取特征中,将所述康复动作短视频样本中的每一帧图像中的人体形态进行提取,得到样本骨架特征,进一步根据所述样本骨架特征提取样本动作特征;在所述构建模型中,构建分类模型,包括依次时空特征提取模块、双层GRU网络和Softmax分类器;在所述模型训练中,将多个所述康复动作短视频样本和正常动作短视频样本对应的样本动作特征分别输入到所述分类模型中进行训练,训练所述分类模型中的参数,最终得到参数优化且能够对所述康复动作短视频样本和正常动作短视频样本进行分类识别的检测模型;
第二步,在线识别,包括识别目标、识别特征、识别动作三个分步骤:在所述识别目标中,通过单目视觉采集设备在线实时获取监控视频流,对所述监控视频流中的每一帧图像进行姿态估计并识别目标人体,并对应得到包含所述目标人体的检测骨架特征的目标人体动作序列;在所述识别特征中,对所述目标人体动作序列进行滑窗处理,识别所述目标人体动作序列的检测动作特征;在所述识别动作中,将所述检测动作特征输入到所述检测模型中,由所述检测模型实时识别出所述检测动作特征对应的动作类型。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述提取特征分步骤中,通过姿态估计方法OpenPose提取人体的14个骨架关键点作为样本骨架特征,包括脸、脖子、左肩、右肩、左肘、右肘、左腕、右腕、左胯、右胯、左膝、右膝、左脚裸、右脚裸共14个部位对应的骨架关键点。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,所述14个骨架关键点的坐标对应的28个特征为:脸(x1,y1),脖子(x2,y2),左肩(x3,y3),右肩(x4,y4),左肘(x5,y5),右肘(x6,y6),左腕(x7,y7),右腕(x8,y8),左胯(x9,y9),右胯(x10,y10),左膝(x11,y11),右膝(x12,y12),左脚裸(x13,y13),右脚裸(x14,y14);所述样本骨架特征提取样本动作特征是通过所述14个骨架关键点提取13个动作向量来表达
关节的运动信息,计算方法如下:
Va=(x1,y1)-(x2,y2),Vb=(x2,y2)-(x3,y3),Vc=(x2,y2)-(x4,y4),Vd=(x3,y3)-(x5,y5),
Ve=(x4,y4)-(x6,y6),Vf=(x5,y5)-(x7,y7),Vg=(x6,y6)-(x8,y8),Vh=(x2,y2)-(x9,y9),
Vi=(x2,y2)-(x10,y10),Vj=(x9,y9)-(x11,y11),Vk=(x10,y10)-(x12,y12),Vl=(x11,y11)-(x13,y13),
Vm=(x12,y12)-(x14,y14);
其中,(xi,yi)为骨架关键点i的坐标,Va,Vb,…Vm为提取的13个动作向量,其中每一个动作向量对应2个特征,13个动作向量对应26个特征。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,对所述骨架关键点i的坐标(xi,yi)进行归一化处理,即将坐标值(xi,yi)分别与对应的视频分辨率(vw,vh)相比,归一化得到的坐标值均是在(0,1)范围。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述时空特征提取模块中,通过多层一维卷积并结合BN层与池化层自动提取时空特征,第一卷积层与第二卷积层的卷积核数量为128,长度为8,第三卷积层与第四卷积层的卷积核数量为32,长度为8;三个池化层的步长都为2,大小也为2,每一个池化层将输入的时间步减少一半。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述双层GRU网络中,两个GRU网络单元的神经元个数为32,时间步长为输入到所述时空特征提取模块的动作向量序列的时间步长n的八分之一,第一层隐藏层每个时间步的输出状态传递给第二层隐藏层,取最后一个时间步的输出向量传递给神经元个数为64的全连接层,最后通过Softmax分类器进行动作类型的识别。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述识别目标分步骤中进一步包括:首先,确认目标人体,摄像头开启后,通过前述的姿态估计方法OpenPose实时提取图像中的多人骨架关键点,计算图像中每个人体i中的骨架关键点的y轴坐标最大值、最小值之差其中最大值对应的人体i则认为距离摄像头最近,确定为在线动作识别的目标人体;接着,目标最近邻匹配,以脖子部位的关键点坐标为基准坐标,计算当前帧每个人体i的基准坐标与前一帧目标人体基准坐标(x0,y0)的欧式距离di,di最小者判断当前帧中的目标人体,di计算方法如下:
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述识别特征分步骤中,以滑动窗口的方式从目标人体的动作序列中提取分段的检测动作特征,流程如下:第一步骤,目标人体的检测骨架特征不断加入队列,直到队列长度为n,即T=[T1,T2,T3,…,Tn],然后识别该队列的检测动作特征;第二步骤,从队头删除T1,T2,…Tk,队尾不断加入后续的k帧对应的目标人体的骨架关键点即Tn+1,Tn+2,…Tn+k,组合成新的队列分段[Tk+1,Tk+2,Tk+3,…,Tn,Tn+1,Tn+2,Tn+k],然后新的队列的检测动作特征;第三步骤,重复第二步骤,直至该目标人体消失。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述识别动作分步骤中,由滑动窗口提取分段后的每一帧图像对应的26个动作向量特征连续输入到经过训练后的检测模型中,经过前向传播并通过Softmax分类器识别得出概率最大的动作类型,实时输出目标人体正在发生的动作类别与置信度,其中置信度表达了该动作的标准程度。
在本发明基于单目视觉的在线人体康复动作识别方法另一实施例中,在所述采集样本分步骤中,所述康复动作短视频样本则包括上下臂锻炼样本、左右臂锻炼样本和/或坐起锻炼样本。
本发明的有益效果是:本发明公开了一种基于单目视觉的在线人体康复动作识别方法。该方法包括建模训练和在线识别,建模训练步骤中包括采集样本、提取特征、构建模型和模型训练四个分步骤,在线识别步骤中包括识别目标、识别特征和识别动作三个分步骤。通过以上步骤,本发明融合姿态估计方法OpenPose与最近邻匹配方法对监控视频流中的目标人体进行识别并生成动作序列,再通过滑动窗口从动作序列中识别检测动作特征,再将检测动作特征输入到经过建模训练得到的检测模型中进行康复动作识别。本发明只需对每帧图像中提取的少数关节点进行处理从而极大地降低了计算成本,模型易于部署,能够适应非理想、嘈杂的环境,在线识别连续的康复动作准确率达90.66%。
附图说明
图1是根据本发明基于单目视觉的在线人体康复动作识别方法一实施例的流程图;
图2是根据本发明基于单目视觉的在线人体康复动作识别方法另一实施例中人体骨架特征和动作特征示意图;
图3是根据本发明基于单目视觉的在线人体康复动作识别方法另一实施例中动作分类模型组成示意图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
需要说明的是,除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
图1显示了本发明基于单目视觉的在线人体康复动作识别方法一实施例的流程图。在图1中,包括以下步骤:
第一步,建模训练S1,包括采集样本S101、提取特征S102、构建模型S103和模型训练S104四个分步骤:
在所述采集样本S101中,通过单目视觉采集设备拍摄人体动作样本,分别获得康复动作短视频样本和正常动作短视频样本;
在所述提取特征S102中,将所述康复动作短视频样本中的每一帧图像中的人体形态进行提取,得到样本骨架特征,进一步根据所述样本骨架特征提取样本动作特征;
在所述构建模型S103中,构建分类模型,包括依次时空特征提取模块、双层GRU网络和Softmax分类器;
在所述模型训练S104中,将多个所述康复动作短视频样本和正常动作短视频样本对应的样本动作特征分别输入到所述分类模型中进行训练,训练所述分类模型中的参数,最终得到参数优化且能够对所述康复动作短视频样本和正常动作短视频样本进行分类识别的检测模型;
第二步,在线识别S2,包括识别目标S201、识别特征S202、识别动作S203三个分步骤:
在所述识别目标S201中,通过单目视觉采集设备在线实时获取监控视频流,对所述监控视频流中的每一帧图像进行姿态估计并识别目标人体,并对应得到包含所述目标人体的检测骨架特征的目标人体动作序列;
在所述识别特征S202中,对所述目标人体动作序列进行滑窗处理,识别所述目标人体动作序列的检测动作特征;
在所述识别动作S203中,将所述检测动作特征输入到所述检测模型中,由所述检测模型实时识别出所述检测动作特征对应的动作类型。
优选的,在所述采集样本S101中,所述单目视觉采集设备包括使用单镜头智能手机、单目摄像头采集人体动作样本,这里的人体动作样本是一段短视频,对于康复动作短视频样本则包括上下臂锻炼样本、左右臂锻炼样本和/坐起锻炼样本,正常动作短视频样本则包括静止站立、静止坐位、慢走、伸展等日常行为。
优选的,对于上述三种康复动作短视频样本对应的康复动作描述如表1中具体说明。
表1
动作类型 | 动作说明 | 目的 |
上下臂锻炼 | 双手交叉扣手,双臂伸直自腹部向头顶运动 | 肩关节前屈 |
左右臂锻炼 | 双手交叉扣手,双臂伸直后向左右运动 | 肩关节内收、外展 |
坐起锻炼 | 双臂交叉,由患侧负重站起 | 坐站训练 |
优选的,为了获得大量较好的康复动作短视频样本和正常动作短视频样本,由5位实验人员在3种不同的环境下采集而成,包含4种行为共964个短视频段,并且在光照、人体尺度、背景、拍摄角度方面都有变化。
优选的,在所述提取特征S102中,对于样本骨架特征的提取利用姿态估计方法OpenPose提取骨架关键点。这里,姿态估计方法OpenPose是基于深度学习实现的实时多人姿态估计开源库,能够实时的对图片中每个人的姿态进行精准的估计,实现面部、躯干、四肢以及手部骨骼点的提取。它兼顾了实时性与准确性,并且具有较强的鲁棒性。
优选的,这里采用的姿态估计方法OpenPose为多阶段预测网络结构,该框架以VGG-19网络模型为基础,将输入的图像转化为图像特征F,通过分阶段预测分别回归,其中表示的是亲和度向量场,描述关键点在骨架中的走向;表示关键点的置信度。该结构将每一次预测分为6个阶段,通过前4个阶段预测亲和度向量,而后两个阶段预测置信度。在每个后续阶段,将前一阶段的预测结果与原始图像特征连接起来作为输入,用于生成更精细的预测。在得到关键点的置信度及亲和度之后,采用匈牙利算法对相邻关键点进行最优匹配,从而得到每一个人的骨架信息。姿态估计方法OpenPose实时性非常出色,并且设计了多种模型架构来兼容不同的硬件配置,采用单目摄像头即可获取可靠的关键点信息,而无需专用的深度摄像头。
优选的,采用在超大规模图像数据集COCO中预训练好的参数来初始化姿态估计方法OpenPose中的VGG-19网络模型。
优选的,将短视频样本中的每一帧图像的分辨率调整为432×368后输入到姿态估计方法OpenPose中的VGG-19网络模型,输出为人体的14个2D骨架关键点,包含脸、脖子、左肩、右肩、左肘、右肘、左腕、右腕、左胯、右胯、左膝、右膝、左脚裸、右脚裸共14个部位。
优选的,对于康复动作短视频样本和正常动作短视频样本中每一个短视频样本,根据时序关系以三帧为间隔对一个短视频样本采样图像,并提取骨架关键点,以采样后的每帧图像作为一个时间步,每个时间步包含14个2D骨架关键点坐标,每个坐标对应两个特征,共28个特征。如图2所示,这14个2D骨架关键点坐标对应的28个特征为:脸(x1,y1),脖子(x2,y2),左肩(x3,y3),右肩(x4,y4),左肘(x5,y5),右肘(x6,y6),左腕(x7,y7),右腕(x8,y8),左胯(x9,y9),右胯(x10,y10),左膝(x11,y11),右膝(x12,y12),左脚裸(x13,y13),右脚裸(x14,y14)。
优选的,由于不同的单目采集设备获取的视频分辨率不同,对应的这些骨架关键点i的坐标在不同像素图像中坐标值不同,为此可以进行优化,即分别将骨架关键点坐标进行归一化,即是将绝对坐标转化为相对坐标。将坐标值(xi,yi)分别与对应的视频分辨率(vw,vh)相比,归一化得到的坐标值均是在(0,1)范围,这样减小了不同视频分辨率以及不同骨架关键点的数值差异。
进一步的,根据所述样本骨架特征提取样本动作特征是通过14个骨架关键点提取13个动作向量来表达关节的运动信息,计算方式如下:
Va=(x1,y1)-(x2,y2),Vb=(x2,y2)-(x3,y3),Vc=(x2,y2)-(x4,y4),Vd=(x3,y3)-(x5,y5),
Ve=(x4,y4)-(x6,y6),Vf=(x5,y5)-(x7,y7),Vg=(x6,y6)-(x8,y8),Vh=(x2,y2)-(x9,y9),
Vi=(x2,y2)-(x10,y10),Vj=(x9,y9)-(x11,y11),Vk=(x10,y10)-(x12,y12),Vl=(x11,y11)-(x13,y13),
Vm=(x12,y12)-(x14,y14)。
其中,(xi,yi)为骨架关键点i的坐标,Va,Vb,…Vm即提取的13个动作向量,其中每一个动作向量对应2个特征,因此13个动作向量对应26个特征,即26个动作向量特征。
优选的,如图3所示,在所述构建模型中,为了充分地挖掘序列的关系,结合一维卷积与双层GRU设计了动作分类模型。
进一步的,在时空特征提取模块12中,首先通过多层一维卷积并结合BN(批归一化)层与池化层自动提取时空特征,第一卷积层conv1与第二卷积层conv2的卷积核数量为128,长度为8,第三卷积层conv3与第四卷积层conv4的卷积核数量为32,长度为8;三个池化层pool1、pool2和pool3的步长都为2,大小也为2,每一个池化层将输入的时间步减少一半。输入到时空特征提取模块12的是时间步为n、特征维度为26的动作向量序列。在时间序列上经过多层一维卷积后输出时间步为n/8、特征维度为32的时空特征。
优选的,在双层GRU网络13中,两个GRU网络单元的神经元个数为32,时间步长为输入到所述时空特征提取模块的动作向量序列的时间步长n的八分之一,即n/8,第一层隐藏层每个时间步的输出状态传递给第二层隐藏层,取最后一个时间步的输出向量传递给神经元个数为64的全连接层,最后通过Softmax分类器14进行动作类型的识别。
优选的,Softmax分类器14是通过Softmax激活函数将多个神经元的输出映射到(0,1)之间,即各个类别的数值转化为概率,概率最大的类别即判定为分类结果。此外人体的大部分时间为静止坐位、慢走、站立等正常活动,而将正常活动误识别为康复动作对于患者的康复过程是不可靠的。该分类模型将多种正常活动视为一类动作类型,同时进行康复动作以及正常活动的识别,提升了对康复动作识别的稳定性。
优选的,在所述模型训练中,可以将所述康复动作短视频样本和正常动作短视频样本构成的样本数据集以7:3的比例划分为训练集与测试集,其中70%的样本数据用于模型训练,30%的样本数据用于测试经过训练之后的模型对康复动作样本和正常动作样本识别的效果。
优选的,通过正态分布的方式生成随机值来初始化图3所示分类模型中的权重参数,这些样本采取分批量的方式输入到该分类模型中,然后进行前向传播得到损失值,采用Adam优化器来最小化损失值,继而通过反向传播进行参数的更新,结合L2正则化与Dropout来防止过拟合的风险,学习率设置为0.001。迭代运行10000次,训练完成后保存在测试集取得最优效果的参数。
优选的,在所述识别目标中,本发明以高精度1080P单目摄像头获取在线、实时监控视频流,由于监控视频中可能有多个人体,因此要对其中的目标观测对象进行识别,这是在线视频与样本视频明显不同的一个地方,并且也只有先自动识别出目标人体后才能排除干扰,对目标人体的运动动作进行类型识别。
优选的,在识别目标步骤中,首先要确认目标人体,摄像头开启后,通过前述的姿态估计方法OpenPose实时提取图像中的多人骨架关键点,也即是获得了每一帧图像中的多人的检测骨架特征,计算图像中每个人体i中的骨架关键点的y轴坐标最大值、最小值之差其中最大值对应的人体i则认为距离摄像头最近,确定为在线动作识别的目标人体。通过该方法可以确定目标人体,以及目标人体对应的检测骨架特征。
接着是目标最近邻匹配,这是为了增强对目标人体识别的可靠性,还基于相邻帧图像进行识别,以脖颈部位的关键点坐标为基准坐标,计算当前帧每个人体i的基准坐标与前一帧目标人体基准坐标(x0,y0)的欧式距离di,di最小者判断当前帧中的目标人体,di计算方法如下:
然后是生成动作序列,结合上一步中最近邻匹配的结果,将视频流中目标人体的14个骨架关键点按照时序关系加入到动作序列中。若连续10帧没有检测到目标人体,则删除目标动作序列,重新开始确认目标人体。
由于在识别过程中是以在线的方式实时进行,需要不断的截取一段一段的短视频来进行动作类型识别,因此需要对输入的视频进行分段识别特征。而前述的样本处理中不要这一步骤,因为这些样本短视频是预处理截取好的视频段。
优选的,在所述识别特征中,这里以滑动窗口的方式从目标人体的动作序列中识别检测动作特征,这里设置滑动窗口的大小为n,例如优选n=80,即连续80帧图像作为一组分段,滑窗间隔设置为k,例如优选k=10帧。为了合理利用资源,设计队列的方式进行滑窗处理,假设动作队列为T,滑窗提取检测动作特征的流程如下:
第一步骤,目标人体的骨架关键点不断加入队列,直到队列长度为n,即T=[T1,T2,T3,…,Tn],然后识别该队列的检测动作特征;
第二步骤,从队头删除T1,T2,…Tk,队尾不断加入后续的k帧对应的目标人体的骨架关键点即Tn+1,Tn+2,…Tn+k,组合成新的队列分段[Tk+1,Tk+2,Tk+3,…,Tn,Tn+1,Tn+2,…Tn+k],然后新的队列的检测动作特征;
第三步骤,重复第二步骤,直至该目标人体消失。
优选的,在所述识别目标和识别特征中,对目标人体对应的检测骨架特征和检测动作特征的识别方法与前述对样本骨架特征和检测动作特征的提取方法相同,例如,将每个图像帧中的目标人体有14个2D骨架关键点,共28个特征,再通过14个骨架关键点提取13个动作向量来表达关节的运动信息,以及将坐标值(x,y)分别比视频分辨率(vw,vh)归一化到(0,1)范围,这些方法与前述方法相同,这里不再赘述。
优选的,在所述识别动作中,由前述滑动窗口提取分段后的每一帧图像对应的26个动作向量特征连续输入到经过训练后的检测模型中,经过前向传播并通过Softmax分类器识别得出概率最大的动作类型,实时输出目标人体正在发生的动作类别与置信度,其中置信度表达了该动作的标准程度。
为了更好的验证本发明的技术效果,对本发明进行了测试验证。在建模训练阶段,为了客观评本发明方法的准确性以及在康复场景的可用性,本文选取一个公开数据集KTH,采集了一组康复动作数据集。其中,KTH是计算机视觉一个具有标志性的数据集,包含了4类场景下25个志愿者的6种行为:慢跑(Jogging)、步行(Walking)、跑步(Running)、拳击(Boxing)、挥手(Hand waving)和拍手(Hand clappong)。该数据集一共599个视频,每秒25帧,分辨率为160×120,具有人体尺度、光照的变化,背景较为简单。康复动作数据集由5位实验人员在3种不同的环境下采集而成,包含4类行为共964个视频段,具有光照、人体尺度、背景、拍摄角度的变化。行为类型分为三种康复动作以及一类正常活动动作,其中康复动作为上下臂锻炼、左右臂锻炼和坐起锻炼,正常活动包括静止站立、静止坐位、慢走、伸展等日常行为,具体动作说明如表1所示。每个视频的分辨率为1280*720或1920*1080,帧速率为每秒15帧,视频段持续时间为8到15秒之间。
动作识别数据集的对比分析通常采用准确率作为评价标准,为分析不同的模型设置对识别精度的影响,实验分别从GRU网络的隐藏层节点个数、时间步长以及特征预处理三个方面对KTH与康复动作数据集进行分析。实验分别将GRU网络的隐藏层节点个数设置为16、32、64、128,时间步长统一设置为50,实验结果如表2所示。当隐藏层节点个数依次增加时,KTH与康复动作数据集的识别准确率分别提高至97.22%、100%。依据实验结果选取最佳的隐藏层节点数量,在KTH数据集下的隐藏层节点个数设置为64,康复动作数据集中设置为32。
表2隐藏层节点个数对精度的影响
选取合理的时间步长对于识别精度是至关重要的,过短的时间步不能够充分表达一个动作,而过长的时间步则导致运算速度慢,冗余的信息也会干扰识别过程。实验分别将时间步长设置为10、20、40、50、60、80,KTH数据集中隐藏层节点个数设置为64,康复动作数据集中隐藏层节点设置为32,实验结果如表3所示。通过识别精度在每个数据集选取合理的时间步长,时间步长在KTH与康复动作数据集中分别大于50、40后模型的精度不再提高,即两个数据集通过提取的前50、40帧图像就能够达到最好的识别效果。
表3时间步长对精度的影响
对于在线识别,相比建模训练阶段的数据集,在线动作识别更具挑战性。为测试康复训练场景下动作识别的效果,通过精度为1080P的单目摄像头捕获连续的视频流,采用在康复动作数据集中训练好的参数初始化分类网络。考虑到康复活动发生过程较慢,间隔3帧采样图像,采用时间步长为80、隐藏层节点个数为32的分类网路参数。实时获取系统时间作为参考,其中加入了无关人员的干扰,并且目标人体的位置产生了移动。本发明方法的处理能力达18FPS,能够持续捕捉并判断监控流中目标人体的康复动作,实时输出目标位置、动作类型以及动作概率,对于活动位置、其它人员干扰具有较强的适应能力。
为了客观展示本发明方法于在线动作识别方式下对康复动作的识别准确率,实验人员连续做左右臂锻炼、上下臂锻炼以及坐起锻炼各50次,并以站立、慢走等正常活动作为间隔动作。实验结果如表4所示,算法平均识别率达93%,且不易将正常活动误识别为康复动作,在线场景下能够有效进行康复动作识别。然而相对于在康复动作数据集中的表现,在线场景下模型对三种康复动作的平均识别率仅90.66%,原因在于实时环境下不同目标的动作行为存在较大的不确定性,需要更加充分的数据集训练分类网络来进一步达到更好的识别效果。
表4连续动作识别结果
由此可见,本发明公开了一种基于单目视觉的在线人体康复动作识别方法。该方法包括建模训练和在线识别,建模训练步骤中包括采集样本、提取特征、构建模型和模型训练四个分步骤,在线识别步骤中包括识别目标、识别特征和识别动作三个分步骤。通过以上步骤,本发明融合姿态估计方法OpenPose与最近邻匹配方法对监控视频流中的目标人体进行识别并生成动作序列,再通过滑动窗口从动作序列中识别检测动作特征,再将检测动作特征输入到经过建模训练得到的检测模型中进行康复动作识别。本发明只需对每帧图像中提取的少数关节点进行处理从而极大地降低了计算成本,模型易于部署,能够适应非理想、嘈杂的环境,在线识别连续的康复动作准确率达90.66%。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (4)
1.一种基于单目视觉的在线人体康复动作识别方法,其特征在于,包括以下步骤:
第一步,建模训练,包括采集样本、提取特征、构建模型和模型训练四个分步骤:
在所述采集样本中,通过单目视觉采集设备拍摄人体动作样本,分别获得康复动作短视频样本和正常动作短视频样本;
在所述提取特征中,将所述康复动作短视频样本中的每一帧图像中的人体形态进行提取,得到样本骨架特征,进一步根据所述样本骨架特征提取样本动作特征;
在所述构建模型中,构建分类模型,包括依次时空特征提取模块、双层GRU网络和Softmax分类器;
在所述模型训练中,将多个所述康复动作短视频样本和正常动作短视频样本对应的样本动作特征分别输入到所述分类模型中进行训练,训练所述分类模型中的参数,最终得到参数优化且能够对所述康复动作短视频样本和正常动作短视频样本进行分类识别的检测模型;
第二步,在线识别,包括识别目标、识别特征、识别动作三个分步骤:
在所述识别目标中,通过单目视觉采集设备在线实时获取监控视频流,对所述监控视频流中的每一帧图像进行姿态估计并识别目标人体,并对应得到包含所述目标人体的检测骨架特征的目标人体动作序列;
在所述识别特征中,对所述目标人体动作序列进行滑窗处理,识别所述目标人体动作序列的检测动作特征;
在所述识别动作中,将所述检测动作特征输入到所述检测模型中,由所述检测模型实时识别出所述检测动作特征对应的动作类型;
在所述提取特征分步骤中,通过姿态估计方法OpenPose提取人体的14个骨架关键点作为样本骨架特征,包括脸、脖子、左肩、右肩、左肘、右肘、左腕、右腕、左胯、右胯、左膝、右膝、左脚裸、右脚裸共14个部位对应的骨架关键点;所述14个骨架关键点的坐标对应的28个特征为:脸(x1,y1),脖子(x2,y2),左肩(x3,y3),右肩(x4,y4),左肘(x5,y5),右肘(x6,y6),左腕(x7,y7),右腕(x8,y8),左胯(x9,y9),右胯(x10,y10),左膝(x11,y11),右膝(x12,y12),左脚裸(x13,y13),右脚裸(x14,y14);所述样本骨架特征提取样本动作特征是通过所述14个骨架关键点提取13个动作向量来表达关节的运动信息,计算方法如下:
Va=(x1,y1)-(x2,y2),Vb=(x2,y2)-(x3,y3),Vc=(x2,y2)-(x4,y4),Vd=(x3,y3)-(x5,y5),
Ve=(x4,y4)-(x6,y6),Vf=(x5,y5)-(x7,y7),Vg=(x6,y6)-(x8,y8),Vh=(x2,y2)-(x9,y9),
Vi=(x2,y2)-(x10,y10),Vj=(x9,y9)-(x11,y11),Vk=(x10,y10)-(x12,y12),Vl=(x11,y11)-(x13,y13),
Vm=(x12,y12)-(x14,y14);
其中,(xi,yi)为骨架关键点i的坐标,Va,Vb,…Vm为提取的13个动作向量,其中每一个动作向量对应2个特征,13个动作向量对应26个特征;对所述骨架关键点i的坐标(xi,yi)进行归一化处理,即将坐标值(xi,yi)分别与对应的视频分辨率(vw,vh)相比,归一化得到的坐标值均是在(0,1)范围;其中,xi和yi是骨架关键点i对应坐标(xi,yi)中的横坐标值和纵坐标值,vw和vh是视频分辨率(vw,vh)对应的视频中每帧图像中包含的像素的横向位置和纵向位置;
在所述时空特征提取模块中,通过多层一维卷积并结合BN层与池化层自动提取时空特征,第一卷积层与第二卷积层的卷积核数量为128,长度为8,第三卷积层与第四卷积层的卷积核数量为32,长度为8;三个池化层的步长都为2,大小也为2,每一个池化层将输入的时间步减少一半;在所述双层GRU网络中,两个GRU网络单元的神经元个数为32,时间步长为输入到所述时空特征提取模块的动作向量序列的时间步长n的八分之一,第一层隐藏层每个时间步的输出状态传递给第二层隐藏层,取最后一个时间步的输出向量传递给神经元个数为64的全连接层,最后通过Softmax分类器进行动作类型的识别;
在所述识别目标分步骤中进一步包括:
首先,确认目标人体,摄像头开启后,通过前述的姿态估计方法OpenPose实时提取图像中的多人的骨架关键点,计算图像中每个人体i中的骨架关键点的y轴坐标最大值、最小值之差其中最大值对应的人体i则认为距离摄像头最近,确定为在线动作识别的目标人体;
然后,生成动作序列,结合上一步中最近邻匹配的结果,将视频流中目标人体的14个骨架关键点作为检测骨架特征按照时序关系加入到动作序列中。
2.根据权利要求1所述的基于单目视觉的在线人体康复动作识别方法,其特征在于,在所述识别特征分步骤中,以滑动窗口的方式从目标人体的动作序列中提取分段的检测动作特征,流程如下:
第一步骤,目标人体的检测骨架特征不断加入队列,直到队列长度为n,即T=[T1,T2,T3,…,Tn],然后识别该队列的检测动作特征;
第二步骤,从队头删除T1,T2,…Tk,队尾不断加入后续的k帧对应的目标人体的骨架关键点即Tn+1,Tn+2,…Tn+k,组合成新的队列分段[Tk+1,Tk+2,Tk+3,…,Tn,Tn+1,Tn+2,…Tn+k],然后识别新的队列的检测动作特征;
第三步骤,重复第二步骤,直至该目标人体消失。
3.根据权利要求2所述的基于单目视觉的在线人体康复动作识别方法,其特征在于,在所述识别动作分步骤中,由滑动窗口提取分段后的每一帧图像对应的26个动作向量特征连续输入到经过训练后的检测模型中,经过前向传播并通过Softmax分类器识别得出概率最大的动作类型,实时输出目标人体正在发生的动作类别与置信度,其中,置信度表达了该动作的标准程度。
4.根据权利要求1至3中任一项所述的基于单目视觉的在线人体康复动作识别方法,其特征在于,在所述采集样本分步骤中,所述康复动作短视频样本则包括上下臂锻炼样本、左右臂锻炼样本和/或坐起锻炼样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910733962.0A CN110490109B (zh) | 2019-08-09 | 2019-08-09 | 一种基于单目视觉的在线人体康复动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910733962.0A CN110490109B (zh) | 2019-08-09 | 2019-08-09 | 一种基于单目视觉的在线人体康复动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490109A CN110490109A (zh) | 2019-11-22 |
CN110490109B true CN110490109B (zh) | 2022-03-25 |
Family
ID=68550453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910733962.0A Active CN110490109B (zh) | 2019-08-09 | 2019-08-09 | 一种基于单目视觉的在线人体康复动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490109B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111191520B (zh) * | 2019-12-10 | 2023-02-07 | 北京大学 | 用于动作识别的人体骨架压缩方法、装置以及设备 |
CN111274948B (zh) * | 2020-01-19 | 2021-07-30 | 杭州微洱网络科技有限公司 | 针对电商图像中人体脚部及鞋子关键点的检测方法 |
CN111325144A (zh) * | 2020-02-19 | 2020-06-23 | 上海眼控科技股份有限公司 | 行为检测方法、装置、计算机设备和计算机可读存储介质 |
CN111459283A (zh) * | 2020-04-07 | 2020-07-28 | 电子科技大学 | 一种融合人工智能和Web3D的人机交互实现方法 |
CN111724879A (zh) * | 2020-06-29 | 2020-09-29 | 中金育能教育科技集团有限公司 | 康复训练评估处理方法、装置及设备 |
CN112001347B (zh) * | 2020-08-31 | 2023-07-21 | 重庆科技学院 | 一种基于人体骨架形态与检测目标的动作识别方法 |
CN113255479A (zh) * | 2021-05-10 | 2021-08-13 | 北京邮电大学 | 轻量化人体姿态识别模型训练方法、动作切分方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN108549863A (zh) * | 2018-04-11 | 2018-09-18 | 腾讯科技(深圳)有限公司 | 人体姿态预测方法、装置、设备及存储介质 |
CN108647591A (zh) * | 2018-04-25 | 2018-10-12 | 长沙学院 | 一种基于视觉-语义特征的视频中行为识别方法和系统 |
CN109376663A (zh) * | 2018-10-29 | 2019-02-22 | 广东工业大学 | 一种人体姿态识别方法及相关装置 |
CN109598229A (zh) * | 2018-11-30 | 2019-04-09 | 李刚毅 | 基于动作识别的监控系统及其方法 |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019629B2 (en) * | 2016-05-31 | 2018-07-10 | Microsoft Technology Licensing, Llc | Skeleton-based action detection using recurrent neural network |
-
2019
- 2019-08-09 CN CN201910733962.0A patent/CN110490109B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN108549863A (zh) * | 2018-04-11 | 2018-09-18 | 腾讯科技(深圳)有限公司 | 人体姿态预测方法、装置、设备及存储介质 |
CN108647591A (zh) * | 2018-04-25 | 2018-10-12 | 长沙学院 | 一种基于视觉-语义特征的视频中行为识别方法和系统 |
CN109376663A (zh) * | 2018-10-29 | 2019-02-22 | 广东工业大学 | 一种人体姿态识别方法及相关装置 |
CN109598229A (zh) * | 2018-11-30 | 2019-04-09 | 李刚毅 | 基于动作识别的监控系统及其方法 |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
Non-Patent Citations (3)
Title |
---|
Actional-Structural Graph Convolutional Networks for Skeleton-Based Action Recognition;Maosen Li 等;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;IEEE;20190620;3595-3603 * |
OpenPose: Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields;Zhe Cao 等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;IEEE;20190717;172-186 * |
行为识别人体骨架检测+LSTM;yengjie;《https://blog.csdn.net/yengjie2200/article/details/68063605》;20170329;1-7 * |
Also Published As
Publication number | Publication date |
---|---|
CN110490109A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490109B (zh) | 一种基于单目视觉的在线人体康复动作识别方法 | |
Alam et al. | Vision-based human fall detection systems using deep learning: A review | |
Chen et al. | Robust activity recognition for aging society | |
CN108305283B (zh) | 基于深度相机和基本姿势的人体行为识别方法及装置 | |
CN110472604B (zh) | 一种基于视频的行人与人群行为识别方法 | |
CN112861624A (zh) | 一种人体姿态检测方法、系统、存储介质、设备及终端 | |
CN110287825B (zh) | 一种基于关键骨骼点轨迹分析的摔倒动作检测方法 | |
CN110633736A (zh) | 一种基于多源异构数据融合的人体跌倒检测方法 | |
Ghazal et al. | Human posture classification using skeleton information | |
CN110738154A (zh) | 一种基于人体姿态估计的行人摔倒检测方法 | |
Hasan et al. | Robust pose-based human fall detection using recurrent neural network | |
CN113516005B (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
Ahmad et al. | Human action recognition using convolutional neural network and depth sensor data | |
Ahmad et al. | Human activity recognition using multi-head CNN followed by LSTM | |
Hwang et al. | Multi-modal human action recognition using deep neural networks fusing image and inertial sensor data | |
CN112101235B (zh) | 一种基于老年人行为特征的老年人行为识别检测方法 | |
CN115116127A (zh) | 一种基于计算机视觉和人工智能的跌倒检测方法 | |
Yan et al. | Human-object interaction recognition using multitask neural network | |
CN115661856A (zh) | 一种基于Lite-HRNet的自定义康复训练监测与评估方法 | |
CN115346272A (zh) | 基于深度图像序列的实时摔倒检测方法 | |
Yuan et al. | Adaptive recognition of motion posture in sports video based on evolution equation | |
Karthik et al. | Automated Home-Based Physiotherapy | |
Mavroudi et al. | Deep moving poselets for video based action recognition | |
US20230040650A1 (en) | Real-time, fine-resolution human intra-gait pattern recognition based on deep learning models | |
Özbay et al. | 3D Human Activity Classification with 3D Zernike Moment Based Convolutional, LSTM-Deep Neural Networks. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |