CN111259749A - 一种基于双向lstm的复杂环境下实时人体姿势识别方法 - Google Patents
一种基于双向lstm的复杂环境下实时人体姿势识别方法 Download PDFInfo
- Publication number
- CN111259749A CN111259749A CN202010024952.2A CN202010024952A CN111259749A CN 111259749 A CN111259749 A CN 111259749A CN 202010024952 A CN202010024952 A CN 202010024952A CN 111259749 A CN111259749 A CN 111259749A
- Authority
- CN
- China
- Prior art keywords
- human body
- vector
- dimensional
- bidirectional lstm
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Abstract
本发明公开了一种基于双向LSTM的复杂环境下实时人体姿势识别方法。利用OpenPose作为人体姿态估计模块,获取人体的二维关节点数据。根据数据缺失情况,判断人体是否处于遮挡状态。对于非遮挡情况,构建基于双向LSTM的分类器,将初始的二维关节点信息送入分类器获取非遮挡情况的人体姿势;对于遮挡状态,利用深度摄像机内参进行三维映射,构建躯干向量和关节角度,使用主成分分析对上述高维特征进行处理后送入分类器获取遮挡情况的人体姿势。本发明方法实现了在复杂环境下对人体姿势的准确识别。
Description
技术领域
本发明属于人机交互技术领域,更为具体地讲,涉及一种基于双向LSTM的复杂环境下实时人体姿势识别方法。
背景技术
机器人技术的应用从传统的工业领域逐渐拓展到医疗、服务等与人交互频繁的场景,因为上述场景对安全性及可靠性有极高要求,各种基于机器人与人之间的感知、识别等人机交互技术得到了长足发展。人们需要机器人能够迅速理解人类传递的各种信息,并根据不同信息特征做出更加自然的决策与反馈。
人体姿势一方面是表示人类状态最为直观的方式,另一方面也因为其特征明显易于观察而成为人机交互中重要的研究方向。但传统的姿势技术大多依靠一些可穿戴设备,或者静电信号等特殊信息,并以机器人为核心进行编程控制。这样的方法受到成本、计算能力、环境因素等影响导致效果大打折扣,进而使得其在应用层面上受限。且大多数结构过于复杂,很难集成到服务机器人的架构中。
以Kinect为代表的视觉传感器摆脱了可戴式设备不方便的问题,同时与静电信号相比,特征的获取更为直接且清晰。但另一方面,视觉获取的特征会因为周围环境的变化产生极大的干扰,明显地影响姿势识别的精度。
因此,需要采用更为精确、方便系统获取人体信息,同时也找到更为准确的分类架构对获取的特征进行识别分类。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于双向LSTM的复杂环境下实时人体姿势识别方法,可以实现在复杂环境下对人体姿势的准确识别。
为达到上述发明目的,本发明的构思是:
本发明利用OpenPose作为人体姿态估计模块,获取人体的二维关节点数据。根据数据缺失情况,判断人体是否处于遮挡状态。对于非遮挡情况,构建基于双向LSTM的分类器,将初始的二维关节点信息送入分类器获取非遮挡情况的人体姿势;对于遮挡状态,利用深度摄像机内参进行三维映射,构建躯干向量和关节角度,使用主成分分析对上述高维特征进行处理后送入分类器获取遮挡情况的人体姿势。实现了在复杂环境下的人体姿势识别。
根据上述构思,本发明采用如下技术方案:
一种基于双向LSTM的复杂环境下实时人体姿势识别方法,包括以下步骤:
步骤1:获取人体的二维关键点坐标P=(p0,p1,…,pl),其中l为关键点的数量,pi=(ui,vi),ui,vi分别是点i在x,y方向上的分量;
步骤2:构建基于双向LSTM的分类器;
步骤3:根据步骤1中获取的二维关键点缺失情况,判断当前是否处于遮挡情况;
步骤5:当处于遮挡情况时,对二维坐标P进行高维数据处理;
步骤6:将步骤5中处理的特征向量送入步骤2中构建的分类器中得到遮挡情况下的人体姿势。
所述步骤1的具体步骤如下:
步骤1.1:使用视觉传感器获取视频流中的每一帧二维图像;
步骤1.2:将图像送入迁移学习后的OpenPose模块,得到人体关键点的二维坐标P。
所述步骤2的具体步骤如下:
步骤2.1:构建双向LSTM层;
步骤2.2:构建全连接层FL1与FL2;两者之间加入批量归一化层。
所述步骤4的具体步骤如下:
步骤4.1:根据P点生成边界框B,长与宽分别为Bw,Bh:
步骤4.3:将点P*作为特征向量送入步骤2构建的分类器中得到非遮挡情况下的人体姿势。
所述步骤5的具体步骤如下:
步骤5.1:标定彩色图像的内参,获取内参矩阵R:
其中f代表相机的焦距,fx,fy对应相机在u,v方向的尺度因子,c对应相机主点所在的位置,cx,cy代表c在u,v方向的映射;
步骤5.2:标定彩色摄像头与红外摄像头之间的外参,将彩色图像和与之对应的深度图像配准;深度图中的深度集为D:
D=(d1,1,…,di,j)
其中i∈(1,…,w),j∈(1,…,h),w,h分别代表彩色图像在x,y方向的分辨率;
步骤5.3:得到三维坐标点pi:
pi=(xi,yi,zi)
其中,xi与yi由得到的zi与R的参数计算得出:
步骤5.4:根据三维坐标点构建躯干向量与角度特征;
将人体关节点人为划分为5个区域,分别标记为躯干、右臂、左臂、右腿、左腿;构成特征向量v:
v=(vb,vra,vla,vrl,vll)
下标代表了不同身体区域的缩写。以躯干向量vb为例:
vb=(v0,1,v1,8,v0,15,v15,17,v0,16,v16,18)
对应的下标决定了组成该向量的关节的索引点以及向量的方向,以v0,1为例:
vb=(v0,1,v1,8,v0,15,v15,17,v0,16,v16,18)
同时获取各区域空间平面的夹角,等同于各平面法向量夹角;例如躯干平面与右臂平面的夹角,需要得到这两平面的法向量;位于躯干平面的向量v0,8,v0,17,法向量为nvb,类似的位于右臂平面的向量v2,3,v3,4,法向量为nvra:
设定两平面法向量夹角为θ:
设定平面内夹角为α,其下标代表了组成该角度向量所需关键点的索引;如α123代表了该夹角为向量v1,2与v2,3的夹角;
步骤5.5:使用主成分分析的方法对数据进行降维处理;
计算得到经处理后生成的数据矩阵的协方差矩阵X={x1,x2,…xn},其中xi为第i维数据。
引入其散度矩阵S:
对于X中的每一个特征向量减去这一均值得到崭新的数据集Xnew,计算其协方差矩阵C:
对C进行SVD分解求得其特征值与特征向量:
C=U·Λ·V
其中,矩阵U是由CCT的特征值与特征向量单位化后得到,对CTC进行同样操作得到矩阵V,对于上述两个矩阵的特征值求平方根,得到矩阵Λ;
与现有技术相比,本发明方法具有以下有益效果:
1.本发明使用以双向LSTM网络为基础的分类网络进行人体姿势的识别,取得了较传统机器学习以及神经网络的方法更高的准确率。
2.本发明在遮挡情况下对原始特征进行了高维数据处理,使得处理后数据送入分类器后在遮挡情况下取得了较传统机器学习方法更高的准确率。
附图说明
图1是本发明基于双向LSTM的复杂环境下实时人体姿势识别方法流程图。
图2获取的人体骨架信息示意图。
图3是对数据进行训练的流程图。
图4是本文分类器架构图。
图5是高维数据处理示意图。
图6是人体姿势识别的对比图。
具体实施方式
下面结合附图对本发明的具体实施例进行详细的描述。
本实施利用OpenPose框架获取人体的二维关键点信息,具体展示可见图4。本实施例中,所有的数据传输都依靠ROS操作系统,通过Kinect发布的Topic获取当前的RGB图像以及深度图像,并将获取的二维关键点信息通过服务的方式发出供其他模块调用。
如图1所示,一种基于双向LSTM的复杂环境下实时人体姿势识别方法,包括以下步骤:
步骤1:获取人体的二维关键点坐标P=(p0,p1,…,pl),其中l为关键点的数量,pi=(ui,vi);
步骤1.1:使用Kinect视觉传感器获取视频流中的每一帧二维图像;
步骤1.2:将图像送入迁移学习后的OpenPose模块,得到人体关键点的二维坐标P,如图2所示。
步骤2:构建基于双向LSTM的分类器,如图3所示;
步骤2.1:构建双向LSTM层,一方面增加了特征的时域属性,另一方面利用其遗忘门的结构特性防止了长时序特征训练过程中出现的梯度消失问题;
步骤2.2:构建全连接层FL1与FL2。前者包含了256个节点,后者包含了128个节点,两者之间加入批量归一化层来解决反向传播时底层神经网络的梯度消失问题;
步骤3:根据步骤1中获取的二维关键点缺失情况,判断当前是否处于遮挡情况;
步骤4.1:根据P点生成边界框B,长与宽分别为Bw,Bh:
步骤4.3:将点P*作为特征向量送入步骤2构建的分类器中得到非遮挡情况下的人体姿势,分类对比图见图6所示。
步骤5:当处于遮挡情况时,对P进行高维数据处理,增加其应对因遮挡而出现原始特征缺失的能力;
步骤5.1:标定彩色图像的内参,获取内参矩阵R:
其中f代表相机的焦距,fx,fy对应相机在u,v方向的尺度因子,c对应相机主点所在的位置,cx,cy代表c在u,v方向的映射;
步骤5.2:标定彩色摄像头与红外摄像头之间的外参,将彩色图像和与之对应的深度图像配准;深度图中的深度集为D:
D=(d1,1,…,di,j)
其中i∈(1,…,w),j∈(1,…,h),w,h分别代表彩色图像在x,y方向的分辨率;
步骤5.3:得到三维坐标点pi:
pi=(xi,yi,zi)
其中,xi与yi由得到的zi与R的参数计算得出:
步骤5.4:根据三维坐标点构建躯干向量与角度特征;如图5所示。
将人体关节点人为划分为5个区域,分别标记为躯干、右臂、左臂、右腿、左腿;构成特征向量v:
v=(vb,vra,vla,vrl,vll)
以躯干向量vb为例:
vb=(v0,1,v1,8,v0,15,v15,17,v0,16,v16,18)
对应的下标决定了组成该向量的关节点以及向量的方向,以va,b为例:
va,b=pb-pa=(xb-xa,yb-ya,zb-za)
其中a,b∈(1,…,N),N代表了人体关节点的数目;
同时获取各区域空间平面的夹角,等同于各平面法向量夹角;例如躯干平面与右臂平面的夹角,需要得到这两平面的法向量;位于躯干平面的向量v0,8,v0,17,法向量为nvb,类似的位于右臂平面的向量v2,3,v3,4,法向量为nvra:
设定两平面法向量夹角为θ:
设定平面内夹角为α,其下标代表了组成该角度向量所需关键点的索引;如α123代表了该夹角为向量v1,2与v2,3的夹角;
步骤5.5:使用主成分分析的方法对数据进行降维处理;
计算得到经处理后生成的数据矩阵的协方差矩阵X={x1,x1,…xn},引入其散度矩阵S:
对于X中的每一个特征向量减去这一均值得到崭新的数据集Xnew,计算其协方差矩阵C:
对C进行SVD分解求得其特征值与特征向量:
C=U·Λ·V
其中,矩阵U是由CCT的特征值与特征向量单位化后得到,对CTC进行同样操作得到矩阵V,对于上述两个矩阵的特征值求平方根,得到矩阵Λ;
步骤6:将步骤5中处理的特征向量送入步骤2中构建的分类器中得到遮挡情况下的人体姿势。
Claims (5)
1.一种基于双向LSTM的复杂环境下实时人体姿势识别方法,其特征在于,包括以下步骤:
步骤1:获取人体的二维关键点坐标P=(p0,p1,…,pl),其中l为关键点的数量,pi=(ui,vi),其中,ui,vi分别是点i在x,y方向上的分量;
步骤2:构建基于双向LSTM的分类器;
步骤3:根据步骤1中获取的二维关键点缺失情况,判断当前是否处于遮挡情况;
步骤5:当处于遮挡情况时,对二维坐标P进行高维数据处理;
步骤6:将步骤5中处理的特征向量送入步骤2中构建的分类器中得到遮挡情况下的人体姿势。
2.根据权利要求1所述的基于双向LSTM的复杂环境下实时人体姿势识别方法,其特征在于,所述步骤1的具体步骤如下:
步骤1.1:使用视觉传感器获取视频流中的每一帧二维图像;
步骤1.2:将图像送入迁移学习后的OpenPose模块,得到人体关键点的二维坐标P。
3.根据权利要求1所述的基于双向LSTM的复杂环境下实时人体姿势识别方法,其特征在于,所述步骤2的具体步骤如下:
步骤2.1:构建双向LSTM层;
步骤2.2:构建全连接层FL1与FL2;两者之间加入批量归一化层。
5.根据权利要求1所述的基于双向LSTM的复杂环境下实时人体姿势识别方法,其特征在于,所述步骤5的具体步骤如下:
步骤5.1:标定彩色图像的内参,获取内参矩阵R:
其中f代表相机的焦距,fx,fy对应相机在u,v方向的尺度因子,c对应相机主点所在的位置,cx,cy代表c在u,v方向的映射;
步骤5.2:标定彩色摄像头与红外摄像头之间的外参,将彩色图像和与之对应的深度图像配准;深度图中的深度集为D:
D=(d1,1,…,di,j)
其中i∈(1,…,w),j∈(1,…,h),w,h分别代表彩色图像在x,y方向的分辨率;
步骤5.3:得到三维坐标点pi:
pi=(xi,yi,zi)
其中,xi与yi由得到的zi与R的参数计算得出:
步骤5.4:根据三维坐标点构建躯干向量与角度特征;
将人体关节点人为划分为5个区域,分别标记为躯干、右臂、左臂、右腿、左腿;构成特征向量v:
v=(vb,vra,vla,vrl,vll)
下标代表了不同身体区域的缩写;以躯干向量vb为例:
vb=(v0,1,v1,8,v0,15,v15,17,v0,16,v16,18)
对应的下标决定了组成该向量的关节点的索引以及向量的方向,以v0,1为例:
v0,1=p1-p0=(x1-x0,y1-y0,z1-z0)
同时获取各区域空间平面的夹角,等同于各平面法向量夹角;例如躯干平面与右臂平面的夹角,需要得到这两平面的法向量;位于躯干平面的向量v0,8,v0,17,法向量为nvb,类似的位于右臂平面的向量v2,3,v3,4,法向量为nvra:
设定两平面法向量夹角为θ:
设定平面内夹角为α,其下标代表了组成该角度向量所需关键点的索引;如α123代表了该夹角为向量v1,2与v2,3的夹角;
步骤5.5:使用主成分分析的方法对数据进行降维处理;
计算得到经处理后生成的数据矩阵的协方差矩阵X={x1,x2,…xn},其中xi为第i维数据;引入其散度矩阵S:
对于X中的每一个特征向量减去这一均值得到崭新的数据集Xnew,计算其协方差矩阵C:
对C进行SVD分解求得其特征值与特征向量:
C=U·Λ·V
其中,矩阵U是由CCT的特征值与特征向量单位化后得到,对CTC进行同样操作得到矩阵V,对于上述两个矩阵的特征值求平方根,得到矩阵Λ;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010024952.2A CN111259749A (zh) | 2020-01-10 | 2020-01-10 | 一种基于双向lstm的复杂环境下实时人体姿势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010024952.2A CN111259749A (zh) | 2020-01-10 | 2020-01-10 | 一种基于双向lstm的复杂环境下实时人体姿势识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111259749A true CN111259749A (zh) | 2020-06-09 |
Family
ID=70952715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010024952.2A Pending CN111259749A (zh) | 2020-01-10 | 2020-01-10 | 一种基于双向lstm的复杂环境下实时人体姿势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259749A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111898571A (zh) * | 2020-08-05 | 2020-11-06 | 北京华捷艾米科技有限公司 | 动作识别系统及方法 |
CN112109090A (zh) * | 2020-09-21 | 2020-12-22 | 金陵科技学院 | 多传感器融合的搜索救援机器人系统 |
CN112906667A (zh) * | 2021-04-07 | 2021-06-04 | 南开大学 | 基于三维人体关键点的人体姿态分层分类方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN106897670A (zh) * | 2017-01-19 | 2017-06-27 | 南京邮电大学 | 一种基于计算机视觉的快递暴力分拣识别方法 |
CN106919251A (zh) * | 2017-01-09 | 2017-07-04 | 重庆邮电大学 | 一种基于多模态情感识别的虚拟学习环境自然交互方法 |
CN108038465A (zh) * | 2017-12-25 | 2018-05-15 | 深圳市唯特视科技有限公司 | 一种基于合成数据集的三维多人物姿态估计 |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109902593A (zh) * | 2019-01-30 | 2019-06-18 | 济南大学 | 一种基于Kinect的手势遮挡检测方法及系统 |
-
2020
- 2020-01-10 CN CN202010024952.2A patent/CN111259749A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN106919251A (zh) * | 2017-01-09 | 2017-07-04 | 重庆邮电大学 | 一种基于多模态情感识别的虚拟学习环境自然交互方法 |
CN106897670A (zh) * | 2017-01-19 | 2017-06-27 | 南京邮电大学 | 一种基于计算机视觉的快递暴力分拣识别方法 |
CN108038465A (zh) * | 2017-12-25 | 2018-05-15 | 深圳市唯特视科技有限公司 | 一种基于合成数据集的三维多人物姿态估计 |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109902593A (zh) * | 2019-01-30 | 2019-06-18 | 济南大学 | 一种基于Kinect的手势遮挡检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
YONG DU ET AL: ""Hierarchical Recurrent Neural Network for Skeleton Based Action Recognition"", 《CVF》 * |
罗会兰等: "融合多姿势估计特征的动作识别", 《中国图象图形学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111898571A (zh) * | 2020-08-05 | 2020-11-06 | 北京华捷艾米科技有限公司 | 动作识别系统及方法 |
CN112109090A (zh) * | 2020-09-21 | 2020-12-22 | 金陵科技学院 | 多传感器融合的搜索救援机器人系统 |
CN112906667A (zh) * | 2021-04-07 | 2021-06-04 | 南开大学 | 基于三维人体关键点的人体姿态分层分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018107979A1 (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
CN111259749A (zh) | 一种基于双向lstm的复杂环境下实时人体姿势识别方法 | |
CN111695562B (zh) | 一种基于卷积神经网络的机器人自主抓取方法 | |
Yang et al. | Detecting human faces in color images | |
Singha et al. | Indian sign language recognition using eigen value weighted euclidean distance based classification technique | |
WO2017166933A1 (zh) | 一种基于核机器学习的非负矩阵分解人脸识别方法及系统 | |
CN109977757B (zh) | 一种基于混合深度回归网络的多模态的头部姿态估计方法 | |
CN107239728A (zh) | 基于深度学习姿态估计的无人机交互装置与方法 | |
Elforaici et al. | Posture recognition using an RGB-D camera: exploring 3D body modeling and deep learning approaches | |
CN109359514B (zh) | 一种面向deskVR的手势跟踪识别联合策略方法 | |
CN109048918A (zh) | 一种轮椅机械臂机器人的视觉引导方法 | |
CN113065546A (zh) | 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统 | |
CN116343330A (zh) | 一种红外-可见光图像融合的异常行为识别方法 | |
CN110633624A (zh) | 一种基于多特征融合的机器视觉人体异常行为识别方法 | |
Guo et al. | Research on optimization of static gesture recognition based on convolution neural network | |
Li et al. | Teleoperation of a virtual icub robot under framework of parallel system via hand gesture recognition | |
CN114494594B (zh) | 基于深度学习的航天员操作设备状态识别方法 | |
CN114241515A (zh) | 一种基于时空上下文特征感知的三维人体姿态估计方法 | |
Diana et al. | Deformable-medium affordances for interacting with multi-robot systems | |
CN113326932B (zh) | 基于物体检测的物体操作指令跟随学习方法及装置 | |
Nair et al. | Learning on the job: self-rewarding offline-to-online finetuning for industrial insertion of novel connectors from vision | |
CN113971801A (zh) | 一种基于四类多模态数据融合的目标多维度检测方法 | |
CN111611869B (zh) | 一种基于串行深度神经网络的端到端单目视觉避障方法 | |
CN112699784A (zh) | 一种人脸朝向估计方法、装置、电子设备及存储介质 | |
Lin et al. | Robot grasping based on object shape approximation and LightGBM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200609 |
|
RJ01 | Rejection of invention patent application after publication |