CN105930795A - 一种基于人体骨骼关节点间空间向量的行走状态识别方法 - Google Patents

一种基于人体骨骼关节点间空间向量的行走状态识别方法 Download PDF

Info

Publication number
CN105930795A
CN105930795A CN201610247535.8A CN201610247535A CN105930795A CN 105930795 A CN105930795 A CN 105930795A CN 201610247535 A CN201610247535 A CN 201610247535A CN 105930795 A CN105930795 A CN 105930795A
Authority
CN
China
Prior art keywords
human body
target person
depth image
space vector
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610247535.8A
Other languages
English (en)
Inventor
王晓哲
米威名
任凭
侯晨月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201610247535.8A priority Critical patent/CN105930795A/zh
Publication of CN105930795A publication Critical patent/CN105930795A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Abstract

一种基于人体骨骼关节点间空间向量的行走状态识别方法,包括:利用Kinect摄像机检测到人体后,识别出人体骨骼的关节点三维坐标;根据人体骨骼的关节点间所构成的空间向量识别人体行走状态。提取识别所需的左髋骨、左膝盖、右髋骨、右膝盖、左肩骨和右肩骨的三维坐标;分别计算左髋骨和左膝盖构成的空间向量与竖直方向的夹角的余弦值、右髋骨和右膝盖构成的空间向量与竖直方向的夹角的余弦值;通过这两个夹角的余弦值判断目标人是否处于行走状态,通过左肩骨和右肩骨构成的空间向量与Kinect摄像机正方向的夹角正弦值,判断处于行走状态的目标人是处于直行、左转还是右转。本发明能准确获得人体骨骼关节点的三维坐标数据,快速获取目标人每一帧的姿态动作。

Description

一种基于人体骨骼关节点间空间向量的行走状态识别方法
技术领域
本发明涉及RGBD相机视觉技术领域,具体涉及一种基于人体骨骼关节点间空间向量的行走状态识别方法。
背景技术
目前的跟随型服务机器人均为被动式的,在主人的后面或侧面跟随行进、或走或停。在这种情况下,主人就无法随时随刻对其进行监视。当机器人搬运贵重物品时,即使发生了物品的遗失,主人也很难立即发现,因而很容易造成很多不必要的损失。相对地,如果跟随型服务机器人能够在主人的前方行进,通过识别和预测主人的下一步动作做出正确的响应,就能够兼顾跟随和监视,避免当前被动式跟随机器人的缺陷,使得人从机器人的协助中获益更多。另一方面,当服务机器人被用于携带工具、材料或引导等用途时,机器人在前方也更加符合人类的习惯。
发明内容
本发明的目的在于提供一种基于人体骨骼关节点间空间向量的行走状态识别方法。
本发明的技术方案是:
一种基于人体骨骼关节点间空间向量的行走状态识别方法,包括:
利用Kinect摄像机检测到人体后,识别出人体骨骼的关节点三维坐标;
根据人体骨骼的关节点间所构成的空间向量识别人体行走状态。
识别出人体骨骼的关节点三维坐标的具体方法是:
当目标人进入Kinect摄像机检测范围后,Kinect摄像机获取深度图像和彩色图像;
对Kinect摄像机获取的深度图像进行中值滤波处理,去除深度图像的孤立噪声点;
对深度图像进行旋转和平移使其与彩色图像配准;
通过3D投影关系将深度图像中的每个像素点坐标与实际空间中所对应的点在水平及垂直方向上的坐标一一对应,通过深度图像的帧处理操作获取人体骨骼关节点三维坐标。
根据人体骨骼的关节点间所构成的空间向量识别人体行走状态,具体方法是:
提取识别所需的左髋骨、左膝盖、右髋骨、右膝盖、左肩骨和右肩骨的三维坐标;
分别计算目标人的左髋骨和左膝盖构成的空间向量与竖直方向的夹角的余弦值、右髋骨和右膝盖构成的空间向量与竖直方向的夹角的余弦值;
通过这两个夹角的余弦值判断目标人是否处于行走状态:若两个夹角的余弦值中有一个余弦值小于设定阈值,则目标人处于行走状态;否则,目标人处于静止状态;
通过目标人左肩骨和右肩骨构成的空间向量与Kinect摄像机正方向的夹角正弦值,判断处于行走状态的目标人是处于直行、左转还是右转:若该夹角正弦值大于设定正弦值上限,则判断目标人处于左转状态;若该夹角正弦值小于设定正弦值下限,则判断目标人处于右转状态;若该夹角正弦值介于设定正弦值上限到设定正弦值下限之间,则判断目标人处于直行状态。
对Kinect摄像机获取的深度图像进行中值滤波处理:首先判断深度图像像素值矩阵中心点是否为深度噪声点:是,则对于深度噪声点进行中值滤波,去除深度图像像素值矩阵中的所有零值点,再取深度图像像素值矩阵内所有像素值的中位数给该中心点赋值;否则保留该深度图像像素值矩阵中心点的原深度。
有益效果:
1.能够准确的获得人体骨骼关节点的三维坐标数据。
2.能够准确快速获取目标人每一帧的姿态动作。也为人体姿态的预测提供了可能。
附图说明
图1本发明具体实施方式使用的Kinect摄像机的视场范围示意图;
图2本发明具体实施方式深度图中BytesPerPixel属性图;
图3本发明具体实施方式采用的中值滤波处理方法流程图;
图4本发明具体实施方式的中值滤波处理效果图,(a)是原始深度图像,(b)是经过中值滤波处理后的深度图像;
图5本发明具体实施方式采用的人体行走示意图;
图6本发明具体实施方式中人体姿态判定原理示意图,(a)为人体左转判定原理示意图,(b)为人体右转判定原理示意图;
图7本发明具体实施方式中人体行走状态判断流程图;
图8本发明具体实施方式中使用的Kinect摄像机所识别的人体骨骼关节点图。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
本实施方式中,由跟随型服务机器人携带Kinect摄像机进入场景内,为保证跟随型服务机器人根据人体行走状态在目标人前方跟随,采用本发明的基于人体骨骼关节点间空间向量的行走状态识别方法,实时对目标人的行走状态进行识别,跟随型服务机器人根据人体行走状态在目标人前方跟随。Kinect摄像机作为一款3D体感摄影机,Kinect摄像机导入了即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能,是人机互动研究领域的常用设备之一。当Kinect摄像机获取人的每一帧骨骼关节点数据后,可以导入计算机内,将骨骼关节点三维坐标数据同各骨骼关节点间所成空间向量夹角结合起来,判断每一帧状态下人体的行走状态。
一种基于人体骨骼关节点间空间向量的行走状态识别方法,包括:
步骤1、跟随型服务机器人利用其携带的Kinect摄像机检测到人体,识别出人体骨骼的关节点三维坐标;
识别出人体骨骼的关节点三维坐标的具体方法是:
步骤1-1、当目标人进入Kinect摄像机检测范围后,Kinect摄像机获取深度图像和彩色图像;
Kinect摄像机的视场是有限的,如图1所示,有效距离L为0~4米。可以看出,Kinect摄像机的水平侦测范围为57度(以sensor为中心,左右各28.5度)。垂直范围为43度(以sensor为中心,上下各21.5度)。如果人体活动超过了Kinect摄像机视场范围,Kinect摄像机还可以追焦27度(马达能够上下旋转27度),因此,理论上上下扫描的范围应该为97度。
每个像素的深度值是和Kinect摄像机视场中物体离Kinect摄像机的距离是对应的。如图2所示的BytesPerPixel属性的深度图像数据帧中,每个像素值占16位,针对这种BytesPerPixel属性,即每一个像素占2个字节。但是每一个像素的深度值(Depth Bits)只占用了16个位中的13个位,目标人索引位(Player Index)取值范围为0~6,值为0表示该像素不是目标人。
从深度图像的左上角开始,先从左到右,再从上到下,每一个像素(2bytes)的格式在开启深度流时由ImageFormat来指定,例如要计算深度图像上任意像素点所代表的距离:
当ImageFormat的属性是ImageFormat.Depth时,第二个byte左位移8位元,并将两个byte按位进行或运算,即可得到深度图像中对应的点到Kinect摄像机的实际距离d,如式(1)所示:
d=(int)(Bits[0]|Bits[1]<<8) (1)
当ImageFormat的属性是ImageFormat.DepthAndPlayerIndex时,较低3位元是目标人索引位,第一个byte右位移3位元,第二个byte左位移5位元,并将两个byte按位进行或运算,即可得到深度图像中对应的点到Kinect摄像机的实际距离d,如式(2)所示:
d=(int)(Bits[0]>>3|Bits[1]<<5) (2)
Kinect摄像机获取的深度图像实际上是不稳定的,存在一些噪声点和空洞,特别是在狭窄边缘处获取的深度值较为不稳定,直接对其进行骨骼关节点提取时会造成一些影响,使由深度数据提取的骨骼关节点信息稳定性差,所以需要进行一些噪声的滤波处理和形态学操作等,消除深度图像中存在的一些空洞和边缘模糊,从而使得由深度数据提取的骨骼关节点信息更加稳定、准确,这样便可以更好进行人体骨骼关节点数据的获取。
中值滤波是一种能够有效抑制噪声的非线性信号处理技术,它基于排序统计理论,其基本原理是在数字图像或数字序列中,用某一点的一个邻域中各点值的中值来代替该点的值,同时让它周围像素点的像素值接近真实值,从而将孤立的噪声点消除。具体方法是采取特定结构的二维滑动模板,按像素值大小对将板内像素进行排序,生成单调上升(或下降)的二维数据序列。以下为二维中值滤波输出公式:
g(x,y)=med{f(x-k,y-l),(k,l∈W)} (3)
其中g(x,y),f(x,y)分别为处理后的图像和原始图像。W为二维模板,通常为2×2,3×3区域等。
实际上,由Kinect摄像机获取的深度图像噪声点主要是零值点,因此本实施方式采取改进的中值滤波处理方法,对深度图像中的孤立噪声点进行去除;
步骤1-2、对Kinect摄像机获取的深度图像进行中值滤波处理,去除深度图像的孤立噪声点;
如图3所示,对Kinect摄像机获取的深度图像进行中值滤波处理:首先判断使用的如式(4)所示的模板为5×5的邻域窗口即深度图像像素值矩阵的中心点P是否为深度噪声点:是,则对于深度噪声点进行中值滤波,删除该零值点,再取深度图像像素值矩阵内所有像素值的中位数给该中心点赋值;否则保留该深度图像像素值矩阵中心点的原深度。
在图4中,(a)是原始深度图像,(b)是经过中值滤波处理后的深度图像,可见,经过中值滤波后消除了深度图像中的一些噪声点和空洞,并消除了一些边缘模糊现象。噪声得到了较好的消除,为从深度图像中提取的深度骨骼坐标的正确率提供了有效保障。
1 1 1 1 1 1 1 1 1 1 1 1 p 1 1 1 1 1 1 1 1 1 1 1 1 - - - ( 4 )
步骤1-3、对深度图像进行旋转和平移使其与彩色图像配准;
Kinect摄像机中深度传感器在RGB摄像头的两边,因摄像头位置不同其所成深度图像和彩色图像不相匹配,故需要通过配准合并两者的信息。RGB图像是3D空间坐标系中的点在二维平面的投影,仅考虑旋转、平移的仿射变换,故可采用投影变换公式进行计算,深度传感器与RGB摄像头的坐标变换关系为,如式(6)所示:
x y z = R * X Y Z + T - - - ( 5 )
上式中,R为旋转矩阵,T为平移矩阵,(x,y,z)为RGB摄像头坐标系对应点的坐标,(X,Y,Z)为深度图像坐标系对应点的坐标。对应RGB图像的点坐标,如式(7)所示:
u v = f x * x z f y * y z + c x c y - - - ( 6 )
(fx,fv)为RGB图像中对应比例参数,(cx,cy)为RGB图像中心点。
步骤1-4、通过3D投影关系将深度图像中的每个像素点坐标与实际空间中所对应的点在水平及垂直方向上的坐标一一对应,通过深度图像的帧处理操作获取人体骨骼关节点三维坐标。
由于像素随着距离的增加略有降低,故对于深度图像中的每个像素点(i,j),其与实际空间中所对应的点在水平和垂直方向上的坐标也不是简单的线性关系,通过3D投影关系分析给出了以下的对应关系式,如(5)式所示:
x = d f x ( i - c x + δ x ) y = d f y ( j - c y + δ y ) - - - ( 7 )
其中,(i,j)为深度图像像素点坐标,(x,y)为空间点坐标,(δx,δy)为Kinect摄像机的畸变,(cx,cy)为图像中心点,(fx,fv)为比例参数,d为由式(1)和式(2)计算的空间点距Kinect摄像机的实际距离。按照上述公式可以将深度图像每一个像素点转化成为3D坐标,这个3D坐标系以Kinect摄像机为坐标原点,竖直方向为z轴,水平方向为y轴,垂直yz平面方向为x轴即垂直镜头方向。
当Kinect摄像机检测到人体时,先生成深度图像,再通过NUI_SKELETON_FRAME结构所包含的对于深度图像的帧处理操作,获取骨骼数据,骨骼的API消息处理每一个深度事件消息,以便应用程序处理数据。骨骼数据来自SkeletonStream,SkeletonStream对象产生SkeletonFrame。KinectSensor对象有一个名为SkeletonFrameReady事件。当SkeletonStream中有新的骨骼数据产生时就会触发该事件。SkeletonStream产生的每一帧数据都是一个骨骼对象集合。接收骨骼数据存储在Skeleton数据结构中,Skeleton定义了一系列字段来描述骨骼信息,包括描述骨骼的位置以及骨骼中关节可能的位置信息。Skeleton数据结构中eTrackingState表明当前人体追踪状态类型,dwTrackingID是人体识别的ID,成员变量NUI_SKELETON_POSITION_COUNT为人体骨骼数量,Position明确某骨骼节点位置,SkeletonPositions中存放骨骼节点的三维坐标。
Kinect for Windows SDK是通过20个骨骼关节点来表示人体骨架的,具体由图8可以看到。数据对象类型以骨骼帧的形式提供,每一帧最多可以保存20个骨骼关节点。当走进Kinect摄像机的视野范围的时候,Kinect摄像机即把20个骨骼关节点的位置找到,位置通过(x,y,z)三维坐标来表示。
设每一个时刻,kinect摄像机经中值滤波后从深度图像中提取到的骨骼坐标为
PH=(XH,YH,ZH) (8)
其中
XH=(x0,x1,…,x19)
YH=(y0,y1,…,y19)
ZH=(z0,z1,…,z19)
XH、YH和ZH分别表示目标人当前时刻的骨骼关节点坐标。
步骤2、根据人体骨骼的关节点间所构成的空间向量识别人体行走状态;
根据人体骨骼的关节点间所构成的空间向量识别人体行走状态,如图7所示,具体方法是:
步骤2-1、提取识别所需的左髋骨、左膝盖、右髋骨、右膝盖、左肩骨和右肩骨的三维坐标;识别人体行走状态使用到的目标人的骨骼关节点有:左髋骨(x12,y12,z12)、左膝盖(x13,y13,z13)、右髋骨(x16,y16,z16)、右膝盖(x17,y17,z17)、左肩骨(x4,y4,z4)和右肩骨(x8,y8,z8)。
步骤2-2、分别计算目标人的左髋骨和左膝盖构成的空间向量与竖直方向的夹角的余弦值、右髋骨和右膝盖构成的空间向量与竖直方向的夹角的余弦值,人体行走状态如图5所示;
目标人的左髋骨和左膝盖构成的空间向量与竖直方向的夹角αl的余弦值为
cos α l = | y 12 - y 13 | ( y 12 - y 13 ) 2 + ( z 12 - z 13 ) 2 - - - ( 9 )
目标人右髋骨和右膝盖构成的空间向量与竖直方向夹角αr的余弦值为
cos α r = | y 16 - y 17 | ( y 16 - y 17 ) 2 + ( y 16 - y 17 ) 2 - - - ( 10 )
步骤2-3、通过这两个夹角的余弦值判断目标人是否处于行走状态:若两个夹角的余弦值中有一个余弦值小于设定阈值0.98,则目标人处于行走状态;否则,目标人处于静止状态;
步骤2-4、通过目标人左肩骨和右肩骨构成的空间向量与Kinect摄像机正方向的夹角余弦值,判断处于行走状态的目标人是处于直行、左转还是右转,如图6(a)~(b)所示:若该夹角正弦值大于设定正弦值上限0.3,则判断目标人处于左转状态;若该夹角正弦值小于设定正弦值下限-0.3,则判断目标人处于右转状态;若该夹角正弦值介于设定余弦值上限0.3到设定正弦值下限-0.3之间,则判断目标人处于直行状态。
设目标人左肩骨和右肩骨所成向量与Kinect摄像机正方向夹角θh的正弦值
sin θ h = z 4 - z 8 ( x 4 - x 8 ) 2 + ( z 4 - z 8 ) 2 - - - ( 11 )
当|sinθh|<0.3时,视为目标人在直行;
当|sinθh|>0.3且<90°时,视为目标人左转;
当|sinθh|>0.3且θh>90°时,视为目标人右转。

Claims (4)

1.一种基于人体骨骼关节点间空间向量的行走状态识别方法,其特征在于,包括:
利用Kinect摄像机检测到人体后,识别出人体骨骼的关节点三维坐标;
根据人体骨骼的关节点间所构成的空间向量识别人体行走状态。
2.根据权利要求1所述的人体行走状态识别方法,其特征在于,识别出人体骨骼的关节点三维坐标的具体方法是:
当目标人进入Kinect摄像机检测范围后,Kinect摄像机获取深度图像和彩色图像;
对Kinect摄像机获取的深度图像进行中值滤波处理,去除深度图像的孤立噪声点;
对深度图像进行旋转和平移使其与彩色图像配准;
通过3D投影关系将深度图像中的每个像素点坐标与实际空间中所对应的点在水平及垂直方向上的坐标一一对应,通过深度图像的帧处理操作获取人体骨骼关节点三维坐标。
3.根据权利要求1所述的人体行走状态识别方法,其特征在于,根据人体骨骼的关节点间所构成的空间向量识别人体行走状态,具体方法是:
提取识别所需的左髋骨、左膝盖、右髋骨、右膝盖、左肩骨和右肩骨的三维坐标;
分别计算目标人的左髋骨和左膝盖构成的空间向量与竖直方向的夹角的余弦值、右髋骨和右膝盖构成的空间向量与竖直方向的夹角的余弦值;
通过这两个夹角的余弦值判断目标人是否处于行走状态:若两个夹角的余弦值中有一个余弦值小于设定阈值,则目标人处于行走状态;否则,目标人处于静止状态;
通过目标人左肩骨和右肩骨构成的空间向量与Kinect摄像机正方向的夹角正弦值,判断处于行走状态的目标人是处于直行、左转还是右转:若该夹角正弦值大于设定正弦值上限,则判断目标人处于左转状态;若该夹角正弦值小于设定正弦值下限,则判断目标人处于右转状态;若该夹角正弦值介于设定正弦值上限到设定正弦值下限之间,则判断目标人处于直行状态。
4.根据权利要求2所述的人体行走状态识别方法,其特征在于,对Kinect摄像机获取的深度图像进行中值滤波处理:首先判断深度图像像素值矩阵中心点是否为深度噪声点:是,则对于深度噪声点进行中值滤波,去除深度图像像素值矩阵中的所有零值点,再取深度图像像素值矩阵内所有像素值的中位数给该中心点赋值;否则保留该深度图像像素值矩阵中心点的原深度。
CN201610247535.8A 2016-04-20 2016-04-20 一种基于人体骨骼关节点间空间向量的行走状态识别方法 Pending CN105930795A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610247535.8A CN105930795A (zh) 2016-04-20 2016-04-20 一种基于人体骨骼关节点间空间向量的行走状态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610247535.8A CN105930795A (zh) 2016-04-20 2016-04-20 一种基于人体骨骼关节点间空间向量的行走状态识别方法

Publications (1)

Publication Number Publication Date
CN105930795A true CN105930795A (zh) 2016-09-07

Family

ID=56839478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610247535.8A Pending CN105930795A (zh) 2016-04-20 2016-04-20 一种基于人体骨骼关节点间空间向量的行走状态识别方法

Country Status (1)

Country Link
CN (1) CN105930795A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563320A (zh) * 2017-08-24 2018-01-09 中南大学 基于空间位置信息的人体坐姿仪态测试方法及其系统
CN107865753A (zh) * 2017-11-30 2018-04-03 湖南妙手机器人有限公司 康复机器人及其控制方法
CN107886734A (zh) * 2017-12-07 2018-04-06 苏州诚满信息技术有限公司 一种用于道路交通的智能跨线检测方法及其系统
CN109035393A (zh) * 2018-07-27 2018-12-18 东方梦幻文化产业投资有限公司 一种重建三维动画的方法及装置
CN109145697A (zh) * 2017-08-10 2019-01-04 湖南超能机器人技术有限公司 一种语音召唤智能居家康护机器人的方法
CN109308437A (zh) * 2017-07-28 2019-02-05 上海形趣信息科技有限公司 动作识别纠错方法、电子设备、存储介质
CN109801333A (zh) * 2019-03-19 2019-05-24 北京华捷艾米科技有限公司 体积测量方法、装置、系统及计算设备
CN109948579A (zh) * 2019-03-28 2019-06-28 广州凡拓数字创意科技股份有限公司 一种人体肢体语言识别方法及系统
CN110032958A (zh) * 2019-03-28 2019-07-19 广州凡拓数字创意科技股份有限公司 一种人体肢体语言识别方法及系统
CN110909581A (zh) * 2018-09-18 2020-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN111249691A (zh) * 2018-11-30 2020-06-09 百度在线网络技术(北京)有限公司 一种基于形体识别的运动员训练方法和系统
CN111938700A (zh) * 2020-08-21 2020-11-17 电子科技大学 基于人体解剖结构实时匹配的超声探头引导系统及方法
CN112382068A (zh) * 2020-11-02 2021-02-19 陈松山 基于bim与dnn的车站候车线跨越检测系统
CN113633281A (zh) * 2021-08-25 2021-11-12 北京航空航天大学 一种在装配维修过程中对人体姿态的评估方法与系统
CN113715015A (zh) * 2021-08-11 2021-11-30 北京超维世纪科技有限公司 用于多功能、模块化、自动化装置类机器人任务调度方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
US20140169623A1 (en) * 2012-12-19 2014-06-19 Microsoft Corporation Action recognition based on depth maps
CN104315998A (zh) * 2014-10-29 2015-01-28 武汉科技大学 一种基于深度图像和方位角的门开度判断方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169623A1 (en) * 2012-12-19 2014-06-19 Microsoft Corporation Action recognition based on depth maps
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN104315998A (zh) * 2014-10-29 2015-01-28 武汉科技大学 一种基于深度图像和方位角的门开度判断方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
余涛: "《Kinect应用开发实践 用最自然的方式与机器对话》", 31 January 2013, 北京:机械工业出版社 *
杨光辉 等: "基于Kinect的虚拟展馆游览系统的设计与实现", 《计算机技术与发展》 *
田国会 等: "一种基于关节点信息的人体行为识别新方法", 《机器人》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308437A (zh) * 2017-07-28 2019-02-05 上海形趣信息科技有限公司 动作识别纠错方法、电子设备、存储介质
CN109145697A (zh) * 2017-08-10 2019-01-04 湖南超能机器人技术有限公司 一种语音召唤智能居家康护机器人的方法
CN107563320A (zh) * 2017-08-24 2018-01-09 中南大学 基于空间位置信息的人体坐姿仪态测试方法及其系统
CN107865753A (zh) * 2017-11-30 2018-04-03 湖南妙手机器人有限公司 康复机器人及其控制方法
CN107865753B (zh) * 2017-11-30 2023-05-09 湖南妙手机器人有限公司 康复机器人
CN107886734A (zh) * 2017-12-07 2018-04-06 苏州诚满信息技术有限公司 一种用于道路交通的智能跨线检测方法及其系统
CN109035393A (zh) * 2018-07-27 2018-12-18 东方梦幻文化产业投资有限公司 一种重建三维动画的方法及装置
CN110909581B (zh) * 2018-09-18 2023-04-14 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN110909581A (zh) * 2018-09-18 2020-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN111249691A (zh) * 2018-11-30 2020-06-09 百度在线网络技术(北京)有限公司 一种基于形体识别的运动员训练方法和系统
CN109801333A (zh) * 2019-03-19 2019-05-24 北京华捷艾米科技有限公司 体积测量方法、装置、系统及计算设备
CN110032958A (zh) * 2019-03-28 2019-07-19 广州凡拓数字创意科技股份有限公司 一种人体肢体语言识别方法及系统
CN110032958B (zh) * 2019-03-28 2020-01-24 广州凡拓数字创意科技股份有限公司 一种人体肢体语言识别方法及系统
CN109948579A (zh) * 2019-03-28 2019-06-28 广州凡拓数字创意科技股份有限公司 一种人体肢体语言识别方法及系统
CN111938700A (zh) * 2020-08-21 2020-11-17 电子科技大学 基于人体解剖结构实时匹配的超声探头引导系统及方法
CN111938700B (zh) * 2020-08-21 2021-11-09 电子科技大学 基于人体解剖结构实时匹配的超声探头引导系统及方法
CN112382068A (zh) * 2020-11-02 2021-02-19 陈松山 基于bim与dnn的车站候车线跨越检测系统
CN113715015A (zh) * 2021-08-11 2021-11-30 北京超维世纪科技有限公司 用于多功能、模块化、自动化装置类机器人任务调度方法
CN113633281A (zh) * 2021-08-25 2021-11-12 北京航空航天大学 一种在装配维修过程中对人体姿态的评估方法与系统

Similar Documents

Publication Publication Date Title
CN105930795A (zh) 一种基于人体骨骼关节点间空间向量的行走状态识别方法
CN108596974B (zh) 动态场景机器人定位建图系统及方法
CN103955948B (zh) 一种动态环境下的空间运动目标检测方法
CN111932678B (zh) 多视点实时人体运动、手势、表情、纹理重建系统
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN104881029B (zh) 基于一点ransac和fast算法的移动机器人导航方法
CN102609724B (zh) 一种基于双摄像头的周围环境信息提示方法
WO2018019272A1 (zh) 基于平面检测实现增强现实的方法及装置
CN106780631A (zh) 一种基于深度学习的机器人闭环检测方法
CN103218605A (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN106156714A (zh) 基于骨骼关节特征和表面特征融合的人体行为识别方法
CN105741326B (zh) 一种基于聚类融合的视频序列的目标跟踪方法
CN102063727A (zh) 一种基于协方差匹配的主动轮廓跟踪方法
CN107480603A (zh) 基于slam和深度摄像头的同步建图与物体分割方法
CN111784775B (zh) 一种标识辅助的视觉惯性增强现实注册方法
CN101765019A (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN110006444A (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN114332394A (zh) 一种基于语义信息辅助的动态场景三维重建方法
CN108021857B (zh) 基于无人机航拍图像序列深度恢复的建筑物检测方法
CN109241822A (zh) 一种基于mtcnn的多方位人脸检测方法及系统
CN106204564A (zh) 一种激光光心提取方法
El Ansari et al. Temporal consistent fast stereo matching for advanced driver assistance systems (ADAS)
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其系统
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160907