CN109064486A - 一种人形机器人与人体姿态相似度评价方法 - Google Patents
一种人形机器人与人体姿态相似度评价方法 Download PDFInfo
- Publication number
- CN109064486A CN109064486A CN201810633035.7A CN201810633035A CN109064486A CN 109064486 A CN109064486 A CN 109064486A CN 201810633035 A CN201810633035 A CN 201810633035A CN 109064486 A CN109064486 A CN 109064486A
- Authority
- CN
- China
- Prior art keywords
- connecting rod
- coordinate system
- joint
- anthropomorphic robot
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种人形机器人与人体姿态相似度评价方法,包括如下步骤:(1)通过深度摄像头获取人体骨骼节点的三维位置信息;(2)根据人体骨骼节点构建人体骨骼模型的连杆向量;(3)将人体骨骼模型各连杆向量在深度摄像头坐标系中的坐标转换到人类观测坐标系中;(4)根据人形机器人各关节角度及支撑脚姿态计算人形机器人各连杆向量在机器人观测坐标系中的坐标;(5)根据人体骨骼模型连杆向量在人类观测坐标系中的坐标和人形机器人连杆向量在机器人观测坐标系中的坐标计算人形机器人与人体姿态的相似度。本发明利用人体骨骼模型和人形机器人连杆在世界坐标系中的向量量化评价姿态相似度,具有表征充分、侧重整体、评价准确的特点。
Description
技术领域
本发明涉及人机交互技术领域,特别涉及一种人形机器人与人体姿态相似度评价方法。
背景技术
近年来,机器人技术快速发展,并越来越广泛地应用于工业、医疗、科学研究与教育培训和家庭日常生活等领域当中。与此同时,愈加复杂和多样的应用环境对机器人的适应性和智能化提出了更高的要求。机器人模仿学习技术可以提高机器人学习效率,提升机器人智能化程度,将开发者从繁重的编程工作中解脱出来。对机器人模仿姿态与人体姿态的相似度进行恰当的评价,对于机器人模仿系统的优化具有重要作用。当前一些研究使用主观评价的方法,该种方法需要发放问卷搜集信息,过程较为繁琐,难以获取精确的量化评价指标。另外一些研究使用量化评价方法对机器人模仿相似度进行评价,这些方法大多基于关节角度或身体关键节点。而关节角度或身体关键节点无法直接表征模仿或演示的姿态,因而难以有效评价人形机器人动作模仿的相似度。
发明内容
本发明的目的在于克服现有技术中的缺点与不足,提供一种人形机器人与人体姿态相似度评价方法,利用人体骨骼模型和机器人连杆在世界坐标系中的向量量化评价姿态相似度,具有表征充分、侧重整体、评价准确的特点。
为实现以上目的,本发明采取如下技术方案:
一种人形机器人与人体姿态相似度评价方法,包括下列步骤:
S1、通过深度摄像头获取人体骨骼节点的三维位置信息;
S2、根据步骤S1获得的人体骨骼节点构建人体骨骼模型的连杆向量;
S3、将步骤S2获得的人体骨骼模型各连杆向量在深度摄像头坐标系中的坐标转换到人类观测坐标系中;
S4、定义人形机器人全身关节和连杆,根据人形机器人各关节角度及支撑脚姿态计算人形机器人各连杆向量在机器人观测坐标系中的坐标;
S5、根据步骤S3获得的人体骨骼模型连杆向量在人类观测坐标系中的坐标和步骤S4获得的人形机器人连杆向量在机器人观测坐标系中的坐标计算人形机器人与人体姿态的相似度。
作为优选的技术方案,步骤S1中,所述通过深度摄像头获取人体骨骼节点的三维位置信息,包括人体的四肢和脊柱各关节点的信息。
作为优选的技术方案,步骤S2,具体过程如下:
将人体骨骼模型的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;根据同一连杆的两个骨骼节点的三维坐标,得到该连杆在深度摄像头坐标系中的向量坐标。
作为优选的技术方案,步骤S3中,利用转换矩阵Rh将深度摄像头坐标系中人体骨骼模型的连杆向量坐标转换到人类观测坐标系中,转换矩阵Rh为:
其中,分别为在深度摄像头坐标系中与深度摄像头坐标系X轴、Y轴、Z轴正向同向的向量,分别为在深度摄像头坐标系中与人类观测坐标系X轴、Y轴、Z轴正向同向的向量。
作为优选的技术方案,步骤S4中,包括下述步骤:
S41、定义人形机器人全身关节和连杆:将人形机器人的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;将靠近支撑脚的连杆定义为远离支撑脚的连杆的母连杆;将远离支撑脚的连杆定义为靠近支撑脚的连杆的子连杆;将颈部、左肩、左肘、左腕、左髋、左膝、左踝、右肩、右肘、右腕、右髋、右膝、右踝定义为主关节;将人形机器人主关节所具有的不同自由度定义为该主关节的次关节;将靠近支撑脚的主关节或次关节定义为远离支撑脚的主关节或次关节的母关节,将远离支撑脚的主关节或次关节定义为靠近支撑脚的主关节或次关节的子关节;
将与一个关节相连的两个连杆中靠近支撑脚的连杆定义为该关节的母连杆,远离支撑脚的连杆定义为该关节的子连杆;将与一个连杆相连的两个关节中靠近支撑脚的关节定义为该连杆的母关节,远离支撑脚的关节定义为该连杆的子关节;
S42、令初始姿态时人形机器人第k个连杆向量在机器人观测坐标系中的坐标为k=1,2,3,4,5…,根据每个连杆各母关节的旋转角度θmki及相应旋转矩阵R(θmki),以及支撑脚坐标系相对于机器人观测坐标系的旋转矩阵Rsupport,得到当前姿态的连杆向量在机器人观测坐标系中的坐标
其中,n为目标连杆到支撑脚连杆之间目标连杆的母关节个数,i的数值越小表示该关节在连杆-关节链中越靠近支撑脚连杆;
若旋转角度θmki为翻滚角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为俯仰角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为偏航角的旋转角度,则旋转矩阵R(θmki)表达式为:
作为优选的技术方案,步骤S5中,具体过程如下:
人类观测坐标系和机器人观测坐标系经过旋转平移重合,统一为一个坐标系,并使人体骨骼模型连杆向量进行与人类观测坐标系相同的旋转平移,使人形机器人连杆向量进行与机器人观测坐标系相同的旋转平移;利用人体骨骼模型连杆向量和相应人形机器人连杆向量的夹角的余弦值计算两连杆姿态的相关系数:
其中,为在人类观测坐标系中的人体骨骼模型第k个连杆向量,为在机器人观测坐标系中的人形机器人第k个连杆向量;
计算各组连杆相关系数的算术平均值,得到人形机器人动作模仿的相似度指标:
其中K表示人形机器人或人体骨骼模型的连杆总数。
作为优选的技术方案,人体骨骼模型和人形机器人两者的连杆向量方向在初始姿态时相互一致。
作为优选的技术方案,步骤S41中,在同一条连杆-关节链中,采用衡量连杆或关节与支撑脚的距离;当人形机器人处于双腿支撑状态时,选取一只支撑脚作为计算参考的支撑脚。
作为优选的技术方案,步骤S42中,将人形机器人的初始姿态定义为支撑脚坐标系与相应的机器人观测坐标系重合或相互平行,双臂竖直下垂的直立姿态;其中,所述机器人观测坐标系为右手坐标系。
本发明相对于现有技术具有如下的优点和效果:
1、本发明使用定量评价方法,可以得到机器人姿态与人体姿态相似度的精确量化指标。
2、本发明使用连杆向量对机器人与人体的姿态进行表征是更加充分而有效的,由此可以得到更为准确的姿态相似度评价。
3、本发明利用人体骨骼模型或机器人连杆在相应人类或机器人观测坐标系中的连杆向量,可以有效评价整体姿态相似度。
4、本发明根据实际观测角度定义观测坐标系,可从不同观测角度评价姿态相似度,具有灵活性和普适性。
附图说明
图1是本实施例的一种人形机器人与人体姿态相似度评价方法的流程图;
图2是本实施例由Kinect II获取的人体骨骼节点名称及编号示意图;
图3(a)和图3(b)分别是本实施例的Nao机器人、人体骨骼模型全身关节和连杆向量示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
一种人形机器人与人体姿态相似度评价方法,使用Kinect II作为深度摄像头,使用Nao机器人作为人形机器人,如图1所示,该方法具体包括下述步骤:
S1、通过Kinect II深度摄像头获取人体骨骼节点的三维位置信息,包括人体的四肢和脊柱各关节点的信息,各骨骼节点名称及编号如图2所示;
S2、如图3(b)所示,根据人体骨骼节点构建人体骨骼模型的连杆向量;将人体骨骼模型的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;根据同一连杆的两个骨骼节点的三维坐标,得到该连杆在深度摄像头坐标系中的向量坐标。
S3、将人体骨骼模型各连杆向量在深度摄像头坐标系中的坐标转换到人类观测坐标系中;利用转换矩阵Rh将深度摄像头坐标系中人体骨骼模型的连杆向量坐标转换到人类观测坐标系中,转换矩阵Rh为:
其中分别为在深度摄像头坐标系中与深度摄像头坐标系X轴、Y轴、Z轴正向同向的向量,分别为在深度摄像头坐标系中与人类观测坐标系X轴、Y轴、Z轴正向同向的向量;
对于第k个用于计算姿态相似度的人体骨骼模型连杆,在人类观测坐标系中的连杆向量(列向量)为:
其中,Rh为深度摄像头坐标系到人类观测坐标系的转换矩阵,为人体骨骼模型在深度摄像头坐标系中的连杆向量。
S4、定义人形机器人全身关节和连杆,根据人形机器人各关节角度及支撑脚姿态计算人形机器人各连杆向量在机器人观测坐标系中的坐标;具体包括下述步骤:
S41、如图3(a)所示,定义人形机器人全身关节和连杆:将人形机器人的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;将靠近支撑脚的连杆定义为远离支撑脚的连杆的母连杆;将远离支撑脚的连杆定义为靠近支撑脚的连杆的子连杆;将颈部、左肩、左肘、左腕、左髋、左膝、左踝、右肩、右肘、右腕、右髋、右膝、右踝定义为主关节;将人形机器人主关节所具有的不同自由度定义为该主关节的次关节;将靠近支撑脚的主关节或次关节定义为远离支撑脚的主关节或次关节的母关节,将远离支撑脚的主关节或次关节定义为靠近支撑脚的主关节或次关节的子关节;
将与一个关节相连的两个连杆中靠近支撑脚的连杆定义为该关节的母连杆,远离支撑脚的连杆定义为该关节的子连杆;将与一个连杆相连的两个关节中靠近支撑脚的关节定义为该连杆的母关节,远离支撑脚的关节定义为该连杆的子关节;
本实施例中,在同一条连杆-关节链中,采用衡量连杆或关节与支撑脚的距离,而非在全空间中衡量连杆或关节与躯干的距离;当人形机器人处于双腿支撑状态时,选取一只支撑脚作为计算参考的支撑脚。
在本实施例中,所构造的人体骨骼模型和人形机器人的连杆向量方向在初始姿态时相互一致。
S42、在本实施例中,将人形机器人的初始姿态定义为支撑脚坐标系与相应的机器人观测坐标系重合或相互平行,双臂竖直下垂的直立姿态;其中,所述机器人观测坐标系为右手坐标系,且X轴的正方向为前方,Y轴的正方向为左方,Z轴的正方向为上方。
令人形机器人第k个用于计算姿态相似度的连杆在机器人观测坐标系中的初始姿态连杆向量坐标为(k=1,2,3,4,5…),根据其各母关节的旋转角度θmki及相应旋转矩阵R(θmki),以及支撑脚坐标系相对于机器人观测坐标系的旋转矩阵Rsupport,得到当前姿态的连杆向量坐标
其中,n为目标连杆到支撑脚连杆之间目标连杆的母关节个数,i的数值越小表示该关节在连杆-关节链中越靠近支撑脚连杆;
若旋转角度θmki为翻滚角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为俯仰角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为偏航角的旋转角度,则旋转矩阵R(θmki)表达式为:
S5、根据人体骨骼模型连杆向量在人类观测坐标系中的坐标和人形机器人连杆向量在机器人观测坐标系中的坐标计算人形机器人与人体姿态的相似度,具体过程如下:
使人类观测坐标系和机器人观测坐标系经过旋转平移重合,统一为一个坐标系,并使人体骨骼模型连杆向量进行与人类观测坐标系相同的旋转平移,使人形机器人连杆向量进行与机器人观测坐标系相同的旋转平移;利用人体骨骼模型连杆向量和相应人形机器人连杆向量的夹角的余弦值计算两连杆姿态的相关系数:
其中,为在人类观测坐标系中的人体骨骼模型第k个连杆向量,为在机器人观测坐标系中的人形机器人第k个连杆向量;
计算各组连杆相关系数的算术平均值,得到人形机器人动作模仿的相似度指标:
其中K表示人形机器人或人体骨骼模型的连杆总数。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以权利要求所述为准。
Claims (9)
1.一种人形机器人与人体姿态相似度评价方法,其特征在于,包括下列步骤:
S1、通过深度摄像头获取人体骨骼节点的三维位置信息;
S2、根据步骤S1获得的人体骨骼节点构建人体骨骼模型的连杆向量;
S3、将步骤S2获得的人体骨骼模型各连杆向量在深度摄像头坐标系中的坐标转换到人类观测坐标系中;
S4、定义人形机器人全身关节和连杆,根据人形机器人各关节角度及支撑脚姿态计算人形机器人各连杆向量在机器人观测坐标系中的坐标;
S5、根据步骤S3获得的人体骨骼模型连杆向量在人类观测坐标系中的坐标和步骤S4获得的人形机器人连杆向量在机器人观测坐标系中的坐标计算人形机器人与人体姿态的相似度。
2.根据权利要求1所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S1中,所述通过深度摄像头获取人体骨骼节点的三维位置信息,包括人体的四肢和脊柱各关节点的信息。
3.根据权利要求1所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S2,具体过程如下:
将人体骨骼模型的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;根据同一连杆的两个骨骼节点的三维坐标,得到该连杆在深度摄像头坐标系中的向量坐标。
4.根据权利要求1所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S3中,利用转换矩阵Rh将深度摄像头坐标系中人体骨骼模型的连杆向量坐标转换到人类观测坐标系中,转换矩阵Rh为:
其中,分别为在深度摄像头坐标系中与深度摄像头坐标系X轴、Y轴、Z轴正向同向的向量,分别为在深度摄像头坐标系中与人类观测坐标系X轴、Y轴、Z轴正向同向的向量。
5.根据权利要求1所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S4中,包括下述步骤:
S41、定义人形机器人全身关节和连杆:将人形机器人的躯干、头部、左上臂、左下臂、左手、左大腿、左小腿、左脚、右上臂、右下臂、右手、右大腿、右小腿、右脚定义为连杆;将靠近支撑脚的连杆定义为远离支撑脚的连杆的母连杆;将远离支撑脚的连杆定义为靠近支撑脚的连杆的子连杆;将颈部、左肩、左肘、左腕、左髋、左膝、左踝、右肩、右肘、右腕、右髋、右膝、右踝定义为主关节;将人形机器人主关节所具有的不同自由度定义为该主关节的次关节;将靠近支撑脚的主关节或次关节定义为远离支撑脚的主关节或次关节的母关节,将远离支撑脚的主关节或次关节定义为靠近支撑脚的主关节或次关节的子关节;
将与一个关节相连的两个连杆中靠近支撑脚的连杆定义为该关节的母连杆,远离支撑脚的连杆定义为该关节的子连杆;将与一个连杆相连的两个关节中靠近支撑脚的关节定义为该连杆的母关节,远离支撑脚的关节定义为该连杆的子关节;
S42、令初始姿态时人形机器人第k个连杆向量在机器人观测坐标系中的坐标为k=1,2,3,4,5…,根据每个连杆各母关节的旋转角度θmki及相应旋转矩阵R(θmki),以及支撑脚坐标系相对于机器人观测坐标系的旋转矩阵Rsupport,得到当前姿态的连杆向量在机器人观测坐标系中的坐标
其中,n为目标连杆到支撑脚连杆之间目标连杆的母关节个数,i的数值越小表示该关节在连杆-关节链中越靠近支撑脚连杆;
若旋转角度θmki为翻滚角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为俯仰角的旋转角度,则旋转矩阵R(θmki)表达式为:
若旋转角度θmki为偏航角的旋转角度,则旋转矩阵R(θmki)表达式为:
6.根据权利要求1所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S5中,具体过程如下:
人类观测坐标系和机器人观测坐标系经过旋转平移重合,统一为一个坐标系,并使人体骨骼模型连杆向量进行与人类观测坐标系相同的旋转平移,使人形机器人连杆向量进行与机器人观测坐标系相同的旋转平移;利用人体骨骼模型连杆向量和相应人形机器人连杆向量的夹角的余弦值计算两连杆姿态的相关系数:
其中,为在人类观测坐标系中的人体骨骼模型第k个连杆向量,为在机器人观测坐标系中的人形机器人第k个连杆向量;
计算各组连杆相关系数的算术平均值,得到人形机器人动作模仿的相似度指标:
其中K表示人形机器人或人体骨骼模型的连杆总数。
7.根据权利要求3或5所述的人形机器人与人体姿态相似度评价方法,其特征在于,人体骨骼模型和人形机器人两者的连杆向量方向在初始姿态时相互一致。
8.根据权利要求5所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S41中,在同一条连杆-关节链中,采用衡量连杆或关节与支撑脚的距离;当人形机器人处于双腿支撑状态时,选取一只支撑脚作为计算参考的支撑脚。
9.根据权利要求5所述的人形机器人与人体姿态相似度评价方法,其特征在于,步骤S42中,将人形机器人的初始姿态定义为支撑脚坐标系与相应的机器人观测坐标系重合或相互平行,双臂竖直下垂的直立姿态;其中,所述机器人观测坐标系为右手坐标系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633035.7A CN109064486A (zh) | 2018-06-20 | 2018-06-20 | 一种人形机器人与人体姿态相似度评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633035.7A CN109064486A (zh) | 2018-06-20 | 2018-06-20 | 一种人形机器人与人体姿态相似度评价方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109064486A true CN109064486A (zh) | 2018-12-21 |
Family
ID=64820605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810633035.7A Pending CN109064486A (zh) | 2018-06-20 | 2018-06-20 | 一种人形机器人与人体姿态相似度评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109064486A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084140A (zh) * | 2019-04-05 | 2019-08-02 | 西北工业大学 | 基于关节向量的通用姿态识别方法 |
CN110210284A (zh) * | 2019-04-12 | 2019-09-06 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能评价方法 |
CN110942007A (zh) * | 2019-11-21 | 2020-03-31 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN111767768A (zh) * | 2019-07-31 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 图像处理方法、装置及设备 |
CN111931804A (zh) * | 2020-06-18 | 2020-11-13 | 南京信息工程大学 | 一种基于rgbd摄像机的人体动作自动评分方法 |
CN113221815A (zh) * | 2021-05-25 | 2021-08-06 | 北京无垠创新科技有限责任公司 | 一种基于骨骼关键点自动检测技术的步态鉴定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818318A (zh) * | 2017-11-27 | 2018-03-20 | 华南理工大学 | 一种人形机器人模仿相似度评价方法 |
CN107953331A (zh) * | 2017-10-17 | 2018-04-24 | 华南理工大学 | 一种应用于人形机器人动作模仿的人体姿态映射方法 |
-
2018
- 2018-06-20 CN CN201810633035.7A patent/CN109064486A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107953331A (zh) * | 2017-10-17 | 2018-04-24 | 华南理工大学 | 一种应用于人形机器人动作模仿的人体姿态映射方法 |
CN107818318A (zh) * | 2017-11-27 | 2018-03-20 | 华南理工大学 | 一种人形机器人模仿相似度评价方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084140A (zh) * | 2019-04-05 | 2019-08-02 | 西北工业大学 | 基于关节向量的通用姿态识别方法 |
CN110210284A (zh) * | 2019-04-12 | 2019-09-06 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能评价方法 |
CN111767768A (zh) * | 2019-07-31 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 图像处理方法、装置及设备 |
CN110942007A (zh) * | 2019-11-21 | 2020-03-31 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN110942007B (zh) * | 2019-11-21 | 2024-03-05 | 北京达佳互联信息技术有限公司 | 手部骨骼参数确定方法、装置、电子设备和存储介质 |
CN111931804A (zh) * | 2020-06-18 | 2020-11-13 | 南京信息工程大学 | 一种基于rgbd摄像机的人体动作自动评分方法 |
CN111931804B (zh) * | 2020-06-18 | 2023-06-27 | 南京信息工程大学 | 一种基于rgbd摄像机的人体动作自动评分方法 |
CN113221815A (zh) * | 2021-05-25 | 2021-08-06 | 北京无垠创新科技有限责任公司 | 一种基于骨骼关键点自动检测技术的步态鉴定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109064486A (zh) | 一种人形机器人与人体姿态相似度评价方法 | |
O'Brien et al. | Automatic joint parameter estimation from magnetic motion capture data | |
CN106078752B (zh) | 一种基于Kinect的仿人机器人人体行为模仿方法 | |
CN107953331A (zh) | 一种应用于人形机器人动作模仿的人体姿态映射方法 | |
Gherman et al. | On the singularity-free workspace of a parallel robot for lower-limb rehabilitation | |
CN106607910B (zh) | 一种机器人实时模仿方法 | |
Hersch et al. | Online learning of the body schema | |
CN107818318A (zh) | 一种人形机器人模仿相似度评价方法 | |
CN105686834B (zh) | 一种用于检测人体上肢肩部盂肱关节运动信息的穿戴外骨骼机构 | |
CN107273611A (zh) | 一种基于下肢行走特点的下肢康复机器人的步态规划方法 | |
Kuželički et al. | Synthesis of standing-up trajectories using dynamic optimization | |
CN108388887A (zh) | 基于学步期幼儿步态提取的双足机器人运动学分析方法 | |
CN103824326A (zh) | 一种动态的人体三维建模方法 | |
Liang et al. | Synergy-based knee angle estimation using kinematics of thigh | |
CN107802268B (zh) | 一种人体肘关节前屈后伸及前臂旋内旋外瞬时螺转轴测量方法 | |
CN102479386A (zh) | 基于单目视频的人体上半身三维运动跟踪方法 | |
Soltani-Zarrin et al. | Reference path generation for upper-arm exoskeletons considering scapulohumeral rhythms | |
CN111369626A (zh) | 基于深度学习的无标志点上肢运动分析方法及系统 | |
Xiang et al. | Enhanced optimisation-based inverse kinematics methodology considering joint discomfort | |
CN109887570A (zh) | 一种基于rgb-d相机与imu传感器的机器人辅助康复训练方法 | |
CN114494341A (zh) | 一种融合时空约束的光学动作捕捉标记点实时补全方法 | |
Ingram et al. | A minimal set of coordinates for describing humanoid shoulder motion | |
Adhikari et al. | Design of a novel task-based knee rehabilitation exoskeleton device | |
Xu | Application analysis of sports robots based on pose recognition and action feature analysis | |
Nikolova et al. | Results for female’s mass-inertial parameters in basic body positions for space exploration as classified by NASA |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181221 |