CN106971050B - 一种基于Kinect的Darwin机器人关节映射解析方法 - Google Patents

一种基于Kinect的Darwin机器人关节映射解析方法 Download PDF

Info

Publication number
CN106971050B
CN106971050B CN201710253882.6A CN201710253882A CN106971050B CN 106971050 B CN106971050 B CN 106971050B CN 201710253882 A CN201710253882 A CN 201710253882A CN 106971050 B CN106971050 B CN 106971050B
Authority
CN
China
Prior art keywords
steering
robot
foot
joint
controls
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710253882.6A
Other languages
English (en)
Other versions
CN106971050A (zh
Inventor
邓晓燕
郑镇城
林灿光
潘文俊
张广涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201710253882.6A priority Critical patent/CN106971050B/zh
Publication of CN106971050A publication Critical patent/CN106971050A/zh
Application granted granted Critical
Publication of CN106971050B publication Critical patent/CN106971050B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Abstract

本发明公开了一种基于Kinect的Darwin机器人关节映射解析方法,该解析方法包括以下步骤:1)获取人体骨骼信息;2)建立参考坐标系并构建骨架矢量;3)欧拉旋转分析;4)重心稳定分析;5)关节角度计算。该方法利用Kinect获取人体的15个关节点,通过补偿与滑动均值滤波后,在参考坐标系中构建10个单位关节矢量,并根据Darwin机器人关节级联方式进行欧拉旋转分析,得到Kinect与Darwin机器人共同关节的相应角度,最后对Darwin机器人脚部扩展关节进行重心稳定分析,得到Darwin机器人单、双脚稳定站立的脚关节角度,从而实现Kinect到Darwin机器人的动作模仿。

Description

一种基于Kinect的Darwin机器人关节映射解析方法
技术领域
本发明涉及机器人仿真技术领域,具体涉及一种基于Kinect的Darwin机器人关节映射解析方法。
背景技术
仿人机器人是机器人领域的重要研究方向之一,体态感知作为一种自然的人机交互形式,在交互过程中能够很好的识别与传递人的意图,并携带有极为丰富的信息量。当前机器人技术的研究正朝着智能化和多样化的方向发展,为符合各种复杂、恶劣环境的特殊要求,需要机器人具有更高的适应性以及具备一定的学习能力,需要机器人能自主移动到指定的地方,在工业、医疗、航空、国防领域及危险场合等进行工作。而传统机器人往往只针对特定的任务,且需要大量人为编程,费时费力,难以满足灵活性的要求。为此人们正在积极探索机器人模仿学习的行为控制,将开发人员从复杂的编程工作中解放出来。由于人体关节自由度和仿人机器人的自由度不同,以及仿人机器人的物理约束等问题,限制了仿人机器人直接模仿人体行为。而目前大部分的研究工作主要集中在上半身的动作模仿,采用的关节解析方法也主要针对上半身,目前亟待提出一种关节解析方法能实现将人体关节信息映射到Darwin机器人上,以解决机器人自由度约束等情况的影响,并能保证在模仿过程中机器人全身的重心稳定。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于Kinect的Darwin机器人关节映射解析方法,该解析方法首先利用Kinect采集到的人体关节骨骼数据,然后将Kinect人体关节骨骼数据通过关节解析后映射到Darwin机器人的关节,并使其在最大程度上实现了Darwin机器人模仿人体动作。
本发明的目的可以通过采取如下技术方案达到:
一种基于Kinect的Darwin机器人关节映射解析方法,所述方法包括下列步骤:
S1、利用Kinect采集人体关节点P的骨骼数据;
S2、建立基于人体的参考坐标系,并将人体关节点P的骨骼数据映射到该坐标系上,通过同一骨架的两个关节点可以得到Darwin机器人的单位关节矢量V;
S3、通过欧拉旋转分析,将关节矢量V解析得到Kinect与Darwin机器人共同关节的相应转动角度θ;
S4、对Darwin机器人脚部扩展关节进行重心稳定分析,得到Darwin机器人单、双脚稳定站立的脚关节角度,对舵机的转动角度θ进行计算和校准。
进一步地,所述人体关节点P的骨骼数据包括:头部、颈部、躯干、左肩、左肘、左手、右肩、右肘、右手、左臀、左膝、左脚、右臀、右膝、右脚,用P1-P15表示;
所述单位关节矢量V包括:头部矢量、颈部矢量、左上臂矢量、左下臂矢量、右上臂矢量、右下臂矢量、左大腿矢量、左小腿矢量、右大腿矢量、右小腿矢量,用V1-V10表示。
进一步地,定义机器人初始状态为人体的站立姿态,则所有关节矢量的初始坐标可表示[0 -1 0]T,根据欧拉旋转关系可以得到变换阵Re,可以得到关节矢量V=Re[0 -1 0]T,其中Re与旋转顺序、次数和旋转轴有关,有一到多个旋转算子组成,旋转算子RX(θ)、RY(θ)、RZ(θ)分别表示绕坐标系X、Y、Z轴旋转θ角的变换阵,有:
Figure BDA0001272834360000031
θ角的ID号为i的舵机转过的对应角度为θi,第i个关节矢量Vi的各轴分量分别表示为VXi、VYi、VZi
Darwin机器人头部有2个舵机,ID为19和20,ID19舵机级联ID20舵机,ID19控制Y转向,ID20控制X转向;
Darwin机器人左右手各有3个舵机,ID为1-6,其中,关于右手,ID1舵机级联ID3舵机,再级联ID5舵机,ID1控制右手X转向,ID3控制右手Y转向,ID5控制右手Z转向,关于左手,ID2舵机级联ID4舵机,再级联ID6舵机,ID2控制左手X转向,ID4控制左手Y转向,ID6控制左手Z转向;
Darwin机器人左右脚各有6个舵机,ID为7-18,关于右脚,ID7舵机级联ID9舵机,再级联ID11舵机,再级联ID13舵机,再级联ID15舵机,再级联ID17舵机,ID7控制右脚Y转向,ID9控制右脚Z转向,ID11控制右脚X转向,ID13控制右脚X转向,ID15控制右脚X转向,ID17控制右脚Z转向;关于左脚,ID8舵机级联ID10舵机,再级联ID12舵机,再级联ID14舵机,再级联ID16舵机,再级联ID18舵机,ID8控制左脚Y转向,ID10控制左脚Z转向,ID12控制左脚X转向,ID14控制左脚X转向,ID16控制左脚X转向,ID18控制左脚Z转向。
进一步地,θ1、θ2的取值范围(-π π),其他角度取值范围
Figure BDA0001272834360000032
另外,θ3、θ5、θ6、θ9、θ10只能取正,θ4、θ13、θ14、θ20只能取负。
进一步地,所述步骤S4具体过程如下:
定义
R1=RX1),R2=RX2),R3=R1RZ3),R4=R2RX4),
R5=R3RZ5),R6=R4RX6),
R7=RY7),R8=RY8),R9=R7RZ9),R10=R8RZ10),
R11=R9RX11),R12=R10RX12),
R13=R11RX13),R14=R12RX14),R15=R13RX15),R16=R14RX16),
R17=R15RY17),R18=R16RY18),R19=RY19),R20=R19RX20)
PO1=Poff1,PO2=Poff2,PO3=PO1+R1Poff3,PO4=PO2+R2Poff4,
PO5=PO3+R3Poff5,PO6=PO4+R4Poff6,PO7=Poff7,PO8=Poff8,
PO9=PO7+R7Poff9,PO10=PO8+R8Poff10,PO11=PO9+R9Poff11,PO12=PO10+R10Poff12,
PO13=PO11+R11Poff13,PO14=PO12+R12Poff14,PO15=PO13+R13Poff15,PO16=PO14+R14Poff16,PO17=PO15+R15Poff17,PO18=PO16+R16Poff18,PO19=Poff19,PO20=PO19+R19Poff20
右手重心位置:
Figure BDA0001272834360000041
左手重心位置:
Figure BDA0001272834360000042
右脚重心位置:
Figure BDA0001272834360000043
左脚重心位置:
Figure BDA0001272834360000044
头部重心位置:
Figure BDA0001272834360000045
整体重心位置:
Figure BDA0001272834360000051
同上,可计算右脚平面和左脚平面中心点坐标分别为:
PA=PO17+R17[10 -33.5 0]T,PB=PO18+R18[-10 -33.5 0]T
根据双足站立稳定条件可以得到脚平面法向量:
Figure BDA0001272834360000052
此时拓展关节矢量V10=V11=F,则机器人能够稳定站立,由旋转关系有:V10=RX15)RZ17)V7,V11=RX16)RZ18)V9,可得结果:
Figure BDA0001272834360000053
Figure BDA0001272834360000054
若机器人为双脚站立,如果重心G投影点C不在两脚平面中心点连线上,则机器人将左右不平衡,需要修正θ9、θ10,修正方法为加入偏移量±
Figure BDA0001272834360000055
通过递归方法直到找到稳定点;
若机器人为单脚站立,则重心投影应落在该脚平面的中心点上,此时机器人能稳定站立,以右脚站立时,有:F=PB-PG,解析过程相同,以左脚站立时,有F=PB-PG
进一步地,所述舵机的转动角度θ的解析关系如下:
θ1=atan 2(sinθ5VY3-cosθ3cosθ5VZ3,-sinθ5VZ3-cosθ3cosθ5VY3),
θ2=atan 2(sinθ6VY5-cosθ4cosθ6VZ5,-sinθ6VZ5-cosθ4cosθ6VY5),
θ3=arcsin(VX2),
θ4=arcsin(VX4),
θ5=arccos(V2·V3),
θ6=arccos(V4·V5),
θ7=0,
θ8=0,
Figure BDA0001272834360000061
Figure BDA0001272834360000062
θ11=-arcsin(VZ6),
θ12=-arcsin(VZ8),
θ13=-arccos(V6·V7),
θ14=-arccos(V8·V9),
Figure BDA0001272834360000063
Figure BDA0001272834360000064
Figure BDA0001272834360000065
Figure BDA0001272834360000066
Figure BDA0001272834360000067
θ20=-arccos(VY1)。
本发明相对于现有技术具有如下的优点及效果:
采用统一的欧拉旋转分析方法进行解算,其欧拉旋转顺序与达尔文机器人的关节级联顺序相同,直观易于理解,其解析角度与达尔文机器人舵机角度基本相同,相较于传统的矢量计算方法,采用统一参考坐标系的欧拉角度计算方法思路更加清晰,拓展性更强,方便重心位置与末端位置的计算,该方法适用于头部、手部和脚部的关节解析,适用性强。该方案还采用重心稳定分析的方法对机器人双足站立进行了分析,能够保证机器人的稳定站立,实现全身的基本模仿。同时,在能判别单脚站立的情况下,该重心稳定方法也同样适用于单脚站立情况。
附图说明
图1是Kinect人体关节点信息图;
图2是Darwin机器人的关节矢量图;
图3是Kinect到Darwin机器人的关节映射解析方法流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例公开了一种基于Kinect的Darwin机器人关节映射解析方法,该解析方法首先利用Kinect采集人体关节骨骼数据,然后将Kinect人体关节骨骼数据通过关节解析后映射到Darwin机器人的关节,并使其在最大程度上实现了Darwin机器人模仿人体动作。该方法具体包括下列步骤:
S1、利用Kinect采集人体关节点P的骨骼数据;
该步骤中利用OpenNI能够读取到Kinect的24个关节点信息,分别为:头部、颈部、躯干、腰、左领、左肩、左肘、左腕、左手、左指尖、右领、右肩、右肘、右腕、右手、右指尖、左臀、左膝、左踝、左脚、右臀、右膝、右踝、右脚,在实际应用中只有15个关节点数据有效,分别为:头部、颈部、躯干、左肩、左肘、左手、右肩、右肘、右手、左臀、左膝、左脚、右臀、右膝、右脚,用P1-P15表示。由于Kinect的深度图与彩色图配准的精度问题,对关节点数据进行初步补偿,并采用滑动均值滤波减缓关节点数据波动程度。
S2、建立基于人体的参考坐标系,并将人体关节点P的骨骼数据映射到该坐标系上,通过同一骨架的两个关节点可以得到Darwin机器人的单位关节矢量V,分别为:头部矢量、颈部矢量、左上臂矢量、左下臂矢量、右上臂矢量、右下臂矢量、左大腿矢量、左小腿矢量、右大腿矢量、右小腿矢量,用V1-V10表示。
以关节点躯干为坐标系原点,规定关节点左肩指向关节点右肩的方向为参考坐标系的X方向,关节点左肩、右肩与躯干平面法向量指向人体背面的方向为Z方向,则根据右手坐标系规则可确定Y方向。可以得到坐标系变换阵
Figure BDA0001272834360000081
以头部矢量为例,其相关的两个关节点为关节点头部与颈部,则
Figure BDA0001272834360000082
其他矢量计算相同。
S3、通过欧拉旋转分析,将关节矢量V解析得到Kinect与Darwin机器人共同关节的相应转动角度θ;
定义机器人初始状态为人体的站立姿态,则所有关节矢量的初始坐标可表示[0 -1 0]T,根据欧拉旋转关系可以得到变换阵Re,可以得到关节矢量V=Re[0 -1 0]T,其中Re与旋转顺序、次数和旋转轴有关,有一到多个旋转算子组成,旋转算子RX(θ)、RY(θ)、RZ(θ)分别表示绕坐标系X、Y、Z轴旋转θ角的变换阵,有:
Figure BDA0001272834360000091
θ角的取值范围为(-π π),为表示方便,ID号为i的舵机转过的对应角度为θi,第i个关节矢量Vi的各轴分量分别表示为VXi、VYi、VZi。由于机器人机械限制,θ1、θ2可取(-π π),其他角度只能取
Figure BDA0001272834360000092
另外,θ3、θ5、θ6、θ9、θ10只能取正,θ4、θ13、θ14、θ20只能取负。
1)Darwin机器人头部有2个舵机,ID为19和20,ID19舵机级联ID20舵机,ID19控制Y转向,ID20控制X转向,则头部矢量V1=RY19)RX20)[0 -1 0]T,可以得到θ20=-arccos(VY1)、
Figure BDA0001272834360000093
2)Darwin机器人左右手各有3个舵机,ID为1-6,以右手为例,ID1舵机级联ID3舵机,再级联ID5舵机,ID1控制右手X转向,ID3控制右手Y转向,ID5控制Z转向,则右上臂矢量V2=RX1)RY3)[0 -1 0]T,可以得到θ3=arcsin(VX2),则右下臂矢量V3=RX1)RY3)RX5)[0 -1 0]T,可以得到
Figure BDA0001272834360000094
考虑到θ1取值范围为(-ππ),修改为θ1=atan 2(sinθ5VY3-cosθ3cosθ5VZ3,-sinθ5VZ3-cosθ3cosθ5VY3)。而θ5为V2和V3的夹角,所以θ5=arccos(V2·V3)。左手情况相同。
3)Darwin机器人左右脚各有6个舵机,ID为7-18,以右脚为例,ID7舵机级联ID9舵机,再级联ID11舵机,再级联ID13舵机,再级联ID15舵机,再级联ID17舵机,ID7控制Y转向,ID9控制Z转向,ID11控制X转向,ID13控制X转向,ID15控制X转向,ID17控制Z转向。为降低解析复杂度和消除多解情况,忽略ID7舵机的控制,则右大腿矢量V6=RZ9)RX11)[0 -1 0]T,可以得到θ11=-arcsin(VZ6),
Figure BDA0001272834360000101
而θ13为V6和V7的夹角,所以θ13=-arccos(V6·V7)。左脚情况相同。
S4、通过重心稳定分析,对舵机的转动角度θ进行计算和校准。
以上能实现机器人的动作模仿,但机器人不能稳定站立,通过扩展两个关节矢量,通过重心稳定方法控制脚踝部分的4个舵机,可以实现机器人的稳定站立。先不考虑地面不水平和单脚站立情况,为了实现机器人双脚稳定站立,则需要满足条件:机器人的两个脚平面与地面完全贴合;机器人的重心投影落在两脚平面中心点连线上。通过查阅资料与计算测量,可得到机器人各部件的重心信息,如表1所示。其中,重心位置为该关节重心距离旋转中心的距离,偏移位置为旋转中心距离上一个关节旋转中心的位置。
表1.Darwin机器人各部件重心信息表
Figure BDA0001272834360000102
Figure BDA0001272834360000111
根据空间坐标平移与旋转变换,可得到机器人整体的重心位置。定义
R1=RX1),R2=RX2),R3=R1RZ3),R4=R2RX4),
R5=R3RZ5),R6=R4RX6),
R7=RY7),R8=RY8),R9=R7RZ9),R10=R8RZ10),
R11=R9RX11),R12=R10RX12),
R13=R11RX13),R14=R12RX14),R15=R13RX15),R16=R14RX16),
R17=R15RY17),R18=R16RY18),R19=RY19),R20=R19RX20)
PO1=Poff1,PO2=Poff2,PO3=PO1+R1Poff3,PO4=PO2+R2Poff4,
PO5=PO3+R3Poff5,PO6=PO4+R4Poff6,PO7=Poff7,PO8=Poff8,
PO9=PO7+R7Poff9,PO10=PO8+R8Poff10,PO11=PO9+R9Poff11,PO12=PO10+R10Poff12,
PO13=PO11+R11Poff13,PO14=PO12+R12Poff14,PO15=PO13+R13Poff15,PO16=PO14+R14Poff16,PO17=PO15+R15Poff17,PO18=PO16+R16Poff18,PO19=Poff19,PO20=PO19+R19Poff20
右手重心位置:
Figure BDA0001272834360000112
左手重心位置:
Figure BDA0001272834360000113
右脚重心位置:
Figure BDA0001272834360000114
左脚重心位置:
Figure BDA0001272834360000115
头部重心位置:
Figure BDA0001272834360000121
整体重心位置:
Figure BDA0001272834360000122
同上,可计算右脚平面和左脚平面中心点坐标分别为:
PA=PO17+R17[10 -33.5 0]T,PB=PO18+R18[-10 -33.5 0]T
根据双足站立稳定条件可以得到脚平面法向量:
Figure BDA0001272834360000123
此时拓展关节矢量V10=V11=F,则机器人能够稳定站立,由旋转关系有:V10=RX15)RZ17)V7,V11=RX16)RZ18)V9,可得结果:
Figure BDA0001272834360000124
Figure BDA0001272834360000125
若重心G投影点C不在两脚平面中心点连线上,则机器人将左右不平衡,需要修正θ9、θ10,修正方法为加入偏移量±
Figure BDA0001272834360000126
通过递归方法直到找到稳定点。
若机器人为单脚站立,则重心投影应落在该脚平面的中心点上,此时机器人能稳定站立,以右脚站立为例,有:F=PB-PG,解析过程相同。以左脚站立为例,有F=PB-PG
综上,可得到关节解析表,如下:
表2.关节解析表
Figure BDA0001272834360000127
Figure BDA0001272834360000131
Figure BDA0001272834360000141
综上所述,本发明公开的一种基于Kinect的Darwin机器人关节映射解析方法,利用Kinect获取人体的15个关节点,通过补偿与后,在参考坐标系中构建9个单位关节矢量,并根据Darwin机器人关节级联方式进行欧拉旋转分析,得到相应关节的角度,最后利用重心稳定分析对Darwin机器人的脚部扩展关节进行解析,从而实现Kinect到Darwin机器人的动作模仿。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种基于Kinect的Darwin机器人关节映射解析方法,其特征在于,所述方法包括下列步骤:
S1、利用Kinect采集人体关节点P的骨骼数据,其中,所述人体关节点P的骨骼数据包括:头部、颈部、躯干、左肩、左肘、左手、右肩、右肘、右手、左臀、左膝、左脚、右臀、右膝、右脚,用P1-P15表示;
S2、建立基于人体的参考坐标系,并将人体关节点P的骨骼数据映射到该坐标系上,通过同一骨架的两个关节点可以得到Darwin机器人的单位关节矢量V,其中,所述单位关节矢量V包括:头部矢量、颈部矢量、左上臂矢量、左下臂矢量、右上臂矢量、右下臂矢量、左大腿矢量、左小腿矢量、右大腿矢量、右小腿矢量,用V1-V10表示;
S3、通过欧拉旋转分析,将关节矢量V解析得到Kinect与Darwin机器人共同关节的相应转动角度θ;
S4、对Darwin机器人脚部扩展关节进行重心稳定分析,得到Darwin机器人单、双脚稳定站立的脚关节角度,对舵机的转动角度θ进行计算和校准;
定义机器人初始状态为人体的站立姿态,则所有关节矢量的初始坐标可表示[0 -1 0]T,根据欧拉旋转关系可以得到变换阵Re,可以得到关节矢量V=Re[0 -1 0]T,其中Re与旋转顺序、次数和旋转轴有关,有一到多个旋转算子组成,旋转算子RX(θ)、RY(θ)、RZ(θ)分别表示绕坐标系X、Y、Z轴旋转θ角的变换阵,有:
Figure FDA0002325886490000011
θ角的ID号为i的舵机转过的对应角度为θi,第i个关节矢量Vi的各轴分量分别表示为VXi、VYi、VZi
Darwin机器人头部有2个舵机,ID为19和20,ID19舵机级联ID20舵机,ID19控制Y转向,ID20控制X转向;
Darwin机器人左右手各有3个舵机,ID为1-6,其中,关于右手,ID1舵机级联ID3舵机,再级联ID5舵机,ID1控制右手X转向,ID3控制右手Y转向,ID5控制右手Z转向,关于左手,ID2舵机级联ID4舵机,再级联ID6舵机,ID2控制左手X转向,ID4控制左手Y转向,ID6控制左手Z转向;
Darwin机器人左右脚各有6个舵机,ID为7-18,关于右脚,ID7舵机级联ID9舵机,再级联ID11舵机,再级联ID13舵机,再级联ID15舵机,再级联ID17舵机,ID7控制右脚Y转向,ID9控制右脚Z转向,ID11控制右脚X转向,ID13控制右脚X转向,ID15控制右脚X转向,ID17控制右脚Z转向;关于左脚,ID8舵机级联ID10舵机,再级联ID12舵机,再级联ID14舵机,再级联ID16舵机,再级联ID18舵机,ID8控制左脚Y转向,ID10控制左脚Z转向,ID12控制左脚X转向,ID14控制左脚X转向,ID16控制左脚X转向,ID18控制左脚Z转向。
2.根据权利要求1所述的一种基于Kinect的Darwin机器人关节映射解析方法,其特征在于,
θ1、θ2的取值范围(-π π),其他角度的取值范围
Figure FDA0002325886490000021
另外,θ3、θ5、θ6、θ9、θ10只能取正,θ4、θ13、θ14、θ20只能取负。
3.根据权利要求1所述的一种基于Kinect的Darwin机器人关节映射解析方法,其特征在于,所述步骤S4具体过程如下:
定义
R1=RX1),R2=RX2),R3=R1RZ3),R4=R2RX4),
R5=R3RZ5),R6=R4RX6),
R7=RY7),R8=RY8),R9=R7RZ9),R10=R8RZ10),
R11=R9RX11),R12=R10RX12),
R13=R11RX13),R14=R12RX14),R15=R13RX15),R16=R14RX16),
R17=R15RY17),R18=R16RY18),R19=RY19),R20=R19RX20)
PO1=Poff1,PO2=Poff2,PO3=PO1+R1Poff3,PO4=PO2+R2Poff4,
PO5=PO3+R3Poff5,PO6=PO4+R4Poff6,PO7=Poff7,PO8=Poff8,
PO9=PO7+R7Poff9,PO10=PO8+R8Poff10,PO11=PO9+R9Poff11,PO12=PO10+R10Poff12,
PO13=PO11+R11Poff13,PO14=PO12+R12Poff14,PO15=PO13+R13Poff15,PO16=PO14+R14Poff16,
PO17=PO15+R15Poff17,PO18=PO16+R16Poff18,PO19=Poff19,PO20=PO19+R19Poff20
右手重心位置:
Figure FDA0002325886490000031
左手重心位置:
Figure FDA0002325886490000032
右脚重心位置:
Figure FDA0002325886490000033
左脚重心位置:
Figure FDA0002325886490000034
头部重心位置:
Figure FDA0002325886490000035
整体重心位置:
Figure FDA0002325886490000036
同上,可计算右脚平面和左脚平面中心点坐标分别为:
PA=PO17+R17[10 -33.5 0]T,PB=PO18+R18[-10 -33.5 0]T
根据双足站立稳定条件可以得到脚平面法向量:
Figure FDA0002325886490000041
此时拓展关节矢量V10=V11=F,则机器人能够稳定站立,由旋转关系有:V10=RX15)RZ17)V7,V11=RX16)RZ18)V9,可得结果:
Figure FDA0002325886490000042
Figure FDA0002325886490000043
若机器人为双脚站立,如果重心G投影点C不在两脚平面中心点连线上,则机器人将左右不平衡,需要修正θ9、θ10,修正方法为加入偏移量
Figure FDA0002325886490000044
通过递归方法直到找到稳定点;
若机器人为单脚站立,则重心投影应落在该脚平面的中心点上,此时机器人能稳定站立,以右脚站立时,有:F=PB-PG,解析过程相同,以左脚站立时,有F=PB-PG
4.根据权利要求3所述的一种基于Kinect的Darwin机器人关节映射解析方法,其特征在于,所述舵机的转动角度θ的解析关系如下:
θ1=atan 2(sinθ5VY3-cosθ3cosθ5VZ3,-sinθ5VZ3-cosθ3cosθ5VY3),
θ2=atan 2(sinθ6VY5-cosθ4cosθ6VZ5,-sinθ6VZ5-cosθ4cosθ6VY5),
θ3=arcsin(VX2),
θ4=arcsin(VX4),
θ5=arccos(V2·V3),
θ6=arccos(V4·V5),
θ7=0,
θ8=0,
Figure FDA0002325886490000051
Figure FDA0002325886490000052
θ11=-arcsin(VZ6),
θ12=-arcsin(VZ8),
θ13=-arccos(V6·V7),
θ14=-arccos(V8·V9),
Figure FDA0002325886490000053
Figure FDA0002325886490000054
Figure FDA0002325886490000055
Figure FDA0002325886490000056
Figure FDA0002325886490000057
VZ1≠0,
θ20=-arccos(VY1)。
CN201710253882.6A 2017-04-18 2017-04-18 一种基于Kinect的Darwin机器人关节映射解析方法 Active CN106971050B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710253882.6A CN106971050B (zh) 2017-04-18 2017-04-18 一种基于Kinect的Darwin机器人关节映射解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710253882.6A CN106971050B (zh) 2017-04-18 2017-04-18 一种基于Kinect的Darwin机器人关节映射解析方法

Publications (2)

Publication Number Publication Date
CN106971050A CN106971050A (zh) 2017-07-21
CN106971050B true CN106971050B (zh) 2020-04-28

Family

ID=59333468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710253882.6A Active CN106971050B (zh) 2017-04-18 2017-04-18 一种基于Kinect的Darwin机器人关节映射解析方法

Country Status (1)

Country Link
CN (1) CN106971050B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833271B (zh) * 2017-09-30 2020-04-07 中国科学院自动化研究所 一种基于Kinect的骨骼重定向方法及装置
CN107818318B (zh) * 2017-11-27 2020-05-22 华南理工大学 一种人形机器人模仿相似度评价方法
CN108229332B (zh) 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
CN108284436B (zh) * 2018-03-17 2020-09-25 北京工业大学 具有模仿学习机制的远程机械双臂系统及方法
CN109079794B (zh) * 2018-09-18 2020-12-22 广东省智能制造研究所 一种基于人体姿态跟随的机器人控制与示教方法
CN110743160B (zh) * 2019-11-19 2023-08-11 卓谨信息科技(常州)有限公司 基于体感捕捉设备的实时步伐跟踪系统及步伐生成方法
CN111300421A (zh) * 2020-03-17 2020-06-19 北京理工大学 一种应用于人形机器人双手动作模仿的映射方法
CN111938654A (zh) * 2020-07-06 2020-11-17 华南师范大学 足态测试方法、系统、可穿戴设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
CN102814814A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种双臂机器人基于Kinect的人机交互方法
CN104407611A (zh) * 2014-09-30 2015-03-11 同济大学 一种仿人机器人稳定行走的控制方法
CN106066996A (zh) * 2016-05-27 2016-11-02 上海理工大学 人体动作的局部特征表示方法及其在行为识别的应用
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN205870565U (zh) * 2016-07-26 2017-01-11 广东石油化工学院 一种基于Kinect的远程体感机器人控制系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498846B2 (en) * 2010-02-25 2013-07-30 Microsoft Corporation Joint-aware manipulation of deformable models

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
CN102814814A (zh) * 2012-07-31 2012-12-12 华南理工大学 一种双臂机器人基于Kinect的人机交互方法
CN104407611A (zh) * 2014-09-30 2015-03-11 同济大学 一种仿人机器人稳定行走的控制方法
CN106066996A (zh) * 2016-05-27 2016-11-02 上海理工大学 人体动作的局部特征表示方法及其在行为识别的应用
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN205870565U (zh) * 2016-07-26 2017-01-11 广东石油化工学院 一种基于Kinect的远程体感机器人控制系统

Also Published As

Publication number Publication date
CN106971050A (zh) 2017-07-21

Similar Documents

Publication Publication Date Title
CN106971050B (zh) 一种基于Kinect的Darwin机器人关节映射解析方法
CN108762495B (zh) 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
CN108638069A (zh) 一种机械臂末端精确运动控制方法
KR101711736B1 (ko) 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법
CN110298854B (zh) 基于在线自适应与单目视觉的飞行蛇形臂协同定位方法
Ude Trajectory generation from noisy positions of object features for teaching robot paths
JP7428436B2 (ja) 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ
JP2015102913A (ja) 姿勢推定装置及び姿勢推定方法
TW201918348A (zh) 機械設備之定位系統及其方法
Dörfler et al. Interlacing: An experimental approach to integrating digital and physical design methods
WO2014008949A1 (en) A method for programming an industrial robot in a virtual environment
WO2019150431A1 (ja) 情報処理装置
Wolfartsberger et al. Industrial perspectives on assistive systems for manual assembly tasks
Cichon et al. Robotic teleoperation: Mediated and supported by virtual testbeds
CN112365972A (zh) 一种基于人体模型识别的医疗辅助系统
Li et al. A dexterous hand-arm teleoperation system based on hand pose estimation and active vision
Broun et al. Bootstrapping a robot’s kinematic model
CN114516048B (zh) 机器人的零点调试方法、装置、控制器及存储介质
Oh et al. Modeling of visuospatial perspectives processing and modulation of the fronto-parietal network activity during action imitation
CN115890671A (zh) 一种基于smpl参数的多几何体人体碰撞模型生成方法及系统
Šekoranja et al. Virtual surface for human-robot interaction
Azarnasab et al. An integrated multi-robot test bed to support incremental simulation-based design
TWI821362B (zh) 中介裝置以及使用其之中介方法
CN112894828B (zh) 机器人动作模仿方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant