CN115781666A - 一种用于机器人全身模仿系统的控制方法 - Google Patents
一种用于机器人全身模仿系统的控制方法 Download PDFInfo
- Publication number
- CN115781666A CN115781666A CN202211374939.5A CN202211374939A CN115781666A CN 115781666 A CN115781666 A CN 115781666A CN 202211374939 A CN202211374939 A CN 202211374939A CN 115781666 A CN115781666 A CN 115781666A
- Authority
- CN
- China
- Prior art keywords
- robot
- human body
- coordinate system
- joint
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004088 simulation Methods 0.000 title claims abstract description 28
- 241000282414 Homo sapiens Species 0.000 claims abstract description 84
- 239000013598 vector Substances 0.000 claims abstract description 62
- 239000012636 effector Substances 0.000 claims abstract description 15
- 230000003238 somatosensory effect Effects 0.000 claims abstract description 14
- 230000001131 transforming effect Effects 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 18
- 210000000988 bone and bone Anatomy 0.000 claims description 7
- 210000004394 hip joint Anatomy 0.000 claims description 6
- 210000000323 shoulder joint Anatomy 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 4
- 210000001503 joint Anatomy 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 9
- 230000033001 locomotion Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 102000002274 Matrix Metalloproteinases Human genes 0.000 description 1
- 108010000684 Matrix Metalloproteinases Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种用于机器人全身模仿系统的控制方法。该方法包括如下步骤:步骤1,基于体感相机Kinect捕获的人体骨骼点坐标,将Kinect坐标系下人体各骨骼点坐标变换为在人体坐标系下的表示;步骤2,使用向量法求解人体关节角和各连杆向量;步骤3,建立机器人运动学模型,获得机器人的质心位置、各效应器末端的位置及其约束范围和机器人的连杆向量;步骤4,建立目标函数,迭代求解出最优解作为机器人的控制参数,最后将控制参数传递给机器人执行。本发明将机器人的模仿和平衡控制建模为最优化问题,通过实时迭代求解获得最优控制参数,从而兼顾平衡和模仿的相似性。
Description
技术领域
本发明涉及人机交互和机器人控制领域,特别涉及一种用于机器人全身模仿系统的控制方法。
背景技术
如今,大量的人形机器人已经被开发出来,它们被期望尽可能与人类相似。在传统的人机交互中大多使用按钮和手柄的操作方式,限制了操作自由度,人们需要一种更自由、更自然的方式来控制机器人。通过模仿人类的动作来训练机器人因其带来的诸多益处而受到越来越多的关注。首先,它可以大大简化人机交互模式;其次,模仿对于提高仿机器人姿态和动作的合理性以及肢体语言的表达也有很大的帮助;第三,它也有助于理解人类运动机制的研究。
在动作模仿系统中,当人类演示一系列动作时,机器人应尽可能快地重现这些动作并保证其相似性,其技术具体可分为动作捕捉、动作重定向和机器人驱动三个部分。
对于动作捕捉,已经有许多成熟的方案,它们大多是通过可穿戴传感器或光学深度传感器来捕捉人体动作。可穿戴传感器具有较高的精度,可靠性高;光学深度传感器(如微软Kinect)由于自遮挡和深度测量误差在精度上存在一定的劣势,但其非侵入性和低成本带来了极大的方便。还有一些其他的方法,使用多传感器融合,获得更多的模态和更高精度的数据。
对于动作重定向,考虑到人与人形机器人之间的诸多差异(如身体结构、质量分布、关节自由度、驱动方式等),捕捉到的人体动作参数无法直接被机器人复现,需要将其表示为机器人操作空间的数据。因此,研究人员在动作表示方面做了大量的工作从而将人的动作传递给机器人。一般来说,大多数方法都是基于逆运动学(Inverse Kinematic,IK)或向量映射的方式。在人体的运动空间中,用向量表示人体连杆,并计算向量之间的角度,得到机器人关节空间中的旋转量。需要注意的是,Kinect捕捉到的点以相机为参照系,都是3D向量,无法获得绕连杆轴的旋转。这使得关节角的计算必须以人体为参照系。在一些工作中,人体的关节角度被表示为连杆与Kinect坐标轴之间的角度,这只适用于人体面对Kinect的情况。一旦两者之间发生旋转,这种方法就不再适用。
在机器人驱动方面,机器人在全身动作模仿中要保证其平衡性和动作的流畅性,因此需要进行运动参数的优化和约束来维持平衡控制,同时运用一系列通信机制与控制策略来驱动机器人。对此,大多数方法都假设机器人以相对较低的速度移动,将零力矩点(Zero Moment Point,ZMP)等同于质心(Center of Mass,CoM)在地面上的投影,平衡问题由此被简化为保持质心投影在脚的支撑多边形内。
针对上述任务,研究人员已经提出一系列方法捕捉人类示教者的动作并将其传递给机器人执行,但如何将人体运动信息解算为适合机器人运动的数据,保证机器人模仿过程中的平衡性与相似性,仍然是一个具有挑战性的任务。
发明内容
针对上述现有技术的缺陷,本发明提供一种用于机器人全身模仿系统的控制方法。
为了实现上述发明目的,本发明采用的技术方案如下:
一种用于机器人全身模仿系统的控制方法,其特征在于,该方法包括如下步骤:
步骤1,基于体感相机Kinect捕获的人体骨骼点坐标,将Kinect坐标系下人体各骨骼点坐标变换为在人体坐标系下的表示;
步骤2,使用向量法求解人体关节角和各连杆向量,并根据体感相机Kinect捕获的数据估测出当前人体的支撑模式;
步骤3,建立机器人运动学模型,根据机器人各关节电机的旋转范围约束关节角度值范围;根据当前人体的支撑模式,确定对应模式下机器人的支撑多边形以约束质心范围;将关节角输入机器人的DH参数坐标变换矩阵,从而获得机器人的质心位置、各效应器末端的位置及其约束范围和机器人的连杆向量;
步骤4,根据步骤2得到的人体关节角和各连杆向量,建立目标函数;同时,获取机器人当前状态下的关节角,结合输入的人体目标关节角,作为初值;将关节角参数不断送入机器人运动学模型中检测是否满足步骤3得到的约束范围,沿着所述目标函数的最大梯度方向,迭代求解出最优解作为机器人的控制参数,最后将所述控制参数传递给机器人执行。
进一步地,所述步骤1中,所述人体坐标系的建立方法为:将由体感相机Kinect提取的右肩关节点RShoulder、左肩关节点LShoulder和髋关节点Torso组成的平面法向量表示为pTorso,它指向人体的前方,将其方向定义为人体坐标系中的x轴;然后定义从髋关节点Torso到颈关节点Neck的向量为垂直于向量pTorso和并指向物体左侧的方向被定义为y轴。
进一步地,所述步骤1中,在所述人体坐标系下,所有的骨骼点坐标写成rH;通过公式:将其他所有连杆向量从体感相机Kinect坐标系转换为人体坐标系下的表示,其中,rK表示体感相机Kinect坐标系下的所有向量,表示从体感相机Kinect到人体坐标系的变换矩阵。
进一步地,所述步骤2中,将步骤1变换后的对应骨骼点坐标相减即求得人体连杆向量;根据向量夹角的求解方法解算出人体关节角。
进一步地,所述步骤3中,机器人运动学模型包括机器人的DH参数坐标变换矩阵、各关节电机的旋转范围和不同支撑模式下机器人的支撑多边形范围;所述DH参数坐标变换矩阵用于将关节点坐标参数分别变换为在躯干和足部坐标系下的表示;所述各关节电机的旋转范围,用于限定各关节角度值的上下界;所述不同支撑模式下机器人的支撑多边形范围,用于约束机器人质心位置的x坐标的上下界以及y坐标的上下界。
进一步地,所述步骤3中,所述DH参数坐标变换矩阵先将静态位置下各关节的本地位置变换为在躯干坐标系下的表示;然后根据各关节的质量对其质心位置加权平均,从而得到机器人整体的质心位置在躯干坐标系下的表示;再根据不同的支撑模式,使用对应的DH参数变换矩阵可求得机器人质心位置在足部坐标系下的表示;最后,利用所述DH参数变换矩阵获得机器人各个效应器末端在躯干坐标系下的坐标位置,将对应的坐标相减可得机器人的连杆向量。
进一步地,所述步骤4中,所述目标函数为:
其中,α和β为可调超参数;θ为待优化参数;θdes为人体关节角;pdes为人体连杆向量,λi(θ,pdes)为连杆向量差异度函数,具体可写为
pi(θ)为第i个机器人的连杆向量,为第i个人体连杆向量;ARobot(θ)∈CA和θ∈Cθ为机器人质心约束范围和各关节电机的旋转范围;约束了机器人不同的效应器末端须大于一定的距离阈值h以防止自碰撞,i≠j表示不同的效应器末端。
本发明提出的方法具有以下有益效果:
(1)在动作捕捉过程中,对应机器人的躯干坐标系建立了人体坐标系,将运动信息由Kinect坐标系转化为人体坐标系下的表示,可以获得更加准确的人体运动信息表示。
(2)结合运动学模型,将机器人的模仿和平衡控制建模为最优化问题,通过实时迭代求解获得最优控制参数,从而兼顾平衡和模仿的相似性。
附图说明
图1为本发明方法的流程示意图;
图2为人体骨骼点坐标,(a)是Kinect提取到的原始人体关节点示意图,(b)是去掉部分冗余点后的人体关节点示意图;
图3为人体、Kinect和机器人的坐标系,(a)是Kinect原始坐标系及定义的人体坐标系示意图,(b)是机器人的坐标系示意图;
图4为本方法优化后的相似度示意图;
图5为优化前后的相似度对比示意图;
图6为优化后的机器人质心活动范围,(a)是x轴方向的活动范围示意图,(b)是y轴方向的活动范围示意图;
图7为机器人在模仿过程质心投影与理想支撑点的距离示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图对本发明实施方法进行清楚、完整地描述。显而易见地,下面描述中的附图是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对机器人模仿过程中的相似性与平衡性控制问题,本发明对机器人模仿系统中的控制参数进行求解并对系统进行控制,如图1所示,具体包括以下步骤:
步骤1,基于体感相机KinectV2捕获的人体骨骼点坐标,参考Nao V6机器人的躯干坐标系,将Kinect坐标系下人体各骨骼点坐标变换为在人体坐标系下的表示;
步骤2,使用向量法求解人体关节角和肢体连杆向量,并根据Kinect捕获的数据估测出此时人体的支撑模式;
步骤3,建立机器人运动学模型,根据人体当前支撑模式,确定对应模式下机器人的支撑多边形,将关节角输入机器人的Denavit-Hartenberg(DH)参数变换矩阵,从而获得机器人的CoM和各效应器末端的位置及其约束范围,以及机器人的连杆向量;
步骤4,将机器人控制参数的求解建模为一个最优化问题:根据步骤2得到的人体目标关节角和肢体连杆向量,建立目标函数;根据步骤3设立约束范围;同时,获取机器人当前状态下的关节角,结合输入的人体目标关节角,作为初值;将优化参数不断送入机器人运动学模型中检测是否满足约束条件,沿着目标函数的最大梯度方向,迭代求解出最优解作为机器人的控制参数,最后将控制参数传递给机器人执行。
进一步地,所述步骤1中,Kinect V2以30Hz的频率不断捕捉到人体的25个骨骼点三维坐标,如图2(a)所示。由于Kinect提取的一些关节(如手指和脚)对机器人的运动控制没有影响。因此去掉部分冗余点,保留15个点用于计算关节角,这些点在图2(b)中进行了重新命名。关节名前的“R”指右侧,“L”指左侧。Kinect的坐标系如图3(a)(右边)所示,Nao的坐标系如图3(b)所示。为了在人体坐标系中表示人体连杆向量(各连杆向量的方向如图2(b)所示),首先定义人体坐标系:将由右肩关节点RShoulder、左肩关节点LShoulder和髋关节点Torso组成的平面法向量表示为pTorso,它指向人体的前方,将其方向定义为人体坐标系中的x轴;然后定义从髋关节点Torso到颈关节点Neck的向量为垂直于向量pTorso和并指向物体左侧的方向被定义为y轴,因此建立如图3(a)(左边)所示的右手坐标系,即人体坐标系,在该坐标系下,所有的骨骼点坐标可写成rH。在此基础上,通过
进一步地,所述步骤2中,将步骤1求得变换后的对应骨骼点坐标相减可求得人体连杆向量pdes;根据向量夹角的求解方法可以解算出人体的目标关节角θdes。
进一步地,所述步骤3中,建立的机器人运动学模型包括了Nao机器人的Denavit-Hartenberg(DH)参数坐标变换矩阵它是关于关节角参数θ的函数,将静态位置下第i个关节的本地位置变换为在躯干坐标系下的表示。将关节角参数θ输入至机器人DH参数坐标变换矩阵中,根据静态位置下各关节的质量mi和本地CoM位置Ai,通过
得到机器人的CoM在躯干坐标系下的位置ATorso。根据不同的支撑模式S,可求得机器人在足部坐标系下的CoM位置ARobot:
其中,S=LLegSupport,RLegSupport,LegsSupport分别表示左腿站立,右腿站立和双腿站立。类似的,运用机器人DH参数变换矩阵还可求得机器人各个效应器末端在躯干坐标系下的坐标位置
将对应的坐标相减可得机器人的连杆向量pi。
运动学模型还包括各关节电机的旋转范围Cθ,它可以写为
此外,运动学模型还包括不同支撑模式下机器人的支撑多边形范围CA,它可以写为
进一步地,所述步骤4中,建模的最优化问题可表示为
目标函数中,α和β为可调超参数;θdes为步骤2中解算出的人体目标关节角,因此目标函数的第一项表示待优化参数和人体目标关节角的二范数;pdes即为步骤2中解算出的人体连杆向量,λi(θ,pdes)为定义的连杆向量差异度函数,具体可写为
pi(θ)为步骤3中求得的机器人的各个连杆向量,为步骤2中求得的人体连杆向量。将所有的连杆向量差异度求和,目标函数的第二项衡量了人体与机器人整体连杆向量的差异程度。约束条件中,ARobot(θ)∈CA和θ∈Cθ即为步骤3中所求得的机器人重心约束范围和待求关节角参数约束范围;约束了机器人不同的效应器末端大于一定的距离阈值h以防止自碰撞,i≠j表示不同的效应器末端,具体包含了头、手、膝、足等关节。
优化参数的初值一部分为传感器读取到的机器人当前状态下的关节角,另一部分为输入的人体目标关节角。
通过相似度指标的评估,可以发现本发明提出的方法在全身和上半身的模仿中可以保证良好的相似性,如图4所示。其中,相似度的指标为
通过对比优化前后的相似度指标,如图5所示,可以发现本发明提出的方法牺牲了一定的相似性以保证良好的平衡性。
描绘出机器人在模仿过程左右脚的安全支撑范围和CoM的轨迹,如图6所示,可以发现,无论是双脚支撑还是单脚支撑阶段,提出的方法保证了机器人的CoM始终在支撑范围内,从而保证了模仿过程中的稳定性;描绘出机器人在模仿过程CoM投影与理想支撑点的距离,如图7所示,可发现相比优化前,提出的方法所获得的CoM与理想支撑点间的距离整体而言更小,其变化也更加平缓,有效防止了重心偏移过大带来的跌倒。
Claims (7)
1.一种用于机器人全身模仿系统的控制方法,其特征在于,该方法包括如下步骤:
步骤1,基于体感相机Kinect捕获的人体骨骼点坐标,将Kinect坐标系下人体各骨骼点坐标变换为在人体坐标系下的表示;
步骤2,使用向量法求解人体关节角和各连杆向量,并根据体感相机Kinect捕获的数据估测出当前人体的支撑模式;
步骤3,建立机器人运动学模型,根据机器人各关节电机的旋转范围约束关节角度值范围;根据当前人体的支撑模式,确定对应模式下机器人的支撑多边形以约束质心范围;将关节角输入机器人的DH参数坐标变换矩阵,从而获得机器人的质心位置、各效应器末端的位置及其约束范围和机器人的连杆向量;
步骤4,根据步骤2得到的人体关节角和各连杆向量,建立目标函数;同时,获取机器人当前状态下的关节角,结合输入的人体目标关节角,作为初值;将关节角参数不断送入机器人运动学模型中检测是否满足步骤3得到的约束范围,沿着所述目标函数的最大梯度方向,迭代求解出最优解作为机器人的控制参数,最后将所述控制参数传递给机器人执行。
4.根据权利要求1所述的一种用于机器人全身模仿系统的控制方法,其特征在于,所述步骤2中,将步骤1变换后的对应骨骼点坐标相减即求得人体连杆向量;根据向量夹角的求解方法解算出人体关节角。
5.根据权利要求1所述的一种用于机器人全身模仿系统的控制方法,其特征在于,所述步骤3中,机器人运动学模型包括机器人的DH参数坐标变换矩阵、各关节电机的旋转范围和不同支撑模式下机器人的支撑多边形范围;所述DH参数坐标变换矩阵用于将关节点坐标参数分别变换为在躯干和足部坐标系下的表示;所述各关节电机的旋转范围,用于限定各关节角度值的上下界;所述不同支撑模式下机器人的支撑多边形范围,用于约束机器人质心位置的x坐标的上下界以及y坐标的上下界。
6.根据权利要求5所述的一种用于机器人全身模仿系统的控制方法,其特征在于,所述步骤3中,所述DH参数坐标变换矩阵先将静态位置下各关节的本地位置变换为在躯干坐标系下的表示;然后根据各关节的质量对其质心位置加权平均,从而得到机器人整体的质心位置在躯干坐标系下的表示;再根据不同的支撑模式,使用对应的DH参数变换矩阵可求得机器人质心位置在足部坐标系下的表示;最后,利用所述DH参数变换矩阵获得机器人各个效应器末端在躯干坐标系下的坐标位置,将对应的坐标相减可得机器人的连杆向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211374939.5A CN115781666A (zh) | 2022-11-04 | 2022-11-04 | 一种用于机器人全身模仿系统的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211374939.5A CN115781666A (zh) | 2022-11-04 | 2022-11-04 | 一种用于机器人全身模仿系统的控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115781666A true CN115781666A (zh) | 2023-03-14 |
Family
ID=85435441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211374939.5A Pending CN115781666A (zh) | 2022-11-04 | 2022-11-04 | 一种用于机器人全身模仿系统的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115781666A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117944055A (zh) * | 2024-03-26 | 2024-04-30 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
-
2022
- 2022-11-04 CN CN202211374939.5A patent/CN115781666A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117944055A (zh) * | 2024-03-26 | 2024-04-30 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
CN117944055B (zh) * | 2024-03-26 | 2024-06-11 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107953331B (zh) | 一种应用于人形机器人动作模仿的人体姿态映射方法 | |
Wang et al. | A geometric algorithm to predict the arm reach posture for computer‐aided ergonomic evaluation | |
JP5210883B2 (ja) | 物理的な多関節システムの部位の動作を制御する、コンピュータを使用する方法、物理的な多関節システムの部位の動作を制御するシステム、人間とは別体の物理的多関節システムに前記人間の動作を追従させる、コンピュータを用いた方法、人間とは別体の物理的多関節システムによって前記人間の動作を追従させるシステム、及び、ソースシステムとは別体の物理的多関節システムの部位の動きを制御する、コンピュータを用いた方法 | |
CN108838991A (zh) | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 | |
US9193072B2 (en) | Robot and control method thereof | |
Mukherjee et al. | Inverse kinematics of a NAO humanoid robot using kinect to track and imitate human motion | |
CN115469576A (zh) | 一种基于人-机械臂异构运动空间混合映射的遥操作系统 | |
CN115781666A (zh) | 一种用于机器人全身模仿系统的控制方法 | |
Rosado et al. | Reproduction of human arm movements using Kinect-based motion capture data | |
Teachasrisaksakul et al. | Imitation of dynamic walking with BSN for humanoid robot | |
Rigotti et al. | Modeling and driving a reduced human mannequin through motion captured data: A neural network approach | |
Montecillo-Puente et al. | On real-time whole-body human to humanoid motion transfer | |
JP6515828B2 (ja) | 干渉回避方法 | |
Saito et al. | Task-grasping from human demonstration | |
Wei | A comprehensive approach to the generation of human-like arm movements on robot NAO | |
Xu et al. | Learning to reorient objects with stable placements afforded by extrinsic supports | |
Tomić et al. | Arm motions of a humanoid inspired by human motion | |
Kansal et al. | Kinematic and dynamic analysis of a dexterous multi-fingered delta robot for object catching | |
Yunardi | Marker-based motion capture for measuring joint kinematics in leg swing simulator | |
Liu et al. | Wireless Control of Six-axis Robot Arms by Leap Motion Sensor. | |
Fang et al. | Learning from wearable-based teleoperation demonstration | |
Cheng et al. | Real-time robot end-effector pose estimation with deep network | |
CN112936264B (zh) | 一种面向臂手假肢的拟人运动规划方法及系统 | |
Han | Action Planning and Design of Humanoid Robot Based on Sports Analysis in Digital Economy Era | |
JP5586015B2 (ja) | 逆運動学を用いた動作・姿勢生成方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Lu Yi Inventor after: Shen Qiu Inventor after: Cao Xun Inventor before: Lu Yi Inventor before: Chen Pengyu Inventor before: Shen Qiu Inventor before: Cao Xun |