CN107598897A - 一种基于人体示教的仿人机器人步态规划的方法 - Google Patents
一种基于人体示教的仿人机器人步态规划的方法 Download PDFInfo
- Publication number
- CN107598897A CN107598897A CN201710975572.5A CN201710975572A CN107598897A CN 107598897 A CN107598897 A CN 107598897A CN 201710975572 A CN201710975572 A CN 201710975572A CN 107598897 A CN107598897 A CN 107598897A
- Authority
- CN
- China
- Prior art keywords
- mrow
- robot
- msub
- angle
- barycenter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
Abstract
本发明公开一种基于人体示教的仿人机器人步态规划的方法,将人体运动信息用于仿人机器人的步态规划中,通过对人体运动过程中骨骼信息的逆运算获得机器人关节驱动角度,为满足仿人机器人运动过程中的稳定性,利用人体示教数据预估机器人质心轨迹信息,并结合ZMP判据与机器人质心‑角度雅可比矩阵对机器人驱动角度进行补偿控制,在支撑脚的选择中,通过滞回曲线判别人体示教过程的支撑脚切换以确定机器人的支撑脚选取。本发明大大简化了仿人机器人步态规划的复杂性,并且基于人体示教的步态规划可使机器人的运动过程更具拟人化。
Description
技术领域
本发明属于人工智能和机器人控制领域,尤其涉及一种基于人体示教的仿人机器人步态规划的方法。
背景技术
仿人机器人结构与人体相似,在人类社会环境中,仿人机器人可代替人类完成各种作业,扩展人类的能力,并表现出很好的环境适应性。近年来仿人机器人在服务,医疗,教育,娱乐等多个领域得到广泛的应用,相关的研究工作也逐步展开。仿人机器人行走问题的研究一直是机器人领域的一大研究热点,目前依据动力学模型并结合规划的ZMP轨迹形成稳定步态是主要方法,但依靠规划形成的运动模式往往需要复杂的运算,而且运动形式单一。
面对仿人机器人行走步态规划的难题,模仿这一方式逐渐被引入到机器人运动控制中。令机器人对示教者运动信息进行采集,并通过模仿实现运动技能,这种方式大大简化了仿人机器人步态规划的复杂性,并且依据人体姿态生成的机器人运动形式更具拟人化,更重要的是赋予仿人机器人对人体示教行为的模仿能力,可以增强其在复杂环境下的决策能力,提高智能性。
虽然通过人体示教规划机器人步态有很多优点,但由于机器人是对示教者的直接模仿,这会造成机器人步态的稳定性问题,面对行走等对动态性能要求较高的运动过程时,平衡的控制尤为重要。与依据稳定性判据规划开环步态不同,基于人体动作规划机器人步态面临如下三个问题:(1)人体示教过程提供了机器人驱动角度,但由于质量分布的不同,还需要结合质心信息进行补偿调整以满足平衡;(2)期望ZMP轨迹不再由人为设定,而是结合示教数据去计算期望ZMP轨迹;(3)要对人体示教动作进行支撑脚判别后再用于机器人步态规划。针对以上存在的问题,提出一种基于人体示教的仿人机器人步态规划的方法,使仿人机器人通过人体示教数据获得稳定的步态信息,实现稳定的步态规划。
发明内容
本发明将人体运动信息引入到仿人机器人的步态规划中,提出一种基于人体示教的仿人机器人步态规划的方法,捕捉人体运动过程的骨骼点数据,通过对骨骼信息的逆运算获得机器人关节驱动角度,为满足仿人机器人运动过程中的稳定性,利用人体示教数据预估机器人质心轨迹信息,并结合ZMP判据与机器人质心-角度雅可比矩阵对机器人驱动角度进行补偿控制,在支撑脚的选择中,通过滞回曲线判别人体示教过程的支撑脚切换以确定机器人的支撑脚选取。
为实现上述目的,本发明采用如下的技术方案:
一种基于人体示教的仿人机器人步态规划的方法,将人体运动过程中的骨骼信息作为示教数据,依据示教数据进行机器人的步态规划与平衡控制,实现仿人机器人对人体步态的模仿,具体步骤如下:
步骤(1)、利用体感摄影机kinect获取人体行走过程的骨骼点数据,确定人体骨骼点与机器人驱动关节的匹配关系,并通过逆运算获得机器人驱动角度。
步骤(2)、为满足机器人运动过程中的稳定性,依据人体示教数据预估机器人质心轨迹信息,并利用滞回曲线确定支撑脚,然后结合机器人稳定性判据ZMP判据计算质心补偿量。
步骤(3)、再确定质心补偿量后,需通过机器人的质心-角度雅可比矩阵计算角度补偿值,利用补偿角度与驱动角度的相加值驱动机器人可保持机器人步态的稳定性。
作为优选,步骤1中对人体骨骼点与机器人驱动关节进行了匹配,通过空间向量运算获得示教驱动角度。
作为优选,步骤2中利用人体运动过程中的骨骼点信息构建关节向量,通过人体关节向量与机器人质量信息预估机器人质心轨迹信息。
作为优选,步骤2中利用滞回曲线判别示教过程中支撑脚的选取,确保了机器人步态的稳定。
本发明涉及一种基于人体示教的仿人机器人步态规划的方法,属于人工智能与机器人控制领域。本发明将人体运动信息用于仿人机器人的步态规划中,通过对人体运动过程中骨骼信息的逆运算获得机器人关节驱动角度,为满足仿人机器人运动过程中的稳定性,利用人体示教数据预估机器人质心轨迹信息,并结合ZMP判据与机器人质心-角度雅可比矩阵对机器人驱动角度进行补偿控制,在支撑脚的选择中,通过滞回曲线判别人体示教过程的支撑脚切换以确定机器人的支撑脚选取。本发明大大简化了仿人机器人步态规划的复杂性,并且基于人体示教的步态规划可使机器人的运动过程更具拟人化。
附图说明
图1机器人步态模仿的系统结构;
图2 Kinect2.0提取的人体骨骼信息;
图3姿态与角度的映射关系;
图4右脚支撑下的质心的计算;
图5右脚支撑下的右大腿雅可比矩阵计算;
图6用于支撑脚选择的滞回曲线;
图7基于滞回曲线的支撑脚选取;
图8进行补偿调整后的机器人ZMP轨迹。
具体实施方式
本发明提供一种基于人体示教的仿人机器人步态规划的方法,如图1所示,捕捉人体运动过程的骨骼点数据,通过对骨骼信息的逆运算获得机器人关节驱动角度,为满足仿人机器人运动过程中的稳定性,利用人体示教数据预估机器人质心轨迹信息,并结合ZMP判据与机器人质心-角度雅可比矩阵对机器人驱动角度进行补偿控制,在支撑脚的选择中,通过滞回曲线判别人体示教过程的支撑脚切换以确定机器人的支撑脚选取。具体实现过程如下:
(1)利用KINECT2.0捕捉人体运动信息,KINECT2.0的骨骼数据由25个关节空间坐标组成,S=[s1,s2,s3Λ,s25],其中si=(xi,yi,zi),如图2所示。在visual studio中利用Kinect开发套件对示教者进行骨骼追踪并记录,用于后续的模仿学习。
(2)由于kinect获得的是人体空间位置信息,为得到示教关节角度,需对人体骨骼点与机器人驱动关节进行匹配,通过空间向量运算获得示教驱动角度。以Nao机器人右脚踝的两个自由度为例,进行求解说明,如图3所示,从Kinect读取骨骼点foot right、ankleright、knee right、hip right,分别记为s1,s2,s3,s4,记
s3,4s2,3=s3s4×s2s3 (2)
踝关节滚动角为:
踝关节俯仰角为:
(3)为保证机器人步态的稳定性,需对机器人的质心轨迹信息进行预估,包括质心位置与质心加速度用于稳定性控制。设M为机器人质量,mj为机器人每个连杆的质量,cj为在以平衡点为原点的坐标系下,从原点指向连杆质点的向量。N为机器人自由度数目,则机器人质心位置计算公式如下:
机器人的质量为已知量,向量cj由机器人关节角度经正运动学运算得到,但由于仿人机器人自由度多,结构冗余,质点位置的计算需大量的旋转矩阵叠乘,运算相对复杂,实时性差,因此本发明充分利用仿人机器人的结构与人体结构的相似性,通过骨骼点采集器获取的人体关节坐标模型可以看作是成比例放大后的机器人关节坐标模型,因此本文利用人体关节坐标模型求取机器人连杆质点的向量cj,并结合机器人质量数据计算机器人的质心位置。下面以右脚作支撑脚为例,说明右大腿质点的向量求解方法。如图4所示,根据骨骼信息可得到以骨骼采集器为原点的坐标系下右脚,右膝,右胯的空间向量x1,x2,x3,则右大腿质点向量x4可由下式计算得到:
在以右脚骨骼点为原点的坐标系下,右大腿的质点向量x5可由下式计算得到:
x5=x4-x1 (7)
由于示教者与机器人身高存在差异,经计算得到的质点向量需按比例缩小μ倍,crightthigh可表示为:
crightthigh=μx5 (8)
根据示教者身高的不同,参数μ选取0.3-0.4之间,可根据实验效果进行微调。根据上述方法依次计算各连杆质点的向量后,便可得到机器人关节坐标模型,结合机器人各连杆的质量数据,根据质心计算公式(5)便可得到机器人质心的预估值。在得到质心空间坐标点的一组离散值后,在t时刻的质心加速度可通过下式计算:
其中T为采样周期,c为质心的空间位置坐标,为求取的机器人质心加速度。
(4)在预估了机器人质心轨迹信息后,便可基于ZMP判据进行稳定性控制。通过骨骼点采集器可获得人体示教过程中足部的运动轨迹,由于机器人与示教者之间存在着身高差异,所以利用缩小后的足部运动轨迹作为行走模仿过程中ZMP的期望轨迹,记为pref。在由示教数据驱动机器人的条件下,机器人的质心偏移会影响ZMP轨迹,因此本文通过补偿质心偏移满足ZMP方程,如式(10)所示:
其中c为机器人质心,Δc为质心补偿量,h为机器人质心等价高度,g为重力加速度。
令pres为机器人实际ZMP点,可有:
此时式(10)可转换为:
Δc=pref-pres (12)
即质心补偿量的计算可由期望ZMP与机器人实际ZMP的差值求得。
(5)在确定质心补偿量后,需对机器人进行补偿控制以保持机器人的行走平衡。对于机器人而言,机器人质心的变化本质上是连杆位姿的变化,而连杆位姿的变化本质上是关节角度的变化,因此,为通过质心补偿实现机器人的动态平衡,需利用机器人质心-角度雅可比矩阵J表达质心位置与关节角的关系并通过二次规划对补偿角度进行求解,利用雅可比矩阵的思想,假设机器人每一个关节角产生了微小的变化δq,会对整体质心产生一个微小的偏移δg,二者关系可用雅可比矩阵来表达:
δg=Jδq (13)
假设当质心产生了一个偏移,为补偿偏移量,角度的补偿量可表达为:
δq=J-1δg (14)
此时问题转化为质心-角度的雅可比矩阵求解问题。已知
由于
其中mj代表各连杆质量,pj为各连杆位置,g为机器人质心位置,n为机器人自由度数目,定义连杆位置-角度的雅可比矩阵为:
此时J可由下式求得:
以右腿为支撑腿时为例,设右大腿的雅可比矩阵Jp,如图5所示,t1,t2是轴方向上的单位向量,r1,r2是连杆质点坐标,l1,l2是由关节点指向右大腿质点的向量,连杆位置与角度的关系可表达为:
由此可知右大腿的雅可比矩阵Jp=(t1×l1,t2×l2,0,0,0Λ)∈R3×n,其中n代表机器人的自由度数目。依此方法求得个连杆的雅可比矩阵后便可根据式(18)确定质心-角度雅可比矩阵。
通过求解质心-角度雅可比矩阵,可以得到机器人质心与角度二者的变化关系,结合质心预估的偏移量,可求解对应的质心补偿角,但在求解关节角度补偿问题时,由于矩阵J不是一个方阵,因此引入伪逆矩阵进行求解,即J+=JT(JJT)-1,通过伪逆矩阵即可求出唯一解,此唯一解对应于全身所有自由度的调整以实现质心补偿,虽然平衡控制涉及到全身的关节角,但对于仅需小幅调整的平衡来说,应该通过尽可能少的关节调整来维持平衡,例如仅通过踝关节就可调整的质心偏移不必通过上肢的摆动来调整。因此采用权值可调的线性二次型优化方法进行求解,数学描述如下:
S.T.Jδq=δg (21)
解得
δq=W-1JT(JW-1JT)-1δg (22)
对于指标其中δq表示为满足质心平衡做出的角度补偿,W为一个权值矩阵。在权值选取时,为保持模仿的相似性与平衡控制的合理性,对于上肢关节要取较大的权值进行抑制,而取较小的权值使下肢关节进行补偿调整。通过调整权值矩阵W便可优化模仿行为。
(6)在仿人机器人行走过程中,支撑脚合理的选择与切换是实现稳定行走的前提。在骨骼点采集时,由于环境或设备影响会造成数据波动,通过判别两脚在空间中的竖直高度来确定支撑脚的选取可能会造成支撑脚的频繁切换,从而造成机器人行走的不稳定,因此引入滞回曲线规划机器人模仿学习过程中支撑脚的变化。如图6所示,k表示人体示教数据中左右两脚竖直方向上的差值,通过设置参数flag判别支撑脚状态,定义右脚支撑时,令flag=1,左脚支撑时,令flag=0。在flag=1,即右脚支撑时,当k值小于-0.01m时令flag=0,即切换为左脚支撑。在flag=0,即左脚支撑时,当k值大于0.01m时令flag=1,即切换为右脚支撑。通过滞回曲线选取支撑脚可有效抑制因数据波动造成的不稳定。
实施例1:
通过体感摄影机Kinect采集人体示教数据,通过示教数据规划机器人步态,实现机器人对人体动作的模仿,具体实施方式如下:
步骤1、利用体感摄影机kinect采集人体示教过程的骨骼点数据,针对下肢关节,对左右胯,左右膝,左右脚踝的共10个自由度进行示教角度的计算。
步骤2、利用体感摄影机kinect采集人体示教过程的骨骼点数据进行机器人质心轨迹信息的预估,在kinect坐标系下计算人体肢体向量,经等比例缩小0.32倍后,结合机器人质量分布预估机器人质心轨迹信息。
步骤3、利用滞回曲线判定行走过程的支撑脚选取,滞回区间为-1cm~+1cm,比较利用滞回曲线前后结果,如图7所示,滞回曲线的加入使支撑脚的切换变得稳定准确。
步骤4、将kinect坐标系下的人体示教足部信息缩小0.32倍后作为期望ZMP轨迹,结合已得到的机器人质心轨迹预估信息求解质心补偿量,再确定支撑脚后,计算机器人质心-角度雅可比矩阵,通过二次型优化方法求解补偿角度。在webots下进行仿真实验,机器人步态与ZMP轨迹如图8所示,ZMP轨迹保持在支撑平面内,显然通过角度补偿实现了对人体示教动作的模仿并保持了步态的稳定性。
Claims (5)
1.一种基于人体示教的仿人机器人步态规划的方法,其特征在于,将人体运动过程中的骨骼信息作为示教数据,依据示教数据进行机器人的步态规划与平衡控制,实现仿人机器人对人体步态的模仿,具体步骤如下:
步骤(1)、利用体感摄影机kinect获取人体行走过程的骨骼点数据,确定人体骨骼点与机器人驱动关节的匹配关系,并通过逆运算获得机器人驱动角度;
步骤(2)、依据人体示教数据预估机器人质心轨迹信息,并利用滞回曲线确定支撑脚,然后结合机器人稳定性判据ZMP判据计算质心补偿量;
步骤(3)、再确定质心补偿量后,需通过机器人的质心-角度雅可比矩阵计算角度补偿值,利用补偿角度与驱动角度的相加值驱动机器人可保持机器人步态的稳定性。
2.根据权利要求1所述的一种基于人体示教的仿人机器人步态规划的方法,其特征在于:步骤1中对人体骨骼点与机器人驱动关节进行了匹配,通过空间向量运算获得示教驱动角度。
3.根据权利要求1所述的一种基于人体示教的仿人机器人步态规划的方法,其特征在于:步骤2中利用人体运动过程中的骨骼点信息构建关节向量,通过人体关节向量与机器人质量信息预估机器人质心轨迹信息。
4.根据权利要求1所述的一种基于人体示教的仿人机器人步态规划的方法,其特征在于:步骤2中利用滞回曲线判别示教过程中支撑脚的选取,确保了机器人步态的稳定。
5.根据权利要求1所述的一种基于人体示教的仿人机器人步态规划的方法,其特征在于:步骤3具体为:为通过质心补偿实现机器人的动态平衡,需利用机器人质心-角度雅可比矩阵J表达质心位置与关节角的关系并通过二次规划对补偿角度进行求解,利用雅可比矩阵的思想,假设机器人每一个关节角产生了微小的变化δq,会对整体质心产生一个微小的偏移δg,二者关系可用雅可比矩阵来表达:
δg=Jδq (13)
假设当质心产生了一个偏移,为补偿偏移量,角度的补偿量可表达为:
δq=J-1δg (14)
此时问题转化为质心-角度的雅可比矩阵求解问题,已知
<mrow>
<mi>J</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>&delta;</mi>
<mi>g</mi>
</mrow>
<mrow>
<mi>&delta;</mi>
<mi>q</mi>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
</mrow>
由于
<mrow>
<mover>
<mi>g</mi>
<mo>&CenterDot;</mo>
</mover>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>m</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>p</mi>
<mo>&CenterDot;</mo>
</mover>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>m</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>16</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,mj代表各连杆质量,pj为各连杆位置,g为机器人质心位置,n为机器人自由度数目,定义连杆位置-角度的雅可比矩阵为:
<mrow>
<msub>
<mi>J</mi>
<mrow>
<mi>p</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&delta;p</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<mi>&delta;</mi>
<mi>&theta;</mi>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>17</mn>
<mo>)</mo>
</mrow>
</mrow>
此时J可由下式求得:
<mrow>
<mi>J</mi>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>m</mi>
<mi>j</mi>
</msub>
<msub>
<mi>J</mi>
<mrow>
<mi>p</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>m</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>18</mn>
<mo>)</mo>
</mrow>
</mrow>
以右腿为支撑腿时为例,设右大腿的雅可比矩阵Jp,t1,t2是轴方向上的单位向量,r1,r2是连杆质点坐标,l1,l2是由关节点指向右大腿质点的向量,连杆位置与角度的关系可表达为:
<mrow>
<msub>
<mover>
<mi>r</mi>
<mo>&CenterDot;</mo>
</mover>
<mn>2</mn>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>t</mi>
<mn>1</mn>
</msub>
<mo>&times;</mo>
<msub>
<mi>l</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>t</mi>
<mn>2</mn>
</msub>
<mo>&times;</mo>
<msub>
<mi>l</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<mn>0</mn>
<mo>...</mo>
<mo>)</mo>
</mrow>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>19</mn>
<mo>)</mo>
</mrow>
</mrow>
由此可知右大腿的雅可比矩阵Jp=(t1×l1,t2×l2,0,0,0Λ)∈R3×n,其中n代表机器人的自由度数目,依此方法求得个连杆的雅可比矩阵后便可根据式(18)确定质心-角度雅可比矩阵;
通过求解质心-角度雅可比矩阵,可以得到机器人质心与角度二者的变化关系,结合质心预估的偏移量,可求解对应的质心补偿角,但在求解关节角度补偿问题时,由于矩阵J不是一个方阵,因此引入伪逆矩阵进行求解,即J+=JT(JJT)-1,通过伪逆矩阵即可求出唯一解,此唯一解对应于全身所有自由度的调整以实现质心补偿,采用权值可调的线性二次型优化方法进行求解,数学描述如下:
<mrow>
<mi>M</mi>
<mi>I</mi>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msup>
<mi>&delta;q</mi>
<mi>T</mi>
</msup>
<mi>W</mi>
<mi>&delta;</mi>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>20</mn>
<mo>)</mo>
</mrow>
</mrow>
S.T.Jδq=δg (21)
解得
δq=W-1JT(JW-1JT)-1δg (22)
对于指标其中,δq表示为满足质心平衡做出的角度补偿,W为一个权值矩阵;在权值选取时,对于上肢关节要取较大的权值进行抑制,而取较小的权值使下肢关节进行补偿调整;通过调整权值矩阵W便可优化模仿行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710975572.5A CN107598897B (zh) | 2017-10-19 | 2017-10-19 | 一种基于人体示教的仿人机器人步态规划的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710975572.5A CN107598897B (zh) | 2017-10-19 | 2017-10-19 | 一种基于人体示教的仿人机器人步态规划的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107598897A true CN107598897A (zh) | 2018-01-19 |
CN107598897B CN107598897B (zh) | 2020-11-27 |
Family
ID=61078708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710975572.5A Active CN107598897B (zh) | 2017-10-19 | 2017-10-19 | 一种基于人体示教的仿人机器人步态规划的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107598897B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874146A (zh) * | 2018-07-09 | 2018-11-23 | 查常财 | 一种应用于虚拟现实系统中的运动人体质心位移计算方法 |
CN109333506A (zh) * | 2018-10-23 | 2019-02-15 | 广东工业大学 | 一种人形智能机器人系统 |
CN109870947A (zh) * | 2018-12-20 | 2019-06-11 | 江苏集萃智能制造技术研究所有限公司 | 一种小型双足机器人的步态行走规划的控制系统 |
CN109968355A (zh) * | 2019-03-08 | 2019-07-05 | 北京工业大学 | 一种仿人机器人步态平衡模型建立的方法 |
CN109993073A (zh) * | 2019-03-14 | 2019-07-09 | 北京工业大学 | 一种基于Leap Motion的复杂动态手势识别方法 |
CN109991979A (zh) * | 2019-03-29 | 2019-07-09 | 华中科技大学 | 一种面向复杂环境的下肢机器人步态规划方法 |
CN110265112A (zh) * | 2019-07-17 | 2019-09-20 | 北京航空航天大学 | 一种下肢康复机器人的三维步态康复训练方法 |
CN110262510A (zh) * | 2019-07-11 | 2019-09-20 | 北京理工大学 | 一种降低行走能耗的仿人机器人质心轨迹规划方法 |
CN110405763A (zh) * | 2019-07-24 | 2019-11-05 | 北京理工大学 | 一种仿人机器人多关节协同爆发跳跃的规划方法 |
CN111377004A (zh) * | 2018-12-28 | 2020-07-07 | 深圳市优必选科技有限公司 | 一种双足机器人步态控制方法以及双足机器人 |
CN112572453A (zh) * | 2020-12-21 | 2021-03-30 | 广州大学 | 机器人在斜坡行走的步态规划方法、装置、设备及介质 |
CN112643679A (zh) * | 2020-12-30 | 2021-04-13 | 乐聚(深圳)机器人技术有限公司 | 机器人运动控制方法、装置、控制器及存储介质 |
CN112859856A (zh) * | 2021-01-11 | 2021-05-28 | 常州工程职业技术学院 | 一种基于质心高度补偿的仿人机器人步态生成方法 |
CN112975941A (zh) * | 2019-12-13 | 2021-06-18 | 深圳市优必选科技股份有限公司 | 机器人控制方法、装置、计算机可读存储介质及机器人 |
CN113524178A (zh) * | 2021-06-28 | 2021-10-22 | 南京大学 | 一种面向人机融合系统的数据通信方法及其装置 |
CN114571463A (zh) * | 2022-03-28 | 2022-06-03 | 达闼机器人股份有限公司 | 动作检测方法、装置、可读存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157973A (ja) * | 1999-09-20 | 2001-06-12 | Sony Corp | ロボットの歩行制御装置及び歩行制御方法 |
JP2002326173A (ja) * | 2001-04-27 | 2002-11-12 | Honda Motor Co Ltd | 脚式移動ロボットの動作生成装置 |
CN104407611A (zh) * | 2014-09-30 | 2015-03-11 | 同济大学 | 一种仿人机器人稳定行走的控制方法 |
CN106078752A (zh) * | 2016-06-27 | 2016-11-09 | 西安电子科技大学 | 一种基于Kinect的仿人机器人人体行为模仿方法 |
CN106933100A (zh) * | 2017-03-19 | 2017-07-07 | 北京工业大学 | 一种基于人体运动捕捉数据的仿人机器人步态规划方法 |
-
2017
- 2017-10-19 CN CN201710975572.5A patent/CN107598897B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157973A (ja) * | 1999-09-20 | 2001-06-12 | Sony Corp | ロボットの歩行制御装置及び歩行制御方法 |
JP2002326173A (ja) * | 2001-04-27 | 2002-11-12 | Honda Motor Co Ltd | 脚式移動ロボットの動作生成装置 |
CN104407611A (zh) * | 2014-09-30 | 2015-03-11 | 同济大学 | 一种仿人机器人稳定行走的控制方法 |
CN106078752A (zh) * | 2016-06-27 | 2016-11-09 | 西安电子科技大学 | 一种基于Kinect的仿人机器人人体行为模仿方法 |
CN106933100A (zh) * | 2017-03-19 | 2017-07-07 | 北京工业大学 | 一种基于人体运动捕捉数据的仿人机器人步态规划方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874146A (zh) * | 2018-07-09 | 2018-11-23 | 查常财 | 一种应用于虚拟现实系统中的运动人体质心位移计算方法 |
CN109333506A (zh) * | 2018-10-23 | 2019-02-15 | 广东工业大学 | 一种人形智能机器人系统 |
CN109333506B (zh) * | 2018-10-23 | 2021-12-17 | 广东工业大学 | 一种人形智能机器人系统 |
CN109870947A (zh) * | 2018-12-20 | 2019-06-11 | 江苏集萃智能制造技术研究所有限公司 | 一种小型双足机器人的步态行走规划的控制系统 |
CN111377004A (zh) * | 2018-12-28 | 2020-07-07 | 深圳市优必选科技有限公司 | 一种双足机器人步态控制方法以及双足机器人 |
CN109968355A (zh) * | 2019-03-08 | 2019-07-05 | 北京工业大学 | 一种仿人机器人步态平衡模型建立的方法 |
CN109993073B (zh) * | 2019-03-14 | 2021-07-02 | 北京工业大学 | 一种基于Leap Motion的复杂动态手势识别方法 |
CN109993073A (zh) * | 2019-03-14 | 2019-07-09 | 北京工业大学 | 一种基于Leap Motion的复杂动态手势识别方法 |
CN109991979A (zh) * | 2019-03-29 | 2019-07-09 | 华中科技大学 | 一种面向复杂环境的下肢机器人步态规划方法 |
CN109991979B (zh) * | 2019-03-29 | 2020-10-30 | 华中科技大学 | 一种面向复杂环境的下肢机器人拟人步态规划方法 |
CN110262510A (zh) * | 2019-07-11 | 2019-09-20 | 北京理工大学 | 一种降低行走能耗的仿人机器人质心轨迹规划方法 |
CN110262510B (zh) * | 2019-07-11 | 2020-08-28 | 北京理工大学 | 一种降低行走能耗的仿人机器人质心轨迹规划方法 |
CN110265112A (zh) * | 2019-07-17 | 2019-09-20 | 北京航空航天大学 | 一种下肢康复机器人的三维步态康复训练方法 |
CN110405763A (zh) * | 2019-07-24 | 2019-11-05 | 北京理工大学 | 一种仿人机器人多关节协同爆发跳跃的规划方法 |
CN112975941A (zh) * | 2019-12-13 | 2021-06-18 | 深圳市优必选科技股份有限公司 | 机器人控制方法、装置、计算机可读存储介质及机器人 |
CN112572453A (zh) * | 2020-12-21 | 2021-03-30 | 广州大学 | 机器人在斜坡行走的步态规划方法、装置、设备及介质 |
CN112572453B (zh) * | 2020-12-21 | 2022-02-18 | 广州大学 | 机器人在斜坡行走的步态规划方法、装置、设备及介质 |
CN112643679A (zh) * | 2020-12-30 | 2021-04-13 | 乐聚(深圳)机器人技术有限公司 | 机器人运动控制方法、装置、控制器及存储介质 |
CN112643679B (zh) * | 2020-12-30 | 2022-07-08 | 乐聚(深圳)机器人技术有限公司 | 机器人运动控制方法、装置、控制器及存储介质 |
CN112859856A (zh) * | 2021-01-11 | 2021-05-28 | 常州工程职业技术学院 | 一种基于质心高度补偿的仿人机器人步态生成方法 |
CN112859856B (zh) * | 2021-01-11 | 2022-12-09 | 常州工程职业技术学院 | 一种基于质心高度补偿的仿人机器人步态生成方法 |
CN113524178A (zh) * | 2021-06-28 | 2021-10-22 | 南京大学 | 一种面向人机融合系统的数据通信方法及其装置 |
CN114571463A (zh) * | 2022-03-28 | 2022-06-03 | 达闼机器人股份有限公司 | 动作检测方法、装置、可读存储介质及电子设备 |
CN114571463B (zh) * | 2022-03-28 | 2023-10-20 | 达闼机器人股份有限公司 | 动作检测方法、装置、可读存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107598897B (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107598897A (zh) | 一种基于人体示教的仿人机器人步态规划的方法 | |
CN106078752B (zh) | 一种基于Kinect的仿人机器人人体行为模仿方法 | |
Miura et al. | Human-like walking with toe supporting for humanoids | |
CN100557639C (zh) | 基于关键帧和时空约束的三维虚拟人体运动生成方法 | |
KR100856824B1 (ko) | 캐릭터 시뮬레이션 방법 및 시스템 | |
CN108858208A (zh) | 一种复杂地形仿人机器人自适应平衡控制方法、装置和系统 | |
CN109202901A (zh) | 一种双足机器人爬楼梯步态规划方法、装置及机器人 | |
CN109968355A (zh) | 一种仿人机器人步态平衡模型建立的方法 | |
Hamon et al. | Cross four-bar linkage for the knees of a planar bipedal robot | |
CN103149933A (zh) | 基于闭环控制的仿人机器人全向行走方法 | |
CN106886155A (zh) | 一种基于pso‑pd神经网络的四足机器人运动轨迹控制方法 | |
CN106607910A (zh) | 一种机器人实时模仿方法 | |
CN114248855B (zh) | 双足机器人空间域步态规划与控制的方法 | |
CN109991979A (zh) | 一种面向复杂环境的下肢机器人步态规划方法 | |
CN108469732A (zh) | 基于dmp的机器人工作空间适应性行走控制系统及方法 | |
CN108931988A (zh) | 一种基于中枢模式发生器的四足机器人的步态规划方法 | |
CN102467749A (zh) | 基于关键帧和时空约束的三维虚拟人体运动生成方法 | |
CN107578461A (zh) | 一种基于子空间筛选的三维虚拟人体物理运动生成方法 | |
CN113146585A (zh) | 基于线性自抗扰控制的外骨骼机器人步态跟踪方法 | |
WO2022156476A1 (zh) | 一种仿人机器人连续动态稳定跳跃控制方法 | |
CN106897575B (zh) | 一种主动型膝上假肢的准滑模控制方法 | |
Hwang et al. | Biped Balance Control by Reinforcement Learning. | |
CN116237943A (zh) | 一种结合地形约束的四足机器人控制方法 | |
CN109159123A (zh) | 一种基于能量最优的机器人翻身控制方法 | |
CN107168061A (zh) | 一种仿人机器人相似性运动的步态规划装置及其规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |