CN109991979B - 一种面向复杂环境的下肢机器人拟人步态规划方法 - Google Patents

一种面向复杂环境的下肢机器人拟人步态规划方法 Download PDF

Info

Publication number
CN109991979B
CN109991979B CN201910248406.4A CN201910248406A CN109991979B CN 109991979 B CN109991979 B CN 109991979B CN 201910248406 A CN201910248406 A CN 201910248406A CN 109991979 B CN109991979 B CN 109991979B
Authority
CN
China
Prior art keywords
joint
data
motion
lower limb
angle data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910248406.4A
Other languages
English (en)
Other versions
CN109991979A (zh
Inventor
张琴
周庆阳
孟阳
黄波
熊蔡华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201910248406.4A priority Critical patent/CN109991979B/zh
Publication of CN109991979A publication Critical patent/CN109991979A/zh
Application granted granted Critical
Publication of CN109991979B publication Critical patent/CN109991979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明属于机器人领域,并具体公开了一种面向复杂环境的下肢机器人拟人步态规划方法。该方法包括在人体下肢上设置标志点,通过运动捕捉系统获得人体的静止姿态数据和运动姿态数据;根据运动姿态数据在人体模型上进行逆运动学计算得到运动过程中各关节的角度数据;然后根据各关节的角度数据与周期之间的关系建立拟合函数,并根据该拟合函数进行下肢机器人步态规划。本发明将离散的关节角度数据连续化,可基本完全还原步态周期中关节角度数据的变化,经验证具有较好的拟合结果,同时不仅最大限度地使下肢机器人还原人体的运动,而且能够适用于复杂的行走环境,如步行、上坡或上楼梯等。

Description

一种面向复杂环境的下肢机器人拟人步态规划方法
技术领域
本发明属于机器人领域,更具体地,涉及一种面向复杂环境的下肢机器人拟人步态规划方法。
背景技术
具有人类行走特征的机器人是国内外的研究热点之一,包括双足机器人、下肢(康复)外骨骼机器人和下肢假肢等。而步态规划是下肢类机器人研究的重要部分,由于下肢类机器人最终要实现不同行走环境下步态自适应调整,所以在步态规划部分要对不同行走环境下的步态进行分析,提前对各个关节的系列数据进行规划,使下肢机器人能在步行过程中实时调用已规划数据来完成特定步行环境下的步行动作。
现有的步态规划研究方法主要分为:基于下肢简化模型的步态规划和基于下肢运动学数据的步态规划。其中基于下肢简化模型的步态规划方法将下肢机器人简化为各种不同的刚性结构模型,如连杆模型、倒立摆模型等,基于这些数学模型进行步态规划,基本思路是分析模型的运动学特性,给定某些特定约束来求解得到各关节所需要的步态数据。由于该方法的模型过于简化,在早期一些比较简单的双足机器人上应用较多,得到的步态较为僵硬,规划得到的数据用于下肢机器人的控制难以得到拟人效果非常好的步态。所以目前使用该方法时大部分是将简化模型结合其他的一些现代智能方法来进行的,如最优化方法、神经网络、模糊逻辑规划法等,但该方法多用于控制实体样机的步态规划上,考虑了实体样机的能耗、稳定性及驱动器的最大输出能力等因素来进行最优化计算得到需要的关节轨迹,虽然步态规划效果很好,但是规划结果只适用于产生最优化算法的样机,不具备普适性,且制作样机成本较高。
基于下肢运动学数据的步态规划方法中,下肢机器人的目的是要完美复现人类的行走特征,所以其步态规划也可借鉴正常人行走时的步态数据。由于机器人与人相比在质量分布、自由度、关节力(力矩)以及关节的驱动特性上都会发生改变,故该步态规划方法主要是对HMCD进行分析,研究人类步行的基本原理,将得到的一些基本步态特征应用到步行规划中,生成合适的步态,并且该方法使步态规划更加简单,避免了复杂的计算。但是,目前该方法的应用场景不够广泛,大都停留在单一的平底行走条件下,对于复杂环境下的步态规划研究较少。
发明内容
针对现有技术的上述缺点和/或改进需求,本发明提供了一种面向复杂环境的下肢机器人拟人步态规划方法,其中通过建立关节角度数据与周期之间的拟合函数,能够将离散的关节角度数据连续化,因而尤其适用于复杂环境的下肢机器人步态规划之类的应用场合。
为实现上述目的,本发明提出了一种面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,该方法包括如下步骤:
S1在人体下肢上设置标志点,采集人体处于静止状态和运动状态时所述标志点的位置数据,从而获得人体的静止姿态数据和运动姿态数据;
S2根据所述静止姿态数据建立人体模型,并根据所述运动姿态数据在所述人体模型上进行逆运动学计算,得到一个运动周期内各关节的角度数据;
S3根据所述各关节的角度数据与运动周期之间的关系分别建立拟合函数,并根据所述各关节的拟合函数在该运动状态下进行下肢机器人步态规划。
作为进一步优选地,所述步骤S1中利用运动捕捉系统采集所述标志点的位置数据,所述运动捕捉系统采用Vicon运动捕捉系统、OptiTrack运动捕捉系统或ART光学运动捕捉系统。
作为进一步优选地,所述步骤S1中运动状态包括平地行走状态、上坡行走状态或上楼梯行走状态。
作为进一步优选地,所述步骤S2和S3中关节包括髋关节、膝关节和踝关节。
作为进一步优选地,所述步骤S2包括如下子步骤:
S21建立一个包含所有标志点的下肢连杆模型;
S22根据一个运动周期内某一帧中标志点的位置数据,确定当前帧所述下肢连杆模型的姿态,处于该姿态时所述下肢连杆模型中各关节的角度数据,即为当前帧所述人体模型中各关节的角度数据;
S23对一个运动周期内的每一帧重复步骤S22,从而获得一个运动周期内所述人体模型中各关节的角度数据。
作为进一步优选地,所述步骤S22中,当公式(1)取得最小值时,获得当前帧所述下肢连杆模型的姿态;
Figure GDA0002138860530000031
式中,k为标志点的个数,ωi为第i个标志点的权值,|XiX′i|为人体模型中第i个标志点Xi到对应的下肢连杆模型中第i个标志点X′i距离的绝对值。
作为进一步优选地,所述步骤S3包括如下子步骤:
S31选择n阶的拟合函数用于表示各关节的角度数据与周期之间的关系;
S32分别对各关节的角度数据进行快速傅里叶变换,得到各关节的角度数据的频率成分个数;
S33根据步骤S32中所述频率成分个数的最大值确定所述拟合函数中n的取值,然后分别求解各关节的拟合函数的参数;
S34根据获得的各关节的拟合函数进行下肢机器人步态规划。
作为进一步优选地,所述步骤S31中n阶的拟合函数为:
y=a1sin(b1x+c1)+a2sin(b2x+c2)+…+an sin(bnx+cn) (2)
式中,y为关节的角度数据,x为周期的百分比,ai、bi和ci分别为第i个三角函数的参数。
作为进一步优选地,所述步骤S31中n阶的拟合函数为:
Figure GDA0002138860530000041
式中,y为关节的角度数据,x为周期的百分比,a0、ap、bp为傅里叶系数。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,主要具备以下的技术优点:
1.本发明通过在人体下肢上设置标志点,并利用获得的运动姿态数据反算关节的角度数据,根据关节的角度数据呈周期性变化的特点,选择合适的拟合函数进行拟合,从而将离散的关节角度数据连续化,可基本完全还原步态周期中关节角度数据的变化,经验证具有较好的拟合结果;
2.同时,本发明提出的下肢机器人步态规划方法是基于人体在不同行走方式下的运动姿态来进行的,因此不仅能够最大限度地使下肢机器人还原人体的运动,而且能够适用于复杂的行走环境,如步行、上坡或上楼梯等;
3.尤其是,本发明提出了两种拟合函数用于表示关节的角度数据与周期之间的关系,不仅简化了离散的关节角度数据,而且还将其扩展为连续的周期表达式,给下肢机器人的控制提供了基础,其中采用公式(3)能够用更少的参数表示频率成分同样多的关节角度数据。
附图说明
图1是本发明提供的面向复杂环境的下肢机器人拟人步态规划方法的流程图;
图2是本发明优选实施例行走过程中下肢的简化连杆模型,其中a)为矢状面,b)为冠状面;
图3是本发明优选实施例中右髋膝踝关节的角度数据;
图4是本发明优选实施例中建立的人体模型的示意图;
图5是本发明优选实施例中右髋膝踝关节的角度数据的频率组成成分;
图6是本发明优选实施例中右髋膝踝关节的拟合函数与原始离散数据点的对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明提出了一种面向复杂环境的下肢机器人拟人步态规划方法,该方法包括如下步骤:
S1在人体下肢上设置标志点,通过采用Vicon光学运动捕捉系统、OptiTrack光学运动捕捉系统或ART光学运动捕捉系统等运动捕捉系统对人体处于静止状态和运动状态时,标志点在三维空间中相对于世界坐标系的位置数据进行采集,从而获得人体的静止姿态数据和运动姿态数据,包括人体运动过程中标志点在每一帧的位置数据,数据的格式为.trc,运动状态包括平地行走状态、上坡行走状态或上楼梯行走状态,根据不同运动状态的动态姿态数据进行步态规划,能够保证下肢机器人适应各种复杂环境;
S2根据静止姿态数据建立人体模型,并根据运动姿态数据在该人体模型上进行逆运动学计算得到运动过程中各关节的角度数据,包括髋关节、膝关节和踝关节,得到的角度数据与运动姿态数据的每一帧一一对应,是离散的时间序列,由于运动过程中关节主要的转动方向是在矢状面上,所以步态规划的工作也主要是规划矢状面上的关节角度;
在行走过程中,下肢的简化连杆模型如图2所示,a)为矢状面视图,b)为冠状面视图,从矢状面视图可以看出,实际上仅用几个基本标志点(髋关节、膝关节、踝关节和脚趾)的位置数据便可以求解得到关节的角度数据,但是考虑到误差因素,任意一个标志点的位置数据如果有较大误差,那么求解结果也会产生很大的误差,所以可以采用更多的标志点的位置数据来求得更精确的结果,但是此时约束条件溢出显然会导致求解无果,因此采用如下子步骤进行计算:
S21建立一个包含所有标志点的下肢连杆模型;
S22根据一个运动周期内的某一帧中标志点的位置数据,确定使公式(1)取得最小值时下肢连杆模型的姿态,处于该姿态时下肢连杆模型中各关节的角度数据,即为当前帧所述人体模型中各关节的角度数据;
Figure GDA0002138860530000061
式中,k为标志点的个数,ωi为第i个标志点的权值,其具体取值根据实际情况选择,上述基本标志点的权值可相对取大一些,|XiX′i|为人体模型中第i个标志点Xi到对应的下肢连杆模型中第i个标志点X′i距离的绝对值。
S23对一个运动周期内的每一帧重复步骤S22,从而获得一个运动周期内各关节的角度数据,包括髋关节、膝关节和踝关节;
S3各关节的角度数据个数与运动姿态数据的帧数相同,由于离散的时间序列用于下肢机器人的关节控制会很复杂,因此根据各关节的角度数据与周期之间的关系建立拟合函数,并根据各关节的拟合函数进行下肢机器人步态规划;
本步骤包括如下子步骤:
S31图3是步行过程中髋关节、膝关节、踝关节的角度数据(由上至下依次为髋关节、膝关节、踝关节的角度数据),从图中可以看出,在人体运动过程中所有关节的角度都是平滑变化的,且都有有限个极值点,故选择n阶的拟合函数用于表示所述关节的角度数据与周期之间的关系,n的取值取决于关节的角度数据的频率成分;
S32分别对各关节的角度数据进行快速傅里叶变换,得到各关节的角度数据的频率成分个数;
S33根据步骤S32中频率成分个数的最大值确定拟合函数中n的取值,然后可用最小二乘拟合等方法分别求解各关节的拟合函数的参数;
S34根据获得的各关节的拟合函数进行下肢机器人步态规划。
进一步,步骤S31中n阶的拟合函数优选为:
y=a1sin(b1x+c1)+a2sin(b2x+c2)+…+an sin(bnx+cn) (2)
式中,y为关节的角度数据,x为周期的百分比,ai、bi和ci分别为第i个三角函数的参数。
进一步,步骤S31中n阶的拟合函数优选为:
Figure GDA0002138860530000071
式中,y为关节的角度数据,x为周期的百分比,a0、ap、bp为傅里叶系数。
参数拟合的结果可用R-square和RMSE(均方根误差)来评估拟合的优劣程度,R-square的值在0-1之间,越接近1则表明拟合越接近;RMSE是预测值与真实值的误差平方根的均值,越小拟合效果越好
下面结合具体实施例对本发明作进一步的说明。
S1采用VICON光学运动捕捉系统,该系统用12个高速相机每秒采集100帧标志点的数据,由于用于下肢机器人,所以实验中标志点的粘贴位置可参考该系统操作手册给出的第二套标志点粘贴方案,此方案采用16个标志点粘贴在人体下肢部分,具体位置为:骨盆(4个):左、右髂前上棘,左、右髂后上棘;下肢(12个,左右侧各6个):膝关节、大腿、小腿、踝关节、脚趾、足跟,除此之外可按需粘贴其他辅助标志点,实验中采用24个标志点粘贴在人体下肢部分从而获得人体的静止姿态数据和运动姿态数据(.trc文件);
S2在Opensim软件中根据静止姿态数据建立人体模型,如图4所示,图中的小圆点表示实验用的24个标志点,根据运动姿态数据在Opensim软件中建立的人体模型上进行逆运动学计算得到运动过程中关节的角度数据(.mot文件),文件的内容是每一帧各个关节的角度数据;
S3选择公式(2)的n阶三角函数的和作为拟合函数,图5是右髋膝踝关节的角度数据的频率组成成分图(由上至下依次为髋关节、膝关节、踝关节),从图中够可以看出右髋关节的角度数据有3个主要的频率成分,右膝关节的角度数据有5个主要的频率成分,右踝关节的角度数据有6个主要的频率成分,n阶三角函数的和中每一个正弦函数部分可表示一个频率成分,为了表达式的统一性,选取n=6可较完整的表示所有关节的角度数据,即采用公式(4)来拟合关节的角度数据,然后利用MATLAB的拟合工具Curve Fitting求解公式(4)的参数,并根据获得的各关节的拟合函数进行下肢机器人步态规划;
y=a1sin(b1x+c1)+a2sin(b2x+c2)+…+a6sin(b6x+c6) (4)
通过公式(4)不仅简化了一个周期内关节的角度数据的表示,仅仅用18个参数就表示了原本一个周期几百个离散的数据,而且还将离散数据连续化,基本上可以完全还原运动周期中关节的角度数据的变化。
图6是右髋膝踝关节的拟合函数与原始离散数据点的对比图,拟合程度较高,其中步行步态左右髋膝踝关节在矢状面上关节的角度数据的评估参数R-square和RMSE的值如表1所示,
表1步行步态左右髋膝踝关节的评估参数
hip_r knee_r ankle_r hip_l knee_l ankle_l
R-square 1 1 0.9963 0.9999 0.9998 0.9961
RMSE 0.0741 0.1146 0.4883 0.1245 0.3140 0.8842
其中hip_r、knee_r、ankle_r分别表示右髋膝踝关节在矢状面的角度数据,hip_l、knee_l、ankle_l分别表示左髋膝踝关节在矢状面的角度数据;
由表1可知,表示拟合优劣程度的R-square都非常接近于1,甚至偶两个关节的角度数据的R-square值为1,并且RMSE值都非常小,大部分在0.5以内,所以采用所选的拟合方程进行关节的角度数据的拟合可以得到非常好的效果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,该方法包括如下步骤:
S1在人体下肢上设置标志点,采集人体处于静止状态和运动状态时所述标志点的位置数据,从而获得人体的静止姿态数据和运动姿态数据;
S2根据所述静止姿态数据建立人体模型,并根据所述运动姿态数据在所述人体模型上进行逆运动学计算,得到一个运动周期内各关节的角度数据;
S3根据所述各关节的角度数据与运动周期之间的关系分别建立拟合函数,并根据所述各关节的拟合函数在该运动状态下进行下肢机器人步态规划,具体包括如下子步骤:
S31选择n阶的拟合函数用于表示各关节的角度数据与运动周期之间的关系;
S32分别对各关节的角度数据进行快速傅里叶变换,得到各关节的角度数据的频率成分个数;
S33根据步骤S32中所述频率成分个数的最大值确定所述拟合函数中n的取值,然后分别求解各关节的拟合函数的参数;
S34根据获得的各关节的拟合函数进行下肢机器人步态规划。
2.如权利要求1所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S1中利用运动捕捉系统采集所述标志点的位置数据,所述运动捕捉系统采用Vicon运动捕捉系统、OptiTrack运动捕捉系统或ART光学运动捕捉系统。
3.如权利要求1所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S1中运动状态包括平地行走状态、上坡行走状态或上楼梯行走状态。
4.如权利要求1~3任一项所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S2中关节包括髋关节、膝关节和踝关节。
5.如权利要求4所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S2包括如下子步骤:
S21建立一个包含所有标志点的下肢连杆模型;
S22根据一个运动周期内某一帧中标志点的位置数据,确定当前帧所述下肢连杆模型的姿态,处于该姿态时所述下肢连杆模型中各关节的角度数据,即为当前帧所述人体模型中各关节的角度数据;
S23对一个运动周期内的每一帧重复步骤S22,从而获得一个运动周期内所述人体模型中各关节的角度数据。
6.如权利要求5所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S22中,当公式(1)取得最小值时,获得当前帧所述下肢连杆模型的姿态;
Figure FDA0002619455330000021
式中,k为标志点的个数,ωi为第i个标志点的权值,|XiX'i|为人体模型中第i个标志点Xi到对应的下肢连杆模型中第i个标志点X'i距离的绝对值。
7.如权利要求1所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S31中n阶的拟合函数为:
y=a1 sin(b1x+c1)+a2 sin(b2x+c2)+…ai sin(bix+ci)+…an sin(bnx+cn) (2)
式中,y为关节的角度数据,x为周期的百分比,ai、bi和ci分别为第i个三角函数的参数。
8.如权利要求1所述的面向复杂环境的下肢机器人拟人步态规划方法,其特征在于,所述步骤S31中n阶的拟合函数为:
Figure FDA0002619455330000022
式中,y为关节的角度数据,x为周期的百分比,a0、ap、bp为傅里叶系数,p为取值1~n的序号。
CN201910248406.4A 2019-03-29 2019-03-29 一种面向复杂环境的下肢机器人拟人步态规划方法 Active CN109991979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910248406.4A CN109991979B (zh) 2019-03-29 2019-03-29 一种面向复杂环境的下肢机器人拟人步态规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910248406.4A CN109991979B (zh) 2019-03-29 2019-03-29 一种面向复杂环境的下肢机器人拟人步态规划方法

Publications (2)

Publication Number Publication Date
CN109991979A CN109991979A (zh) 2019-07-09
CN109991979B true CN109991979B (zh) 2020-10-30

Family

ID=67131753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910248406.4A Active CN109991979B (zh) 2019-03-29 2019-03-29 一种面向复杂环境的下肢机器人拟人步态规划方法

Country Status (1)

Country Link
CN (1) CN109991979B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110400618B (zh) * 2019-07-17 2022-02-18 北京航空航天大学 一种基于人体运动结构特征的三维步态生成方法
CN110442947B (zh) * 2019-07-30 2021-07-02 华中科技大学 融合平衡策略的下肢机器人动力学仿真平台及仿真方法
CN111168672B (zh) * 2020-01-03 2021-07-20 广东博智林机器人有限公司 机器人运动规划方法、系统、计算机设备和存储介质
CN111329296B (zh) * 2020-03-19 2021-05-25 泉州市河兴陈列用品有限公司 一种服装模特行走模拟方法
CN111399396B (zh) * 2020-03-26 2022-10-21 南京工程学院 一种基于OpenSim和Matlab进行骨骼肌运动仿真的优化控制方法
US11560192B2 (en) * 2020-04-24 2023-01-24 Ubtech Robotics Corp Ltd Stair climbing gait planning method and apparatus and robot using the same
CN112051735B (zh) * 2020-08-19 2022-03-29 大连理工大学 仿人机器人步行控制方法
CN112294599B (zh) * 2020-10-30 2021-09-07 中国科学院自动化研究所 基于人体参数的训练轨迹生成模型构建方法、系统、装置
CN112704491B (zh) * 2020-12-28 2022-01-28 华南理工大学 基于姿态传感器和动捕模板数据的下肢步态预测方法
CN112998694B (zh) * 2021-02-03 2022-12-09 上海橙捷健康科技有限公司 一种人体下肢关节角度的测量方法及系统
CN113673424B (zh) * 2021-08-19 2023-09-08 华南理工大学 一种行走步态周期阶段的判定方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1590039A (zh) * 2003-08-25 2005-03-09 索尼株式会社 机器人及机器人的姿态控制方法
CN103340632A (zh) * 2013-06-28 2013-10-09 北京航空航天大学 一种基于特征点空间位置的人体关节角度测量方法
CN104077591A (zh) * 2013-03-27 2014-10-01 冉祥 电脑智能自动监控系统
CN106933100A (zh) * 2017-03-19 2017-07-07 北京工业大学 一种基于人体运动捕捉数据的仿人机器人步态规划方法
CN107273611A (zh) * 2017-06-14 2017-10-20 北京航空航天大学 一种基于下肢行走特点的下肢康复机器人的步态规划方法
CN107536613A (zh) * 2016-06-29 2018-01-05 深圳光启合众科技有限公司 机器人及其人体下肢步态识别装置和方法
CN107598897A (zh) * 2017-10-19 2018-01-19 北京工业大学 一种基于人体示教的仿人机器人步态规划的方法
CN107782302A (zh) * 2016-08-26 2018-03-09 深迪半导体(上海)有限公司 一种基于下肢运动实现定位的方法、装置及系统
CN108388887A (zh) * 2018-03-20 2018-08-10 济南大学 基于学步期幼儿步态提取的双足机器人运动学分析方法
CN108638069A (zh) * 2018-05-18 2018-10-12 南昌大学 一种机械臂末端精确运动控制方法
CN108992071A (zh) * 2018-08-06 2018-12-14 上海博灵机器人科技有限责任公司 一种下肢外骨骼式步态分析系统
CN109172287A (zh) * 2018-08-20 2019-01-11 上海司羿智能科技有限公司 一种下肢助力外骨骼机器人的步态控制方法和控制系统
CN109318207A (zh) * 2018-11-07 2019-02-12 西安交通大学 一种利用肌电定时的下肢运动准备电位检测系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9162720B2 (en) * 2010-12-03 2015-10-20 Disney Enterprises, Inc. Robot action based on human demonstration

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1590039A (zh) * 2003-08-25 2005-03-09 索尼株式会社 机器人及机器人的姿态控制方法
CN104077591A (zh) * 2013-03-27 2014-10-01 冉祥 电脑智能自动监控系统
CN103340632A (zh) * 2013-06-28 2013-10-09 北京航空航天大学 一种基于特征点空间位置的人体关节角度测量方法
CN107536613A (zh) * 2016-06-29 2018-01-05 深圳光启合众科技有限公司 机器人及其人体下肢步态识别装置和方法
CN107782302A (zh) * 2016-08-26 2018-03-09 深迪半导体(上海)有限公司 一种基于下肢运动实现定位的方法、装置及系统
CN106933100A (zh) * 2017-03-19 2017-07-07 北京工业大学 一种基于人体运动捕捉数据的仿人机器人步态规划方法
CN107273611A (zh) * 2017-06-14 2017-10-20 北京航空航天大学 一种基于下肢行走特点的下肢康复机器人的步态规划方法
CN107598897A (zh) * 2017-10-19 2018-01-19 北京工业大学 一种基于人体示教的仿人机器人步态规划的方法
CN108388887A (zh) * 2018-03-20 2018-08-10 济南大学 基于学步期幼儿步态提取的双足机器人运动学分析方法
CN108638069A (zh) * 2018-05-18 2018-10-12 南昌大学 一种机械臂末端精确运动控制方法
CN108992071A (zh) * 2018-08-06 2018-12-14 上海博灵机器人科技有限责任公司 一种下肢外骨骼式步态分析系统
CN109172287A (zh) * 2018-08-20 2019-01-11 上海司羿智能科技有限公司 一种下肢助力外骨骼机器人的步态控制方法和控制系统
CN109318207A (zh) * 2018-11-07 2019-02-12 西安交通大学 一种利用肌电定时的下肢运动准备电位检测系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
下肢康复机器人步态轨迹自适应控制;李峰;《仪器仪表学报》;20140930;第35卷(第9期);第2027-2036页 *

Also Published As

Publication number Publication date
CN109991979A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
CN109991979B (zh) 一种面向复杂环境的下肢机器人拟人步态规划方法
CN107598897B (zh) 一种基于人体示教的仿人机器人步态规划的方法
Semwal et al. Generation of joint trajectories using hybrid automate-based model: a rocking block-based approach
Shahbazi et al. Unified modeling and control of walking and running on the spring-loaded inverted pendulum
Powell et al. Motion primitives for human-inspired bipedal robotic locomotion: walking and stair climbing
CN106933100A (zh) 一种基于人体运动捕捉数据的仿人机器人步态规划方法
Lim et al. Gait optimization of biped robots based on human motion analysis
CN108572553A (zh) 一种四足机器人的运动闭环控制方法
CN114248855B (zh) 双足机器人空间域步态规划与控制的方法
Azimi et al. Model-based adaptive control of transfemoral prostheses: Theory, simulation, and experiments
CN111546349A (zh) 一种仿人机器人步态规划的深度强化学习新方法
Aghasadeghi et al. Inverse optimal control for differentially flat systems with application to locomotion modeling
CN111730595A (zh) 一种斜坡条件下双足机器人步态稳定控制方法
Vatankhah et al. Intermittent control model for ascending stair biped robot using a stable limit cycle model
Raj et al. Hybrid model for passive locomotion control of a biped humanoid: the artificial neural network approach
Hong et al. Vision-locomotion coordination control for a powered lower-limb prosthesis using fuzzy-based dynamic movement primitives
Castillo et al. Template model inspired task space learning for robust bipedal locomotion
Elibol et al. Analyzing and Reducing Energy Usage in a Humanoid Robot During Standing Up and Sitting Down Tasks.
Huang et al. A robust adaptive admittance control scheme for robotic knee prosthesis using human-inspired virtual constraints
CN115202378A (zh) 一种仿人机器人动态步行控制方法
Zhang et al. Teach biped robots to walk via gait principles and reinforcement learning with adversarial critics
Wilmot et al. Biogeography-based optimization for hydraulic prosthetic knee control
Astudillo et al. A simple mapping methodology of gait biomechanics for walking control of a biped robot
van de Panne et al. A controller for the dynamic walk of a biped across variable terrain
CN114700948A (zh) 基于发散运动分量的下肢外骨骼机器人控制系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant