CN113253748B - 并联构型仿人机器人的状态估计方法、装置、设备及介质 - Google Patents

并联构型仿人机器人的状态估计方法、装置、设备及介质 Download PDF

Info

Publication number
CN113253748B
CN113253748B CN202110634737.9A CN202110634737A CN113253748B CN 113253748 B CN113253748 B CN 113253748B CN 202110634737 A CN202110634737 A CN 202110634737A CN 113253748 B CN113253748 B CN 113253748B
Authority
CN
China
Prior art keywords
coordinate system
value
under
pose
estimation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110634737.9A
Other languages
English (en)
Other versions
CN113253748A (zh
Inventor
白杰
熊友军
葛利刚
刘益彰
陈春玉
胡毅森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN202110634737.9A priority Critical patent/CN113253748B/zh
Publication of CN113253748A publication Critical patent/CN113253748A/zh
Application granted granted Critical
Publication of CN113253748B publication Critical patent/CN113253748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本申请涉及机器人技术领域,揭示了一种并联构型仿人机器人的状态估计方法、装置、设备及介质,其中方法包括:获取在同一时间的根据仿人机器人的腿部关节位置的传感器得到的第一状态估计值、根据仿人机器人的腿部脚踝位置的传感器得到的第二状态估计值和根据仿人机器人的腰部位置的传感器得到的第三状态估计值;采用正运动学根据第一状态估计值和第三状态估计值得到本体坐标系下腿部位姿估计值;根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值得到世界坐标系下质心位姿估计值。实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决并联构型仿人机器人的状态估计问题,提高质心状态估计精确度。

Description

并联构型仿人机器人的状态估计方法、装置、设备及介质
技术领域
本申请涉及到机器人技术领域,特别是涉及到一种并联构型仿人机器人的状态估计方法、装置、设备及介质。
背景技术
并联构型仿人机器人,也就是将传统的串联构型的仿人机器人设置为髋-膝并联机构或膝-踝并联机构。仿人机器人的状态估计是实现步态规划和平衡控制的基础,从而需要从传感系统的反馈量中获取精确的状态估计量。仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内部状态(比如,质心的位姿)无法直接通过传感器测量得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,降低了步态规划和平衡控制的准确性;此外因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战。
发明内容
本申请的主要目的为提供一种并联构型仿人机器人的状态估计方法、装置、设备及介质,旨在解决现有技术中仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内状态无法直接通过传感器直接得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,而且因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战的技术问题。
为了实现上述发明目的,本申请提出一种并联构型仿人机器人的状态估计方法,所述方法包括:
获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
进一步的,所述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:
采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值;
根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
进一步的,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
获取所述仿人机器人的预设的各个连杆的质量;
根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
进一步的,所述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
进一步的,所述世界坐标系下质心位置估计值的计算公式
Figure 154659DEST_PATH_IMAGE002
为:
Figure 743904DEST_PATH_IMAGE004
其中,
Figure 461324DEST_PATH_IMAGE006
是世界坐标系下的左脚在所述第二状态估计值
Figure 59796DEST_PATH_IMAGE008
中的第三个值,
Figure 811851DEST_PATH_IMAGE010
是世界坐标系下的右脚在所述第二状态估计值
Figure 571997DEST_PATH_IMAGE012
中的第三个值,
Figure 776713DEST_PATH_IMAGE014
是所述左腿支撑的世界坐标系下质心位置数据估计值,
Figure 647717DEST_PATH_IMAGE016
是所述右腿支撑的世界坐标系下质心位置数据估计值,
Figure 254279DEST_PATH_IMAGE018
是大于0并且小于所述仿人机器人的总重量的常量。
进一步的,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
进一步的,所述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
本申请还提出了一种并联构型仿人机器人的状态估计装置,所述装置包括:
数据获取模块,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
世界坐标系下质心位姿估计值确定模块,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本申请还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的并联构型仿人机器人的状态估计方法、装置、设备及介质,通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
附图说明
图1为本申请一实施例的并联构型仿人机器人的状态估计方法的流程示意图;
图2 为本申请的串联构型仿人机器人示意图;
图3为本申请的膝-踝并联构型仿人机器人的本体坐标系示意图;
图4为本申请的仿人机器人的运动学示意图;
图5为本申请一实施例的并联构型仿人机器人的状态估计装置的结构示意框图;
图6为本申请一实施例的计算机设备的结构示意框图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
为了解决现有技术中仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内状态无法直接通过传感器直接得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,而且因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战的技术问题,本申请提出了一种并联构型仿人机器人的状态估计方法,所述方法应用于机器人技术领域。
参照图1,本申请实施例中提供一种并联构型仿人机器人的状态估计方法,所述方法包括:
S1:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
S2:采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
S3:根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
可以理解的是,在本申请中,
Figure 185326DEST_PATH_IMAGE020
表述的对向量G1的转置,G1可以是本申请中的任一向量。
可以理解的是,在本申请中,
Figure 877338DEST_PATH_IMAGE022
表述的向量G2是在本体坐标系下的数据,G2可以是本申请中的任一向量。
可以理解的是,在本申请中,表述的向量
Figure 552033DEST_PATH_IMAGE024
是在世界坐标系下的数据,G3可以是本申请中的任一向量。
对于S1,获取在同一时间的所述仿人机器人的腿部关节位置的传感器的数据、腿部脚踝位置的传感器的数据和腰部位置的传感器的数据,根据腿部关节位置的传感器的数据确定第一状态估计值,根据腿部脚踝位置的传感器的数据确定第二状态估计值,根据腰部位置的传感器的数据确定第三状态估计值。
如图2所示,仿人机器人每条腿通常由6个自由度组成,分别是:髋关节(3个自由度,局部旋转轴z, x, y),膝关节(1个自由度,局部旋转轴y),踝关节(2个自由度,局部旋转轴y, x)。图2的串联构型仿人机器人,将仿人机器人每个关节单独控制;并联构型仿人机器人,也就是将仿人机器人设置为髋-膝并联机构或膝-踝并联机构。髋-膝并联机构,也就是髋关节和膝关节并联。膝-踝并联机构,也就是膝关节与踝关节并联。
图3示出了膝-踝并联机构的并联构型仿人机器人的局部坐标系示意图,踝关节O处建立了初始状态与世界坐标系一致的局部坐标系。
世界坐标系,是指机器人的世界坐标系,是一个全局的坐标系,其中,前向为世界坐标系的x轴,侧向为世界坐标系的y轴,纵向为世界坐标系的z轴。
腿部关节位置的传感器,也就是在所述仿人机器人的腿部的关节处的每个舵机的传感器,仿人机器人的每条腿有6个舵机处的传感器。
腿部脚踝位置的传感器,也就是在所述仿人机器人的腿部的脚踝处的传感器。
腰部位置的传感器,也就是在所述仿人机器人的腰部的传感器。
在串联构型仿人机器人的关节角表述为
Figure 24820DEST_PATH_IMAGE026
,其中,
Figure 392348DEST_PATH_IMAGE028
是串联构型仿人机器人的髋关节的关节角,
Figure 571656DEST_PATH_IMAGE030
是串联构型仿人机器人的膝关节的角度的估计值,
Figure 784463DEST_PATH_IMAGE032
是串联构型仿人机器人的踝关节的对应局部旋转轴y的角度的估计值,
Figure 365617DEST_PATH_IMAGE034
是串联构型仿人机器人的踝关节的对应局部旋转轴x的角度的估计值。
第一状态估计值,是对腿部的关节的关节位置传感器的数据进行滤波得到的状态估计值。比如,第一状态估计值
Figure 372887DEST_PATH_IMAGE036
表述为:
Figure 39492DEST_PATH_IMAGE038
Figure 55990DEST_PATH_IMAGE040
对应的是所述仿人机器人的腿部的6个关节的关节角的估计值,其中,
Figure 491650DEST_PATH_IMAGE042
是髋关节的角度的估计值,
Figure 200980DEST_PATH_IMAGE044
是膝关节的角度的估计值,
Figure 89302DEST_PATH_IMAGE046
是并联构型仿人机器人的踝关节的第一角度的估计值,
Figure 909490DEST_PATH_IMAGE048
是并联构型仿人机器人的踝关节的第二角度的估计值,在并联构型仿人机器人的中
Figure 199657DEST_PATH_IMAGE046
Figure 79888DEST_PATH_IMAGE048
是并联的。
第二状态估计值,是对腿部的脚踝的六维力传感器的数据进行滤波得到的状态估计值。比如,第二状态估计值
Figure 455506DEST_PATH_IMAGE050
表述为:
Figure 813806DEST_PATH_IMAGE052
第三状态估计值,是对腰部的惯性传感器的数据进行滤波得到的状态估计值。比如,第三状态估计值
Figure 224059DEST_PATH_IMAGE054
表述为:
Figure 275192DEST_PATH_IMAGE056
对于S2,在本体坐标系下,首先根据所述第一状态估计值进行局部并联正运动学的拟合,然后根据拟合结果和所述第三状态估计值进行等效串联正运动学计算,将计算得到的在本体坐标系下的腿部位姿作为所述本体坐标系下腿部位姿估计值。
本体坐标系,是指在本申请的仿人机器人的腰部建立固定点得到的坐标系。本体坐标系的初始状态跟世界坐标系一致。
对于S3,首先根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计得到连杆质心位置数据集合,然后根据所述连杆质量集合和所述本体坐标系下连杆质心位置数据集合进行在所述本体坐标系下的质心位置估计,得到本体坐标系下质心位置估计值,然后根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值,将所述本体坐标系下质心位置估计值与所述质心姿态估计值进行组合,得到本体坐标系下质心位姿估计值,根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,将得到的数据作为世界坐标系下质心位姿估计值。
世界坐标系下质心位姿估计值,也就是实现步态规划和平衡控制的基础。
世界坐标系下质心位姿估计值包括:仿人机器人的质心在世界坐标系下的位置数据、仿人机器人的质心在世界坐标系下的姿态数据。比如,仿人机器人的质心在世界坐标系下的位置数据表述为
Figure 138105DEST_PATH_IMAGE058
,仿人机器人的质心在世界坐标系下的姿态数据表述为
Figure 300097DEST_PATH_IMAGE060
在一个实施例中,上述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:
S21:采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
S22:根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值;
S23:根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
本实施例实现了采用正运动学进行在本体坐标系下的腿部位姿的估计,将并联构型仿人机器人的数据映射到串联构型仿人机器人的数据,为后续进行世界坐标系下质心位姿的估计提供了基础。
正运动学,包含局部并联正运动学与等效串联正运动学,所述局部并联正运动学为并联构型的关节运动数据映射到等效串联构型的关节运动数据;所述等效串联正运动学为将并联构型关节等效到串联关节后整条腿部的正运动学。
对于S21,在串联构型仿人机器人的关节角表述为
Figure 299277DEST_PATH_IMAGE062
,并联构型仿人机器人的第一状态估计值
Figure 521310DEST_PATH_IMAGE036
表述为:
Figure 605941DEST_PATH_IMAGE038
因在并联构型和串联构型中,其中,
Figure 571623DEST_PATH_IMAGE064
Figure 690889DEST_PATH_IMAGE066
相等,
Figure 818245DEST_PATH_IMAGE068
Figure 390172DEST_PATH_IMAGE070
相等,
Figure 972594DEST_PATH_IMAGE072
Figure 200226DEST_PATH_IMAGE074
相等,
Figure 498484DEST_PATH_IMAGE076
Figure 823286DEST_PATH_IMAGE078
相等,因此,局部并联正运动学的拟合是将并联构型的踝关节角进行映射到串联构型的踝关节角。
因为局部并联正运动学无法得到解析解,只能通过一些特殊的手段求得,比如,采用神经网络进行拟合。在本申请中,采用径向基函数神经网络(也称为RBF神经网络)对局部并联正运动学进行拟合,因径向基函数神经网络能逼近任意非线性连续函数,从而能对局部并联正运动学进行准确的拟合,有利于提高局部并联正运动学得到的待处理的等效串联关节角估计值的准确性。
其中,根据基于径向基函数神经网络得到仿人机器人的局部并联正运动学求解模型;根据所述局部并联正运动学求解模型对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,根据拟合结果得到待处理的等效串联关节角估计值。
局部并联正运动学求解模型包括:输入层、隐藏层、输出层,从输入层到隐藏层的变换是非线性,从隐藏层到输出层变换是线性的。输入层的神经元个数为2个,隐藏层的神经元个数大于2个,输出层的神经元个数为2个。将径向基函数作为局部并联正运动学求解模型的隐藏层的激活函数,将输入的数据映射到高维隐藏空间,不需要通过权值连接,当径向基函数的中心点确定后,映射关系也随之确定。局部并联正运动学求解模型的隐藏层到局部并联正运动学求解模型的输出层的映射是线性的,即局部并联正运动学求解模型的输出层的每个神经元是对隐藏层的神经单元输入的数据进行线性加权求和。
局部并联正运动学求解模型的输入层的输入样本m表述为
Figure 130770DEST_PATH_IMAGE080
,隐藏层第
Figure 959049DEST_PATH_IMAGE082
Figure 693787DEST_PATH_IMAGE084
神经元中心点为
Figure 240306DEST_PATH_IMAGE086
,则输入样本m到局部并联正运动学求解模型之后,局部并联正运动学求解模型的隐藏层第
Figure 351481DEST_PATH_IMAGE087
个神经元中心点的输出
Figure 299846DEST_PATH_IMAGE089
为:
Figure 205485DEST_PATH_IMAGE091
其中,
Figure 239300DEST_PATH_IMAGE093
是第一状态估计值
Figure 888587DEST_PATH_IMAGE038
中的
Figure 425879DEST_PATH_IMAGE095
Figure 502419DEST_PATH_IMAGE097
是第一状态估计值
Figure 23531DEST_PATH_IMAGE038
中的
Figure 210929DEST_PATH_IMAGE099
,exp()是高等数学里以自然常数e为底的指数函数,
Figure 133886DEST_PATH_IMAGE101
为隐藏层第
Figure 381328DEST_PATH_IMAGE082
个神经元的高斯核的宽度,神经元的高斯核的宽度是大于0的常量。
局部并联正运动学求解模型的输出层第
Figure 389735DEST_PATH_IMAGE082
个神经元(输出层总共2个神经元,也就是说,j的取值范围是1,2)的输出
Figure 115246DEST_PATH_IMAGE103
为:
Figure 892709DEST_PATH_IMAGE105
其中,
Figure 311052DEST_PATH_IMAGE107
为所述局部并联正运动学求解模型的隐藏层第
Figure 541176DEST_PATH_IMAGE082
个神经元到所述局部并联正运动学求解模型的输出层第
Figure 335957DEST_PATH_IMAGE109
个神经元的权重系数,
Figure 702347DEST_PATH_IMAGE111
为隐藏层的神经元个数,
Figure 291591DEST_PATH_IMAGE113
是局部并联正运动学求解模型的隐藏层第
Figure 274591DEST_PATH_IMAGE082
个神经元中心点的输出。
可以理解的是,在根据基于径向基函数神经网络得到初始模型后,采用目标误差函数和训练样本对初始模型进行训练,目的是使目标误差函数最小。在对初始模型训练的过程中,基于目标误差函数,通过优化算法得到初始模型的参数。优化算法包括但不限于:梯度下降算法。
目标误差函数K表述为:
Figure 607483DEST_PATH_IMAGE115
训练样本包括:关节角样本数据、等效关节角标定数据。关节角样本数据
Figure 359538DEST_PATH_IMAGE117
表述为:
Figure 119684DEST_PATH_IMAGE119
,等效串联关节角标定数据
Figure 324400DEST_PATH_IMAGE121
表述为:
Figure 472703DEST_PATH_IMAGE123
Figure 813685DEST_PATH_IMAGE125
是输入关节角样本数据
Figure 10311DEST_PATH_IMAGE117
时隐藏层的第
Figure 702324DEST_PATH_IMAGE082
Figure 377019DEST_PATH_IMAGE127
神经元中心点,其中,关节角样本数据、等效串联关节角标定数据是根据逆运动学得到的数据。
对于S22,因为在本体坐标系下的腰部是原点,所以在本体坐标系下的位置数据是
Figure 838087DEST_PATH_IMAGE129
,因此,只需要根据所述第三状态估计值进行腰部姿态的估计,将估计得到的腰部姿态作为腰部姿态估计值。可以理解的是,腰部姿态估计值是不分本体坐标系和世界坐标系的。
因在本体坐标系下,腰部的位置数据是原点,因此腰部的位置数据为
Figure 205614DEST_PATH_IMAGE129
根据腰部的位置数据和腰部姿态估计值得到本体坐标系下腰部位姿估计值。
对于S23,根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,从而实现将仿人机器人的并联构型映射到仿人机器人的串联构型,将等效串联正运动学计算得到的数据作为本体坐标系下腿部位置估计值。也就是说,本体坐标系下腿部位置估计值是本体坐标系下的数据。
本体坐标系下腿部位姿估计值包括:仿人机器人的腿部在本体坐标系下的位置数据、机器人的腿部在本体坐标系下的姿态数据。
将所述腰部位姿估计值中的姿态数据作为本体坐标系下腿部位姿估计值的腿部在本体坐标系下的姿态数据。
将所述本体坐标系下腿部位置估计值作为本体坐标系下腿部位姿估计值的腿部在本体坐标系下的位置数据。
在一个实施例中,上述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
S31:根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
S32:获取所述仿人机器人的预设的各个连杆的质量;
S33:根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
S34:根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
S35:获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
S36:根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
本实施例实现了根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,从而实现基于传感器的状态估计值准确估计出并联构型仿人机器人的质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障。
对于S31,根据所述第一状态估计值进行所述仿人机器人的各个连杆的各自的质心的位置矢量的估计,将计算得到的所有连杆质心位置数据作为本体坐标系下连杆质心位置数据集合。也就是说,所述仿人机器人的每个连杆对应一个连杆质心位置数据。本体坐标系下连杆质心位置数据集合是本体坐标系下的数据。
根据所述第一状态估计值进行所述仿人机器人的各个连杆的各自的质心的位置矢量的估计的具体步骤在此不做赘述。
对于S32,可以从数据库中获取所述仿人机器人的预设的各个连杆的质量和预设的机器人质量,也可以从第三方应用系统中获取所述仿人机器人的预设的各个连杆的质量和预设的机器人质量。所述仿人机器人的预设的各个连杆的质量是所述仿人机器人的腿部的各个连杆的质量。
对于S33,本体坐标系下质心位置估计值的计算公式
Figure 119344DEST_PATH_IMAGE131
为:
Figure 332150DEST_PATH_IMAGE133
其中,
Figure 913305DEST_PATH_IMAGE135
是所述预设的各个连杆的质量中第i个连杆的质量数据,
Figure 186154DEST_PATH_IMAGE137
是在所述本体坐标系下连杆质心位置数据集合中第i个连杆的连杆质心位置数据。
对于S34,因为所述第三状态估计值是对腰部的惯性传感器的数据进行滤波得到的估计值,所以可以根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值,在本体坐标系下的本体坐标系下腰部位姿估计值即为质心姿态估计值。
对于S34,将所述本体坐标系下质心位置估计值作为本体坐标系下质心位姿估计值的位置估计值,将所述本体坐标系下腰部位姿估计值的腰部姿态估计值作为本体坐标系下质心位姿估计值的姿态估计值。
对于S35,可以从数据库中获取所述仿人机器人的左腿支撑状态和右腿支撑状态,也可以从第三方应用系统中获取所述仿人机器人的左腿支撑状态和右腿支撑状态。
其中,根据所述仿人机器人的左脚的压力传感器的数据确定左腿支撑状态,根据所述仿人机器人的右脚的压力传感器的数据确定右腿支撑状态。
左腿支撑状态包括腾空、支撑中的任一个,腾空是指不存在第三方物体向所述仿人机器人的左脚提供支撑力,支撑是指存在第三方物体向所述仿人机器人的左脚提供支撑力。
右腿支撑状态包括腾空、支撑中的任一个,腾空是指不存在第三方物体向所述仿人机器人的右脚提供支撑力,支撑是指存在第三方物体向所述仿人机器人的右脚提供支撑力。
对于S36,在所述世界坐标系下的所述世界坐标系下质心位姿估计值中的位置数据的计算公式
Figure 852759DEST_PATH_IMAGE139
为:
Figure 869256DEST_PATH_IMAGE141
其中,
Figure 304917DEST_PATH_IMAGE143
是所述本体坐标系下质心位姿估计值的姿态估计值,
Figure 748668DEST_PATH_IMAGE145
是所述本体坐标系下质心位姿估计值;当所述左腿为支撑腿时,
Figure 902568DEST_PATH_IMAGE147
为世界坐标系下左脚位置数据估计值,
Figure 722757DEST_PATH_IMAGE149
为所述本体坐标系下腿部位姿估计值的左脚位置数据估计值;当所述右腿为支撑腿时,
Figure 12924DEST_PATH_IMAGE147
为世界坐标系下右脚位置数据估计值,
Figure 627576DEST_PATH_IMAGE149
为所述本体坐标系下腿部位姿估计值的右脚位置数据估计值。
可以理解的是,当所述左腿支撑状态和所述右腿支撑状态都为腾空时,将后离地的腿作为支撑腿;当所述左腿支撑状态为支撑时,所述左腿为支撑腿;当所述右腿支撑状态为支撑时,所述右腿为支撑腿。
图4示出了仿人机器人的运动学示意图,
Figure 737614DEST_PATH_IMAGE151
是世界坐标系,
Figure 830335DEST_PATH_IMAGE153
是本体坐标系,
Figure 975009DEST_PATH_IMAGE155
是世界坐标系下的质心位姿的实际值中的位置数据,
Figure 494983DEST_PATH_IMAGE157
是所述左腿为支撑腿时在世界坐标系下的左脚的位置数据的实际值,
Figure 826738DEST_PATH_IMAGE159
是所述左腿为支撑腿时在本体坐标系下的左脚的位置数据的实际值,
Figure 723150DEST_PATH_IMAGE161
是所述右腿为支撑腿时在世界坐标系下的右脚的位置数据的实际值,
Figure 722330DEST_PATH_IMAGE163
是所述右腿为支撑腿时在本体坐标系下的右脚的位置数据的实际值。
在一个实施例中,上述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
S361:根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
S362:根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
S363:根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
S364:根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
仿人机器人的左腿和右腿会交叉支撑和腾空状态,所述仿人机器人在奔跑的过程中还会存在同时腾空的情况,切换过程会存在
Figure 944364DEST_PATH_IMAGE147
计算的不连续性,本实施例公式
Figure 294574DEST_PATH_IMAGE165
解决该问题,从而实现了切换过程计算的连续性。
对于S361,采用
Figure 463518DEST_PATH_IMAGE167
,根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑(也就是左腿作为支撑腿)的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值,左腿支撑的世界坐标系下质心位置数据估计值表述为
Figure 571065DEST_PATH_IMAGE169
Figure 698421DEST_PATH_IMAGE171
。左腿支撑的世界坐标系下质心位置数据估计值,也就是左腿支撑时,在世界坐标系下的质心的位置数据的估计值。
对于S362,采用
Figure 801507DEST_PATH_IMAGE173
,根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值,右腿支撑世界坐标系下质心位置数据估计值表述为
Figure 39721DEST_PATH_IMAGE175
Figure 13493DEST_PATH_IMAGE177
。右腿支撑世界坐标系下质心位置数据估计值,也就是右腿支撑时,在世界坐标系下的质心的位置数据的估计值。
对于S363,根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值、世界坐标系下的左脚在所述第二状态估计值的第三个值、世界坐标系下的右脚在所述第二状态估计值的第三个值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值。
可选的,所述世界坐标系下质心位置估计值的计算公式
Figure 842909DEST_PATH_IMAGE179
为:
Figure 902132DEST_PATH_IMAGE181
其中,
Figure 944037DEST_PATH_IMAGE183
是世界坐标系下的左脚在所述第二状态估计值
Figure 37895DEST_PATH_IMAGE185
中的第三个值,
Figure 772633DEST_PATH_IMAGE187
是世界坐标系下的右脚在所述第二状态估计值
Figure 319152DEST_PATH_IMAGE185
中的第三个值,
Figure 430327DEST_PATH_IMAGE171
是所述左腿支撑的世界坐标系下质心位置数据估计值,
Figure 378692DEST_PATH_IMAGE189
是所述右腿支撑的世界坐标系下质心位置数据估计值,
Figure 284331DEST_PATH_IMAGE191
是大于0并且小于所述仿人机器人的总重量的常量。
通过公式
Figure 318146DEST_PATH_IMAGE193
确保仿人机器人腾空期的连续性;而且通过对分母的每个参数都加上一个大于0的正数,避免出现分母为零的情况,避免计算报错。
对于S364,将所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值作为所述世界坐标系下质心位姿估计值的仿人机器人的质心在世界坐标系下的姿态数据,将所述世界坐标系下质心位置估计值作为所述世界坐标系下质心位姿估计值的仿人机器人的质心在世界坐标系下的位置数据。
在一个实施例中,上述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
S4:根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
S5:根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
S6:采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
本实施例实现了采用串联构型仿人机器人的步态规划的方法和平衡控制的方法确定目标世界坐标系下质心位姿期望值和腿部位姿期望值,然后采用逆运动学,将串联构型仿人机器人的世界坐标系下质心位姿期望值和腿部位姿期望值映射为并联构型仿人机器人的关节角期望值,从而充分利用了现有技术的串联构型的机器人的算法,减少了开发的工作量。
采用所述逆运动学得到并联构型的关节角度期望值,所述逆运动学包含局部并联逆运动学与等效串联逆运动学,所述等效串联逆运动学将腰部期望位姿与腿部期望位姿映射到等效串联构型的关节角度期望值;所述局部并联逆运动学将等效串联构型的关节的角度期望值映射到并联构型的关节角度期望。
对于S4,采用串联构型仿人机器人的步态规划的方法,根据世界坐标系下质心位姿估计值进行步态规划计算,将计算得到的数据作为待处理的世界坐标系下质心位姿期望值和待处理的腿部位姿期望值。
采用串联构型仿人机器人的平衡控制的方法,根据所述待处理的世界坐标系下质心位姿期望值和所述待处理的腿部位姿期望值进行平衡控制计算,将计算得到的数据作为目标世界坐标系下质心位姿期望值和腿部位姿期望值。
对于S5,根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换的具体步骤在此不做赘述。
对于S6,采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,将计算得到的数据作为目标并联构型关节角期望值。
目标并联构型关节角期望值,是并联构型仿人机器人的腿部的关节的舵机运动的目标角度。
在一个实施例中,上述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
S61:根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
S62:对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
S63:根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
本实施例实现了采用逆运动学,将串联构型的所述腰部位姿期望值和所述腿部位姿期望值进行并联构型仿人机器人的关节角期望值的计算,为实现仿人机器人的运动控制提供了基础。
对于S61,根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算的具体步骤在此不做赘述。
对于S62,因为串联构型仿人机器人的髋关节关节角与并联构型仿人机器人的髋关节关节角相同,串联构型仿人机器人的膝关节关节角与并联构型仿人机器人的膝关节关节角相同,所以只需要对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算以得到并联构型踝关节第一角期望值并联构型踝关节第一角期望值和并联构型踝关节第二角期望值。
对于S63,在串联构型仿人机器人的关节角表述为
Figure 701854DEST_PATH_IMAGE195
,并联构型仿人机器人的第一状态估计值
Figure 770304DEST_PATH_IMAGE197
表述为:
Figure 581265DEST_PATH_IMAGE199
因在并联构型和串联构型中,其中,
Figure 367956DEST_PATH_IMAGE201
Figure 24196DEST_PATH_IMAGE203
相等,
Figure DEST_PATH_IMAGE205
Figure DEST_PATH_IMAGE207
相等,
Figure DEST_PATH_IMAGE209
Figure 25781DEST_PATH_IMAGE211
相等,
Figure DEST_PATH_IMAGE213
Figure 210906DEST_PATH_IMAGE215
相等,因此将所述等效串联构型关节角期望值的髋关节关节角期望值作为目标并联构型关节角期望值的髋关节关节角期望值,将所述等效串联构型关节角期望值的膝关节关节角期望值作为目标并联构型关节角期望值的膝关节关节角期望值。
所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
所述目标并联构型关节角期望值
Figure 219313DEST_PATH_IMAGE217
表述为:
Figure 210403DEST_PATH_IMAGE219
,其中,
Figure DEST_PATH_IMAGE221
是目标并联构型髋关节关节角期望值,
Figure DEST_PATH_IMAGE223
是目标并联构型膝关节关节角期望值,
Figure DEST_PATH_IMAGE225
是所述并联构型踝关节第一角期望值,
Figure DEST_PATH_IMAGE227
是所述并联构型踝关节第二角期望值,在并联构型仿人机器人的中
Figure 297238DEST_PATH_IMAGE225
Figure 715581DEST_PATH_IMAGE227
是并联的。
如图4所示,仿人机器人的关节的位置向量可以表示为公式组1:
Figure DEST_PATH_IMAGE229
在公式组1中,
Figure DEST_PATH_IMAGE231
代表L点(L代表仿人机器人的链路i中的关节A、关节B、关节C中的一个,如图3所示,链路1的包括关节
Figure DEST_PATH_IMAGE233
,链路2的包括关节
Figure DEST_PATH_IMAGE235
)的位置向量,i代表链路(
Figure DEST_PATH_IMAGE237
,i为1时是仿人机器人的左腿,i为2时是仿人机器人的右腿),
Figure DEST_PATH_IMAGE239
是仿人机器人的链路i中的关节A的位置向量,
Figure DEST_PATH_IMAGE241
是仿人机器人的链路i中的关节B的位置向量,
Figure DEST_PATH_IMAGE243
是仿人机器人的链路i中的关节C的位置向量,
Figure DEST_PATH_IMAGE245
代表L点的位置向量的初始值,
Figure DEST_PATH_IMAGE247
代表绕y轴旋转
Figure DEST_PATH_IMAGE249
的旋转矩阵数据,
Figure DEST_PATH_IMAGE251
代表绕x轴旋转
Figure 197903DEST_PATH_IMAGE253
的旋转矩阵数据,
Figure 992683DEST_PATH_IMAGE255
代表绕y轴旋转
Figure DEST_PATH_IMAGE257
的姿态数据,
Figure DEST_PATH_IMAGE259
是串联构型仿人机器人的踝关节的对应局部旋转轴y的角度的估计值,
Figure 500019DEST_PATH_IMAGE253
是串联构型仿人机器人的踝关节的对应局部旋转轴x的角度的估计值;
由公式组1进行计算得到公式组2:
Figure DEST_PATH_IMAGE261
在公式组2中,
Figure DEST_PATH_IMAGE263
Figure DEST_PATH_IMAGE265
(L代表仿人机器人的链路i中的关节A、关节B、关节C中的一个),
Figure DEST_PATH_IMAGE267
Figure DEST_PATH_IMAGE269
的正弦,
Figure DEST_PATH_IMAGE271
Figure 184204DEST_PATH_IMAGE269
的余弦,
Figure DEST_PATH_IMAGE273
是仿人机器人的链路i中的关节A的位置向量的z轴的数据的初始值,
Figure DEST_PATH_IMAGE275
是仿人机器人的链路i中的关节B的位置向量的z轴的数据的初始值,
Figure DEST_PATH_IMAGE277
是仿人机器人的链路i中的关节C的位置向量的z轴的数据;
因仿人机器人存在几何约束,链路i中的关节之间的距离是固定的,因此可以得到公式组3:
Figure DEST_PATH_IMAGE279
因仿人机器人存在几何约束,对同一仿人机器人来说,
Figure DEST_PATH_IMAGE281
是连杆长度,
Figure DEST_PATH_IMAGE283
是连杆长度,
Figure 984845DEST_PATH_IMAGE281
Figure 52159DEST_PATH_IMAGE283
都是预设的固定数值。
对于仿人机器人的初始状态,根据仿人机器人的几何约束,可以得到公式组4:
Figure DEST_PATH_IMAGE285
根据公式组1至公式组4,可以得到公式组5:
Figure DEST_PATH_IMAGE287
在公式组5中,
Figure DEST_PATH_IMAGE289
通过对公式组5求解,得到公式组6:
Figure DEST_PATH_IMAGE291
可以理解的是,通过公式组1至公式组6,即可实现对关节角期望值进行局部并联逆运动学的映射计算。也就是说,
Figure DEST_PATH_IMAGE293
即为
Figure DEST_PATH_IMAGE295
中的所述并联构型踝关节第一角期望值
Figure DEST_PATH_IMAGE297
Figure DEST_PATH_IMAGE299
即为
Figure DEST_PATH_IMAGE301
中的所述并联构型踝关节第二角期望值
Figure DEST_PATH_IMAGE303
在一个实施例中,上述获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值的步骤,包括:
S11:获取在同一时间的所述腿部关节位置的传感器发送的第一传感数据、所述腿部脚踝位置的传感器发送的第二传感数据和所述腰部位置的传感器发送的第三传感数据,其中,所述腿部关节位置的传感器采用关节位置传感器,所述腿部脚踝位置的传感器采用六维力传感器,所述腰部位置的传感器采用惯性传感器;
S12:采用第一滤波器对所述第一传感数据进行滤波处理,得到所述第一状态估计值;
S13:采用第二滤波器对所述第二传感数据进行滤波处理,得到所述第二状态估计值;
S14:采用第三滤波器对所述第三传感数据进行滤波处理,得到所述第三状态估计值。
本实施例实现了对仿人机器人的传感器的数据进行滤波得到状态估计值,从而有利于提高得到的第一状态估计值、第二状态估计值和第三状态估计值的准确性。
对于S11,获取在同一时间的所述腿部关节位置的传感器发送的第一传感数据、所述腿部脚踝位置的传感器发送的第二传感数据和所述腰部位置的传感器发送的第三传感数据,也就是说,第一传感数据、第二传感数据、第三传感数据是同一时间检测得到的传感器数据。
对于S12,第一滤波器包括但不限于:低通滤波器。
采用低通滤波器对所述第一传感数据进行滤波处理,根据滤波处理的结果得到第一状态估计值。
对于S13,第二滤波器包括但不限于:巴特沃斯滤波器(也称为Butterworth滤波器)。
采用巴特沃斯滤波器对所述第二传感数据进行滤波处理,根据滤波处理的结果得到所述第二状态估计值。
对于S14,第三滤波器包括但不限于:卡尔曼滤波器(也称为Kalman滤波器)。
采用卡尔曼滤波器对所述第三传感数据进行滤波处理,根据滤波处理的结果得到所述第三状态估计值。
参照图5,本申请还提出了一种并联构型仿人机器人的状态估计装置,所述装置包括:
数据获取模块100,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块200,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
世界坐标系下质心位姿估计值确定模块300,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
参照图6,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于储存并联构型仿人机器人的状态估计方法等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种并联构型仿人机器人的状态估计方法。所述并联构型仿人机器人的状态估计方法,包括:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种并联构型仿人机器人的状态估计方法,包括步骤:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
上述执行的并联构型仿人机器人的状态估计方法,通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (9)

1.一种并联构型仿人机器人的状态估计方法,其特征在于,所述方法包括:
获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值;
所述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到所述本体坐标系下腰部位姿估计值;
根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
2.根据权利要求1所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
获取所述仿人机器人的预设的各个连杆的质量;
根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
3.根据权利要求2所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
4.根据权利要求3所述的并联构型仿人机器人的状态估计方法,其特征在于,所述世界坐标系下质心位置估计值的计算公式
Figure 27508DEST_PATH_IMAGE002
为:
Figure 288856DEST_PATH_IMAGE004
其中,
Figure 678380DEST_PATH_IMAGE006
是世界坐标系下的左脚在所述第二状态估计值
Figure 948956DEST_PATH_IMAGE008
中的第三个值,
Figure 370185DEST_PATH_IMAGE010
是世界坐标系下的右脚在所述第二状态估计值
Figure DEST_PATH_IMAGE012
中的第三个值,
Figure DEST_PATH_IMAGE014
是所述左腿支撑的世界坐标系下质心位置数据估计值,
Figure DEST_PATH_IMAGE016
是所述右腿支撑的世界坐标系下质心位置数据估计值,
Figure DEST_PATH_IMAGE018
是大于0并且小于所述仿人机器人的总重量的常量。
5.根据权利要求1所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
6.根据权利要求5所述的并联构型仿人机器人的状态估计方法,其特征在于,所述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
7.一种并联构型仿人机器人的状态估计装置,其特征在于,所述装置包括:
数据获取模块,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,包括采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值,根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到所述本体坐标系下腰部位姿估计值,根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值;
世界坐标系下质心位姿估计值确定模块,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN202110634737.9A 2021-06-08 2021-06-08 并联构型仿人机器人的状态估计方法、装置、设备及介质 Active CN113253748B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110634737.9A CN113253748B (zh) 2021-06-08 2021-06-08 并联构型仿人机器人的状态估计方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110634737.9A CN113253748B (zh) 2021-06-08 2021-06-08 并联构型仿人机器人的状态估计方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN113253748A CN113253748A (zh) 2021-08-13
CN113253748B true CN113253748B (zh) 2022-02-22

Family

ID=77186945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110634737.9A Active CN113253748B (zh) 2021-06-08 2021-06-08 并联构型仿人机器人的状态估计方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN113253748B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117503120B (zh) * 2023-12-18 2024-04-16 北京铸正机器人有限公司 人体姿态估计方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1590039A (zh) * 2003-08-25 2005-03-09 索尼株式会社 机器人及机器人的姿态控制方法
CN111086001A (zh) * 2019-12-25 2020-05-01 广东省智能制造研究所 一种足式机器人多模态感知的状态估计方法及系统
CN111121768A (zh) * 2019-12-23 2020-05-08 深圳市优必选科技股份有限公司 一种机器人位姿估计方法、装置、可读存储介质及机器人
CN111160298A (zh) * 2019-12-31 2020-05-15 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
CN111380514A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 机器人位姿估计方法、装置、终端及计算机存储介质
CN111993391A (zh) * 2020-08-25 2020-11-27 深圳市优必选科技股份有限公司 机器人位姿估计方法、装置、仿人机器人及存储介质
CN112720483A (zh) * 2020-12-23 2021-04-30 深圳市优必选科技股份有限公司 合质心状态获取方法、装置、仿人机器人和可读存储介质
CN112744313A (zh) * 2020-12-24 2021-05-04 深圳市优必选科技股份有限公司 一种机器人状态估计方法、装置、可读存储介质及机器人

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497185B2 (ja) * 2015-04-09 2019-04-10 本田技研工業株式会社 自律移動装置および自律移動装置の制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1590039A (zh) * 2003-08-25 2005-03-09 索尼株式会社 机器人及机器人的姿态控制方法
CN111380514A (zh) * 2018-12-29 2020-07-07 深圳市优必选科技有限公司 机器人位姿估计方法、装置、终端及计算机存储介质
CN111121768A (zh) * 2019-12-23 2020-05-08 深圳市优必选科技股份有限公司 一种机器人位姿估计方法、装置、可读存储介质及机器人
CN111086001A (zh) * 2019-12-25 2020-05-01 广东省智能制造研究所 一种足式机器人多模态感知的状态估计方法及系统
CN111160298A (zh) * 2019-12-31 2020-05-15 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
CN111993391A (zh) * 2020-08-25 2020-11-27 深圳市优必选科技股份有限公司 机器人位姿估计方法、装置、仿人机器人及存储介质
CN112720483A (zh) * 2020-12-23 2021-04-30 深圳市优必选科技股份有限公司 合质心状态获取方法、装置、仿人机器人和可读存储介质
CN112744313A (zh) * 2020-12-24 2021-05-04 深圳市优必选科技股份有限公司 一种机器人状态估计方法、装置、可读存储介质及机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SLAM过程中的机器人位姿估计优化算法研究;禹鑫燚 等;《高技术通讯》;20181231;第28卷(第8期);第712-718页 *

Also Published As

Publication number Publication date
CN113253748A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
He et al. Model identification and control design for a humanoid robot
Giorelli et al. Learning the inverse kinetics of an octopus-like manipulator in three-dimensional space
Carpentier et al. Center-of-mass estimation for a polyarticulated system in contact—a spectral approach
EP2406041B1 (en) Robot apparatus and control method therefor
US9260147B2 (en) Dynamic predictor for articulated mechanisms
CN113253748B (zh) 并联构型仿人机器人的状态估计方法、装置、设备及介质
CN112123341B (zh) 机器人双臂协调运动控制方法、装置和电子设备
Michaud et al. biorbd: A c++, python and matlab library to analyze and simulate the human body biomechanics
Kuehn et al. Additional DOFs and sensors for bio-inspired locomotion: Towards active spine, ankle joints, and feet for a quadruped robot
Perrusquía et al. Robot position/force control in unknown environment using hybrid reinforcement learning
Rodríguez-Abreo et al. Backstepping control for a UAV-manipulator tuned by Cuckoo Search algorithm
CN115533916A (zh) 一种机械臂末端负载质量辨识方法、系统、设备及介质
Bailly et al. Estimating the center of mass and the angular momentum derivative for legged locomotion—a recursive approach
Tang et al. Learning-based approach for a soft assistive robotic arm to achieve simultaneous position and force control
Kazemipour et al. Adaptive Control of a Soft Continuum Manipulator
Saeedvand et al. Novel lightweight odometric learning method for humanoid robot localization
WO2022141268A1 (zh) 一种仿人机器人控制方法、计算机设备及存储介质
Ayusawa et al. Identification of standard inertial parameters for large-dof robots considering physical consistency
Yatsun et al. Simulation of Interaction between an Operator and an Exoskeleton
Parsa et al. Pose-and-twist estimation of a rigid body using accelerometers
Jang et al. Toward on-line parameter estimation of concentric tube robots using a mechanics-based kinematic model
Hwang et al. Intuitive gait pattern generation for an exoskeleton robot
CN113465822A (zh) 基于多刚体机器人的质心位置计算方法、装置及介质
Pulloquinga et al. Trajectory planner for type II singularities avoidance based on output twist screws
Safeena et al. Survey paper on the Forward Kinematics Solution of a Stewart Platform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant