CN113253748B - 并联构型仿人机器人的状态估计方法、装置、设备及介质 - Google Patents
并联构型仿人机器人的状态估计方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113253748B CN113253748B CN202110634737.9A CN202110634737A CN113253748B CN 113253748 B CN113253748 B CN 113253748B CN 202110634737 A CN202110634737 A CN 202110634737A CN 113253748 B CN113253748 B CN 113253748B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- value
- under
- pose
- estimation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 210000003423 ankle Anatomy 0.000 claims abstract description 23
- 210000001503 joint Anatomy 0.000 claims abstract description 19
- 210000002414 leg Anatomy 0.000 claims description 251
- 210000001624 hip Anatomy 0.000 claims description 82
- 210000002683 foot Anatomy 0.000 claims description 36
- 210000000544 articulatio talocruralis Anatomy 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000005021 gait Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 17
- 210000000629 knee joint Anatomy 0.000 claims description 14
- 210000004394 hip joint Anatomy 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 239000000126 substance Substances 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 description 14
- 210000002569 neuron Anatomy 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0891—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本申请涉及机器人技术领域,揭示了一种并联构型仿人机器人的状态估计方法、装置、设备及介质,其中方法包括:获取在同一时间的根据仿人机器人的腿部关节位置的传感器得到的第一状态估计值、根据仿人机器人的腿部脚踝位置的传感器得到的第二状态估计值和根据仿人机器人的腰部位置的传感器得到的第三状态估计值;采用正运动学根据第一状态估计值和第三状态估计值得到本体坐标系下腿部位姿估计值;根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值得到世界坐标系下质心位姿估计值。实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决并联构型仿人机器人的状态估计问题,提高质心状态估计精确度。
Description
技术领域
本申请涉及到机器人技术领域,特别是涉及到一种并联构型仿人机器人的状态估计方法、装置、设备及介质。
背景技术
并联构型仿人机器人,也就是将传统的串联构型的仿人机器人设置为髋-膝并联机构或膝-踝并联机构。仿人机器人的状态估计是实现步态规划和平衡控制的基础,从而需要从传感系统的反馈量中获取精确的状态估计量。仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内部状态(比如,质心的位姿)无法直接通过传感器测量得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,降低了步态规划和平衡控制的准确性;此外因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战。
发明内容
本申请的主要目的为提供一种并联构型仿人机器人的状态估计方法、装置、设备及介质,旨在解决现有技术中仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内状态无法直接通过传感器直接得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,而且因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战的技术问题。
为了实现上述发明目的,本申请提出一种并联构型仿人机器人的状态估计方法,所述方法包括:
获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
进一步的,所述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:
采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值;
根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
进一步的,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
获取所述仿人机器人的预设的各个连杆的质量;
根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
进一步的,所述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
其中, 是世界坐标系下的左脚在所述第二状态估计值中的第三个值,是世界坐标系下的右脚在所述第二状态估计值中的第三个值,是所述左腿支撑的世界坐标系下质心位置数据估计值,是所述右腿支撑的世界坐标系下质心位置数据估计值,是大于0并且小于所述仿人机器人的总重量的常量。
进一步的,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
进一步的,所述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
本申请还提出了一种并联构型仿人机器人的状态估计装置,所述装置包括:
数据获取模块,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
世界坐标系下质心位姿估计值确定模块,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本申请还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的并联构型仿人机器人的状态估计方法、装置、设备及介质,通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
附图说明
图1为本申请一实施例的并联构型仿人机器人的状态估计方法的流程示意图;
图2 为本申请的串联构型仿人机器人示意图;
图3为本申请的膝-踝并联构型仿人机器人的本体坐标系示意图;
图4为本申请的仿人机器人的运动学示意图;
图5为本申请一实施例的并联构型仿人机器人的状态估计装置的结构示意框图;
图6为本申请一实施例的计算机设备的结构示意框图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
为了解决现有技术中仿人机器人的状态估计是基于传感器反馈的数据实现的,因为对于仿人机器人的内状态无法直接通过传感器直接得到,而且传感器反馈的数据存在不准确性,从而降低了对仿人机器人的状态估计的准确性,而且因为现有的仿人机器人的步态规划与平衡控制的算法都是基于串联构型,导致对于并联构型仿人机器人的步态规划与平衡控制的算法开发提出了新的挑战的技术问题,本申请提出了一种并联构型仿人机器人的状态估计方法,所述方法应用于机器人技术领域。
参照图1,本申请实施例中提供一种并联构型仿人机器人的状态估计方法,所述方法包括:
S1:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
S2:采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
S3:根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
对于S1,获取在同一时间的所述仿人机器人的腿部关节位置的传感器的数据、腿部脚踝位置的传感器的数据和腰部位置的传感器的数据,根据腿部关节位置的传感器的数据确定第一状态估计值,根据腿部脚踝位置的传感器的数据确定第二状态估计值,根据腰部位置的传感器的数据确定第三状态估计值。
如图2所示,仿人机器人每条腿通常由6个自由度组成,分别是:髋关节(3个自由度,局部旋转轴z, x, y),膝关节(1个自由度,局部旋转轴y),踝关节(2个自由度,局部旋转轴y, x)。图2的串联构型仿人机器人,将仿人机器人每个关节单独控制;并联构型仿人机器人,也就是将仿人机器人设置为髋-膝并联机构或膝-踝并联机构。髋-膝并联机构,也就是髋关节和膝关节并联。膝-踝并联机构,也就是膝关节与踝关节并联。
图3示出了膝-踝并联机构的并联构型仿人机器人的局部坐标系示意图,踝关节O处建立了初始状态与世界坐标系一致的局部坐标系。
世界坐标系,是指机器人的世界坐标系,是一个全局的坐标系,其中,前向为世界坐标系的x轴,侧向为世界坐标系的y轴,纵向为世界坐标系的z轴。
腿部关节位置的传感器,也就是在所述仿人机器人的腿部的关节处的每个舵机的传感器,仿人机器人的每条腿有6个舵机处的传感器。
腿部脚踝位置的传感器,也就是在所述仿人机器人的腿部的脚踝处的传感器。
腰部位置的传感器,也就是在所述仿人机器人的腰部的传感器。
在串联构型仿人机器人的关节角表述为,其中,是串联构型仿人机器人的髋关节的关节角,是串联构型仿人机器人的膝关节的角度的估计值,是串联构型仿人机器人的踝关节的对应局部旋转轴y的角度的估计值,是串联构型仿人机器人的踝关节的对应局部旋转轴x的角度的估计值。
第一状态估计值,是对腿部的关节的关节位置传感器的数据进行滤波得到的状态估计值。比如,第一状态估计值表述为:,对应的是所述仿人机器人的腿部的6个关节的关节角的估计值,其中,是髋关节的角度的估计值,是膝关节的角度的估计值,是并联构型仿人机器人的踝关节的第一角度的估计值,是并联构型仿人机器人的踝关节的第二角度的估计值,在并联构型仿人机器人的中和是并联的。
对于S2,在本体坐标系下,首先根据所述第一状态估计值进行局部并联正运动学的拟合,然后根据拟合结果和所述第三状态估计值进行等效串联正运动学计算,将计算得到的在本体坐标系下的腿部位姿作为所述本体坐标系下腿部位姿估计值。
本体坐标系,是指在本申请的仿人机器人的腰部建立固定点得到的坐标系。本体坐标系的初始状态跟世界坐标系一致。
对于S3,首先根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计得到连杆质心位置数据集合,然后根据所述连杆质量集合和所述本体坐标系下连杆质心位置数据集合进行在所述本体坐标系下的质心位置估计,得到本体坐标系下质心位置估计值,然后根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值,将所述本体坐标系下质心位置估计值与所述质心姿态估计值进行组合,得到本体坐标系下质心位姿估计值,根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,将得到的数据作为世界坐标系下质心位姿估计值。
世界坐标系下质心位姿估计值,也就是实现步态规划和平衡控制的基础。
世界坐标系下质心位姿估计值包括:仿人机器人的质心在世界坐标系下的位置数据、仿人机器人的质心在世界坐标系下的姿态数据。比如,仿人机器人的质心在世界坐标系下的位置数据表述为,仿人机器人的质心在世界坐标系下的姿态数据表述为。
在一个实施例中,上述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:
S21:采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
S22:根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值;
S23:根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
本实施例实现了采用正运动学进行在本体坐标系下的腿部位姿的估计,将并联构型仿人机器人的数据映射到串联构型仿人机器人的数据,为后续进行世界坐标系下质心位姿的估计提供了基础。
正运动学,包含局部并联正运动学与等效串联正运动学,所述局部并联正运动学为并联构型的关节运动数据映射到等效串联构型的关节运动数据;所述等效串联正运动学为将并联构型关节等效到串联关节后整条腿部的正运动学。
对于S21,在串联构型仿人机器人的关节角表述为,并联构型仿人机器人的第一状态估计值表述为:因在并联构型和串联构型中,其中,与相等,与相等,与相等,与相等,因此,局部并联正运动学的拟合是将并联构型的踝关节角进行映射到串联构型的踝关节角。
因为局部并联正运动学无法得到解析解,只能通过一些特殊的手段求得,比如,采用神经网络进行拟合。在本申请中,采用径向基函数神经网络(也称为RBF神经网络)对局部并联正运动学进行拟合,因径向基函数神经网络能逼近任意非线性连续函数,从而能对局部并联正运动学进行准确的拟合,有利于提高局部并联正运动学得到的待处理的等效串联关节角估计值的准确性。
其中,根据基于径向基函数神经网络得到仿人机器人的局部并联正运动学求解模型;根据所述局部并联正运动学求解模型对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,根据拟合结果得到待处理的等效串联关节角估计值。
局部并联正运动学求解模型包括:输入层、隐藏层、输出层,从输入层到隐藏层的变换是非线性,从隐藏层到输出层变换是线性的。输入层的神经元个数为2个,隐藏层的神经元个数大于2个,输出层的神经元个数为2个。将径向基函数作为局部并联正运动学求解模型的隐藏层的激活函数,将输入的数据映射到高维隐藏空间,不需要通过权值连接,当径向基函数的中心点确定后,映射关系也随之确定。局部并联正运动学求解模型的隐藏层到局部并联正运动学求解模型的输出层的映射是线性的,即局部并联正运动学求解模型的输出层的每个神经元是对隐藏层的神经单元输入的数据进行线性加权求和。
可以理解的是,在根据基于径向基函数神经网络得到初始模型后,采用目标误差函数和训练样本对初始模型进行训练,目的是使目标误差函数最小。在对初始模型训练的过程中,基于目标误差函数,通过优化算法得到初始模型的参数。优化算法包括但不限于:梯度下降算法。
目标误差函数K表述为:
训练样本包括:关节角样本数据、等效关节角标定数据。关节角样本数据表述为:,等效串联关节角标定数据表述为:,是输入关节角样本数据时隐藏层的第个神经元中心点,其中,关节角样本数据、等效串联关节角标定数据是根据逆运动学得到的数据。
对于S22,因为在本体坐标系下的腰部是原点,所以在本体坐标系下的位置数据是,因此,只需要根据所述第三状态估计值进行腰部姿态的估计,将估计得到的腰部姿态作为腰部姿态估计值。可以理解的是,腰部姿态估计值是不分本体坐标系和世界坐标系的。
根据腰部的位置数据和腰部姿态估计值得到本体坐标系下腰部位姿估计值。
对于S23,根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,从而实现将仿人机器人的并联构型映射到仿人机器人的串联构型,将等效串联正运动学计算得到的数据作为本体坐标系下腿部位置估计值。也就是说,本体坐标系下腿部位置估计值是本体坐标系下的数据。
本体坐标系下腿部位姿估计值包括:仿人机器人的腿部在本体坐标系下的位置数据、机器人的腿部在本体坐标系下的姿态数据。
将所述腰部位姿估计值中的姿态数据作为本体坐标系下腿部位姿估计值的腿部在本体坐标系下的姿态数据。
将所述本体坐标系下腿部位置估计值作为本体坐标系下腿部位姿估计值的腿部在本体坐标系下的位置数据。
在一个实施例中,上述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
S31:根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
S32:获取所述仿人机器人的预设的各个连杆的质量;
S33:根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
S34:根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
S35:获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
S36:根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
本实施例实现了根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,从而实现基于传感器的状态估计值准确估计出并联构型仿人机器人的质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障。
对于S31,根据所述第一状态估计值进行所述仿人机器人的各个连杆的各自的质心的位置矢量的估计,将计算得到的所有连杆质心位置数据作为本体坐标系下连杆质心位置数据集合。也就是说,所述仿人机器人的每个连杆对应一个连杆质心位置数据。本体坐标系下连杆质心位置数据集合是本体坐标系下的数据。
根据所述第一状态估计值进行所述仿人机器人的各个连杆的各自的质心的位置矢量的估计的具体步骤在此不做赘述。
对于S32,可以从数据库中获取所述仿人机器人的预设的各个连杆的质量和预设的机器人质量,也可以从第三方应用系统中获取所述仿人机器人的预设的各个连杆的质量和预设的机器人质量。所述仿人机器人的预设的各个连杆的质量是所述仿人机器人的腿部的各个连杆的质量。
对于S34,因为所述第三状态估计值是对腰部的惯性传感器的数据进行滤波得到的估计值,所以可以根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到本体坐标系下腰部位姿估计值,在本体坐标系下的本体坐标系下腰部位姿估计值即为质心姿态估计值。
对于S34,将所述本体坐标系下质心位置估计值作为本体坐标系下质心位姿估计值的位置估计值,将所述本体坐标系下腰部位姿估计值的腰部姿态估计值作为本体坐标系下质心位姿估计值的姿态估计值。
对于S35,可以从数据库中获取所述仿人机器人的左腿支撑状态和右腿支撑状态,也可以从第三方应用系统中获取所述仿人机器人的左腿支撑状态和右腿支撑状态。
其中,根据所述仿人机器人的左脚的压力传感器的数据确定左腿支撑状态,根据所述仿人机器人的右脚的压力传感器的数据确定右腿支撑状态。
左腿支撑状态包括腾空、支撑中的任一个,腾空是指不存在第三方物体向所述仿人机器人的左脚提供支撑力,支撑是指存在第三方物体向所述仿人机器人的左脚提供支撑力。
右腿支撑状态包括腾空、支撑中的任一个,腾空是指不存在第三方物体向所述仿人机器人的右脚提供支撑力,支撑是指存在第三方物体向所述仿人机器人的右脚提供支撑力。
其中,是所述本体坐标系下质心位姿估计值的姿态估计值,是所述本体坐标系下质心位姿估计值;当所述左腿为支撑腿时,为世界坐标系下左脚位置数据估计值,为所述本体坐标系下腿部位姿估计值的左脚位置数据估计值;当所述右腿为支撑腿时,为世界坐标系下右脚位置数据估计值,为所述本体坐标系下腿部位姿估计值的右脚位置数据估计值。
可以理解的是,当所述左腿支撑状态和所述右腿支撑状态都为腾空时,将后离地的腿作为支撑腿;当所述左腿支撑状态为支撑时,所述左腿为支撑腿;当所述右腿支撑状态为支撑时,所述右腿为支撑腿。
图4示出了仿人机器人的运动学示意图,是世界坐标系,是本体坐标系,是世界坐标系下的质心位姿的实际值中的位置数据,是所述左腿为支撑腿时在世界坐标系下的左脚的位置数据的实际值,是所述左腿为支撑腿时在本体坐标系下的左脚的位置数据的实际值,是所述右腿为支撑腿时在世界坐标系下的右脚的位置数据的实际值,是所述右腿为支撑腿时在本体坐标系下的右脚的位置数据的实际值。
在一个实施例中,上述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
S361:根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
S362:根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
S363:根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
S364:根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
对于S361,采用,根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑(也就是左腿作为支撑腿)的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值,左腿支撑的世界坐标系下质心位置数据估计值表述为,。左腿支撑的世界坐标系下质心位置数据估计值,也就是左腿支撑时,在世界坐标系下的质心的位置数据的估计值。
对于S362,采用,根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值,右腿支撑世界坐标系下质心位置数据估计值表述为,。右腿支撑世界坐标系下质心位置数据估计值,也就是右腿支撑时,在世界坐标系下的质心的位置数据的估计值。
对于S363,根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值、世界坐标系下的左脚在所述第二状态估计值的第三个值、世界坐标系下的右脚在所述第二状态估计值的第三个值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值。
其中, 是世界坐标系下的左脚在所述第二状态估计值中的第三个值,是世界坐标系下的右脚在所述第二状态估计值中的第三个值,是所述左腿支撑的世界坐标系下质心位置数据估计值,是所述右腿支撑的世界坐标系下质心位置数据估计值,是大于0并且小于所述仿人机器人的总重量的常量。
对于S364,将所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值作为所述世界坐标系下质心位姿估计值的仿人机器人的质心在世界坐标系下的姿态数据,将所述世界坐标系下质心位置估计值作为所述世界坐标系下质心位姿估计值的仿人机器人的质心在世界坐标系下的位置数据。
在一个实施例中,上述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
S4:根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
S5:根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
S6:采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
本实施例实现了采用串联构型仿人机器人的步态规划的方法和平衡控制的方法确定目标世界坐标系下质心位姿期望值和腿部位姿期望值,然后采用逆运动学,将串联构型仿人机器人的世界坐标系下质心位姿期望值和腿部位姿期望值映射为并联构型仿人机器人的关节角期望值,从而充分利用了现有技术的串联构型的机器人的算法,减少了开发的工作量。
采用所述逆运动学得到并联构型的关节角度期望值,所述逆运动学包含局部并联逆运动学与等效串联逆运动学,所述等效串联逆运动学将腰部期望位姿与腿部期望位姿映射到等效串联构型的关节角度期望值;所述局部并联逆运动学将等效串联构型的关节的角度期望值映射到并联构型的关节角度期望。
对于S4,采用串联构型仿人机器人的步态规划的方法,根据世界坐标系下质心位姿估计值进行步态规划计算,将计算得到的数据作为待处理的世界坐标系下质心位姿期望值和待处理的腿部位姿期望值。
采用串联构型仿人机器人的平衡控制的方法,根据所述待处理的世界坐标系下质心位姿期望值和所述待处理的腿部位姿期望值进行平衡控制计算,将计算得到的数据作为目标世界坐标系下质心位姿期望值和腿部位姿期望值。
对于S5,根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换的具体步骤在此不做赘述。
对于S6,采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,将计算得到的数据作为目标并联构型关节角期望值。
目标并联构型关节角期望值,是并联构型仿人机器人的腿部的关节的舵机运动的目标角度。
在一个实施例中,上述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
S61:根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
S62:对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
S63:根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
本实施例实现了采用逆运动学,将串联构型的所述腰部位姿期望值和所述腿部位姿期望值进行并联构型仿人机器人的关节角期望值的计算,为实现仿人机器人的运动控制提供了基础。
对于S61,根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算的具体步骤在此不做赘述。
对于S62,因为串联构型仿人机器人的髋关节关节角与并联构型仿人机器人的髋关节关节角相同,串联构型仿人机器人的膝关节关节角与并联构型仿人机器人的膝关节关节角相同,所以只需要对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算以得到并联构型踝关节第一角期望值并联构型踝关节第一角期望值和并联构型踝关节第二角期望值。
对于S63,在串联构型仿人机器人的关节角表述为,并联构型仿人机器人的第一状态估计值表述为:因在并联构型和串联构型中,其中,与相等,与相等,与相等,与相等,因此将所述等效串联构型关节角期望值的髋关节关节角期望值作为目标并联构型关节角期望值的髋关节关节角期望值,将所述等效串联构型关节角期望值的膝关节关节角期望值作为目标并联构型关节角期望值的膝关节关节角期望值。
所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
所述目标并联构型关节角期望值表述为:,其中,是目标并联构型髋关节关节角期望值,是目标并联构型膝关节关节角期望值,是所述并联构型踝关节第一角期望值,是所述并联构型踝关节第二角期望值,在并联构型仿人机器人的中和是并联的。
如图4所示,仿人机器人的关节的位置向量可以表示为公式组1:
在公式组1中,代表L点(L代表仿人机器人的链路i中的关节A、关节B、关节C中的一个,如图3所示,链路1的包括关节,链路2的包括关节)的位置向量,i代表链路(,i为1时是仿人机器人的左腿,i为2时是仿人机器人的右腿),是仿人机器人的链路i中的关节A的位置向量,是仿人机器人的链路i中的关节B的位置向量,是仿人机器人的链路i中的关节C的位置向量,代表L点的位置向量的初始值,代表绕y轴旋转的旋转矩阵数据,代表绕x轴旋转的旋转矩阵数据,代表绕y轴旋转的姿态数据,是串联构型仿人机器人的踝关节的对应局部旋转轴y的角度的估计值,是串联构型仿人机器人的踝关节的对应局部旋转轴x的角度的估计值;
由公式组1进行计算得到公式组2:
在公式组2中,和 (L代表仿人机器人的链路i中的关节A、关节B、关节C中的一个),是的正弦,是的余弦,是仿人机器人的链路i中的关节A的位置向量的z轴的数据的初始值,是仿人机器人的链路i中的关节B的位置向量的z轴的数据的初始值,是仿人机器人的链路i中的关节C的位置向量的z轴的数据;
因仿人机器人存在几何约束,链路i中的关节之间的距离是固定的,因此可以得到公式组3:
对于仿人机器人的初始状态,根据仿人机器人的几何约束,可以得到公式组4:
根据公式组1至公式组4,可以得到公式组5:
通过对公式组5求解,得到公式组6:
在一个实施例中,上述获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值的步骤,包括:
S11:获取在同一时间的所述腿部关节位置的传感器发送的第一传感数据、所述腿部脚踝位置的传感器发送的第二传感数据和所述腰部位置的传感器发送的第三传感数据,其中,所述腿部关节位置的传感器采用关节位置传感器,所述腿部脚踝位置的传感器采用六维力传感器,所述腰部位置的传感器采用惯性传感器;
S12:采用第一滤波器对所述第一传感数据进行滤波处理,得到所述第一状态估计值;
S13:采用第二滤波器对所述第二传感数据进行滤波处理,得到所述第二状态估计值;
S14:采用第三滤波器对所述第三传感数据进行滤波处理,得到所述第三状态估计值。
本实施例实现了对仿人机器人的传感器的数据进行滤波得到状态估计值,从而有利于提高得到的第一状态估计值、第二状态估计值和第三状态估计值的准确性。
对于S11,获取在同一时间的所述腿部关节位置的传感器发送的第一传感数据、所述腿部脚踝位置的传感器发送的第二传感数据和所述腰部位置的传感器发送的第三传感数据,也就是说,第一传感数据、第二传感数据、第三传感数据是同一时间检测得到的传感器数据。
对于S12,第一滤波器包括但不限于:低通滤波器。
采用低通滤波器对所述第一传感数据进行滤波处理,根据滤波处理的结果得到第一状态估计值。
对于S13,第二滤波器包括但不限于:巴特沃斯滤波器(也称为Butterworth滤波器)。
采用巴特沃斯滤波器对所述第二传感数据进行滤波处理,根据滤波处理的结果得到所述第二状态估计值。
对于S14,第三滤波器包括但不限于:卡尔曼滤波器(也称为Kalman滤波器)。
采用卡尔曼滤波器对所述第三传感数据进行滤波处理,根据滤波处理的结果得到所述第三状态估计值。
参照图5,本申请还提出了一种并联构型仿人机器人的状态估计装置,所述装置包括:
数据获取模块100,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块200,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
世界坐标系下质心位姿估计值确定模块300,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
参照图6,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于储存并联构型仿人机器人的状态估计方法等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种并联构型仿人机器人的状态估计方法。所述并联构型仿人机器人的状态估计方法,包括:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
本实施例通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种并联构型仿人机器人的状态估计方法,包括步骤:获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
上述执行的并联构型仿人机器人的状态估计方法,通首先过获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,然后采用正运动学,根据第一状态估计值和第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,最后根据本体坐标系下腿部位姿估计值、第一状态估计值、第二状态估计值和第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿估计值,提高了对仿人机器人的状态估计的准确性,为步态规划和平衡控制的准确性提供了准确的保障;因为采用局部正逆运动学将并联构型的数据映射到串联构型的数据,从而实现基于传感器的状态估计值准确估计出质心在世界坐标系下的位姿,解决了并联构型仿人机器人的状态估计问题,同时提高了质心状态估计的精确度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (9)
1.一种并联构型仿人机器人的状态估计方法,其特征在于,所述方法包括:
获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值;
根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值;
所述采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值的步骤,包括:采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值;
根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到所述本体坐标系下腰部位姿估计值;
根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值。
2.根据权利要求1所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤,包括:
根据所述第一状态估计值进行所述仿人机器人的连杆的质心的位置矢量的估计,得到本体坐标系下连杆质心位置数据集合;
获取所述仿人机器人的预设的各个连杆的质量;
根据所述本体坐标系下连杆质心位置数据集合和所述预设的各个连杆的质量计算所述仿人机器人在所述本体坐标系下的质心位置估计值,得到本体坐标系下质心位置估计值;
根据所述本体坐标系下质心位置估计值与所述本体坐标系下腰部位姿估计值的腰部姿态估计值进行组合,得到本体坐标系下质心位姿估计值;
获取所述仿人机器人的左腿支撑状态和右腿支撑状态;
根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值。
3.根据权利要求2所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下质心位姿估计值、所述左腿支撑状态、所述右腿支撑状态、所述本体坐标系下腿部位姿估计值和所述第二状态估计值进行在所述世界坐标系下的质心位姿的估计,得到所述世界坐标系下质心位姿估计值的步骤,包括:
根据所述左腿支撑状态、所述本体坐标系下腿部位姿估计值的左脚位置数据估计值、所述本体坐标系下质心位姿估计值进行左腿支撑的世界坐标系下质心位置数据的估计,得到左腿支撑的世界坐标系下质心位置数据估计值;
根据所述右腿支撑状态、所述本体坐标系下腿部位姿估计值的右脚位置数据估计值、所述本体坐标系下质心位姿估计值进行右腿支撑的世界坐标系下质心位置数据的估计,得到右腿支撑的世界坐标系下质心位置数据估计值;
根据所述左腿支撑的世界坐标系下质心位置数据估计值、所述右腿支撑的世界坐标系下质心位置数据估计值和所述第二状态估计值进行在所述世界坐标系下的质心位置估计,得到所述世界坐标系下质心位置估计值;
根据所述本体坐标系下腰部位姿估计值的所述腰部姿态估计值和所述世界坐标系下质心位置估计值进行在所述世界坐标系下的质心位姿的计算,得到所述世界坐标系下质心位姿估计值。
5.根据权利要求1所述的并联构型仿人机器人的状态估计方法,其特征在于,所述根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值的步骤之后,还包括:
根据所述世界坐标系下质心位姿估计值进行仿人机器人的步态规划和平衡控制计算,得到目标世界坐标系下质心位姿期望值和腿部位姿期望值;
根据所述目标世界坐标系下质心位姿期望值进行腰部位姿转换,得到腰部位姿期望值;
采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值。
6.根据权利要求5所述的并联构型仿人机器人的状态估计方法,其特征在于,所述采用逆运动学,根据所述腰部位姿期望值和所述腿部位姿期望值进行关节角计算,得到目标并联构型关节角期望值步骤,包括:
根据所述腰部位姿期望值和所述腿部位姿期望值进行等效串联逆运动学计算,得到等效串联构型关节角期望值;
对所述等效串联构型关节角期望值进行局部并联逆运动学在踝关节的关节角映射计算,得到并联构型踝关节第一角期望值和并联构型踝关节第二角期望值;
根据所述等效串联构型关节角期望值的髋关节关节角期望值及膝关节关节角期望值、所述并联构型踝关节第一角期望值和所述并联构型踝关节第二角期望值进行组合,得到所述目标并联构型关节角期望值。
7.一种并联构型仿人机器人的状态估计装置,其特征在于,所述装置包括:
数据获取模块,用于获取仿人机器人在同一时间的第一状态估计值、第二状态估计值和第三状态估计值,其中,所述第一状态估计值是根据所述仿人机器人的腿部关节位置的传感器得到的状态估计值,所述第二状态估计值是根据所述仿人机器人的腿部脚踝位置的传感器得到的状态估计值,所述第三状态估计值是根据所述仿人机器人的腰部位置的传感器得到的状态估计值;
本体坐标系下腿部位姿估计值确定模块,用于采用正运动学,根据所述第一状态估计值和所述第三状态估计值进行在本体坐标系下的腿部位姿的估计,得到本体坐标系下腿部位姿估计值,包括采用径向基函数神经网络,对所述第一状态估计值进行在所述本体坐标系下的局部并联正运动学的拟合,得到待处理的等效串联关节角估计值,根据所述第三状态估计值进行本体坐标系下腰部位姿的估计,得到所述本体坐标系下腰部位姿估计值,根据所述待处理的等效串联关节角估计值和所述本体坐标系下腰部位姿估计值进行在所述本体坐标系下的等效串联正运动学计算,得到所述本体坐标系下腿部位姿估计值,其中,所述本体坐标系下腿部位姿估计值包括:本体坐标系下左脚位姿估计值和本体坐标系下右脚位姿估计值;
世界坐标系下质心位姿估计值确定模块,用于根据所述本体坐标系下腿部位姿估计值、所述第一状态估计值、所述第二状态估计值和所述第三状态估计值进行在世界坐标系下的世界坐标系下质心位姿的估计,得到世界坐标系下质心位姿估计值。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110634737.9A CN113253748B (zh) | 2021-06-08 | 2021-06-08 | 并联构型仿人机器人的状态估计方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110634737.9A CN113253748B (zh) | 2021-06-08 | 2021-06-08 | 并联构型仿人机器人的状态估计方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113253748A CN113253748A (zh) | 2021-08-13 |
CN113253748B true CN113253748B (zh) | 2022-02-22 |
Family
ID=77186945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110634737.9A Active CN113253748B (zh) | 2021-06-08 | 2021-06-08 | 并联构型仿人机器人的状态估计方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113253748B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117503120B (zh) * | 2023-12-18 | 2024-04-16 | 北京铸正机器人有限公司 | 人体姿态估计方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1590039A (zh) * | 2003-08-25 | 2005-03-09 | 索尼株式会社 | 机器人及机器人的姿态控制方法 |
CN111086001A (zh) * | 2019-12-25 | 2020-05-01 | 广东省智能制造研究所 | 一种足式机器人多模态感知的状态估计方法及系统 |
CN111121768A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 一种机器人位姿估计方法、装置、可读存储介质及机器人 |
CN111160298A (zh) * | 2019-12-31 | 2020-05-15 | 深圳市优必选科技股份有限公司 | 一种机器人及其位姿估计方法和装置 |
CN111380514A (zh) * | 2018-12-29 | 2020-07-07 | 深圳市优必选科技有限公司 | 机器人位姿估计方法、装置、终端及计算机存储介质 |
CN111993391A (zh) * | 2020-08-25 | 2020-11-27 | 深圳市优必选科技股份有限公司 | 机器人位姿估计方法、装置、仿人机器人及存储介质 |
CN112720483A (zh) * | 2020-12-23 | 2021-04-30 | 深圳市优必选科技股份有限公司 | 合质心状态获取方法、装置、仿人机器人和可读存储介质 |
CN112744313A (zh) * | 2020-12-24 | 2021-05-04 | 深圳市优必选科技股份有限公司 | 一种机器人状态估计方法、装置、可读存储介质及机器人 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6497185B2 (ja) * | 2015-04-09 | 2019-04-10 | 本田技研工業株式会社 | 自律移動装置および自律移動装置の制御方法 |
-
2021
- 2021-06-08 CN CN202110634737.9A patent/CN113253748B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1590039A (zh) * | 2003-08-25 | 2005-03-09 | 索尼株式会社 | 机器人及机器人的姿态控制方法 |
CN111380514A (zh) * | 2018-12-29 | 2020-07-07 | 深圳市优必选科技有限公司 | 机器人位姿估计方法、装置、终端及计算机存储介质 |
CN111121768A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 一种机器人位姿估计方法、装置、可读存储介质及机器人 |
CN111086001A (zh) * | 2019-12-25 | 2020-05-01 | 广东省智能制造研究所 | 一种足式机器人多模态感知的状态估计方法及系统 |
CN111160298A (zh) * | 2019-12-31 | 2020-05-15 | 深圳市优必选科技股份有限公司 | 一种机器人及其位姿估计方法和装置 |
CN111993391A (zh) * | 2020-08-25 | 2020-11-27 | 深圳市优必选科技股份有限公司 | 机器人位姿估计方法、装置、仿人机器人及存储介质 |
CN112720483A (zh) * | 2020-12-23 | 2021-04-30 | 深圳市优必选科技股份有限公司 | 合质心状态获取方法、装置、仿人机器人和可读存储介质 |
CN112744313A (zh) * | 2020-12-24 | 2021-05-04 | 深圳市优必选科技股份有限公司 | 一种机器人状态估计方法、装置、可读存储介质及机器人 |
Non-Patent Citations (1)
Title |
---|
SLAM过程中的机器人位姿估计优化算法研究;禹鑫燚 等;《高技术通讯》;20181231;第28卷(第8期);第712-718页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113253748A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Model identification and control design for a humanoid robot | |
Giorelli et al. | Learning the inverse kinetics of an octopus-like manipulator in three-dimensional space | |
Carpentier et al. | Center-of-mass estimation for a polyarticulated system in contact—a spectral approach | |
EP2406041B1 (en) | Robot apparatus and control method therefor | |
US9260147B2 (en) | Dynamic predictor for articulated mechanisms | |
CN113253748B (zh) | 并联构型仿人机器人的状态估计方法、装置、设备及介质 | |
CN112123341B (zh) | 机器人双臂协调运动控制方法、装置和电子设备 | |
Michaud et al. | biorbd: A c++, python and matlab library to analyze and simulate the human body biomechanics | |
Kuehn et al. | Additional DOFs and sensors for bio-inspired locomotion: Towards active spine, ankle joints, and feet for a quadruped robot | |
Perrusquía et al. | Robot position/force control in unknown environment using hybrid reinforcement learning | |
Rodríguez-Abreo et al. | Backstepping control for a UAV-manipulator tuned by Cuckoo Search algorithm | |
CN115533916A (zh) | 一种机械臂末端负载质量辨识方法、系统、设备及介质 | |
Bailly et al. | Estimating the center of mass and the angular momentum derivative for legged locomotion—a recursive approach | |
Tang et al. | Learning-based approach for a soft assistive robotic arm to achieve simultaneous position and force control | |
Kazemipour et al. | Adaptive Control of a Soft Continuum Manipulator | |
Saeedvand et al. | Novel lightweight odometric learning method for humanoid robot localization | |
WO2022141268A1 (zh) | 一种仿人机器人控制方法、计算机设备及存储介质 | |
Ayusawa et al. | Identification of standard inertial parameters for large-dof robots considering physical consistency | |
Yatsun et al. | Simulation of Interaction between an Operator and an Exoskeleton | |
Parsa et al. | Pose-and-twist estimation of a rigid body using accelerometers | |
Jang et al. | Toward on-line parameter estimation of concentric tube robots using a mechanics-based kinematic model | |
Hwang et al. | Intuitive gait pattern generation for an exoskeleton robot | |
CN113465822A (zh) | 基于多刚体机器人的质心位置计算方法、装置及介质 | |
Pulloquinga et al. | Trajectory planner for type II singularities avoidance based on output twist screws | |
Safeena et al. | Survey paper on the Forward Kinematics Solution of a Stewart Platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |