CN108621201A - 一种足式机器人本体状态测量方法 - Google Patents

一种足式机器人本体状态测量方法 Download PDF

Info

Publication number
CN108621201A
CN108621201A CN201810433262.5A CN201810433262A CN108621201A CN 108621201 A CN108621201 A CN 108621201A CN 201810433262 A CN201810433262 A CN 201810433262A CN 108621201 A CN108621201 A CN 108621201A
Authority
CN
China
Prior art keywords
robot
camera
detected machine
bulk state
machine people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810433262.5A
Other languages
English (en)
Other versions
CN108621201B (zh
Inventor
马宏绪
司振飞
韦庆
安宏雷
王剑
张芷僮
王发林
刘轶
杨宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201810433262.5A priority Critical patent/CN108621201B/zh
Publication of CN108621201A publication Critical patent/CN108621201A/zh
Application granted granted Critical
Publication of CN108621201B publication Critical patent/CN108621201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0095Means or methods for testing manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis

Abstract

本发明公开一种足式机器人本体状态测量方法,步骤包括:S1.搭建动作捕捉系统:在目标测量区域内布置多个捕捉摄像头,各个捕捉摄像头的采集方向朝向目标测量区域的中心区域;S2.将待测机器人布置在目标测量区域的中心区域;当待测机器人动作时,动作捕捉系统中各捕捉摄像头采集待测机器人的运动状态信息;S3.分别接收各捕捉摄像头采集到的运动状态信息,并根据接收到的信息计算得到机器人本体状态的测量值。本发明具有实现方法简单、数据处理量小以及测量效率及精度高等优点。

Description

一种足式机器人本体状态测量方法
技术领域
本发明涉及足式机器人技术领域,尤其涉及一种足式机器人本体状态测量方法。
背景技术
足式机器人是模仿人或动物等设计制造的一类机器人,腿部采用串联多关节结构。根据模仿对象与需求任务的不同,足式机器人又可以分成几大类:1、单足机器人,用于模仿哺乳动物单腿进行弹跳功能研究;2、双足步行机器人,用于模仿人类进行稳定行走、小跑、交互等功能研究;3、四足机器人,用于模仿狗、猫、马、猎豹等四足哺乳动物进行稳定性、柔顺性、负载能力、环境适应性研究;4、多足机器人,用于模仿蜘蛛、蜈蚣等爬行类昆虫用于危险狭小空间探索、救援等任务研发。
足式机器人技术研究的重要目标是使其能够像所模仿的动物一样拥有在现实世界行走运动的能力,其中感知能力是尤其重要的一项内容。一般来讲,机器人的感知可以分成两大类:一是对外部环境的感知,包括足端与地面的接触情况、是否有障碍物、障碍物的位置、外部的干扰等等,可以用来进行避障与越障等;二是对自身状态的感知,包括腿部的弯曲程度、关节的运动情况、本体的加速度、速度、位置、运动方向、姿态角等,用于控制中反馈可以提高控制器效果,提升机器人运动性能。
足式机器人本体速度与位置状态的准确测量,不仅能够更为精确描述机器人在现实世界中的运动状态,同时可以为相关的控制提供高质量的输入与反馈信号,提高控制效果与机器人性能。目前针对足式机器人的状态一般是基于感知的估计方法,感知的信息来源一般是各种各样的传感器,主要包括惯性导航器件(IMU)、GPS定位系统、雷达、摄像头、关节位移传感器、关节力传感器、足端力传感器等等,再由各类传感器的信息对足式机器人的本体状态进行估计,如采用IMU的惯导建模解算或基于内部传感器的运动学建模分析估计方法,但是上述估计方法的实现过程复杂、数据处理量较大,且各类估计方法均存在一定的缺陷,如惯导解算方法短时精准,但会随时间积累产生漂移,漂移主要来源于IMU的器件偏差、积分算法误差等;运动学分析不会产生漂移,但是存在大量噪声,尤其是机器人落地时的震荡、冲击等带来的尖峰噪声,无法通过普通的滤波算法消除。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种实现方法简单、数据处理量小、测量效率及精度高的足式机器人本体状态测量方法。
为解决上述技术问题,本发明提出的技术方案为:
一种足式机器人本体状态测量方法,步骤包括:
S1.搭建动作捕捉系统:在目标测量区域内布置多个捕捉摄像头,各个所述捕捉摄像头的采集方向朝向目标测量区域的中心区域;
S2.将待测机器人布置在所述目标测量区域的中心区域;当待测机器人动作时,所述动作捕捉系统中各捕捉摄像头采集待测机器人的运动状态信息;
S3.分别接收各所述捕捉摄像头采集到的运动状态信息,并根据接收到的信息计算得到机器人本体状态的测量值。
作为本发明的进一步改进,所述步骤S1的具体步骤为:在方形测量区域的四个顶角处分别布置一个捕捉摄像头,调整各所述捕捉摄像头的高度、朝向、仰角以及焦距,使各所述捕捉摄像头的采集方向朝向所述方形测量区域的中心区域。
作为本发明的进一步改进,所述步骤S1中还包括对所述动作捕捉系统的参考坐标系及有效捕捉区域进行标定的步骤,具体步骤为:将坐标系辅助设备放置于各所述捕捉摄像头所形成的区域的中心位置,将带有标记点的标定设备在该区域内上下运动,不断旋转方向直至各所述捕捉摄像头的捕捉区域均被覆盖,完成标定。
作为本发明的进一步改进:所述步骤S2中布置待测机器人时,具体使待测机器人的前进方向与所述动作捕捉系统标定的X轴方向平行,并将初始时刻本体固连系作为运动时的参考惯性系。
作为本发明的进一步改进:所述步骤S2中各捕捉摄像头采集待测机器人的运动状态信息时,具体预先在待测机器人的本体骨架上布置多个标记点,待测机器人动作时采集各标记点的运动状态信息,并作为待测机器人的运动状态信息输出。
作为本发明的进一步改进:所述步骤S3中具体取各所述捕捉摄像头采集到的运动状态信息的平均值作为机器人本体状态的测量值。
作为本发明的进一步改进,所述步骤S3后还包括基于待测机器人上布置的传感器的信息,对待测机器人的本体状态进行估计,得到本体状态估计值,将得到的所述机器人本体状态的测量值与所述本体状态估计值进行比较,根据比较结果最终确定机器人的本体状态。
作为本发明的进一步改进,所述步骤S3后还包括基于待测机器人上布置的传感器的信息,对待测机器人的本体状态进行估计,得到本体状态估计值,将得到的所述机器人本体状态的测量值与所述本体状态估计值进行比较,根据比较结果最终确定机器人的本体状态。
作为本发明的进一步改进:所述进行比较时,具体计算所述动作捕捉系统的参考系与待测机器人的参考惯性系之间的偏角及各自原点的距离,根据计算到的所述偏角及原点的距离进行坐标系的转换,将所述动作捕捉系统的测量值转换到机器人参考惯性系中以实现比较。
作为本发明的进一步改进:所述对待测机器人的本体状态进行估计具体采用基于IMU的惯导解算估计方法或基于机器人内部传感器的运动学解算估计方法,或采用将所述惯导解算估计方法、运动学解算估计方法的结果融合得到最终估计结果的融合估计方法。
与现有技术相比,本发明的优点在于:
1)本发明足式机器人本体状态测量方法,通过搭建动作捕捉系统来测量机器人本体状态,基于计算机图形学与双目视觉原理,可以实现足式机器人本体状态的精确测量,解决传统估计方法存在的问题,避免如基于惯导IMU解算方法产生累积误差、漂移,以及避免如基于运动学解算方法产生大量噪声等,可以适用于各类足式机器人平台中实现本体状态测量。
2)本发明足式机器人本体状态测量方法,基于搭建的动作捕捉系统来测量机器人本体状态,所得到的测量值可以进一步作为真实值与估计方法的估计值进行比较,从而能够验证估计方法的有效性,在实时性与频率要求不高的情况下,还可以将该测量值作为反馈信号引入控制中,便于实现简单高效的控制。
附图说明
图1是本实施例足式机器人本体状态测量方法的实现流程示意图。
图2是本发明具体实施例中得到的动作捕捉系统标定结果示意图。
图3是本实施例中动作捕捉系统参考系与机器人参考惯性系转换的原理示意图。
具体实施方式
以下结合说明书附图和具体优选的实施例对本发明作进一步描述,但并不因此而限制本发明的保护范围。
如图1所示,本实施例足式机器人本体状态测量方法,步骤包括:
S1.搭建动作捕捉系统:在目标测量区域内布置多个捕捉摄像头,各个捕捉摄像头的采集方向朝向目标测量区域的中心区域;
S2.将待测机器人布置在目标测量区域的中心区域;当待测机器人动作时,动作捕捉系统中各捕捉摄像头采集待测机器人的运动状态信息,其中运动状态信息包括速度、位置信息;
S3.分别接收各捕捉摄像头采集到的运动状态信息,并根据接收到的信息计算得到机器人本体状态的测量值。
本实施例通过搭建动作捕捉系统来测量机器人本体状态,基于计算机图形学与双目视觉原理,可以实现足式机器人本体状态的精确测量,解决如惯导解算、运动学解算等传统估计方法存在的问题,避免如基于惯导IMU解算方法产生累积误差、漂移,以及避免如基于运动学解算方法产生大量噪声等,可以适用于各类足式机器人平台中实现本体状态测量。
由于本实施例是基于搭建的动作捕捉系统来测量机器人本体状态,所得到的测量值可以作为机器人本体状态的真实值,从而可以进一步将该测量值作为真实值与估计方法的估计值进行比较,实现估计方法有效性的验证,在实时性与频率要求不高的情况下,还可以将该测量值作为反馈信号引入控制中,便于实现简单高效的控制。
本实施例中,步骤S1的具体步骤为:在方形测量区域的四个顶角处分别布置一个捕捉摄像头,调整各捕捉摄像头的高度、朝向、仰角以及焦距,使各捕捉摄像头的采集方向朝向方形测量区域的中心区域。
在具体应用实施例中,动作捕捉系统主要由4个捕捉摄像头和后端控制器组成,4个捕捉摄像头分别与后端控制器连接,捕捉摄像头具体可采用Raptor系列实时被动式光学运动摄像头,后端控制器具体采用搭载有Cortex软件的计算机,将4个Raptor摄像头大致均匀地布置于正方形的四个顶角,通过线缆与安装有Cortex软件的计算机相连,调整摄像头的高度、朝向、仰角以及焦距,使各摄像头大致对准正方形的中心区域。
在测量标记物运动状况前,需要对动作捕捉系统的参考坐标系及有效捕捉区域进行标定。本实施例中,步骤S1中还包括对动作捕捉系统的参考坐标系及有效捕捉区域进行标定的步骤,具体步骤为:将坐标系辅助设备放置于四个捕捉摄像头所形成的区域的中心位置,将带有标记点的标定设备在该区域内上下运动,不断旋转方向直至Cortex软件中显示各捕捉摄像头的捕捉区域均被覆盖,完成标定。在具体应用实施例中得到的标定结果如图2所示,其中图(a)为各个摄像头捕捉区域的3D立体图,图(b)为各个摄像头捕捉区域的2D图。
搭建完成动作捕捉系统后将待测机器人布置在目标测量区域的中心区域,优选为布置在方形区域的中心位置,以便于各摄像头的状态采集。本实施例中,步骤S2中布置待测机器人时,具体使待测机器人的前进方向与动作捕捉系统标定的X轴方向平行,并将初始时刻本体固连系作为运动时的参考惯性系。
布置完成待测机器人后由动作捕捉系统实时捕捉待测机器人的运动状态信息,本实施例步骤S2中各捕捉摄像头采集待测机器人的运动状态信息时,具体预先在待测机器人的本体骨架上布置多个标记点,待测机器人动作时采集各标记点的运动状态信息,并作为待测机器人的运动状态信息输出。通过设置标记点的方式,可以便于摄像头进行观测、运动状态的采集。
动作捕捉系统中各个捕捉摄像头采集到待测机器人各个标记点的运行状态(速度、位置)后,综合各个捕捉摄像头采集的数据即可得到最终的机器人速度、位置的测量。本实施例中步骤S3中具体取各捕捉摄像头采集到的运动状态信息的平均值作为机器人本体状态的测量值,可以综合各个摄像头捕捉的信息得到精确的测量值。
在具体应用实施例中,待测机器人为四足机器人,为了便于摄像头观测,在四足机器人本体骨架上部的四个顶点处粘贴标记点,以动作捕捉系统对四个点的速度和位置测量的平均值作为机器人本体状态变量的真实值;布置待测机器人时,具体使机器人的前进方向与动捕系统标定的X轴方向平行,忽略IMU安装误差及平台误差,则IMU固连系与本体质心固连系平行,且机器人四腿稳定支撑时,本体固连系Z轴方向与与重力加速度方向相反,根据右手法则容易确定本体固连系的Y轴方向,同时以初始时刻本体固连系作为后续运动的参考惯性系。
受测量精度限制,动捕系统的测量范围较小,难以进行机器人的长距离行走实验,本实施例考虑上述特性,机器人动作时,具体以Trot踏步步态为基础,辅以侧推、前推等外力干扰,使机器人以对角步态在竖向、侧向做往复式运动,在前向则进行低速的往复式前进运动。
本实施例中,步骤S3后还包括基于待测机器人上布置的传感器的信息,对待测机器人的本体状态进行估计,得到本体状态估计值,将得到的机器人本体状态的测量值与本体状态估计值进行比较,根据比较结果最终确定机器人的本体状态,可以综合两种测量方式进一步提高机器人本体状态测量的精度,确保实现精确的本体状态监测。
本实施例中,进行比较时,具体计算动作捕捉系统的参考系与待测机器人的参考惯性系之间的偏角及各自原点的距离,根据计算到的偏角及原点的距离进行坐标系的转换,将动作捕捉系统的测量值转换到机器人参考惯性系中以实现比较。
由于在利用动捕系统测量值作为真实值与估计值进行比较时,需保证两者是在同一坐标系中,为减少误差,本实施例具体先根据四个标记点的位置计算动捕系统参考系与机器人参考惯性系之间的偏角及各自原点的距离,然后进行坐标系的转换,将动作捕捉系统的测量值转换到机器人参考惯性系中,如图3所示,其中{On-XnYnZn}为机器人惯性参考系,{Om-XmYmZm}为动作捕捉系统参考系,忽略平台误差,即认为两个坐标系Z轴方向一致,不考虑滚转与俯仰,只考虑偏航角α。
上述对待测机器人的本体状态进行估计,具体可采用基于IMU的惯导解算估计方法,也可采用基于机器人内部传感器的运动学解算估计方法,还可以采用将惯导解算估计方法、运动学解算估计方法的结果融合得到最终估计结果的融合估计方法等。
上述只是本发明的较佳实施例,并非对本发明作任何形式上的限制。虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明。因此,凡是未脱离本发明技术方案的内容,依据本发明技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均应落在本发明技术方案保护的范围内。

Claims (9)

1.一种足式机器人本体状态测量方法,其特征在于步骤包括:
S1.搭建动作捕捉系统:在目标测量区域内布置多个捕捉摄像头,各个所述捕捉摄像头的采集方向朝向目标测量区域的中心区域;
S2.将待测机器人布置在所述目标测量区域的中心区域;当待测机器人动作时,所述动作捕捉系统中各捕捉摄像头采集待测机器人的运动状态信息;
S3.分别接收各所述捕捉摄像头采集到的运动状态信息,并根据接收到的信息计算得到机器人本体状态的测量值。
2.根据权利要求1所述的足式机器人本体状态测量方法,其特征在于,所述步骤S1的具体步骤为:在方形测量区域的四个顶角处分别布置一个捕捉摄像头,调整各所述捕捉摄像头的高度、朝向、仰角以及焦距,使各所述捕捉摄像头的采集方向朝向所述方形测量区域的中心区域。
3.根据权利要求2所述的足式机器人本体状态测量方法,其特征在于,所述步骤S1中还包括对所述动作捕捉系统的参考坐标系及有效捕捉区域进行标定的步骤,具体步骤为:将坐标系辅助设备放置于各所述捕捉摄像头所形成的区域的中心位置,将带有标记点的标定设备在该区域内上下运动,不断旋转方向直至各所述捕捉摄像头的捕捉区域均被覆盖,完成标定。
4.根据权利要求1或2或3所述的足式机器人本体状态测量方法,其特征在于,所述步骤S2中布置待测机器人时,具体使待测机器人的前进方向与所述动作捕捉系统标定的X轴方向平行,并将初始时刻本体固连系作为运动时的参考惯性系。
5.根据权利要求1或2或3所述的足式机器人本体状态测量方法,其特征在于,所述步骤S2中各捕捉摄像头采集待测机器人的运动状态信息时,具体预先在待测机器人的本体骨架上布置多个标记点,待测机器人动作时采集各标记点的运动状态信息,并作为待测机器人的运动状态信息输出。
6.根据权利要求1或2或3所述的足式机器人本体状态测量方法,其特征在于,所述步骤S3中具体取各所述捕捉摄像头采集到的运动状态信息的平均值作为机器人本体状态的测量值。
7.根据权利要求1或2或3所述的足式机器人本体状态测量方法,其特征在于,所述步骤S3后还包括基于待测机器人上布置的传感器的信息,对待测机器人的本体状态进行估计,得到本体状态估计值,将得到的所述机器人本体状态的测量值与所述本体状态估计值进行比较,根据比较结果最终确定机器人的本体状态。
8.根据权利要求7所述的足式机器人本体状态测量方法,其特征在于:所述进行比较时,具体计算所述动作捕捉系统的参考系与待测机器人的参考惯性系之间的偏角及各自原点的距离,根据计算到的所述偏角及原点的距离进行坐标系的转换,将所述动作捕捉系统的测量值转换到机器人参考惯性系中以实现比较。
9.根据权利要求8所述的足式机器人本体状态测量方法,其特征在于,所述对待测机器人的本体状态进行估计具体采用基于IMU的惯导解算估计方法或基于机器人内部传感器的运动学解算估计方法,或采用将所述惯导解算估计方法、运动学解算估计方法的结果融合得到最终估计结果的融合估计方法。
CN201810433262.5A 2018-05-08 2018-05-08 一种足式机器人本体状态测量方法 Active CN108621201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810433262.5A CN108621201B (zh) 2018-05-08 2018-05-08 一种足式机器人本体状态测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810433262.5A CN108621201B (zh) 2018-05-08 2018-05-08 一种足式机器人本体状态测量方法

Publications (2)

Publication Number Publication Date
CN108621201A true CN108621201A (zh) 2018-10-09
CN108621201B CN108621201B (zh) 2020-11-20

Family

ID=63695911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810433262.5A Active CN108621201B (zh) 2018-05-08 2018-05-08 一种足式机器人本体状态测量方法

Country Status (1)

Country Link
CN (1) CN108621201B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343546A (zh) * 2018-10-10 2019-02-15 上海海洋大学 一种潜水器六自由度运动实时测量系统
CN111238441A (zh) * 2020-02-14 2020-06-05 天津时空经纬测控技术有限公司 角度偏差测量方法、装置以及存储介质
CN111687841A (zh) * 2020-06-15 2020-09-22 中山大学 一种机器人弹跳高度控制方法、系统、装置及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102294695A (zh) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 机器人标定方法及标定系统
US20130256750A1 (en) * 2009-05-12 2013-10-03 Peter Steven Bui Tetra-lateral position sensing detector
CN103795935A (zh) * 2014-03-05 2014-05-14 吉林大学 一种基于图像校正的摄像式多目标定位方法及装置
CN104776832A (zh) * 2015-04-16 2015-07-15 浪潮软件集团有限公司 一种空间内物体的定位方法、机顶盒和系统
CN104858870A (zh) * 2015-05-15 2015-08-26 江南大学 基于末端编号靶球的工业机器人测量方法
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法
CN206291910U (zh) * 2016-12-22 2017-06-30 成都天府新区光启未来技术研究院 载体的姿态信息的获取系统
CN108225316A (zh) * 2016-12-22 2018-06-29 成都天府新区光启未来技术研究院 载体姿态信息的获取方法和装置及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130256750A1 (en) * 2009-05-12 2013-10-03 Peter Steven Bui Tetra-lateral position sensing detector
CN102294695A (zh) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 机器人标定方法及标定系统
CN103795935A (zh) * 2014-03-05 2014-05-14 吉林大学 一种基于图像校正的摄像式多目标定位方法及装置
CN104776832A (zh) * 2015-04-16 2015-07-15 浪潮软件集团有限公司 一种空间内物体的定位方法、机顶盒和系统
CN104858870A (zh) * 2015-05-15 2015-08-26 江南大学 基于末端编号靶球的工业机器人测量方法
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法
CN206291910U (zh) * 2016-12-22 2017-06-30 成都天府新区光启未来技术研究院 载体的姿态信息的获取系统
CN108225316A (zh) * 2016-12-22 2018-06-29 成都天府新区光启未来技术研究院 载体姿态信息的获取方法和装置及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘百奇等: "光纤陀螺IMU的六位置旋转现场标定新方法", 《光电工程》 *
韦争亮等: "单摄像机单投影仪三维测量系统标定技术", 《清华大学学报(自然科学版)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343546A (zh) * 2018-10-10 2019-02-15 上海海洋大学 一种潜水器六自由度运动实时测量系统
CN111238441A (zh) * 2020-02-14 2020-06-05 天津时空经纬测控技术有限公司 角度偏差测量方法、装置以及存储介质
CN111687841A (zh) * 2020-06-15 2020-09-22 中山大学 一种机器人弹跳高度控制方法、系统、装置及存储介质

Also Published As

Publication number Publication date
CN108621201B (zh) 2020-11-20

Similar Documents

Publication Publication Date Title
CN108621161B (zh) 基于多传感器信息融合的足式机器人本体状态估计方法
CN105929850B (zh) 一种具有持续锁定和跟踪目标能力的无人机系统与方法
US10528051B1 (en) Auto-height swing adjustment
US7865267B2 (en) Environment recognizing device, environment recognizing method, route planning device, route planning method and robot
CN108508430B (zh) 用于目标检测的激光雷达转动控制方法
CN108621201A (zh) 一种足式机器人本体状态测量方法
Fu et al. An integrated triangulation laser scanner for obstacle detection of miniature mobile robots in indoor environment
CN108073167A (zh) 一种基于深度相机与激光雷达的定位与导航方法
Murtra et al. IMU and cable encoder data fusion for in-pipe mobile robot localization
CN108563220A (zh) 仿人足球机器人的运动规划
CN112847356B (zh) 一种变电站足式巡检机器人安全控制方法及系统
US10196104B1 (en) Terrain Evaluation for robot locomotion
CN105045276A (zh) 无人机飞行控制方法及装置
US20210323618A1 (en) Identifying Stairs from Footfalls
Poorghasem et al. Review of robot-based automated measurement of vibration for civil engineering structures
Heppner et al. Enhancing sensor capabilities of walking robots through cooperative exploration with aerial robots
JP6026393B2 (ja) 移動装置
CN116352722A (zh) 多传感器融合的矿山巡检救援机器人及其控制方法
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
KR101963643B1 (ko) 식물의 표현형 분석을 위한 3d 영상 생성 방법 및 그 시스템
CN110393171B (zh) 昆虫弹跳行为和力学观测方法
Wang et al. Obstacle detection and obstacle-surmounting planning for a wheel-legged robot based on Lidar
KR102172362B1 (ko) 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법
US20220291686A1 (en) Self-location estimation device, autonomous mobile body, self-location estimation method, and program
Roennau et al. Adaptation of a six-legged walking robot to its local environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant