CN114216456A - 一种基于imu与机器人本体参数融合的姿态测量方法 - Google Patents
一种基于imu与机器人本体参数融合的姿态测量方法 Download PDFInfo
- Publication number
- CN114216456A CN114216456A CN202111426697.5A CN202111426697A CN114216456A CN 114216456 A CN114216456 A CN 114216456A CN 202111426697 A CN202111426697 A CN 202111426697A CN 114216456 A CN114216456 A CN 114216456A
- Authority
- CN
- China
- Prior art keywords
- robot
- imu
- attitude
- measurement
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000000691 measurement method Methods 0.000 title claims abstract description 13
- 238000005259 measurement Methods 0.000 claims abstract description 62
- 238000004364 calculation method Methods 0.000 claims abstract description 25
- 238000001914 filtration Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000014616 translation Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011326 mechanical measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
- G01C21/188—Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于IMU与机器人本体参数融合的姿态测量方法,通过配置机器人通讯接口读取本体参数,采用D‑H建模求解得到基于机器人本体参数的末端姿态角。固定在机器人末端的陀螺仪和加速度计组成外部惯性测量单元,将测得的数据利用卡尔曼滤波思想进行姿态解算,得到基于IMU的机器人末端姿态角。以基于外部IMU测量解算得到的末端姿态角作为先验预测量,以基于机器人本体参数解得的末端姿态角作为量测量进行后验更新,采用卡尔曼滤波进行数据融合,得到基于IMU与机器人本体参数融合的姿态角。本发明将外部IMU与机器人本体参数相结合,不仅可以降低由于惯性传感器漂移、积分计算造成的累积误差,提高姿态测量精度,而且无需添加外部大型测量设备。
Description
技术领域
本发明涉及一种工业机器人末端姿态测量方法,特别是基于IMU与机器人本体参数融合的末端姿态测量方法,属于精密测量领域。
背景技术
工业机器人是制造的关键装备,机器人末端姿态的控制精度直接影响了机器人加工、焊接、测量等应用的精度,准确的姿态测量是机器人精确控制的前提。目前,工业机器人姿态的测量可以通过多种方法实现,主要有惯性测量法(Inertial Measurement Unit,IMU)、光学姿态测量法、视觉测量法、机械式测量法等。其中基于IMU的机器人末端姿态测量方法具有实时性好,测量速度快,设备体积小等优点,测量时不受空间大小的限制,方便携带与安装,适用于对测量精度、动态性能、实时性均有较高要求的领域,更适合在工业现场中推广。
惯性测量单元由陀螺仪和加速度计组成。在实际应用中,受传感器自身特性的影响,陀螺仪容易发生漂移,误差会随时间的推移而累积;加速度计静态性能较好,但是动态性能差,且通过积分计算会使误差累积更大,这些都导致基于IMU的姿态测量误差增大。因此有必要发明一种基于IMU与机器人本体参数融合的末端姿态高精度测量方法,提高基于IMU的机器人末端姿态测量精度。
发明内容
本发明针对基于IMU的机器人末端姿态测量中,由于陀螺仪漂移和积分计算产生的累积误差的问题,提供了一种基于IMU与机器人本体参数融合的姿态测量方法。该方法能够降低由于漂移、积分累积造成的误差,大大提高惯性测量方法的精度,而且无需额外添加视觉,激光跟踪仪等外部测量设备,简单便携,更适用于在复杂生产现场的应用。
为了达到上述目的,本发明采用基于IMU与机器人本体参数融合的姿态测量方法,包括以下步骤:
步骤1:定义欧拉角旋转顺序,得到旋转矩阵。工业机器人的姿态定义为末端工具坐标系(b系)相对于机器人基坐标系(n系)的转换关系,由分别绕Z、Y、X坐标轴的旋转角度A、B、C决定。不同的旋转顺序对应得到的旋转矩阵不同。定义欧拉角旋转顺序为Z-Y-X,依次绕Z轴旋转A角度,绕Y轴旋转B角度,绕X轴旋转C角度。根据指定旋转顺序得到由欧拉角表示的旋转矩阵:
步骤2:建立D-H运动学模型,D-H模型通过使用四个参数来表示串联型工业机器人各连杆之间坐标系的转换关系,分别为:连杆长度ai、连杆扭转角αi、连杆偏移量di、关节角θi。通过D-H模型可获得工具坐标系和基坐标系的转换关系。其中连杆长度、扭转角和偏移量为系统参数,根据机器人结构获取并进行标定。关节角通过配置机器人通讯接口,实现机器人控制系统和上位机的数据交换,实时读取获得。通过两次绕轴旋转和两次沿轴平移将连杆坐标系Ci转换到连杆坐标系Ci+1。转换矩阵为:
Rot(Z,θi)表示绕Ci坐标系的Z轴旋转θ°,Trans(Z,di)表示沿坐标系的Z轴平移距离dmm,Trans(X,ai)表示沿坐标系的X轴平移距离amm,Rot(X,αi)表示绕坐标系X轴旋转α°
通过上述矩阵可以将机器人末端工具坐标系与位于机器人底部的基坐标系联系起来。以六轴机器人为例,可得到包含机器人末端姿态信息的矩阵T:
T=T1T2T3T4T5T6
步骤3:搭建末端惯性测量系统,获取惯性测量数据。将高精度集成惯性传感器(由三轴陀螺仪、三轴加速度计组成)安装到机器人末端的法兰盘中心,采用串口通信方式,利用串口转换模块连接至上位机。测量前,在上位机设置采样频率、波特率、量程、输出量等参数,并对传感器进行初始校准。然后通过串口通信将测量数据(角速度、加速度数据)传输到上位机保存。
步骤4:根据步骤3中IMU测得的角速度、加速度信息,利用卡尔曼滤波思想求解得到基于IMU的末端姿态角。
1)根据陀螺仪建立状态方程,进行状态更新(先验估计)。根据捷联惯性导航理论,建立四元数微分方程:
其中,q(t)=[q0,q1,q2,q3],表示姿态四元数,Mω(t)为b系相对于n系的角速度矩阵,由IMU中的陀螺仪测量得到:
ωx(t),ωy(t),ωz(t)为t时刻末端惯性坐标系X,Y,Z三个坐标轴方向上的角速度。
将四元数微分方程展开矩阵形式为:
其中,ωx,ωy,ωz为X,Y,Z三个坐标轴方向上陀螺仪测得的角速度。
利用陀螺仪数据对姿态进行先验状态估计,采用四阶龙格库塔法求解微分方程,得到先验状态方程为:
则状态转移矩阵为Gk:
然后计算先验状态协方差:
2)根据加速度计数据建立量测方程,进行量测更新(后验校正)。四元数法表示的b系到n系坐标系转换矩阵为:
对每一个自变量q0,q1,q2,q3求偏导,得到量测方程的雅克比矩阵:
其中,R为量测噪声协方差,来源于加速度计。
根据加速度计实际测量值来更新后验状态:
最后更新后验协方差:
其中,Pk为后验协方差,I为单位矩阵。
3)结合四元数矩阵解得基于IMU的末端姿态角:
步骤5:利用卡尔曼滤波算法对由安装在机器人末端的IMU测量解算得到的姿态角和由机器人本体参数通过D-H建模解算得到的末端姿态角进行融合。融合过程中,选取末端姿态角A、B、C作为系统的状态向量:
x=[A,B,C]
将基于末端外部IMU得到的姿态角作为预测信息,将基于机器人本体得到的末端姿态角作为量测信息。
1)状态更新
根据IMU解算得到的姿态角进行先验状态估计并计算先验协方差:
2)量测更新
根据机器人本体参数建模解算得到的姿态角进行量测更新。首先计算卡尔曼增益Kk:
其中,R为量测噪声协方差,来源于机器人本体,Hk=I3×3,I表示单位矩阵。
然后基于机器人本体参数解算结果来更新后验状态:
最后更新后验协方差:
其中,I表示单位矩阵。
本发明的有益效果为:本发明将基于IMU与机器人本体参数得到的姿态角信息作为状态量进行融合,解算得到末端姿态角:A—横滚角(roll)、B—俯仰角(pitch)、C—偏航角(yaw)。与机器人本体信息融合的思想不仅可以降低由惯性传感器的漂移以及积分计算造成的累积误差,提高姿态精度;而且避免了添加外部大型测量设备,如视觉、光学测量仪器。该方法不受测量空间大小的影响,外部只需体积较小的惯性传感器即可实现高精度姿态测量,成本低,实时性好,简易便携,不仅能在实验室环境下测量,也适用于复杂生产现场的测量应用。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面对附图做简单介绍:
附图说明
图1为基于IMU与机器人本体参数融合的原理框图。
图2为测量系统结构示意图。
图3为KUKAKR6 R700机器人坐标系旋转示意图。
图4为KUKAKR6 R700机器人D-H模型图。
图5为单IMU测量和基于IMU与机器人本体参数融合的结果对比图。
具体实施方式:
下面结合附图和具体实施方式对本发明作进一步详细说明。
基于IMU与机器人本体参数融合的末端姿态测量方法原理框图如图1所示。通过外部IMU测量数据和机器人本体参数数据进行融合,得到基于IMU与机器人本体参数融合的姿态角。系统结构示意图如图2所示。
步骤1:本实施例以KUKA KR6 R700型工业机器人为测量对象。其基坐标系和工具坐标系的转换关系示意图如图3所示。工业机器人的姿态定义为工具坐标系(b系)相对于机器人基坐标系(n系)的转换关系。定义欧拉角旋转顺序为Z-Y-X,依次绕Z轴旋转A角度,绕Y轴旋转B角度,绕X轴旋转C角度。得到由欧拉角表示的旋转矩阵:
步骤2:建立D-H运动学模型,通过使用连杆长度ai、连杆扭转角αi、连杆偏移量di、关节角θi四个D-H参数表示串联型工业机器人各连杆之间的坐标系转换关系。通过D-H模型可以获得机器人基坐标系与末端工具坐标系之间的转换关系。通过两次绕轴旋转和两次沿轴平移将Ci转换到Ci+1连杆坐标系,转换矩阵为:
其中,Rot(Z,θi)表示绕Ci坐标系的Z轴旋转θ°,Trans(Z,di)表示沿坐标系的Z轴平移距离d mm,Trans(X,ai)表示沿坐标系的X轴平移距离a mm,Rot(X,αi)表示绕坐标系X轴旋转α°。
四个D-H参数中,连杆长度、连杆扭转角和连杆偏移量为系统参数,根据机器人结构获取并进行标定。关节角通过实时读取机器人各轴编码器数据获得,需要配置机器人通讯接口。配置过程为:采用基于以太网的通信方式,配置KUKA工业机器人内部集成的通讯接口RSI(Robot Sensor Interface)对象ETHERNET的输入输出,以XML的形式与外部系统进行交互。配置传感器系统和接口的连接参数、数据交换方向、发送结构,设置通讯周期为12ms。编程控制机器人运动,实时读取机器人各关节角[θ1,θ2,θ3,θ4,θ5,θ6]并保存。初始各关节角为[0,90,-90,0,0,0](单位:°)。
本发明的实施例对象KUKAKR6 R700型号工业机器人,其关节角运动范围如表1,其D-H参数如表2。机器人D-H模型示意图如图4所示。
表1关节角运动范围
表2 KUKA KR6 R700机器人D-H参数表
将通过RSI通信读取的关节角[θ1,θ2,θ3,θ4,θ5,θ6]及其它三个连杆参数代入转换矩阵,通过下式即可求得机器人末端矩阵:
其中,Ti(i=1~6)为各连杆坐标系之间的转换矩阵,具体为:
其中,nij为矩阵T中的各元素:
n11=cosθ1[(-cosθ4cosθ5+sinθ5sinθ6)cos(θ2+θ3)-sinθ5cosθ6sin(θ2+θ3)]-sinθ1(cosθ4sinθ6+sinθ4cosθ5)
n21=sinθ1[(sinθ4sinθ6-cosθ4cosθ5)cos(θ2+θ3)-sinθ4sinθ6sin(θ2+θ3)]-cosθ1(cosθ4sinθ6-sinθ4cosθ5)
n31=sin(θ2+θ3)[sinθ4sinθ6+cosθ4cosθ5cosθ6]+cos(θ2+θ3)sinθ5cosθ6
n12=-cosθ1{sinθ5sinθ6sin(θ2+θ3)+cos(θ2+θ3)[sinθ4cosθ6-cosθ4cosθ5]}+sinθ1(cosθ4sinθ5+cosθ5cosθ6)
n22=sinθ1{sinsinθ6sin(θ2+θ3)-cos(θ2+θ3)[sinθ4cosθ6-cosθ4cosθ5]}-cosθ1cos(θ4-θ5)
n32=(sinθ4cosθ6-cosθ4cosθ5sinθ6)sin(θ2+θ3)-sinθ5sinθ6cos(θ2+θ3)
n13=-cosθ1[sin(θ2+θ3)cosθ5+cos(θ2+θ3)cosθ4sinθ5]+sinθ1sinθ4sinθ5
n23=sinθ1sin(θ2+θ3-θ5)-cosθ1sinθ4sinθ5
n33=cos(θ2+θ3)cosθ5-sin(θ2+θ3)cosθ4sinθ5
步骤3:在机器人末端搭建惯性测量系统,获取实时惯性测量数据。本实施例采用JY901型号惯性传感器进行数据采集。该传感器内部集成高精度陀螺仪、加速度计。传感器支持串口和IIC两种数字接口,最高200Hz数据输出速率且0.1-200Hz可调节。角速度输出稳定性为0.05°/s,加速度输出稳定性为0.01g。将惯性传感器安装到机器人末端法兰盘中心,采用串口通信方式,通过串口转换模块连接至上位机。陀螺仪和加速度计量程设置为2000°/s和16g,采样频率设置为100Hz。
采集数据前,进行加速度计水平校准:将传感器静止放置在水平面上读取X,Y,Z三个坐标轴方向的补偿值分别为:-19,2,65(单位:10-3g),将补偿值写入上位机进行校准。然后编程控制机器人进行运动到达设定的测量点,实时测量并保存角速度、加速度数据用于进行惯性姿态解算。
步骤4:根据IMU测得的角速度、加速度数据进行姿态解算。安装时保持IMU坐标系与机器人工具坐标系一致,由于夹具加工误差、安装误差等原因,两坐标系间存在微小误差R:
其中,δx、δy、δz表示X,Y,Z三个坐标轴方向的误差。
采用矢量投影法求解出误差矩阵,通过误差矩阵R将惯性测量数据转换到工具坐标系下。以东北天大地坐标系作为导航坐标系,机器人基坐标系与大地坐标系一致。欧拉角表示姿态时的旋转顺序为Z-Y-X。求解姿态即求解两个坐标系之间的转换关系。采用四元数法进行姿态更新求解。求解姿态角过程如下:
1)根据陀螺仪建立状态方程,进行状态更新(先验估计)。
首先根据捷联惯性导航理论,建立四元数微分方程:
其中,q(t)为t时刻的姿态四元数,q(t)=[q0,q1,q2,q3],Mω(t)为b系相对于n系的角速度矩阵,由IMU中的陀螺仪测量得到:
其中,ωx(t),ωy(t),ωz(t)为t时刻末端工具坐标系X,Y,Z三个坐标轴方向上的角速度。
将四元数微分方程展开成矩阵形式:
其中,ωx,ωy,ωz为陀螺仪在三个坐标轴方向测得的角速度(单位:°/s)。
采用四阶龙格库塔法求解微分方程,得到其近似解,由此建立先验状态方程:
最后进行状态更新,并计算先验状态协方差:
2)根据加速度计的数据进行量测更新,即后验校正。四元数法表示的b系到n系坐标系转换矩阵为:
对每一个自变量q0,q1,q2,q3求偏导,得到量测方程的雅克比矩阵Hk:
然后计算卡尔曼增益Kk:
其中,R为量测噪声协方差,来源于加速度计。
根据加速度计实际测量值来更新后验状态:
最后更新后验协方差:
其中,Pk为后验协方差,I为单位矩阵。
步骤5:根据步骤二和步骤四得到的两组机器人末端姿态角计算结果,利用扩展卡尔曼滤波算法进行融合。融合过程中,选取三个姿态角作为系统的状态向量,即:
x=[A,B,C]
利用基于末端外部IMU得到的姿态角作为预测信息进行状态更新,利用基于机器人本体参数计算得到的末端姿态角作为量测信息进行量测更新。
1)状态更新
根据IMU解算得到的姿态角建立状态方程为:
x=[Aimu,Bimu,Cimu]
利用IMU状态方程对姿态进行先验状态估计并计算先验状态协方差:
2)量测更新
首先需要计算卡尔曼增益:
其中,Hk=I3×3,R为量测噪声协方差,来源于机器人本体。
根据利用机器人本体参数运动学建模解算得到的末端姿态角建立量测方程,进行后验状态更新:
zk=[Arsi,Brsi,Crsi]
其中,I表示单位矩阵。由此可以得到基于IMU与机器人本体参数融合的末端姿态角:Aekf,Bekf,Cekf。
利用本发明方法,选取测量点对末端姿态进行测量解算。为了分析本发明方法的有效性和测量精度,本实施例中,编程控制机器人轴1、轴4、轴5分别转动30°,并以单独采用IMU进行测量的数据进行比对,验证基于IMU与机器人本体参数融合的姿态测量方法的精度,三个测量点的姿态解算结果见表3。以测量点1为例进行分析,单独使用IMU测量解算和基于IMU与机器人本体参数融合解算的结果对比如图5所示。其中,蓝色线表示IMU解算结果,红色线表示IMU与本体参数融合解算结果。可以看出,采用本发明方法融合解算的姿态比IMU测量解算的姿态误差明显减小,准确度大大提高,融合后三个姿态角误差比融合前分别减小了68.33%,61.93%,65.27%,误差均小于0.2°。
表3机器人末端姿态融合解算结果表
本实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应在本发明的保护范围之内。
Claims (2)
1.一种基于IMU与机器人本体参数融合的姿态测量方法,其特征在于,包括以下步骤:
步骤1:机器人末端工具姿态用与末端工具固连的工具坐标系与基座参考坐标系之间的转换关系描述;机器人基坐标系与大地坐标系重合,工具坐标系是以机器人末端中心点为坐标原点的坐标系;两坐标系间的转换关系由分别绕Z,Y,X三个坐标轴的旋转角度A,B,C决定;定义不同的旋转顺序,对应得到的转换关系不同;首先定义欧拉角旋转顺序为Z-Y-X,依次绕Z轴旋转A角度,绕Y轴旋转B角度,绕X轴旋转C角度,得到旋转矩阵;
步骤2:建立机器人D-H运动学模型,D-H模型通过使用连杆长度ai、连杆扭转角αi、连杆偏移量di和关节角θi四个参数来表示串联型工业机器人各连杆之间坐标系的转换关系,通过D-H模型获得工具坐标系和基坐标系的转换关系;其中连杆长度、连杆扭转角和连杆偏移量为系统参数,根据机器人结构获取并进行标定;关节角应实时获取,通过配置机器人通讯接口,实现机器人控制系统和上位机的数据交换,实时读取机器人各轴编码器数据;根据获得的关节角以及各连杆参数实时求解得到基于机器人本体参数的末端姿态角;
步骤3:在机器人末端搭建外部惯性测量系统;将高精度集成的惯性传感器安装到机器人末端法兰盘中心,采用串口通信方式,通过串口转换模块连接至上位机;设置采样参数并进行初始校准,通过上位机实时获取并保存角速度和加速度测量数据;
步骤4:根据陀螺仪测量得到的数据建立状态方程进行预测,利用加速度计测量数据进行校正,解算得到基于IMU的机器人末端姿态角;首先根据陀螺仪建立状态方程,进行状态更新;根据捷联惯性导航理论结合陀螺仪测得的角速度,得到四元数微分方程:
其中,q(t)=[q0,q1,q2,q3],表示姿态四元数,ωx,ωy,ωz为X,Y,Z三个坐标轴方向上陀螺仪测得的角速度;
求解微分方程,得到先验状态方程:
然后根据加速度计测得数据建立量测方程,进行量测更新;四元数法表示b系到n系坐标系转换矩阵为:
最后结合四元数矩阵解得基于IMU的机器人末端姿态角:
步骤5:利用卡尔曼滤波算法对步骤3和步骤4得到的末端姿态角进行融合,求解得到基于IMU与机器人本体参数融合的姿态角;利用末端外部IMU测量解算得到的姿态角进行状态更新:
xk=[Aimu,Bimu,Cimu]
利用本体参数经过运动学建模得到的末端姿态角进行量测更新:
zk=[Arsi,Brsi,Crsi]
2.根据权利要求1所述的一种基于IMU与机器人本体参数融合的姿态解算方法,其特征在于,所述步骤5中,用于量测更新的观测量是利用基于机器人本体参数建模解算得到,降低了单独使用IMU进行姿态解算的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111426697.5A CN114216456B (zh) | 2021-11-27 | 2021-11-27 | 一种基于imu与机器人本体参数融合的姿态测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111426697.5A CN114216456B (zh) | 2021-11-27 | 2021-11-27 | 一种基于imu与机器人本体参数融合的姿态测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114216456A true CN114216456A (zh) | 2022-03-22 |
CN114216456B CN114216456B (zh) | 2023-12-08 |
Family
ID=80698662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111426697.5A Active CN114216456B (zh) | 2021-11-27 | 2021-11-27 | 一种基于imu与机器人本体参数融合的姿态测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114216456B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114509071A (zh) * | 2022-04-20 | 2022-05-17 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种风洞试验模型姿态测量方法 |
CN114750153A (zh) * | 2022-04-13 | 2022-07-15 | 上海电气集团股份有限公司 | 机器人机械臂的运动控制系统、协作机器人及存储介质 |
CN115607143A (zh) * | 2022-11-10 | 2023-01-17 | 大连理工大学 | 一种基于无线实时姿态检测的脑机接口行为调控评价方法 |
WO2024037155A1 (zh) * | 2022-08-17 | 2024-02-22 | 腾讯科技(深圳)有限公司 | 用于足式机器人的状态估计方法、装置、计算机设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180231374A1 (en) * | 2017-02-13 | 2018-08-16 | National Tsing Hua University | Object pose measurement system based on mems imu and method thereof |
CN108621161A (zh) * | 2018-05-08 | 2018-10-09 | 中国人民解放军国防科技大学 | 基于多传感器信息融合的足式机器人本体状态估计方法 |
CN110146077A (zh) * | 2019-06-21 | 2019-08-20 | 台州知通科技有限公司 | 移动机器人姿态角解算方法 |
CN111649747A (zh) * | 2020-06-15 | 2020-09-11 | 中国计量科学研究院 | 一种基于imu的自适应ekf姿态测量改进方法 |
-
2021
- 2021-11-27 CN CN202111426697.5A patent/CN114216456B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180231374A1 (en) * | 2017-02-13 | 2018-08-16 | National Tsing Hua University | Object pose measurement system based on mems imu and method thereof |
CN108621161A (zh) * | 2018-05-08 | 2018-10-09 | 中国人民解放军国防科技大学 | 基于多传感器信息融合的足式机器人本体状态估计方法 |
CN110146077A (zh) * | 2019-06-21 | 2019-08-20 | 台州知通科技有限公司 | 移动机器人姿态角解算方法 |
WO2020253854A1 (zh) * | 2019-06-21 | 2020-12-24 | 台州知通科技有限公司 | 移动机器人姿态角解算方法 |
CN111649747A (zh) * | 2020-06-15 | 2020-09-11 | 中国计量科学研究院 | 一种基于imu的自适应ekf姿态测量改进方法 |
Non-Patent Citations (3)
Title |
---|
宋宇;翁新武;郭昕刚;: "基于四元数EKF算法的小型无人机姿态估计", 吉林大学学报(理学版), no. 03 * |
李睿等: "基于连续动态时间规整算法的工业机器人轨迹准确度分析", 光学精密工程 * |
班朝;任国营;王斌锐;陈相君;: "基于IMU的机器人姿态自适应EKF测量算法研究", 仪器仪表学报, no. 02 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114750153A (zh) * | 2022-04-13 | 2022-07-15 | 上海电气集团股份有限公司 | 机器人机械臂的运动控制系统、协作机器人及存储介质 |
CN114750153B (zh) * | 2022-04-13 | 2024-03-19 | 上海电气集团股份有限公司 | 机器人机械臂的运动控制系统、协作机器人及存储介质 |
CN114509071A (zh) * | 2022-04-20 | 2022-05-17 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种风洞试验模型姿态测量方法 |
WO2024037155A1 (zh) * | 2022-08-17 | 2024-02-22 | 腾讯科技(深圳)有限公司 | 用于足式机器人的状态估计方法、装置、计算机设备及计算机可读存储介质 |
CN115607143A (zh) * | 2022-11-10 | 2023-01-17 | 大连理工大学 | 一种基于无线实时姿态检测的脑机接口行为调控评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114216456B (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114216456B (zh) | 一种基于imu与机器人本体参数融合的姿态测量方法 | |
CN108297101B (zh) | 多关节臂串联机器人末端位姿误差检测和动态补偿方法 | |
CN108061855B (zh) | 一种基于mems传感器的球形电机转子位置检测方法 | |
CN107607113B (zh) | 一种两轴姿态倾角测量方法 | |
CN107639635B (zh) | 一种机械臂位姿误差标定方法及系统 | |
CN108656116B (zh) | 基于降维mcpc模型的串联机器人运动学参数标定方法 | |
CN110253574B (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
CN111238535B (zh) | 一种基于因子图的imu误差在线标定方法 | |
CN104697553B (zh) | 光纤陀螺捷联惯导系统加速度计内杆臂标定方法 | |
CN106767767A (zh) | 一种微纳多模星敏感器系统及其数据融合方法 | |
CN108759822B (zh) | 一种移动机器人3d定位系统 | |
CN111156997A (zh) | 一种基于相机内参在线标定的视觉/惯性组合导航方法 | |
CN109827571A (zh) | 一种无转台条件下的双加速度计标定方法 | |
CN107402007A (zh) | 一种提高微型ahrs模块精度的方法和微型ahrs模块 | |
CN114046800B (zh) | 一种基于双层滤波框架的高精度里程估计方法 | |
CN109282810A (zh) | 一种惯导和角度传感器融合的蛇形机器人姿态估计方法 | |
CN108592902B (zh) | 一种基于多传感器的定位设备及定位方法、系统和机械臂 | |
CN114926547A (zh) | 一种相机与imu的标定方法、电子设备及系统 | |
JP5378908B2 (ja) | ロボットの精度調整方法およびロボット | |
CN113733155B (zh) | 六轴工业机器人标定装置和标定方法 | |
CN111637892A (zh) | 一种基于视觉和惯性导航组合的移动机器人定位方法 | |
CN114459478B (zh) | 一种基于姿态运动学模型的惯性测量单元数据融合方法 | |
CN110779554A (zh) | 一种机械臂、基于imu的初始位姿的校准系统与方法 | |
CN116038721A (zh) | 一种无运动学参与的手眼标定方法和系统 | |
CN110095118A (zh) | 一种车身姿态角的实时测量方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |