CN114147717B - 机器人运动轨迹估计方法、装置、控制器及存储介质 - Google Patents
机器人运动轨迹估计方法、装置、控制器及存储介质 Download PDFInfo
- Publication number
- CN114147717B CN114147717B CN202111497652.7A CN202111497652A CN114147717B CN 114147717 B CN114147717 B CN 114147717B CN 202111497652 A CN202111497652 A CN 202111497652A CN 114147717 B CN114147717 B CN 114147717B
- Authority
- CN
- China
- Prior art keywords
- robot
- data
- gesture data
- state vector
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000001914 filtration Methods 0.000 claims abstract description 28
- 230000004927 fusion Effects 0.000 claims abstract description 24
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000007499 fusion processing Methods 0.000 abstract description 4
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种机器人运动轨迹估计方法、装置、控制器及存储介质,涉及数据处理技术领域。包括:根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数;根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;采用融合姿态数据,计算机器人的目标运动轨迹。惯性传感器的噪声参数可以在滤波融合的过程中,消除第一姿态数据所存在的误差,而且,对惯性传感器的第一姿态数据和视角传感器的第二姿态数据数据,可以弥补单一传感器的姿态数据所存在的确定,继而可以使得融合姿态数据更加准确,使得确定的机器人的目标运动轨迹也更加准确。
Description
技术领域
本发明涉及数据处理技术领域,具体而言,涉及一种机器人运动轨迹估计方法、装置、控制器及存储介质。
背景技术
随着信息技术、电子技术的发展,地面移动机器人作为人工智能的一个重要分支,在许多行业和领域获得广泛的应用。对于机器人的运动轨迹进行确定也成为了研究的热点。
相关技术中,里程计是一种利用传感器获得的数据来估计物体位置随时间的变化而改变的方法。机器人上可以设置有IMU(Inertial measurement unit,惯性测量单元)里程计,采用IMU里程计可以测量机器人在运动过程中的加速度以及姿态角,继而确定机器人的运动轨迹。
但是,相关技术中,机器人双足行走方式会影响IMU的精度,容易导致确定的机器人运动轨迹存在误差的问题。
发明内容
本发明的目的在于,针对上述现有技术中的不足,提供一种机器人运动轨迹估计方法、装置、控制器及存储介质,以便解决相关技术中机器人双足行走方式会影响IMU的精度,容易导致确定的机器人运动轨迹存在误差的问题。
为实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种机器人运动轨迹估计方法,包括:
根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数;
根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;
采用所述融合姿态数据,计算所述机器人的目标运动轨迹。
可选的,所述根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数,包括:
采用时间卷积网络,对所述第一姿态数据进行处理,得到所述噪声参数。
可选的,所述采用所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据之前,所述方法还包括:
对所述第一姿态数据和所述第二姿态数据进行坐标系转换,得到处于同一坐标系下的所述第一姿态数据和所述第二姿态数据。
可选的,所述根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据,包括:
根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述状态向量包括:所述惯性传感器的第一状态向量和所述视角传感器的第二状态向量。
可选的,所述根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,包括:
根据所述噪声参数,采用预先获取的所述机器人的状态向量和协方差,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述协方差为:所述第一状态向量和所述第二状态向量之间的协方差。
可选的,所述方法还包括:
若检测到所述第一姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新;或者,
若检测到所述第二姿态数据发生变化,则根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新;或者,
若检测到所述第一姿态数据和所述第二姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新,根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新。
第二方面,本发明实施例还提供了一种机器人运动轨迹估计装置,包括:
确定模块,用于根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数;
获取模块,用于根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;
计算模块,用于采用所述融合姿态数据,计算所述机器人的目标运动轨迹。
可选的,所述确定模块,还用于采用时间卷积网络,对所述第一姿态数据进行处理,得到所述噪声参数。
可选的,所述装置还包括:
转换模块,用于对所述第一姿态数据和所述第二姿态数据进行坐标系转换,得到处于同一坐标系下的所述第一姿态数据和所述第二姿态数据。
可选的,所述获取模块,还用于根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述状态向量包括:所述惯性传感器的第一状态向量和所述视角传感器的第二状态向量。
可选的,所述获取模块,还用于根据所述噪声参数,采用预先获取的所述机器人的状态向量和协方差,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述协方差为:所述第一状态向量和所述第二状态向量之间的协方差。
可选的,所述装置还包括:
更新模块,用于若检测到所述第一姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新;或者,若检测到所述第二姿态数据发生变化,则根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新;或者,若检测到所述第一姿态数据和所述第二姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新,根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新。
第三方面,本发明实施例还提供了一种控制器,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面任一项所述的机器人运动轨迹估计方法。
第四方面,本发明实施例还提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述第一方面任一项所述的机器人运动轨迹估计方法。
本发明的有益效果是:本申请实施例提供一种机器人运动轨迹估计方法,包括:根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数;根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;采用融合姿态数据,计算机器人的目标运动轨迹。惯性传感器的噪声参数可以在滤波融合的过程中,消除第一姿态数据所存在的误差,而且,对惯性传感器的第一姿态数据和视角传感器的第二姿态数据数据,可以弥补单一传感器的姿态数据所存在的确定,继而可以使得融合姿态数据更加准确,使得确定的机器人的目标运动轨迹也更加准确。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种机器人运动轨迹估计方法的流程示意图;
图2为本发明实施例提供的一种机器人运动轨迹估计方法的流程示意图;
图3为本发明实施例提供的一种机器人运动轨迹估计装置的结构示意图;
图4为本发明实施例提供的一种控制器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要说明的是,若出现术语“上”、“下”、等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该申请产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
此外,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
本申请实施例提供的一种机器人运动轨迹估计方法,其执行主体可以为控制器,该控制器可以为独立的,且能够与机器人的惯性传感器、视角传感器通信的设备;该控制器也可以为机器人中的控制器,本申请实施例对此不进行具体限制。以下以控制器为执行主体对本申请实施例提供的机器人运动轨迹估计方法进行解释说明。
图1为本发明实施例提供的一种机器人运动轨迹估计方法的流程示意图,如图1所示,该方法可以包括:
S101、根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数。
其中,机器人的惯性传感器可以为IMU(Inertial measurement unit,惯性测量单元)。可选的,机器人可以为双足机器人。
在一些实施方式中,控制器可以采用预设噪声参数确定算法或者预设噪声参数确定模型,根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数。
需要说明的是,惯性传感器采集的第一姿态数据,可以用于表征机器人的三轴姿态角数据以及加速度数据。
S102、根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据。
在一些实施方式中,控制器可以采用EFK(卡尔曼滤波器),根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据。
另外,视角传感器采集的第二姿态数据,可以表征机器人所处的环境数据,例如,图像数据、视角数据等等。
S103、采用融合姿态数据,计算机器人的目标运动轨迹。
其中,融合姿态数据可以更为准确的表征机器人的运动姿态。
在本申请实施例中,控制器通过融合里程计,采用融合姿态数据,计算机器人的目标运动轨迹。基于准确的机器人运动姿态,所确定机器人的目标运动轨迹也更为准确,以便实现机器人准确的定位和导航。
综上所述,本申请实施例提供一种机器人运动轨迹估计方法,包括:根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数;根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;采用融合姿态数据,计算机器人的目标运动轨迹。惯性传感器的噪声参数可以在滤波融合的过程中,消除第一姿态数据所存在的误差,而且,对惯性传感器的第一姿态数据和视角传感器的第二姿态数据数据,可以弥补单一传感器的姿态数据所存在的确定,继而可以使得融合姿态数据更加准确,使得确定的机器人的目标运动轨迹也更加准确。
可选的,上述S101中根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数的过程,可以包括:采用时间卷积网络,对第一姿态数据进行处理,得到噪声参数。
其中,时间卷积网络可以称为TCN(Temporal convolutional network,时序卷积网络)。
在本申请实施例中,控制器可以采用TCN基于CNN(Convolutional NeuralNetworks,卷积神经网络)处理时间序列预测问题,用于分析时间序列并获取序列特征。控制器可以将第一姿态数据输入TCN中,TCN可以输出第一姿态数据的噪声参数。
另外,该第一姿态数据的噪声参数可以用于输入至EFK数据融合算法中,以便对第一姿态数据和第二姿态数据进行融合。
需要说明的是,TCN估计的协方差噪声参数可以表示为:
IMU过程噪声参数被认为是由网络固定的,并且可以在训练期间学习。时间卷积网络的CNN层输出向量[zxzy],添加输出层后的网络N可以为表示为:其中,σx和σy为噪声参数。
另外,分析序列数据的TCN,主要特点为:卷积网络具有因果关系,保留数据历史信息,并遗忘无用信息;此模型的体系结构可以缩放和调整为任意长度,并且可以根据输出端所需的多个接口进行映射。
可选的,图2为本发明实施例提供的一种机器人运动轨迹估计方法的流程示意图,如图2所示,上述S102中采用噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据的过程之前,该方法还可以包括:
S201、对第一姿态数据和第二姿态数据进行坐标系转换,得到处于同一坐标系下的第一姿态数据和第二姿态数据。
其中,机器人中的惯性传感器和视角传感器设置在机器人的不同位置,因此,需要进行坐标系转换。
需要说明的是,控制器可以将第一姿态数据的坐标系转换为第二姿态数据的坐标系;或者,将第二姿态数据的坐标系转换为第一姿态数据的坐标系;或者,将第一姿态数据的坐标系和第二姿态数据的坐标系均转换为目标坐标系,本申请实施例对此不进行具体限制。
可选的,上述S102中根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据的过程,可以包括:
根据噪声参数,采用预先获取的机器人的状态向量,对第一姿态数据和第二姿态数据进行滤波融合,得到融合姿态数据。
其中,状态向量可以包括:惯性传感器的第一状态向量和视角传感器的第二状态向量。
需要说明的是,惯性传感器的第一状态向量和视角传感器的第二状态向量可以表示为角加速度Bω和相机的加速度Ba。
在一些实施方式中,预先获取的机器人的状态向量可以为:x=[Gr Gq Gv Bδa Bδω]T,其中,Gr为全局坐标,Gq为方向四元数,Gv为机器人速度,Bδa和Bδω为相机的加速度、角加速度偏移量。
在本申请实施例了,为了完成EFK,可以对预先获取的机器人的状态向量进行求导,得到求导后的状态向量v=[BVa BVδa BVω Bδω]T。另外,EFK的输入可以为加速度Ba和Bω。
可选的,上述S102中根据噪声参数,采用预先获取的机器人的状态向量,对第一姿态数据和第二姿态数据进行滤波融合,得到融合姿态数据的过程,可以包括:
根据噪声参数,采用预先获取的机器人的状态向量和协方差,对第一姿态数据和第二姿态数据进行滤波融合,得到融合姿态数据。
其中,协方差可以为:第一状态向量和第二状态向量之间的协方差。
在一些实施方式中,预先获取的协方差可以表示为P=FP+PFT+GQGT,其中,预先获取的机器人的状态向量X的雅克比行列式可以表示为:
另外,噪声的协方差可以表示为Q=E[vvT]。
可选的,该方法还可以包括:
若检测到第一姿态数据发生变化,则根据更新后的第一姿态数据,对第一状态向量和协方差进行更新;或者,
若检测到第二姿态数据发生变化,则根据更新后的第二姿态数据,对第一状态向量和协方差进行更新;或者,
若检测到第一姿态数据和第二姿态数据发生变化,则根据更新后的第一姿态数据,对第一状态向量和协方差进行更新,根据更新后的第二姿态数据,对第一状态向量和协方差进行更新。
需要说明的是,当第一姿态数据和/或第二姿态数据发生变化时,对第一姿态数据和/或第二姿态数据进行更新,协方差也进行更新,融合状态数据也会进行更新。
在本申请实施例中,更新过程可以补偿状态向量中机器人姿态的错误,采用下述计算等式,可以更新状态向量X以及协方差P。计算等式可以表示为X=-PHTR-1(Ba-Bδa-VR)以及P=-PHTR-1HP。其中,VR=R[G q -]Gg,q-表示机器人四元数的共轭形式,R是测量加速度的协方差矩阵,IMU测量的灵敏度矩阵可以表示为H。
在一些实施方式中,第二姿态数据可以表示为(Grvo,Gqvo),第一姿态数据可以表示为(Grodo,Gqodo),所以,状态向量可以表示为Xaug=[Gx Grvo Gqvo Grodo Gqodo]T,协方差可以表示为:
需要说明的是,当惯性传感器或视角传感器对应的里程有效时,更新扩展状态向量,否则保持为常量。Xavg,k=[Gxk,Grk-ny,Gqk-ny]T,其中,包含了上一时刻k-ny基于惯性传感器或视角传感器估计的姿态信息。在卡尔曼滤波的观测方程更新之后,扩展状态和相关的协方差会被下一时刻的估计更新进行重新扩展。
综上所述,本申请实施例提供一种机器人运动轨迹估计方法,包括:根据机器人的惯性传感器采集的第一姿态数据,确定惯性传感器的噪声参数;根据噪声参数,对第一姿态数据和机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;采用融合姿态数据,计算机器人的目标运动轨迹。惯性传感器的噪声参数可以在滤波融合的过程中,消除第一姿态数据所存在的误差,而且,对惯性传感器的第一姿态数据和视角传感器的第二姿态数据数据,可以弥补单一传感器的姿态数据所存在的确定,继而可以使得融合姿态数据更加准确,使得确定的机器人的目标运动轨迹也更加准确。
而且,所以从数据融合的角度,利用多个传感器的冗余和互补的特性来扩展里程计应用场景,并提高里程计估计精度,本节将惯性传感器和视觉传感器进行数据融合。在中小型双足机器人平台上,考虑计算机视觉对算力的需求,可以采用扩展卡尔曼滤波进行多传感器数据融合。
下述对用以执行本申请所提供的机器人运动轨迹估计方法的机器人运动轨迹估计装置、控制器及存储介质等进行说明,其具体的实现过程以及技术效果参见上述机器人运动轨迹估计方法的相关内容,下述不再赘述。
图3为本发明实施例提供的一种机器人运动轨迹估计装置的结构示意图,如图3所示,该装置可以包括:
确定模块301,用于根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数;
获取模块302,用于根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;
计算模块303,用于采用所述融合姿态数据,计算所述机器人的目标运动轨迹。
可选的,所述确定模块301,还用于采用时间卷积网络,对所述第一姿态数据进行处理,得到所述噪声参数。
可选的,所述装置还包括:
转换模块,用于对所述第一姿态数据和所述第二姿态数据进行坐标系转换,得到处于同一坐标系下的所述第一姿态数据和所述第二姿态数据。
可选的,所述获取模块302,还用于根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述状态向量包括:所述惯性传感器的第一状态向量和所述视角传感器的第二状态向量。
可选的,所述获取模块302,还用于根据所述噪声参数,采用预先获取的所述机器人的状态向量和协方差,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述协方差为:所述第一状态向量和所述第二状态向量之间的协方差。
可选的,所述装置还包括:
更新模块,用于若检测到所述第一姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新;或者,若检测到所述第二姿态数据发生变化,则根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新;或者,若检测到所述第一姿态数据和所述第二姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新,根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图4为本发明实施例提供的一种控制器的结构示意图,如图4所示,该控制器包括:处理器401、存储器402。
其中,存储器402用于存储程序,处理器401调用存储器402存储的程序,以执行上述方法实施例。具体实现方式和技术效果类似,这里不再赘述。
可选地,本发明还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述方法实施例。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种机器人运动轨迹估计方法,其特征在于,包括:
根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数;
根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;
采用所述融合姿态数据,计算所述机器人的目标运动轨迹;
所述根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据,包括:
根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述状态向量包括:所述惯性传感器的第一状态向量和所述视角传感器的第二状态向量;其中,所述机器人的状态向量为:其中,Gr为全局坐标,Gq为方向四元数,Gv为机器人速度,和/>为相机的加速度、角加速度偏移量。
2.根据权利要求1所述的方法,其特征在于,所述根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数,包括:
采用时间卷积网络,对所述第一姿态数据进行处理,得到所述噪声参数。
3.根据权利要求1所述的方法,其特征在于,所述采用所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据之前,所述方法还包括:
对所述第一姿态数据和所述第二姿态数据进行坐标系转换,得到处于同一坐标系下的所述第一姿态数据和所述第二姿态数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,包括:
根据所述噪声参数,采用预先获取的所述机器人的状态向量和协方差,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述协方差为:所述第一状态向量和所述第二状态向量之间的协方差。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
若检测到所述第一姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新;或者,
若检测到所述第二姿态数据发生变化,则根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新;或者,
若检测到所述第一姿态数据和所述第二姿态数据发生变化,则根据更新后的所述第一姿态数据,对所述第一状态向量和所述协方差进行更新,根据更新后的所述第二姿态数据,对所述第一状态向量和所述协方差进行更新。
6.一种机器人运动轨迹估计装置,其特征在于,包括:
确定模块,用于根据机器人的惯性传感器采集的第一姿态数据,确定所述惯性传感器的噪声参数;
获取模块,用于根据所述噪声参数,对所述第一姿态数据和所述机器人的视角传感器采集的第二姿态数据进行滤波融合,得到融合姿态数据;
计算模块,用于采用所述融合姿态数据,计算所述机器人的目标运动轨迹;
所述获取模块,还用于根据所述噪声参数,采用预先获取的所述机器人的状态向量,对所述第一姿态数据和所述第二姿态数据进行滤波融合,得到所述融合姿态数据,其中,所述状态向量包括:所述惯性传感器的第一状态向量和所述视角传感器的第二状态向量;其中,所述机器人的状态向量为:其中,Gr为全局坐标,Gq为方向四元数,Gv为机器人速度,/>和/>为相机的加速度、角加速度偏移量。
7.根据权利要求6所述的装置,其特征在于,所述确定模块,还用于采用时间卷积网络,对所述第一姿态数据进行处理,得到所述噪声参数。
8.一种控制器,其特征在于,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-5任一项所述的机器人运动轨迹估计方法。
9.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述权利要求1-5任一项所述的机器人运动轨迹估计方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111497652.7A CN114147717B (zh) | 2021-12-09 | 2021-12-09 | 机器人运动轨迹估计方法、装置、控制器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111497652.7A CN114147717B (zh) | 2021-12-09 | 2021-12-09 | 机器人运动轨迹估计方法、装置、控制器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114147717A CN114147717A (zh) | 2022-03-08 |
CN114147717B true CN114147717B (zh) | 2024-05-24 |
Family
ID=80453724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111497652.7A Active CN114147717B (zh) | 2021-12-09 | 2021-12-09 | 机器人运动轨迹估计方法、装置、控制器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114147717B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115503898B (zh) * | 2022-08-16 | 2024-10-11 | 飞马滨(青岛)智能科技有限公司 | 一种水下清洗机器人与待清洗船的自适应贴合方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
KR20140003987A (ko) * | 2012-06-25 | 2014-01-10 | 서울대학교산학협력단 | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 |
CN109141411A (zh) * | 2018-07-27 | 2019-01-04 | 顺丰科技有限公司 | 定位方法、定位装置、移动机器人及存储介质 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN110986988A (zh) * | 2019-12-20 | 2020-04-10 | 上海有个机器人有限公司 | 融合多传感器数据的轨迹推算方法、介质、终端和装置 |
CN112446422A (zh) * | 2020-11-10 | 2021-03-05 | 济南浪潮高新科技投资发展有限公司 | 用于机器人区域定位的多传感器数据融合方法及系统 |
CN112577521A (zh) * | 2020-11-26 | 2021-03-30 | 北京邮电大学 | 一种组合导航误差校准方法及电子设备 |
WO2021128787A1 (zh) * | 2019-12-23 | 2021-07-01 | 中国银联股份有限公司 | 一种定位的方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10254118B2 (en) * | 2013-02-21 | 2019-04-09 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
-
2021
- 2021-12-09 CN CN202111497652.7A patent/CN114147717B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
KR20140003987A (ko) * | 2012-06-25 | 2014-01-10 | 서울대학교산학협력단 | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 |
CN109141411A (zh) * | 2018-07-27 | 2019-01-04 | 顺丰科技有限公司 | 定位方法、定位装置、移动机器人及存储介质 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN110986988A (zh) * | 2019-12-20 | 2020-04-10 | 上海有个机器人有限公司 | 融合多传感器数据的轨迹推算方法、介质、终端和装置 |
WO2021128787A1 (zh) * | 2019-12-23 | 2021-07-01 | 中国银联股份有限公司 | 一种定位的方法及装置 |
CN112446422A (zh) * | 2020-11-10 | 2021-03-05 | 济南浪潮高新科技投资发展有限公司 | 用于机器人区域定位的多传感器数据融合方法及系统 |
CN112577521A (zh) * | 2020-11-26 | 2021-03-30 | 北京邮电大学 | 一种组合导航误差校准方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114147717A (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10247556B2 (en) | Method for processing feature measurements in vision-aided inertial navigation | |
CN109991636A (zh) | 基于gps、imu以及双目视觉的地图构建方法及系统 | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
CN109238277B (zh) | 视觉惯性数据深度融合的定位方法及装置 | |
CN108534772B (zh) | 姿态角获取方法及装置 | |
WO2018182524A1 (en) | Real time robust localization via visual inertial odometry | |
CN115143954B (zh) | 一种基于多源信息融合的无人车导航方法 | |
CN114046800B (zh) | 一种基于双层滤波框架的高精度里程估计方法 | |
CN108731664A (zh) | 机器人状态估计方法、装置、计算机设备和存储介质 | |
CN112744313B (zh) | 一种机器人状态估计方法、装置、可读存储介质及机器人 | |
CN110057381A (zh) | 一种导航系统的零速修正方法及系统 | |
CN110068326B (zh) | 姿态计算方法、装置、电子设备以及存储介质 | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
CN110515381B (zh) | 用于定位机器人的多传感器融合算法 | |
CN114111818B (zh) | 一种通用视觉slam方法 | |
CN110440797A (zh) | 车辆姿态估计方法及系统 | |
CN114147717B (zh) | 机器人运动轨迹估计方法、装置、控制器及存储介质 | |
CN109866217B (zh) | 机器人里程定位方法、装置、终端设备及计算机存储介质 | |
CN108827287B (zh) | 一种复杂环境下的鲁棒视觉slam系统 | |
CN111812668B (zh) | 绕机检查装置及其定位方法、存储介质 | |
CN112407344B (zh) | 空间非合作目标的位姿预测方法和装置 | |
CN113029173A (zh) | 车辆导航方法及装置 | |
CN109459769B (zh) | 一种自主定位方法与系统 | |
CN116972834A (zh) | 多传感器融合定位方法、装置、系统及存储介质 | |
CN115560744A (zh) | 机器人以及基于多传感器的三维建图方法、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |