CN110262495B - 可实现移动机器人自主导航与精确定位的控制系统及方法 - Google Patents
可实现移动机器人自主导航与精确定位的控制系统及方法 Download PDFInfo
- Publication number
- CN110262495B CN110262495B CN201910560593.XA CN201910560593A CN110262495B CN 110262495 B CN110262495 B CN 110262495B CN 201910560593 A CN201910560593 A CN 201910560593A CN 110262495 B CN110262495 B CN 110262495B
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- track
- data
- module
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000003068 static effect Effects 0.000 claims abstract description 23
- 230000001133 acceleration Effects 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 12
- 230000007613 environmental effect Effects 0.000 claims description 9
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000004069 differentiation Effects 0.000 claims 1
- 230000010354 integration Effects 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 20
- 230000004927 fusion Effects 0.000 description 11
- 239000002245 particle Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004080 punching Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000011010 flushing procedure Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Abstract
本发明公开了一种可实现移动机器人自主导航与精确定位的控制系统及方法,该系统包括传感器模块、主控模块和执行模块;主控模块接收传感器模块采集的数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并进行轨迹跟随,下发轨迹跟随指令至执行模块;待机器人到达目标点后,获取精准定位相机采集的地标图像数据,计算移动机器人中心与地标的位置偏差,对移动机器人的位姿进行校正,并反馈精准定位指令至执行模块,执行模块控制移动机器人朝着地标位置方向运动,最终实现毫米级定位。
Description
技术领域
本公开涉及移动机器人控制技术领域,具体涉及一种可实现移动机器人自主导航与精确定位的控制系统及控制方法。
背景技术
目前只基于激光雷达、只基于视觉(相机)、或者激光雷达与视觉(相机)结合实现自主导航的移动机器人到达目标点后定位精度在厘米级,但是在某些工况下需要毫米级别的精确定位,所以亟需设计可以实现移动机器人自主导航与精确定位的控制系统及其控制方法。
发明人在研发过程中发现,目前大多数与ROS机器人操作系统结合的控制器多用STM32等结构较为简单的控制器来响应ROS机器人操作系统端规划出来的速度指令。而ROS机器人操作系统存在实时性不强的问题,不利于进行轨迹跟随等反馈控制,故造成控制精度不高、控制频率低的问题。
发明内容
为了克服上述现有技术的不足,本公开提供了一种可实现移动机器人自主导航与精确定位的控制系统及其控制方法,可以进行实时轨迹跟随控制,实现移动机器人自主导航与精确定位。
本公开一方面提供的一种可实现移动机器人自主导航与精确定位的控制系统的技术方案是:
一种可实现移动机器人自主导航与精确定位的控制系统,其特征是,包括设置在移动机器人上的传感器模块、主控模块和执行模块;
所述主控模块连接传感器模块,接收传感器模块采集的移动机器人所处环境轮廓数据、移动机器人在三维空间中的速度与位置数据、移动机器人的车轮转速数据及机器人前方图像数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并进行轨迹跟随,下发轨迹跟随指令至执行模块;待机器人到达目标点后,获取传感器模块采集的地标图像数据并对其进行处理,计算移动机器人中心与地标的位置偏差,对移动机器人的位姿进行校正,并反馈精准定位指令至执行模块;
所述执行模块连接主控模块,用于接收到主控模块下发的轨迹跟随指令后驱动移动机器人行驶至目标点;接收到主控模块下发的精准定位指令后控制移动机器人朝着地标位置方向运动。
本公开一方面提供的一种可实现移动机器人自主导航与精确定位的控制方法的技术方案是:
一种可实现移动机器人自主导航与精确定位的控制方法,该方法包括以下步骤:
工控机Ⅰ获取传感器模块采集的移动机器人所处环境轮廓数据、移动机器人在三维空间中的速度与位置数据、移动机器人的车轮转速数据及机器人前方图像数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并传输至工控机Ⅱ;
工控机Ⅱ获取传感器模块采集的移动机器人在三维空间中的速度与位置数据以及移动机器人的车轮转速数据,根据工控机Ⅰ估计的移动机器人的位姿以及生成的轨迹,利用反演法或者模型预测控制方法进行轨迹跟随,并下发轨迹跟随指令至执行模块;
执行模块接收到主控模块下发的轨迹跟随指令后,驱动移动机器人行驶至目标点;
待机器人到达目标点后,工控机Ⅱ获取精准定位相机采集的地标图像数据并对其进行处理,计算移动机器人中心与地标的位置偏差,利用PID算法对移动机器人的位姿进行校正,并反馈定位指令至执行模块;
执行模块根据接收到的主控模块下发的定位指令控制移动机器人朝着地标位置方向运动,待移动机器人中心与地标位置偏差小于设定的偏差阈值后控制移动机器人停止运动。
通过上述技术方案,本公开的有益效果是:
(1)本公开采用两台工控机、若干传感器与执行器,两台工控机之间通过网络通信协议进行通信,既利用了机器人操作系统ROS的强大的建图定位能力,又加入了运动控制器进行实时运动控制,提高了整个系统的实时性。
(2)目前基于激光雷达的自主导航、基于视觉(相机)的自主导航、或者激光雷达与视觉(相机)结合的自主导航方式可实现厘米级定位,本公开通过自主导航与视觉相结合精定位方式,实现毫米级定位。
(3)本公开结合扩展卡尔曼滤波与自适应蒙特卡洛方法的多传感器融合定位方法,实现移动机器人的准确位姿估计。
(4)本公开提出的轨迹规划方法可以生成满足动力学约束的平滑轨迹,可显著减少传动结构冲击延长移动机器人使用寿命。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本申请,并不构成对本公开的不当限定。
图1是实施例一移动机器人的结构图;
图2是实施例一可实现移动机器人自主导航与精确定位的控制系统的结构图;
图3是实施例一主控模块的结构图一;
图4是实施例一主控模块的结构图二;
图5是实施例一移动机器人位姿估计方法的流程图;
图6是实施例一轨迹规划方法的流程图;
图7是实施例一时间重分配的流程图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本公开使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
本实施例提供一种可实现移动机器人自主导航与精确定位的控制系统,可以进行实时轨迹跟随控制,实现移动机器人自主导航与精确定位。
请参阅附图1,所述控制系统包括设置在移动机器人上的传感器模块、主控模块和执行模块。
请参阅附图2,所述传感器模块包括激光雷达、惯性测量单元、编码器、防撞传感器、红外回冲单元、感知用相机和精准定位相机。
所述激光雷达的数量为2个,分别安装在移动机器人的前侧和后侧,且位于同一对角线上,用于扫描移动机器人所处环境区域,提取环境轮廓信息,并发送给主控模块。
所述惯性测量单元,安装在机器人底面中轴线任一位置,用于测量移动机器人前向、侧向、旋转方向三维方向上的速度与位置信息,并发送给主控模块;
所述编码器安装在驱动移动机器人的车轮的电机上,用于测量电机轴转过的角度,从而可以得到移动机器人车轮的转速,并发送给主控模块。
所述防撞传感器可为超声传感器,安装在移动机器人四周(图中未示),用于测量障碍物与移动机器人之间的距离,若障碍物与移动机器人之间的距离小于设定的报警距离,则发出信号至主控模块。
所述红外回冲单元,安装在车体后端即可(图中未示),用于引导移动机器人去充电桩充电。
请参阅附图1,所述感知用相机设置在移动机器人的顶部前侧,用于采集机器人前方的图像数据,可用于动态障碍物的追踪、物体识别等。
所述精准定位相机设置在移动机器人的底部,用于采集人工地标的图像数据,如二维码,用于位姿矫正达到精确定位。
请参阅附图4,所述主控模块包括安装有Linux系统和ROS机器人操作系统的工控机Ⅰ和安装有Windows7操作系统和Kithara RTS的工控机Ⅱ,所述工控机Ⅰ和工控机Ⅱ通过网线通信连接,实现数据的交互。
所述工控机Ⅰ连接激光雷达和感知用相机,用于获取激光雷达提取的环境轮廓信息,感知用相机采集的机器人前方图像数据,以及工控机Ⅱ上传的惯性测量单元测量的移动机器人的速度与位置数据,编码器测量的移动机器人车轮的转速数据,精定位相机采集的人工地标图像数据,构建环境地图,估计移动机器人的位置和状态,规划移动机器人运动轨迹。
请参阅附图2,所述工控机Ⅰ包括环境感知模块和规划模块。
所述环境感知模块包括地图构建单元和状态估计单元,其中:
所述地图构建单元,用于利用惯性测量单元测量的移动机器人在三维空间中的速度与位置数据和编码器测量的移动机器人车轮的转速数据计算轮式里程计数据,基于激光雷达提取的环境轮廓信息、感知用相机采集的机器人前方图像数据,惯性测量单元测量的移动机器人在三维空间中的的速度与位置数据,以及轮式里程计数据,构建环境静态地图和小范围的环境动态地图,将得到的环境静态地图和动态地图传输给规划模块。
具体地,环境静态地图构建方法具体为:
使用catorgrapher算法建立环境静态地图,该算法使用UKF融合多传感器数据来创建子图和闭环检测策略,从而实现5cm分辨率的精确地图。
具体地,所述小范围的环境动态地图建立为:
从机器人前后的激光雷达扫描的区域内划定一小块区域建立动态地图,用来反映环境的动态变化,动态地图与静态地图叠加用于路径规划与避障。
所述状态估计单元,用于利用惯性测量单元测量的移动机器人在三维空间中的速度与位置数据和编码器测量的移动机器人车轮的转速数据计算轮式里程计数据,基于两个激光雷达提取的环境轮廓信息、感知用相机采集的机器人前方图像数据,惯性测量单元测量的移动机器人在三维空间中的速度与位置数据,以及轮式里程计数据,利用结合扩展卡尔曼滤波与自适应蒙特卡洛方法的多传感器融合定位方法将多传感器数据进行融合,确定移动机器人的位姿,包括移动机器人的位置和姿态,将得到的移动机器人的位置反馈给地图构建单元,将移动机器人的姿态反馈给工控机Ⅱ。
由于移动机器人在平面运动,因此,所确定的移动机器人的位姿包括移动机器人的位置(x,y)和姿态(绕z轴的转角)。
请参阅附图5,所述结合扩展卡尔曼滤波与自适应蒙特卡洛方法的多传感器融合定位方法具体为:
(1)采用扩展卡尔曼滤波将惯性测量单元测量的移动机器人在三维空间中的速度与位置数据与里程计数据融合。
扩展卡尔曼滤波(EKF)包括运动模型与测量模型,测量模型可以使用非线性函数,运动模型使用里程计运动模型,预测移动机器人的位姿,测量模型使用likelihood模型,更新纠正移动机器人的位姿;得到新的位姿将成为下一时刻扩展卡尔曼滤波的运动模型的初始状态;采用扩展卡尔曼滤波将使用带有协方差的IMU数据与里程计数据进行融合,得到初始的位姿数据(包含位置和姿态);
(2)将两个激光雷达提取的环境轮廓数据融合。
由于机械结构设计的局限,本实施例在移动机器人的左前角与右后角分别安装了一个扫描范围为270°的二维激光雷达,在这里,将两个激光雷达提取的环境轮廓数据转换到移动机器人坐标系下,然后将两个激光雷达提取的环境轮廓数据转换为点云数据,融合点云数据后,以统一的格式发布;
(3)将初始的位姿数据与融合后的激光雷达数据进行融合定位。
在本实施例中,采用自适应蒙特卡洛方法进行融合定位,其具体实现方式如下:
首先,采用预测模型预测扩展卡尔曼滤波融合后的带有协方差的初始位姿数据,得到此时刻的预测状态;
然后,基于观测模型,使用融合后的激光雷达数据,对预测状态进行更新修正,得到此时刻更加准确的位姿;
最后,进行每个粒子的重采样,如更新权重,增加随机粒子等操作,现存的粒子将用于下一时刻的位姿估计。
通过以上步骤,实现对多传感器数据进行融合,从而实现更准确的移动机器人的位置、姿态的估计。
在本实施例中,所述轮式里程计数据的计算方法为:
利用编码器测量的移动机器人四个车轮的转速v1、v2、v3、v4,通过逆运动学,解算出移动机器人整体x方向的线速度vx、y方向的线速度vy和z轴方向的角速度ω,其具体计算公式如下:
vx=(v1+v2+v3+v4)/4
vy=(v2+v4-v1-v3)/4
ω=(v3+v4-v1-v3)/(4*(a+b))
其中,a、b分别为移动机器人车体长和宽的一半。
将相邻时刻Δt得到的轨迹进行累加求和,可计算得到机器人里程计数据,其表达式如下所示:
x=x+vxΔtcos(θt)-vyΔtsin(θt)
y=y+vxΔtsin(θt)+vyΔtcos(θt)
θt=θt+ωΔt
其中,θt为t时刻机器人的角度值。
所述规划模块包括路径规划单元、轨迹规划单元以及轨迹下发单元,其中:
所述路径规划单元,用于利用环境感知模块构建的环境静态地图以及动态地图,采用搜索类方法如A*或采样类方法比如快速拓展随机树等方法,生成无碰撞路径。
所述轨迹规划单元,用于对路径规划单元得到的路径进行处理,生成满足移动机器人动力学约束可被执行的轨迹。
与传统的移动机器人相比,全向移动机器人可以沿着任何轨迹移动,保持其中心的方向为零。全向移动机器人到达目标点时,将根据运输需要进行方向调整。所以,本实施例只规划x-y方向的轨迹,在机器人移动时保持方向不变。在进行轨迹规划时满足并且可以找到的速度范围vxmin≤vx≤vxmax与vymin≤vy≤vymax,其中vx、vy指的是x方向上、y方向的速度。类似的加速也有类似的限制。
请参阅附图6,本实施例使用S形ACC/DEC算法结合路径总长度来进行路径点之间的第一次时间分配。然后使用指定的时间和相应的路径点通过三次样条拟合轨迹ημ(t)(η∈(x,y))。使用时间重新分配和碰撞检测机制来获得满足动态约束的无碰撞轨迹。
具体地,所述轨迹规划方法具体为:
(1)间隔采样路径规划单元得到的路径点,计算路径长度的初始时间分配。
为了加速计算,通过间隔采样减少从路径规划单元获得的密集路径点,并计算路径长度。根据其加速和减速的性质进行初始时间分配。
本实施例使用S形ACC/DEC算法来进行路径总长度的初始时间分配。根据速度减速度限制vmax/amax和公式(2)(3)表示的加速度/速度限制,计算得到路径总长度的初始时间分配s(t),如公式(1)。
(2)对路径长度的初始时间分配进行离散化处理,采用二分法确定路径点的时间分配。
由于直接求解s(t)的反函数,需要更多时间,因此本实施例提出了使用二分法快速求解它的方法。首先离散化s(t),然后使用二分法来快速查找路径点的相应时间分配。在相应的路径点之间产生的时间分配用于后续的轨迹规划。
(3)采用三次样条法对确定的路径点的时间分配进行曲线拟合,得到分段三次样条多项式组成的轨迹。
由分段三次样条多项式组成的轨迹被参数化为每个维度μ中的时间变量t,其中μ取值于x和y。每个维度上的Nth阶M段轨迹可以写成如下:
(4)时间重新分配。
由于前一次使用S形ACC/DEC算法分配路径长度,忽略了路径的曲率变化。可能获得不满足动态约束的轨迹。针对该问题提出了时间重新分配方法。
在上一步骤的第一次时间分配之后,需要再次为速度和加速度超过动态限制的任何段进行时间间隔调整。
由于整个轨迹由多段曲线组成,本实施例对轨迹进行采样以获得轨迹中每段轨迹的最大速度和加速度的绝对值,用vm和am表示。请参阅附图7,本实施例提出了一种时间重新分配机制,其中vmax和amax是最大速度和加速度极限值的绝对值,并且vm和am是所生成轨迹的每个段中的最大速度和加速度的绝对值。如果某段归轨迹的vm/vmax或(am/amax)1/2超过α,则认为相应的时间分配接近饱和,有必要调整分段曲线的时间分配,得到新的时间分配。如果没有,继续使用以前的时间分配。
其中,α是一个小于1的值,表示vm和vmax以及am和amax的接近程度;系数k可以有效地防止任何时间跨度过度延伸并变得过于保守。
(5)再次生成轨迹。
在时间重新分配之后,再次使用三次样条方法来生成轨迹。由于路径点经过前述采样步骤,可能导致产生的轨迹与狭窄区域中的障碍物碰撞。如果轨迹与障碍物碰撞,则在碰撞处及其周围添加路径点,并再次执行轨迹规划。如果未发生碰撞,则将轨迹输出值轨迹下发单元。
所述轨迹下发单元,用于将轨迹规划单元生成的轨迹段下发至工控机Ⅱ。
所述工控机Ⅱ连接惯性测量单元、编码器、防撞传感器、精定位相机、红外红冲单元以及执行模块,用于接收惯性测量单元测量的移动机器人在三维空间中的速度及位置数据,编码器检测的移动机器人四个车轮速度数据,防撞传感器检测的数据,精定位相机采集的图像数据,以及红外红冲单元检测的数据,对数据进行处理,得到跟踪轨迹,实现视觉精定位,输出运动控制指令至执行模块,实现实时运动控制。
具体地,所述工控机Ⅱ包括和地标位姿反馈模块、轨迹跟随模块和视觉精定位模块,其中:
所述地标位姿反馈单元,用于获取精定位相机采集的人工地标图像数据,并反馈给视觉精定位模块。
所述轨迹跟随模块,用于结合惯性测量单元采集的移动机器人在三维空间中的速度及位置数据以及编码器检测的四个车轮速度数据,根据环境感知模块估计的移动机器人的位姿,以及规划模块生成的轨迹,基于反演法、模型预测控制等控制方法进行轨迹跟随,并下发指令至执行模块。
具体地,轨迹跟随的具体实现过程如下:
首先,设定轨迹跟随执行的周期,每个周期中计算规划的轨迹的位置、速度、加速度作为参考目标,利用环境感知模块反馈的移动机器人的位姿信息作为实际的位置反馈,基于以上数据,利用反演法或者模型预测控制等算法进行轨迹跟随。
所述视觉精定位模块,用于对环境感知模块反馈的地标图像数据进行处理,利用PID算法对位姿进行校正,实现精确定位,消除移动机器人运行过程中的累计误差。
具体地,视觉精定位模块的具体用于:
获取环境感知模块反馈的移动机器人的地标图像数据,并处理图像,获取地标在相机坐标系的位置与角度信息;之后进行相机坐标系与移动机器人中心坐标系的坐标变换,得到移动机器人中心与地标的位置偏差;利用PID算法不断控制移动机器人朝着减小误差的方向运动,待位置偏差小于要求的偏差之后停止运动。
在本实施例中,所述工控机Ⅱ通过工业以太网总线与执行模块连接,实现对执行模块的控制,所述执行模块执行工控机Ⅱ的运动指令,实现移动机器人的运动。请参阅附图2,所述执行模块包括依次串联的伺服驱动器Ⅰ、伺服驱动器Ⅱ、伺服驱动器Ⅲ、伺服驱动器Ⅳ和伺服驱动器Ⅴ,所述伺服驱动器Ⅰ连接伺服电机Ⅰ,所述伺服驱动器Ⅱ连接伺服电机Ⅱ,所述伺服驱动器Ⅲ连接伺服电机Ⅲ,所述伺服驱动器Ⅳ连接伺服电机Ⅳ,用于控制移动机器人的运动;所述伺服驱动器Ⅴ连接举升电机,用于控制移动机器人上平面的举升,便于货物的搬运。
本实施例提出的实现移动机器人自主导航与精确定位的控制系统,采用两台工控机、若干传感器与执行器,两台工控机之间通过网络通信协议进行通信,既利用了机器人操作系统ROS的强大的建图定位能力,又加入了运动控制器进行实时运动控制,提高了整个系统的实时性。
实施例二
本实施例提供一种实现移动机器人自主导航与精确定位的控制方法,该方法是基于实施例一所述的实现移动机器人自主导航与精确定位的控制系统实现的,该方法包括以下步骤:
S101,工控机Ⅰ获取传感器数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并反馈给工控机Ⅱ。
具体地,工控机Ⅰ通过两个激光雷达扫描移动机器人所处的环境轮廓信息,通过感知用相机采集机器人前方的图像数据,接收工控机Ⅱ上传的惯性测量单元测量移动机器人前向、侧向、旋转方向的速度与位置信息;编码器测量移动机器人车轮的转速。
具体地,所述步骤101中,轮式里程计数据的计算方法为:
利用编码器测量的移动机器人四个车轮的转速v1、v2、v3、v4,通过逆运动学,解算出移动机器人整体x方向的线速度vx、y方向的线速度vy和z轴方向的角速度ω,其具体计算公式如下:
vx=(v1+v2+v3+v4)/4
vy=(v2+v4-v1-v3)/4
ω=(v3+v4-v1-v3)/(4*(a+b))
其中,a、b分别为移动机器人车体长和宽的一半。
将相邻时刻Δt得到的轨迹进行累加求和,可计算得到机器人里程计数据,其表达式如下所示:
x=x+vxΔtcos(θt)-vyΔtsin(θt)
y=y+vxΔtsin(θt)+vyΔtcos(θt)
θt=θt+ωΔt
其中,θt为t时刻机器人的角度值。
在本实施例中,所述构建环境静态地图和动态地图的方法具体为:
使用catorgrapher算法建立环境静态地图,该算法使用UKF融合多传感器数据来创建子图和闭环检测策略,从而实现5cm分辨率的精确地图。
从两个激光雷达扫描的移动机器人所处环境区域内划定一小块区域建立动态地图,用来反映环境的动态变化。
具体地,所述步骤101中,移动机器人的位姿的估计方法为:
(1)采用扩展卡尔曼滤波将惯性测量单元测量的移动机器人在三维空间中的速度与位置数据与里程计数据融合。
扩展卡尔曼滤波(EKF)包括运动模型与测量模型,测量模型可以使用非线性函数,运动模型使用里程计运动模型,预测移动机器人的位姿,测量模型使用likelihood模型,更新纠正移动机器人的位姿;得到新的位姿将成为下一时刻扩展卡尔曼滤波的运动模型的初始状态;采用扩展卡尔曼滤波将使用带有协方差的IMU数据与里程计数据进行融合,得到初步的位姿数据(包含位置和姿态);
(2)将两个激光雷达提取的环境轮廓数据融合。
由于机械结构设计的局限,本实施例在移动机器人的左前角与右后角分别安装了一个扫描范围为270°的二维激光雷达,在这里,将两个激光雷达提取的环境轮廓数据转换到移动机器人坐标系下,然后将两个激光雷达提取的环境轮廓数据转换为点云数据,融合点云数据后,以统一的格式发布;
(3)将初始的位姿数据与融合后的激光雷达数据进行融合定位,得到移动机器人的位置和姿态。
在本实施例中,采用自适应蒙特卡洛方法进行融合定位,其具体实现方式如下:
首先,采用预测模型预测扩展卡尔曼滤波融合后的带有协方差的初始位姿数据,得到此时刻的预测状态;
然后,基于观测模型,使用融合后的激光雷达数据,对预测状态进行更新修正,得到此时刻更加准确的位姿;
最后,进行每个粒子的重采样,如更新权重,增加随机粒子等操作,现存的粒子将用于下一时刻的位姿估计。
通过以上步骤,实现对多传感器数据进行融合,从而实现更准确的移动机器人的位置、姿态的估计。
具体地,所述步骤101中,移动机器人的轨迹规划方法具体为:
(1)利用构建的环境静态地图以及动态地图,采用搜索类方法如A*或采样类方法比如快速拓展随机树等方法,生成无碰撞路径;
(2)间隔采样路径规划单元得到的路径点,计算路径长度,并对其进行初始时间分配。
为了加速计算,通过间隔采样减少从路径规划单元获得的密集路径点,并计算路径长度。根据其加速和减速的性质进行初始时间分配。
本实施例使用S形ACC/DEC算法来进行路径总长度的初始时间分配。根据速度减速度限制vmax/amax和公式(2)(3)表示的加速度/速度限制,计算得到路径总长度的初始时间分配s(t),如公式(1)。
(3)对路径长度的初始时间分配进行离散化处理,采样二分法确定路径点的时间分配。
由于直接求解s(t)的反函数,需要更多时间,因此本实施例提出了使用二分法快速求解它的方法。首先离散化s(t),然后使用二分法来快速查找路径点的相应时间分配。在相应的路径点之间产生的时间分配用于后续的轨迹规划。
(4)采用三次样条法对确定的路径点的时间分配进行曲线拟合,得到分段三次样条多项式组成的轨迹。
由分段三次样条多项式组成的轨迹被参数化为每个维度μ中的时间变量t,其中μ取值于x和y。每个维度上的Nth阶M段轨迹可以写成如下:
(5)时间重新分配。
由于前一次使用S形ACC/DEC算法分配路径长度,忽略了路径的曲率变化。可能获得不满足动态约束的轨迹。针对该问题提出了时间重新分配方法。
在上一步骤的第一次时间分配之后,需要再次为速度和加速度超过动态限制的任何段进行时间间隔调整。
由于整个轨迹由多段曲线组成,本实施例对轨迹进行采样以获得轨迹中每段轨迹的最大速度和加速度的绝对值,用vm和am表示。请参阅附图7,本实施例提出了一种时间重新分配机制,其中vmax和amax是最大速度和加速度极限的绝对值,并且vm和am是所生成轨迹的每个段中的最大速度和加速度的绝对值。如果某段归轨迹的vm/vmax或(am/amax)1/2超过α,则认为相应的时间分配接近饱和,有必要调整分段曲线的时间分配,得到新的时间分配。如果没有,继续使用以前的时间分配。
其中,α是一个小于1的值,表示vm和vmax以及am和amax的接近程度;系数k可以有效地防止任何时间跨度过度延伸并变得过于保守;
否则,继续使用以前的时间分配Δti。
(6)再次生成轨迹。
在时间重新分配之后,再次使用三次样条方法来生成轨迹。由于路径点经过前述采样步骤,可能导致产生的轨迹与狭窄区域中的障碍物碰撞。如果轨迹与障碍物碰撞,则在碰撞处及其周围添加路径点,并再次返回步骤(2)进行轨迹规划。如果未发生碰撞,则输出生成的轨迹。
S102,工控机Ⅱ结合惯性测量单元测量的移动机器人在三维空间中的速度与位置数据以及编码器检测的四个车轮速度数据,根据工控机Ⅰ估计的移动机器人的位姿以及生成的轨迹,基于反演法、模型预测控制等控制方法进行轨迹跟随,并下发指令至执行模块。
S103,执行模块驱动移动机器人按照工控机Ⅱ下发的指令转动。
S104,待移动机器人到达目标点后,工控机Ⅱ通过精准定位相机采集地标的图像数据,并对图像数据进行处理,获取地标在相机坐标系的位置与角度信息,将地标的位置坐标从机坐标系变换到移动机器人中心坐标系,得到移动机器人中心与地标的位置偏差,采用PID算法对移动机器人的位姿进行校正,并反馈控制指令至执行模块。
S105,通过执行模块控制移动机器人朝着减小误差的方向运动,待移动机器人位置偏差小于要求的偏差之后停止运动。
目前基于激光雷达的自主导航、基于视觉(相机)的自主导航、或者激光雷达与视觉(相机)结合的自主导航方式可实现厘米级定位,本实施例提出实现移动机器人自主导航与精确定位的控制方法,的通过自主导航与视觉相结合精定位方式,实现毫米级定位;结合扩展卡尔曼滤波与自适应蒙特卡洛方法的多传感器融合定位方法,实现移动机器人的准确位姿估计;采用轨迹规划方法可以生成满足动力学约束的平滑轨迹,可显著减少传动结构冲击延长移动机器人使用寿命。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (8)
1.一种可实现移动机器人自主导航与精确定位的控制系统,其特征是,包括设置在移动机器人上的传感器模块、主控模块和执行模块;
所述主控模块连接传感器模块,接收传感器模块采集的移动机器人所处环境轮廓数据、移动机器人在三维空间中的速度与位置数据、移动机器人的车轮转速数据及机器人前方图像数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并进行轨迹跟随,下发轨迹跟随指令至执行模块;待机器人到达目标点后,获取传感器模块采集的地标图像数据并对其进行处理,计算移动机器人中心与地标的位置偏差,对移动机器人的位姿进行校正,并反馈精准定位指令至执行模块;
所述执行模块连接主控模块,用于接收到主控模块下发的轨迹跟随指令后驱动移动机器人行驶至目标点;接收到主控模块下发的精准定位指令后控制移动机器人朝着地标位置方向运动;
所述主控模块包括工控机Ⅰ和工控机Ⅱ;
所述工控机Ⅰ,用于接收传感器模块采集的移动机器人所处环境轮廓数据、移动机器人在三维空间中的速度与位置数据、移动机器人的车轮转速数据、机器人前方图像数据以及地标图像数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并将生成的轨迹传输至工控机Ⅱ;
工控机Ⅱ,用于接收传感器模块采集的移动机器人在三维空间中的速度与位置数据以及移动机器人的车轮转速数据,根据工控机Ⅰ估计的移动机器人的位姿以及生成的轨迹,进行轨迹跟随;获取传感器模块采集的地标图像数据并对其进行处理,计算移动机器人中心与地标的位置偏差,采用PID算法对移动机器人的位姿进行校正,并反馈精准定位指令至执行模块;
具体地,所述轨迹规划方法具体为:
(1)间隔采样路径规划单元得到的路径点,计算路径长度的初始时间分配;
为加速计算,通过间隔采样减少从路径规划单元获得的密集路径点,并计算路径长度;根据加速和减速的性质进行初始时间分配;
使用S形ACC/DEC算法来进行路径总长度的初始时间分配;根据速度减速度限制vmax/amax和公式(2)(3)表示的加速度/速度限制,计算得到路径总长度的初始时间分配s(t),如公式(1);
(2)对路径长度的初始时间分配进行离散化处理,采用二分法确定路径点的时间分配;
直接求解s(t)的反函数时需要的时间长,因此提出了使用二分法快速求解;首先离散化s(t),然后使用二分法来快速查找路径点的相应时间分配;在相应的路径点之间产生的时间分配用于后续的轨迹规划;
(3)采用三次样条法对确定的路径点的时间分配进行曲线拟合,得到分段三次样条多项式组成的轨迹;
由分段三次样条多项式组成的轨迹被参数化为每个维度μ中的时间变量t,其中μ取值于x和y;每个维度上的Nth阶M段轨迹可以写成如下:
(4)时间重新分配;
由于前一次使用S形ACC/DEC算法分配路径长度,忽略了路径的曲率变化,获得不满足动态约束的轨迹,针对该问题提出了时间重新分配方法;
在上一步骤的第一次时间分配之后,需要再次为速度和加速度超过动态限制的任何段进行时间间隔调整;
整个轨迹由多段曲线组成,对轨迹进行采样以获得轨迹中每段轨迹的最大速度和加速度的绝对值,用vm和am表示;其中vmax和amax是最大速度和加速度极限值的绝对值,并且vm和am是所生成轨迹的每个段中的最大速度和加速度的绝对值;如果某段归轨迹的vm/vmax或(am/amax)1/2超过α,则认为相应的时间分配接近饱和,有必要调整分段曲线的时间分配,得到新的时间分配;如果没有,继续使用以前的时间分配;
其中,α是一个小于1的值,表示vm和vmax以及am和amax的接近程度;系数k可以有效地防止任何时间跨度过度延伸并变得过于保守;
否则,继续使用以前的时间分配Δti;
(5)再次生成轨迹;
在时间重新分配之后,再次使用三次样条方法来生成轨迹;由于路径点经过前述采样步骤,可能导致产生的轨迹与狭窄区域中的障碍物碰撞;如果轨迹与障碍物碰撞,则在碰撞处及其周围添加路径点,并再次执行轨迹规划;如果未发生碰撞,则将轨迹输出值轨迹下发单元。
2.根据权利要求1所述的可实现移动机器人自主导航与精确定位的控制系统,其特征是,所述传感器模块包括两个激光雷达、惯性测量单元、编码器、防撞传感器、感知用相机和精准定位相机;
所述激光雷达,用于扫描移动机器人所处环境区域,提取环境轮廓信息,并发送给主控模块;
所述惯性测量单元,用于测量移动机器人在三维空间中的速度与位置信息,并发送给主控模块;
所述编码器,用于测量移动机器人的车轮转速,并发送给主控模块;
所述防撞传感器,用于测量障碍物与移动机器人之间的距离,若障碍物与移动机器人之间的距离小于设定的报警距离,则发出信号至主控模块;
所述感知用相机,用于采集的机器人前方图像数据,并发送给主控模块;
所述精准定位相机,用于采集地标图像数据,并发送给主控模块。
3.根据权利要求1所述的可实现移动机器人自主导航与精确定位的控制系统,其特征是,所述工控机Ⅰ包括环境感知模块;所述环境感知模块包括地图构建单元和状态估计单元,其中:
所述地图构建单元,用于利用移动机器人在三维空间中的速度与位置数据以及移动机器人的车轮转速数据计算轮式里程计数据,基于移动机器人所处环境轮廓数据、感知用相机采集的机器人前方图像数据以及轮式里程计数据,构建环境静态地图和动态地图,将得到的环境静态地图和动态地图传输给规划模块;
所述状态估计单元,用于利用移动机器人在三维空间中的速度与位置数据以及移动机器人车轮的转速数据计算轮式里程计数据,利用扩展卡尔曼滤波方法和自适应蒙特卡洛方法将移动机器人在三维空间中的速度与位置数据、移动机器人所处环境轮廓数据、感知用相机采集的机器人前方图像数据以及轮式里程计数据进行融合,得到移动机器人的位置和姿态,将得到的移动机器人的位置反馈给地图构建单元,将移动机器人的姿态反馈给工控机Ⅱ;
通过地图构建单元构建环境静态地图和小范围的环境动态地图,所述小范围的环境动态地图建立为:从机器人前后的激光雷达扫描的区域内划定一小块区域建立动态地图,用来反映环境的动态变化,动态地图与静态地图叠加用于路径规划与避障。
4.根据权利要求1所述的可实现移动机器人自主导航与精确定位的控制系统,其特征是,所述工控机Ⅰ还包括规划模块,所述规划模块包括路径规划单元、轨迹规划单元以及轨迹下发单元,其中:
所述路径规划单元,用于利用环境感知模块构建的环境静态地图以及动态地图,采用搜索类方法生成无碰撞路径;
所述轨迹规划单元,用于对路径规划单元得到的路径进行处理,采用轨迹规划方法生成移动机器人执行轨迹;
所述轨迹下发单元,用于将轨迹规划单元生成的轨迹下发至工控机Ⅱ。
5.根据权利要求1所述的可实现移动机器人自主导航与精确定位的控制系统,其特征是,所述工控机Ⅱ包括地标位姿反馈模块、轨迹跟随模块和视觉精定位模块,其中:
所述地标位姿反馈模块,用于获取精定位相机采集的地标图像数据,并反馈给视觉精定位模块;
所述轨迹跟随模块,用于获取移动机器人在三维空间中的速度及位置数据以及移动机器人的车轮转速数据,根据环境感知模块估计的移动机器人的位姿以及规划模块生成的轨迹,利用反演法或者模型预测控制方法进行轨迹跟随,并下发轨迹跟随指令至执行模块;
所述视觉精定位模块,用于对地标位姿反馈模块反馈的地标图像数据进行处理,利用PID算法对移动机器人的位姿进行校正,并下发定位指令至执行模块。
6.一种可实现移动机器人自主导航与精确定位的控制方法,其特征是,该方法包括以下步骤:
工控机Ⅰ获取传感器模块采集的移动机器人所处环境轮廓数据、移动机器人在三维空间中的速度与位置数据、移动机器人的车轮转速数据及机器人前方图像数据,计算轮式里程计数据,构建环境静态地图和动态地图,估计移动机器人的位姿,规划移动机器人的轨迹,并传输至工控机Ⅱ;
工控机Ⅱ获取传感器模块采集的移动机器人在三维空间中的速度与位置数据以及移动机器人的车轮转速数据,根据工控机Ⅰ估计的移动机器人的位姿以及生成的轨迹,利用反演法或者模型预测控制方法进行轨迹跟随,并下发轨迹跟随指令至执行模块;
执行模块接收到主控模块下发的轨迹跟随指令后,驱动移动机器人行驶至目标点;
待机器人到达目标点后,工控机Ⅱ获取精准定位相机采集的地标图像数据并对其进行处理,计算移动机器人中心与地标的位置偏差,利用PID算法对移动机器人的位姿进行校正,并反馈定位指令至执行模块;
执行模块根据接收到的主控模块下发的定位指令控制移动机器人朝着地标位置方向运动,待移动机器人中心与地标位置偏差小于设定的偏差阈值后控制移动机器人停止运动;
所述移动机器人的轨迹规划方法为:
间隔采样得到的路径点,使用S形ACC/DEC算法计算路径长度的初始时间分配;
对路径长度的初始时间分配进行离散化处理,采用二分法查找路径点的相应时间分配;
采用三次样条法对路径点的时间分配进行曲线拟合,得到多段轨迹;
判断每段轨迹的最大速度的绝对值与最大速度阈值的绝对值的比值或每段轨迹的加速度的绝对值与加速度阈值的绝对值的比值是否大于设定的阈值;
若大于,则调整该段轨迹曲线的时间分配,得到新的时间分配,采用三次样条方法对新的时间分配进行曲线拟合,生成新的轨迹段;否者,不调整时间分配;
判断轨迹与障碍物是否发生碰撞,若发生,则在碰撞处及其周围添加路径点,并再次执行轨迹规划;若未发生,则输出生成的轨迹。
7.根据权利要求6所述的可实现移动机器人自主导航与精确定位的控制方法,其特征是,所述环境静态地图和动态地图的构建方法为:
使用catorgrapher算法建立环境静态地图;
从激光雷达扫描的机器人周围所处环境区域内划定一小块区域,建立动态地图。
8.根据权利要求6所述的可实现移动机器人自主导航与精确定位的控制方法,其特征是,所述移动机器人的位姿的估计方法为:
采用扩展卡尔曼滤波算法将移动机器人在三维空间中的速度与位置数据和里程计数据进行融合,得到移动机器人初始的位姿数据;
将移动机器人所处环境轮廓数据进行融合,并将其转换到移动机器人坐标系下,将移动机器人坐标系下的环境轮廓数据转换为点云数据;
采用自适应蒙特卡洛方法将移动机器人初始的位姿数据与得到的点云数据进行融合,得到移动机器人的位姿数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910560593.XA CN110262495B (zh) | 2019-06-26 | 2019-06-26 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910560593.XA CN110262495B (zh) | 2019-06-26 | 2019-06-26 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110262495A CN110262495A (zh) | 2019-09-20 |
CN110262495B true CN110262495B (zh) | 2020-11-03 |
Family
ID=67921744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910560593.XA Active CN110262495B (zh) | 2019-06-26 | 2019-06-26 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110262495B (zh) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764110B (zh) * | 2019-11-12 | 2022-04-08 | 深圳创维数字技术有限公司 | 路径导航方法、装置及计算机可读存储介质 |
CN111123925A (zh) * | 2019-12-19 | 2020-05-08 | 天津联汇智造科技有限公司 | 一种移动机器人导航系统以及方法 |
CN111061279B (zh) * | 2020-01-03 | 2020-12-08 | 山东大学 | 一种电动病床的室内自适应巡航控制系统及方法 |
CN110795523B (zh) * | 2020-01-06 | 2020-05-05 | 中智行科技有限公司 | 车辆定位方法、装置以及智能车辆 |
CN111487642A (zh) * | 2020-03-10 | 2020-08-04 | 国电南瑞科技股份有限公司 | 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法 |
CN111459172B (zh) * | 2020-05-20 | 2023-10-31 | 中国北方车辆研究所 | 围界安防无人巡逻车自主导航系统 |
CN111805535B (zh) * | 2020-06-11 | 2022-06-07 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN111862215B (zh) * | 2020-07-29 | 2023-10-03 | 上海高仙自动化科技发展有限公司 | 一种计算机设备定位方法、装置、计算机设备和存储介质 |
CN111856499B (zh) * | 2020-07-30 | 2021-06-18 | 浙江华睿科技有限公司 | 基于激光雷达的地图构建方法和装置 |
CN112102368B (zh) * | 2020-08-18 | 2024-04-16 | 东南大学 | 一种基于深度学习的机器人垃圾分类分拣方法 |
CN112130559A (zh) * | 2020-08-21 | 2020-12-25 | 同济大学 | 一种基于uwb与激光雷达的室内行人跟随与避障方法 |
CN114110303B (zh) * | 2020-08-27 | 2023-08-08 | 广州中国科学院先进技术研究所 | 一种长距离供水管道检测机器人控制方法 |
CN112083726B (zh) * | 2020-09-04 | 2021-11-23 | 湖南大学 | 一种面向园区自动驾驶的双滤波器融合定位系统 |
CN112492523B (zh) * | 2020-11-05 | 2021-09-14 | 南京大学 | 一种基于超宽带实时定位的轨迹约束方法 |
CN112462782B (zh) * | 2020-11-30 | 2022-10-28 | 北京航天光华电子技术有限公司 | 一种多功能智能跟随小车系统 |
CN112762928B (zh) * | 2020-12-23 | 2022-07-15 | 重庆邮电大学 | 含有激光slam的odom与dm地标组合移动机器人及导航方法 |
CN112947464A (zh) * | 2021-03-05 | 2021-06-11 | 上海有个机器人有限公司 | 机器人通过狭窄空间方法、装置、终端及存储介质 |
CN113156944B (zh) * | 2021-03-28 | 2023-03-07 | 西北工业大学 | 一种室内移动机器人充电路径规划与运动控制算法 |
CN113325433A (zh) * | 2021-05-28 | 2021-08-31 | 上海高仙自动化科技发展有限公司 | 一种定位方法、装置、电子设备及存储介质 |
CN113589685B (zh) * | 2021-06-10 | 2024-04-09 | 常州工程职业技术学院 | 一种基于深度神经网络的挪车机器人控制系统及其方法 |
CN113534810A (zh) * | 2021-07-22 | 2021-10-22 | 乐聚(深圳)机器人技术有限公司 | 一种物流机器人及物流机器人系统 |
CN113776519B (zh) * | 2021-09-14 | 2022-10-21 | 西南科技大学 | 一种无光动态开放环境下agv车辆建图与自主导航避障方法 |
CN113842086B (zh) * | 2021-09-28 | 2022-12-06 | 深圳市云鼠科技开发有限公司 | 一种清洁方法、拖地机器人及清洁系统 |
CN114018284B (zh) * | 2021-10-13 | 2024-01-23 | 上海师范大学 | 一种基于视觉的轮速里程计校正方法 |
CN114063624A (zh) * | 2021-10-22 | 2022-02-18 | 中国船舶重工集团公司第七一九研究所 | 一种爬游无人潜水器多模式规划运动控制器及其控制方法 |
CN114019915A (zh) * | 2021-11-04 | 2022-02-08 | 山东大学 | 多移动机器人协同运动控制系统及其控制方法 |
CN114111791A (zh) * | 2021-11-22 | 2022-03-01 | 国网江苏省电力有限公司信息通信分公司 | 一种智能机器人室内自主导航方法、系统及存储介质 |
CN114131602B (zh) * | 2021-12-03 | 2023-08-29 | 山东大学 | 人机协同安装幕墙环境下机器人作业知识积累方法及系统 |
CN116185009A (zh) * | 2022-12-29 | 2023-05-30 | 无锡弘宜智能科技股份有限公司 | 基于复合导航的差速agv纠偏控制系统及方法 |
CN115993829A (zh) * | 2023-03-21 | 2023-04-21 | 安徽大学 | 一种基于盲道识别的机器狗导盲运动控制方法 |
CN116552261B (zh) * | 2023-06-02 | 2023-10-10 | 陕西长瑞安驰信息技术集团有限公司 | 一种锥桶移动机器人及其应用 |
CN116612614B (zh) * | 2023-06-12 | 2023-12-26 | 北京瑞风协同科技股份有限公司 | 一种基于三维模型的物理量实时比对分析报警装置及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6374155B1 (en) * | 1999-11-24 | 2002-04-16 | Personal Robotics, Inc. | Autonomous multi-platform robot system |
KR100506533B1 (ko) * | 2003-01-11 | 2005-08-05 | 삼성전자주식회사 | 이동로봇 및 그에 따른 자율주행 시스템 및 방법 |
CN102359784B (zh) * | 2011-08-01 | 2013-07-24 | 东北大学 | 一种室内移动机器人自主导航避障系统及方法 |
CN103914068A (zh) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | 一种基于栅格地图的服务机器人自主导航方法 |
CN103400392B (zh) * | 2013-08-19 | 2016-06-22 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
CN104848851B (zh) * | 2015-05-29 | 2017-08-18 | 山东鲁能智能技术有限公司 | 基于多传感器数据融合构图的变电站巡检机器人及其方法 |
CN105698807A (zh) * | 2016-02-01 | 2016-06-22 | 郑州金惠计算机系统工程有限公司 | 一种适用于变电站智能巡检机器人的激光导航系统 |
CN105606104B (zh) * | 2016-03-17 | 2019-04-30 | 北京工业大学 | 基于航向辅助分布式slam的机器人自主导航方法 |
CN106227212B (zh) * | 2016-08-12 | 2019-02-22 | 天津大学 | 基于栅格地图和动态校准的精度可控室内导航系统及方法 |
CN106767827B (zh) * | 2016-12-29 | 2020-02-28 | 浙江大学 | 一种基于激光数据的移动机器人点云地图创建方法 |
CN106864751B (zh) * | 2017-03-16 | 2019-02-15 | 山东大学 | 基于图像处理的无人机飞行降落系统及方法 |
CN106918830A (zh) * | 2017-03-23 | 2017-07-04 | 安科机器人有限公司 | 一种基于多导航模块的定位方法及移动机器人 |
CN107132846B (zh) * | 2017-06-21 | 2020-06-05 | 南华大学 | 陌生室内场景下的γ辐射探测方法 |
CN108955679B (zh) * | 2018-08-16 | 2022-03-15 | 电子科技大学 | 一种变电站智能巡检机器人高精度定位方法 |
CN109341694A (zh) * | 2018-11-12 | 2019-02-15 | 哈尔滨理工大学 | 一种移动探测机器人的自主定位导航方法 |
CN109557928A (zh) * | 2019-01-17 | 2019-04-02 | 湖北亿咖通科技有限公司 | 基于矢量地图和栅格地图的自动驾驶车辆路径规划方法 |
-
2019
- 2019-06-26 CN CN201910560593.XA patent/CN110262495B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110262495A (zh) | 2019-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110262495B (zh) | 可实现移动机器人自主导航与精确定位的控制系统及方法 | |
CN108762264B (zh) | 基于人工势场与滚动窗口的机器人的动态避障方法 | |
CN112882053B (zh) | 一种主动标定激光雷达和编码器外参的方法 | |
WO2012153629A1 (ja) | 運動予測制御装置と方法 | |
De Lima et al. | Navigation of an autonomous car using vector fields and the dynamic window approach | |
CN111258316B (zh) | 一种动态环境下趋势感知的机器人轨迹规划方法 | |
JPH04324505A (ja) | 自律移動機械、移動機械の制御装置及び方法 | |
WO2022252221A1 (zh) | 一种移动机器人队列系统及路径规划、跟随方法 | |
CN114200945B (zh) | 一种移动机器人的安全控制方法 | |
US11527028B2 (en) | Systems and methods for monocular based object detection | |
CN115993825A (zh) | 一种基于空地协同的无人车集群控制系统 | |
Chen et al. | Collision-free UAV navigation with a monocular camera using deep reinforcement learning | |
CN115933648A (zh) | 一种机器人动态避障方法及系统 | |
CN114371716A (zh) | 一种用于消防机器人的自动驾驶巡检方法 | |
WO2020167299A1 (en) | Printing systems | |
CN114442630B (zh) | 一种基于强化学习和模型预测的智能车规划控制方法 | |
CN116728410A (zh) | 一种在狭窄工作环境下的机器人绝对定位精度误差补偿方法 | |
JP5314788B2 (ja) | 自律移動装置 | |
Aref et al. | A multistage controller with smooth switching for autonomous pallet picking | |
Kim et al. | Single 2D lidar based follow-me of mobile robot on hilly terrains | |
Hoshino et al. | End-to-end discrete motion planner based on deep neural network for autonomous mobile robots | |
Gao et al. | An obstacle detection and avoidance system for mobile robot with a laser radar | |
Emter et al. | Stochastic cloning for robust fusion of multiple relative and absolute measurements | |
Nejad et al. | Real time localization, path planning and motion control for autonomous parking in cluttered environment with narrow passages | |
AU2021448614A1 (en) | Precise stopping system and method for multi-axis flatbed vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |