CN113325837A - 一种用于多信息融合采集机器人的控制系统及方法 - Google Patents
一种用于多信息融合采集机器人的控制系统及方法 Download PDFInfo
- Publication number
- CN113325837A CN113325837A CN202110440691.7A CN202110440691A CN113325837A CN 113325837 A CN113325837 A CN 113325837A CN 202110440691 A CN202110440691 A CN 202110440691A CN 113325837 A CN113325837 A CN 113325837A
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- information
- inspection task
- inspection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims description 30
- 238000007689 inspection Methods 0.000 claims abstract description 94
- 230000001360 synchronised effect Effects 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 230000008447 perception Effects 0.000 claims abstract description 17
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 9
- 230000007613 environmental effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 206010021143 Hypoxia Diseases 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 231100000167 toxic agent Toxicity 0.000 description 1
- 239000003440 toxic substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Abstract
本发明涉及一种用于多信息融合采集机器人的控制系统,采用基于行为的控制架构与基于知识控制架构进行融合的架构,包括感知和信息采集模块、同步定位与建图模块、自主导航模块;所述感知和信息采集模块用于通过多个传感器进行多信息融合采集;所述同步定位与建图模块用于使得各传感器的量测信息之间保持有效的时间同步和空间同步,实现同步定位与建图;所述自主导航模块包括巡检智能化自主导航模块及侦察智能化自主导航模块。本发明将移动机器人的感知、建模、规划、决策、行动等多个功能模块合理地耦合、组装于一体去完成各类任务,能够满足多信息融合采集机器人的控制要求。
Description
技术领域
本发明属于机器人控制技术领域,尤其涉及一种用于多信息融合采集机器人的控制系统及方法。
背景技术
爆炸环境下多伴随有毒物质泄漏、粉尘污染等次生灾害的发生,给救援人员第一时间进入事故现场带来障碍,为正确收集、分析事故现场、部署处置与救援方案等带来困难。多信息融合采集机器人可以代替危险事故中快速准确的采集现场信息,给消防救援工作安装一双“远程眼睛”,这对救援人员在现场进行救援处置决策起到了非常重要的作用。
多信息融合采集机器人,要求能够在人无法进入以及了解的环境中工作。相较于以往的常态环境下的机器人、人工控制为主的机器人,多信息融合采集机器人要求更高的智能性,工作的场景普遍具有较高的动态性、未知性和封闭性,要求无人系统在缺乏环境先验信息和可靠外界辅助信息源(例如GPS、遥测系统等)的前提下,具有仅依靠自身传感器实现环境感知和全自主导航定位的能力,为后续工作提供必要的信息支撑。为了满足其工作要求,需要一种可靠的控制系统及方法。
发明内容
本发明的目的是提供一种用于多信息融合采集机器人的控制系统及方法,以解决上述技术问题。
本发明提供了一种用于多信息融合采集机器人的控制系统,采用基于行为的控制架构与基于知识控制架构进行融合的架构,包括感知和信息采集模块、同步定位与建图模块、自主导航模块;
所述感知和信息采集模块用于通过多个传感器进行多信息融合采集;
所述同步定位与建图模块用于使得各传感器的量测信息之间保持有效的时间同步和空间同步,实现同步定位与建图;
所述自主导航模块包括巡检智能化自主导航模块及侦察智能化自主导航模块;
所述巡检智能化自主导航模块用于:
获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航模块用于:
获取履带式底盘机器人的激光雷达数据;
根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
本发明还提供了一种用于多信息融合采集机器人的控制方法,包括:
基于多个传感器进行多信息融合采集;
使各传感器的量测信息之间保持有效的时间同步和空间同步,进行同步定位与建图;
基于采集的融合信息及同步定位与建图信息进行机器人智能化自主导航;
所述机器人智能化自主导航包括巡检智能化自主导航及侦察智能化自主导航;
所述巡检智能化自主导航包括如下步骤:
步骤1,获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
步骤2,根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
步骤3,基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
步骤4,基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航包括如下步骤:
步骤1),获取履带式底盘机器人的激光雷达数据;
步骤2),根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
步骤3),以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
步骤4),根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
进一步地,所述步骤4包括:
接收到下发的导航任务信息后开始启动;所述导航任务信息包括目标点的位姿以及导航方式;
选择对应的控制器后开始执行,在一个固定控制周期里,根据机器人当前的姿态、速度以及预设参数经过控制器生成控制指令下发给底层驱动模块;
接收激光雷达驱动的激光数据信息和底层驱动模块的超声波数据信息,判断障碍物的距离,并根据此距离生成一个速度基准以影响控制器的输出速度。
进一步地,所述步骤4还包括:
当机器人在充电房进行后退导航时,开启充电房定位功能,将机器人位姿通过齐次坐标变换矩阵变换到全局坐标系下,为机器人提供一个统一的导航坐标系,方便机器人的导航针对变电站环境的实际情况,实现基于二维栅格地图的环境建模,并根据巡检的路线以及巡检任务,在栅格图的基础上通过人工部署来构造拓扑图;
当下达巡检任务时,根据要巡检的任务点,在拓扑图上基于LKH算法规划路径;使用AMCL算法定位,结合已有的二维栅格地图以及激光和里程计数据,输出机器人当前的位姿;
当机器人处于充电房,需要对充电桩充电时,直接根据充电房内的标识物定位,给出定位信息。
进一步地,步骤2)中所述全局地图基于学习模式下的基础地图及当前区域地图融合构建完成;所述基础地图基于多次视频图像机器学习提前构建完成。
进一步地,所述视频图像机器学习包括道路识别学习和仪表识别学习,所述道路识别学习包括针对具体道路进行智能训练,以提高道路和障碍物识别准确度;所述仪表识别学习包括针对具体表盘进行训练,以提高系统仪表指数的识别准确度。
进一步地,所述针对具体道路进行智能训练包括:
模拟人眼观察逻辑,智能识别道路;
与双目视觉进行融合,进行视觉避障;
与GPS配合使用,应用于复杂环境的定位导航。
进一步地,所述针对具体表盘进行训练包括:
针对环境光线的影响进行训练,以提高抗干扰能力;
针对环境噪声、仪表盘自身倾斜状态进行训练,以提高识别鲁棒性。
借由上述方案,通过用于多信息融合采集机器人的控制系统及方法,将移动机器人的感知、建模、规划、决策、行动等多个功能模块合理地耦合、组装于一体去完成各类任务,能够满足多信息融合采集机器人的控制要求。
附图说明
图1是本发明机器人巡检智能化自主导航的流程图;
图2是本发明一实施例中机器人智能化自主导航的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明提供了一种用于多信息融合采集机器人的控制系统,采用基于行为的控制架构与基于知识控制架构进行融合的架构,包括感知和信息采集模块、同步定位与建图模块、自主导航模块;
所述感知和信息采集模块用于通过多个传感器进行多信息融合采集;
所述同步定位与建图模块用于使得各传感器的量测信息之间保持有效的时间同步和空间同步,实现同步定位与建图;
所述自主导航模块包括巡检智能化自主导航模块及侦察智能化自主导航模块;
所述巡检智能化自主导航模块用于:
获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航模块用于:
获取履带式底盘机器人的激光雷达数据;
根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
该用于多信息融合采集机器人的控制系统,将移动机器人的感知、建模、规划、决策、行动等多个功能模块合理地耦合、组装于一体去完成各类任务,能够满足多信息融合采集机器人的控制要求。
参图1及图2所示,本实施例还听歌了一种用于多信息融合采集机器人的控制方法,包括:
基于多个传感器进行多信息融合采集;
使各传感器的量测信息之间保持有效的时间同步和空间同步,进行同步定位与建图;
基于采集的融合信息及同步定位与建图信息进行机器人智能化自主导航;
所述机器人智能化自主导航包括巡检智能化自主导航及侦察智能化自主导航;
所述巡检智能化自主导航包括如下步骤:
步骤1,获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
步骤2,根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
步骤3,基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
步骤4,基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航包括如下步骤:
步骤1),获取履带式底盘机器人的激光雷达数据;
步骤2),根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
步骤3),以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
步骤4),根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
该用于多信息融合采集机器人的控制方法,将移动机器人的感知、建模、规划、决策、行动等多个功能模块合理地耦合、组装于一体去完成各类任务,能够满足多信息融合采集机器人的控制要求。
下面对该系统感知和信息采集、同步定位和建图、路径规划和统一控制架构几方面进行详细说明。
1、感知和信息采集
1)环境感知(图像信息)
多信息融合采集机器人所处的工作环境与常态环境大不相同。将要面对的易燃易爆气体外泄和有一定粉尘浓度的情况下,同时高温、缺氧、能见度低等恶劣条件。对于周围环境的信息采集难度也相应的增大。为救援工作等提供更可靠的图像信息,本系统选用了RGB传感器和红外线传感器结合使用的方式。
后台图像处理
采集到的环境图像信息需要经过相应的技术处理,形成更加直观的图像提供给救援人员。对于RGB传感器,在亮度较高的场所,检测效果并不理想,同时,在亮度较高的场所通常为有高温高热的环境,红外线传感器则能够更好的检测到周围的信息,要做到他们两者的结合处理。
2)多信息融合检测
多信息融合采集机器人工作的场所会有易燃易爆气体外泄和有一定粉尘浓度,同时高温、缺氧、能见度低等恶劣条件,所以要检测的不仅仅是环境的图像信息,更要检测危险气体浓度、温度、湿度等多种信息,而多种信息的采集需要对传感器的数量位置进行设计,来达到更好的效果。
对于采集到的多种信息,如温度、湿度等,都将是某一点或线上的信息,而全面覆盖的信息检测是不现实的,所以就要对能够检测到的信息进行处理,利用采样定理等通过部分的信息拟合出大范围区域的信息。
采集到的环境信息之间有大量的重复,即出现冗余现象,重复信息会占用大量的存储空间,浪费无线传感器网络信息传输和处理的能耗,为此环境信息的去冗余处理十分关键。同时需要对收集到的信息进行降噪、降低误差影响等选择处理,使信息具有更高的可用性和真实性。同时可以通过数值模拟,将拟合出的大范围信息模拟成更加形象的形式(如结合到三维环境图像上),是救援现场的情况更加清晰,更能反映真实情况。
2、同步定位与建图
多信息融合采集机器人系统在缺乏环境先验信息和可靠外界辅助信息源(例如GPS、遥测系统等)的前提下,应该具有仅依靠自身传感器实现全自主导航定位和环境感知的能力,而同步定位与建图技术是解决这一问题的首选方案。选择视觉SLAM作为主体,并结合多信息融合采集机器人的特殊工作环境和现阶段视觉SLAM的发展情况,进行相应的改进。
前述的环境信息感知,采用的是多种传感器,在此基础上需要加入惯性测量单元,进行多传感器集成的视觉SLAM,更好的满足无人系统的高动态性,强鲁棒性的要求。一方面,前述的多传感器硬件要进行高度有效的集成,这样才能使系统小型化;另一方面,多传感器信息的处理与需要足够的高效且准确,要使得各传感器的量测信息之间保持有效的时间同步和空间同步,实现同步定位与建图。
结合语义信息可以提高SLAM的定位精度,且深度学习在图像内容的理解上有优势。在提高视觉SLAM自主定位精度和鲁棒性的同时,完成路径规划向任务规划的升级,实现更高级的人机交互和环境感知。
3、智能化自主导航和路径规划
实现机器人路线规划、自主导航、躲避障碍、自动停位和完成定点巡检任务。实现非常态环境/非正常路面下自主导航。
1)机器人巡检智能化自主导航
通过激光雷达获取雷达数据,根据雷达数据采用SLAM(定位与地图构建技术)算法构建当前区域的地图,然后通过多次机器学习提前构建巡检区域全局3D地图信息,以此巡检区域全局3D地图信息为重要基础,制定巡检任务点和巡检任务等指令,系统根据线路规划算法、导航算法和机器人控制算法执行巡检任务。
视频图像机器学习模型需要大量的视频/图片数据进行提前机器学习以提高识别准确率。
在完成巡检区域全局3D地图信息的构建基础上,通过以下导航模式来开展选件工作。
导航模块接收到下发的导航任务后开始启动。导航任务信息中主要包括目标点的位姿以及导航方式(如果选择轨迹跟踪导航,还需要给出要跟踪的轨迹)。导航模块选择对应的控制器后就开始执行,在一个固定控制周期里,根据机器人当前的姿态、速度以及设定的一些参数经过控制器生成v和w指令下发给底层驱动模块。同时导航模块会接受激光雷达驱动的激光数据信息和底层驱动模块的超声波数据信息,来判断障碍物的距离,根据此距离生成一个速度基准以影响控制器的输出速度。
当机器人在充电房进行后退导航时,会开启充电房定位功能,此时的定位信息由于是在局部坐标系(充电房的定位信息基于激光雷达到充电房的位置姿态坐标)下的,所以此时将机器人位姿通过齐次坐标变换矩阵变换到全局坐标系下,从而为机器人提供一个统一的导航坐标系,方便机器人的导航针对变电站环境的实际情况,实现了基于二维栅格地图的环境建模,并根据巡检的路线以及巡检任务,在栅格图的基础上通过人工部署来构造拓扑图;为了寻找最优巡检路线,当下达巡检任务时,根据要巡检的任务点,在拓扑图上基于LKH算法规划路径;使用AMCL算法来定位,结合已有的二维栅格地图以及激光和里程计数据,输出机器人当前的位姿,另外当机器人处于充电房,需要对充电桩充电时,直接根据充电房内的标识物来定位,给出较为准确的定位信息;为了应对不同条件下的导航需求,根据机器人实际的导航路线,设计三种导航方式,前向直线导航、后退直线导航、以及基于反步法的轨迹跟踪控制导航。
管理段系统功能有如下几点:
自制定巡检计划:机器人定时自动开始巡检。
设置巡检预设点:调整机器人巡检路线,控制机器人巡检视角。
自动巡检切换至手动控制,可手动操控机器人运动,用以应对极端情况。
视频智能识别采用机器学习方案,主要分为道路识别和仪表识别。
道路识别针对具体道路进行智能训练,提高道路和障碍物识别准确度。模拟人眼观察逻辑,智能识别道路。与双目视觉进行融合,进行视觉避障。达到有效识别车辆、行人等动态障碍。与GPS配合使用,可应用于复杂环境的定位导航。
仪表识别针对具体表盘需要进行一定的训练,提高系统的仪表指数的识别准确度。
针对环境的光线等影响具有一定的抗干扰能力,例如反光下的识别。
针对环境噪声、仪表盘自身倾斜等状况具有较好的鲁棒性。
2)机器人侦察智能化自主导航
机器人进入到未知区域,根据雷达数据采用SLAM(定位与地图构建技术)算法构建当前区域的地图,实现当前区域的全局定位,确定机器人的全局位置,并以此位置为基点,自动计算可行进路线方向,计算可行进路线方向算法以探索未知区域为优先考虑。
重复以上过程,快速完成未知区域的探索。后台算法的重点是探索过程中对非常态路面环境下的合理路径规划和导航算法中针对履带式底盘机器人越障爬坡等能力在非常态路面环境下准确合理判断行进路线并根据实际自主定位和导航实时修正优化路径。
通过雷达数据SLAM(定位与地图构建技术)算法来构建当前区域的地图,机器人在地图中的行进决策方法有四种:栅格地图、特征地图、直接表征法以及拓扑地图。在此应用场景下本实施例使用拓扑地图。
拓扑地图是一种相对更加抽象的地图形式,这种方法只记录所在环境拓扑链接关系,这类地图一般是由前几类地图通过相关算法提取得到。
履带式底盘机器人进入到未知区域时,先建立这样的拓扑地图:
在机器人实时定位问题中,由于通过机器人运动估计得到的机器人位置信息通常具有较大的误差,还需要使用测距单元得到的周围环境信息更正机器人的位置。常见的测距单元包括激光测距、超声波测距以及图像测距三种。其中,凭借激光良好的指向性和高度聚焦性,激光雷达已经成为移动机器人的核心传感器,同时它也是目前最可靠、最稳定的定位技术。
激光SLAM采用2D或3D激光雷达(也叫单线或多线激光雷达),激光雷达的出现和普及使得测量更快更准,信息更丰富。激光雷达采集到的物体信息呈现出一系列分散的、具有准确角度和距离信息的点,被称为点云。通常,激光SLAM系统通过对不同时刻两片点云的匹配与比对,计算激光雷达相对运动的距离和姿态的改变,也就完成了对机器人自身的定位。
激光雷达测距比较准确,误差模型简单,在强光直射以外的环境中运行稳定,点云的处理也比较容易。同时,点云信息本身包含直接的几何关系,使得机器人的路径规划和导航变得直观。
控制算法是自主导航的核心内容,SLAM/线路规划算法的计算结果是自主导航的基础,最终实现自主导航首选需要获得各个传感器测量的数据,需要结合雷达定位的全局位置、避障传感器的信号、运动速度、驱动电机的编码器信息等。将这些信息和预定义路径信息一起发送给控制系统,从而确定机器人下一时刻需要完成的转弯动作。最后发送指令给转弯电机转动一定的角度,使机器人回到预定义路径上,机器人时刻修正自身全局位置,调整位姿,最终到达目的地。
视频智能识别采用机器学习方案,仪表识别同机器人巡检智能化自主导航的详细设计方案中的内容,这里就不做重复阐述。
4、统一控制架构
移动机器人的控制架构就是将移动机器人的感知、建模、规划、决策、行动等多个功能模块合理地耦合、组装于一体去完成各类任务。目前有基于场景和态势的、基于知识的和基于行为的移动机器人的三类主流控制架构。
而多信息融合采集机器人的工作环境较为复杂,遇到的突发情况较多,因此选择基于行为的控制架构为主体,但是对于某些指定任务将有着固定的处理优先级,将基于知识的控制架构进行融合。参考ROS导航包:导航包整体上是SPA结构,而基于行为方法就是为了处理各种意外而生的。当机器人遇到障碍物或是被卡住的时候,内嵌的基于行为的系统就开始发挥作用。会根据情况,在“行为库”recovery_behaviors中调用某一预先设定的“行为”来摆脱困境。
另外,环境复杂程度较高,决策就需要更高效,所以也需要融合其他技术进行决策方面的提升。选择将强化学习和深度学习结合的深度强化学习来进行决策处理。需要针对多信息融合采集机器人的工作环境和任务进行相应的调整。
以上所述仅是本发明的优选实施方式,并不用于限制本发明,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。
Claims (8)
1.一种用于多信息融合采集机器人的控制系统,其特征在于,采用基于行为的控制架构与基于知识控制架构进行融合的架构,包括感知和信息采集模块、同步定位与建图模块、自主导航模块;
所述感知和信息采集模块用于通过多个传感器进行多信息融合采集;
所述同步定位与建图模块用于使得各传感器的量测信息之间保持有效的时间同步和空间同步,实现同步定位与建图;
所述自主导航模块包括巡检智能化自主导航模块及侦察智能化自主导航模块;
所述巡检智能化自主导航模块用于:
获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航模块用于:
获取履带式底盘机器人的激光雷达数据;
根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
2.一种用于多信息融合采集机器人的控制方法,其特征在于,包括:
基于多个传感器进行多信息融合采集;
使各传感器的量测信息之间保持有效的时间同步和空间同步,进行同步定位与建图;
基于采集的融合信息及同步定位与建图信息进行机器人智能化自主导航;
所述机器人智能化自主导航包括巡检智能化自主导航及侦察智能化自主导航;
所述巡检智能化自主导航包括如下步骤:
步骤1,获取轮式底盘机器人的多传感器数据,所述多传感器数据包括激光雷达数据、双目机器视觉数据、超声波数据、环绕摄像头数据;
步骤2,根据获取的多传感器数据,基于SLAM算法构建当前区域地图;
步骤3,基于学习模式下的基础地图及当前区域地图,融合构建巡检区域全局3D地图,并以构建的巡检区域全局3D地图为基础,确定巡检任务点和巡检任务;所述基础地图基于多次视频图像机器学习提前构建;
步骤4,基于确定的巡检任务点及巡检任务,在地图中定位并规划路径,控制机器人运动系统到达巡检任务点执行巡检任务,并通过机器学习不断精确地图,探索并拓展地图;
所述侦察智能化自主导航包括如下步骤:
步骤1),获取履带式底盘机器人的激光雷达数据;
步骤2),根据获取的激光雷达数据,基于SLAM算法构建当前区域地图,根据当前区域地图构建巡检区域全局地图,确定机器人的全局位置;所述当前区域地图为拓扑地图;
步骤3),以机器人的全局位置为基点,自动计算可行进路线方向,并完成未知区域探索及路径规划;
步骤4),根据巡检任务点及巡检任务,控制机器人运动系统到达巡检任务点执行巡检任务。
3.根据权利要求2所述的用于多信息融合采集机器人的控制方法,其特征在于,所述步骤4包括:
接收到下发的导航任务信息后开始启动;所述导航任务信息包括目标点的位姿以及导航方式;
选择对应的控制器后开始执行,在一个固定控制周期里,根据机器人当前的姿态、速度以及预设参数经过控制器生成控制指令下发给底层驱动模块;
接收激光雷达驱动的激光数据信息和底层驱动模块的超声波数据信息,判断障碍物的距离,并根据此距离生成一个速度基准以影响控制器的输出速度。
4.根据权利要求3所述的用于多信息融合采集机器人的控制方法,其特征在于,所述步骤4还包括:
当机器人在充电房进行后退导航时,开启充电房定位功能,将机器人位姿通过齐次坐标变换矩阵变换到全局坐标系下,为机器人提供一个统一的导航坐标系,方便机器人的导航针对变电站环境的实际情况,实现基于二维栅格地图的环境建模,并根据巡检的路线以及巡检任务,在栅格图的基础上通过人工部署来构造拓扑图;
当下达巡检任务时,根据要巡检的任务点,在拓扑图上基于LKH算法规划路径;使用AMCL算法定位,结合已有的二维栅格地图以及激光和里程计数据,输出机器人当前的位姿;
当机器人处于充电房,需要对充电桩充电时,直接根据充电房内的标识物定位,给出定位信息。
5.根据权利要求2所述的用于多信息融合采集机器人的控制方法,其特征在于,步骤2)中所述全局地图基于学习模式下的基础地图及当前区域地图融合构建完成;所述基础地图基于多次视频图像机器学习提前构建完成。
6.根据权利要求5所述的用于多信息融合采集机器人的控制方法,其特征在于,所述视频图像机器学习包括道路识别学习和仪表识别学习,所述道路识别学习包括针对具体道路进行智能训练,以提高道路和障碍物识别准确度;所述仪表识别学习包括针对具体表盘进行训练,以提高系统仪表指数的识别准确度。
7.根据权利要求6所述的用于多信息融合采集机器人的控制方法,其特征在于,所述针对具体道路进行智能训练包括:
模拟人眼观察逻辑,智能识别道路;
与双目视觉进行融合,进行视觉避障;
与GPS配合使用,应用于复杂环境的定位导航。
8.根据权利要求7所述的用于多信息融合采集机器人的控制方法,其特征在于,所述针对具体表盘进行训练包括:
针对环境光线的影响进行训练,以提高抗干扰能力;
针对环境噪声、仪表盘自身倾斜状态进行训练,以提高识别鲁棒性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110440691.7A CN113325837A (zh) | 2021-04-23 | 2021-04-23 | 一种用于多信息融合采集机器人的控制系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110440691.7A CN113325837A (zh) | 2021-04-23 | 2021-04-23 | 一种用于多信息融合采集机器人的控制系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113325837A true CN113325837A (zh) | 2021-08-31 |
Family
ID=77413658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110440691.7A Pending CN113325837A (zh) | 2021-04-23 | 2021-04-23 | 一种用于多信息融合采集机器人的控制系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113325837A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114235165A (zh) * | 2021-12-15 | 2022-03-25 | 浙江富视云智能科技有限公司 | 一体化智能巡检多人测温装置 |
CN114252074A (zh) * | 2021-12-08 | 2022-03-29 | 天津港股份有限公司 | 一种无人导引运输车导航系统 |
CN115200588A (zh) * | 2022-09-14 | 2022-10-18 | 煤炭科学研究总院有限公司 | 移动机器人的slam自主导航方法及其装置 |
CN115979249A (zh) * | 2023-03-20 | 2023-04-18 | 西安国智电子科技有限公司 | 巡检机器人的导航方法及装置 |
CN116107321A (zh) * | 2023-04-13 | 2023-05-12 | 无锡科技职业学院 | 基于视觉与激光雷达融合的无人车路径规划系统及方法 |
CN116147606A (zh) * | 2022-12-02 | 2023-05-23 | 浙江大学 | 一种基于轮式移动机器人的自主探索建图方法及系统 |
CN116423545A (zh) * | 2023-03-30 | 2023-07-14 | 深圳墨影科技有限公司 | 一种移动协作机器人一体化控制系统 |
CN117405178A (zh) * | 2023-12-15 | 2024-01-16 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测平台及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140172296A1 (en) * | 2012-07-30 | 2014-06-19 | Aleksandr Shtukater | Systems and methods for navigation |
CN108759822A (zh) * | 2018-04-12 | 2018-11-06 | 江南大学 | 一种移动机器人3d定位系统 |
CN112461227A (zh) * | 2020-10-22 | 2021-03-09 | 新兴际华集团有限公司 | 轮式底盘机器人巡检智能化自主导航方法 |
CN112518739A (zh) * | 2020-10-22 | 2021-03-19 | 新兴际华集团有限公司 | 履带式底盘机器人侦察智能化自主导航方法 |
CN112525202A (zh) * | 2020-12-21 | 2021-03-19 | 北京工商大学 | 一种基于多传感器融合的slam定位导航方法及系统 |
-
2021
- 2021-04-23 CN CN202110440691.7A patent/CN113325837A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140172296A1 (en) * | 2012-07-30 | 2014-06-19 | Aleksandr Shtukater | Systems and methods for navigation |
CN108759822A (zh) * | 2018-04-12 | 2018-11-06 | 江南大学 | 一种移动机器人3d定位系统 |
CN112461227A (zh) * | 2020-10-22 | 2021-03-09 | 新兴际华集团有限公司 | 轮式底盘机器人巡检智能化自主导航方法 |
CN112518739A (zh) * | 2020-10-22 | 2021-03-19 | 新兴际华集团有限公司 | 履带式底盘机器人侦察智能化自主导航方法 |
CN112525202A (zh) * | 2020-12-21 | 2021-03-19 | 北京工商大学 | 一种基于多传感器融合的slam定位导航方法及系统 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114252074A (zh) * | 2021-12-08 | 2022-03-29 | 天津港股份有限公司 | 一种无人导引运输车导航系统 |
CN114235165A (zh) * | 2021-12-15 | 2022-03-25 | 浙江富视云智能科技有限公司 | 一体化智能巡检多人测温装置 |
CN115200588A (zh) * | 2022-09-14 | 2022-10-18 | 煤炭科学研究总院有限公司 | 移动机器人的slam自主导航方法及其装置 |
CN116147606A (zh) * | 2022-12-02 | 2023-05-23 | 浙江大学 | 一种基于轮式移动机器人的自主探索建图方法及系统 |
CN116147606B (zh) * | 2022-12-02 | 2023-09-08 | 浙江大学 | 一种基于轮式移动机器人的自主探索建图方法及系统 |
CN115979249A (zh) * | 2023-03-20 | 2023-04-18 | 西安国智电子科技有限公司 | 巡检机器人的导航方法及装置 |
CN115979249B (zh) * | 2023-03-20 | 2023-06-20 | 西安国智电子科技有限公司 | 巡检机器人的导航方法及装置 |
CN116423545A (zh) * | 2023-03-30 | 2023-07-14 | 深圳墨影科技有限公司 | 一种移动协作机器人一体化控制系统 |
CN116423545B (zh) * | 2023-03-30 | 2024-04-12 | 深圳墨影科技有限公司 | 一种移动协作机器人一体化控制系统 |
CN116107321A (zh) * | 2023-04-13 | 2023-05-12 | 无锡科技职业学院 | 基于视觉与激光雷达融合的无人车路径规划系统及方法 |
CN117405178A (zh) * | 2023-12-15 | 2024-01-16 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测平台及方法 |
CN117405178B (zh) * | 2023-12-15 | 2024-03-15 | 成都电科星拓科技有限公司 | 一种自动化检测室内环境参数的移动监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113325837A (zh) | 一种用于多信息融合采集机器人的控制系统及方法 | |
CN113189977B (zh) | 一种用于机器人的智能导航路径规划系统及方法 | |
CN112650255B (zh) | 基于视觉与激光雷达信息融合的机器人定位导航方法 | |
CN112518739A (zh) | 履带式底盘机器人侦察智能化自主导航方法 | |
CN112461227B (zh) | 轮式底盘机器人巡检智能化自主导航方法 | |
EP3336489A1 (en) | Method and system for automatically establishing map indoors by mobile robot | |
Zhang et al. | Automated guided vehicles and autonomous mobile robots for recognition and tracking in civil engineering | |
CN107092264A (zh) | 面向银行厅堂环境的服务机器人自主导航与自动充电方法 | |
CN102288176B (zh) | 基于信息融合的煤矿救灾机器人导航系统及方法 | |
CN109917786A (zh) | 一种面向复杂环境作业的机器人感知系统及系统运行方法 | |
CN202216696U (zh) | 基于信息融合的煤矿救灾机器人导航装置 | |
CN111624641A (zh) | 一种防爆型油库区智能巡检机器人 | |
CN214520204U (zh) | 一种基于深度相机和激光雷达的港区智能巡检机器人 | |
CN109839118A (zh) | 路径规划方法、系统、机器人和计算机可读存储介质 | |
CN113566808A (zh) | 一种导航路径规划方法、装置、设备以及可读存储介质 | |
CN113050685B (zh) | 一种煤矿井下无人机自主巡检的方法 | |
CN115793649B (zh) | 一种电缆沟自动巡检装置及巡检方法 | |
Lamon et al. | The SmartTer-a vehicle for fully autonomous navigation and mapping in outdoor environments | |
CN116352722A (zh) | 多传感器融合的矿山巡检救援机器人及其控制方法 | |
CN115661966A (zh) | 一种基于增强现实的巡检系统和方法 | |
Lv et al. | A deep safe reinforcement learning approach for mapless navigation | |
Guan et al. | Intelligent obstacle avoidance algorithm for mobile robots in uncertain environment | |
Wang et al. | Agv navigation based on apriltags2 auxiliary positioning | |
Braun et al. | Topological large-scale off-road navigation and exploration RAVON at the European Land Robot Trial 2008 | |
Tan et al. | An adaptive crack inspection method for building surface based on BIM, UAV and edge computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210831 |
|
RJ01 | Rejection of invention patent application after publication |