CN117075620B - 一种多巡检机器人的多任务导航调度方法及系统 - Google Patents

一种多巡检机器人的多任务导航调度方法及系统 Download PDF

Info

Publication number
CN117075620B
CN117075620B CN202311344566.1A CN202311344566A CN117075620B CN 117075620 B CN117075620 B CN 117075620B CN 202311344566 A CN202311344566 A CN 202311344566A CN 117075620 B CN117075620 B CN 117075620B
Authority
CN
China
Prior art keywords
inspection robot
model
inspection
node
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311344566.1A
Other languages
English (en)
Other versions
CN117075620A (zh
Inventor
姚道金
殷雄
董文涛
程宵
王晓明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Jiaotong University
Original Assignee
East China Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Jiaotong University filed Critical East China Jiaotong University
Priority to CN202311344566.1A priority Critical patent/CN117075620B/zh
Publication of CN117075620A publication Critical patent/CN117075620A/zh
Application granted granted Critical
Publication of CN117075620B publication Critical patent/CN117075620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种多巡检机器人的多任务导航调度方法及系统,方法包括:构建至少一个巡检机器人模型;获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务;根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。提高了巡检效率,缩短了巡检时间,扩大了巡检机器人作业面积,增加了巡检任务的复杂度,增强了对动态障碍物躲避能力,有利于高铁站多巡检机器人的合理调度。

Description

一种多巡检机器人的多任务导航调度方法及系统
技术领域
本发明属于移动机器人导航与路径规划技术领域,尤其涉及一种多巡检机器人的多任务导航调度方法及系统。
背景技术
目前高铁站体积庞大、现场环境复杂、需要巡检数量多,单巡检机器人可能无法完成巡检任务或完成效率太低,因此需要多巡检机器人进行巡检。国内外学者在多巡检机器人方面,进行了大量的研究,多巡检机器人完成多任务分配,导航和调度。自主完成巡检任务。
根据目前的研究成果来看,D*Lite算法是一种经典的基于图搜索算法,同样可以应用于路径规划问题;然而,D*Lite算法存在以下不足:(1)局部规划不精细;(2)搜索方向冗余;(3)路径不平滑;因此,D*Lite算法仍然存在有一些缺陷,使得算法容易陷入局部最优,在进行巡检机器人路径规划时,往往达不到理想的路径规划效果。
发明内容
本发明提供一种多巡检机器人的多任务导航调度方法及系统,用于解决在进行巡检机器人路径规划时,路径生成时间长同时无法有效的躲避动态障碍物的技术问题。
第一方面,本发明提供一种多巡检机器人的多任务导航调度方法,包括:
构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
第二方面,本发明提供一种多巡检机器人的多任务导航调度系统,包括:
构建模块,配置为构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
输出模块,配置为获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
规划模块,配置为根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的多巡检机器人的多任务导航调度方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述程序指令被处理器执行时,使所述处理器执行本发明任一实施例的多巡检机器人的多任务导航调度方法的步骤。
本申请的多巡检机器人的多任务导航调度方法及系统,具有以下有益效果:提高了巡检效率,缩短了巡检时间,扩大了巡检机器人作业面积,增加了巡检任务的复杂度,增强了对动态障碍物躲避能力,有利于高铁站多巡检机器人的合理调度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种多巡检机器人的多任务导航调度方法的流程图;
图2为本发明一实施例提供一个具体实施例的巡检机器人运动学模型示意图;
图3为本发明一实施例提供的一具体实施例的巡检机器人动力学模型示意图;
图4为本发明一实施例提供的一具体实施例的融合D*Lite_TEB算法的流程图;
图5为本发明一实施例提供的一种多巡检机器人的多任务导航调度系统的结构框图;
图6是本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,其示出了本申请的一种多巡检机器人的多任务导航调度方法的流程图。
如图1所示,多巡检机器人的多任务导航调度方法具体包括以下步骤:
步骤S101,构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型。
在本步骤中,构建巡检机器人的运动学模型具体过程包括:
如图2所示,假设在世界坐标系下巡检机器人的当前位姿信息为,/>分别为巡检机器人的横坐标、纵坐标和位姿角度,对巡检机器人进行运动学建模,得到巡检机器人的运动学模型,其中,所述运动学模型的左轮线速度和右轮线速度分别为:
,/>
式中,为巡检机器人/>时刻的左轮线速度,/>为巡检机器人/>时刻的左轮角速度,/>为巡检机器人的驱动轮半径,/>为巡检机器人/>时刻的右轮线速度,为巡检机器人/>时刻的右轮角速度;
用非线性方程来描述巡检机器人运动的表达式为:
式中,为巡检机器人/>时刻的位姿,/>为巡检机器人水平方向的线速度,为巡检机器人竖直方向的线速度,/>为巡检机器人的旋转角速度,/>为巡检机器人的旋转角度,/>为巡检机器人/>时刻的线速度,/>为巡检机器人/>时刻的角速度;
其中,,/>为巡检机器人轴距的一半。
构建巡检机器人的动力学模型具体过程包括:
如图3所示,分别对巡检机器人在X轴、Y轴、Z轴方向及电机输出轴方向进行受力分析,则巡检机器人在X轴、Y轴方向上受力满足牛顿第二定律,在Z轴方向上所受力矩满足转动定律,在电机输出轴方向上所受力矩满足转动定律,得到动力学方程为:
式中,为巡检机器人的质量,/>为巡检机器人x轴方向上的加速度,/>为巡检机器人角加速度,/>为质心到两驱动轮轴中心的距离,/>为巡检机器人与 Y 轴的夹角,/>为巡检机器人角速度,/>为巡检机器人移动时右驱动轮受到地面沿XR轴方向上的约束反力,为巡检机器人移动时左驱动轮受到地面沿XR轴方向上的约束反力,/>为万向轮受到地面沿XR轴方向上的约束反力,/>为/>、/>和/>的合力,/>为巡检机器人移动时左驱动轮受到地面沿YR轴方向上的约束反力,/>为巡检机器人移动时右驱动轮受到地面沿YR轴方向上的约束反力,/>为万向轮受到地面沿YR轴方向上的约束反力,/>为巡检机器人y轴方向上的加速度,/>为巡检机器人沿质心C绕Z轴的转动惯量,/>为驱动轮绕输出轴的转动惯量,/>为左驱动轮角位移的二阶导,/>为左驱动电机输出力矩,/>为右驱动轮角位移的二阶导,/>为右驱动电机输出力矩。
步骤S102,获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点。
假设巡检区域内存在个巡检机器人和/>个目标点,则设定所述SOM神经网络模型的输入层由/>个神经元/>构成,其中/>个神经元为目标点的坐标,将目标点的坐标依次排序,即为所述SOM神经网络模型的输入数据集;
所述SOM神经网络模型的输出层由个神经元构成, 其中/>个神经元为/>个巡检机器人的初始位置坐标和所需完成巡检任务的目标点的坐标;
输出神经元权向量由巡检机器人初始位置坐标来初始化,当任务分配过程完成后,根据所述SOM神经网络模型中的分配函数对个目标点的坐标从/>个输出神经元中各吸引/>个神经元,从而对/>个巡检机器人分配/>个目标点的坐标,其中,所述分配函数的表达式为:
式中,为分配函数,/>为与相对距离有关的权重,/>为神经元个数,/>为输出神经元组数;
式中,为目标点在二维平面内的位置坐标,/>为第/>组输出神经元中第/>个神经元的权向量,/>为负载均衡参数,/>为目标点个数;
式中,(,/>)为目标点在二维平面内的位置坐标,(/>,/>)为表示某个机器人在二维平面内的位置坐标;
式中,为第/>个巡检机器人的剩余能量,/>为第/>个巡检机机器人线速度,为第/>个巡检机器人移动的路径长度。
需要说明的是,所述输出神经元权向量由巡检机器人初始位置坐标来初始化,当任务分配过程完成后,根据所述SOM神经网络模型中的分配函数对个目标点的坐标从/>个输出神经元中各吸引/>个神经元,从而对/>个巡检机器人分配/>个目标点的坐标包括:
初始化权值,归一化输入向量:使用较小的随机值对权值初始化,并对输入向量进行归一化处理,得到和/>,/>为初始化后向量,/>为输入向量,/>为输入向量的模,/>为竞争层所有权值向量,/>为权值向量,/>为权值向量的模;
将样本输入网络,寻找获胜神经元:随机挑选一样本,计算一样本与竞争层节点的权值向量之间的欧几里得距离,将与输出层所有权值向量/>作比较,距离最小的权重向量成为获胜神经元,计算获胜神经元的表达式为:
式中,为获胜神经元,/>为第n个输入向量,/>为第n个权值向量,/>为输出神经元;
更新权值:更新获胜神经元相邻的神经元权值向量,重新归一化学习后的权值,其中权值调整函数的表达式为:
式中,为第/>次迭代的权值调整函数;
式中,为重新归一化学习后的权值,/>为当前节点v的权值,为邻域函数,即迭代次数与获胜神经元的距离函数,/>为第/>次迭代的学习率,/>为表示输入向量。
步骤S103,根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
在本步骤中,所述融合算法由改进的D*_Lite算法和改进的TEB算法融合得到,根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径,如图4所示。
改进传统 D*_Lite 算法,调整算法搜索方向,具体内容指:在移动机器人行业中,传统 D*_Lite 算法早已被用于规划目的,但难以避免移动障碍和临时障碍;节点搜索策略的影响使其呈现出大量的冗余点,传统 D*_Lite 算法从 8 个方向搜索其相邻的子节点,它从开始节点到目标节点访问图中的节点;然而,它的简单搜索策略在面向不同环境时是固定的,在大多数情况下,巡检机器人所处的障碍物环境并不复杂,此时可以减少搜索方向的数量,本申请提出一种 5 子节点搜索方法,该方法将当前节点与目标节点连接起来,并设置巡检机器人与 Y 轴的夹角为,由式可得:
式中,、/>分别为目标节点的横坐标和纵坐标,/>、/>分别为当前节点的横坐标和纵坐标;以该节点为中心,该区域没有障碍物时,搜索方向从8降为5,即当/>∈[337.5°, 360°)∪[0, 22.5)时,保留0°、45°、90°、270°和315°搜索方向,舍弃135°,180°,225°搜索方向;当θ ∈ [22.5°, 67.5°)时,保留0°、45°、90°、135°和315°搜索方向,舍弃180°,225°,270°搜索方向;当θ ∈ [67.5°, 112.5°)时,保留0°、45°、90°、135°和180°搜索方向,舍弃225°,270°,315°搜索方向;当/>∈ [112.5°, 157.5°)时,保留45°、90°、135°、180°和225°搜索方向,舍弃270°,315°,0°搜索方向;当/>∈[157.5°, 202.5°)时,保留90°、135°、180°、225°和270°搜索方向,舍弃0°,45°,315°搜索方向;当/>∈[202.5°, 247.5°)时,保留135°、180°、225°、270°和315°搜索方向,舍弃0°,45°,90°搜索方向;当/>∈[247.5°, 292.5°)时,保留180°、225°、270°、315°和0°搜索方向,舍弃45°,90°,135°搜索方向;当/>∈ [292.5.5°, 337.5°)时,保留225°、270°、315°、0°和45°搜索方向,舍弃90°,135°,180°搜索方向。
改进传统D*_Lite算法,优化rhs()函数,具体内容指:传统D*_Lite算法采用从目标点到起始点的搜索方式,当环境出现新的未知障碍物时,需要快速更新该障碍物周边系节点的信息,但巡检机器人所处的环境中,会出现大量的动态障碍物,导致传统算法无法及时更新信息,因此需要改进rhs()函数,引入障碍物判断因子,判断障碍物是动态障碍物或临时静态障碍物。其中,改进的D*_Lite算法的rhs()函数的表达式为:
式中,为s后继节点得到s到目标节点的启发路径,/>为当前节点,为目标节点,/>为后继节点,/>为节点/>的后继节点,/>为动态障碍物影响因子,/>为节点/>到/>的移动代价,/>为节点/>到目标节点距离,/>为临时静态障碍物影响因子。
改进传统D*_Lite算法,融合双向Floyd算法,具体内容指:传统D*_Lite算法生成路径通常含有大量冗余点,且路径曲折,Floyd算法是一种基于动态规划方法的最短路径算法,也被称作插点法,但优化效率不高,因此提出一种双向Floyd算法,在传统起始点至目标点/>间路径优化基础上,增加目标点/>至起始点/>反向路径优化,通过双向优化,在提高路径平滑度的同时提高优化效率;
改进传统D*_Lite算法,混合贝塞尔曲线,具体内容指:考虑巡检机器人的运动学特性,本申请采用四次Bezier曲线对全局最优路径进行平滑约束,贝塞尔曲线的定义为:
式中,为贝塞尔曲线函数,/>为顶点坐标值,/>为伯恩斯坦多项式基函数,/>为曲线阶数;
式中,为组合数,/>为时间系数,/>为伯恩斯坦多项式基函数的阶数;
可以推导得到四阶贝塞尔曲线方程为:
式中,P0为第一个控制点,P1为第二个控制点,P2为第三个控制点,P3为第四个控制点,P4为第五个控制点,为控制点个数;
∈(0,1)时,就能生成四次贝塞尔曲线,曲线上任意一点的曲率公式为:
式中,为u点的曲率,/>为u点的X坐标一阶导,/>为u点的Y坐标二阶导,/>为u点的Y坐标一阶导,/> 为u点的X坐标二阶导,/>为曲线上任意一点;
改进传统D*_Lite算法,确定全局路径并提取其中的关键节点,为后面改进TEB算法提供临时目标点;
改进的D*_Lite算法中包含动态障碍物约束,通过增加动态障碍物约束,提高躲避动态障碍物的效率,计算所述动态障碍物约束的表达式为:
式中,为动态障碍物约束函数,/>为动态障碍物评价权重,/>为动态障碍物因子,/>为动态障碍物极限因子,/>为机器人与动态障碍物的距离阈值,/>为动态障碍物移动距离,/>为缩放比例,/>为系统阶数,/>为偏移因子;
改进传统TEB算法,拓展加速度约束,具体内容指:对巡检机器人速度和加速度的动态约束用类似于几何约束的惩罚函数进行描述,速度可以表示为:
式中,为巡检机器人第i个位姿时的线速度,/>为巡检机器人第i个位姿时的单位时间,/>为巡检机器人第i+1个位姿时的X轴坐标,/>为巡检机器人第i个位姿时的X轴坐标,/>为巡检机器人第i+1个位姿时的Y轴坐标,/>为巡检机器人第i个位姿时的Y轴坐标,/>为巡检机器人第i个位姿时的角速度,/>为巡检机器人第i+1个位姿时的转动角度,/>为巡检机器人第i个位姿时的转动角度;
改进传统TEB算法,增加末端平滑约束,具体内容指:为了实现最快路径目标,巡检机器人的速度在运动过程中保持在最大值,会出现突然从最大速度跳变到静止,对自身造成较大冲击,也会出现滑行的情况,当巡检机器人进入任务区域时,调整巡检机器人速度,使其减速、平缓地到达任务点,减小机器人冲击的同时实现更为精确的速度规划,其中,巡检机器人在移动过程中最大线速度的表达式为:
式中,为机器人在移动过程中最大线速度,/>为预先设定的巡检机器人最大线速度,/>为巡检机器人当前位置与目标点的欧几里得距离的阈值,/>为预先设定的巡检机器人当前位置与目标点的欧几里得距离;
改进传统TEB算法,合并PID算法,具体内容指:传统TEB算法传输的控制指令为速度和角速度,巡检机器人在得到可行路径后需要轨迹跟踪算法来满足其动力学约束并进一步优化路径,通过结合控制算法来实现更好的控制效果,针对TEB算法输出指令波动问题,结合PID算法提出一种融合规划的TEB优化算法,其中,改进的TEB算法的表达式为:
式中,为第/>时刻的控制量,/>为比例增益,/>为第/>时刻的目标值与真实值之差,/>为积分增益,/>为微分增益。
综上,本申请的方法,提高了巡检效率,缩短了巡检时间,扩大了巡检机器人作业面积,增加了巡检任务的复杂度,增强了对动态障碍物躲避能力,有利于高铁站多巡检机器人的合理调度。
请参阅图5,其示出了本申请的一种多巡检机器人的多任务导航调度系统的结构框图。
如图5所示,多任务导航调度系统200,包括构建模块210、输出模块220以及规划模块230。
其中,构建模块210,配置为构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;输出模块220,配置为获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;规划模块230,配置为根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
应当理解,图5中记载的诸模块与参考图1中描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征以及相应的技术效果同样适用于图5中的诸模块,在此不再赘述。
在另一些实施例中,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序指令被处理器执行时,使所述处理器执行上述任意方法实施例中的多巡检机器人的多任务导航调度方法;
作为一种实施方式,本发明的计算机可读存储介质存储有计算机可执行指令,计算机可执行指令设置为:
构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据多巡检机器人的多任务导航调度系统的使用所创建的数据等。此外,计算机可读存储介质可以包括高速随机存取存储器,还可以包括存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至多巡检机器人的多任务导航调度系统。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图6是本发明实施例提供的电子设备的结构示意图,如图6所示,该设备包括:一个处理器310以及存储器320。电子设备还可以包括:输入装置330和输出装置340。处理器310、存储器320、输入装置330和输出装置340可以通过总线或者其他方式连接,图6中以通过总线连接为例。存储器320为上述的计算机可读存储介质。处理器310通过运行存储在存储器320中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例多巡检机器人的多任务导航调度方法。输入装置330可接收输入的数字或字符信息,以及产生与多巡检机器人的多任务导航调度系统的用户设置以及功能控制有关的键信号输入。输出装置340可包括显示屏等显示设备。
上述电子设备可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
作为一种实施方式,上述电子设备应用于多巡检机器人的多任务导航调度系统中,用于客户端,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种多巡检机器人的多任务导航调度方法,其特征在于,包括:
构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径,其中,所述融合算法由改进的D*_Lite算法和改进的TEB算法融合得到,其中,改进的D*_Lite算法的rhs()函数的表达式为:
式中,为s后继节点得到s到目标节点的启发路径,/>为当前节点,/>为目标节点,/>为后继节点,/>为节点/>的后继节点,/>为动态障碍物影响因子,为节点/>到/>的移动代价,/>为节点/>到目标节点距离,/>为临时静态障碍物影响因子;
改进的D*_Lite算法中包含动态障碍物约束,计算所述动态障碍物约束的表达式为:
式中,为动态障碍物约束函数,/>为动态障碍物评价权重,/>为动态障碍物因子,/>为动态障碍物极限因子,/>为机器人与动态障碍物的距离阈值,/>为动态障碍物移动距离,/>为缩放比例,/>为系统阶数,/>为偏移因子;
改进的TEB算法的表达式为:
式中,为第/>时刻的控制量,/>为比例增益,/>为第/>时刻的目标值与真实值之差,/>为积分增益,/>为微分增益。
2.根据权利要求1所述的一种多巡检机器人的多任务导航调度方法,其特征在于,其中,构建巡检机器人的运动学模型具体过程包括:
假设在世界坐标系下巡检机器人的当前位姿信息为/>,/>分别为巡检机器人的横坐标、纵坐标和位姿角度,对巡检机器人进行运动学建模,得到巡检机器人的运动学模型,其中,所述运动学模型的左轮线速度和右轮线速度分别为:
,/>
式中,为巡检机器人/>时刻的左轮线速度,/>为巡检机器人/>时刻的左轮角速度,/>为巡检机器人的驱动轮半径,/>为巡检机器人/>时刻的右轮线速度,为巡检机器人/>时刻的右轮角速度;
用非线性方程来描述巡检机器人运动的表达式为:
式中,为巡检机器人/>时刻的位姿,/>为巡检机器人水平方向的线速度,/>为巡检机器人竖直方向的线速度,/>为巡检机器人的旋转角速度,/>为巡检机器人的旋转角度,/>为巡检机器人/>时刻的线速度,/>为巡检机器人/>时刻的角速度;
其中,,/>为巡检机器人轴距的一半。
3.根据权利要求1所述的一种多巡检机器人的多任务导航调度方法,其特征在于,其中,构建巡检机器人的动力学模型具体过程包括:
分别对巡检机器人在X轴、Y轴、Z轴方向及电机输出轴方向进行受力分析,则巡检机器人在X轴、Y轴方向上受力满足牛顿第二定律,在Z轴方向上所受力矩满足转动定律,在电机输出轴方向上所受力矩满足转动定律,得到动力学方程为:
式中,为巡检机器人的质量,/>为巡检机器人x轴方向上的加速度,/>为巡检机器人角加速度,/>为质心到两驱动轮轴中心的距离,/>为巡检机器人与 Y 轴的夹角,/>为巡检机器人角速度,/>为巡检机器人移动时右驱动轮受到地面沿XR轴方向上的约束反力,/>为巡检机器人移动时左驱动轮受到地面沿XR轴方向上的约束反力,/>为万向轮受到地面沿XR轴方向上的约束反力,/>为/>、/>和/>的合力,/>为巡检机器人移动时左驱动轮受到地面沿YR轴方向上的约束反力,/>为巡检机器人移动时右驱动轮受到地面沿YR轴方向上的约束反力,/>为万向轮受到地面沿YR轴方向上的约束反力,/>为巡检机器人y轴方向上的加速度,/>为巡检机器人沿质心C绕Z轴的转动惯量,/>为驱动轮绕输出轴的转动惯量,/>为左驱动轮角位移的二阶导,/>为左驱动电机输出力矩,/>为右驱动轮角位移的二阶导,/>为右驱动电机输出力矩。
4.根据权利要求1所述的一种多巡检机器人的多任务导航调度方法,其特征在于,所述将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务包括:
假设巡检区域内存在个巡检机器人和/>个目标点,则设定所述SOM神经网络模型的输入层由/>个神经元/>构成,其中/>个神经元为目标点的坐标,将目标点的坐标依次排序,即为所述SOM神经网络模型的输入数据集;
所述SOM神经网络模型的输出层由个神经元构成, 其中/>个神经元为/>个巡检机器人的初始位置坐标和所需完成巡检任务的目标点的坐标;
输出神经元权向量由巡检机器人初始位置坐标来初始化,当任务分配过程完成后,根据所述SOM神经网络模型中的分配函数对个目标点的坐标从/>个输出神经元中各吸引个神经元,从而对/>个巡检机器人分配/>个目标点的坐标,其中,所述分配函数的表达式为:
式中,为分配函数,/>为与相对距离有关的权重,/>为神经元个数,/>为输出神经元组数;
式中,为目标点在二维平面内的位置坐标,/>为第/>组输出神经元中第/>个神经元的权向量,/>为负载均衡参数,/>为目标点个数;
式中,(,/>)为目标点在二维平面内的位置坐标,(/>,/>)为表示某个机器人在二维平面内的位置坐标;
式中,为第/>个巡检机器人的剩余能量,/>为第/>个巡检机机器人线速度,/>为第/>个巡检机器人移动的路径长度。
5.根据权利要求4所述的一种多巡检机器人的多任务导航调度方法,其特征在于,所述输出神经元权向量由巡检机器人初始位置坐标来初始化,当任务分配过程完成后,根据所述SOM神经网络模型中的分配函数对个目标点的坐标从/>个输出神经元中各吸引/>个神经元,从而对/>个巡检机器人分配/>个目标点的坐标包括:
初始化权值,归一化输入向量:使用较小的随机值对权值初始化,并对输入向量进行归一化处理,得到和/>,/>为初始化后向量,/>为输入向量,/>为输入向量的模,/>为竞争层所有权值向量,/>为权值向量,/>为权值向量的模;
将样本输入网络,寻找获胜神经元:随机挑选一样本,计算一样本与竞争层节点的权值向量之间的欧几里得距离,将与输出层所有权值向量/>作比较,距离最小的权重向量成为获胜神经元,计算获胜神经元的表达式为:
式中,为获胜神经元,/>为第n个输入向量,/>为第n个权值向量,/>为输出神经元;
更新权值:更新获胜神经元相邻的神经元权值向量,重新归一化学习后的权值,其中权值调整函数的表达式为:
式中,为第/>次迭代的权值调整函数;
式中,为重新归一化学习后的权值,/>为当前节点v的权值,/>为邻域函数,即迭代次数与获胜神经元的距离函数,/>为第/>次迭代的学习率,/>为表示输入向量。
6.一种多巡检机器人的多任务导航调度系统,其特征在于,包括:
构建模块,配置为构建至少一个巡检机器人模型,其中巡检机器人模型中包含巡检机器人的运动学模型以及巡检机器人的动力学模型;
输出模块,配置为获取待巡检的至少一个目标点以及所述至少一个巡检机器人模型的位置信息,并将所述至少一个目标点和所述至少一个巡检机器人模型的位置信息输入至预设的SOM神经网络模型中,输出得到巡检机器人模型的至少一个导航任务,其中,一导航任务为一巡检机器人模型在当前位置时需要遍历的至少一个目标点;
规划模块,配置为根据所述至少一个导航任务对所述至少一个巡检机器人模型基于预设的融合算法进行路径规划,得到与巡检机器人模型相对应的至少一个最优移动路径其中,所述融合算法由改进的D*_Lite算法和改进的TEB算法融合得到,其中,改进的D*_Lite算法的rhs()函数的表达式为:
式中,为s后继节点得到s到目标节点的启发路径,/>为当前节点,/>为目标节点,/>为后继节点,/>为节点/>的后继节点,/>为动态障碍物影响因子,为节点/>到/>的移动代价,/>为节点/>到目标节点距离,/>为临时静态障碍物影响因子;
改进的D*_Lite算法中包含动态障碍物约束,计算所述动态障碍物约束的表达式为:
式中,为动态障碍物约束函数,/>为动态障碍物评价权重,/>为动态障碍物因子,/>为动态障碍物极限因子,/>为机器人与动态障碍物的距离阈值,/>为动态障碍物移动距离,/>为缩放比例,/>为系统阶数,/>为偏移因子;
改进的TEB算法的表达式为:
式中,为第/>时刻的控制量,/>为比例增益,/>为第/>时刻的目标值与真实值之差,/>为积分增益,/>为微分增益。
CN202311344566.1A 2023-10-18 2023-10-18 一种多巡检机器人的多任务导航调度方法及系统 Active CN117075620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311344566.1A CN117075620B (zh) 2023-10-18 2023-10-18 一种多巡检机器人的多任务导航调度方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311344566.1A CN117075620B (zh) 2023-10-18 2023-10-18 一种多巡检机器人的多任务导航调度方法及系统

Publications (2)

Publication Number Publication Date
CN117075620A CN117075620A (zh) 2023-11-17
CN117075620B true CN117075620B (zh) 2024-01-16

Family

ID=88704740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311344566.1A Active CN117075620B (zh) 2023-10-18 2023-10-18 一种多巡检机器人的多任务导航调度方法及系统

Country Status (1)

Country Link
CN (1) CN117075620B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180040245A (ko) * 2016-10-12 2018-04-20 국방과학연구소 4d 환경정보를 반영한 무인차량의 자율주행 제어 방법
CN108073176A (zh) * 2018-02-10 2018-05-25 西安交通大学 一种改进型D*Lite车辆动态路径规划方法
CN111176286A (zh) * 2020-01-06 2020-05-19 重庆邮电大学 一种基于改进D*lite算法的移动机器人路径规划方法及系统
WO2022175758A1 (en) * 2021-02-17 2022-08-25 Avridh Technologies, Inc. System and method of controlling navigation of robot in dynamic environment based on heuristic learning
CN116339297A (zh) * 2021-12-23 2023-06-27 北京工商大学 一种针对局部未知环境的无人船路径规划方法
CN116360457A (zh) * 2023-04-24 2023-06-30 山东大学 一种基于自适应栅格和改进a*-dwa融合算法的路径规划方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180040245A (ko) * 2016-10-12 2018-04-20 국방과학연구소 4d 환경정보를 반영한 무인차량의 자율주행 제어 방법
CN108073176A (zh) * 2018-02-10 2018-05-25 西安交通大学 一种改进型D*Lite车辆动态路径规划方法
CN111176286A (zh) * 2020-01-06 2020-05-19 重庆邮电大学 一种基于改进D*lite算法的移动机器人路径规划方法及系统
WO2022175758A1 (en) * 2021-02-17 2022-08-25 Avridh Technologies, Inc. System and method of controlling navigation of robot in dynamic environment based on heuristic learning
CN116339297A (zh) * 2021-12-23 2023-06-27 北京工商大学 一种针对局部未知环境的无人船路径规划方法
CN116360457A (zh) * 2023-04-24 2023-06-30 山东大学 一种基于自适应栅格和改进a*-dwa融合算法的路径规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于路径优化D~*Lite算法的移动机器人路径规划;黄鲁;周非同;;控制与决策(04);全文 *
多自治水下机器人多任务分配的自组织算法;朱大奇;李欣;颜明重;;控制与决策(08);论文第1202-1204页 *

Also Published As

Publication number Publication date
CN117075620A (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
Cutler et al. Reinforcement learning with multi-fidelity simulators
CN112119404A (zh) 样本高效的强化学习
KR20220137732A (ko) 적응형 리턴 계산 방식을 사용한 강화 학습
CN113253733A (zh) 一种基于学习和融合的导航避障方法、装置及系统
Rupprecht et al. A survey for deep reinforcement learning in markovian cyber–physical systems: Common problems and solutions
Tian Research on robot optimal path planning method based on improved ant colony algorithm
Braun et al. A comparison of A* and RRT* algorithms with dynamic and real time constraint scenarios for mobile robots
Ou et al. GPU-based global path planning using genetic algorithm with near corner initialization
Cheng-bo et al. Navigation behavioural decision-making of MASS based on deep reinforcement learning and artificial potential field
Li et al. Navigation of mobile robots based on deep reinforcement learning: Reward function optimization and knowledge transfer
Toan et al. Mapless navigation with deep reinforcement learning based on the convolutional proximal policy optimization network
Kim et al. Reinforcement learning for navigation of mobile robot with LiDAR
CN117075620B (zh) 一种多巡检机器人的多任务导航调度方法及系统
CN116551703B (zh) 一种复杂环境下基于机器学习的运动规划方法
Zheng et al. Gradient-free multi-domain optimization for autonomous systems
Zhi et al. Retracted: Design of basketball robot based on behavior-based fuzzy control
CN116804879A (zh) 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法
Feng et al. Mobile robot obstacle avoidance based on deep reinforcement learning
Toan et al. Environment exploration for mapless navigation based on deep reinforcement learning
Wang et al. Experience mixed the modified artificial potential field method
Hua et al. A Novel Learning-Based Trajectory Generation Strategy for a Quadrotor
Németh et al. Hierarchical control design of automated vehicles for multi-vehicle scenarios in roundabouts
Alqarni et al. (Retracted) Optimized path planning of drones for efficient logistics using turning point with evolutionary techniques
Imam et al. Autonomous driving system using proximal policy optimization in deep reinforcement learning
Yu et al. An intelligent robot motion planning method and application via lppo in unknown environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant