CN116203973B - 轨道ai巡检机器人智能控制系统 - Google Patents

轨道ai巡检机器人智能控制系统 Download PDF

Info

Publication number
CN116203973B
CN116203973B CN202310497047.2A CN202310497047A CN116203973B CN 116203973 B CN116203973 B CN 116203973B CN 202310497047 A CN202310497047 A CN 202310497047A CN 116203973 B CN116203973 B CN 116203973B
Authority
CN
China
Prior art keywords
representing
inspection robot
inspection
information
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310497047.2A
Other languages
English (en)
Other versions
CN116203973A (zh
Inventor
陆立明
陆泽鑫
周连杰
刘丹
刘晓利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tangshan Changhong Technology Co ltd
Original Assignee
Tangshan Changhong Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tangshan Changhong Technology Co ltd filed Critical Tangshan Changhong Technology Co ltd
Priority to CN202310497047.2A priority Critical patent/CN116203973B/zh
Publication of CN116203973A publication Critical patent/CN116203973A/zh
Application granted granted Critical
Publication of CN116203973B publication Critical patent/CN116203973B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种轨道AI巡检机器人智能控制系统,包括环境信息收集模块、环境地图构建模块、智能巡检模块;本发明涉及智能巡检机器人领域,主要解决现有技术中轨道巡检机器人控制系统智能化程度不高、巡检效率低下问题。本发明对巡检机器人所处位置周围进行环境信息提取,将收集的信息进行融合,构建环境地图,根据自身定位和地表环境进行路径规划,巡检过程中主动进行障碍物避让,实现智能巡检。

Description

轨道AI巡检机器人智能控制系统
技术领域
本发明涉及机器人巡检领域,具体地说,涉及一种轨道AI巡检机器人智能控制系统。
背景技术
在生产项目中,需要定期进行巡检,为了减少投入的人力成本,巡检机器人被发明出来,巡检机器人代替人工进行巡检操作,一些重复性劳动被机器人所代替,使用机器人进行巡检,可以提高巡检的次数,大大减少问题发生的概率,也可以及时发现问题,但目前巡检机器人自主性较低,智能性差,对巡检过程中遇到的问题不能主动处理,对周围环境识别不准确,要提高巡检机器人的自主性智能性,本发明提供了一种AI智能巡检机器人,通过多重传感器,融合环境信息,自主的进行巡检任务,通过人工智能算法,自动进行巡检规划,遇到障碍物主动进行等待或避让,大大提高了发现问题的概率,对巡检机器人方面具有较大的突破。
发明内容
本发明的目的在于提供一种轨道AI巡检机器人智能控制系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供一种轨道AI巡检机器人智能控制系统,包括环境信息收集模块、环境地图构建模块、智能巡检模块;首先,通过安装在巡检机器人上的传感器,识别周围环境并收集环境信息,对多重信息进行融合,采用视觉感知技术,获取周围物体的立体图像,并通过视觉处理器对图像进行处理分析,构建巡检机器人的视觉系统;其次构建巡检机器人周围地图,且对自身位置进行定位;最后采用人工智能算法,选择需要巡检的关键位置,自动规划巡检路线,且移动过程中主动识别障碍物并避让。
进一步的,所述环境信息收集模块,对巡检机器人周围环境信息进行收集,通过安装在巡检机器人上的距离传感器、视觉传感器、气味传感器、温度传感器,对巡检机器人四周的各种环境信息进行收集,距离传感器高精度的检测周围物体的距离和方位,获取周围环境的几何信息;视觉传感器是巡检机器人实现视觉感知的基础与核心,通过视觉传感器进行图像的测量和判断,帮助构建环境地图;气味传感器检测巡检机器人周围是否有有毒气体,危险化学品;温度传感器收集周围的温度信息,判断工作环境的温度情况。
巡检机器人视觉感知技术通过视觉分析和图像处理,多角度挖掘视觉数据中的不同特征,从而实现对不同环境信息的筛选、分析和表达,本发明采用SURF算法来表示所在周围环境;SURF算法采用方形滤波器,滤波器函数如下:
表示滤波器函数,i,j代表像素点的坐标值,/>、/>代表各方向上总像素点个数;特征点提取时,利用图像每个像素点的海森矩阵,像素点x(i,j),在尺度为/>下的海森矩阵为:
、/>、/>分别代表高斯二阶导数/>、/>、/>在x、y处对于图像的卷积,采用盒子滤波器/>替换/>根据海森矩阵的和行列式提取极值点:
、/>代表权重,接着用特征向量描述特征点信息,以特征点为中心构造一个方向为特征点主方向的正方形邻域,对邻域进行均匀分割,计算出每个小区域上所有像素点在x和y方向上的响应和总响应,得四维特征向量v:
、/>代表x,y方向上的小波转换总和,/>、/>分别代表x,y方向上的向量长度总和,所有子区域的特征向量一起形成特征描述符。
将信息进行融合,提高巡检机器人对环境信息的获取能力和巡检机器人系统决策的能力,更好的实现障碍物识别避让,巡检机器人路径规划,采用基于改进的神经网络的多信息融合技术,精确的对周围环境进行信号提取融合,根据粒子群算法,构建寻优公式:
、/>、/>、/>分别表示第i个粒子在第k+1、k次迭代时的位置矢量,/>表示权重,/>、/>为加速度常数,/>、/>分别代表粒子i的历史最优适应度在第k次迭代的位置和粒子i的历史最优适应度在第k次迭代的位置矢量;采用BAS算法对信息数据进行改进,创建两方向模型:
、/>分别表示第k次迭代时方向1和方向2上的位置坐标,/>表示第k次迭代时的质心坐标,/>表示第k次迭代时两方向的距离;更新迭代位置:
f表示符号函数,、/>代表/>、/>时的适应度,/>表示第k次迭代时的步长因子,更新距离和步长:
、/>分别表示距离衰减系数和步长衰减系数,/>、/>分别代表最小距离阈值和最小步长阈值,引入粒子行为增量/>
代表第k+1次迭代时的行为增量,改进寻优公式:
表示为行为增量的权重系数,/>可计算:
、/>分别代表权重系数的最大值和最小值,k代表当前迭代系数,/>代表总的迭代系数;采用改进的BP神经网络算法对信息进行融合,降低信息特征维数,提高数据融合效率和融合精度,根据LEACN算法完成分簇,将信息传入簇首节点,每轮簇首节点更新,分簇形成后记录节点信息并传入基础节点,基础节点根据传入信息确定BP神经网络结构,选取相匹配的数据集,确定空间维度,每个簇内节点个数就是输入层神经元个数Q,隐藏层神经元个数为O,输出层神经元个数为1,空间维度E为:
初始化位置向量,计算舒适度h,公式如下:
m为样本数据训练数量,代表第i个样本数据的融合预测值,/>代表i个样本数据实测值,根据适应度,确定粒子的最佳位置,计算行为增量,更新粒子的速度和位置,基础点与BP神经网络链接,将权值和阈值传入簇节点,簇内根据权重和阈值构建相应的BP神经网络,对上传信息进行融合处理,将融合结果传入基础点,完成一轮信息融合。
进一步的,所述环境地图构建模块,本发明采用混合地图,混合地图灵活性强,精确度高,鲁棒性强,有尺度信息,确保地图信息的简洁和准确。
构建栅格-拓扑混合地图,在底层通过算法完成定位与地图创建,位置数学模型如下:
表示巡检机器人i时刻的位置,/>表示巡检机器人上传感器观测到的i个目标,/>表示机器人在/>处观测到的观测数据/>,/>代表输入控制数据,/>、/>分别代表位置噪声和观测噪声;对目标点/>数据结构为:
d代表目标点深度信息,代表目标点编号,/>代表目标点的类型,调整初始目标点:
r表示对应半径,、/>分别表示目标点左右两端的编号,构建栅格地图,栅格地图基于障碍物出现的概率进行构建,栅格地图将环境划分为一系列网格,网格为空取0,网格存在取1,引入贝叶斯模型,更新网格状态,用m表示各个网格,/>表示/>位置的网格,如下等式:
网格点状态t为:
对于网格更新了值z时,更新状态为:
得到后验概率为:
带入状态更新方程:
创建拓扑地图,将拓扑节点T的数据结构定义为:
代表优化后巡检机器人位姿,/>代表当前节点的候选目标点集合,/>、/>分别代表父节点和子节点,对/>中目标点集合拓展为:
代表目标点全局位置,/>代表目标的效用函数,d代表目标点距离信息,/>代表目标点编号,/>代表目标点的类型,效用函数表达式如下:
p为后选点,为信息收益,L为巡检机器人位置与目标点之间的欧式距离,/>表示机器人与目标点之间的连线与机器人正方向之间的夹角绝对值,/>、/>分别表示距离和夹角的系数;将拓扑节点分为当前节点,缓存节点,终极节点和标记节点,在更新全局拓扑地图时,要判断缓存节点是否加入地图,对创建的栅格地图和拓扑地图进行融合,形成栅格-拓扑混合地图。
进一步的,在巡检机器人自动巡检之前,人为的在机器人构建的混合地图上进行标记,标记出巡检场地中的重点位置,规划的路径围绕着重点位置。
进一步的,所述智能巡检模块,根据环境信息,自动规划巡检路径,巡检机器人通过人工智能路径算法,自动进行巡检路线的规划,行为价值函数Q的更新方程如下:
Q代表价值函数,s表示当前状态,a表示当前动作,r表示再当前状态下执行动作的奖励,表示下一状态,/>表示下一动作,/>表示学习率,/>表示下一动作和下一状态的折扣系数,/>表示当前状态和当前动作的折扣系数;建立矩阵储存Q值:
选择贪婪策略,基于人工势场法更新价值函数,人工势场法包含引力势场函数和斥力势场函数,引力势场函数为:
表示引力势场函数,/>代表引力增益系数,q代表巡检机器人位置,/>代表目标点位置,/>表示巡检机器人位置与目标点位置的欧几里得距离,引力函数为:
巡检机器人向目标点行驶过程中障碍物产生斥力势场,斥力势场函数为:
为斥力势场函数,/>为斥力增益系数/>为目标点的斥力作用范围,超出作用范围为0,/>代表作用范围的系数,斥力函数为:
代表巡检机器人位置与目标点位置的欧几里得距离的梯度,利用贪婪策略在初始状态/>时执行初始动作/>,得到奖励r,更新状态/>;比较巡检机器人与目标点之间的欧几里得距离与目标点斥力作用范围的大小,当取/>,再根据贪婪策略在新的状态/>下,更新价值函数:
进一步的,巡检机器人在巡检现场,障碍物阻挡、巡检路线占用时,巡检机器人根据程序,发出音频,提醒前方,在规定时间内问题未解决,启动避让程序,根据算法规划一段避让路线,避让后再移动至初设巡检路线上。
本发明有益效果:
本发明提供了一种轨道AI巡检机器人智能控制系统,包括环境信息收集模块、环境地图构建模块、智能巡检模块。本发明通过安装在巡检机器人上的传感器,对巡检机器人周围环境信息进行识别收集,通过SURF算法,利用视觉分析和图像处理,多角度挖掘视觉数据中的不同特征,从而实现对不同环境的分析和表达,对四周环境进行感知,用特征向量描述信息特征,对收集到的环境信息,通过神经网络模型进行信息的融合,首先通过粒子群算法,建立寻优公式,进一步的采用BAS算法对信息数据进行改进,创建两方向模型,接着采用改进的BP神经网络算法,降低信息特征维数,提高数据融合效率和融合精度,根据LEACN算法完成分簇,将信息传入簇首节点,根据适应度,确定最佳位置,计算行为增量,通过基础点与BP神经网络链接,将权值和阈值传入簇节点,簇内根据权重和阈值构建相应的BP神经网络,将融合结果传入基础点,完成一轮信息融合。本发明采用灵活性强,精确的高,鲁棒性强的格栅-拓扑混合地图,确保地图信息的简洁和准确。接着构建完整环境地图,在底层通过算法完成定位与地图创建,使用贝叶斯模型估计格栅网格点状态,通过对拓扑节点分类为当前节点,缓存节点,终极节点和标记节点,根据效用函数更新全局拓扑地图,将格栅地图与拓扑地图融合形成混合地图。通过/>人工智能路径算法,结合重点位置,自动进行巡检路线的规划,巡检线路上遇到突发障碍物时,主动进行避让。本发明提供的轨道AI巡检机器人智能控制系统,能够主动构建环境地图主动规划路线,改变了以往巡检机器人的非智能性,运行过程完全主动,且提供神经网络进行多信息融合,对环境信息处理较为精确,准确识别各种环境信息,路径规划采用/>人工智能算法,对路线的规划也是较优路线。
附图说明
利用附图对发明创造作进一步说明,但附图中的实施例不构成对本发明创造的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明结构示意图。
具体实施方式
结合以下实例对本发明作进一步描述。
参见图1,本发明旨在提供一种轨道AI巡检机器人智能控制系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供一种轨道AI巡检机器人智能控制系统,包括环境信息收集模块、环境地图构建模块、智能巡检模块;首先,通过安装在巡检机器人上的传感器,识别周围环境并收集环境信息,对多重信息进行融合,采用视觉感知技术,获取周围物体的立体图像,并通过视觉处理器对图像进行处理分析,构建巡检机器人的视觉系统;其次构建巡检机器人周围地图,且对自身位置进行定位;最后采用人工智能算法,选择需要巡检的关键位置,自动规划巡检路线,且移动过程中主动识别障碍物并避让。
各个模块的过程如下:
对于环境信息收集模块,对巡检机器人周围环境信息进行收集,通过安装在巡检机器人上的距离传感器、视觉传感器、气味传感器、温度传感器,对巡检机器人四周的各种环境信息进行收集,距离传感器高精度的检测周围物体的距离和方位,获取周围环境的几何信息;视觉传感器是巡检机器人实现视觉感知的基础与核心,通过视觉传感器进行图像的测量和判断,帮助构建环境地图;气味传感器检测巡检机器人周围是否有有毒气体,危险化学品;温度传感器收集周围的温度信息,判断工作环境的温度情况。
巡检机器人视觉感知技术通过视觉分析和图像处理,多角度挖掘视觉数据中的不同特征,实现对不同环境的分析和表达,本发明采用SURF算法来筛选表示所在周围环境;SURF算法采用方形滤波器,滤波器函数如下:
表示滤波器函数,i,j代表像素点的坐标值,/>、/>代表各方向上总像素点个数;特征点提取时,利用图像每个像素点的海森矩阵,像素点x(i,j),在尺度为/>下的海森矩阵为:
、/>、/>分别代表高斯二阶导数/>、/>、/>在x、y处对于图像的卷积,采用盒子滤波器/>替换/>根据海森矩阵的和行列式提取极值点:
、/>代表权重,用特征向量描述特征点信息,以特征点为中心构造一个方向为特征点主方向的正方形邻域,对邻域进行均匀分割,计算出每个小区域上所有像素点在x和y方向上的响应和总响应,得四维特征向量v:
、/>代表x,y方向上的小波转换总和,/>、/>分别代表x,y方向上的向量长度总和,所有子区域的特征向量形成特征描述符。
将收集到的信息进行融合,提高巡检机器人对环境信息的获取能力系统决策的能力,实现障碍物识别避让,巡检机器人路径规划,采用基于改进的神经网络的多信息融合技术,精确的对周围环境进行信号提取融合,根据粒子群算法,构建寻优公式:
、/>、/>、/>分别表示第i个粒子在第k+1、k次迭代时的位置矢量,/>表示权重,/>、/>为加速度常数,/>、/>分别代表粒子i的历史最优适应度在第k次迭代的位置和粒子i的历史最优适应度在第k次迭代的位置矢量;采用BAS算法对信息数据进行改进,创建两方向模型:
、/>分别表示第k次迭代时方向1和方向2上的位置坐标,/>表示第k次迭代时的质心坐标,/>表示第k次迭代时两方向的距离;更新迭代位置:
f表示符号函数,、/>代表/>、/>时的适应度,/>表示第k次迭代时的步长因子,更新距离和步长:
、/>分别表示距离衰减系数和步长衰减系数,/>、/>分别代表最小距离阈值和最小步长阈值,粒子行为增量/>
代表第k+1次迭代时的行为增量,改进寻优公式:
表示为行为增量的权重系数,/>可计算:
、/>分别代表权重系数的最大值和最小值,k代表当前迭代系数,/>代表总的迭代系数;采用改进的BP神经网络算法,降低信息特征维数,提高数据融合效率和融合精度,根据LEACN算法完成分簇,将信息传入簇首节点,利用BP神经网络进行融合,更新簇首节点,分簇形成后,簇首记录节点信息并传入基础节点,基础节点根据传入信息确定BP神经网络结构,选取相匹配的数据集,确定空间维度,每个簇内节点个数就是输入层神经元个数Q,隐藏层神经元个数为O,输出层神经元个数为1,空间维度E为:
初始化位置向量,计算舒适度h,公式如下:
m为样本数据训练数量,代表第i个样本数据的融合预测值,/>代表i个样本数据实测值,根据适应度,确定每个粒子的最佳位置,计算行为增量,更新粒子的速度和位置,基础点与BP神经网络链接,将权值和阈值传入簇节点,簇内根据权重和阈值构建相应的BP神经网络,对上传信息进行融合处理,并将融合结果传入基础点,完成一轮信息融合。
对于环境地图构建模块,确定环境地图表达方式,方便环境地图更新,本发明采用混合地图,混合地图灵活性强,精确度高,鲁棒性强,有着尺度信息,确保地图信息的简洁和准确。
构建栅格-拓扑混合地图,在底层通过算法完成定位与地图创建,将位置抽象成数学模型如下:
表示巡检机器人i时刻的位置,/>表示巡检机器人上传感器观测到的i个目标,/>表示机器人在/>处观测到的观测数据/>,/>代表输入控制数据,/>、/>分别代表位置噪声和观测噪声;对目标点/>数据结构为:
d代表目标点深度信息,代表目标点编号,/>代表目标点的类型,调整初始目标点:
r表示对应半径,、/>分别表示目标点左右两端的编号,构建栅格地图,栅格地图的构建必须基于障碍物出现的概率,栅格地图将环境划分为一系列网格,当网格为空时取0,网格存在时取1,引入贝叶斯模型,更新网格状态,用m表示各个网格,/>表示/>位置的网格,如下等式:
网格点状态t为:
对于网格更新了值z时,更新状态为:
得到后验概率为:
带入状态更新方程:
创建拓扑地图,拓扑节点T的数据结构定义为:
代表优化后巡检机器人位姿,/>代表当前节点的候选目标点集合,/>、/>分别代表父节点和子节点,对/>中目标点集合拓展为:
代表目标点全局位置,/>代表目标的效用函数,d代表目标点距离信息,/>代表目标点编号,/>代表目标点的类型,效用函数表达式如下:
p为后选点,为信息收益,L为巡检机器人位置与目标点之间的欧式距离,/>表示机器人与目标点之间的连线与机器人正方向之间的夹角绝对值,/>、/>分别表示距离和夹角的系数;将拓扑节点分为当前节点,缓存节点,终极节点和标记节点,在更新全局拓扑地图时,要判断缓存节点是否加入地图,对创建的栅格地图和拓扑地图进行融合,形成栅格-拓扑混合地图。
进一步的,在巡检机器人自动巡检之前,人为的在机器人构建的混合地图上进行标记,标记出巡检场地中的重点位置,标记的重点位置在之后的路径规划上有着更高的权限,使规划的路径围绕着重点位置。
对于智能巡检模块,根据环境信息,自动规划巡检路径,巡检机器人通过人工智能路径算法,自动进行巡检路线的规划,行为价值函数Q的更新方程如下:
Q代表价值函数,s表示当前状态,a表示当前动作,r表示再当前状态下执行动作的奖励,表示下一状态,/>表示下一动作,/>表示学习率,/>表示下一动作和下一状态的折扣系数,/>表示当前状态和当前动作的折扣系数;建立矩阵储存Q值:
在动作策略的选择上选择贪婪策略,接着基于人工势场法对价值函数进行更新,人工势场法包含引力势场函数和斥力势场函数;引力势场函数为:
表示引力势场函数,/>代表引力增益系数,q代表巡检机器人位置,/>代表目标点位置,/>是一个矢量函数表示巡检机器人位置与目标点位置的欧几里得距离,方向是巡检机器人位置指向目标点位置;对应的引力为:
巡检机器人向目标点行驶过程中遇到的障碍物产生斥力势场,与障碍物之间的距离决定着斥力势场的高低;斥力势场函数为:
为斥力势场函数,/>为斥力增益系数/>为目标点的斥力作用范围,超出作用范围为0,/>代表作用范围的系数;斥力函数为:
代表巡检机器人位置与目标点位置的欧几里得距离的梯度,利用贪婪策略在初始状态/>时执行初始动作/>,得到奖励r,接着得到一个新的状态/>;比较巡检机器人与目标点之间的欧几里得距离与目标点斥力作用范围的大小,当取/>,再根据贪婪策略在新的状态/>下,更新价值函数:/>
通过强化学习算法,结合标记的重要位置,巡检机器人自动规划了巡检路线。
进一步的,巡检机器人在巡检现场,会发生临时障碍物,工作人员占据规划好的巡检路线,巡检机器人根据设定好的程序,发出设定好的音频,提醒前方工作人员占据了巡检路线,在规定时间内未移动或占据巡检路线的是障碍物,则启动避让程序,根据算法规划一段避让路线,避让后再移动至初设巡检路线上。
本发明有益效果:
本发明提供了一种轨道AI巡检机器人智能控制系统,包括环境信息收集模块、环境地图构建模块、智能巡检模块。本发明通过安装在巡检机器人上的传感器,对巡检机器人周围环境信息进行识别收集,通过SURF算法,利用视觉分析和图像处理,多角度挖掘视觉数据中的不同特征,从而实现对不同环境的分析和表达,对四周环境进行感知,用特征向量描述信息特征,对收集到的环境信息,通过神经网络模型进行信息的融合,首先通过粒子群算法,建立寻优公式,进一步的采用BAS算法对信息数据进行改进,创建两方向模型,接着采用改进的BP神经网络算法,降低信息特征维数,提高数据融合效率和融合精度,根据LEACN算法完成分簇,将信息传入簇首节点,根据适应度,确定最佳位置,计算行为增量,通过基础点与BP神经网络链接,将权值和阈值传入簇节点,簇内根据权重和阈值构建相应的BP神经网络,将融合结果传入基础点,完成一轮信息融合。本发明采用灵活性强,精确的高,鲁棒性强的格栅-拓扑混合地图,确保地图信息的简洁和准确。接着构建完整环境地图,在底层通过算法完成定位与地图创建,使用贝叶斯模型估计格栅网格点状态,通过对拓扑节点分类为当前节点,缓存节点,终极节点和标记节点,根据效用函数更新全局拓扑地图,将格栅地图与拓扑地图融合形成混合地图。通过/>人工智能路径算法,结合重点位置,自动进行巡检路线的规划,巡检线路上遇到突发障碍物时,主动进行避让。本发明提供的轨道AI巡检机器人智能控制系统,能够主动构建环境地图主动规划路线,改变了以往巡检机器人的非智能性,运行过程完全主动,且提供神经网络进行多信息融合,对环境信息处理较为精确,准确识别各种环境信息,路径规划采用/>人工智能算法,对路线的规划也是较优路线。
本发明还提供了一种计算机可读存储介质,该存储介质中存储有至少一条指令,该指令由处理器加载并执行,以实现上述方法。其中,该计算机可读存储介质可以是ROM、随机存取存储器、CD-ROM、磁带、软盘和光数据存储设备等。其内存储的指令可由终端中的处理器加载并执行上述方法。
本发明实施方式是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本发明中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本发明所示的这些实施例,而是要符合与本发明所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种轨道AI巡检机器人智能控制系统,其特征在于,包括环境信息收集模块、环境地图构建模块、智能巡检模块;首先,通过安装在巡检机器人上的传感器,识别周围环境并收集环境信息,采用SURF算法对环境进行感知,通过改进的BP神经网络,对多重信息进行融合,采用视觉感知技术,获取周围物体的立体图像,并通过视觉处理器对图像进行处理分析,构建巡检机器人的视觉系统;其次构建巡检机器人周围地图,且对自身位置进行定位;最后采用Q-learning人工智能算法,选择需要巡检的关键位置,自动规划巡检路线,在移动过程中主动识别障碍物并避让;
所述环境信息收集模块,对周围收集的环境信息进行筛选表示,详细过程如下:
巡检机器人采用SURF算法筛选表示所在周围环境;SURF算法采用方形滤波器,滤波器函数如下:
表示滤波器函数,i,j代表像素点的坐标值,/>、/>代表各方向上总像素点个数;特征点提取时,利用图像每个像素点的海森矩阵,像素点x(i,j),在尺度为/>下的海森矩阵为:
、/>、/>分别代表高斯二阶导数/>、/>、/>在x、y处对于图像的卷积,采用盒子滤波器/>替换/>根据海森矩阵的和行列式提取极值点:
、/>代表权重,用特征向量描述特征点信息,以特征点为中心构造一个方向为特征点主方向的正方形邻域,对邻域进行均匀分割,计算每个小区域上所有像素点在x和y方向上的响应和总响应,得四维特征向量v:
、/>代表x,y方向上的小波转换总和,/>、/>分别代表x,y方向上的向量长度总和,所有子区域的特征向量形成特征描述符;
所述环境信息收集模块,将筛选的信息进行融合,详细过程如下:
采用基于改进的神经网络的多信息融合技术,对周围环境进行信号提取融合,根据粒子群算法构建寻优公式:
、/>、/>、/>分别表示第i个粒子在第k+1、k次迭代时的位置矢量,/>表示权重,/>为加速度常数,/>、/>分别代表粒子i的历史最优适应度在第k次迭代的位置和粒子i的历史最优适应度在第k次迭代的位置矢量;采用BAS算法对信息数据进行改进,创建两方向模型:
、/>分别表示第k次迭代时方向1和方向2上的位置坐标,/>表示第k次迭代时的质心坐标,/>表示第k次迭代时两方向的距离;更新迭代位置:
f表示符号函数,、/>代表/>、/>时的适应度,/>表示第k次迭代时的步长因子,更新距离和步长:
、/>分别表示距离衰减系数和步长衰减系数,/>、/>分别代表最小距离阈值和最小步长阈值,计算粒子行为增量/>
代表第k+1次迭代时的行为增量,改进的寻优公式:
表示为行为增量的权重系数,/>可计算:
、/>分别代表权重系数的最大值和最小值,k代表当前迭代系数,/>代表总的迭代系数;采用改进的BP神经网络算法,降低信息特征维数,提高数据融合效率和融合精度,根据LEACN算法完成分簇,将信息传入簇首节点,每轮簇首节点更新,分簇形成后,簇首记录节点信息并传入基础节点,基础节点根据传入信息确定BP神经网络结构,选取相匹配的数据集,确定空间维度,簇内节点个数代表输入层神经元个数Q,隐藏层神经元个数为O,输出层神经元个数为1,空间维度E为:
初始化位置向量,计算舒适度h,公式如下:
m为样本数据训练数量,代表第i个样本数据的融合预测值,/>代表i个样本数据实测值,根据适应度,确定粒子的最佳位置,计算行为增量,更新粒子的速度和位置,基础点与BP神经网络链接,将权值和阈值传入簇节点,簇内根据权重和阈值构建相应的BP神经网络,对上传信息进行融合处理,将融合结果传入基础点,完成一轮信息融合;
所述环境地图构建模块,构建完整的巡视机器人周围环境地图,详细过程如下:
构建栅格-拓扑混合地图,底层通过算法完成定位与地图创建,位置的数学模型如下:
表示巡检机器人i时刻的位置,/>表示巡检机器人上传感器观测到的i个目标,/>表示机器人在/>处观测到的观测数据/>,/>代表输入控制数据,/>、/>分别代表位置噪声和观测噪声;对目标点/>数据结构为:
d代表目标点深度信息,代表目标点编号,/>代表目标点的类型,调整初始目标点:
r表示对应半径,、/>分别表示目标点左右两端的编号,构建栅格地图,栅格地图的构建必须基于障碍物出现的概率,栅格地图将环境划分成一系列网格,网格为空取0,网格存在取1,引入贝叶斯模型,更新网格状态,用m表示各个网格,/>表示/>位置的网格,有如下等式:
网格点状态t为:
状态更新方程为:
创建拓扑地图,将拓扑节点T的数据结构定义为:
代表优化后巡检机器人位姿,/>代表当前节点的候选目标点集合,/>、/>分别代表父节点和子节点,对/>中目标点集合拓展为:
代表目标点全局位置,/>代表目标的效用函数,d代表目标点距离信息,/>代表目标点编号,/>代表目标点的类型,效用函数表达式如下:
p为后选点,为信息收益,L为机器人位置与目标点之间的欧式距离,/>表示机器人与目标点之间的连线与机器人正方向之间的夹角绝对值,/>、/>分别表示距离和夹角的系数对创建的栅格地图和拓扑地图进行融合,形成栅格-拓扑混合地图;
所述智能巡检模块,根据环境信息,自动规划巡检路径,详细过程如下:
巡检机器人通过人工智能路径算法,自动进行巡检路线规划,行为价值函数Q更新方程如下:
Q代表价值函数,s表示当前状态,a表示当前动作,r表示再当前状态下执行动作的奖励,表示下一状态,/>表示下一动作,/>表示学习率,/>表示下一动作和下一状态的折扣系数,/>表示当前状态和当前动作的折扣系数;建立矩阵储存Q值:
选择贪婪策略,基于人工势场法更新价值函数,人工势场法包含引力势场函数和斥力势场函数,引力势场函数为:
;/>表示引力势场函数,/>代表引力增益系数,q代表巡检机器人位置,/>代表目标点位置,/>表示巡检机器人位置与目标点位置的欧几里得距离;引力函数为:/>
巡检机器人向目标点行驶过程中,障碍物产生斥力势场,斥力势场函数为:
为斥力势场函数,/>为斥力增益系数/>为目标点的斥力作用范围,超出作用范围为0,/>代表作用范围的系数,斥力函数为:
;/>代表巡检机器人位置与目标点位置的欧几里得距离的梯度,利用贪婪策略在初始状态/>执行初始动作/>,得到奖励r,更新状态/>;比较巡检机器人与目标点之间的欧几里得距离与目标点斥力作用范围的大小,当取/>,根据贪婪策略在新状态/>下,更新价值函数:
通过Q-learning强化学习算法,结合标记的重要位置,自动规划巡检路线。
2.根据权利要求1所述一种轨道AI巡检机器人智能控制系统,其特征在于,所述环境信息收集模块,通过安装在巡检机器人上的距离传感器、视觉传感器、气味传感器、温度传感器,对巡检机器人四周的各种环境信息进行收集。
3.根据权利要求1所述一种轨道AI巡检机器人智能控制系统,其特征在于,所述环境地图构建模块,确定环境地图表达方式,本发明采用混合地图。
4.根据权利要求1所述一种轨道AI巡检机器人智能控制系统,其特征在于,所述环境地图构建模块,在构建的混合地图上标记出巡检场地中的重点位置,规划的路径围绕着重点位置。
5.根据权利要求1所述一种轨道AI巡检机器人智能控制系统,其特征在于,所述智能巡检模块
巡检机器人在巡检现场,遇到障碍物、巡检路线被占用问题,巡检机器人根据程序,发出音频,提醒前方,在规定时间内问题未解决,启动避让程序,根据Q-learning算法规划避让路线,避让后再移动至初设巡检路线上。
CN202310497047.2A 2023-05-05 2023-05-05 轨道ai巡检机器人智能控制系统 Active CN116203973B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310497047.2A CN116203973B (zh) 2023-05-05 2023-05-05 轨道ai巡检机器人智能控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310497047.2A CN116203973B (zh) 2023-05-05 2023-05-05 轨道ai巡检机器人智能控制系统

Publications (2)

Publication Number Publication Date
CN116203973A CN116203973A (zh) 2023-06-02
CN116203973B true CN116203973B (zh) 2023-07-21

Family

ID=86513339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310497047.2A Active CN116203973B (zh) 2023-05-05 2023-05-05 轨道ai巡检机器人智能控制系统

Country Status (1)

Country Link
CN (1) CN116203973B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103640018A (zh) * 2013-12-13 2014-03-19 江苏久祥汽车电器集团有限公司 一种基于surf算法进行定位的方法及机器人
CN111553469A (zh) * 2020-05-18 2020-08-18 国网江苏省电力有限公司电力科学研究院 一种无线传感器网络数据融合方法、装置和存储介质
CN113341712A (zh) * 2021-05-31 2021-09-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 无人机自主控制系统智能分层递阶控制选择方法
WO2023283186A1 (en) * 2021-07-06 2023-01-12 The Regents Of The University Of Michigan Two-wheeled, self-balancing robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103640018A (zh) * 2013-12-13 2014-03-19 江苏久祥汽车电器集团有限公司 一种基于surf算法进行定位的方法及机器人
CN111553469A (zh) * 2020-05-18 2020-08-18 国网江苏省电力有限公司电力科学研究院 一种无线传感器网络数据融合方法、装置和存储介质
CN113341712A (zh) * 2021-05-31 2021-09-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 无人机自主控制系统智能分层递阶控制选择方法
WO2023283186A1 (en) * 2021-07-06 2023-01-12 The Regents Of The University Of Michigan Two-wheeled, self-balancing robot

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《A Quantitative Study of Mapping and Localization Algorithms on ROS based Differential Robot》;Kartik Madhira 等;《2017 Nirma University International Conference on Engineering》;第1-5页 *
《A YOLO-GGCNN based grasping framework for mobile robots in unknown environments》;Zhen Li 等;《Expert Systems With Applications》;第1-14页 *

Also Published As

Publication number Publication date
CN116203973A (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
CN107703945A (zh) 一种多目标融合的智能农用机械路径规划方法
CN114384920A (zh) 一种基于局部栅格地图实时构建的动态避障方法
Bruce et al. Learning deployable navigation policies at kilometer scale from a single traversal
Kim et al. PLGRIM: Hierarchical value learning for large-scale exploration in unknown environments
CN103278170A (zh) 基于显著场景点检测的移动机器人级联地图创建方法
CN113705636B (zh) 一种自动驾驶车辆轨迹预测方法、装置及电子设备
CN106814737A (zh) 一种基于啮齿类动物模型和RTAB‑Map闭环检测算法的SLAM方法
Saulnier et al. Information theoretic active exploration in signed distance fields
CN110986945B (zh) 基于语义高度地图的局部导航方法和系统
CN114494329B (zh) 用于移动机器人在非平面环境自主探索的导引点选取方法
Hardouin et al. Surface-driven Next-Best-View planning for exploration of large-scale 3D environments
CN115639823A (zh) 崎岖起伏地形下机器人地形感知与移动控制方法及系统
Masmoudi et al. Autonomous car-following approach based on real-time video frames processing
CN116203973B (zh) 轨道ai巡检机器人智能控制系统
Short et al. Abio-inspiredalgorithminimage-based pathplanning and localization using visual features and maps
Abbas et al. Autonomous canal following by a micro-aerial vehicle using deep CNN
US20230342614A1 (en) Model generation apparatus, pathfinding apparatus, model generation method, and computer-readable storage medium storing a model generation program
Wan et al. Real-time path planning for navigation in unknown environment
CN113741480A (zh) 一种基于动态障碍物提取与代价地图相结合的避障方法
Yoshimura et al. Highlighted map for mobile robot localization and its generation based on reinforcement learning
Hsu et al. Enhanced simultaneous localization and mapping (ESLAM) for mobile robots
CN115599107B (zh) 基于人工智能的激光自动除锈机器人控制系统
CN117036966B (zh) 地图中点位特征的学习方法、装置、设备及存储介质
Wu et al. Multi-objective reinforcement learning for autonomous drone navigation in urban areas with wind zones
CN114779821B (zh) 基于深度学习的无人机自适应斥力系数路径规划方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant