CN114413896A - 一种移动机器人的复合导航方法、装置、设备及存储介质 - Google Patents
一种移动机器人的复合导航方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114413896A CN114413896A CN202210181806.XA CN202210181806A CN114413896A CN 114413896 A CN114413896 A CN 114413896A CN 202210181806 A CN202210181806 A CN 202210181806A CN 114413896 A CN114413896 A CN 114413896A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- control scheme
- information
- point cloud
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 239000002131 composite material Substances 0.000 title claims abstract description 29
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 51
- 230000000007 visual effect Effects 0.000 claims abstract description 40
- 238000013507 mapping Methods 0.000 claims abstract description 13
- 238000012163 sequencing technique Methods 0.000 claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 50
- 238000004590 computer program Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 238000003062 neural network model Methods 0.000 claims description 5
- 230000009012 visual motion Effects 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims 3
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种移动机器人的复合导航方法、装置、设备及存储介质,包括获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;根据点云信息与位姿信息进行栅格化建图,得到2d栅格地图数据;根据图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;根据2d栅格地图数据、位姿信息和点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;利用分级机制将视觉控制方案与激光雷达控制方案进行优先级排序,根据排序结果输出移动机器人控制指令,完成移动机器人的复合导航。本发明能使移动机器人在行驶途中无需频繁减速并调整方向,提升了行驶效率和导航稳定性。
Description
技术领域
本发明属于计算机视觉技术和机器人控制技术技术领域,具体涉及一种移动机器人的复合导航方法、装置、设备及存储介质。
背景技术
随着无人驾驶领域以及机器人领域发展日趋成熟,在高新实体技术中,相较于人工产业,自动化产业在产品制造效率、成本、安全、质量等方面优势十分明显,因而得到了大力发展,具有巨大的研究价值和应用意义。从传统的餐饮服务行业的服务移动机器人到物流行业中的自动分拣机器人、自动搬运移动机器人,智能机器人的身影无处不在。移动机器人领域近年得到了巨大的发展,和以前相比,各传感器对于环境识别的精度越来越高,机器人能够处理的数据的能力也越来越强,但由于各行各业的技术和服务在不断升级优化,对于移动机器人的要求也越来越高,对移动机器人的控制领域提出了新挑战。
在复杂的动态环境中,对移动机器人行驶要求较高,应用单一的激光雷达导航很大部分完全依赖激光雷达所提供的数据,激光雷达的好坏直接影响到定位与导航的精准性,性能较差的激光雷达容易出现误识从而导致导航失效或无法达到导航目的,因此需要借助其他传感器进行辅助导航,同时在导航中,全局路径规划一般以A*与dijkstra算法为主,这两种算法虽比较节省算力,但在行驶过程中所产生的路径段数通常比较多且不光滑,导致移动机器人在行驶途中需频繁减速并调整方向,十分影响行驶效率。
发明内容
针对现有技术中存在的问题,本发明提供了一种移动机器人的复合导航方法、装置、设备及存储介质,能够使得移动机器人在行驶途中无需频繁减速并调整方向,提升了行驶效率和导航的稳定性。
为了解决上述技术问题,本发明通过以下技术方案予以实现:
一种移动机器人的复合导航方法,包括:
获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;
根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据;
根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;
根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;
将所述视觉控制方案与所述激光雷达控制方案进行结合,或利用分级机制将所述视觉控制方案与所述激光雷达控制方案进行优先级排序,根据结合结果或排序结果输出移动机器人控制指令,完成移动机器人的复合导航。
进一步地,所述移动机器人包括惯性传感器、激光雷达传感器、视觉传感器和电机位置编码器;
所述获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息,具体包括:
通过所述激光雷达传感器获取所述点云信息;
通过所述惯性传感器与所述电机位置编码器获取所述位姿信息;
通过所述视觉传感器获取所述图像信息。
进一步地,利用栅格法,根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据。
进一步地,所述根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案,具体包括:
将所述图像信息输入预先构建的路况识别模型中,输出所述路况识别结果;所述预先构建的路况识别模型为利用以图像信息为训练样本,对神经网络模型进行训练得到;
根据所述路况识别结果进行图像优化,并通过设定的视觉运动控制逻辑,生成所述视觉控制方案。
进一步地,所述改进的全局路径规划算法为改进的人工势场算法,所述改进的人工势场算法为在原斥力势场函数上增加了斥力和临时目标点;
所述改进的人工势场算法包括引力势场函数、引力函数、斥力势场函数和斥力函数和势场合力函数;
所述引力势场函数的表达式为:
所述引力函数的表达式为:
所述斥力势场函数的表达式为:
所述斥力函数的表达式为:
所述的势场合力函数为:
F(X)=Fa(X)+Fra(X)+Frb(X)
其中,
在斥力函数中,Fra(X)表达的斥力方向为:由障碍物指向X;
在斥力函数中,Frb(X)表达的斥力方向为:由X指向Xg。
进一步地,所述根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案,具体包括:
将所述位姿信息、所述2d栅格地图数据与所述点云信息载入所述改进的全局路径规划算法中,生成全局路径;
将所述位姿信息、所述2d栅格地图数据、所述点云信息与所述全局路径载入所述局部路径规划算法中,生成激光雷达控制方案。
进一步地,所述优先级排序为:所述视觉控制方案的优先级高于所述激光雷达控制方案。
一种移动机器人的复合导航装置,包括:
获取模块,用于获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;
建图模块,用于根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据;
视觉控制方案生成模块,用于根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;
激光雷达控制方案生成模块,用于根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;
控制命令输出模块,用于将所述视觉控制方案与所述激光雷达控制方案进行结合,或利用分级机制将所述视觉控制方案与所述激光雷达控制方案进行优先级排序,根据结合结果或排序结果输出移动机器人控制指令,完成移动机器人的复合导航。
一种设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述一种移动机器人的复合导航方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现一种移动机器人的复合导航方法的步骤。
与现有技术相比,本发明至少具有以下有益效果:
本发明通过获取移动机器人的位姿信息、移动机器人所在环境的点云信息进行栅格化建图,所获取的2d栅格地图、位姿信息和点云信息传入所述的改进的全局路径规划算法中,得到一条更为平滑、更短、耗用计算量较小的路径,再结合局部路径规划算法,将激光雷达控制方案发送至导航控制模块,使移动机器人的行驶效率提升,通过获取所在环境的图像信息,根据具体环境,再结合视觉识别算法,向导航控制模块发送不同的视觉控制方案。导航控制模块根据视觉控制方案的类别,与激光雷达控制方案进行结合或优先级排序,使移动机器人在不同行驶环境中,能够根据环境而选择比单一激光雷达控制方案更加安全的,高效的导航方案,从而保护自身机械结构安全以及周围人群安全,避免出现安全事故。不同方式导航方案的优先级排序,使得移动机器人在导航过程中可随时使用手柄、激光雷达导航以及视觉导航进行协同控制,增强了移动机器人导航的可控性和多样性。使用专门的导航控制模块,能更方便使用者后期的统一维护。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式中的技术方案,下面将对具体实施方式描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是复合导航包构成示意图;
图2是所构建的栅格地图;
图3是车道线识别效果图;
图4是路径规划示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
作为本发明的某一具体实施方式,如图1所示,一种移动机器人的复合导航方法,具体包括以下步骤:
S1、获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息。
具体地说,移动机器人上安装设置有惯性传感器、激光雷达传感器、视觉传感器和电机位置编码器,启动导航程序后,机器人会利用驱动中的串口通讯,通过激光雷达传感器获取点云信息,通过惯性传感器与电机位置编码器获取位姿信息,通过视觉传感器获取图像信息。
需要说明的是,本实施例中所用的惯性传感器是MPU9250 9轴IMU,编码器为霍尔编码器,视觉传感器为IMX219摄像头,激光雷达传感器为Ydlidar X4激光雷达。
S2、根据点云信息与位姿信息进行栅格化建图,得到2d栅格地图数据。
具体地说,利用栅格法,根据点云信息与位姿信息进行栅格化建图,得到2d栅格地图数据。
在具体实现中,利用手柄控制移动机器人在实验场景内移动,利用Ydlidar X4激光雷达扫描环境信息,构建(n,n)大小的二维栅格地图;
对于每一个栅格,使用p(k=1)表示栅格为可通行状态的概率,p(k=0)示栅格为占据状态的概率,其中p(k=1)+p(k=1)=1;
对每一帧的激光雷达的观测数据z(x,y)进行栅格序号状态更新,具体如下:
根据K值大小判断栅格是否为占据状态,设置阈值Km,当K值小于阈值Km时表示空闲状态,当K值大于阈值Km时表示占据状态,最终建立完成的2d栅格地图如图2所示。
S3、根据图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案。
具体地说,将图像信息输入预先构建的路况识别模型中,输出路况识别结果;
其中,预先构建的路况识别模型为利用以图像信息为训练样本,对神经网络模型进行训练得到,本实施例通过unet神经网络模型,输入层为预训练的图像数据,输出层num_classes设置为所需视觉识别的种类数目;
根据路况识别结果进行图像优化,并通过设定的视觉运动控制逻辑,生成视觉控制方案。视觉控制方案包括泥泞路面环境控制方案、人行横道环境控制方案、草地环境控制方案以及车道线环境控制方案。
更加具体地说,在本发明实施例中,预先收集移动机器人视觉传感器中的环境数据(包括泥泞路面、人行横道、草地和车道线等路面环境数据),得到数据标签,从而得到训练集;将得到的训练集输入unet神经网络模型中进行反复训练,调整模型参数以不断减少预测误差,最终生成路况识别模型;
本实施例中视觉运动控制逻辑的具体设定方法为:对于所识别的环境进行速度限制
(1)由于移动机器人硬件性能的限制,其线速度和角速度都存在界限,所以速度矢量空间取值范围的界限表示为:
vm={v∈{vmin,vmax},w∈{wmin,wmax}}
其中,vmin和vmax为移动机器人的最小线速度和最大线速度;wmin和wmax为移动机器人的最小角速度和最大角速度。
移动机器人的加速和减速性能都与电机的性能有关,移动机器人在模拟周期内线速度和角速度的变化量由于电机力矩的限制都有上限:
vd={(v,w)|v∈[vc-aaT,vc-aaT],v∈[wc-abT,wc-abT]}
最终可取的速度值即为上述三项约束条件下的速度矢量空间的交集,即v0=vm∩vd
(2)对于视觉识别算法所识别出的不同环境,进行不同种类的速度限制:
视觉控制方案一:
若处于泥泞路面中,线速度和角速度都应进行一定的限制:
设定速度矢量ve1空间取值范围的界限表示为:
ve1={(v,w)|v∈[-vn1,vn1],w∈[-wn1,wn1]}
其中,vn1表示泥泞路段的设定线速度,wn1表示泥泞路段的设定角速度;可取速度值v1为与最大可取速度值的交集:
v1=ve1∩v0
视觉控制方案二:
若处于人行横道中,线速度应作出限制,并且禁止转向:
设定速度矢量ve1空间取值范围的界限表示为:
ve2={(v,w)|v∈[-vn2,vn2],w=0}
其中,vn2表示人行横道路段的设定线速度,wn2表示泥泞路段的设定角速度;可取速度值v2为与最大可取速度值的交集:
v2=ve2∩v0
视觉控制方案三:
若处于草地中,线速度和角速度均应达到理论最大值:
ve3={(v,w)|v∈[vmin,vmax],w=[wmin,wmax]}
可取速度值v3为与最大可取速度值的交集:
v3=ve3∩v0
视觉控制方案四:
若处于车道线中,线速度角速度应遵循一定速度控制规则设定。
如图4所示,在车道线环境中,当检测到的路段中心线在移动机器人视野中心一定范围时,控制方案可取速度矢量空间v0中最大速度的线速度控制数据消息使移动机器人保持直线前进;
线速度为:
ve4=max(v0(0))
角速度为:
we4=0
速度对为:
v4=(ve4,we4)
当检测到的路段中心线偏离移动机器人视野的中心位置一定范围时,对固定值Turnerror取一定的系数转换为角度控制消息的数值;
anglex=Turnerror*d1*max(v0(1))
速度控制命令为:
速度控制命令为:
ve4=max(v0(0))
we4=anglex
其中,anglex代表角度偏移函数;d1代表某一常数;max(v0(1))代表移动机器人所允许的最大角速度量。
(3)根据识别结果,向导航处理单元发送不同的视觉控制方案,方案一到方案三均为速度限制方案,方案四为速度控制方案。
S4、根据2d栅格地图数据、位姿信息和点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案。
具体地说,将位姿信息、2d栅格地图数据与点云信息载入改进的全局路径规划算法中,生成全局路径;
将位姿信息、2d栅格地图数据、点云信息与全局路径载入局部路径规划算法中,生成激光雷达控制方案。
本发明中,改进的全局路径规划算法为改进的人工势场算法,改进的人工势场算法为在原斥力势场函数上增加了斥力和临时目标点,所述改进的人工势场算法包括引力势场函数、引力函数、斥力势场函数和斥力函数;
通过所获得的准确位姿信息,移动机器人在所建立的2d栅格地图和目标点在全局坐标系的位置,使用改进人工势场算法,把目标点当做引力点,障碍物作为斥力点,计算合力,规划出一条可达目标点的全局路径;同时采用更改原势场函数以及增加临时目标点的方法避免传统人工势场算法的目标点不可达的问题。
所述引力势场函数的表达式为:
所述引力函数的表达式为:
Fa(x)=-ka(X-Xg)
所述斥力势场函数的表达式为:
所述斥力函数的表达式为:
所述的势场合力函数为:
F(X)=Fa(X)+Fra(X)+Frb(X)
其中,
ρ(X,X0)为机器人坐标X到障碍物点X0的欧式距离;在斥力函数中Fra(X)表达的斥力方向为:由障碍物指向X;Frb(X)表达的斥力方向为:由X指向Xg。
其中,不论n取何值,合力方向总是偏向目标点,因此解决了目标点不可达的问题。在实际应用中,移动机器人在进行全局路径规划时,将合力作为路径规划总方向,在导航处理单元中生成一条指向目标点的路径,如图4所示。
在全局路径规划完成后,进行局部路径规划,具体步骤如下:
在局部路径规划过程中,需要考虑到局部路径规划需要遵循全局路径以避免局部最优,以及与障碍物尽量远,以及尽量快的速度以保证行驶效率,确定评价函数为:
G(v,w)=aO(v,w)+bP(v,w),cQ(v,w)
其中,O(v,w)函数表示所取速度对应的轨迹终点与障碍物距离得分;P(v,w)函数表示所取速度对应的轨迹终点与全局规划路径距离得分;Q(v,w)函数表示所取速度快慢得分。其中,O(v,w)针对现有移动机器人位姿(x,y,θ),对于当前时间单位T的速度对(v,w),进行位姿更新后,与最近的障碍物的距离,距离远得分越高;P(v,w)针对现有移动机器人位姿(x,y,θ),对于当前时间单位T的速度对(v,w),进行位姿更新后,与全局规划路径的直线距离,距离越近得分越高;Q(v,w)则主要考虑线速度v,速度越快得分越高。
然后针对各函数进行归一化处理,a、b、c均为常数。
本实施例中,根据速度对可取范围,将线速度以0.01m/s,角速度以0.1rad/s为单位划分为,分成多个可取速度对,选择评价函数G(v,w)最优值一定范围内的对应的vj作为当前时间单位T的速度对范围,进而发布相应的激光雷达控制方案至导航处理单元。
S5、导航处理单元根据视觉控制方案与激光雷达控制方案,进行结合或优先级排序,根据结合结果或排序结果输出移动机器人控制指令,完成移动机器人的复合导航。
对于导航控制单元所接收的视觉控制方案一、二、三:
导航处理单元对视觉控制方案的速度对范围输入至激光雷达控制方案中的局部路径规划中进行速度对范围限制。限制后的激光雷达控制方案作为结合结果。
对于导航控制单元所接受的视觉控制方案四:
本实施例中,设置控制方案分级进行输出:
激光雷达控制方案作为基础导航系统,优先级设为1,即该导航速度控制命令停止发布后,保持所设置的优先级0.5秒左右;
在视觉控制方案中,车道线识别优先级较高,设置为2,延迟为0.1秒,以保证在视觉识别停止后可以立即切换激光雷达控制方案。
最后输出唯一速度对,控制移动机器人进行移动。
本发明还提供了一种移动机器人的复合导航装置,用于实现本发明的复合导航方法,具体包括:
获取模块,用于获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;
建图模块,用于根据点云信息与位姿信息进行栅格化建图,得到2d栅格地图数据;
视觉控制方案生成模块,用于根据图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;
激光雷达控制方案生成模块,用于根据2d栅格地图数据、位姿信息和点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;
控制命令输出模块,用于利用分级机制将视觉控制方案与激光雷达控制方案进行结合或优先级排序,根据结合结果或排序结果输出移动机器人控制指令,即速度对,完成移动机器人的复合导航。
本发明在一个实施例中,提供了一种计算机设备,该计算机设备包括处理器以及存储器,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器用于执行所述计算机存储介质存储的程序指令。处理器可能是中央处理单元(CentralProcessing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor、DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其是终端的计算核心以及控制核心,其适于实现一条或一条以上指令,具体适于加载并执行一条或一条以上指令从而实现相应方法流程或相应功能;本发明实施例所述的处理器可以用于一种移动机器人的复合导航方法的操作。
本发明在一个实施例中,一种移动机器人的复合导航方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。
所述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NANDFLASH)、固态硬盘(SSD))等。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种移动机器人的复合导航方法,其特征在于,包括:
获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;
根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据;
根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;
根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;
将所述视觉控制方案与所述激光雷达控制方案进行结合,或利用分级机制将所述视觉控制方案与所述激光雷达控制方案进行优先级排序,根据结合结果或排序结果输出移动机器人控制指令,完成移动机器人的复合导航。
2.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,所述移动机器人包括惯性传感器、激光雷达传感器、视觉传感器和电机位置编码器;
所述获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息,具体包括:
通过所述激光雷达传感器获取所述点云信息;
通过所述惯性传感器与所述电机位置编码器获取所述位姿信息;
通过所述视觉传感器获取所述图像信息。
3.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,
利用栅格法,根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据。
4.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,所述根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案,具体包括:
将所述图像信息输入预先构建的路况识别模型中,输出所述路况识别结果;所述预先构建的路况识别模型为利用以图像信息为训练样本,对神经网络模型进行训练得到;
根据所述路况识别结果进行图像优化,并通过设定的视觉运动控制逻辑,生成所述视觉控制方案。
5.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,所述改进的全局路径规划算法为改进的人工势场算法,所述改进的人工势场算法为在原斥力势场函数上增加了斥力和临时目标点;
所述改进的人工势场算法包括引力势场函数、引力函数、斥力势场函数和斥力函数和势场合力函数;
所述引力势场函数的表达式为:
所述引力函数的表达式为:
所述斥力势场函数的表达式为:
所述斥力函数的表达式为:
所述的势场合力函数为:
F(X)=Fa(X)+Fra(X)+Frb(X)
其中,
在斥力函数中,Fra(X)表达的斥力方向为:由障碍物指向X;
在斥力函数中,Frb(X)表达的斥力方向为:由X指向Xg。
6.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,所述根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案,具体包括:
将所述位姿信息、所述2d栅格地图数据与所述点云信息载入所述改进的全局路径规划算法中,生成全局路径;
将所述位姿信息、所述2d栅格地图数据、所述点云信息与所述全局路径载入所述局部路径规划算法中,生成激光雷达控制方案。
7.根据权利要求1所述的一种移动机器人的复合导航方法,其特征在于,所述优先级排序为:所述视觉控制方案的优先级高于所述激光雷达控制方案。
8.一种移动机器人的复合导航装置,其特征在于,包括:
获取模块,用于获取移动机器人的位姿信息、移动机器人所在环境的点云信息和移动机器人所在环境的图像信息;
建图模块,用于根据所述点云信息与所述位姿信息进行栅格化建图,得到2d栅格地图数据;
视觉控制方案生成模块,用于根据所述图像信息,使用视觉识别算法进行路况识别,根据路况识别结果生成视觉控制方案;
激光雷达控制方案生成模块,用于根据所述2d栅格地图数据、所述位姿信息和所述点云信息,利用改进的全局路径规划算法与局部路径规划算法生成激光雷达控制方案;
控制命令输出模块,用于将所述视觉控制方案与所述激光雷达控制方案进行结合,或利用分级机制将所述视觉控制方案与所述激光雷达控制方案进行优先级排序,根据结合结果或排序结果输出移动机器人控制指令,完成移动机器人的复合导航。
9.一种设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述一种移动机器人的复合导航方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项的一种移动机器人的复合导航方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210181806.XA CN114413896B (zh) | 2022-02-25 | 2022-02-25 | 一种移动机器人的复合导航方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210181806.XA CN114413896B (zh) | 2022-02-25 | 2022-02-25 | 一种移动机器人的复合导航方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114413896A true CN114413896A (zh) | 2022-04-29 |
CN114413896B CN114413896B (zh) | 2024-09-27 |
Family
ID=81262141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210181806.XA Active CN114413896B (zh) | 2022-02-25 | 2022-02-25 | 一种移动机器人的复合导航方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114413896B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586767A (zh) * | 2022-06-16 | 2023-01-10 | 武汉工程大学 | 一种多机器人路径规划方法和装置 |
CN117191047A (zh) * | 2023-11-03 | 2023-12-08 | 南京信息工程大学 | 弱光环境下无人机自适应主动视觉导航方法、装置 |
WO2024198294A1 (zh) * | 2023-03-31 | 2024-10-03 | 深圳森合创新科技有限公司 | 机器人及其地图构建与定位方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106313046A (zh) * | 2016-09-27 | 2017-01-11 | 成都普诺思博科技有限公司 | 移动机器人多级避障系统 |
CN111348016A (zh) * | 2020-03-31 | 2020-06-30 | 长安大学 | 一种基于v2x的车队协同制动方法及系统 |
US20210104064A1 (en) * | 2019-10-07 | 2021-04-08 | Lg Electronics Inc. | System, apparatus and method for indoor positioning |
US20210123757A1 (en) * | 2019-10-24 | 2021-04-29 | Lg Electronics Inc. | Method and apparatus for managing vehicle's resource in autonomous driving system |
CN113238554A (zh) * | 2021-05-08 | 2021-08-10 | 武汉科技大学 | 一种基于激光与视觉融合slam技术的室内导航方法及系统 |
CN113269837A (zh) * | 2021-04-27 | 2021-08-17 | 西安交通大学 | 一种适用于复杂三维环境的定位导航方法 |
CN113296523A (zh) * | 2021-05-27 | 2021-08-24 | 太原科技大学 | 一种移动机器人避障路径规划方法 |
CN113721615A (zh) * | 2021-08-27 | 2021-11-30 | 广州大学 | 一种基于机器视觉的海航路径规划方法及系统 |
CN113776519A (zh) * | 2021-09-14 | 2021-12-10 | 西南科技大学 | 一种无光动态开放环境下agv车辆建图与自主导航避障方法 |
-
2022
- 2022-02-25 CN CN202210181806.XA patent/CN114413896B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106313046A (zh) * | 2016-09-27 | 2017-01-11 | 成都普诺思博科技有限公司 | 移动机器人多级避障系统 |
US20210104064A1 (en) * | 2019-10-07 | 2021-04-08 | Lg Electronics Inc. | System, apparatus and method for indoor positioning |
US20210123757A1 (en) * | 2019-10-24 | 2021-04-29 | Lg Electronics Inc. | Method and apparatus for managing vehicle's resource in autonomous driving system |
CN111348016A (zh) * | 2020-03-31 | 2020-06-30 | 长安大学 | 一种基于v2x的车队协同制动方法及系统 |
CN113269837A (zh) * | 2021-04-27 | 2021-08-17 | 西安交通大学 | 一种适用于复杂三维环境的定位导航方法 |
CN113238554A (zh) * | 2021-05-08 | 2021-08-10 | 武汉科技大学 | 一种基于激光与视觉融合slam技术的室内导航方法及系统 |
CN113296523A (zh) * | 2021-05-27 | 2021-08-24 | 太原科技大学 | 一种移动机器人避障路径规划方法 |
CN113721615A (zh) * | 2021-08-27 | 2021-11-30 | 广州大学 | 一种基于机器视觉的海航路径规划方法及系统 |
CN113776519A (zh) * | 2021-09-14 | 2021-12-10 | 西南科技大学 | 一种无光动态开放环境下agv车辆建图与自主导航避障方法 |
Non-Patent Citations (1)
Title |
---|
高波;施家栋;王建中;闫国栋;: "基于SLAM的移动机器人自主返航控制系统设计", 机器人技术与应用, no. 05, 31 October 2017 (2017-10-31) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586767A (zh) * | 2022-06-16 | 2023-01-10 | 武汉工程大学 | 一种多机器人路径规划方法和装置 |
WO2024198294A1 (zh) * | 2023-03-31 | 2024-10-03 | 深圳森合创新科技有限公司 | 机器人及其地图构建与定位方法 |
CN117191047A (zh) * | 2023-11-03 | 2023-12-08 | 南京信息工程大学 | 弱光环境下无人机自适应主动视觉导航方法、装置 |
CN117191047B (zh) * | 2023-11-03 | 2024-02-23 | 南京信息工程大学 | 弱光环境下无人机自适应主动视觉导航方法、装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114413896B (zh) | 2024-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114413896B (zh) | 一种移动机器人的复合导航方法、装置、设备及存储介质 | |
US11042157B2 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
CN108698595B (zh) | 用于控制车辆运动的方法和车辆的控制系统 | |
US11442464B2 (en) | Bird's eye view map based recognition and motion prediction for autonomous systems | |
CN112212872B (zh) | 基于激光雷达和导航地图的端到端自动驾驶方法及系统 | |
CN111771135B (zh) | 自动驾驶车辆中使用rnn和lstm进行时间平滑的lidar定位 | |
JP6984232B2 (ja) | 自動運転装置 | |
CN111868641B (zh) | 用于产生用于训练车辆控制设备的人工智能模块的训练数据组的方法 | |
JP2022506404A (ja) | 車両速度を決定する方法及び装置 | |
CN111971574A (zh) | 用于自动驾驶车辆的lidar定位的基于深度学习的特征提取 | |
CN113494923B (zh) | 基于微分动态规划的路径轨迹规划方法及系统 | |
EP4296133A1 (en) | Intelligent driving method and apparatus, and storage medium and computer program | |
CN111771141A (zh) | 自动驾驶车辆中使用3d cnn网络进行解决方案推断的lidar定位 | |
CN117794803A (zh) | 使用具有响应型代理预测的树搜索和/或代理滤波进行车辆轨迹控制 | |
US20240043034A1 (en) | Method and system for conditional operation of an autonomous agent | |
US11527028B2 (en) | Systems and methods for monocular based object detection | |
CN113366400B (zh) | 自动驾驶车辆的动态成本函数的实现方法 | |
Wang et al. | AGRNav: Efficient and Energy-Saving Autonomous Navigation for Air-Ground Robots in Occlusion-Prone Environments | |
WO2024107588A1 (en) | Model-based localization on high-definition maps | |
Jahoda et al. | Autonomous car chasing | |
CN115903773A (zh) | 移动体控制装置、移动体、学习装置及方法、及存储介质 | |
US11561543B2 (en) | Speed planning using a speed planning guideline for idle speed of autonomous driving vehicles | |
JP7360792B2 (ja) | 移動体、学習器、及び学習器製造方法 | |
US20240199077A1 (en) | Motion planning of an autonomous vehicle, motion planning system and vehicle with a motion planning system | |
Jiang et al. | Design of a universal self-driving system for urban scenarios—BIT-III in the 2011 Intelligent Vehicle Future Challenge |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |