CN115993825A - 一种基于空地协同的无人车集群控制系统 - Google Patents

一种基于空地协同的无人车集群控制系统 Download PDF

Info

Publication number
CN115993825A
CN115993825A CN202211689653.6A CN202211689653A CN115993825A CN 115993825 A CN115993825 A CN 115993825A CN 202211689653 A CN202211689653 A CN 202211689653A CN 115993825 A CN115993825 A CN 115993825A
Authority
CN
China
Prior art keywords
map
robot
unmanned
unmanned aerial
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211689653.6A
Other languages
English (en)
Inventor
张超省
涂建刚
王峰
王健
胡清森
刘运斗
张�林
李正军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Army Engineering University of PLA
Original Assignee
Army Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Army Engineering University of PLA filed Critical Army Engineering University of PLA
Priority to CN202211689653.6A priority Critical patent/CN115993825A/zh
Publication of CN115993825A publication Critical patent/CN115993825A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明涉及空地协同图像处理技术领域,本发明公开了一种基于空地协同的无人车集群控制系统,包括无人机和无人车,无人机获取目标区域的点云地图,通过倾斜角度计算模块解算无人机倾斜的角度,多无人车运动控制模块通过融合路径规划算法和机器人的编队控制算法,使多机器人编队进行路径规划,在多机器人保持期望固定队形的同时能够搜索出一条无碰撞、最优的行驶路径,最终到达指定目标点;利用无人机采集的栅格地图对无人车运动提供轨迹参考,利用编队控制算法使多机器人编队进行路径规划,利用相对变换关系将其他无人车的局部地图平移旋转到参考坐标系中,以此建立全局地图,通过全局地图与无人机地图二次融合,最终获得高精度图像。

Description

一种基于空地协同的无人车集群控制系统
技术领域
本发明涉及空地协同图像处理技术领域,具体是一种基于空地协同的无人车集群控制系统。
背景技术
应用于灾害地区,利用无人机可以快速的获取灾害区域的图像,但是图像中受到高度障碍物的影响,导致图像内部存在阴影和空洞部分,导致图像采集不全面,此时可以利用无人车对建图阴影部分和空洞部分进行填补,增加区域图像的精确性;
但是单一无人车的采集方式受到采集视角的影响,导致受到无人车的采集视角影响,使单次经过阴影区域和空洞部分采集不完全,造成后续地图融合时的图形阴影部分与空洞部分的填补效果较低。
发明内容
本发明的目的在于提供一种基于空地协同的无人车集群控制系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于空地协同的无人车集群控制系统,包括无人机和无人车,无人机建图规划无人车路径
S1:无人机获取目标区域的点云地图,通过倾斜角度计算模块解算无人机倾斜的角度,通过地图转换模块将点云地图转换为八叉树地图和可用于所述无人车导航使用的栅格地图,从而建立三层次地图;
S2:将栅格地图转换为使用静态层将灰度图中的像素值转换成代价地图中的代价值,得到代价地图后导航栈开始利用代价地图无人车对进行路径规划;
集群无人车运动控制
S3:多无人车运动控制模块通过融合路径规划算法和机器人的编队控制算法,使多机器人编队进行路径规划,在多机器人保持期望固定队形的同时能够搜索出一条无碰撞、最优的行驶路径,最终到达指定目标点;
无人车建图流程
S4:无人车利用激光雷达和IMU获取数据,建立局部地图,弥补无人机中建图的阴影空洞区域;
多无人车地图融合
S5:指定其中一台无人车的map坐标系为参考坐标系,利用相对变换关系将其他无人车的局部地图平移旋转到参考坐标系中,以此建立全局地图;
空地地图融合
S6:将无人车、无人机的地图经过滤波和配准目标分割进行预处理,通过变换位姿解算后进行点云配准。
作为本发明再进一步的方案:所述步骤S1中,点云地图建立的同时进行增量式八叉树地图的建立,八叉树地图直接转换成栅格地图时,使用直通滤波去除高度高于1m的点云数据,从而去除屋顶等干扰部分,然后使用内置的地面滤除算法滤除地面,通过半径滤波去除噪声点,将保存栅格地图用于后续路径规划的验证。
作为本发明再进一步的方案:所述步骤S2中,机器人通过A*全局路径规划算法在先验地图规划出一条全局最优路径,利用动态窗口法进行机器人的局部路径规划,通过评价函数对机器人以采样速度行驶而模拟出的多条轨迹进行评价,从多条模拟轨迹中选出一条最优的轨迹及其对应的速度矢量来驱动机器人运动。
作为本发明再进一步的方案:所述步骤S2中,机器人按照规划的全局路径进行导航,导航过程中的利用局部代价地图实时确定环境中的障碍物位置,机器人利用激光雷达对周围的环境进行观测,检测到周围的障碍物,这些障碍物均被更新到局部代价地图中,越过指定范围后之前代价地图的障碍物被移出观测范围。
作为本发明再进一步的方案:步骤S5、步骤S6中,通过固态激光雷达及其内置IMU惯性测量单元获取点云数据与姿态角信息,通过IMU数据的反向传播对激光点云数据进行运动畸变校正,通过迭代卡尔曼滤波融合去畸变后的点云数据和IMU数据来进行环境地图的构建,通过增量k-d树数据结构加快点云搜索速度和动态管理地图,地图融合算法在初始时刻进行局部地图间坐标系的计算,然后利用变换关系进行地图融合。
作为本发明再进一步的方案:所述步骤S3中,在编队过程中改进领航机器人使其可以进行自主导航,跟随机器人通过“1”字型和三角形的队形切换来实现避障功能。
与现有技术相比,本发明的有益效果是:
利用无人机采集的栅格地图对无人车运动提供轨迹参考,利用编队控制算法使多机器人编队进行路径规划,利用相对变换关系将其他无人车的局部地图平移旋转到参考坐标系中,以此建立全局地图,通过全局地图与无人机地图二次融合,最终获得高精度图像。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为一种基于空地协同的无人车集群控制系统中机器人硬件系统连接图;
图2为一种基于空地协同的无人车集群控制系统中建图系统整体流程图;
图3为一种基于空地协同的无人车集群控制系统中无人机三层地图建立的流程示意图;
图4为一种基于空地协同的无人车集群控制系统中倾斜角度计算流程示意图;
图5为一种基于空地协同的无人车集群控制系统中倾斜场景的示意图;
图6为一种基于空地协同的无人车集群控制系统中领航机器人数学模型;
图7为一种基于空地协同的无人车集群控制系统中跟随机器人数学模型;
图8为一种基于空地协同的无人车集群控制系统中障碍物测距模型;
图9为一种基于空地协同的无人车集群控制系统中队形切换示意图:
图10为一种基于空地协同的无人车集群控制系统中多机器人运动控制模块示意图;
图11为一种基于空地协同的无人车集群控制系统中全局地图融合模块的示意图;
具体实施方式
硬件组成
请参阅图1,无人机的硬件连接直接使用激光雷达带的以太网线连接到无人机的路由器上,路由器通过以太网线和Manifold2微型计算机连接。云台和滑轨由云台专用的遥控设备进行控制。无人机的激光雷达数据信号无人车可通过其无线路由器连接。无人车的硬件连接分为两部分,一部分为连接底盘主板提供的轮式里程计和底盘状态数据通过串口转USB和无人车的Intel NUC9I9QNX微型计算机连接;另一部分则为车上携带的激光雷达数据通过路由器和计算机连接;
无人机建图
无人机地图构建增加了倾斜角度计算模块,首先在地图构建过程中使用RANSAC算法自动计算倾斜角度,再把计算的角度补偿用到FAST-LIO算法的建图模块中,从而实现点云地图的倾斜纠正,该模块使用一种自适应的随机采样一致性算法解算倾斜的角度,并将解算好的倾斜角度用在雷达局部坐标系到全局地图坐标系转换过程中。地图转换模块则利用ROS的octomap_server功能包将无人机建立的点云地图转换为八叉树地图和可直接用于无人车导航使用的栅格地图,从而建立三层次地图;
倾斜角度的计算依赖于地平面的拟合,而无人机在启动时激光雷达可能并没有照射在地面区域,因此加入了高度判断用于确定拟合的平面是否为地面,倾斜的角度
Figure BDA0004020702280000042
和法向量与z轴的夹角θ相等,因此只要正确计算出θ并对激光雷达的点云数据进行补偿即可完成倾斜角度的纠正,使用RANSAC平面拟合时得出的Hessian形式的平面方程:
Figure BDA0004020702280000041
d为激光雷达到该平面的距离,其中该平面的法向量为n=(a,b,c)T,假设地平面为水平的则计算法向量和z轴方向的单位向量z的夹角就可以得出pitch轴需要补偿的夹角大小,
Figure BDA0004020702280000051
计算出的倾斜角度被用到局部点云数据的纠正,使用纠正后的数据建图就可以完成地图的倾斜纠正;
使用改进后的FAST-LIO算法进行点云地图的构建,八叉树地图直接转换成栅格地图时,z轴上所有点均被投影到二维平面,因此屋顶、地面的数据会对地面导航栅格地图的建立造成影响。先使用直通滤波去除高度高于1m的点云数据,从而去除屋顶等干扰部分,然后使用内置的地面滤除算法滤除地面,地面滤除算法的实现主要使用RANSAC算法,八叉树地图中的屋顶和地面数据被滤掉,剩下的部分可直接转换为栅格地图用于导航。八叉树地图转换成栅格地图;
在实际的导航过程中,为了加快运算速度通常只对局部代价地图进行更新,局部代价地图的范围可通过参数配置。常规的代价地图含有静态层、障碍物层、膨胀层共三层,使用SLAM技术建立的灰度图形式的栅格地图不能直接用于导航,可使用静态层将灰度图中的像素值转换成代价地图中的代价值,障碍物层则主要根据激光雷达数据进行局部地图的更新,如果遇到障碍物可以通过更新代价值影响局部区域的路径规划,从而实现避障。膨胀层则对障碍物所在栅格进行膨胀,膨胀后的地图可以防止机器人的外轮廓和障碍物发生碰撞;
无人车路径
无人车的全局路径规划根据其在地图中的定位结果、传感器信息和地图信息,搜索出一条从起始点到目标点的全局最优路径;
机器人通过A*全局路径规划算法在先验地图规划出一条全局最优路径,为了使机器人能够及时避开动态障碍物,机器人需要感知局部地图中的障碍物,避免机器人与其发生碰撞。所以本研究基于ROS机器人操作系统和实际机器人的运动模型,采用了动态窗口法(DWA)进行机器人的局部路径规划。动态窗口法通过评价函数对机器人以采样速度行驶而模拟出的多条轨迹进行评价,从多条模拟轨迹中选出一条最优的轨迹及其对应的速度矢量来驱动机器人运动;
机器人的运动模型为:
Figure BDA0004020702280000061
其中Δt表示采样时间,x(t)和x(t-1)表示机器人在t和t-1时刻的横坐标;y(t)和y(t-1)表示机器人在t和t-1时刻的纵坐标;θ(t)和θ(t-1)表示机器人在t和t-1时刻与X轴的夹角;v(t)为机器人在t时刻的线速度;w(t)为机器人在t时刻的角速度。
在上述运动模型下机器人的速度主要受三方面的限制,即机器人运动时的速度限制、机器人电机性能限制和机器人能够避开障碍物的安全距离限制;
机器人运动时的速度限制
Vs={(v,w)|v∈[vmin,vmax]∧w∈[wmin,wmax]}
其中Vs为机器人运动时所有速度的集合;vmax和vmin为机器人移动的最大、最小线速度;wmax和wmin为机器人移动的最大、最小角速度;
机器人电机性能限制
由于机器人的运动主要由电机提供的力矩来进行驱动,所以机器人能够获取的实际速度应该限制在一定范围内:
Figure BDA0004020702280000062
其中Δt为机器人的采样周期;vc和wc为机器人当前的线速度和角速度;
Figure BDA0004020702280000063
Figure BDA0004020702280000064
为机器人最大线加速度、最大线减速度;
Figure BDA0004020702280000065
Figure BDA0004020702280000066
为机器人最大角加速度、最大角减速度;
机器人能够避开障碍物的安全距离限制
机器人在运动过程中,不可避免的会遇到障碍物,当机器人通过传感器检测到障碍物时,需要进行减速来避免与障碍物发生碰撞,因此需要对机器人做进一步的限制:
Figure BDA0004020702280000067
其中
Figure BDA0004020702280000068
为机器人最大线减速度;
Figure BDA0004020702280000069
为机器人最大角减速度;dist(v,w)为当机器人以(v,w)速度运动时距离障碍物最近的安全距离;
DWA动态窗口法评价函数
通过上面的速度限制条件来确定机器人速度的搜索空间,根据速度搜索空间对速度进行采样,从而得到机器人的模拟轨迹,为了得到最优的轨迹,需要评价函数进行筛选,评价函数定义如下:
G(v,w)=σ(α·heading(v,w)+βdistance(v,w)+γvelocity(v,w))
其中heading(v,w)用于评价机器人行驶到模拟轨迹终点时与目标点期望角度的差异;distance(v,w)用于评价机器人行驶时与轨迹上的最近障碍物之间的距离。velocity(v,w)用于评价机器人的形式速度,σ、α、β、γ为各评价函数的系数。
在机器人实际运动过程中,由于激光雷达传感器采集到的距离障碍物的数值是离散的,为了避免其中某个评价指标过大的情况,需要对评价函数进行归一化平滑操作,然后再进行相加,其归一化公式如下所示:
Figure BDA0004020702280000071
Figure BDA0004020702280000072
Figure BDA0004020702280000073
其中,n表示采样得到的所有可能轨迹,i为机器人待评价的当前轨迹;
当机器人在实际环境中进行路径规划时,我们需要根据真实环境规划出一条无碰撞的全局最优路径,但是由于环境中动态障碍物的存在;
无人车集群编队运动
以三辆无人车编队为例,设定其中的无人车scout1为领航机器人,领航机器人使用A*算法进行全局路径规划,并将生成的路径作为整个多机器人路径规划的全局参考路径,同时根据领航者的实时定位结果和期望队形中每个跟随者相对于领航者的距离l和角度
Figure BDA0004020702280000074
计算虚拟领航机器人的位姿,然后将虚拟领航者的位姿发送给对应的跟随者作为目标点,从而引导每个跟随者向目标点运动,为了计算虚拟领航者位姿,首先建立了机器人的数学模型,根据期望队形计算出虚拟领航者位姿;
其中领航机器人全局坐标系为X-O-Y,局部坐标系为XL-OL-YL,领航机器人在全局坐标系下的定位位姿为(xL,yLL),所以机器人在全局坐标系下的速度矢量为:
Figure BDA0004020702280000081
其中
Figure BDA0004020702280000082
为全局坐标系下的线速度、角速度,vx、vy和ω为车体局部坐标下的线速度和角速度;
跟随机器人数学模型
首先以一个跟随无人车进行分析,设跟随无人车的位姿为(xF,yFF),跟随无人车的实际位姿可由自适应蒙特卡洛定位算法得到,根据期望队形的要求,记虚拟领航者的位姿为(xV,yVV),虚拟领航机器人与实际领航机器人的期望距离为LL-F,期望夹角为
Figure BDA0004020702280000083
根据期望距离和角度可以求出虚拟领航机器人在全局坐标系下的位姿:
Figure BDA0004020702280000084
(3)误差优化函数
我们的目标是使跟随者的位姿收敛于虚拟领航机器人的位姿,所以构建位姿误差函数,如公式(6-3)所示:
Figure BDA0004020702280000085
将全局坐标系下的位姿误差转换到跟随机器人局部坐标系下:
Figure BDA0004020702280000086
接着,将式(6-3)代入式(6-4)可求出跟随机器人局部坐标系下的误差函数:
Figure BDA0004020702280000091
简化求得:
Figure BDA0004020702280000092
将式(6-2)代入式(6-6),并求导:
Figure BDA0004020702280000093
若跟随机器人收敛于虚拟领航者位置,则误差最小,此时跟随机器人通过计算得到的最佳线速度和角速度移动至虚拟领航机器人的位置,从而完成多机器人的编队;
跟随机器人避障
当机器人初始化以“1”字型编队时,领航机器人在自主导航的同时计算虚拟领航机器人位姿,并将虚拟领航机器人的位姿作为跟随机器人的目标点来引导其运动;
当机器初始化以三角形编队时,领航机器人在计算虚拟领航机器人位姿的同时,跟随机器人检测其与前方障碍物的距离d,领航机器人接收距离信息并判断d与给定最小距离阈值dmin的大小。当d<dmin时,执行队形切换,即领航机器人按“1”字型队形重新计算虚拟领航机器人的位姿,从而传给跟随机器人进行队形切换;当跟随机器人驶过障碍物时,则继续保持三角形编队;
其中
Figure BDA0004020702280000094
为激光雷达的水平视角,d为在激光雷达的可视范围内检测到的前方障碍物的距离。当跟随机器人到障碍物的距离小于阈值时,跟随机器人执行队形切换,以“1”字型编队通过障碍物,当最后一个机器人通过障碍物时,恢复队形;
领航机器人通过路径规划算法实现自主导航功能,在初始时刻且周围无障碍物时,机器人保持三角队形行进,当遇到障碍物,如果继续保持三角队形行进,会造成跟随机器人与障碍物发生碰撞,所以跟随机器人通过搭载的激光雷达测量视角范围内相对障碍物的距离,当距离小于阈值时,重新计算虚拟领航机器人的位姿,将跟随机器人的虚拟目标点调整在领航机器人后方0.5m位置和1m位置,从而切换队形为“1”字型来避开障碍物,当最后一个机器人通过障碍物时,恢复队形为三角形;
为了定量分析多无人车编队进行路径规划的性能,通过编队误差来衡量多机器人编队的好坏,编队误差函数定义如式
Figure BDA0004020702280000101
其中(xi,yi)表示机器人实际的位置,
Figure BDA0004020702280000102
表示机器人参考目标点位置,由编队算法给出;
地图融合
各机器人在构建局部地图的过程中,通过机器人与传感器坐标系之间的刚性变换将环境信息以点云的形式保存在局部地图中。在机器人地图融合之前,通过点云特征匹配算法来计算机器人之间的相对变换关系,进行有效匹配的前提是机器人的激光雷达有共视区域,接着通过计算得到的局部地图坐标系之间的变换矩阵将各局部地图中的点云信息转换到参考机器人的全局地图坐标系中,以三个无人车为例,首先开启三个机器人的激光雷达传感器、处理器和机器人底盘,并指定scout1机器人为参考坐标系,并保证各机器人搭载的激光雷达有共视区域。机器人分别在初始时刻采集3s左右的激光雷达数据,用于坐标变换估计;
启动点云匹配算法,首先配对scout1机器人和scout2机器人、scout1机器人和scout3机器人采集的数据包,接着通过提取点云中的特征进行粗配准和精配准,估计scout2和scout3机器人分别相对于scout1机器人的相对变换矩阵。并将计算得到的变换矩阵加载至ROS参数服务器。最后开启各机器人的建图算法,其中scout1机器人的地图坐标系为scout1/map,scout2机器人的地图坐标系为scout2/map,scout3机器人的地图坐标系为scout3/map;
地图话题订阅线程主要负责地图话题的查询筛选,判断条件是话题的格式是否符合scoutX/map,如果符合条件则读取ROS参数服务器的变换矩阵参数和对应的地图话题,用于后续的地图融合;
地图融合线程利用读取到的地图变换矩阵参数融合各机器人局部子地图,最后发布融合后的点云地图;
地图融合线程
首先以scout1机器人为参考建立融合地图的坐标系world,该坐标系与scout1/map坐标系重合。通过上节的坐标变换估计算法得到scout2机器人相对于scout1机器人的地图变换矩阵
Figure BDA0004020702280000111
scout3机器人相对于scout1机器人的地图变换矩阵
Figure BDA0004020702280000112
对于scout2机器人建立的局部地图通过
Figure BDA0004020702280000113
变换到scout1机器人坐标系,scout3机器人建立的局部地图通过
Figure BDA0004020702280000114
变换到scout1机器人坐标系,由于融合地图的坐标系与机器人scout1坐标系重合,所以直接将scout1机器人的地图点和转换后的地图点存储到新定义的点云地图中,最后将融合后的点云地图通过ROS话题“map_merge”发布;
首先启动livox_ros_driver功能包来获取livox雷达点云数据与IMU数据,且雷达数据与IMU数据已经同步,同时通过rostopic list可以查到livox/lidar话题和livox/imu话题。机器人通过搭载的Livox_Avia固态激光雷达及其内置IMU惯性测量单元获取点云数据与姿态角信息。接着机器人建图功能包通过IMU数据的反向传播对激光点云数据进行运动畸变校正,然后通过迭代卡尔曼滤波融合去畸变后的点云数据和IMU数据来进行环境地图的构建,通过增量k-d树数据结构加快点云搜索速度和动态管理地图。最后地图融合算法在初始时刻进行局部地图间坐标系的计算,然后利用变换关系进行地图融合。
以上所述的,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (6)

1.一种基于空地协同的无人车集群控制系统,包括无人机和无人车,其特征在于:
无人机建图规划无人车路径
S1:无人机获取目标区域的点云地图,通过倾斜角度计算模块解算无人机倾斜的角度,通过地图转换模块将点云地图转换为八叉树地图和可用于所述无人车导航使用的栅格地图,从而建立三层次地图;
S2:将栅格地图转换为使用静态层将灰度图中的像素值转换成代价地图中的代价值,得到代价地图后导航栈开始利用代价地图无人车对进行路径规划;
集群无人车运动控制
S3:多无人车运动控制模块通过融合路径规划算法和机器人的编队控制算法,使多机器人编队进行路径规划,在多机器人保持期望固定队形的同时能够搜索出一条无碰撞、最优的行驶路径,最终到达指定目标点;
无人车建图流程
S4:无人车利用激光雷达和IMU获取数据,建立局部地图,弥补无人机中建图的阴影空洞区域;
多无人车地图融合
S5:指定其中一台无人车的map坐标系为参考坐标系,利用相对变换关系将其他无人车的局部地图平移旋转到参考坐标系中,以此建立全局地图;
空地地图融合
S6:将无人车、无人机的地图经过滤波和配准目标分割进行预处理,通过变换位姿解算后进行点云配准。
2.根据权利要求1所述的一种基于空地协同的无人车集群控制系统,其特征在于:所述步骤S1中,点云地图建立的同时进行增量式八叉树地图的建立,八叉树地图直接转换成栅格地图时,使用直通滤波去除高度高于1m的点云数据,从而去除屋顶等干扰部分,然后使用内置的地面滤除算法滤除地面,通过半径滤波去除噪声点,将保存栅格地图用于后续路径规划的验证。
3.根据权利要求1所述的一种基于空地协同的无人车集群控制系统,其特征在于:所述步骤S2中,机器人通过A*全局路径规划算法在先验地图规划出一条全局最优路径,利用动态窗口法进行机器人的局部路径规划,通过评价函数对机器人以采样速度行驶而模拟出的多条轨迹进行评价,从多条模拟轨迹中选出一条最优的轨迹及其对应的速度矢量来驱动机器人运动。
4.根据权利要求3所述的一种基于空地协同的无人车集群控制系统,其特征在于:所述步骤S2中,机器人按照规划的全局路径进行导航,导航过程中的利用局部代价地图实时确定环境中的障碍物位置,机器人利用激光雷达对周围的环境进行观测,检测到周围的障碍物,这些障碍物均被更新到局部代价地图中,越过指定范围后之前代价地图的障碍物被移出观测范围。
5.根据权利要求1所述的一种基于空地协同的无人车集群控制系统,其特征在于:步骤S5、步骤S6中,通过固态激光雷达及其内置IMU惯性测量单元获取点云数据与姿态角信息,通过IMU数据的反向传播对激光点云数据进行运动畸变校正,通过迭代卡尔曼滤波融合去畸变后的点云数据和IMU数据来进行环境地图的构建,通过增量k-d树数据结构加快点云搜索速度和动态管理地图,地图融合算法在初始时刻进行局部地图间坐标系的计算,然后利用变换关系进行地图融合。
6.根据权利要求1所述的一种基于空地协同的无人车集群控制系统,其特征在于:所述步骤S3中,在编队过程中改进领航机器人使其可以进行自主导航,跟随机器人通过“1”字型和三角形的队形切换来实现避障功能。
CN202211689653.6A 2022-12-27 2022-12-27 一种基于空地协同的无人车集群控制系统 Pending CN115993825A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211689653.6A CN115993825A (zh) 2022-12-27 2022-12-27 一种基于空地协同的无人车集群控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211689653.6A CN115993825A (zh) 2022-12-27 2022-12-27 一种基于空地协同的无人车集群控制系统

Publications (1)

Publication Number Publication Date
CN115993825A true CN115993825A (zh) 2023-04-21

Family

ID=85994799

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211689653.6A Pending CN115993825A (zh) 2022-12-27 2022-12-27 一种基于空地协同的无人车集群控制系统

Country Status (1)

Country Link
CN (1) CN115993825A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220043158A1 (en) * 2019-02-20 2022-02-10 Suzhou Venti Technologies Co., Ltd. Lidar-based unmanned vehicle testing method and apparatus
CN116540784A (zh) * 2023-06-28 2023-08-04 西北工业大学 一种基于视觉的无人系统空地协同导航与避障方法
CN116989772A (zh) * 2023-09-26 2023-11-03 北京理工大学 一种空地多模态多智能体协同定位与建图方法
CN117685994A (zh) * 2024-02-04 2024-03-12 北京航空航天大学 一种空地协同的无人车路径规划方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220043158A1 (en) * 2019-02-20 2022-02-10 Suzhou Venti Technologies Co., Ltd. Lidar-based unmanned vehicle testing method and apparatus
CN116540784A (zh) * 2023-06-28 2023-08-04 西北工业大学 一种基于视觉的无人系统空地协同导航与避障方法
CN116540784B (zh) * 2023-06-28 2023-09-19 西北工业大学 一种基于视觉的无人系统空地协同导航与避障方法
CN116989772A (zh) * 2023-09-26 2023-11-03 北京理工大学 一种空地多模态多智能体协同定位与建图方法
CN116989772B (zh) * 2023-09-26 2024-01-02 北京理工大学 一种空地多模态多智能体协同定位与建图方法
CN117685994A (zh) * 2024-02-04 2024-03-12 北京航空航天大学 一种空地协同的无人车路径规划方法

Similar Documents

Publication Publication Date Title
EP3805703B1 (en) Movement track reconstruction method and device, storage medium, and electronic device
CN110262495B (zh) 可实现移动机器人自主导航与精确定位的控制系统及方法
CN115993825A (zh) 一种基于空地协同的无人车集群控制系统
US10990099B2 (en) Motion planning methods and systems for autonomous vehicle
CN109933056B (zh) 一种基于slam的机器人导航方法以及机器人
EP4057227A1 (en) Pose estimation of inertial measurement unit and camera mounted on a moving object
CN106918830A (zh) 一种基于多导航模块的定位方法及移动机器人
EP4141736A1 (en) Lane tracking method and apparatus
CN113819914A (zh) 一种地图构建方法及装置
CN111006667B (zh) 高速场景下的自动驾驶轨迹生成系统
JPWO2014076844A1 (ja) 自律移動システムおよび管制装置
CN112083726A (zh) 一种面向园区自动驾驶的双滤波器融合定位系统
CN111137298B (zh) 一种车辆自动驾驶方法、装置、系统和存储介质
CN115690146A (zh) 一种多目标跟踪方法、装置、计算设备和存储介质
CN111208814B (zh) 用于自动车辆的、利用动态模型的、基于记忆的最优运动规划
CN113819905A (zh) 一种基于多传感器融合的里程计方法及装置
CN113252022A (zh) 一种地图数据处理方法及装置
CN112286049A (zh) 运动轨迹预测方法和装置
JP2022027593A (ja) 可移動機器の測位方法、装置及び可移動機器
CN116069037A (zh) 无人车编队轨迹规划控制方法、装置、设备及存储介质
CN114442630B (zh) 一种基于强化学习和模型预测的智能车规划控制方法
CN111452786A (zh) 一种无人车辆避障方法及系统
CN113252051A (zh) 一种地图构建方法及装置
Parra-Tsunekawa et al. A kalman-filtering-based approach for improving terrain mapping in off-road autonomous vehicles
CN117234203A (zh) 一种多源里程融合slam井下导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination