CN108983781A - 一种无人车目标搜索系统中的环境探测方法 - Google Patents
一种无人车目标搜索系统中的环境探测方法 Download PDFInfo
- Publication number
- CN108983781A CN108983781A CN201810834673.5A CN201810834673A CN108983781A CN 108983781 A CN108983781 A CN 108983781A CN 201810834673 A CN201810834673 A CN 201810834673A CN 108983781 A CN108983781 A CN 108983781A
- Authority
- CN
- China
- Prior art keywords
- map
- grid
- vehicle
- search
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 14
- 239000000284 extract Substances 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 37
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000004888 barrier function Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 15
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 7
- 238000002156 mixing Methods 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Abstract
本发明涉及一种无人车目标搜索系统中的环境探测方法,包括以下步骤:S1、创建无人车全局环境地图和车载相机视场覆盖地图;S2、在当前位置对要搜索的目标进行组合式环境探索,提取边缘区域并进行评估,确定无人车下一步行进的目标点位置;S3、生成无碰撞期望路径,控制无人车到达目标点位置;S4、判断目标点位置是否有要搜索的目标,有,则完成环境探测;无,则返回S1。本发明实现了未知环境下基于边缘区域引导的自主环境探测,实现对未知区域待侦察目标的高效搜索,规划的行进路径更真实的反映车辆行驶特点。
Description
技术领域
本发明涉及无人车技术领域,尤其涉及一种无人车目标搜索系统中的环境探测方法。
背景技术
未知环境下的自主探测技术作为机器人技术的一个重要研究领域,在无先验环境信息的场景中应用广泛。事实上,在很多实际应用场合中,先验环境信息并不具备,因此机器人必须具备在未知工作环境中进行自主环境探测的能力,才能完成导航、目标搜索等其他任务。目前基于边缘区域引导的环境探测策略在全向型小型移动机器人上应用较多,通常环境探测策略和同步定位和地图创建技术共同来完成对未知环境创建环境地图的任务,环境探测策略强调建图的精准性和全面性,但对于无人车辆的目标搜索任务而言,环境探测方法更多应强调对目标的快速搜索。目前,对于应用于目标搜索任务中的无人车的环境探测方法还没有成熟的方案,还有很多关键技术问题有待完善。
发明内容
鉴于上述的分析,本发明旨在提供一种无人车目标搜索系统中的环境探测方法,实现在无人车目标搜索任务中的环境探测。
本发明的目的主要是通过以下技术方案实现的:
一种无人车目标搜索系统中的环境探测方法,包括以下步骤:
S1、创建无人车全局环境地图和车载相机视场覆盖地图;
S2、基于所述全局环境地图和相机视场覆盖地图,在当前位置对要搜索的目标进行组合式环境探索,提取用于分割已探索区域和未探索区域交界的边缘区域;对所述边缘区域进行评估,确定无人车下一步行进的目标点位置;
S3、生成当前位置到行进的目标点位置之间的无碰撞期望路径,控制无人车到达目标点位置;
S4、判断目标点位置是否有要搜索的目标,有,则完成环境探测;无,则返回S1。
进一步地,所述无人车全局环境地图的创建包括:
利用激光雷达感知车身周围环境信息,创建车身周围的局部环境图;
获取车辆实时位置;
根据位置信息,对所述局部环境图进行拼接,获取得到全局环境地图。
进一步地,所述局部环境图和全局环境地图为栅格地图,栅格地图中的栅格有三种状态:可通行状态、障碍物状态和未知状态。
进一步地,所述获取得到全局环境地图包括以下步骤:
1)创建一张全部栅格为未知状态的全局栅格地图,将全局栅格地图的中心设置为车辆起点位置;
2)根据车辆定位系统输出的车辆当前位置信息,找到所述局部环境地图中可通行状态和障碍物状态栅格在全局栅格地图上对应的位置;
3)对全局栅格地图上对应位置的栅格状态进行更新,得到全局环境地图;所述栅格状态的更新采用贝叶斯概率更新。
进一步地,所述车载相机视场覆盖区域地图的创建包括:
创建尺寸和分辨率和全局环境地图一致的栅格地图;所述栅格地图中栅格存在3种状态:未探索状态,已探索状态和障碍物状态;初始状态全部栅格为未探索状态。
得到当前车辆位姿的相机水平视场覆盖区域;
判断所述相机水平视场覆盖区域中栅格的状态,若为未探索状态,且栅格点到相机安装位置之间的连线上无障碍物栅格,则将该栅格状态赋值为已探索状态。
进一步地,所述组合式环境探索方法包括:
1)基于全局环境地图对探测目标进行粗疏搜索,并提取边缘区域栅格点,记录地图的搜索覆盖率;
2)判断是否检测到目标;是,则停止粗疏搜索,进入4);否,则判断地图的搜索覆盖率是否超过阈值;是,则进入步骤3),否,则,返回1);
3)基于视场覆盖地图对探测目标进行精细搜索,提取边缘区域栅格点,直到检测到目标;
4)对提取的边缘区域栅格点进行综合评估,根据综合评估结果,确定车辆下一步的目标栅格;所述综合评估指标包括,目标栅格的信息增益、连接车辆当前位置到目标栅格位置的Reeds-Shepp曲线长度。
进一步地,所述粗疏搜索和精细搜索均采用快速探索随机树算法检测边缘区域栅格。
进一步地,所述综合评估包括:
1)找到有效边缘区域栅格到车辆当前位置的最远Reeds-Shepp曲线长度Dmax和最大的信息增益值Imax;
2)按照公式计算综合评估值,式中,Rall为综合评估值,Wd、Wi分别为距离权重因子、信息增益权重因子;d为当前位置到目标栅格位置的Reeds-Shepp曲线长度;i为边缘区域栅格的信息增益值;
3)按照预先设定的评估阈值区间,选择有效边缘区域栅格作为车辆下一步的目标栅格。
进一步地,所述无碰撞期望路径采用混合A星算法进行规划;包括以下步骤:
1)对无人车航向进行离散化处理,分解为K个方向,最小航向角θmin=2π/K,航向角集合Θ为{θ|θ=kθmin,k∈Z};
2)建立包括左转最大角,直行和右转最大角在内的运动基元库;
3)采用A星搜索法,对运动基元进行迭代扩展,搜索从起点到终点的无碰路径;
4)通过对最后的节点进行回溯,得到从起点到终点的无碰路径。
进一步地,所述A星搜索法过程包括:
1)输入搜索起点和终点的包括航向在内的位姿信息;
2)从搜索起点开始,按照A星搜索方法对子节点进行迭代扩展,计算有效子节点到搜索起点的运动代价值;
3)当判断扩展节点与终点位姿的距离差和航向差小于设定的阈值时;停止搜索过程;
4)通过对节点进行回溯,得到从起点到终点的无碰路径。
本发明有益效果如下:
(1)组合利用相机和激光雷达两种设备,相机主要负责对待搜索目标进行识别,激光雷达负责提供车辆周围实时的环境地图,结合二者信息,实现对未知区域待侦察目标的高效搜索;
(2)通过组合式边缘区域探索策略,对目标进行检测,一方面能够极大缩短搜索时间,另一方面增大了目标被检测到的概率;
(3)考虑无人车非完整性约束特点选取边缘区域评价函数指标,更能真实的反映车辆行驶特点。
(4)使用混合A星算法规划无碰撞期望路径,使规划的路径符合车辆非完整约束,可更好的被车辆跟踪。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例探测方法流程图;
图2为本发明实施例相机水平视场示意图;
图3(a)为本发明实施例全局环境栅格地图;
图3(b)为与图3(a)对应的相机视场覆盖地图;
图4为本发明实施例利用RRT算法检测边缘区域栅格的实际效果图;
图5为本发明实施例探测系统结构示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理。
本发明的一个具体实施例,公开了一种无人车目标搜索系统中的环境探测方法,实现未知环境下基于边缘区域引导的自主环境探测。
如图1所示,包括以下步骤:
步骤S1、创建无人车全局环境地图和车载相机视场覆盖地图;
激光雷达可以实时提供车身周围的环境信息,快速获取环境中障碍物相对于车身的位置信息,可用于快速构建环境地图,但无法实现高效精准的目标检测;
在未知环境下进行目标搜索,由于事先并不知道待侦察区域的全局地图信息,而激光雷达提供的车身环境信息也只是当前车辆位置的单帧子地图信息;因此,利用车辆实时定位信息对获取到的单帧子地图进行地图拼接处理,获取到全局环境地图;
激光雷达获取的全局环境可以作为粗疏搜索层的地图输入源,实现对未知环境的快速探索,粗疏搜索层能够保证激光雷达快速构建环境地图,但无法保证搜索目标能够被检测到。
相机可以获取更加丰富的信息,如色彩、形状等特征信息,可以利用图像识别技术对搜索目标进行快速精准识别,但相机一般不用于构建环境地图;
相机视场覆盖地图考虑了相机的可视范围,相比激光雷达输出的环境地图更能真实反映相机已探索区域和未探索区域的边界信息;因此,将相机视场覆盖地图更适合作为精细搜索层的地图输入源。
将全局环境地图和车载相机视场覆盖地图相结合更有利于无人车对地图中目标的搜索。
全局环境地图的创建具体包括以下子步骤:
1)利用激光雷达感知车身周围环境信息,建立车身周围的局部环境图;
本发明实施例采用单线激光雷达感知车身周围环境信息,局部环境地图的表现形式采用2D占据栅格地图,栅格地图分辨率为0.2m/cell,占据栅格地图中的栅格有三种状态:可通行区域(Free)、障碍物区域(Occupied)和未知区域(Unknown)。
激光雷达返回障碍物相对位置信息位于激光雷达的极坐标系下,需要将极坐标下的相位位置信息转换到栅格地图中的坐标。
单线激光雷达只能提供最近障碍物的信息,可以通过Bresenham算法来计算可通行区域栅格点和未知区域栅格点的集合,具体而言,对于某一角度的一束激光射线而言,该射线上障碍物栅格之前的栅格是可通行区域栅格点,该射线上障碍物栅格之后的栅格是未知区域栅格。
2)获取无人车辆实时位置;
无人车实现定位可以通过多种方式,GPS定位方法存在信号容易被遮挡和更新速度慢的缺点,可以结合惯性导航系统构成组合定位系统,保证GPS信号短暂丢失时无人车还能获取比较可靠的定位信息。如果无人车工作环境比较恶劣,GPS信号无法覆盖,如地下停车场等,可以考虑采用同步定位与地图创建技术,实现无人车在特定区域下的局部定位。
3)根据位置信息,对所述局部环境图进行拼接,获取全局环境地图。
得到实时车身周围的局部栅格地图后,为了能够获取到车辆已探索区域的全局环境信息,需要维护一张已探索区域的全局栅格地图,创建全局栅格地图的过程贯穿了整个环境探测过程。
具体方法包括:
首先,创建一张全部栅格为未知状态(s=-1)的全局栅格地图,栅格地图分辨率为0.2m/cell,将全局栅格地图的中心设置为车辆起点位置;
然后,根据车辆定位系统输出车辆当前的位置信息,找到局部环境栅格地图中有效状态栅格(自由状态或障碍物状态)在全局栅格地图上对应的位置;
最后,更新全局栅格地图的栅格状态。
由于这种创建全局栅格地图的方式十分依赖车辆的定位精度,为了削弱车辆定位噪声对地图拼接的影响,本发明实例利用了贝叶斯概率更新来对全局栅格地图中的栅格状态进行更新。
具体方法为,在占据栅格地图中,对于一个栅格,我们用p(s=1)来表示它是Free状态的概率,用p(s=0)来表示它是Occupied状态的概率,我们引入两个两者的比值作为该栅格的状态:对于获取到激光雷达返回占据情况测量值(z~{0,1})的每个栅格,我们需要更新它的状态。假设测量值到来之前,该栅格的状态为Odd(s),状态更新概率为根据贝叶斯公式,我们有,
带入之后,可以得到
对两边取对数得到:
由上可知,状态更新后的概率只与包含测量值的有关,该值被称为测量模型,测量模型的值是定值,因此经过推导后,栅格的状态更新只需要做简单的加减法。通过利用贝叶斯概率更新后,全局栅格地图中的栅格状态不再只取决于当前局部地图中栅格状态,而是随着同一位置局部地图中的栅格状态更新而跟新,从而能够削弱定位误差而带来的全局栅格地图信息误差。
具体的,创建相机视场覆盖地图需要已知相机数量、安装位置、相机视角、车辆当前位置和环境中的障碍物位置信息。
图2为本发明实例中相机水平视场示意图,本发明实例中无人车辆安装了3个单目相机,分别安装在车的前方、左方和右方。相机型号为GT1290,水平视场角为51度,由于本发明实例中相机能稳定识别目标的最远距离为10米,因此将相机最远可视距离设置为10米;
创建相机视场覆盖区域地图过程如下:
首先,创建一张全部为未探索状态的栅格地图,此栅格地图中栅格存在3种状态:未探索状态,已探索状态和障碍物状态;栅格地图尺寸和分辨率和全局环境栅格地图一致;
然后,得到当前车辆位姿的相机水平视场覆盖区域;
建立初始车辆位姿相机视场模板,当车辆位姿发生改变时,对初始相机视场模板进行平移和旋转可以得到当前车辆位姿的相机水平视场覆盖区域;
最后,对该水平视场覆盖区域中栅格点的状态进行判断,若栅格状态为未探索,且栅格点到相机安装位置之间的连线上无障碍物栅格,则将该栅格状态赋值为已探索。
在创建相机视场覆盖区域地图的每一周期,首先需要将全局环境栅格地图中的障碍物信息加入到相机视场覆盖区域地图中,若上一周期栅格状态为障碍物,此时检测状态不是障碍物时,需要将相机视场覆盖地图中对应栅格的状态由障碍物状态替换为未探索状态。图3(a)显示了全局环境栅格地图,图3(b)显示对应的相机视场覆盖地图。
步骤S2、在当前位置对要搜索的目标进行组合式环境探索,提取边缘区域;并对所述边缘区域进行评估,确定无人车下一步的行进目标点;
本发明实施例采用的环境探测策略属于一种基于边缘区域引导的组合式环境探测策略,包括两层搜索,即在全局环境地图上进行的粗疏搜索和基于视场覆盖地图进行的精细搜索。
具体的,所述组合式环境探索方法包括:
1)基于全局环境地图对探测目标进行粗疏搜索,并提取地图边缘区域栅格点,记录地图的搜索覆盖率;
2)判断是否检测到目标;是,则停止粗疏搜索,进入4);否,则判断地图的搜索覆盖率是否超过阈值;是,则进入步骤3),否,则,返回1);
3)基于视场覆盖地图对探测目标进行精细搜索,提取地图边缘区域栅格点,直到检测到目标;
4)对提取的边缘区域栅格点进行综合评估,根据综合评估结果,确定车辆下一步的目标栅格;所述综合评估指标包括,目标栅格的信息增益、连接车辆当前位置到目标栅格位置的Reeds-Shepp曲线长度。
特殊的,粗疏搜索和精细搜索都采用基于边缘区域引导的环境探测策略;粗疏搜索用作提取边缘区域的地图是全局环境地图,精细搜索用作提取边缘区域的地图为相机视场覆盖地图。
基于边缘区域引导的环境探测策略本质上是为了获取到更多未探索区域的环境信息,边缘区域的定义是分割已探索自由区域和未探索区域的交界区域;
具体的,本发明实施例采用快速探索随机树(RRT)算法检测边缘区域栅格。
快速探索随机树是一种通过随机构建空间填充树来有效搜索非凸、高维空间的机器人路径规划算法,用于搜索从初始位姿到终点位姿的无碰路径,随机树是从搜索空间中随机抽取的样本逐渐构建的,并且本质上倾向于朝向大部分未探测区域生长,基于快速探索随机树算法这种特点,我们对原始快速探索随机树算法进行改进,使之适用于对未知环境中的边缘区域栅格进行检测,改进后的快速探索随机树的边缘检测算法流程相对于标准的快速探索随机树算法具有如下改进:
a.在标准RRT算法中,frontierCheck函数作为顶点连线的碰撞检测;在改进后的边缘检测算法中,通过判断顶点连线上的栅格是否为未探索区域,且没有被障碍物占据的栅格,将该连线添加为边缘;
b.基于快速探索随机树的边缘检测算法可以扩展出局部边缘检测和全局边缘检测两种版本;
版本一、局部边缘检测;当检测到边缘栅格后,清空现有随机树的顶点集合和边集合,并将当前车辆位置加入随机树顶点集合中,这属于局部边缘检测算法,局部边缘检测算法可以快速探测车辆周围的边缘区域栅格;
版本二、全局边缘检测;当检测到边缘栅格后,不清空现有随机树的顶点集合和边集合,在车辆行进中,一直对随机树进行拓展,可以扩展出全局边缘检测算法;全局边缘检测算法可以探测距离车辆较远的边缘,全面地检测边缘区域栅格。
在实际运用中,同时利用基于RRT的局部边缘检测和全局边缘检测,通过设置搜索区域阈值,当搜索区域为超过阈值时,采用局部边缘检测,当超过阈值时,采用全局边缘检测,从而实现快速全面地检测边缘区域栅格。图4为本发明实例利用快速探索随机树(RRT)算法检测边缘区域栅格的实际效果图。
特殊的,还对检测得到的边缘区域栅格进行过滤和聚类处理;
在利用RRT对边缘区域栅格进行检测时,为了实时检测,没有考虑边缘区域栅格对于车辆的可通行性,另外有些边缘区域栅格周围并没有大量未探索区域,不满足最小信息增益条件,因此需要过滤掉这些栅格。
可选的,在考虑栅格对于车辆的可通行性时,采用Opencv中的距离变换方法,该方法用于计算图像中非零像素点到最近的零像素点的最近距离;在将距离变化用于考虑栅格对于车辆的可通行性时,首先需要对视场区域覆盖栅格地图进行二值化处理,对障碍物栅格赋值为0,其他栅格赋值为255,然后对二值化后的栅格图像进行距离变换,距离变化后的图像上的每个栅格存储了到最近障碍物栅格的距离,接下来只需将该距离值与车辆车身外接圆半径作比较,即可以得到该栅格对于车辆的可通行性;
具体的,在考虑边缘区域栅格的信息增益时,假想存在一个半径为5米的圆,圆心为待测边缘区域栅格,通过计算该圆内的未探索栅格的数目,可以评定该边缘区域栅格的信息增益;
具体在本应用实例中,我们对该圆内栅格首先进行二值化操作,将未探索栅格赋值为200,圆内其他栅格赋值为0,再利用Opencv中的countNonZero函数可以快速计算圆内未探索栅格的数目,最后将小于设定信息增益数量的栅格过滤,本发明实例中选取最小信息增益数量为50;
若经过过滤后的边缘区域栅格数目仍然很多,直接将过滤后的边缘区域栅格传输给边缘区域评价模块,会造成计算资源的浪费,因此需要对边缘区域栅格进行聚类处理;
可选的,采用对滤波后边缘区域栅格采用均值漂移聚类方法进行聚类,该聚类方法是一种无参密度估计算法,可以使多个随机中心点向着数据集密度最大的方向移动,最终得到多个最大密度中心;
特殊的,本发明实例实际运用该算法时,只需要将过滤后所有边缘栅格点的2D位置信息输入到开源机器学习框架Scikit-Learn中cluster模块的meanShift函数中,便可以得到均值漂移聚类后的结果。
具体的,对提取的边缘区域栅格点进行综合评估取选取的评价指标包括:目标栅格的信息增益以及连接车辆当前位置到目标栅格位置的Reeds-Shepp曲线长度。信息增益代表了目标栅格区域包含未知栅格的数量,信息增益越大,未知栅格越多。Reeds-Shepp曲线长度代表了车辆从当前位置前往目标栅格的路径距离代价,相比于欧式距离,Reeds-Shepp曲线长度更能真实反映具备非完整性约束车辆的行驶路径距离。
特殊的,有效边缘区域栅格的评估值的计算方法包括:
1)找到有效边缘区域栅格到车辆当前位置的最远Reeds-Shepp曲线长度Dmax和最大的信息增益值Imax;
2)按照公式计算综合评估值,式中,Rall为综合评估值,Wd,Wi,为距离权重因子、信息增益权重因子;d为当前位置到目标栅格位置的Reeds-Shepp曲线长度;i为边缘区域栅格的信息增益值;
3)按照预先设定的评估阈值区间,选择有效边缘区域栅格作为车辆下一步的目标栅格;其中,评估阈值区间为边缘区域栅格的综合评估值最大值到选定值之间的区间,选定值根据需要选定的车辆下一步目标栅格的数量决定,综合评估值越大,该栅格越可能被选为下一时刻车辆应该前往的目标栅格。
具体的,距离权重因子和信息增益的权重因子可设置为1;评估阈值区间为综合评估值前10名;
这样设置是因为一方面不能绝对保证路径规划模块能够规划到综合评估值最高的栅格的无碰路径,另一方面也是为了提供路径规划模块更多的选择自由,当出现某一目标栅格失效时,仍然可以继续选择下一目标栅格进行路径规划。
具体的,在判断是否由粗疏搜索转为精细搜索时,是根据地图的搜索覆盖率是否超过了阈值,其中,搜索覆盖率计算公式如下;
Ratecov=Areacov/Area
其中,Areacov为当前已搜索区域的地图面积,Area为全局地图的面积。
当搜索覆盖率达到设定的阈值后,若目标仍然未被检测到,此时结束粗疏搜索层的环境探测过程,开启精细搜索层的环境探测过程;
其中,阈值根据具体的搜索任务和目标进行调整,实现既能准确的实现目标的搜索,同时又能减少搜索时间的目的。
步骤S3、生成当前位置到行进目标点位置的无碰撞期望路径,控制无人车到达目标点位置;
依赖未知环境边缘探索决策模块,我们得到了下一时刻车辆需要前往的目标位置。此时,需要路径规划模块规划出从当前车辆位置到目标位置的符合车辆非完整性约束的无碰路径。本发明实例中路径规划模块采用混合A星路径规划算法,该算法属于一种基于图搜索的路径规划算法,该算法通过生成考虑车辆运动约束的运动基元对空间进行采样,因此混合A星的状态转移过程发生在连续空间,而不是离散空间,这样得到的路径可以被车辆跟踪控制。该算法主要包括以下几个步骤:
1)对无人车航向进行离散化处理;
探索车辆为阿克曼转向车辆,具有非完整性约束,在给定状态下,受到最小转弯半径的限制。因此,对于具备非完整约束的车辆而言,必须将航向约束加入到状态空间中,构成三维状态空间ζ=(x,y,θ)为了能够将三维空间的路径规划问题简化为图搜索问题,需要对状态空间进行离散化处理,将航向空间分解为K个方向,最小航向角θ_min=2π/K,航向角集合Θ为Z为整数集。
2)建立运动基元库;
考虑到车辆的非完整性约束,混合A星算法采取符合车辆运动学约束的车辆运动基元对空间进行采样;
根据车辆的单轨模型,L为车辆轴距,当车辆转弯半径为R时,可以根据下式很容易的算出前轮偏角δ。
为了简化搜索过程,本发明实例只考虑三种运动基元形式:左转最大角,直行和右转最大角。运动基元的生成过程可看作输入不同的转角控制输入,持续控制输入一定时间后得到的圆弧曲线,该圆弧曲线半径不小于最小转弯半径,因此该路径可以被车辆跟踪执行。运动基元生成过程中的状态转移过程可由公式得到,式中,L为轴距,α为转向角,β为航向角变化量,θ为当前航向角,d圆弧曲线长度,(X,Y,θ)为当前节点状态,(X′,Y′,θ′)为扩展节点状态。
3)采用A星搜索法,对运动基元进行迭代扩展,搜索从起点到终点的无碰路径;
A星搜索作为一种启发式搜索算法,每个搜索状态包括两部分代价:搜索起始点到当前点的代价gcost和当前点到目标点的估计代价hcost,估计代价需要小于真实代价,本发明实例中选择欧式距离作为估计代价。
具体搜索过程包括:
1)输入搜索起点和终点位姿(包括航向);
2)从搜索起点开始,按照A星搜索法对子节点进行迭代扩展,计算有效子节点到搜索起点的运动代价值;
从搜索起点开始,根据当前的航向,可以扩展出不同转向角下的子节点,忽略与障碍物发生碰撞的子节点,并对有效子节点赋予到搜索起始节点的运动代价,该部分运动代价可以由父节点到搜索起始节点的代价加上父节点到子节点之间的运动代价计算得到;
特殊的,运动代价与车辆的转向角相关,转向角越大,运动代价相应越大,这是为了保证在节点扩展过程优先选择转角小的运动基元,这样运动基元构成的路径会方便车辆跟踪;
另外,如果设置倒车的运动基元,也需要对倒车的运动基元设置较大的运动代价,这也是从车辆跟踪路径的容易程度的角度考虑。
3)判断扩展节点与终点位姿的距离差和航向差小于某一阈值;即认为搜索到从起点到终点的无碰可行路径,则停止A星搜索过程;
4)通过对节点进行回溯,得到从起点到终点的无碰路径。
通过对最后的节点进行回溯,便可以得到从起点到终点的无碰路径,由于该路径是有运动基元组合而成,因此该路径符合车辆非完整约束,可以被车辆跟踪。
通过对车辆的转向和速度进行控制,使无人车辆能够按照无碰撞期望路径到达目标点位置。
S4、判断目标点位置是否有要搜索的目标,有,则完成环境探测;无,则返回S1。
一种无人车目标搜索环境探测系统,包括上层任务调度模块,地图创建与定位模块,目标识别模块,边缘探索决策模块,路径规划模块,路径跟踪控制模块,各模块组织关系框图如图5所示;
上层任务调度模块主要负责读取侦查区域范围、待识别目标样本,目标数量等信息,同时负责启动和退出边缘探索决策模块。
地图创建与定位模块主要负责建立全局环境栅格地图和相机视场覆盖地图,同时提供精确的定位信息。
目标识别模块主要负责对待识别目标进行实时检测,当检测到所有的目标物体后,告知上层任务调度模块,退出边缘探索决策模块。
边缘探索决策模块主要负责从相机视场覆盖地图中提取边缘区域栅格,并对边缘区域栅格评估,最后发送目标栅格位姿信息给路径规划模块。
路径规划模块主要负责规划从车辆当前位置到目标位置的可行无碰路径。
路径跟踪控制模块主要负责控制车辆转向和速度,保证车辆能够跟踪路径规划模块输出的期望路径。
综上所述,本实施例公开的无人车目标搜索系统中的环境探测方法,组合利用相机和激光雷达两种设备,相机主要负责对待搜索目标进行识别,激光雷达负责提供车辆周围实时的环境地图,结合二者信息,实现对未知区域待侦察目标的高效搜索;通过组合式边缘区域探索策略,对目标进行检测,一方面能够极大缩短搜索时间,另一方面增大了目标被检测到的概率;考虑无人车非完整性约束特点选取边缘区域评价函数指标,更能真实的反映车辆行驶特点。使用混合A星算法规划无碰撞期望路径,使规划的路径符合车辆非完整约束,可更好的被车辆跟踪。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种无人车目标搜索系统中的环境探测方法,其特征在于,包括以下步骤:
S1、创建无人车全局环境地图和车载相机视场覆盖地图;
S2、基于所述全局环境地图和相机视场覆盖地图,在当前位置对要搜索的目标进行组合式环境探索,提取用于分割已探索区域和未探索区域交界的边缘区域;对所述边缘区域进行评估,确定无人车下一步行进的目标点位置;
S3、生成当前位置到行进的目标点位置之间的无碰撞期望路径,控制无人车到达目标点位置;
S4、判断目标点位置是否有要搜索的目标,有,则完成环境探测;无,则返回S1。
2.根据权利要求1所述的环境探测方法,其特征在于,所述无人车全局环境地图的创建包括:
利用激光雷达感知车身周围环境信息,创建车身周围的局部环境图;
获取车辆实时位置;
根据位置信息,对所述局部环境图进行拼接,获取得到全局环境地图。
3.根据权利要求2所述的环境探测方法,其特征在于,所述局部环境图和全局环境地图为栅格地图,栅格地图中的栅格有三种状态:可通行状态、障碍物状态和未知状态。
4.根据权利要求3所述的环境探测方法,其特征在于,所述获取全局环境地图包括以下步骤:
1)创建一张全部栅格为未知状态的全局栅格地图,将全局栅格地图的中心设置为车辆起点位置;
2)根据车辆定位系统输出的车辆当前位置信息,找到所述局部环境地图中可通行状态和障碍物状态栅格在全局栅格地图上对应的位置;
3)对全局栅格地图上对应位置的栅格状态进行更新,得到全局环境地图;所述栅格状态的更新采用贝叶斯概率更新。
5.根据权利要求1所述的环境探测方法,其特征在于,所述车载相机视场覆盖区域地图的创建包括:
创建尺寸和分辨率和全局环境地图一致的栅格地图;所述栅格地图中栅格存在3种状态:未探索状态,已探索状态和障碍物状态;初始状态全部栅格为未探索状态。
得到当前车辆位姿的相机水平视场覆盖区域;
判断所述相机水平视场覆盖区域中栅格的状态,若为未探索状态,且栅格点到相机安装位置之间的连线上无障碍物栅格,则将该栅格状态赋值为已探索状态。
6.根据权利要求1所述的环境探测方法,其特征在于,所述组合式环境探索方法包括:
1)基于全局环境地图对探测目标进行粗疏搜索,并提取边缘区域栅格点,记录地图的搜索覆盖率;
2)判断是否检测到目标;是,则停止粗疏搜索,进入4);否,则判断地图的搜索覆盖率是否超过阈值;是,则进入步骤3),否,则,返回1);
3)基于视场覆盖地图对探测目标进行精细搜索,提取边缘区域栅格点,直到检测到目标;
4)对提取的边缘区域栅格点进行综合评估,根据综合评估结果,确定车辆下一步的目标栅格;所述综合评估指标包括,目标栅格的信息增益、连接车辆当前位置到目标栅格位置的Reeds-Shepp曲线长度。
7.根据权利要求6所述的环境探测方法,其特征在于,所述粗疏搜索和精细搜索均采用快速探索随机树算法检测边缘区域栅格。
8.根据权利要求1所述的环境探测方法,其特征在于,所述综合评估包括:
1)找到有效边缘区域栅格到车辆当前位置的最远Reeds-Shepp曲线长度Dmax和最大的信息增益值Imax;
2)按照公式计算综合评估值,式中,Rall为综合评估值,Wd、Wi分别为距离权重因子、信息增益权重因子;d为当前位置到目标栅格位置的Reeds-Shepp曲线长度;i为边缘区域栅格的信息增益值;
3)按照预先设定的评估阈值区间,选择有效边缘区域栅格作为车辆下一步的目标栅格。
9.根据权利要求1所述的环境探测方法,其特征在于,所述无碰撞期望路径采用混合A星算法进行规划;包括以下步骤:
1)对无人车航向进行离散化处理,分解为K个方向,最小航向角θmin=2π/K,航向角集合Θ为{θ|θ=kθmin,k∈Z};
2)建立包括左转最大角,直行和右转最大角在内的运动基元库;
3)采用A星搜索法,对运动基元进行迭代扩展,搜索从起点到终点的无碰路径;
4)通过对最后的节点进行回溯,得到从起点到终点的无碰路径。
10.根据权利要求9所述的环境探测方法,其特征在于,所述A星搜索法过程包括:
1)输入搜索起点和终点的包括航向在内的位姿信息;
2)从搜索起点开始,按照A星搜索方法对子节点进行迭代扩展,计算有效子节点到搜索起点的运动代价值;
3)当判断扩展节点与终点位姿的距离差和航向差小于设定的阈值时;停止搜索过程;
4)通过对节点进行回溯,得到从起点到终点的无碰路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810834673.5A CN108983781B (zh) | 2018-07-25 | 2018-07-25 | 一种无人车目标搜索系统中的环境探测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810834673.5A CN108983781B (zh) | 2018-07-25 | 2018-07-25 | 一种无人车目标搜索系统中的环境探测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108983781A true CN108983781A (zh) | 2018-12-11 |
CN108983781B CN108983781B (zh) | 2020-07-07 |
Family
ID=64551460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810834673.5A Active CN108983781B (zh) | 2018-07-25 | 2018-07-25 | 一种无人车目标搜索系统中的环境探测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108983781B (zh) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109631919A (zh) * | 2018-12-28 | 2019-04-16 | 芜湖哈特机器人产业技术研究院有限公司 | 一种融合反光板和占据栅格的混合导航地图构建方法 |
CN109737981A (zh) * | 2019-01-11 | 2019-05-10 | 西安电子科技大学 | 基于多传感器的无人车目标搜索装置及方法 |
CN109798899A (zh) * | 2019-01-30 | 2019-05-24 | 广东工业大学 | 一种面向海底未知地形搜索的树扩散启发式路径规划方法 |
CN110069066A (zh) * | 2019-05-06 | 2019-07-30 | 江苏盛海智能科技有限公司 | 一种无人车寻迹的方法及终端 |
CN110262518A (zh) * | 2019-07-22 | 2019-09-20 | 上海交通大学 | 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质 |
CN110335282A (zh) * | 2018-12-25 | 2019-10-15 | 广州启明星机器人有限公司 | 一种基于栅格的轮廓线段特征提取算法 |
CN110398964A (zh) * | 2019-07-16 | 2019-11-01 | 浙江大学 | 一种低能量损耗机器人全覆盖路径规划方法及系统 |
CN110465089A (zh) * | 2019-07-29 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 基于图像识别的地图探索方法、装置、介质及电子设备 |
CN111060942A (zh) * | 2019-12-18 | 2020-04-24 | 哈尔滨工程大学 | 一种附加航向约束的ppp/ahrs松组合定位方法 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111397624A (zh) * | 2020-03-27 | 2020-07-10 | 湖南大学 | 一种基于JPS和Hybrid A*的全局路径规划方法 |
CN111591288A (zh) * | 2020-03-31 | 2020-08-28 | 北京智行者科技有限公司 | 基于距离变换图的碰撞检测方法及装置 |
CN111598916A (zh) * | 2020-05-19 | 2020-08-28 | 金华航大北斗应用技术有限公司 | 一种基于rgb-d信息的室内占据栅格地图的制备方法 |
CN111638526A (zh) * | 2020-05-20 | 2020-09-08 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN111650928A (zh) * | 2019-02-18 | 2020-09-11 | 北京奇虎科技有限公司 | 一种扫地机器人自主探索的方法及装置 |
CN111753694A (zh) * | 2020-06-16 | 2020-10-09 | 西安电子科技大学 | 无人车目标搜索系统及方法 |
CN111874007A (zh) * | 2020-08-06 | 2020-11-03 | 中国科学院自动化研究所 | 基于知识与数据驱动的无人车分层决策方法、系统、装置 |
CN111897365A (zh) * | 2020-08-27 | 2020-11-06 | 中国人民解放军国防科技大学 | 一种等高线引导线的自主车三维路径规划方法 |
CN112034833A (zh) * | 2019-05-15 | 2020-12-04 | 百度(美国)有限责任公司 | 规划用于自动驾驶车辆的开放空间轨迹的在线代理 |
CN112327862A (zh) * | 2020-11-16 | 2021-02-05 | 北京理工大学 | 一种不确定环境下多机器人协同搜索的路径规划方法 |
CN112437111A (zh) * | 2020-10-13 | 2021-03-02 | 上海京知信息科技有限公司 | 一种基于上下文感知的车路协同系统 |
CN112487016A (zh) * | 2020-11-30 | 2021-03-12 | 上海汽车集团股份有限公司 | 一种无人驾驶车辆局部路径规划方法及装置 |
CN112506178A (zh) * | 2020-08-25 | 2021-03-16 | 深圳市银星智能科技股份有限公司 | 一种机器人控制方法、装置、终端和介质 |
CN112631296A (zh) * | 2020-12-18 | 2021-04-09 | 杭州未名信科科技有限公司 | 基于深度强化学习的机器人导航方法及系统、设备、介质 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
CN113050632A (zh) * | 2021-03-11 | 2021-06-29 | 珠海市一微半导体有限公司 | 用于机器人探索未知区域的地图探索方法、芯片及机器人 |
CN113160191A (zh) * | 2021-04-28 | 2021-07-23 | 江苏方天电力技术有限公司 | 一种基于激光雷达的环境构图完整性判别方法和装置 |
CN113253730A (zh) * | 2021-05-20 | 2021-08-13 | 南京理工大学 | 突发事件下机器人地图构建与在线规划方法 |
CN113286985A (zh) * | 2020-09-17 | 2021-08-20 | 华为技术有限公司 | 一种路径规划方法和路径规划装置 |
CN113448340A (zh) * | 2020-03-27 | 2021-09-28 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN113467456A (zh) * | 2021-07-07 | 2021-10-01 | 中国科学院合肥物质科学研究院 | 一种未知环境下用于特定目标搜索的路径规划方法 |
CN113467455A (zh) * | 2021-07-06 | 2021-10-01 | 河北工业大学 | 多工况未知复杂环境下智能小车路径规划方法及设备 |
CN113485366A (zh) * | 2021-08-05 | 2021-10-08 | 泰瑞数创科技(北京)有限公司 | 用于机器人的导航路径生成方法及装置 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113741454A (zh) * | 2021-08-31 | 2021-12-03 | 浙江大学 | 一种基于搜索的多智能体路径规划方法及系统 |
CN113805590A (zh) * | 2021-09-23 | 2021-12-17 | 云南民族大学 | 一种基于边界驱动的室内机器人自主探索方法及系统 |
CN114186859A (zh) * | 2021-12-13 | 2022-03-15 | 哈尔滨工业大学 | 复杂未知环境多机协同多目标任务分配方法 |
CN114296475A (zh) * | 2021-12-06 | 2022-04-08 | 中国兵器科学研究院 | 一种未知空间探索系统、方法、装置、设备及介质 |
CN114442625A (zh) * | 2022-01-24 | 2022-05-06 | 中国地质大学(武汉) | 基于多策略联合控制智能体的环境地图构建方法及装置 |
CN114460968A (zh) * | 2022-02-14 | 2022-05-10 | 江西理工大学 | 一种无人机路径的搜索方法、装置、电子设备及存储介质 |
CN116501048A (zh) * | 2023-04-26 | 2023-07-28 | 无锡卡尔曼导航技术有限公司南京技术中心 | 一种自移动设备探地路径规划方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202896485U (zh) * | 2012-09-22 | 2013-04-24 | 仲玥 | 汽车行驶环境探测装置 |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105222770A (zh) * | 2015-08-31 | 2016-01-06 | 中国烟草总公司广东省公司 | 一种基于边界的烟田无人机自主导航算法 |
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
WO2018090661A1 (en) * | 2016-11-18 | 2018-05-24 | Huawei Technologies Co., Ltd. | Path planning for autonomous vehicle using bidirectional search |
CN108073176A (zh) * | 2018-02-10 | 2018-05-25 | 西安交通大学 | 一种改进型D*Lite车辆动态路径规划方法 |
-
2018
- 2018-07-25 CN CN201810834673.5A patent/CN108983781B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202896485U (zh) * | 2012-09-22 | 2013-04-24 | 仲玥 | 汽车行驶环境探测装置 |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105222770A (zh) * | 2015-08-31 | 2016-01-06 | 中国烟草总公司广东省公司 | 一种基于边界的烟田无人机自主导航算法 |
WO2018090661A1 (en) * | 2016-11-18 | 2018-05-24 | Huawei Technologies Co., Ltd. | Path planning for autonomous vehicle using bidirectional search |
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
CN108073176A (zh) * | 2018-02-10 | 2018-05-25 | 西安交通大学 | 一种改进型D*Lite车辆动态路径规划方法 |
Non-Patent Citations (2)
Title |
---|
SAID, Z等: "Path simulation using Reeds-Shepp method for a car-like vehicle", 《IEEE INTERNATIONAL COLLOQUIUM ON SIGNAL PROCESSING AND ITS APPLICATIONS》 * |
王立等: "基于模糊评价的未知环境地图构建探测规划", 《浙江大学学报(工学版)》 * |
Cited By (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110335282A (zh) * | 2018-12-25 | 2019-10-15 | 广州启明星机器人有限公司 | 一种基于栅格的轮廓线段特征提取算法 |
CN110335282B (zh) * | 2018-12-25 | 2023-04-18 | 广州启明星机器人有限公司 | 一种基于栅格的轮廓线段特征提取方法 |
CN109631919B (zh) * | 2018-12-28 | 2022-09-30 | 芜湖哈特机器人产业技术研究院有限公司 | 一种融合反光板和占据栅格的混合导航地图构建方法 |
CN109631919A (zh) * | 2018-12-28 | 2019-04-16 | 芜湖哈特机器人产业技术研究院有限公司 | 一种融合反光板和占据栅格的混合导航地图构建方法 |
CN109737981A (zh) * | 2019-01-11 | 2019-05-10 | 西安电子科技大学 | 基于多传感器的无人车目标搜索装置及方法 |
CN109737981B (zh) * | 2019-01-11 | 2022-12-02 | 西安电子科技大学 | 基于多传感器的无人车目标搜索装置及方法 |
CN109798899A (zh) * | 2019-01-30 | 2019-05-24 | 广东工业大学 | 一种面向海底未知地形搜索的树扩散启发式路径规划方法 |
CN111650928A (zh) * | 2019-02-18 | 2020-09-11 | 北京奇虎科技有限公司 | 一种扫地机器人自主探索的方法及装置 |
CN111650928B (zh) * | 2019-02-18 | 2024-03-05 | 北京奇虎科技有限公司 | 一种扫地机器人自主探索的方法及装置 |
CN110069066A (zh) * | 2019-05-06 | 2019-07-30 | 江苏盛海智能科技有限公司 | 一种无人车寻迹的方法及终端 |
CN110069066B (zh) * | 2019-05-06 | 2021-11-05 | 江苏盛海智能科技有限公司 | 一种无人车寻迹的方法及终端 |
CN112034833A (zh) * | 2019-05-15 | 2020-12-04 | 百度(美国)有限责任公司 | 规划用于自动驾驶车辆的开放空间轨迹的在线代理 |
CN110398964B (zh) * | 2019-07-16 | 2022-02-01 | 浙江大学 | 一种低能量损耗机器人全覆盖路径规划方法及系统 |
CN110398964A (zh) * | 2019-07-16 | 2019-11-01 | 浙江大学 | 一种低能量损耗机器人全覆盖路径规划方法及系统 |
CN110262518A (zh) * | 2019-07-22 | 2019-09-20 | 上海交通大学 | 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质 |
CN110465089A (zh) * | 2019-07-29 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 基于图像识别的地图探索方法、装置、介质及电子设备 |
CN110465089B (zh) * | 2019-07-29 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 基于图像识别的地图探索方法、装置、介质及电子设备 |
CN111060942B (zh) * | 2019-12-18 | 2022-11-18 | 哈尔滨工程大学 | 一种附加航向约束的ppp/ahrs松组合定位方法 |
CN111060942A (zh) * | 2019-12-18 | 2020-04-24 | 哈尔滨工程大学 | 一种附加航向约束的ppp/ahrs松组合定位方法 |
CN111174765B (zh) * | 2020-02-24 | 2021-08-13 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN113448340A (zh) * | 2020-03-27 | 2021-09-28 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN113448340B (zh) * | 2020-03-27 | 2022-12-16 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN111397624A (zh) * | 2020-03-27 | 2020-07-10 | 湖南大学 | 一种基于JPS和Hybrid A*的全局路径规划方法 |
CN111591288B (zh) * | 2020-03-31 | 2021-09-10 | 北京智行者科技有限公司 | 基于距离变换图的碰撞检测方法及装置 |
CN111591288A (zh) * | 2020-03-31 | 2020-08-28 | 北京智行者科技有限公司 | 基于距离变换图的碰撞检测方法及装置 |
CN111598916A (zh) * | 2020-05-19 | 2020-08-28 | 金华航大北斗应用技术有限公司 | 一种基于rgb-d信息的室内占据栅格地图的制备方法 |
CN111638526B (zh) * | 2020-05-20 | 2022-08-26 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN111638526A (zh) * | 2020-05-20 | 2020-09-08 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN111753694A (zh) * | 2020-06-16 | 2020-10-09 | 西安电子科技大学 | 无人车目标搜索系统及方法 |
CN111753694B (zh) * | 2020-06-16 | 2024-02-09 | 西安电子科技大学 | 无人车目标搜索系统及方法 |
CN111874007A (zh) * | 2020-08-06 | 2020-11-03 | 中国科学院自动化研究所 | 基于知识与数据驱动的无人车分层决策方法、系统、装置 |
CN111874007B (zh) * | 2020-08-06 | 2021-03-16 | 中国科学院自动化研究所 | 基于知识与数据驱动的无人车分层决策方法、系统、装置 |
CN112506178B (zh) * | 2020-08-25 | 2023-02-28 | 深圳银星智能集团股份有限公司 | 一种机器人控制方法、装置、终端和介质 |
CN112506178A (zh) * | 2020-08-25 | 2021-03-16 | 深圳市银星智能科技股份有限公司 | 一种机器人控制方法、装置、终端和介质 |
CN111897365A (zh) * | 2020-08-27 | 2020-11-06 | 中国人民解放军国防科技大学 | 一种等高线引导线的自主车三维路径规划方法 |
CN113286985A (zh) * | 2020-09-17 | 2021-08-20 | 华为技术有限公司 | 一种路径规划方法和路径规划装置 |
CN112437111A (zh) * | 2020-10-13 | 2021-03-02 | 上海京知信息科技有限公司 | 一种基于上下文感知的车路协同系统 |
CN112327862A (zh) * | 2020-11-16 | 2021-02-05 | 北京理工大学 | 一种不确定环境下多机器人协同搜索的路径规划方法 |
CN112487016B (zh) * | 2020-11-30 | 2023-10-03 | 上海汽车集团股份有限公司 | 一种无人驾驶车辆局部路径规划方法及装置 |
CN112487016A (zh) * | 2020-11-30 | 2021-03-12 | 上海汽车集团股份有限公司 | 一种无人驾驶车辆局部路径规划方法及装置 |
CN112631296A (zh) * | 2020-12-18 | 2021-04-09 | 杭州未名信科科技有限公司 | 基于深度强化学习的机器人导航方法及系统、设备、介质 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
CN113050632B (zh) * | 2021-03-11 | 2022-06-14 | 珠海一微半导体股份有限公司 | 用于机器人探索未知区域的地图探索方法、芯片及机器人 |
CN113050632A (zh) * | 2021-03-11 | 2021-06-29 | 珠海市一微半导体有限公司 | 用于机器人探索未知区域的地图探索方法、芯片及机器人 |
CN113160191A (zh) * | 2021-04-28 | 2021-07-23 | 江苏方天电力技术有限公司 | 一种基于激光雷达的环境构图完整性判别方法和装置 |
CN113160191B (zh) * | 2021-04-28 | 2022-07-08 | 江苏方天电力技术有限公司 | 一种基于激光雷达的环境构图完整性判别方法和装置 |
CN113253730B (zh) * | 2021-05-20 | 2022-08-09 | 南京理工大学 | 突发事件下机器人地图构建与在线规划方法 |
CN113253730A (zh) * | 2021-05-20 | 2021-08-13 | 南京理工大学 | 突发事件下机器人地图构建与在线规划方法 |
CN113467455A (zh) * | 2021-07-06 | 2021-10-01 | 河北工业大学 | 多工况未知复杂环境下智能小车路径规划方法及设备 |
CN113467456A (zh) * | 2021-07-07 | 2021-10-01 | 中国科学院合肥物质科学研究院 | 一种未知环境下用于特定目标搜索的路径规划方法 |
CN113467456B (zh) * | 2021-07-07 | 2023-10-27 | 中国科学院合肥物质科学研究院 | 一种未知环境下用于特定目标搜索的路径规划方法 |
CN113485366B (zh) * | 2021-08-05 | 2022-03-04 | 泰瑞数创科技(北京)有限公司 | 用于机器人的导航路径生成方法及装置 |
CN113485366A (zh) * | 2021-08-05 | 2021-10-08 | 泰瑞数创科技(北京)有限公司 | 用于机器人的导航路径生成方法及装置 |
CN113703443B (zh) * | 2021-08-12 | 2023-10-13 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113741454A (zh) * | 2021-08-31 | 2021-12-03 | 浙江大学 | 一种基于搜索的多智能体路径规划方法及系统 |
CN113805590A (zh) * | 2021-09-23 | 2021-12-17 | 云南民族大学 | 一种基于边界驱动的室内机器人自主探索方法及系统 |
CN114296475A (zh) * | 2021-12-06 | 2022-04-08 | 中国兵器科学研究院 | 一种未知空间探索系统、方法、装置、设备及介质 |
CN114186859A (zh) * | 2021-12-13 | 2022-03-15 | 哈尔滨工业大学 | 复杂未知环境多机协同多目标任务分配方法 |
CN114186859B (zh) * | 2021-12-13 | 2022-05-31 | 哈尔滨工业大学 | 复杂未知环境多机协同多目标任务分配方法 |
CN114442625B (zh) * | 2022-01-24 | 2023-06-06 | 中国地质大学(武汉) | 基于多策略联合控制智能体的环境地图构建方法及装置 |
CN114442625A (zh) * | 2022-01-24 | 2022-05-06 | 中国地质大学(武汉) | 基于多策略联合控制智能体的环境地图构建方法及装置 |
CN114460968A (zh) * | 2022-02-14 | 2022-05-10 | 江西理工大学 | 一种无人机路径的搜索方法、装置、电子设备及存储介质 |
CN116501048A (zh) * | 2023-04-26 | 2023-07-28 | 无锡卡尔曼导航技术有限公司南京技术中心 | 一种自移动设备探地路径规划方法 |
CN116501048B (zh) * | 2023-04-26 | 2023-09-12 | 无锡卡尔曼导航技术有限公司南京技术中心 | 一种自移动设备探地路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108983781B (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108983781A (zh) | 一种无人车目标搜索系统中的环境探测方法 | |
US10696300B2 (en) | Vehicle tracking | |
US20190147320A1 (en) | "Matching Adversarial Networks" | |
CN104536445B (zh) | 移动导航方法和系统 | |
Schwesinger et al. | Automated valet parking and charging for e-mobility | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN108387241A (zh) | 更新自动驾驶车辆的定位地图的方法和系统 | |
CN110388931A (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
US20190094858A1 (en) | Parking Location Prediction | |
CN104714555B (zh) | 一种基于边缘的三维自主探索方法 | |
Li et al. | Collaborative mapping and autonomous parking for multi-story parking garage | |
Sales et al. | Adaptive finite state machine based visual autonomous navigation system | |
CN108139225A (zh) | 确定机动车的布局信息 | |
CN109086277A (zh) | 一种重叠区构建地图方法、系统、移动终端及存储介质 | |
CN107036594A (zh) | 智能电站巡检智能体的定位与多粒度环境感知技术 | |
CN102087530A (zh) | 基于手绘地图和路径的移动机器人视觉导航方法 | |
Han et al. | Precise localization and mapping in indoor parking structures via parameterized SLAM | |
US20220137636A1 (en) | Systems and Methods for Simultaneous Localization and Mapping Using Asynchronous Multi-View Cameras | |
JPWO2014076844A1 (ja) | 自律移動システムおよび管制装置 | |
EP3799618B1 (en) | Method of navigating a vehicle and system thereof | |
EP3645971B1 (en) | Map feature identification using motion data and surfel data | |
JP2020119523A (ja) | 疑似3dバウンディングボックスを検出する方法及びこれを利用した装置 | |
Hähnel | Mapping with mobile robots. | |
Li et al. | Hybrid filtering framework based robust localization for industrial vehicles | |
Niijima et al. | Real-time autonomous navigation of an electric wheelchair in large-scale urban area with 3D map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |