CN109947103B - 无人驾驶控制方法、装置、系统和承载设备 - Google Patents

无人驾驶控制方法、装置、系统和承载设备 Download PDF

Info

Publication number
CN109947103B
CN109947103B CN201910202845.1A CN201910202845A CN109947103B CN 109947103 B CN109947103 B CN 109947103B CN 201910202845 A CN201910202845 A CN 201910202845A CN 109947103 B CN109947103 B CN 109947103B
Authority
CN
China
Prior art keywords
driving
sensor data
driving object
pose
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910202845.1A
Other languages
English (en)
Other versions
CN109947103A (zh
Inventor
刘明
刘天瑜
廖青海
刘洋
云鹏
王鲁佳
汪哲
朱亦隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yiqing Innovation Technology Co ltd
Original Assignee
Shenzhen Yiqing Innovation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yiqing Innovation Technology Co ltd filed Critical Shenzhen Yiqing Innovation Technology Co ltd
Priority to CN201910202845.1A priority Critical patent/CN109947103B/zh
Publication of CN109947103A publication Critical patent/CN109947103A/zh
Application granted granted Critical
Publication of CN109947103B publication Critical patent/CN109947103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及一种无人驾驶控制方法、装置、系统和承载设备。该方法包括:获取第一传感器数据,根据第一传感器数据生成驾驶对象所需驾驶区域的全局地图;获取第二传感器数据,根据第二传感器数据和全局地图,确定驾驶对象的当前位姿;获取第三传感器数据,根据第三传感器数据、全局地图、当前位姿及目标地点,确定驾驶对象下一时刻所需的行驶速度。因该方法可以实时获取驾驶对象当前位置的第二传感器数据及第三传感器数据,因此可以实时确定驾驶对象的当前位姿,并且根据第三传感器数据对应的环境数据,可以精准的确定驾驶对象下一时刻所需的行驶速度,从而该方法可以实现低速结构化场景下无人驾驶过程中实时精准的定位与导航。

Description

无人驾驶控制方法、装置、系统和承载设备
技术领域
本申请涉及无人驾驶技术领域,特别是涉及一种无人驾驶控制方法、装置、系统和承载设备。
背景技术
随着计算机技术的不断发展及汽车的普及,无人驾驶技术应运而生,通过使用无人驾驶技术可以大幅度降低相关工作的人工成本,同时提高工作效率。因此,无人驾驶技术的应用范围也越来越广泛,从而可以将驾驶员从繁重的驾驶操作中解放出来。
对于无人驾驶技术,建图、定位和导航是该技术中最重要的问题,传统技术中,通常使用全球定位导航系统或惯性导航系统来控制汽车的自主行驶。但是全球定位导航系统产生的定位误差较大,惯性导航系统在长时间运行情况下也会产生累计误差。
因此,在低速结构化场景下,如抑尘车、物流车、压线车、城市道路巡逻车等具有重复性工作的领域,传统技术无法满足无人驾驶实时精准的定位和导航需求。
发明内容
基于此,有必要针对传统技术无法满足低速结构化场景下无人驾驶实时精准的定位和导航需求的问题,提供一种无人驾驶控制方法、装置、系统和承载设备。
第一方面,本申请实施例提供一种无人驾驶控制方法,包括:
获取第一传感器数据,根据所述第一传感器数据生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图;
获取第二传感器数据,根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向;
获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向。
上述无人驾驶控制方法,首先根据获取的第一传感器数据生成驾驶对象所需驾驶区域的全局地图,然后根据获取的第二传感器数据及全局地图确定驾驶对象的当前位姿,最后根据获取的第三传感器数据、全局地图、当前位姿及目标地点,确定驾驶对象下一时刻所需的行驶速度。由于该方法可以实时获取驾驶对象当前位置的第二传感器数据及第三传感器数据,因此可以实时的确定驾驶对象的当前位姿,并且根据第三传感器数据对应的环境数据,可以精准的确定驾驶对象下一时刻所需的行驶速度,从而该方法可以实现低速结构化场景下无人驾驶过程中实时精准的定位与导航。
在其中一个实施例中,所述根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿,包括:
根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法及相应的状态估计器,得到所述驾驶对象的初始位姿;
根据所述初始位姿和所述第二传感器数据,利用积分方法及相应的状态估计器,得到所述驾驶对象的预测位姿,将所述预测位姿作为所述驾驶对象的当前位姿。
在其中一个实施例中,所述根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿,还包括:
在固定的时间间隔,根据所述第二传感器数据、所述全局地图及所述预测位姿,确定所述驾驶对象的校正位姿,将所述校正位姿作为所述驾驶对象的当前位姿。
在其中一个实施例中,所述根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度,包括:
根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿;
对所述第三传感器数据采用机器学习算法,确定所述驾驶对象的环境信息;
根据所述环境信息、所述局部代价地图、所述局部终点及所述局部位姿,利用路径规划算法确定所述驾驶对象下一时刻所需的行驶速度。
在其中一个实施例中,所述根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿,包括:
将所述全局地图转换为全局代价地图,根据所述目标地点及所述当前位姿,确定所述驾驶对象到达所述目标地点的全局路径;其中,所述全局代价地图为二维地图;
根据所述当前位姿,从所述全局代价地图中获取局部代价地图;
根据所述全局路径、所述局部代价地图及所述当前位姿,确定所述驾驶对象的局部终点及局部位姿。
在其中一个实施例中,所述方法还包括:根据所述环境信息,更新所述局部代价地图。
在其中一个实施例中,所述第一传感器数据为相机和激光雷达采集到的所述驾驶对象所需驾驶区域的物体数据;所述第二传感器数据为激光雷达、相机、全球定位系统GPS、惯性导航单元及轮式里程计采集到的数据;所述第三传感器数据为相机和激光雷达采集到的所述驾驶对象当前位置的环境数据。
第二方面,本申请实施例提供一种无人驾驶控制装置,包括:
建图模块,用于获取第一传感器数据,根据所述第一传感器数据生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图;
定位模块,用于获取第二传感器数据,根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向;
导航模块,用于获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向。
第三方面,本申请实施例提供一种无人驾驶控制系统,包括:上位机、下位机、控制器局域网络CAN总线、主动轮电机驱动器和转向电机驱动器;其中,所述上位机用于执行上述无人驾驶控制方法中的步骤,并将得到的驾驶对象下一时刻所需的行驶速度发送给所述下位机;
所述下位机将所述行驶速度解析为驱动器控制信号,并发送给所述主动轮电机驱动器和所述转向电机驱动器;
所述主动轮电机驱动器和所述转向电机驱动器根据所述驱动器控制信号,控制所述驾驶对象进行行驶。
第四方面,本申请实施例提供一种承载设备,所述承载设备安装有传感器及上述无人驾驶控制系统。
上述无人驾驶控制装置、系统及承载装置,首先能够根据获取的第一传感器数据生成驾驶对象所需驾驶区域的全局地图,然后能够根据获取的第二传感器数据及全局地图确定驾驶对象的当前位姿,最后能够根据获取的第三传感器数据、全局地图、当前位姿及目标地点,确定驾驶对象下一时刻所需的行驶速度。由于其可以实时获取驾驶对象当前位置的第二传感器数据及第三传感器数据,因此可以实时的确定驾驶对象的当前位姿,并且根据第三传感器数据对应的环境数据,可以精准的确定驾驶对象下一时刻所需的行驶速度,从而可以实现低速结构化场景下无人驾驶过程中实时精准的定位与导航。
附图说明
图1为一个实施例提供的无人驾驶控制方法的流程示意图;
图1a为一个实施例提供的无人驾驶控制方法的流程框架图;
图2为另一个实施例提供的无人驾驶控制方法的流程示意图;
图2a为一个实施例提供的无人驾驶控制方法确定驾驶对象当前位姿的流程框架图;
图3为又一个实施例提供的无人驾驶控制方法的流程示意图;
图3a为一个实施例提供的无人驾驶控制方法确定驾驶对象的局部终点及局部位姿的流程示意图;
图3b为一个实施例提供的无人驾驶控制方法确定驾驶对象下一时刻所需的行驶速度的流程框架图;
图4为一个实施例提供的无人驾驶控制装置的结构示意图;
图5为另一个实施例提供的无人驾驶控制装置的结构示意图;
图6为又一个实施例提供的无人驾驶控制装置的结构示意图;
图7为一个实施例提供的一种计算机设备的内部结构示意图;
图8为一个实施例提供的无人驾驶控制系统的架构示意图;
图9为一个实施例提供的无人驾驶承载设备的调度示意图。
具体实施方式
本申请实施例提供的无人驾驶控制方法,可以适用于低速结构化场景,如抑尘车、物流车、城市道路巡逻车等场景,通过采用建图、定位和导航步骤实现控制无人驾驶汽车的正常行驶。无人驾驶汽车使用该方法获得的导航数据可以与云服务平台进行实时信息交互,云服务平台也可以将导航数据通过客户端展示给用户,实现无人驾驶汽车实时状态的可视化。同时,用户还可以通过客户端向无人驾驶汽车分配行驶任务,提升人机交互的智能性。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
需要说明的是,下述方法实施例的执行主体可以是无人驾驶控制装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部。下述方法实施例以执行主体是计算机设备为例进行说明。
图1为一个实施例提供的无人驾驶控制方法的流程示意图,本实施例涉及的是计算机设备生成驾驶对象所需驾驶区域的全局地图,确定驾驶对象当前位姿及确定驾驶对象下一时刻所需的行驶速度的具体过程。如图1所示,该方法包括:
S101,获取第一传感器数据,根据所述第一传感器数据生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图。
具体的,在驾驶对象执行定位和导航任务之前,需要事先建立预期驾驶区域的三维地图,可以首先通过将装载有传感器的驾驶对象在预期驾驶区域进行数据采集,获得第一传感器数据。可选的,该第一传感器数据可以为使用相机和激光雷达采集到的驾驶对象所需驾驶区域的物体数据,例如,使用激光雷达传感器时,其可以是向驾驶区域中的物体发射探测信号(激光束),然后根据接收到的从物体反射回来的信号(目标回波)获得物体的有关信息,如物体距离、方位、高度、速度、姿态等。然后,基于获取到的第一传感器数据,计算机设备可以生成驾驶对象所需驾驶区域的全局地图。在生成全局地图过程中,其初始地图可以为空,每采集到一帧数据后,便将该帧数据融合到全局地图中所对应的点上。
可选的,对于使用相机采集到的数据,可以通过估计与之前采集数据的变换矩阵,将其融合到三维视觉地图中。对于使用激光雷达采集到的数据,可以通过估计与之前采集数据的变换矩阵,将其融合到三维激光点云地图中。可选的,三维视觉地图的建图方法可以采用ORBSLAM算法、DSOSLAM算法,三维激光点云地图的建图方法可以采用LOAM算法、LeGO-LOAM算法。
S102,获取第二传感器数据,根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向。
具体的,建立了驾驶对象所需驾驶区域的全局地图后,在驾驶对象行驶过程中,需要确定其当前位姿,如当前位置及朝向。当该驾驶对象行驶至某一个位置时,可以通过装载的传感器采集其周围的物体数据,即第二传感器数据,然后计算机设备根据采集到的物体数据及全局地图,可以确定该驾驶对象所处的位置及朝向。可选的,上述第二传感器数据可以为使用激光雷达、相机、全球定位系统(Global Positioning System,GPS)、惯性导航单元及轮式里程计采集到的数据,其中,激光雷达和相机属于低频传感器,惯性导航单元和轮式里程计属于高频传感器。可选的,上述相机可以为单目相机、双目相机、多目相机等,只要能满足采集功能即可,本实施例对此不做限定。
示例性的,假设当前采集到的第二传感器数据为建筑物A位于驾驶对象西北45°方向,距离10m,则计算机设备可以根据这些数据及与全局地图的对应,确定该驾驶对象的当前位置及朝向。
S103,获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向。
具体的,在确定了全局地图及驾驶对象的当前位姿后,再结合驾驶对象所要行驶的目标地点,计算机设备可以确定出该驾驶对象从当前位置到目标地点的全局路径。可选的,上述目标地点可以是预先设置的,也可以是用户通过客户端输入的,本实施例对此不做限定。然后,通过驾驶对象所装载的传感器采集其周围的环境数据,即第三传感器数据(如行人、车辆、交通信号灯等),计算机设备根据第三传感器数据及全局路径,可以确定驾驶对象下一时刻所需的行驶速度,该行驶速度包括速度大小值及行驶方向,可使驾驶对象按此速度向前行驶。可选的,该行驶速度可以包括纵向速度和横向速度。
示例性的,假设采集到的第三传感器数据包括前方是否有行人、车辆、红绿灯等,则计算机设备综合这些数据,并结合全局地图、当前位姿及目标地点,输出驾驶对象下一时刻所需的行驶速度。
为更好的理解上述无人驾驶控制方法的流程,本实施例示出了该方法的流程框架图,具体参见图1a所示。
本实施例提供的无人驾驶控制方法,计算机设备首先根据获取的第一传感器数据生成驾驶对象所需驾驶区域的全局地图,然后根据获取的第二传感器数据及全局地图确定驾驶对象的当前位姿,最后根据获取的第三传感器数据、全局地图、当前位姿及目标地点,确定驾驶对象下一时刻所需的行驶速度。由于该方法可以实时获取驾驶对象当前位置的第二传感器数据及第三传感器数据,因此可以实时的确定驾驶对象的当前位姿,并且根据第三传感器数据对应的环境数据,可以精准的确定驾驶对象下一时刻所需的行驶速度,从而该方法可以实现低速结构化场景下无人驾驶过程中实时精准的定位与导航。
图2为另一个实施例提供的无人驾驶控制方法的流程示意图,本实施例涉及的是计算机设备根据第二传感器数据和全局地图,确定驾驶对象的当前位姿的具体过程。在上述实施例的基础上,可选的,如图2所示,该方法还包括:
S201,根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法及相应的状态估计器,得到所述驾驶对象的初始位姿。
具体的,在驾驶对象开始行驶的初始时刻,需要确定其初始位姿。可选的,上述第二传感器数据可以为使用激光雷达、相机、GPS所采集到的数据,其中,相机可以为单目相机、双目相机、多目相机。首先计算机设备根据GPS提供的位置信息作为迭代最近邻点(Iterative Closest Point,ICP)算法的初值,然后基于激光雷达和相机的观测数据在其对应的全局地图(三维激光点云地图和三维视觉地图)上做ICP计算,可以得到两个估计位姿,接下来使用状态估计器对该两个估计位姿使用滤波算法或图优化算法,去除估计位姿中的噪声误差,得到较准确的初始位姿。
S202,根据所述初始位姿和所述第二传感器数据,利用积分方法及相应的状态估计器,得到所述驾驶对象的预测位姿,将所述预测位姿作为所述驾驶对象的当前位姿。
具体的,在驾驶对象行驶到下一时刻,计算机设备可以根据其上一时刻(即初始时刻)的位姿和第二传感器数据,采用积分的方法估计出当前时刻的估计位姿,再使用状态估计器对该估计位姿使用滤波算法或图优化算法,去除估计位姿中的噪声误差,得到较准确的预测位姿,即当前位姿。可选的,该第二传感器数据可以为使用惯性导航单元和轮式里程计所采集到的数据,由于惯性导航单元和轮式里程计为高频传感器元件,通常频率大于100HZ,因此所对应的状态估计器也为高频状态估计器。
进一步的,当驾驶对象继续行驶到下一时刻,则计算机设备将惯性导航单元和轮式里程计采集的数据利用积分方法及相应的状态估计器,基于上一时刻的位姿估计出当前时刻的位姿,以此类推,直至驾驶对象行驶到目标地点。
本实施例提供的无人驾驶控制方法,计算机设备首先根据第二传感器数据和全局地图得到驾驶对象的初始位姿,再根据初始位姿及第二传感器数据确定驾驶对象的当前位姿,其使用的状态估计器能够去除在计算位姿过程中产生的噪声误差,因此可以获得准确可靠的当前位姿。
在一个实施例中,可选的,上述步骤S102还可以包括:在固定的时间间隔,根据所述第二传感器数据、所述全局地图及所述预测位姿,确定所述驾驶对象的校正位姿,将所述校正位姿作为所述驾驶对象的当前位姿。
具体的,由于激光雷达与相机属于低频传感器,通常频率为10~20HZ,因此其采集数据的时间间隔大于惯性导航单元与轮式里程计采集数据的时间间隔,并且惯性导航单元与轮式里程计在长时间使用情况下可能会产生累计误差,从而在一定的时间间隔内(该时间间隔具体由所使用的传感器类型而定),计算机设备可以基于激光雷达与相机采集的数据,在其对应的全局地图上做ICP计算,得到两个估计位姿,并对该两个估计位姿与S202中的预测位姿采用状态估计器进行滤波或图优化,进一步得到校正位姿,以校正预测位姿中的累计误差。
为更好的理解上述无人驾驶控制方法中确定驾驶对象当前位姿的流程,本实施例示出了具体的流程框架图,参见图2a所示。
图3为又一个实施例提供的无人驾驶控制方法的流程示意图,本实施例涉及的是计算机设备根据第三传感器数据、全局地图、当前位姿及目标地点,确定驾驶对象下一时刻所需的行驶速度的具体过程。在上述实施例的基础上,可选的,如图3所示,该方法还包括:
S301,根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿。
具体的,驾驶对象从初始时刻开始行驶,若全局地图中数据较多、目标地点较远,计算机设备利用全局地图和目标地点进行计算时,每次都需要进行大量计算,因此为减少计算量及提高计算效率,可以先确定驾驶对象的局部代价地图、局部终点及局部位姿,以进行后续导航计算。
可选的,计算机设备确定驾驶对象的局部代价地图、局部终点及局部位姿的步骤,可参见图3a所示,包括:
S301a,将所述全局地图转换为全局代价地图,根据所述目标地点及所述当前位姿,确定所述驾驶对象到达所述目标地点的全局路径;其中,所述全局代价地图为二维地图。
具体的,计算机设备首先将三维全局地图转换为二维全局代价地图,可选的,转换方法可以是三维到二维的图映射方法。然后根据驾驶对象的当前位姿及目标地点,计算机设备可以在全局代价地图中确定该驾驶对象达到目标地点的全局路径,其中,确定全局路径的方法可以为最短路径规划Dijkstra算法,该全局路径可以为行驶代价最小的路径。
S301b,根据所述当前位姿,从所述全局代价地图中获取局部代价地图。
具体的,根据驾驶对象的当前位姿,计算机设备可以从全局代价地图中截取出局部代价地图。可选的,可以以驾驶对象当前位置为原点,预设值为半径画圆,也可以以驾驶对象当前位置为起点,驾驶对象的朝向为方向,预设值为距离画线,以截取出局部代价地图。可选的,还可以是根据经验值为长和宽,截取长方形区域为局部代价地图。
S301c,根据所述全局路径、所述局部代价地图及所述当前位姿,确定所述驾驶对象的局部终点及局部位姿。
具体的,在确定局部代价地图之后,根据驾驶对象的全局路径及当前位姿,计算机设备可以确定该驾驶对象在局部代价地图中的局部终点及局部位姿,以供后续进行导航计算。
S302,对所述第三传感器数据采用机器学习算法,确定所述驾驶对象的环境信息。
具体的,上述环境信息为驾驶对象所处位置附近的关键物体信息,如行人、车辆、信号灯的位置、朝向、速度、语义信息等。计算机设备可以根据相机和激光雷达采集到的第三传感器数据,使用机器学习算法,将第三传感器数据转换输出为环境信息。可选的,机器学习算法模型可以为卷积神经网络模型、支持向量机分类器、多层感知机等。
S303,根据所述环境信息、所述局部代价地图、所述局部终点及所述局部位姿,利用路径规划算法确定所述驾驶对象下一时刻所需的行驶速度。
具体的,计算机设备确定了环境信息、局部终点及局部位姿之后,可根据这些信息利用路径规划算法确定驾驶对象下一时刻所需的行驶速度,包括速度大小及行驶方向,可选的,可以为纵向速度及横向速度。可选的,路径规划算法可以为A*算法、A*RT算法。
可选的,在确定了驾驶对象的环境信息后,还可以根据该环境信息更新上述局部代价地图。进一步的,还可以根据更新后的局部代价地图及局部终点,重新规划到达局部终点的路径,以使行驶代价最小。
为更好的理解上述无人驾驶控制方法中确定驾驶对象下一时刻所需的行驶速度的流程,本实施例示出了具体的流程框架图,参见图3b所示。
本实施例提供的无人驾驶控制方法,计算机设备首先根据全局地图、驾驶对象的当前位姿及目标地点,确定驾驶对象的局部代价地图、局部终点及局部位姿,然后再根据第三传感器数据确定驾驶对象的环境信息,最后根据环境信息、局部代价地图、局部终点及局部位姿可以确定驾驶对象下一时刻所需的行驶速度。该方法通过利用局部代价地图、局部终点及局部位姿来进行计算,避免了使用全局地图及目标地点的大量计算,从而提高了计算效率,并且在确定行驶速度时考虑了环境信息,可以更精准的确定驾驶对象下一时刻所需的行驶速度。
应该理解的是,虽然图1-图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-图3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图4为一个实施例提供的无人驾驶控制装置的结构示意图。如图4所示,该装置包括:建图模块11、定位模块12和导航模块13。
具体的,建图模块11,用于获取第一传感器数据,根据所述第一传感器数据生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图。
定位模块12,用于获取第二传感器数据,根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向。
导航模块13,用于获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向。
本实施例提供的无人驾驶控制装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
图5为另一个实施例提供的无人驾驶控制装置的结构示意图。在上述图4所示实施例的基础上,如图5所示,定位模块12包括:第一确定单元121和第二确定单元122。
具体的,第一确定单元121,用于根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法及相应的状态估计器,得到所述驾驶对象的初始位姿。
第二确定单元122,用于根据所述初始位姿和所述第二传感器数据,利用积分方法及相应的状态估计器,得到所述驾驶对象的预测位姿,将所述预测位姿作为所述驾驶对象的当前位姿。
在其中一个实施例中,上述定位模块12还用于在固定的时间间隔,根据所述第二传感器数据、所述全局地图及所述预测位姿,确定所述驾驶对象的校正位姿,将所述校正位姿作为所述驾驶对象的当前位姿。
本实施例提供的无人驾驶控制装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
图6为又一个实施例提供的无人驾驶控制装置的结构示意图。在上述图4或图5所示实施例的基础上,如图6所示,导航模块13包括:全局导航单元131、感知单元132和局部导航单元133。
具体的,全局导航单元131,用于根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿。
感知单元132,用于对所述第三传感器数据采用机器学习算法,确定所述驾驶对象的环境信息。
局部导航单元133,用于根据所述环境信息、所述局部代价地图、所述局部终点及所述局部位姿,利用路径规划算法确定所述驾驶对象下一时刻所需的行驶速度。
需要说明的是,图6的结构是在图5所示的实施例的基础上示出的,当然图6还可以在图4所示的结构上示出,这里仅是一种示例。
在其中一个实施例中,上述全局导航单元131具体用于将所述全局地图转换为全局代价地图,根据所述目标地点及所述当前位姿,确定所述驾驶对象到达所述目标地点的全局路径;其中,所述全局代价地图为二维地图;根据所述当前位姿,从所述全局代价地图中获取局部代价地图;根据所述全局路径、所述局部代价地图及所述当前位姿,确定所述驾驶对象的局部终点及局部位姿。
在其中一个实施例中,上述导航模块13还包括更新单元,用于根据所述环境信息,更新所述局部代价地图。
在其中一个实施例中,所述第一传感器数据为相机和激光雷达采集到的所述驾驶对象所需驾驶区域的物体数据;所述第二传感器数据为激光雷达、相机、全球定位系统GPS、惯性导航单元及轮式里程计采集到的数据;所述第三传感器数据为相机和激光雷达采集到的所述驾驶对象当前位置的环境数据。
本实施例提供的无人驾驶控制装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于无人驾驶控制装置的具体限定可以参见上文中对于无人驾驶控制方法的限定,在此不再赘述。上述无人驾驶控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种无人驾驶控制方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图8为一个实施例提供的无人驾驶控制系统的架构示意图,如图8所示,包括:上位机21、下位机22、控制器局域网络(Controller Area Network,CAN)总线23、主动轮电机驱动器24和转向电机驱动器25;其中,所述上位机21用于执行上述实施例提供的无人驾驶控制方法中的步骤,并将得到的驾驶对象下一时刻所需的行驶速度发送给所述下位机22;所述下位机22将所述行驶速度解析为驱动器控制信号,并发送给所述主动轮电机驱动器24和所述转向电机驱动器25;所述主动轮电机驱动器24和所述转向电机驱动器25根据所述驱动器控制信号,控制所述驾驶对象进行行驶。
具体的,上位机21为执行上述无人驾驶控制方法的计算设备,实时将上述方法输出的行驶速度信息发送至下位机22。下位机22为指令解析单元,可以将上位机21输出的行驶速度信息解析为驱动器控制信号,发送给主动轮电机驱动器24和转向电机驱动器25。主动轮电机驱动器24和转向电机驱动器25为驱动设备,主动轮电机驱动器24可以依据接收到的驱动器控制信号控制主动轮电机、主动轮差速器,实现驾驶对象的前进、后退及差速转向,转向电机驱动器25可以依据接收到的驱动器控制信号控制控制转向电机,实现驾驶对象前轮转向舵机转角。可选的,上述各部分之间可以采用CAN协议进行通信。
可选的,上述上位机21还可以定时向下位机22发送心跳保持信号,用于证明上位机21工作正常。当下位机22在规定时间内没有收到上位机21发送的心跳保持信号,则证明上位机21出现故障,进而可以启动紧急停车,以保证行驶安全。
在一个实施例中,本申请还提供一种承载设备31,该承载设备31安装有传感器及上述实施例所示的无人驾驶控制系统。如图9所示,上述承载设备31可以通过云服务平台32实现与客户端33之间的信息交互。
以无人驾驶抑尘车为例,该抑尘车包括承载设备31、水箱及水雾发生器。上述云服务平台32通过HTML网页的方式向客户端33显示抑尘车的实时位置、速度、储水量等信息,客户端33将云服务平台32的服务器作为静态网页访问服务器,将数据处理和显示文件放在可访问文件夹下,通过加载HTML中的API,可以通过地图动态显示抑尘车的数据,以实现抑尘车实时状态的可视化。另外,用户在客户端33还可以对云服务平台32的数据库中的数据进行删除、修改以及对抑尘车的任务分配、路径设置,以更新数据库中的信息。
另一方面,云服务平台32基于OpenResty框架开发,可以基于WebSocket协议实现与抑尘车的实时信息交互,交互信息按照JSON格式进行编码。其中,WebSocket协议可以使得信息交互的双方均可以主动向对方推送信息,并可以保持通讯双方的长时间连接,从而实现云服务平台32对抑尘车的长时间稳定、低延迟的控制。抑尘车的通信部分基于C++语言进行开发,通过调用C++Rest库和RapidJSON库实现数据包的编解码及基于WebSocket协议的数据传输。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种无人驾驶控制方法,其特征在于,包括:
获取第一传感器数据,根据所述第一传感器数据采用三维地图建图方法生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图;
获取第二传感器数据,根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法、积分方法和相应的状态估计器确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向;
获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向,所述行驶速度包括纵向速度和横向速度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿,包括:
根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法及相应的状态估计器,得到所述驾驶对象的初始位姿;
根据所述初始位姿和所述第二传感器数据,利用积分方法及相应的状态估计器,得到所述驾驶对象的预测位姿,将所述预测位姿作为所述驾驶对象的当前位姿。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第二传感器数据和所述全局地图,确定所述驾驶对象的当前位姿,还包括:
在固定的时间间隔,根据所述第二传感器数据、所述全局地图及所述预测位姿,确定所述驾驶对象的校正位姿,将所述校正位姿作为所述驾驶对象的当前位姿。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度,包括:
根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿;
对所述第三传感器数据采用机器学习算法,确定所述驾驶对象的环境信息;
根据所述环境信息、所述局部代价地图、所述局部终点及所述局部位姿,利用路径规划算法确定所述驾驶对象下一时刻所需的行驶速度。
5.根据权利要求4所述的方法,其特征在于,所述根据所述全局地图、所述当前位姿及所述目标地点,确定所述驾驶对象的局部代价地图、局部终点及局部位姿,包括:
将所述全局地图转换为全局代价地图,根据所述目标地点及所述当前位姿,确定所述驾驶对象到达所述目标地点的全局路径;其中,所述全局代价地图为二维地图;
根据所述当前位姿,从所述全局代价地图中获取局部代价地图;
根据所述全局路径、所述局部代价地图及所述当前位姿,确定所述驾驶对象的局部终点及局部位姿。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:根据所述环境信息,更新所述局部代价地图。
7.根据权利要求1所述的方法,其特征在于,所述第一传感器数据为相机和激光雷达采集到的所述驾驶对象所需驾驶区域的物体数据;所述第二传感器数据为激光雷达、相机、全球定位系统GPS、惯性导航单元及轮式里程计采集到的数据;所述第三传感器数据为相机和激光雷达采集到的所述驾驶对象当前位置的环境数据。
8.一种无人驾驶控制装置,其特征在于,包括:
建图模块,用于获取第一传感器数据,根据所述第一传感器数据采用三维地图建图方法生成驾驶对象所需驾驶区域的全局地图;其中,所述全局地图为三维地图;
定位模块,用于获取第二传感器数据,根据所述第二传感器数据和所述全局地图,利用迭代最近邻点ICP算法、积分方法和相应的状态估计器确定所述驾驶对象的当前位姿;其中,所述当前位姿包括所述驾驶对象的当前位置及朝向;
导航模块,用于获取第三传感器数据,根据所述第三传感器数据、所述全局地图、所述当前位姿及目标地点,确定所述驾驶对象下一时刻所需的行驶速度;其中,所述行驶速度包括速度大小和行驶方向,所述行驶速度包括纵向速度和横向速度。
9.一种无人驾驶控制系统,其特征在于,包括:上位机、下位机、控制器局域网络CAN总线、主动轮电机驱动器和转向电机驱动器;其中,所述上位机用于执行权利要求1-7任一项所述的方法中的步骤,并将得到的驾驶对象下一时刻所需的行驶速度发送给所述下位机;
所述下位机将所述行驶速度解析为驱动器控制信号,并发送给所述主动轮电机驱动器和所述转向电机驱动器;
所述主动轮电机驱动器和所述转向电机驱动器根据所述驱动器控制信号,控制所述驾驶对象进行行驶。
10.一种承载设备,其特征在于,所述承载设备安装有传感器及权利要求9所述的无人驾驶控制系统。
CN201910202845.1A 2019-03-18 2019-03-18 无人驾驶控制方法、装置、系统和承载设备 Active CN109947103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910202845.1A CN109947103B (zh) 2019-03-18 2019-03-18 无人驾驶控制方法、装置、系统和承载设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910202845.1A CN109947103B (zh) 2019-03-18 2019-03-18 无人驾驶控制方法、装置、系统和承载设备

Publications (2)

Publication Number Publication Date
CN109947103A CN109947103A (zh) 2019-06-28
CN109947103B true CN109947103B (zh) 2022-06-28

Family

ID=67010076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910202845.1A Active CN109947103B (zh) 2019-03-18 2019-03-18 无人驾驶控制方法、装置、系统和承载设备

Country Status (1)

Country Link
CN (1) CN109947103B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817301B (zh) * 2019-10-30 2023-05-16 北京魔门塔科技有限公司 一种多传感器数据的融合方法、装置及系统
CN110941269B (zh) * 2019-11-22 2023-06-13 深圳一清创新科技有限公司 基于无人驾驶的车辆控制方法、装置、计算机设备和介质
TWI724686B (zh) * 2019-12-13 2021-04-11 國立成功大學 應用高精地圖之定位定向系統與定位定向方法
CN111199578B (zh) * 2019-12-31 2022-03-15 南京航空航天大学 基于视觉辅助激光雷达的无人机三维环境建模方法
CN111308490B (zh) * 2020-02-05 2021-11-19 浙江工业大学 基于单线激光雷达的平衡车室内定位与导航系统
CN114088131A (zh) * 2020-08-24 2022-02-25 北京市安全生产科学技术研究院 监测建模装置及森林应急消防监测系统
CN112991744B (zh) * 2021-04-28 2021-08-13 北京科技大学 一种适用于长距离城市道路的自动驾驶决策方法及系统
CN113706892A (zh) * 2021-08-25 2021-11-26 苏州昆朋智能网联科技有限公司 一种服务于低速无人物流车的特定场景库

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777220A (zh) * 2014-01-17 2014-05-07 西安交通大学 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法
CN105354875A (zh) * 2015-09-25 2016-02-24 厦门大学 一种室内环境二维与三维联合模型的构建方法和系统
CN107144285A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 位姿信息确定方法、装置和可移动设备
CN107200020A (zh) * 2017-05-11 2017-09-26 江苏大学 一种基于混杂理论的无人驾驶汽车自主转向控制系统和方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN108931245A (zh) * 2018-08-02 2018-12-04 上海思岚科技有限公司 移动机器人的局部自定位方法及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6711138B2 (ja) * 2016-05-25 2020-06-17 村田機械株式会社 自己位置推定装置、及び、自己位置推定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777220A (zh) * 2014-01-17 2014-05-07 西安交通大学 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法
CN105354875A (zh) * 2015-09-25 2016-02-24 厦门大学 一种室内环境二维与三维联合模型的构建方法和系统
CN107144285A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 位姿信息确定方法、装置和可移动设备
CN107200020A (zh) * 2017-05-11 2017-09-26 江苏大学 一种基于混杂理论的无人驾驶汽车自主转向控制系统和方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN108931245A (zh) * 2018-08-02 2018-12-04 上海思岚科技有限公司 移动机器人的局部自定位方法及设备

Also Published As

Publication number Publication date
CN109947103A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
CN109947103B (zh) 无人驾驶控制方法、装置、系统和承载设备
CN108574929B (zh) 用于自主驾驶系统中的车载环境中的联网场景再现和增强的方法和设备
CN110249609B (zh) 用于自主车辆的带宽约束图像处理
AU2019396213A1 (en) Techniques for kinematic and dynamic behavior estimation in autonomous vehicles
US11702108B2 (en) Distributed computing systems for autonomous vehicle operations
CN114758502B (zh) 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆
CN111994064A (zh) 车辆控制方法、装置、设备、系统及存储介质
US20220412755A1 (en) Autonomous vehicle routing with local and general routes
CN114212108A (zh) 自动驾驶方法、装置、车辆、存储介质及产品
US20210398014A1 (en) Reinforcement learning based control of imitative policies for autonomous driving
CN113665577A (zh) 操作机动车辆的方法
WO2023173076A1 (en) End-to-end systems and methods for streaming 3d detection and forecasting from lidar point clouds
CN114228735A (zh) 智能驾驶车辆的可视化方法、装置及系统
JP2020064029A (ja) 移動体制御装置
CN115565374A (zh) 物流车驾驶优化方法、装置、电子设备及可读存储介质
CN114771533A (zh) 自动驾驶车辆的控制方法、装置、设备、车辆及介质
US20210095977A1 (en) Revising self-driving vehicle routes in response to obstructions
CN114030483A (zh) 车辆控制方法、装置、电子设备和介质
CN111832142A (zh) 用于输出信息的方法和装置
US20230098223A1 (en) Systems and method for lidar grid velocity estimation
US20230237793A1 (en) False track mitigation in object detection systems
US11634156B1 (en) Aerial view generation for vehicle control
CN116994436B (zh) 一种智慧矿山道路碰撞预警方法
EP4083336B1 (en) Method and apparatus for detecting operating terrain, and engineering equipment for detecting operating terrain
US20230234617A1 (en) Determining perceptual spatial relevancy of objects and road actors for automated driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant