CN116225027A - 一种全景智能小车自动行驶方法 - Google Patents

一种全景智能小车自动行驶方法 Download PDF

Info

Publication number
CN116225027A
CN116225027A CN202310390042.XA CN202310390042A CN116225027A CN 116225027 A CN116225027 A CN 116225027A CN 202310390042 A CN202310390042 A CN 202310390042A CN 116225027 A CN116225027 A CN 116225027A
Authority
CN
China
Prior art keywords
intelligent
intelligent trolley
steering
obstacle
trolley
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310390042.XA
Other languages
English (en)
Inventor
牟习文
熊飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202310390042.XA priority Critical patent/CN116225027A/zh
Publication of CN116225027A publication Critical patent/CN116225027A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明属于智能探索技术领域,具体涉及一种全景智能小车自动行驶方法,包括:获取车辆数据信息,构建实时局部地图;实时采集周围环境图片;环境图片输入到交通标志检测模型中,当检测到交通标志,则将环境图像输入到障碍物检测模型中,未检测到障碍物,则根据交通标志执行对应的行驶规则;若检测到障碍物,则根据局部地图和智能小车当前位置信息计算障碍物区域的出入口信息,并规划智能小车的行驶路径;当未检测到交通标志,则将环境图片输入到深度学习转向模块,得到当前环境下的舵机转向值;根据舵机转向值控制智能小车舵机的转向;本发明的智能小车行驶方法中整合了视觉巡航、目标检测以及避障导航功能,提高了智能小车行驶的安全性。

Description

一种全景智能小车自动行驶方法
技术领域
本发明属于智能探索技术领域,具体涉及一种全景智能小车自动行驶方法。
背景技术
智能小车作为现代的新发明,是以后的发展方向,可以按照预先设定的模式在一个环境里自动的运作,不需要人为的管理,可应用于科学勘探等等的用途。智能小车能够实时显示时间、速度、里程,具有自动寻迹、寻光、避障功能,可程控行驶速度、准确定位停车,远程传输图像等功能。智能小车可以分为三部分——传感器部分、控制器部分、执行器部分。其中,传感器部分用来读取各种外部信号的传感器,以及控制机器人行动的各种开关;控制器部分接收传感器部分传递过来的信号,并根据事前写入的决策系统(软件程序),来决定机器人对外部信号的反应,将控制信号发给执行器部分。执行器部分驱动机器人做出各种行为,包括发出各种信号(点亮发光二极管、发出声音)的部分,并且可以根据控制器部分的信号调整自己的状态。
目前传统智能小车在自动行驶方面主要分为视觉巡航、目标检测以及避障导航三个方向。其中基于机器视觉循迹的自动行驶方法主要依靠摄像头获取赛道图片然后对图片进行灰度处理,对图像二值化后提取赛道特征,计算中心偏差实现自动行驶。其次,较为高级的无人汽车驾驶技术采用深度学习的方法来巡航,用搭建的卷积神经网络模型提取视觉图片特征,根据视觉图片特征匹配智能汽车的转向数据。而采用深度学习的方法来巡航需要大量图片数据对模型进行训练,同时对环境的配置较高;但是上述方法中只是侧重于视觉巡航,不能进行目标检测,不能在复杂场景下进行建图导航避障。
传统智能小车在自动行驶上面很少搭配目标检测模块,而检测主要以Yolo算法为基础,作为单独模块在生产生活中使用,如无人机进行目标识别和交通标志检测。目前拥有避障导航功能的智能小车不能进行视觉续航和目标检测,主要类型有两种,其一搭载激光雷达,用雷达探测采集环境中三维点云数据构建地图来进行导航避障,其二通过超声波传感器在智能小车的四个方向探测障碍物进行定位来避障,但不具备导航功能。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种全景智能小车自动行驶方法,该方法包括:
S1:采用IMU和里程计获取车辆数据信息,根据车辆数据信息采用激光雷达构建实时局部地图;
S2:智能小车实时采集周围环境图片,对周围环境图片进行预处理;
S3:将预处理后的环境图片输入到交通标志检测模型中,当检测到交通标志,则执行步骤S4;当未检测到交通标志,则将环境图片输入到深度学习转向模块,得到当前环境下道路曲线对应的舵机转向值;
S4:将环境图像输入到障碍物检测模型中,未检测到障碍物,则根据交通标志执行对应的车辆行驶规则,得到行驶规则下对应的舵机转向值;若检测到障碍物,则根据局部地图和智能小车当前位置信息计算障碍物区域的出入口信息,根据出入口信息规划智能小车的行驶路径,返回步骤S2;
S5:根据舵机转向值控制智能小车舵机的转向,实现小车的自动行驶。
优选的,激光雷达获取周围环境的点云数据,获取激光雷达的位置坐标和智能小车底盘坐标,根据激光雷达位置坐标和智能小车底盘坐标计算激光雷达和智能小车底盘坐标的相对变换关系;根据相对变换关系、周围环境的点云数据以及IMU和里程计获取的车辆数据信息采用Gmapping算法节点得构建周围环境的障碍物地图。
优选的,对周围环境图片进行预处理包括:对周围环境图片进行补全滤波处理,对补全滤波后的图像进行裁剪,将裁剪后的图片的大小设置为120*240。
优选的,采用交通标志检测模型对输入图像进行检测的过程包括:将图像输入到训练好的交通标志检测模型中,得到交通标志识别结果;对交通标志检测模型进行训练的过程包括:
步骤1:获取交通标志图像数据集,并对数据集中的图片进行标记;
步骤2:设置模型的初始参数,初始参数包括学习率、学习率动量、权重衰减系数以及迭代次数;
步骤3:采用Yolov5识别算法对输入图片进行识别分类,得到分类结果;
步骤4:根据学习率、学习率动量以及权重衰减系数对交通标志检测模型的参数进行优化;当前迭代次数加1;
步骤5:重复步骤3~步骤4,直到当前迭代次数与设置的迭代次数相等,则完成模型的训练。
优选的,当前环境下道路曲线对应的舵机转向值的过程包括:获取当前赛道图片,将赛道图片的大小调整为120*240;将调整后的赛道图片输入到训练好的CNN转向模型中,得到当前赛道环境下智能小车沿着赛道线正确行进的舵机转向角。
优选的,计算障碍物区域的出入口信息的过程包括:智能小车在识别到障碍物区的标志后,获取智能小车在障碍物区标志前的IMU与里程计融合的位置信息,该位置信息包括二维坐标与车头的朝向角;根据智能小车进入障碍物区位置、方向角以及实时局部地图确定智能小车的行驶路线;根据行驶路线最终确定出口的位置信息;其计算公式为:
Figure BDA0004175444230000031
其中,
Figure BDA0004175444230000032
表示智能小车的当前位置的横坐标,/>
Figure BDA0004175444230000033
表示智能小车的当前位置的纵坐标,/>
Figure BDA0004175444230000034
表示智能小车的当前位置的车头朝向,/>
Figure BDA0004175444230000035
表示智能小车行驶到出口后的横坐标距离,/>
Figure BDA0004175444230000036
表示智能小车行驶到出口后的纵坐标距离,
Figure BDA0004175444230000037
表示智能小车行驶到出口后的车头朝向,/>
Figure BDA0004175444230000038
表示智能小车行驶到出口处的横坐标,/>
Figure BDA0004175444230000039
表示智能小车行驶到出口处的纵坐标,/>
Figure BDA00041754442300000310
表示智能小车行驶到出口处的车头朝向。
优选的,规划智能小车的行驶路径的过程包括:智能小车在将获取的障碍物区进出坐标以及出口车头朝向输入到小车ROS系统的导航算法,得到智能小车在障碍物地图中的运动位置,并根据实时建立的障碍物地图以及智能小车的实时运动坐标计算出导航路径,再根据计算的实时路径发布智能小车在障碍物区行驶的转向指令,从而实现在障碍物区域的避障行驶。
本发明的有益效果:
本发明的智能小车行驶方法中整合了视觉巡航、目标检测以及避障导航功能,解决传统智能小车不能将视觉巡航,目标检测,导航避障融合进行自动行驶的问题。
附图说明
图1为本发明的整体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种全景智能小车自动行驶方法,如图1所示,该方法包括:
S1:采用IMU和里程计获取车辆数据信息,根据车辆数据信息采用激光雷达构建实时局部地图;
S2:智能小车实时采集周围环境图片,对周围环境图片进行预处理;
S3:将预处理后的环境图片输入到交通标志检测模型中,当检测到交通标志,则执行步骤S4;当未检测到交通标志,则将环境图片输入到深度学习转向模块,得到当前环境下道路曲线对应的舵机转向值;
S4:将环境图像输入到障碍物检测模型中,未检测到障碍物,则根据交通标志执行对应的车辆行驶规则,得到行驶规则下对应的舵机转向值;若检测到障碍物,则根据局部地图和智能小车当前位置信息计算障碍物区域的出入口信息,根据出入口信息规划智能小车的行驶路径,返回步骤S2;
S5:根据舵机转向值控制智能小车舵机的转向,实现小车的自动行驶。
在本实施例中,全景智能小车启动时,智能小车的摄像头、激光雷达、IMU以及里程计开启,其中摄像头负责采集赛道的图像信息,IMU和里程计支撑定位需要的数据融合,激光雷达为后面环境中障碍物区做建图准备。
全景智能小车在进行行驶过程中首先检测交通标志,在交通标志检测模块未检测到障碍物区标志,而是红绿灯,上下坡,转向,人行横道等交通标志,那么智能小车就会执行该交通标志下所规定的程序动作,该程序动作包含预设的交通标志对应的转向角以及在该交通标志下的需要的控制时间。
在交通标志检测模块识别到障碍物区的标志,此时智能小车会根据当前位置和障碍物区进出口的相对位置计算出口的绝对位置,发送出口点位置给避障导航模块使小车到达障碍物区的出口。
在交通标志检测模块没有出现任何交通标志,那么再把赛道图片进行处理后导入深度学习转向板块,此时智能小车会计算出实时环境下赛道曲线对应的舵机转向值。
在本实施例中,自动行驶方案由CNN巡航模块,交通标志识别模块,避障导航模块组成,且程序可在仿真环境Gazebo中进行调试验证。其中本申请的CNN巡航模块应用深度学习的方法,构建了8层卷积神经网络来训练得到赛道图片与转向弯度的数据模型。CNN巡航模块的建立步骤如下:
步骤1:第一步数据采集,通无线手柄控制智能小车进行运动,将小车的电机速度固定,通过手柄改变舵机值,在赛道中跑3圈进行赛道图片的采集,同时记录每张赛道图片对应的舵机的转向值,图片大小为480*720,共采集3圈约4000组数据,每组数据包含图片与转向值,转向值在-1与1之间。
步骤2:训练集制作,把数据进行预处理,将图片调整到适合神经网络推理的大小,去除了图片的1/3(顶部不包含赛道部分),只保留了图片主要的2/3,然后将保留的这部分设置为120*240,以便在Pytorch平台训练。如图(5)将4000组数据划分为125个批次,每个批次里面有32组数据,划分批次时数据的顺序可打乱。
步骤3:第三步建立的层卷据神经网络模型。
步骤4:模型训练,设置学习率为0.001,优化器Adam,然后调用训练函数。
步骤5:第五步模型部署,由于模型是Pytorch平台下的格式,可先转换成trt或者onnx格式,再部署到Jetson nano上。然后在Jetson nano的GPU加速下对摄像头抓取的赛道图片进行实时转向计算,计算结果发送给舵机控制模块,控制小车转向完成赛道的基本巡航。
在本实施例中,交通标志识别模块使用Yolov5识别算法。其交通标志识别模型训练步骤如下:
Step1:第一步对不同的交通标志拍了共2000张照片,然后在Win11平台通过Labelimg进行标注,类别分为人行横道,上下坡,转弯,限速,加速。
Step2:在交通标志进行类别标记后形成COCO数据集,然后对数据集进行划分。训练时选择300张不同角度和不同分辨率大小的图片作为测试集,另取100张作为验证集,剩下的1600张作为训练集。
Step3:修改yolov5x的配置文件,使模型参数中的训练数据类别的数量和名称与交通标志中的类别数量和名称一致。开启Adam优化,设置学习率为0.0025,学习率动量0.850,权重衰减系数0.0005,迭代次数为300。
Step4:tran.py程序结合yolov5x.yaml和yolov5x.pt文件进行2个小时的交通标志识别的模型的训练。
Step5:模型部署。
在本实施例中,公开了一种模型参数的优化方法,该方法采用改进的遗传算法对系统参数进行优化,包括:
步骤1:初始化遗传算法的相关参数,所述相关参数包括种群大小、粒子维数、粒子位置和速度、粒子群的个体最优值、全局最优值以及迭代次数;其中将智能小车行识别的交通标志特征作为种群数;
步骤2:根据相关参数计算每个粒子的适应度函数值;
步骤3:采用衰减策略分别对惯性权重、个体学习因子以及全局学习因子进行更新;
步骤4:根据更新后的惯性权重、个体学习因子和全局学习因子对粒子的速度和位置进行更新,且迭代次数加1;
步骤5:判断当前迭代次数与设置的迭代次数的大小,若小于设置的迭代次数,则返回步骤2,否则执行步骤6;
步骤6:输出该适应度函数值所对应的粒子位置,该粒子位置即为最优特征值。
具体的,衰减策略的表达式为:
Figure BDA0004175444230000071
Figure BDA0004175444230000072
Figure BDA0004175444230000073
Figure BDA0004175444230000074
其中,ωt表示惯性权重,ct表示个体学习因子,Ct表示全局学习因子,m表示循环学习率,t表示当前迭代次数,ΔT表示循环周期,
Figure BDA0004175444230000075
表示向下取整。
在本实施例中,导航避障模块使用激光雷达运用Gmapping算法运用激光雷达进行SLAM建立实时局部地图,通过IMU与轮式里程计的融合定位数据和障碍物区进出口的相对平面坐标得到障碍物区出口绝对坐标,再使用Dijkstra和Teb算法进行全局与局部路径规划,智能小车根据不同阶段局部路径规划来到达障碍物区出口完成避障导航。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种全景智能小车自动行驶方法,其特征在于,包括:
S1:采用IMU和里程计获取车辆数据信息,根据车辆数据信息采用激光雷达构建实时局部地图;
S2:智能小车实时采集周围环境图片,对周围环境图片进行预处理;
S3:将预处理后的环境图片输入到交通标志检测模型中,当检测到交通标志,则执行步骤S4;当未检测到交通标志,则将环境图片输入到深度学习转向模块,得到当前环境下道路曲线对应的舵机转向值;
S4:将环境图像输入到障碍物检测模型中,未检测到障碍物,则根据交通标志执行对应的车辆行驶规则,得到行驶规则下对应的舵机转向值;若检测到障碍物,则根据局部地图和智能小车当前位置信息计算障碍物区域的出入口信息,根据出入口信息规划智能小车的行驶路径,返回步骤S2;
S5:根据舵机转向值控制智能小车舵机的转向,实现小车的自动行驶。
2.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,构建实时局部地图的过程包括:激光雷达获取周围环境的点云数据,获取激光雷达的位置坐标和智能小车底盘坐标,根据激光雷达位置坐标和智能小车底盘坐标计算激光雷达和智能小车底盘坐标的相对变换关系;根据相对变换关系、周围环境的点云数据以及IMU和里程计获取的车辆数据信息采用Gmapping算法节点得构建周围环境的障碍物地图。
3.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,对周围环境图片进行预处理包括:对周围环境图片进行补全滤波处理,对补全滤波后的图像进行裁剪,将裁剪后的图片的大小设置为120*240。
4.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,采用交通标志检测模型对输入图像进行检测的过程包括:将图像输入到训练好的交通标志检测模型中,得到交通标志识别结果;对交通标志检测模型进行训练的过程包括:
步骤1:获取交通标志图像数据集,并对数据集中的图片进行标记;
步骤2:设置模型的初始参数,初始参数包括学习率、学习率动量、权重衰减系数以及迭代次数;
步骤3:采用Yolov5识别算法对输入图片进行识别分类,得到分类结果;
步骤4:根据学习率、学习率动量以及权重衰减系数对交通标志检测模型的参数进行优化;当前迭代次数加1;
步骤5:重复步骤3~步骤4,直到当前迭代次数与设置的迭代次数相等,则完成模型的训练。
5.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,获取当前环境下道路曲线对应的舵机转向值的过程包括:获取当前赛道图片,将赛道图片的大小调整为120*240;将调整后的赛道图片输入到训练好的CNN转向模型中,得到当前赛道环境下智能小车沿着赛道线正确行进的舵机转向角。
6.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,计算障碍物区域的出入口信息的过程包括:智能小车在识别到障碍物区的标志后,获取智能小车在障碍物区标志前的IMU与里程计融合的位置信息,该位置信息包括二维坐标与车头的朝向角;根据智能小车进入障碍物区位置、方向角以及实时局部地图确定智能小车的行驶路线;根据行驶路线最终确定出口的位置信息;其计算公式为:
Figure FDA0004175444190000021
其中,
Figure FDA0004175444190000022
表示智能小车的当前位置的横坐标,/>
Figure FDA0004175444190000023
表示智能小车的当前位置的纵坐标,/>
Figure FDA0004175444190000024
表示智能小车的当前位置的车头朝向,/>
Figure FDA0004175444190000025
表示智能小车行驶到出口后的横坐标距离,/>
Figure FDA0004175444190000026
表示智能小车行驶到出口后的纵坐标距离,/>
Figure FDA0004175444190000027
表示智能小车行驶到出口后的车头朝向,/>
Figure FDA0004175444190000028
表示智能小车行驶到出口处的横坐标,
Figure FDA0004175444190000029
表示智能小车行驶到出口处的纵坐标,/>
Figure FDA0004175444190000031
表示智能小车行驶到出口处的车头朝向。
7.根据权利要求1所述的一种全景智能小车自动行驶方法,其特征在于,规划智能小车的行驶路径的过程包括:智能小车在将获取的障碍物区进出坐标以及出口车头朝向输入到小车ROS系统的导航算法,得到智能小车在障碍物地图中的运动位置,并根据实时建立的障碍物地图以及智能小车的实时运动坐标计算出导航路径,再根据计算的实时路径发布智能小车在障碍物区行驶的转向指令,从而实现在障碍物区域的避障行驶。
CN202310390042.XA 2023-04-12 2023-04-12 一种全景智能小车自动行驶方法 Pending CN116225027A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310390042.XA CN116225027A (zh) 2023-04-12 2023-04-12 一种全景智能小车自动行驶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310390042.XA CN116225027A (zh) 2023-04-12 2023-04-12 一种全景智能小车自动行驶方法

Publications (1)

Publication Number Publication Date
CN116225027A true CN116225027A (zh) 2023-06-06

Family

ID=86577148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310390042.XA Pending CN116225027A (zh) 2023-04-12 2023-04-12 一种全景智能小车自动行驶方法

Country Status (1)

Country Link
CN (1) CN116225027A (zh)

Similar Documents

Publication Publication Date Title
US10503172B2 (en) Controlling an autonomous vehicle based on independent driving decisions
US11554785B2 (en) Driving scenario machine learning network and driving environment simulation
CN108196535B (zh) 基于增强学习和多传感器融合的自动驾驶系统
Levinson et al. Towards fully autonomous driving: Systems and algorithms
CN112650220B (zh) 一种车辆自动驾驶方法、车载控制器及系统
WO2020205262A1 (en) Extension of autonomous driving functionality to new regions
US11079492B1 (en) Condition dependent parameters for large-scale localization and/or mapping
CN113743469B (zh) 一种融合多源数据及综合多维指标的自动驾驶决策方法
KR102589587B1 (ko) 자율 주행 차량용 동적 모델 평가 패키지
CN112068574A (zh) 一种无人车在动态复杂环境中的控制方法及系统
US11577732B2 (en) Methods and systems for tracking a mover's lane over time
CN116783455A (zh) 用于检测打开的门的系统和方法
US20230150549A1 (en) Hybrid log simulated driving
CN115907250A (zh) 用于调整自主驾驶车辆的运动规划器的基于学习的评论器
EP4326589A1 (en) Methods and systems for inferring unpainted stop lines for autonomous vehicles
Manikandan et al. Ad hoc-obstacle avoidance-based navigation system using deep reinforcement learning for self-driving vehicles
CN117452946A (zh) 一种基于数字孪生的智能汽车远程驾驶方法及系统
CN114842660B (zh) 一种无人车道路轨迹预测方法、装置和电子设备
CN117312841A (zh) 自动驾驶车辆训练数据的制定方法、电子设备和介质
CN116853283A (zh) 位于十字路口的机动车行为预测方法、装置及计算机系统
CN116324662B (zh) 用于跨自主车队执行结构化测试的系统
CN116225027A (zh) 一种全景智能小车自动行驶方法
CN112634610A (zh) 自然驾驶数据采集方法、装置、电子设备以及存储介质
US20230415772A1 (en) Trajectory planning based on extracted trajectory features
US20230314163A1 (en) Map generation apparatus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination