CN110244734A - 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 - Google Patents
一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 Download PDFInfo
- Publication number
- CN110244734A CN110244734A CN201910537330.7A CN201910537330A CN110244734A CN 110244734 A CN110244734 A CN 110244734A CN 201910537330 A CN201910537330 A CN 201910537330A CN 110244734 A CN110244734 A CN 110244734A
- Authority
- CN
- China
- Prior art keywords
- path
- convolutional neural
- neural networks
- depth convolutional
- sampling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013439 planning Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 43
- 238000005070 sampling Methods 0.000 claims abstract description 63
- 230000004888 barrier function Effects 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 210000002569 neuron Anatomy 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000005267 amalgamation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度卷积神经网络的自动驾驶车辆路径规划方法;首先构建深度卷积神经网络模型;然后采集车辆在不同驾驶环境下的障碍物栅格图,以及对应的参考路径,用于构建深度卷积神经网络模型训练、验证和测试的样例数据库;最后,将训练和测试完成的深度卷积神经网络模型用于自动驾驶车辆,向神经网络实时输入障碍物栅格图和参考路径,生成关键采样区域,并利用基于采样的路径规划算法,从关键采样区域中采样并规划生成路径。本发明克服了端到端方法中,预测误差无法克服的问题,使自动驾驶车辆的行驶轨迹更稳定和可控;也克服了从预设的路径集中选择路径方法缺乏灵活性和适应性的缺点,提高路径规划的灵活性,同时并保证了路径质量。
Description
技术领域
本发明涉及深度卷积神经网络及自动驾驶领域,更具体地,涉及一种基于深度卷积神经网络的自动驾驶车辆路径规划方法。
背景技术
近年来,无人驾驶技术逐渐成为国内外高校和企业的研究热点,也因其在商业应用测试中的频频亮相引起大众的关注。无人车在实现自动驾驶过程中,自主驾驶系统的路径规划子系统是无人车自动驾驶的关键基础,是保证无人车安全稳定,无碰撞正常行驶的前提。
深度卷积神经网络以其优越的性能已经在图像分类、目标检测、场景分割等多个领域取得巨大成功。与传统的方法相比,深度卷积神经网络能够实现端到端训练,无需手工设计特征,可以自动学习,准确率更高、鲁棒性更强。正因深度卷积神经网路的优点,其在自动驾驶的路径规划领域也得到越来越多的应用。有许多研究集中于实现端到端的规划路径生成,即将无人车前向视角的图片输入网络,直接生成有效的路径。也有一部分研究集中在利用前向视角的图像直接输出无人车的控制指令,将路径规划和运动控制融合。还有一些研究集中在利用深度卷积神经网路学习路径规划所需的关键信息,利用提取的信息加速路径规划速度,和改善规划路径的质量。
申请号为CN 108469815 A,公开了一种基于意图的计算机深度学习自动导航和驾驶方法,不需要传统意义上的高精度雷达地图,普通的地图导航结果即可用于自动驾驶。路径规划只用于意图提取,所述意图提取,对于自动驾驶,意图提取来源于路径规划。所述底层基于意图的决策,利用深度模仿学习来学习各种驾驶技能。申请号为CN 108875998 A,涉及一种自动驾驶车辆规划方法和系统,从体系上将全局路径规划、局部行为规划及运动规划进行融合,避免各模块孤立分布及缺乏逻辑层次;从信息流上采用至上而下与至下而上融合方式,提高系统鲁棒性。但是在上述方案中,第一,从全局路径中提取意图,然后利用深度卷积网络基于意图进行无人车辆的控制,相当于利用深度模仿学习实现了路径规划和控制的融合,是一种端到端的方法,此方法无法克服神经网络的预测误差对无人车辆的控制的影响。而且,训练过程需要大量样本,同时,无人车的行驶轨迹难以预测,安全性和稳定性不足;第二,通过从预设的路径集中选择适合当前环境的路径来完成路径规划任务,这种方法由于预先设定了可选的路径,较难适应复杂多变的交通环境。同时,没有针对场景进行路径的优化,在生成的路径的质量较难保证。
发明内容
本发明为克服上述现有技术中无法克服神经网络的预测误差对无人车辆的控制的影响的缺陷,提供一种基于深度卷积神经网络的自动驾驶车辆路径规划方法,利用深度卷积神经网络从参考路径和障碍物栅格图中自动提取特征并得到关键采样区域,然后利用基于采样的路径规划算法,从关键采样区域中采样并生成路径,从而克服了端到端方法中,预测误差无法克服的问题,使自动驾驶车辆的行驶轨迹更稳定和可控。
为解决上述技术问题,本发明采用的技术方案是:一种基于深度卷积神经网络的自动驾驶车辆路径规划方法,包括以下步骤:
S1.构建深度卷积神经网络模型,用于生成关键采样区域;
S2.采集车辆在不同驾驶环境下的障碍物栅格图,以及对应的参考路径,应用具有针对性的路径规划算法,根据障碍物栅格图和对应的参考路径,规划出在此障碍物栅格图和参考路径条件下的最优路径;取该最优路径上的点,作为此障碍物栅格图和参考路径所对应的关键采样区域,即输入对应的标签;之后建立用于深度卷积神经网络训练、验证和测试的样例数据库,数据库中每一个训练样例包含障碍物栅格图、参考路径和关键采样区域;
S3.训练、验证和测试深度卷积神经网络;将步骤S2中建立的数据库分为三部分:训练集、验证集和测试集;首先用训练集中的样例训练神经网络,采用随机梯度下降方法最小化损失函数进行训练,直到损失收敛;然后用测试集测试训练完成的神经网络;
S4.将测试完成的步骤S1中构建的神经网络用于路径规划;首先输入障碍物栅格图和参考路径,利用神经网络生成关键采样区域;然后使用基于采样的路径规划方法从关键采样区域中采样并生成路径。
本发明提出的路径规划方法,能基于障碍物栅格图和参考路径稳定和快速地生成高质量路径,满足自动驾驶车辆路径规划(局部)任务要求,实现自动驾驶车辆安全巡航。本发明首先构建深度卷积神经网络模型,用于生成关键采样区域;然后采集车辆在不同驾驶环境下的障碍物栅格图,以及对应的参考路径,用于构建深度卷积神经网络模型训练、验证和测试的样例数据库;最后,将训练和测试完成的深度卷积神经网络模型用于自动驾驶车辆,向神经网络实时输入障碍物栅格图和参考路径,生成关键采样区域,并利用基于采样的路径规划算法,从关键采样区域中采样并规划生成路径。
本发明利用深度卷积神经网络从参考路径和障碍物栅格图中自动提取特征并得到关键采样区域,然后利用基于采样的路径规划算法,从关键采样区域中采样并生成路径,从而克服了端到端方法中,预测误差无法克服的问题,使自动驾驶车辆的行驶轨迹更稳定和可控。同时,也克服了从预设的路径集中选择路径方法缺乏灵活性和适应性的缺点,利用深度卷积神经网络针对不同驾驶环境生成针对性的关键采样区域,并利用基于采样的路径规划算法针对性的进行路径生成和路径质量优化,提高路径规划的灵活性,同时并保证了路径质量。
本发明基于深度卷积神经网络进行自动驾驶车辆的路径规划,相比于基于深度卷积神经网络端到端的方法,本发明能够更好的应付神经网络的预测误差带来的车辆运动的不稳定性,鲁棒性更强。相比于固定路径集的路径规划方法,本发明能够更好的应付复杂多变的驾驶环境,同时规划的路径质量更稳定。
进一步的,所述的S1步骤中构建的神经网络模型包括主分支和副分支;主分支的输入为障碍物栅格图(图片),主要包括1个用于图像特征提取的深度卷积子网络,如ResNet50、VGG和Inception等、1个卷积层、1个全连接层及若干辅助特征处理层;副分支的输入为参考路径(二维矩阵),主要包括1个全连接层;主分支和副分支的输出会被拼接起来,并通过1个全连接层,最终输出关键采样区域。
进一步的,S2步骤中的参考路径定义为有序点集:RP={p0,p1,…,pn},pi∈SE(2),n∈Z+;其中对任意RP中的元素pi,pi在全局路径上,位于自动驾驶车辆前方,距离车辆几何中心的欧拉距离为ie,e为一设定的单位距离;同时,pi坐标原点为车辆坐标系的原点;为方便神经网络处理,障碍物栅格图被转化为RGB图,障碍物栅格图的所在坐标系也是车辆坐标系;
进一步的;S2步骤中的关键采样区域定义为无序点集:KR={k0,k1,…,kn},ri∈SE(2),m∈Z+,采用车辆坐标系;为生成关键采样区域,利用经过设计的基于采样的路径规划算法,如RRT*方法,以参考路径中的点为采样参考点,使用高斯偏置采样方法不断采样,直至生成的路径不再随采样次数增加而有明显改善为止,然后取此最优路径上的点构成此障碍物栅格图和参考路径条件下对应的关键采样区域KR。
进一步的,所述的S3步骤中,在每次训练过程中,用验证集进行验证,以检验是否过拟合;在训练阶段,使用均值绝对偏差作为损失函数;在测试阶段,当对预测KRp中任一点其与标签KR1中对应点间欧拉距离都成立时,认为预测正确,反之预测错误。
进一步的,所述的S4步骤中,使用基于采样的路径规划方法从关键采样区域KR中采样时,以KR中的点为采样偏置中心,采用高斯偏置方法,进行偏置采样。此采样过程类似于步骤S2中生成关键采样区域标签时,从参考路径中采样的过程。区别在于前者从关键采样区域中采样,后者从参考路径中采样。
与现有技术相比,有益效果是:
1.本发明基于深度卷积神经网络生成关键采样区域,而非直接生成规划路径,降低了网络设计和训练的困难度;
2.本发明利用深度卷积神经网络来提取障碍物栅格图中的特征,使路径规划更具有针对性,能更好地应付复杂多变场景;
3.本发明利用基于采样的路径规划算法从神经网络生成的关键采样区域中采样并生成路径,此方法能有效的克服神经网络预测误差带来的路径规划的不稳定性,使系统鲁棒性更强。也使规划的路径的质量更稳定,不会因环境变化而出现较强的波动。
附图说明
图1是本发明基于深度卷积神经网络的路径规划方法整体流程图。
图2是本发明构造的深度卷积神经网络的模型结构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
如图1所示,一种基于深度卷积神经网络的自动驾驶车辆路径规划方法,包括以下步骤:
步骤1.构建深度卷积神经网络模型,构建的神经网络模型包括主分支和副分支;主分支的输入为障碍物栅格图(图片),主要包括1个用于图像特征提取的深度卷积子网络,如ResNet50、VGG和Inception等、1个卷积层、1个全连接层及若干辅助特征处理层;副分支的输入为参考路径(二维矩阵),主要包括1个全连接层;主分支和副分支的输出会被拼接起来,并通过1个全连接层,最终输出关键采样区域。
步骤2.收集不同的障碍物栅格图、参考路径。并用基于采样的路径规划算法,RRT*算法,基于障碍物栅格图和参考路径,生成对应的最优路径,取最优路径上的点构成关键采样区域,作为与此障碍物栅格图和参考路径对应的标签。通过此步骤建立样例数据库。
步骤3.将步骤2建立的样例数据库,分为训练集,验证集和测试集,样例数量比约为7:1:2。首先用训练集训练深度卷积神经网络,训练的每一步,都需用验证集验证神经网络的效果。然后用测试集去测试神经网络的预测表现。
步骤4.利用步骤3训练并测试完成的深度卷积神经网络根据实时输入的障碍物栅格图和参考路径,预测出关键采样区域。
步骤5.将步骤4预测得到的关键采样区域整合到基于采样的路径规划算法RRT*中。该RRT*算法从关键采样区域中采样并最终生成为自动驾驶车辆所规划的路径。
如图2所示,为本发明构造的深度卷积神经网络的模型结构图;其中,图中Resnet50代表Resnet50卷积神经网络;图中1x1conv代表卷积核为1x1x256的卷积操作;图中Flatten代表将一层神经元展开成一维;图中BN批量正规化操作;图中FC代表将一层神经元与另一层神经元全连接起来。图中Concat代表将两层一维神经元合并层一层一维神经元。图中Dropout代表Dropout操作;图中Reshape代表重构一层神经元的维度。具体操作步骤包括:
1.主输入为障碍物栅格图,为(500,500,3)的RGB图片,依次经过Resnet50、(1,1,256)卷积核的卷积层、Flatten层、BN层和FC层后,被处理成256维的特征向量;
2.副输入为参考路径,为(4,3)的矩阵,依次经过flatten层和FC层后,被扩展成256维的特征向量;
3.将步骤1和2的两个256维的特征向量合并成512维特征向量,依次经过BN层、FC层、Dropout层、FC层和Reshape层后,得到神经网络的输出,即关键采样区域,为(4,3)的矩阵。
本发明针对自动驾驶车辆的路径规划任务,基于深度卷积神经网络生成关键采样区域,并结合生成的关键采样区域,利用基于采样的路径规划算法生成路径,能够提高自动驾驶车辆路径规划的速度,路径质量的稳定性和路径规划子系统的鲁棒性。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,包括以下步骤:
S1.构建深度卷积神经网络模型;
S2.采集车辆在不同驾驶环境下的障碍物栅格图,以及对应的参考路径,应用具有针对性的路径规划算法,根据障碍物栅格图和对应的参考路径,规划出在此障碍物栅格图和参考路径条件下的最优路径;取该最优路径上的点,作为此障碍物栅格图和参考路径所对应的关键采样区域,即输入对应的标签;之后建立用于深度卷积神经网络训练、验证和测试的样例数据库,数据库中每一个训练样例包含障碍物栅格图、参考路径和关键采样区域;
S3.训练、验证和测试深度卷积神经网络;将步骤S2中建立的数据库分为三部分:训练集、验证集和测试集;首先用训练集中的样例训练神经网络,采用随机梯度下降方法最小化损失函数进行训练,直到损失收敛;然后用测试集测试训练完成的神经网络;
S4.将测试完成的步骤S1中构建的神经网络用于路径规划;首先输入障碍物栅格图和参考路径,利用神经网络生成关键采样区域;然后使用基于采样的路径规划方法从关键采样区域中采样并生成路径。
2.根据权利要求1所述的基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,所述的S1步骤中构建的神经网络模型包括主分支和副分支;主分支的输入为障碍物栅格图,主要包括1个用于图像特征提取的深度卷积子网络、1个卷积层、1个全连接层及若干辅助特征处理层;副分支的输入为参考路径,主要包括1个全连接层;主分支和副分支的输出会被拼接起来,并通过1个全连接层,最终输出关键采样区域。
3.根据权利要求2所述的基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,所述的S2步骤中的参考路径定义为有序点集:RP={p0,p1,...,pn},pi∈SE(2),n∈Z+;其中对任意RP中的元素pi,pi在全局路径上,位于自动驾驶车辆前方,距离车辆几何中心的欧拉距离为ie,e为一设定的单位距离;同时,pi坐标原点为车辆坐标系的原点;为方便神经网络处理,障碍物栅格图被转化为RGB图,障碍物栅格图的所在坐标系也是车辆坐标系。
4.根据权利要求3所述的基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,所述的S2步骤中的关键采样区域定义为无序点集:KR={k0,k1,...,kn},ri∈SE(2),m∈Z+,采用车辆坐标系;为生成关键采样区域,利用经过设计的基于采样的路径规划算法,以参考路径中的点为采样参考点,使用高斯偏置采样方法不断采样,直至生成的路径不再随采样次数增加而有明显改善为止,然后取此最优路径上的点构成此障碍物栅格图和参考路径条件下对应的关键采样区域KR。
5.根据权利要求4所述的基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,所述的S3步骤中,在每次训练过程中,用验证集进行验证,以检验是否过拟合;在训练阶段,使用均值绝对偏差作为损失函数;在测试阶段,当对预测KRp中任一点其与标签KRl中对应点间欧拉距离都成立时,认为预测正确,反之预测错误。
6.根据权利要求4所述的基于深度卷积神经网络的自动驾驶车辆路径规划方法,其特征在于,所述的S4步骤中,使用基于采样的路径规划方法从关键采样区域KR中采样时,以KR中的点为采样偏置中心,采用高斯偏置方法,进行偏置采样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910537330.7A CN110244734B (zh) | 2019-06-20 | 2019-06-20 | 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910537330.7A CN110244734B (zh) | 2019-06-20 | 2019-06-20 | 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110244734A true CN110244734A (zh) | 2019-09-17 |
CN110244734B CN110244734B (zh) | 2021-02-05 |
Family
ID=67888516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910537330.7A Active CN110244734B (zh) | 2019-06-20 | 2019-06-20 | 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110244734B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609560A (zh) * | 2019-10-29 | 2019-12-24 | 广州高新兴机器人有限公司 | 移动机器人避障规划方法及计算机存储介质 |
CN110986949A (zh) * | 2019-12-04 | 2020-04-10 | 日照职业技术学院 | 一种基于人工智能平台下的路径识别方法 |
CN111002980A (zh) * | 2019-12-10 | 2020-04-14 | 苏州智加科技有限公司 | 基于深度学习的道路障碍物轨迹预测方法和系统 |
CN111289003A (zh) * | 2020-02-06 | 2020-06-16 | 广州小马智行科技有限公司 | 路径规划方法、装置、系统、存储介质和处理器 |
CN111723632A (zh) * | 2019-11-08 | 2020-09-29 | 珠海达伽马科技有限公司 | 一种基于孪生网络的船舶跟踪方法及系统 |
CN113296500A (zh) * | 2021-04-30 | 2021-08-24 | 浙江吉利控股集团有限公司 | 一种局部路径规划方法及系统 |
CN113311828A (zh) * | 2021-05-08 | 2021-08-27 | 武汉理工大学 | 一种无人车局部路径规划方法、装置、设备及存储介质 |
CN113359717A (zh) * | 2021-05-26 | 2021-09-07 | 浙江工业大学 | 一种基于深度强化学习的移动机器人导航避障方法 |
CN115617054A (zh) * | 2021-07-15 | 2023-01-17 | 中移系统集成有限公司 | 路径规划方法和系统、电子设备及可读存储介质 |
WO2023201952A1 (zh) * | 2022-04-21 | 2023-10-26 | 合众新能源汽车股份有限公司 | 确定车辆最优行驶轨迹方法和装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106767860A (zh) * | 2016-11-21 | 2017-05-31 | 江苏大学 | 一种基于启发式搜索算法来缩短智能汽车路径规划搜索时间的方法 |
CN107742304A (zh) * | 2017-10-10 | 2018-02-27 | 广州视源电子科技股份有限公司 | 移动轨迹的确定方法及装置、移动机器人及存储介质 |
CN107817798A (zh) * | 2017-10-30 | 2018-03-20 | 洛阳中科龙网创新科技有限公司 | 一种基于深度学习系统的农用机械避障方法 |
CN107862293A (zh) * | 2017-09-14 | 2018-03-30 | 北京航空航天大学 | 基于对抗生成网络的雷达生成彩色语义图像系统及方法 |
CN108415032A (zh) * | 2018-03-05 | 2018-08-17 | 中山大学 | 一种基于深度学习与激光雷达的点云语义地图构建方法 |
US20180292835A1 (en) * | 2016-12-09 | 2018-10-11 | Zendrive, Inc. | Method and system for risk modeling in autonomous vehicles |
CN108875998A (zh) * | 2018-04-20 | 2018-11-23 | 北京智行者科技有限公司 | 一种自动驾驶车辆规划方法和系统 |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109242003A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 基于深度卷积神经网络的车载视觉系统自身运动确定方法 |
CN109263639A (zh) * | 2018-08-24 | 2019-01-25 | 武汉理工大学 | 基于状态栅格法的驾驶路径规划方法 |
CN109557928A (zh) * | 2019-01-17 | 2019-04-02 | 湖北亿咖通科技有限公司 | 基于矢量地图和栅格地图的自动驾驶车辆路径规划方法 |
CN109858372A (zh) * | 2018-12-29 | 2019-06-07 | 浙江零跑科技有限公司 | 一种车道级精度自动驾驶结构化数据分析方法 |
CN109901595A (zh) * | 2019-04-16 | 2019-06-18 | 山东大学 | 一种基于单目摄像头和树莓派的自动驾驶系统及方法 |
-
2019
- 2019-06-20 CN CN201910537330.7A patent/CN110244734B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106767860A (zh) * | 2016-11-21 | 2017-05-31 | 江苏大学 | 一种基于启发式搜索算法来缩短智能汽车路径规划搜索时间的方法 |
US20180292835A1 (en) * | 2016-12-09 | 2018-10-11 | Zendrive, Inc. | Method and system for risk modeling in autonomous vehicles |
CN107862293A (zh) * | 2017-09-14 | 2018-03-30 | 北京航空航天大学 | 基于对抗生成网络的雷达生成彩色语义图像系统及方法 |
CN107742304A (zh) * | 2017-10-10 | 2018-02-27 | 广州视源电子科技股份有限公司 | 移动轨迹的确定方法及装置、移动机器人及存储介质 |
CN107817798A (zh) * | 2017-10-30 | 2018-03-20 | 洛阳中科龙网创新科技有限公司 | 一种基于深度学习系统的农用机械避障方法 |
CN108415032A (zh) * | 2018-03-05 | 2018-08-17 | 中山大学 | 一种基于深度学习与激光雷达的点云语义地图构建方法 |
CN108875998A (zh) * | 2018-04-20 | 2018-11-23 | 北京智行者科技有限公司 | 一种自动驾驶车辆规划方法和系统 |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109242003A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 基于深度卷积神经网络的车载视觉系统自身运动确定方法 |
CN109263639A (zh) * | 2018-08-24 | 2019-01-25 | 武汉理工大学 | 基于状态栅格法的驾驶路径规划方法 |
CN109858372A (zh) * | 2018-12-29 | 2019-06-07 | 浙江零跑科技有限公司 | 一种车道级精度自动驾驶结构化数据分析方法 |
CN109557928A (zh) * | 2019-01-17 | 2019-04-02 | 湖北亿咖通科技有限公司 | 基于矢量地图和栅格地图的自动驾驶车辆路径规划方法 |
CN109901595A (zh) * | 2019-04-16 | 2019-06-18 | 山东大学 | 一种基于单目摄像头和树莓派的自动驾驶系统及方法 |
Non-Patent Citations (3)
Title |
---|
RAMAZAN YENICERI等: "A New CNN Based Path Planning Algorithm Improved by the Doppler Effect", 《 DEPARTMENT OF ELECTRONICS AND COMMUNICATION ENGINEERING 》 * |
唐静: "基于卷积神经网络的道路场景感知算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
郭笑笑等: "基于无人驾驶汽车的避障算法综述", 《计算机科学》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609560A (zh) * | 2019-10-29 | 2019-12-24 | 广州高新兴机器人有限公司 | 移动机器人避障规划方法及计算机存储介质 |
CN111723632A (zh) * | 2019-11-08 | 2020-09-29 | 珠海达伽马科技有限公司 | 一种基于孪生网络的船舶跟踪方法及系统 |
CN111723632B (zh) * | 2019-11-08 | 2023-09-15 | 珠海达伽马科技有限公司 | 一种基于孪生网络的船舶跟踪方法及系统 |
CN110986949A (zh) * | 2019-12-04 | 2020-04-10 | 日照职业技术学院 | 一种基于人工智能平台下的路径识别方法 |
CN111002980A (zh) * | 2019-12-10 | 2020-04-14 | 苏州智加科技有限公司 | 基于深度学习的道路障碍物轨迹预测方法和系统 |
CN111289003A (zh) * | 2020-02-06 | 2020-06-16 | 广州小马智行科技有限公司 | 路径规划方法、装置、系统、存储介质和处理器 |
CN113296500A (zh) * | 2021-04-30 | 2021-08-24 | 浙江吉利控股集团有限公司 | 一种局部路径规划方法及系统 |
CN113311828A (zh) * | 2021-05-08 | 2021-08-27 | 武汉理工大学 | 一种无人车局部路径规划方法、装置、设备及存储介质 |
CN113311828B (zh) * | 2021-05-08 | 2023-07-25 | 武汉理工大学 | 一种无人车局部路径规划方法、装置、设备及存储介质 |
CN113359717A (zh) * | 2021-05-26 | 2021-09-07 | 浙江工业大学 | 一种基于深度强化学习的移动机器人导航避障方法 |
CN115617054A (zh) * | 2021-07-15 | 2023-01-17 | 中移系统集成有限公司 | 路径规划方法和系统、电子设备及可读存储介质 |
WO2023201952A1 (zh) * | 2022-04-21 | 2023-10-26 | 合众新能源汽车股份有限公司 | 确定车辆最优行驶轨迹方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110244734B (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110244734A (zh) | 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法 | |
CN110956651B (zh) | 一种基于视觉和振动触觉融合的地形语义感知方法 | |
KR102296507B1 (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
CN108415032B (zh) | 一种基于深度学习与激光雷达的点云语义地图构建方法 | |
Li et al. | Learning object-wise semantic representation for detection in remote sensing imagery | |
CN111862126A (zh) | 深度学习与几何算法结合的非合作目标相对位姿估计方法 | |
CN105930819A (zh) | 基于单目视觉和gps组合导航系统的实时城区交通灯识别系统 | |
CN102915039A (zh) | 一种仿动物空间认知的多机器人联合目标搜寻方法 | |
CN109948707A (zh) | 模型训练方法、装置、终端及存储介质 | |
CN110033411A (zh) | 基于无人机的公路施工现场全景图像高效拼接方法 | |
Bojarski et al. | The NVIDIA pilotnet experiments | |
Pham et al. | Road damage detection and classification with yolov7 | |
JP2020119523A (ja) | 疑似3dバウンディングボックスを検出する方法及びこれを利用した装置 | |
CN112464912B (zh) | 基于YOLO-RGGNet的机器人端人脸检测方法 | |
CN110109465A (zh) | 一种自导引车以及基于自导引车的地图构建方法 | |
CN110136227A (zh) | 高精地图的标注方法、装置、设备及存储介质 | |
CN105976395A (zh) | 一种基于稀疏表示的视频目标跟踪方法 | |
JP6810432B2 (ja) | 物体の条件に応じてモードを切り換えることができるcnn基盤で軍事目的、スマートフォン又は仮想走行に使用される疑似3dバウンディングボックスを検出する方法及びこれを利用した装置 | |
CN104680167A (zh) | 基于深度学习的极光卵位置确定方法 | |
CN111507161A (zh) | 方法和装置 | |
Zhang et al. | Multi-path fusion network for high-resolution height estimation from a single orthophoto | |
CN112833891A (zh) | 基于卫片识别的道路数据与车道级地图数据的融合方法 | |
CN114119757A (zh) | 图像处理方法、装置、设备、介质和计算机程序产品 | |
Hammas et al. | Training YOLO v4 on DOTA dataset | |
Vasudevan et al. | Talk2Nav: Long-Range Vision-and-Language Navigation in Cities. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |