CN112721950A - 一种基于深度学习的自主车辆控制方法及系统 - Google Patents
一种基于深度学习的自主车辆控制方法及系统 Download PDFInfo
- Publication number
- CN112721950A CN112721950A CN202110048353.9A CN202110048353A CN112721950A CN 112721950 A CN112721950 A CN 112721950A CN 202110048353 A CN202110048353 A CN 202110048353A CN 112721950 A CN112721950 A CN 112721950A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- deep learning
- path
- track
- strategy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000013135 deep learning Methods 0.000 title claims abstract description 55
- 238000012216 screening Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000011217 control strategy Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000005265 energy consumption Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 241000905137 Veronica schmidtiana Species 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种自动驾驶的技术领域,揭露了一种基于深度学习的自主车辆控制方法,包括:获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点;根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径;根据安全路径筛选条件对候选路径进行筛选。本发明还提供了一种基于深度学习的自主车辆控制系统。本发明实现了车辆的自动驾驶。
Description
技术领域
本发明涉及自动驾驶的技术领域,尤其涉及一种基于深度学习的自主车辆控制方法及系统。
背景技术
随着科技的发展与深度学习技术的研究,人工智能领域在近些年来取得了惊人的成就,而这些技术也逐渐渗透进了生活中的方方面面,其中就包括人们日常出行所依赖的交通工具。自动驾驶技术毫无疑问是人工智能在汽车领域进军的主要阵地。
自动驾驶,是一项旨在借助传感器收集车身与路面环境信息,依靠计算机视觉、数据融合等人工智能技术来实现车身在没有任何人类的主动操作下,能够自动规划路径并安全控制车身运动的技术,它囊括了计算机视觉、雷达技术、数据融合、机械控制、路径规划、优化理论等许多交叉学科领域。
现有自主车辆控制方法存在潜在交通危险场景单一的问题,其主要针对能见度限制的交叉路口,但实际存在的潜在交通危险场景远不止这一种;当前多数针对自主车辆控制方法的研究聚焦于给定模型的参数进行策略优化,缺乏面对复杂运行环境和多样运营需求的鲁棒性、适应性以及自学习性。
鉴于此,如何确定车辆驾驶过程中的潜在交通危险场景,并根据所确定的潜在交通危险场景进行车辆控制路径规划,成为本领域技术人员亟待解决的问题。
发明内容
本发明提供一种基于深度学习的自主车辆控制方法,通过利用结合鸟瞰图和区域生长算法的车辆位置确定算法得到当前车辆所处的位置,并利用车辆轨迹生成算法生成当前时刻车辆的轨迹,从而利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划。
为实现上述目的,本发明提供的一种基于深度学习的自主车辆控制方法,包括:
获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;
利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点;
根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;
将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径;
设置安全路径筛选条件,并根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
可选地,所述利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,包括:
在本发明一个具体实施例中,本发明在车辆上方设置若干摄影机,摄影机所拍摄的图像即为车辆位置图像;
所述基于逆透视映射的鸟瞰图生成算法流程为:
若摄影机的分辨率为M×N,角孔径为2α,将摄影机所拍摄得到的车辆位置图像转换为鸟瞰图,其中(x,y,z)为摄影机中的三维图像,(u,v)为转换后的鸟瞰图:
v(x,y,0)=kN(ψ(x,y,0)-θ+α)
其中:
γ和θ为摄像机的偏航角和倾斜角。
可选地,所述利用区域生长法处理鸟瞰图,包括:
在鸟瞰图中选取四连通区域,生长准则为从所有待分析的像素点中选择一个像素点,该点的灰度值和已经分割好区域灰度均值的差的绝对值是最小的;
在本发明一个具体实施例中,生长停止条件为:所有待分析的邻域像素点和已经分割好的区域像素点的灰度值距离大于0.06;
区域生长结果图中的白色像素对应原始图像中的可行区域,即车辆视野前方的可行驶道路。
可选地,所述分割出车辆行驶道路的盲区起始点,包括:
由于遮挡物会在车辆的可行区域内造成遮挡,导致鸟瞰图上车辆的可行区域会形成一个向内凹的豁口,因此本发明利用Canny算子提取可行区域的轮廓,对提取出的轮廓信息进行遍历,寻找轮廓中的凸包;
将这些凸包用连接线连接起来,绘制出凹区域;
求解出每个凹区域内轮廓上的凹点距离相对应的连接线上最远的点,该点即为所需的盲区与遮挡物交界的起始点。
可选地,所述利用车辆轨迹生成算法生成当前时刻车辆的轨迹,包括:
1)在车辆可行区域内定义车辆参考路径,本发明将其设置为车辆可行区域空间内一组离散的点rs,这些离散的点构成道路参考线;s是表示沿参考路径纵向移动距离的变量,结合横向位移变量d,状态(s,d)构成路径轨迹图中的一个坐标点;
2)将当前车辆在鸟瞰图中的位置(x0,y0)转换为路径轨迹图中的起始点(s0,d0):
s0=arg min(x0-rs)
d0=(x0-r(s0))Tnr(s0)
其中:
nr(s0)为路径s0的法向量;
3)获取车辆当前的航向角θ0、纵向速度v0、曲率k0和加速度a0,在本发明一个实施例中,本发明在车辆中设置速度控制器用来获取上述车辆参数;
4)生成车辆在车辆轨迹中连接初始状态i0和期望的最终状态if:
i0=(s0,s′0,d0,d′0)T
if=(sf,s′f,df,d′f)T
s′0,s′f为连接初始状态和最终状态的期望纵向速度;
d′0,d′f为连接初始状态和最终状态的期望横向速度;
连接初始状态和期望的最终状态,连接结果即为当前时刻车辆的候选轨迹。
可选地,所述利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,包括:
1)将车辆当前速度vt、车辆位置xt、盲区区域和车辆轨迹s作为基于深度学习的车辆策略控制模型的输入,网络输出层的每个神经元的输出值对应下一步动作(aj,bj,v′j)的概率,其中a表示加/减速,b表示方向;在本发明一个具体实施例中,车辆在盲区区域选择减速动作;
2)采用动作选取策略生成车辆控制指令,即以β的概率随机选择(aj,bj,v′j)的组合,并以1-β的概率选取神经网络输出最大概率值对应的动作action=arg max p((aj,bj,v′j)|it);
若t时刻最终输出的车辆控制指令为actiont,则该动作选取策略为:
其中:
|A(it)|为输出动作空间中组合(aj,bj,v′j)的数量;
3)评估控制策略轨迹,所述车辆控制策略轨迹可表示为:
τ={i1,a1,r1,...,ik,ak,rk}
其中:
ik表示控制策略轨迹中k时刻车辆状态;
ak表示k时刻车辆的控制动作;
rk为k时刻车辆采取动作ak后获得的奖励值;
所述每一步奖励值rk的计算公式为:
其中:
λ为奖励值中准时性的权重系数;
s为t时刻车辆所形式距离;
v为车辆速度;
F为车辆牵引力;
x为车辆位置;
4)基于策略梯度法的更新规则对神经网络的参数进行更新:
根据最终的神经网络参数,输出k条车辆运行轨迹作为候选路径。
可选地,所述安全路径筛选条件为:
(1)允许的最大纵向加速度amax;
(2)允许的最大曲率kmax;
(3)允许的最大向心加速度cmax;
超过上述任意限制的候选路径将被筛除;最终筛选得到的距离长度最小的路径即为车辆后续时刻的路径。
此外,为实现上述目的,本发明还提供一种基于深度学习的自主车辆控制系统,所述系统包括:
车辆位置确定装置,用于获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;
车辆处理器,用于利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点,同时根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;
自主车辆控制装置,用于将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径,从而根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有自主车辆控制程序指令,所述自主车辆控制程序指令可被一个或者多个处理器执行,以实现如上所述的基于深度学习的自主车辆控制的实现方法的步骤。
相对于现有技术,本发明提出一种基于深度学习的自主车辆控制方法,该技术具有以下优势:
首先,由于遮挡物会在车辆的可行区域内造成遮挡,导致鸟瞰图上车辆的可行区域会形成一个向内凹的豁口,因此本发明利用Canny算子提取可行区域的轮廓,对提取出的轮廓信息进行遍历,寻找轮廓中的凸包,然后将这些凸包用连接线连接起来,绘制出凹区域;求解出每个凹区域内轮廓上的凹点距离相对应的连接线上最远的点,该点即为所需的盲区与遮挡物交界的起始点;根据所确定的盲区区域,在后续车辆路径规划中选择在盲区区域进行减速处理,提高自主车辆控制的安全性。
同时本发明提出一种基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,将车辆当前速度vt、车辆位置xt、盲区区域和车辆轨迹s作为基于深度学习的车辆策略控制模型的输入,网络输出层的每个神经元的输出值对应下一步动作(aj,bj,v′j)的概率,其中a表示加/减速,b表示方向,为避免陷入局部最优策略,采用动作选取策略生成车辆控制指令,即以β的概率随机选择(aj,bj,v′j)的组合,并以1-β的概率选取神经网络输出最大概率值对应的动作action=arg max p((aj,bj,v′j)|it);若t时刻最终输出的车辆控制指令为actiont,则该动作选取策略为:
其中:|A(it)|为输出动作空间中组合(aj,bj,v′j)的数量;同时评估控制策略轨迹,所述车辆控制策略轨迹可表示为:
τ={i1,a1,r1,...,ik,ak,rk}
其中:ik表示控制策略轨迹中k时刻车辆状态;ak表示k时刻车辆的控制动作;rk为k时刻车辆采取动作ak后获得的奖励值;所述每一步奖励值rk的计算公式为:
其中:λ为奖励值中准时性的权重系数;s为t时刻车辆所形式距离;v为车辆速度;F为车辆牵引力;x为车辆位置;并基于策略梯度法的更新规则对神经网络的参数进行更新:
根据最终的神经网络参数,输出k条车辆运行轨迹作为候选路径;相较于传统算法,本发明所述基于深度学习的车辆策略控制模型通过对车辆运行历史数据的持续学习,不断优化神经网络参数,同时采取动作选取策略生成车辆控制指令,即以β的概率随机选择(aj,bj,v′j)的组合,并以1-β的概率选取神经网络输出最大概率值对应的动作,将车辆能耗Et作为策略控制模型的奖励值,其值越大,奖励值越低,实现在每个离散时间点,根据当前车辆的状态(aj,bj,v′j)选择下一时间点车辆的动作,得到若干下一时间点可行的车辆动作,通过循环执行上述步骤,得到若干车辆从当前所在位置到目的位置的动作策略路径,通过计算不同动作策略路径的车辆能耗,将车辆能耗最小的动作策略路径作为最终的车辆路径,在减少自主车辆控制能耗的基础上实现自主车辆控制。
附图说明
图1为本发明一实施例提供的一种基于深度学习的自主车辆控制方法的流程示意图;
图2为本发明一实施例提供的一种基于深度学习的自主车辆控制系统的结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
通过利用结合鸟瞰图和区域生长算法的车辆位置确定算法得到当前车辆所处的位置,并利用车辆轨迹生成算法生成当前时刻车辆的轨迹,从而利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划。参照图1所示,为本发明一实施例提供的基于深度学习的自主车辆控制方法示意图。
在本实施例中,基于深度学习的自主车辆控制方法包括:
S1、获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图。
首先,本发明获取车辆位置图像,在本发明一个具体实施例中,本发明在车辆上方设置若干摄影机,摄影机所拍摄的图像即为车辆位置图像;
所述基于逆透视映射的鸟瞰图生成算法流程为:
若摄影机的分辨率为M×N,角孔径为2α,将摄影机所拍摄得到的车辆位置图像转换为鸟瞰图,其中(x,y,z)为摄影机中的三维图像,(u,v)为转换后的鸟瞰图:
v(x,y,0)=kN(ψ(x,y,0)-θ+α)
其中:
γ和θ为摄像机的偏航角和倾斜角。
S2、利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点。
进一步地,本发明利用区域生长法处理鸟瞰图,详细地,本发明在鸟瞰图中选取四连通区域,生长准则为从所有待分析的像素点中选择一个像素点,该点的灰度值和已经分割好区域灰度均值的差的绝对值是最小的;在本发明一个具体实施例中,生长停止条件为:所有待分析的邻域像素点和已经分割好的区域像素点的灰度值距离大于0.06;区域生长结果图中的白色像素对应原始图像中的可行区域,即车辆视野前方的可行驶道路。
由于遮挡物会在车辆的可行区域内造成遮挡,导致鸟瞰图上车辆的可行区域会形成一个向内凹的豁口,因此本发明利用Canny算子提取可行区域的轮廓,对提取出的轮廓信息进行遍历,寻找轮廓中的凸包,然后将这些凸包用连接线连接起来,绘制出凹区域;求解出每个凹区域内轮廓上的凹点距离相对应的连接线上最远的点,该点即为所需的盲区与遮挡物交界的起始点。
S3、根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹。
进一步地,根据所述车辆可行区域,本发明利用车辆轨迹生成算法生成当前时刻车辆的轨迹,所述车辆轨迹生成算法流程为:
1)在车辆可行区域内定义车辆参考路径,本发明将其设置为车辆可行区域空间内一组离散的点rs,这些离散的点构成道路参考线;s是表示沿参考路径纵向移动距离的变量,结合横向位移变量d,状态(s,d)构成路径轨迹图中的一个坐标点;
2)将当前车辆在鸟瞰图中的位置(x0,y0)转换为路径轨迹图中的起始点(s0,d0):
s0=arg min(x0-rs)
d0=(x0-r(s0))Tnr(s0)
其中:
nr(s0)为路径s0的法向量;
3)获取车辆当前的航向角θ0、纵向速度v0、曲率k0和加速度a0,在本发明一个实施例中,本发明在车辆中设置速度控制器用来获取上述车辆参数;
4)生成车辆在车辆轨迹中连接初始状态i0和期望的最终状态if:
i0=(s0,s′0,d0,d′0)T
if=(sf,s′f,df,d′f)T
s′0,s′f为连接初始状态和最终状态的期望纵向速度;
d′0,d′f为连接初始状态和最终状态的期望横向速度;
连接初始状态和期望的最终状态,连接结果即为当前时刻车辆的候选轨迹。
S4、将当前时刻车辆的状态和轨迹作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径。
进一步地,本发明将当前时刻车辆的状态和轨迹作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,所述利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径规划的流程为:
1)将车辆当前速度vt、车辆位置xt、盲区区域以及车辆轨迹s作为基于深度学习的车辆策略控制模型的输入,网络输出层的每个神经元的输出值对应下一步动作(aj,bj,v′j)的概率,其中a表示加/减速,b表示方向;在本发明一个具体实施例中,车辆在盲区区域选择减速动作;
2)采用动作选取策略生成车辆控制指令,即以β的概率随机选择(aj,bj,v′j)的组合,并以1-β的概率选取神经网络输出最大概率值对应的动作action=arg max p((aj,bj,v′j)|it);
若t时刻最终输出的车辆控制指令为actiont,则该动作选取策略为:
其中:
|A(it)|为输出动作空间中组合(aj,bj,v′j)的数量;
3)评估控制策略轨迹,所述车辆控制策略轨迹可表示为:
τ={i1,a1,r1,...,ik,ak,rk}
其中:
ik表示控制策略轨迹中k时刻车辆状态;
ak表示k时刻车辆的控制动作;
rk为k时刻车辆采取动作ak后获得的奖励值;
所述每一步奖励值rk的计算公式为:
其中:
λ为奖励值中准时性的权重系数;
s为t时刻车辆所形式距离;
v为车辆速度;
F为车辆牵引力;
x为车辆位置;
4)基于策略梯度法的更新规则对神经网络的参数进行更新:
根据最终的神经网络参数,输出k条车辆运行轨迹作为候选路径。
S5、设置安全路径筛选条件,并根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
进一步地,本发明设置安全路径筛选条件,所述安全路径筛选条件如下所示:
(1)允许的最大纵向加速度amax;
(2)允许的最大曲率kmax;
(3)允许的最大向心加速度cmax;
超过上述任意限制的候选路径将被筛除;最终筛选得到的距离长度最小的路径即为车辆后续时刻的路径。
下面通过一个算法实验来说明本发明的具体实施方式,并对发明的处理方法进行测试。本发明算法的硬件测试环境为:Inter(R)Core(TM)i7-6700K CPU,软件为Matlab2018a;对比方法为基于YOLOv3的车辆控制方法以及基于Faster-rcnn的车辆控制方法。
在本发明所述算法实验中,本发明利用不同的车辆控制方法对车辆进行控制,将车辆自动驾驶的安全程度作为不同方法的评价指标。
根据实验结果,基于YOLOv3的车辆控制方法的车辆驾驶安全程度为76.35%,基于Faster-rcnn的车辆控制方法的车辆驾驶安全程度为80.12%,本发明所述方法的车辆驾驶安全程度为84.11%,相较于对比算法,本发明所提出的基于深度学习的自主车辆控制方法具有更高的车辆自动驾驶安全性。
发明还提供一种基于深度学习的自主车辆控制系统。参照图2所示,为本发明一实施例提供的基于深度学习的自主车辆控制系统的内部结构示意图。
在本实施例中,所述基于深度学习的自主车辆控制系统1至少包括车辆位置确定装置11、车辆处理器12、自主车辆控制装置13,通信总线14,以及网络接口15。
其中,车辆位置确定装置11可以是PC(Personal Computer,个人电脑),或者是智能手机、平板电脑、便携计算机等终端设备,也可以是一种服务器等。
车辆处理器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。车辆处理器12在一些实施例中可以是基于深度学习的自主车辆控制系统1的内部存储单元,例如该基于深度学习的自主车辆控制系统1的硬盘。车辆处理器12在另一些实施例中也可以是基于深度学习的自主车辆控制系统1的外部存储设备,例如基于深度学习的自主车辆控制系统1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,车辆处理器12还可以既包括基于深度学习的自主车辆控制系统1的内部存储单元也包括外部存储设备。车辆处理器12不仅可以用于存储安装于智能道路交通追踪管理系统1的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
自主车辆控制装置13在一些实施例中可以是一中央处理器(Central ProcessingUnit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行车辆处理器12中存储的程序代码或处理数据,例如自主车辆控制程序指令等。
通信总线14用于实现这些组件之间的连接通信。
网络接口15可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该系统1与其他电子设备之间建立通信连接。
可选地,该系统1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在基于深度学习的自主车辆控制系统1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-15以及基于深度学习的自主车辆控制系统1,本领域技术人员可以理解的是,图1示出的结构并不构成对基于深度学习的自主车辆控制系统1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,车辆处理器12中存储有自主车辆控制程序指令;自主车辆控制装置13执行车辆处理器12中存储的自主车辆控制程序指令的步骤,与基于深度学习的自主车辆控制方法的实现方法相同,在此不作类述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有自主车辆控制程序指令,所述自主车辆控制程序指令可被一个或多个处理器执行,以实现如下操作:
获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;
利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点;
根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;
将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径;
设置安全路径筛选条件,并根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (9)
1.一种基于深度学习的自主车辆控制方法,其特征在于,所述方法包括:
获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;
利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点;
根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;
将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径;
设置安全路径筛选条件,并根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
3.如权利要求2所述的一种基于深度学习的自主车辆控制方法,其特征在于,所述利用区域生长法处理鸟瞰图,包括:
在鸟瞰图中选取四连通区域,生长准则为从所有待分析的像素点中选择一个像素点,该点的灰度值和已经分割好区域灰度均值的差的绝对值是最小的;
所有待分析的邻域像素点和已经分割好的区域像素点的灰度值距离大于0.06时停止生长;
区域生长结果图中的白色像素对应原始图像中的可行区域,即车辆视野前方的可行驶道路。
4.如权利要求3所述的一种基于深度学习的自主车辆控制方法,其特征在于,所述分割出车辆行驶道路的盲区起始点,包括:
利用Canny算子提取可行区域的轮廓,对提取出的轮廓信息进行遍历,寻找轮廓中的凸包;
将这些凸包用连接线连接起来,绘制出凹区域;
求解出每个凹区域内轮廓上的凹点距离相对应的连接线上最远的点,该点即为所需的盲区与遮挡物交界的起始点。
5.如权利要求4所述的一种基于深度学习的自主车辆控制方法,其特征在于,所述利用车辆轨迹生成算法生成当前时刻车辆的轨迹,包括:
1)在车辆可行区域内定义车辆参考路径,将其设置为车辆可行区域空间内一组离散的点rs,这些离散的点构成道路参考线;s是表示沿参考路径纵向移动距离的变量,结合横向位移变量d,状态(s,d)构成路径轨迹图中的一个坐标点;
2)将当前车辆在鸟瞰图中的位置(x0,y0)转换为路径轨迹图中的起始点(s0,d0):
s0=arg min(x0-rs)
d0=(x0-r(s0))Tnr(s0)
其中:
nr(s0)为路径s0的法向量;
3)获取车辆当前的航向角θ0、纵向速度v0、曲率k0和加速度a0;
4)生成车辆在车辆轨迹中连接初始状态i0和期望的最终状态if:
i0=(s0,s′0,d0,d′0)T
if=(sf,sf,df,df)T
s′0,s′f为连接初始状态和最终状态的期望纵向速度;
d′0,d′f为连接初始状态和最终状态的期望横向速度;
连接初始状态和期望的最终状态,连接结果即为当前时刻车辆的候选轨迹。
6.如权利要求5所述的一种基于深度学习的自主车辆控制方法,其特征在于,所述利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,包括:
1)将车辆当前速度vt、车辆位置xt、盲区区域和车辆轨迹s作为基于深度学习的车辆策略控制模型的输入,网络输出层的每个神经元的输出值对应下一步动作(aj,bj,v′j)的概率,其中a表示加/减速,b表示方向;
2)采用动作选取策略生成车辆控制指令,即以β的概率随机选择(aj,bj,v′j)的组合,并以1-β的概率选取神经网络输出最大概率值对应的动作action=arg max p((aj,bj,v′j)|it);
若t时刻最终输出的车辆控制指令为actiont,则该动作选取策略为:
其中:
|A(it)|为输出动作空间中组合(aj,bj,v′j)的数量;
3)评估控制策略轨迹,所述车辆控制策略轨迹可表示为:
τ={i1,a1,r1,...,ik,ak,rk}
其中:
ik表示控制策略轨迹中k时刻车辆状态;
ak表示k时刻车辆的控制动作;
rk为k时刻车辆采取动作ak后获得的奖励值;
所述每一步奖励值rk的计算公式为:
其中:
λ为奖励值中准时性的权重系数;
s为t时刻车辆所形式距离;
v为车辆速度;
F为车辆牵引力;
x为车辆位置;
4)基于策略梯度法的更新规则对神经网络的参数进行更新:
根据最终的神经网络参数,输出k条车辆运行轨迹作为候选路径。
7.如权利要求6所述的一种基于深度学习的自主车辆控制方法,其特征在于,所述安全路径筛选条件为:
(1)允许的最大纵向加速度amax;
(2)允许的最大曲率kmax;
(3)允许的最大向心加速度cmax;
超过上述任意限制的候选路径将被筛除;最终筛选得到的距离长度最小的路径即为车辆后续时刻的路径。
8.一种基于深度学习的自主车辆控制系统,其特征在于,所述系统包括:
车辆位置确定装置,用于获取车辆位置图像,并利用基于逆透视映射的鸟瞰图生成算法对所述车辆位置图像处理,生成车辆位置鸟瞰图;
车辆处理器,用于利用区域生长法处理鸟瞰图,分割出车辆可行区域以及车辆行驶道路的盲区起始点,同时根据车辆可行区域,利用车辆轨迹生成算法生成当前时刻车辆的轨迹;
自主车辆控制装置,用于将当前时刻车辆的状态、轨迹以及盲区区域作为输入,利用基于深度学习的车辆策略控制模型进行下一时刻车辆路径的规划,得到若干候选路径,从而根据安全路径筛选条件对候选路径进行筛选,筛选得到的路径即为车辆后续时刻的路径。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有自主车辆控制程序指令,所述自主车辆控制程序指令可被一个或者多个处理器执行,以实现如权利要求1至7中任一项所述的一种基于深度学习的自主车辆控制的实现方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110048353.9A CN112721950A (zh) | 2021-01-14 | 2021-01-14 | 一种基于深度学习的自主车辆控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110048353.9A CN112721950A (zh) | 2021-01-14 | 2021-01-14 | 一种基于深度学习的自主车辆控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112721950A true CN112721950A (zh) | 2021-04-30 |
Family
ID=75593002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110048353.9A Withdrawn CN112721950A (zh) | 2021-01-14 | 2021-01-14 | 一种基于深度学习的自主车辆控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112721950A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200175315A1 (en) * | 2018-11-30 | 2020-06-04 | Qualcomm Incorporated | Early fusion of camera and radar frames |
CN113255520A (zh) * | 2021-05-25 | 2021-08-13 | 华中科技大学 | 基于双目视觉和深度学习的车辆避障方法与电子设备 |
CN113593284A (zh) * | 2021-07-29 | 2021-11-02 | 三一重型装备有限公司 | 矿井巷道内车辆的路径规划方法及装置、电子设备 |
CN114399743A (zh) * | 2021-12-10 | 2022-04-26 | 浙江零跑科技股份有限公司 | 一种障碍物未来轨迹的生成方法 |
CN114407925A (zh) * | 2022-01-20 | 2022-04-29 | 江苏大学 | 一种基于时空鸟瞰图和策略梯度算法的自动驾驶轨迹规划系统及方法 |
CN114898585A (zh) * | 2022-04-20 | 2022-08-12 | 清华大学 | 基于路口多视角的车辆轨迹预测规划方法及系统 |
-
2021
- 2021-01-14 CN CN202110048353.9A patent/CN112721950A/zh not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200175315A1 (en) * | 2018-11-30 | 2020-06-04 | Qualcomm Incorporated | Early fusion of camera and radar frames |
US11899099B2 (en) * | 2018-11-30 | 2024-02-13 | Qualcomm Incorporated | Early fusion of camera and radar frames |
CN113255520A (zh) * | 2021-05-25 | 2021-08-13 | 华中科技大学 | 基于双目视觉和深度学习的车辆避障方法与电子设备 |
CN113593284A (zh) * | 2021-07-29 | 2021-11-02 | 三一重型装备有限公司 | 矿井巷道内车辆的路径规划方法及装置、电子设备 |
CN113593284B (zh) * | 2021-07-29 | 2022-08-12 | 三一重型装备有限公司 | 矿井巷道内车辆的路径规划方法及装置、电子设备 |
CN114399743A (zh) * | 2021-12-10 | 2022-04-26 | 浙江零跑科技股份有限公司 | 一种障碍物未来轨迹的生成方法 |
CN114399743B (zh) * | 2021-12-10 | 2024-05-28 | 浙江零跑科技股份有限公司 | 一种障碍物未来轨迹的生成方法 |
CN114407925A (zh) * | 2022-01-20 | 2022-04-29 | 江苏大学 | 一种基于时空鸟瞰图和策略梯度算法的自动驾驶轨迹规划系统及方法 |
CN114407925B (zh) * | 2022-01-20 | 2024-05-14 | 江苏大学 | 一种基于时空鸟瞰图和策略梯度算法的自动驾驶轨迹规划系统及方法 |
CN114898585A (zh) * | 2022-04-20 | 2022-08-12 | 清华大学 | 基于路口多视角的车辆轨迹预测规划方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112721950A (zh) | 一种基于深度学习的自主车辆控制方法及系统 | |
CN111666921B (zh) | 车辆控制方法、装置、计算机设备和计算机可读存储介质 | |
Do et al. | Real-time self-driving car navigation using deep neural network | |
CN108216229B (zh) | 交通工具、道路线检测和驾驶控制方法及装置 | |
CN105892471B (zh) | 汽车自动驾驶方法和装置 | |
CN108227710B (zh) | 自动驾驶控制方法和装置、电子设备、程序和介质 | |
US20220343138A1 (en) | Analysis of objects of interest in sensor data using deep neural networks | |
CN111507157A (zh) | 基于强化学习而在自动驾驶时优化资源分配的方法及装置 | |
DE102020113280A1 (de) | Automatische erzeugung von grundwahrheitsdaten zum trainieren oder umzutrainieren eines oder mehrerer modelle für maschinelles lernen | |
CN114787739A (zh) | 使用向量化输入的智能体轨迹预测 | |
US20220373354A1 (en) | Automatic generation of vector map for vehicle navigation | |
CN110986945B (zh) | 基于语义高度地图的局部导航方法和系统 | |
US20210394749A1 (en) | Arithmetic operation device for vehicle | |
CN114945952A (zh) | 使用神经网络从相机图像和已知深度数据生成深度 | |
CN112654998B (zh) | 一种车道线检测方法和装置 | |
US20220146277A1 (en) | Architecture for map change detection in autonomous vehicles | |
Dewangan et al. | Towards the design of vision-based intelligent vehicle system: methodologies and challenges | |
CN116529561A (zh) | 基于单目的对象检测的系统和方法 | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
CN115083199B (zh) | 一种车位信息确定方法及其相关设备 | |
Kuan et al. | Pothole detection and avoidance via deep learning on edge devices | |
US20230377160A1 (en) | Method and electronic device for achieving accurate point cloud segmentation | |
Guo et al. | Road environment perception for safe and comfortable driving | |
US11884268B2 (en) | Motion planning in curvilinear coordinates for autonomous vehicles | |
CN114821537A (zh) | 活动意图预测方法、装置及无人车 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210430 |
|
WW01 | Invention patent application withdrawn after publication |