CN113920484A - 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法 - Google Patents

基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法 Download PDF

Info

Publication number
CN113920484A
CN113920484A CN202111204252.2A CN202111204252A CN113920484A CN 113920484 A CN113920484 A CN 113920484A CN 202111204252 A CN202111204252 A CN 202111204252A CN 113920484 A CN113920484 A CN 113920484A
Authority
CN
China
Prior art keywords
network
feature
value
depth
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111204252.2A
Other languages
English (en)
Inventor
卢笑
竺一薇
明月
周炫余
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Normal University
Original Assignee
Hunan Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Normal University filed Critical Hunan Normal University
Priority to CN202111204252.2A priority Critical patent/CN113920484A/zh
Publication of CN113920484A publication Critical patent/CN113920484A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于单目RGB‑D特征和强化学习的端到端自动驾驶决策方法,包括:获取RGB图像,将RGB图像输入至预先训练好的图像特征提取网络和预先训练好的单目深度特征提取网络;预先训练好的图像特征提取网络对RGB图像进行特征提取得到第一图像特征,预先训练好单目深度特征提取网络对RGB图像进行特征提取得到第一深度特征;对图像特征和深度特征进行RGB‑D特征融合,得到融合后的第一特征向量;将融合后的第一特征向量和预先存储的历史动作向量拼接得到第一状态向量,并将第一状态向量输入至预先训练好的智能体网络得到Q值,根据Q值进行自动驾驶决策。提高智能体环境感知的能力,进而增强自动驾驶决策能力。

Description

基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法
技术领域
本发明属于自动驾驶技术领域,特别是涉及一种基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法。
背景技术
自动驾驶系统采用先进的通信、计算机、网络和控制技术,对车辆实现实时、连续控制,采用现代通信手段,直接面对车辆,可实现车地间的双向数据通信,传输速率快,信息量大,后续追踪车辆和控制中心可以及时获知前行车辆的确切位置,使得运行管理更加灵活,控制更为有效,更加适应车辆自动驾驶的需求,在近十年中,自动驾驶领域相关研究得到政府、科研机构、车企及互联网企业的人工智能产业的高度关注而持续推进,其中,自动驾驶决策技术是解决主动安全和减少交通事故的关键技术。
传统的自动驾驶策略建立在规定的交通规则基础之上,需要准确识别场景中的交通标志、信号灯、行人和车辆等障碍物,分割出车道线及可通行的道路等,进而利用既定的规则进行控制决策,然而数学建模的浅层逻辑规则在面对真实世界的复杂路况往往收效甚微,自动驾驶过程中的环境感知能力较差,而使用深度传感器会带来异构数据融合问题,还会增加自动驾驶成本。
发明内容
针对以上技术问题,本发明提供一种可提高智能体环境感知的能力,进而增强自动驾驶决策能力的基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法。
本发明解决其技术问题采用的技术方案是:
基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,方法包括以下步骤:
步骤S500:获取RGB图像,将RGB图像输入至预先训练好的图像特征提取网络和预先训练好的单目深度特征提取网络;
步骤S600:预先训练好的图像特征提取网络对RGB图像进行特征提取得到第一图像特征,预先训练好的单目深度特征提取网络对RGB图像进行特征提取得到第一深度特征;
步骤S700:对图像特征和第一深度特征进行RGB-D特征融合,得到融合后的第一特征向量;
步骤S800:将融合后的第一特征向量和预先存储的历史动作向量拼接得到第一状态向量,并将第一状态向量输入至预先训练好的智能体网络得到Q值,根据Q值进行自动驾驶决策。
优选地,步骤S500之前还包括:
步骤S100:搭建图像特征提取网络、单目深度特征提取网络和智能体网络;
步骤S200:获取RGB训练图像It和It-1,将It输入至图像特征提取网络得到第二图像特征,将It和It-1输入至单目深度特征提取网络进行训练得到第二深度特征;
步骤S300:对第二图像特征和第二深度特征进行RGB-D特征融合,得到融合后的第二特征向量;
步骤S400:将融合后的第二特征向量和预先存储的历史动作向量拼接得到第二状态向量,根据第二状态向量得到训练样本组放入经验回放池,从经验回放池中获取预设组训练样本,根据预设组训练样本和预设的目标网络对智能体网络进行训练得到训练好的智能体网络。
优选地,单目深度特征提取网络包括深度网络和位姿网络,深度网络包括第一编码模块和第一解码模块,位姿网络包括第二编码模块和第二解码模块,步骤S200中将It和It-1输入至单目深度特征提取网络得到第二深度特征,包括:
步骤S210:第一编码模块采用深度残差网络对It进行特征提取输出特征图,第一解码模块对第一编码模块输出的特征图上采样至不同的尺寸得到不同的尺寸的特征图,并将不同的尺寸的特征图分别上采样至原图大小;
步骤S220:将上采样至原图大小后的多个特征图沿通道拼接得到第二深度特征;
步骤S230:第二编码模块采用深度残差网络对It和It-1进行编码后输入至第二解码模块,第二解码模块对编码后的It和It-1进行解码,回归出解码后的It和It-1中对应每个像素点的运动信息;
步骤S240:根据对应每个像素点的运动信息,利用全局平均池化求得It-1到It的轴角与平移向量位姿,并通过罗德里格旋转公式得到位姿旋转矩阵
Figure BDA0003306156320000031
步骤S250:根据位姿旋转矩阵
Figure BDA0003306156320000032
和预设的第一损失函数得到光度重投影误差,根据光度重投影误差进行反向传播优化单目深度特征提取网络的网络参数。
优选地,步骤S250中根据位姿旋转矩阵
Figure BDA0003306156320000033
和预设的第一损失函数得到光度重投影误差,包括:
Figure BDA0003306156320000034
其中,It-1→t是利用位姿旋转矩阵
Figure BDA0003306156320000035
预测深度图Dt及相机内参K将It-1映射至t时刻的结果,具体为:
Figure BDA0003306156320000036
其中,proj函数是利用Dt
Figure BDA0003306156320000037
和K重投影到It-1的2D像素坐标,·表示采样算子;
pe(·)表示预设的第一损失函数,具体为:
Figure BDA0003306156320000038
其中,SSIM(·)表示结构相似性损失,·1表示L1范数损失,α是用于平衡结构相似性损失和范数损失两种损失重要性的参数。
优选地,训练样本组包括第二状态向量、最佳动作、奖励和下一状态,步骤S400中根据第二状态向量得到训练样本组,包括:
(1)根据第二状态向量确定最佳动作,具体为:
Figure BDA0003306156320000039
其中,st表示第二状态向量,at表示最佳动作,ε表示贪婪策略概率参数;
(2)根据最佳动作和预设的奖励函数确定奖励:
Figure BDA00033061563200000310
其中,ct表示t时刻车辆是否发生碰撞,其中,ct=1表示有碰撞发生,否则没有,vt表示t时刻的行驶速度,“其它”表示碰撞传感器没有反馈碰撞事件或车速vt≤50km/h的情况。
优选地,预设的目标网络和智能体网络的结构一样,步骤S400中根据预设组训练样本和预设的目标网络对智能体网络进行训练得到训练好的智能体网络,包括:
步骤S410:将预设组训练样本中的预设数量个状态向量分别输入至智能体网络中,得到动作对应的Q(s,a|θ)值,s、a、θ分别表示当前状态、当前状态对应的动作和所述智能体网络的参数;
步骤S420:将预设组训练样本中的预设数量个下一状态输入至预设的目标网络中,得到动作对应的
Figure BDA0003306156320000041
值,s′、a′、θ-分别表示下一状态、下一状态对应的动作和所述预设的目标网络的参数;
步骤S430:从预设数量个
Figure BDA0003306156320000042
值中取最大的值,结合奖励,得到目标Q值;
步骤S440:根据动作对应的Q(s,a|θ)值、目标Q值和预设的第二损失函数得到损失值,根据损失值进行反向传播更新智能体网络的网络参数并迭代时间步长,当时间步长达到预设值时,将智能体网络的网络参数更新到目标网络的网络参数。
优选地,步骤S440中所述预设的第二损失函数具体为:
L(s,a|θ)=(yi-Q(s,a|θ))2
其中,Q(s,a|θ)表示s状态下动作a对应的Q值,yi表示目标Q值,L(s,a|θ)表示第二损失函数的损失值,其中,yi的表达式为:
Figure BDA0003306156320000043
其中,r为奖励,γ为系数,
Figure BDA0003306156320000044
为预设数量个
Figure BDA0003306156320000045
值中的最大值。优选地,步骤S300中第二特征向量的表达式为:
ft=flatten(fconv(cat(Fi,ds(Fd))))
其中,ds(·)表示双线性插值下采样操作,cat(·)表示沿通道方向拼接操作,fconv表示后接批归一化和ReLu非线性激活函数的卷积核为1×1×(Ci+Cd)的卷积操作,flatten(·)表示张量展平操作,Fi为第二图像特征,Fd为第二深度特征,ft为融合后的第二特征向量。
优选地,步骤S800中将第一状态向量输入至预先训练好的智能体网络得到Q值,包括:
步骤S810:第一状态向量经过全连接层映射至预设维度,得到预设维度的第一状态向量;
步骤S820:将预设维度的第一状态向量分别输入至值网络和优势函数网络,分别得到当前时刻的状态值和表示该状态下的每个动作的重要性的优势值;
步骤S830:根据当前时刻的状态值和优势值得到对应于每个动作的Q值。
优选地,步骤S830具体为:
Figure BDA0003306156320000051
其中,Q(s,a)表示在状态s下采取动作a的回报值,V(s)表示当前时刻的状态值,A(s,a)表示该状态下的每个动作的重要性的优势值,A(s,a')表示状态s下的所有动作的重要性的优势值。
上述基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,预先训练好的图像特征提取网络对RGB图像进行特征提取得到图像特征,预先训练好的单目深度特征提取网络对RGB图像进行特征提取得到深度特征,对联合图像特征与单目深度特征两种特征进行RGB-D特征融合并以此作为智能体网络的输入,提高了自动驾驶过程中的环境感知能力,增强智能体对复杂环境的决策能力,同时避免使用深度传感器所带来的异构数据融合问题,以及降低自动驾驶成本。
附图说明
图1为本发明一实施例提供的基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法的流程图;
图2为本发明另一实施例提供的基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法的整体网络的结构示意图;
图3为本发明又一实施例中提供的基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法的马尔科夫决策过程示意图;
图4为本发明又一实施例中测试场景中的起点和终点示意图;
图5为本发明又一实施例中所有训练片段的奖励分布曲线图;
图6为本发明又一实施例中测试奖励分布图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,方法包括以下步骤:
步骤S500:获取RGB图像,将RGB图像输入至预先训练好的图像特征提取网络和预先训练好的单目深度特征提取网络;
步骤S600:预先训练好的图像特征提取网络对RGB图像进行特征提取得到第一图像特征,预先训练好的单目深度特征提取网络对RGB图像进行特征提取得到第一深度特征;
步骤S700:对图像特征和第一深度特征进行RGB-D特征融合,得到融合后的第一特征向量;
步骤S800:将融合后的第一特征向量和预先存储的历史动作向量拼接得到第一状态向量,并将第一状态向量输入至预先训练好的智能体网络得到Q值,根据Q值进行自动驾驶决策。
上述基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,预先训练好的图像特征提取网络对RGB图像进行特征提取得到图像特征,预先训练好的单目深度特征提取网络对RGB图像进行特征提取得到深度特征,对联合图像特征与单目深度特征两种特征进行RGB-D特征融合并以此作为智能体网络的输入,提高了自动驾驶过程中的环境感知能力,增强智能体对复杂环境的决策能力,同时避免使用深度传感器所带来的异构数据融合问题,以及降低自动驾驶成本。
在一个实施例中,步骤S500之前还包括:
步骤S100:搭建图像特征提取网络、单目深度特征提取网络和智能体网络。
具体地,采用VGG-M(Visual Geometry Group M-Network,视觉几何群M网络)的前5层卷积层作为图像特征提取网络,网络的输入为1024x320的RGB图像。图像特征提取网络的网络结构参数如表1所示,左侧是输入特征图的维度,右侧是各个网络模块,W、H、C分别表示宽度、高度和通道数。其中卷积模块的第一个参数表示滤波器的数量,“st”和“pad”分别表示卷积步长和空间填充,LRN表示局部响应归一化层,x2 pool表示最大池化下采样因子为2,×3表示采用同样的卷积层重复三次,所有权重层均采用ReLU函数作为非线性激活函数。
表1图像特征提取网络结构
Figure BDA0003306156320000071
单目深度特征提取网络包括深度网络和位姿网络两部分,深度网络包括第一编码模块Fd和第一解码模块Gd,位姿网络包括第二编码模块Fp和第二解码模块Gp,其网络结构参数如表2所示。
表2深度估计网络结构
Figure BDA0003306156320000072
Figure BDA0003306156320000081
智能体网络包括输入层、全连接层、值网络、优势函数网络和聚合层。
整体网络结构包含四部分,如图2所示。第一部分是图像特征提取网络,如虚线框1所示;第二部分是单目深度特征提取网络,如虚线框2所示;第三部分是特征融合模块,如虚线框3所示;如前,前三部分的网络结构联合起来实现将观测转化为状态的功能,其参数用α表示。第四部分是智能体网络,如虚线框4所示,这部分网络接收融合后的特征并输出相应状态下的最优决策动作,其参数包括值函数网络参数β、优势函数网络参数μ和公共参数γ,在此合成表示为θ。
步骤S200:获取RGB训练图像It和It-1,将It输入至图像特征提取网络得到第二图像特征,将It和It-1输入至单目深度特征提取网络得到第二深度特征。
具体地,整体网络训练分为两个阶段:第一阶段,利用模拟交互环境生成连续帧图像,在给定相机内参数的前提下,训练深度估计网络;第二阶段,利用ImageNet数据集预训练的VGG-M模型对图像特征提取网络进行初始化,同时联合第一阶段训练得到的深度估计网络参数,接入后续特征融合模块和智能体网络,以较大的学习率对特征融合模块和智能体网络进行训练,以较小的学习率对图像特征提取网络和深度特征提取网络进行微调,以训练得到最优决策模型。
在一个实施例中,单目深度特征提取网络包括深度网络和位姿网络,深度网络包括第一编码模块和第一解码模块,位姿网络包括第二编码模块和第二解码模块,步骤S200中将It和It-1输入至单目深度特征提取网络得到第二深度特征,包括:
步骤S210:第一编码模块采用深度残差网络对It进行特征提取输出特征图,第一解码模块对第一编码模块输出的特征图上采样至不同的尺寸得到不同的尺寸的特征图,并将不同的尺寸的特征图分别上采样至原图大小;
步骤S220:将上采样至原图大小后的多个特征图沿通道拼接得到第二深度特征;
步骤S230:第二编码模块采用深度残差网络对It和It-1进行编码后输入至第二解码模块,第二解码模块对编码后的It和It-1进行解码,回归出解码后的It和It-1中对应每个像素点的运动信息;
步骤S240:根据对应每个像素点的运动信息,利用全局平均池化求得It-1到It的轴角与平移向量位姿,并通过罗德里格旋转公式得到位姿旋转矩阵
Figure BDA0003306156320000091
步骤S250:根据位姿旋转矩阵
Figure BDA0003306156320000092
和预设的第一损失函数得到光度重投影误差,根据光度重投影误差进行反向传播优化单目深度特征提取网络的网络参数。
具体地,单目深度估计网络分为深度网络和位姿网络两部分,深度网络采用经典的U-Net编码器-解码器模型结构。第一编码模块Fd采用深度残差网络ResNet-18(32倍下采样)的前5个卷积模块,第一解码模块Gd将Fd输出的第一特征图上采样至不同的尺度,并将不同尺度的特征图上采样至原图大小以实现多尺度深度估计得到第二深度特征。位姿网络同样分为第二编码模块Fp与第二解码模块Gp,其中Fp与Fd有共同的网络结构,第二解码模块Gp由三层卷积层组成。使用连续两帧图像It和It-1作为位姿网络的输入,经由Fp编码后和Gp解码后,回归出对应每个像素点的运动信息,利用全局平均池化可求得It-1到It的轴角与平移向量位姿,最后通过罗德里格旋转公式可得到位姿旋转矩阵
Figure BDA0003306156320000101
由于位姿网络仅在训练阶段需要,将深度网络的第一解码模块的四级输出上采样至最后一层大小并沿通道拼接作为深度特征,进一步输入后续RGB-D特征融合模块,参与自动驾驶决策。
在一个实施例中,步骤S250中根据位姿旋转矩阵
Figure BDA0003306156320000102
和预设的第一损失函数得到光度重投影误差,包括:
Figure BDA0003306156320000103
其中,It-1→t是利用位姿旋转矩阵
Figure BDA0003306156320000104
预测深度图Dt及相机内参K将It-1映射至t时刻的结果,具体为:
Figure BDA0003306156320000105
其中,proj函数是利用Dt
Figure BDA0003306156320000106
和K重投影到It-1的2D像素坐标,·表示采样算子;
pe(·)表示预设的第一损失函数,具体为:
Figure BDA0003306156320000107
其中,SSIM(·)表示结构相似性损失,·1表示L1范数损失,α是用于平衡结构相似性损失和范数损失两种损失重要性的参数。
具体地,本发明中使用双线性插值对It-1进行采样,α=0.85,通过深度估计的自监督损失提高智能体环境感知能力。
步骤S300:对第二图像特征和第二深度特征进行RGB-D特征融合,得到融合后的第二特征向量。
具体地,给定来自图像特征提取网络的第二图像特征
Figure BDA0003306156320000108
和单目深度提取网络的第二深度特征
Figure BDA0003306156320000109
特征融合模块首先将第二深度特征下采样到与第二图像特征同样的大小,进一步在通道上进行拼接后,利用1×1层进行降维至C个通道(H×W×C),最后将H×W×C的张量展平变为融合图像和深度特征一维向量,并作为当前时刻状态向量的一部分输入智能体网络。总结RGB-D特征融合模块的功能表示如下式:
ft=flatten(fconv(cat(Fi,ds(Fd))))
其中,ds(·)表示双线性插值下采样操作,cat(·)表示沿通道方向拼接操作,fconv表示后接批归一化和ReLu非线性激活函数的卷积核为1×1×(Ci+Cd)的卷积操作,Ci表示第二图像特征的通道数,Cd表示第二深度特征的通道数,flatten(·)表示张量展平操作,Fi为第二图像特征,Fd为第二深度特征,ft为融合后的第二特征向量。
步骤S400:将融合后的第二特征向量和预先存储的历史动作向量拼接得到第二状态向量,根据第二状态向量得到训练样本组放入经验回放池,从经验回放池中获取预设组训练样本,根据预设组训练样本和预设的目标网络对智能体网络进行训练得到训练好的智能体网络。
具体地,由于智能体与环境交互的过程产生的序列经验具有高度的时间相关性,且采用同一智能体网络同时生成下一状态的目标Q值和更新当前状态Q值容易造成网络不稳定和不收敛,因此,本发明基于DQN的方法,首先建立了经验回放池R,将每一个时步的马尔可夫决策过程作为一次经验储存以更新经验回放池,该处理可以将过去与当前的经验混合从而降低样本之间的相关性,并确保训练样本能够全面地被训练。训练过程中每次只会随机从R中抽取一定数量的经验作为样本,该方法能够有效降低数据相关性,同时R使经验得到重复使用有利于学习效率的提高。进一步,引入一个与智能体网络完全相同的目标网络
Figure BDA0003306156320000111
来估计目标Q值,目标网络的参数θ-是每隔一定步数才会从智能体网络复制参数θ更新,这能够暂时固定训练过程的Q值从而使智能体学习过程更稳定。采用以上两种措施后,智能体网络的训练过程通过最小化式的预设的第二损失函数来完成。
在一个实施例中,训练样本组包括第二状态向量、最佳动作、奖励和下一状态,步骤S400中根据第二状态向量得到训练样本组,包括:
(1)根据第二状态向量确定最佳动作,具体为:
Figure BDA0003306156320000121
其中,st表示第二状态向量,at表示最佳动作,ε表示贪婪策略概率参数;
(2)根据最佳动作和预设的奖励函数确定奖励:
Figure BDA0003306156320000122
其中,ct表示t时刻车辆是否发生碰撞,其中,ct=1表示有碰撞发生,否则没有,vt表示t时刻的行驶速度,“其它”表示碰撞传感器没有反馈碰撞事件或车速vt≤50km/h的情况。
具体地,强化学习是指智能体在与环境的交互过程中学习策略以达到回报最大化的过程。将自动驾驶的序列决策问题视为马尔科夫决策过程(Markov Decision Process,MDP),并由4元组(st,at,rt,st+1)表示。在t时刻,智能体通过获取状态st确定最佳动作at,并执行动作at与环境E交互以确定奖励rt,最终获得下一个状态st+1,状态即表示图像,譬如执行左转,右转后,观测到的图像是不同的,也就是说下一状态st+1取决于动作at
本申请中端到端自动驾驶决策问题的马尔科夫决策过程定义框图如图3所示。关于状态,在自动驾驶决策问题中,单模态传感器(相机)设置下,由于像素空间极为庞大,直接将RGB图像(观测o)作为智能体的状态是不可取的。通常需要利用卷积神经网络对其进行特征提取,将高维观测空间转化为较低维的状态空间。将该过程表示为st=(f(ot,α),ht),其中ot表示当前时刻的观测图像,f(·)表示特征提取网络,其参数用α表示,ht表示过去的历史动作,是一个编码了过去已执行动作的向量,添加历史动作向量的目的是稳定搜索策略。
关于动作,本申请定义的对车辆的控制量包括转向、油门和刹车。本申请考虑基于离散动作输出的决策方法,将三种控制量的输出组合为八个离散动作,分别对应直行、不同幅度的转弯和刹车。本文定义的离散动作at与控制量之间的对应关系及其含义如表3所示。
表3离散动作与控制量的对应关系
Figure BDA0003306156320000131
关于奖励,奖励rt是为了对当前时刻动作at的有效性进行准确评价而设置的,用于对智能体进行监督和训练。本文利用车辆反馈的测量数据定义奖励函数,具体如下式所示。
Figure BDA0003306156320000132
其中,ct表示t时刻车辆是否发生碰撞,其中,ct=1表示有碰撞发生,否则没有,vt表示t时刻的行驶速度,“其它”表示碰撞传感器没有反馈碰撞事件或车速vt≤50km/h的情况;根据以上奖励函数,t时刻智能体获得的总奖励可以由下式表示:
Figure BDA0003306156320000133
其中,λ∈[0,1]表示折扣因子,其值越大表示总奖励R与将来动作越相关,本实施例中设定λ=0.9。
在一个实施例中,预设的目标网络和智能体网络的结构一样,步骤S400中根据预设组训练样本和预设的目标网络对智能体网络进行训练得到训练好的智能体网络,包括:
步骤S410:将预设组训练样本中的预设数量个状态向量分别输入至智能体网络中,得到动作对应的Q(s,a|θ)值,s、a、θ分别表示当前状态、当前状态对应的动作和所述智能体网络的参数;
步骤S420:将预设组训练样本中的预设数量个下一状态输入至预设的目标网络中,得到动作对应的
Figure BDA0003306156320000141
值,s′、a′、θ-分别表示下一状态、下一状态对应的动作和所述预设的目标网络的参数;
步骤S430:从预设数量个
Figure BDA0003306156320000142
值中取最大的值,结合奖励,得到目标Q值;
步骤S440:根据动作对应的Q(s,a|θ)值、目标Q值和预设的第二损失函数得到损失值,根据损失值进行反向传播更新智能体网络的网络参数并迭代时间步长,当时间步长达到预设值时,将智能体网络的网络参数更新到目标网络的网络参数。
在一个实施例中,步骤S440中所述预设的第二损失函数具体为:
L(s,a|θ)=(yi-Q(s,a|θ))2
其中,Q(s,a|θ)表示s状态下动作a对应的Q值,yi表示目标Q值,L(s,a|θ)表示第二损失函数的损失值,其中,yi的表达式为:
Figure BDA0003306156320000143
其中,r为奖励,γ为系数,
Figure BDA0003306156320000144
为预设数量个
Figure BDA0003306156320000145
值中的最大值。
具体地,在强化学习中,采用动作价值函数Q(s,a)评价给定状态s下采取动作的回报值,Q值越大表示在状态s下采取动作a获得的长期回报值R越大。Q函数可以通过下示方程迭代更新。
Q(s,a)=Q(s,a)+α(r+γmaxa′Q(s′,a′)-Q(s,a))
其中,r表示在当前时刻状态s下执行动作a的即时奖励,Q(s′,a′)表示下一个状态s′下执行动作a′的Q值。
在高维状态和动作空间下,利用上式逐个计算每个状态和动作下的Q值是无法实现的。深度Q学习网络(Deep Q-Network,DQN)采用深度网络建立一个智能体网络Q(s,a|θ)来近似Q函数,其中θ表示智能体网络的参数,该网络的输入为当前状态,输出为当前状态下每个动作的Q值。
由DQN学习得到的策略存在当不同动作对应的Q值相似时不能很好地对不同策略进行评估的问题,本申请利用Dueling DQN的思想,利用值函数网络V(s|γ,β)和优势函数网络A(s,a|γ,μ)联合估计Q函数(其中γ表示两个网络的公共参数部分,β和μ分别表示值函数网络和优势函数网络独有的参数)。为了提高优势函数对各动作的可辨识性(identifiability),对优势函数进行中心化处理,采用以下组合方式计算Q值:
Figure BDA0003306156320000151
最终,Q(s,a)的更新可通过最小化的预设的第二损失函数实现:
L(s,a|γiii)=(r+γmaxa′Q(s′,a′|γiii)-Q(s,a|γiii))2
由于卷积神经网络的可微性,通过最小化式的预设的第二损失函数可实现端到端地学习特征提取网络和智能体网络参数。
在进行实验验证时,第一阶段深度特征提取网络训练过程中采用Adam优化器,学习率为10-4,迭代次数为11,000(训练样本共6,600张图片,批次大小设置为12,训练周期为20次);第二阶段训练过程中,采用SGD(随机梯度下降)优化器以10-4学习率对特征融合模块和智能体网络进行训练,以10-5学习率对图像特征提取网络和深度特征提取网络进行微调,对于智能体网络,设置经验回放池的容量为5,000,训练总片段数为30,000,每个片段的时间步长为10,批次大小设置为16,目标网络每隔1,000个步长更新一次,贪婪策略概率参数ε的初始值设为0.9,每次下降0.1直至固定在0.1,此外,设置最小奖励阈值为-1,000,以防止智能体的奖励趋于无穷小。
在训练任务中采用随机生成起始点的方式,测试任务采用固定起始点和终止点的方式,记为(起始点,终止点)(分别为(36,40)、(68,71)、(27,130)),其在地图中的显示如图4所示(圆形表示起始点,星形表示终止点),有动态障碍物条件下设置车辆数目为15,行人数目为50,训练任务的天气条件设置为晴天的日间正午时段,采样30000个片段进行训练,而为了充分验证所提出算法的有效性和所训练模型的泛化性能,分别在正午和夜间两种不同时段测试所训练模型的性能。
测试任务是在忽略交通信号和速度限制的情况下,让车辆在规划好的路径上从起始点自行决策到达终止点,所有测试任务均执行15次,如果车辆在规定的时间内到达终点即为成功,其中规定的时间是指在最优路线上以10km/h的速度完成任务所需的时间,采用三种指标对算法性能进行评估,分别是:任务成功次数(指完成任务的片段数量),任务平均完成度(每次测试中车辆已行驶距离占据任务总距离的百分比/测试的次数)和违规驾驶分数(指越道、碰撞的强度,由交互环境对车辆的测量数据给出)。
实验结果分析,(1)奖励分布:奖励值的分布可以代表智能体从无到有的学习过程,直观体现强化学习的训练效果,对于所训练的30,000个片段中的每100个片段进行一次奖励值统计,奖励曲线图如图5所示,横轴为片段数,左侧纵轴为利用图像特征训练智能体算法的奖励值(实线),右侧纵轴为联合图像和单目深度特征训练智能体算法的奖励值(虚线),观察联合图像和深度特征的奖励变化曲线可知,自动驾驶决策学习过程大致可分为四个阶段:训练初期(0-1,000)、训练前期(1,100-8,500)、训练中期(8,600-21,000)和训练末期(21,100-30,000),训练初期奖励略有波动,网络刚开始随机探索,训练前期奖励一直在下降,车辆冲向路边,以及越道导致速度变慢的情况不断发生,训练中期奖整体奖励在往变大方向偏移,这表明车辆已经基本学到如何车道保持,训练末期奖励分布几乎没有改变,说明网络此时已经收敛,对比仅依赖图像特征的奖励变化曲线可发现,利用图像特征训练的智能体奖励变化曲线总体较为波动,说明算法收敛过程较慢,智能体难以学习获得正确的经验,的联合图像与深度特征算法获得的总体奖励远大于仅依赖图像特征的奖励,且分布趋势更稳定。(2)测试结果分析:为了充分验证所提出算法的有效性和所训练模型的泛化性能,分别在正午和夜间两种不同时段测试所训练模型的性能,为便于实验结果分析,将利用图像特征训练得到的模型记为“RGB”,联合图像与单目深度特征训练得到的模型记为“RGB+D”,基于4个导航任务(01直行,02一次转弯,03无动态障碍,04有动态车辆和行人),在日间和复杂夜间场景中进行15次测试,任务平均完成度的结果如下表4所示,其中加粗字体代表最佳结果:
表4任务平均完成度结果表
Figure BDA0003306156320000161
Figure BDA0003306156320000171
由上表的结果分析可知:对于正午时段测试,在没有车辆和行人的情况下,训练得到的模型已经基本学到了车道保持策略,结合深度特征大大提高了任务平均完成度,对于夜间时段测试,由于存在域间隙的问题,日间场景训练出的模型无法很好地迁移至夜间场景,但相比融合图像与深度特征的模型,仅依赖图像特征训练的模型在夜间测试结果在转弯任务、有动态障碍物和无动态障碍物的综合任务中都较低,这说明仅依赖图像特征训练得到的模型对域间隙问题尤其敏感,图像深度特征对域间隙导致的模型降质具有一定的缓解作用。
此外,对综合任务03(无动态障碍物)中测试过程的奖励进行可视化如图6所示,由图可知融合特征奖励值更高,趋势也更加稳定,这说明采用融合特征指导智能体学习得到更优的驾驶策略。
最后,测试任务中,汇总任务完成次数、任务平均完成度、越道率及障碍物碰撞强度的结果如下表5所示:
表5任务完成次数、任务平均完成度、越道率及障碍物碰撞强度的结果表
Figure BDA0003306156320000172
Figure BDA0003306156320000181
由对比结果可知其平均任务完成度略低于的基于图像特征的Dueling DQN(深度强化学习)算法模型,远低于联合图像与深度特征Dueling DQN算法模型的结果,进一步说明联合图像与单目深度特征有利于提高智能体环境感知的能力,进而增强自动驾驶决策能力。
上述基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,先采用自监督的方式从单目图像中挖掘深度信息,联合图像信息,增强智能体环境感知能力并指导智能体学习更鲁棒的自动驾驶策略,其次采用Dueling DQN提高了智能体对策略的评价能力,实验结果为使用单模态传感器获取深度信息提高自动驾驶决策能力提供了一定的参考,在未来的工作中,将考虑采用域适应的方法进一步解决夜间自动驾驶决策能力降质的问题。
以上对本发明所提供的基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.基于单目RGB-D特征和强化学习的端到端自动驾驶决策方法,其特征在于,所述方法包括以下步骤:
步骤S500:获取RGB图像,将所述RGB图像输入至预先训练好的图像特征提取网络和预先训练好的单目深度特征提取网络;
步骤S600:所述预先训练好的图像特征提取网络对所述RGB图像进行特征提取得到第一图像特征,所述预先训练好的单目深度特征提取网络对所述RGB图像进行特征提取得到第一深度特征;
步骤S700:对所述图像特征和所述第一深度特征进行RGB-D特征融合,得到融合后的第一特征向量;
步骤S800:将所述融合后的第一特征向量和预先存储的历史动作向量拼接得到第一状态向量,并将所述第一状态向量输入至预先训练好的智能体网络得到Q值,根据所述Q值进行自动驾驶决策。
2.根据权利要求1所述的方法,其特征在于,步骤S500之前还包括:
步骤S100:搭建图像特征提取网络、单目深度特征提取网络和智能体网络;
步骤S200:获取RGB训练图像It和It-1,将所述It输入至所述图像特征提取网络得到第二图像特征,将所述It和It-1输入至所述单目深度特征提取网络进行训练得到第二深度特征;
步骤S300:对所述第二图像特征和所述第二深度特征进行RGB-D特征融合,得到融合后的第二特征向量;
步骤S400:将所述融合后的第二特征向量和预先存储的历史动作向量拼接得到第二状态向量,根据所述第二状态向量得到训练样本组放入经验回放池,从经验回放池中获取预设组训练样本,根据所述预设组训练样本和预设的目标网络对所述智能体网络进行训练得到训练好的智能体网络。
3.根据权利要求2所述的方法,其特征在于,所述单目深度特征提取网络包括深度网络和位姿网络,深度网络包括第一编码模块和第一解码模块,所述位姿网络包括第二编码模块和第二解码模块,步骤S200中将所述It和It-1输入至所述单目深度特征提取网络得到第二深度特征,包括:
步骤S210:所述第一编码模块采用深度残差网络对It进行特征提取输出特征图,所述第一解码模块对所述第一编码模块输出的特征图上采样至不同的尺寸得到不同的尺寸的特征图,并将所述不同的尺寸的特征图分别上采样至原图大小;
步骤S220:将上采样至原图大小后的多个特征图沿通道拼接得到第二深度特征;
步骤S230:所述第二编码模块采用深度残差网络对It和It-1进行编码后输入至所述第二解码模块,所述第二解码模块对编码后的It和It-1进行解码,回归出解码后的It和It-1中对应每个像素点的运动信息;
步骤S240:根据对应每个像素点的运动信息,利用全局平均池化求得It-1到It的轴角与平移向量位姿,并通过罗德里格旋转公式得到位姿旋转矩阵
Figure FDA0003306156310000021
步骤S250:根据所述位姿旋转矩阵
Figure FDA0003306156310000022
和预设的第一损失函数得到光度重投影误差,根据所述光度重投影误差进行反向传播优化所述单目深度特征提取网络的网络参数。
4.根据权利要求3所述的方法,其特征在于,步骤S250中根据所述位姿旋转矩阵
Figure FDA0003306156310000023
和预设的第一损失函数得到光度重投影误差,包括:
Figure FDA0003306156310000024
其中,It-1→t是利用位姿旋转矩阵
Figure FDA0003306156310000025
预测深度图Dt及相机内参K将It-1映射至t时刻的结果,具体为:
Figure FDA0003306156310000026
其中,proj函数是利用Dt
Figure FDA0003306156310000027
和K重投影到It-1的2D像素坐标,<·>表示采样算子;
pe(·)表示预设的第一损失函数,具体为:
Figure FDA0003306156310000028
其中,SSIM(·)表示结构相似性损失,||·||1表示L1范数损失,α是用于平衡结构相似性损失和范数损失两种损失重要性的参数。
5.根据权利要求2所述的方法,其特征在于,所述训练样本组包括第二状态向量、最佳动作、奖励和下一状态,步骤S400中根据第二状态向量得到训练样本组,包括:
(1)根据所述第二状态向量确定最佳动作,具体为:
Figure FDA0003306156310000031
其中,st表示第二状态向量,at表示最佳动作,ε表示贪婪策略概率参数;
(2)根据所述最佳动作和预设的奖励函数确定奖励:
Figure FDA0003306156310000032
其中,ct表示t时刻车辆是否发生碰撞,其中,ct=1表示有碰撞发生,否则没有,vt表示t时刻的行驶速度,“其它”表示碰撞传感器没有反馈碰撞事件或车速vt≤50km/h的情况。
6.根据权利要求5所述的方法,其特征在于,预设的目标网络和所述智能体网络的结构一样,步骤S400中根据所述预设组训练样本和预设的目标网络对所述智能体网络进行训练得到训练好的智能体网络,包括:
步骤S410:将所述预设组训练样本中的预设数量个状态向量分别输入至所述智能体网络中,得到动作对应的Q(s,a|θ)值,s、a、θ分别表示当前状态、当前状态对应的动作和所述智能体网络的参数;
步骤S420:将所述预设组训练样本中的预设数量个下一状态输入至所述预设的目标网络中,得到动作对应的
Figure FDA0003306156310000033
值,s′、a′、θ-分别表示下一状态、下一状态对应的动作和所述预设的目标网络的参数;
步骤S430:从预设数量个
Figure FDA0003306156310000034
值中取最大的值,结合所述奖励,得到目标Q值;
步骤S440:根据所述动作对应的Q(s,a|θ)值、所述目标Q值和预设的第二损失函数得到损失值,根据所述损失值进行反向传播更新所述智能体网络的网络参数并迭代时间步长,当所述时间步长达到预设值时,将所述智能体网络的网络参数更新到所述目标网络的网络参数。
7.根据权利要求6所述的方法,其特征在于,步骤S440中所述预设的第二损失函数具体为:
L(s,a|θ)=(yi-Q(s,a|θ))2
其中,Q(s,a|θ)表示s状态下动作a对应的Q值,yi表示目标Q值,L(s,a|θ)表示第二损失函数的损失值,其中,yi的表达式为:
Figure FDA0003306156310000041
其中,r为奖励,γ为系数,
Figure FDA0003306156310000042
为预设数量个
Figure FDA0003306156310000044
值中的最大值。
8.根据权利要求2所述的方法,其特征在于,步骤S300中第二特征向量的表达式为:
ft=flatten(fconv(cat(Fi,ds(Fd))))
其中,ds(·)表示双线性插值下采样操作,cat(·)表示沿通道方向拼接操作,fconv表示后接批归一化和ReLu非线性激活函数的卷积核为1×1×(Ci+Cd)的卷积操作,Ci表示第二图像特征的通道数,Cd表示第二深度特征的通道数,flatten(·)表示张量展平操作,Fi为第二图像特征,Fd为第二深度特征,ft为融合后的第二特征向量。
9.根本权利要求1所述的方法,其特征在于,步骤S800中将所述第一状态向量输入至预先训练好的智能体网络得到Q值,包括:
步骤S810:所述第一状态向量经过全连接层映射至预设维度,得到预设维度的第一状态向量;
步骤S820:将所述预设维度的第一状态向量分别输入至值网络和优势函数网络,分别得到当前时刻的状态值和表示该状态下的每个动作的重要性的优势值;
步骤S830:根据所述当前时刻的状态值和所述优势值得到对应于每个动作的Q值。
10.根本权利要求9所述的方法,其特征在于,步骤S830具体为:
Figure FDA0003306156310000043
其中,Q(s,a)表示在状态s下采取动作a的回报值,V(s)表示当前时刻的状态值,A(s,a)表示状态s下的每个动作的重要性的优势值,A(s,a')表示状态s下的所有动作的重要性的优势值。
CN202111204252.2A 2021-10-15 2021-10-15 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法 Pending CN113920484A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111204252.2A CN113920484A (zh) 2021-10-15 2021-10-15 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111204252.2A CN113920484A (zh) 2021-10-15 2021-10-15 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法

Publications (1)

Publication Number Publication Date
CN113920484A true CN113920484A (zh) 2022-01-11

Family

ID=79240938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111204252.2A Pending CN113920484A (zh) 2021-10-15 2021-10-15 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法

Country Status (1)

Country Link
CN (1) CN113920484A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457781A (zh) * 2022-09-13 2022-12-09 内蒙古工业大学 一种基于多代理深度强化学习的智能交通信号灯控制方法
WO2023142780A1 (zh) * 2022-01-25 2023-08-03 中国科学院深圳先进技术研究院 一种基于深度强化学习的移动机器人视觉导航方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023142780A1 (zh) * 2022-01-25 2023-08-03 中国科学院深圳先进技术研究院 一种基于深度强化学习的移动机器人视觉导航方法及装置
CN115457781A (zh) * 2022-09-13 2022-12-09 内蒙古工业大学 一种基于多代理深度强化学习的智能交通信号灯控制方法
CN115457781B (zh) * 2022-09-13 2023-07-11 内蒙古工业大学 一种基于多代理深度强化学习的智能交通信号灯控制方法

Similar Documents

Publication Publication Date Title
CN112215337B (zh) 一种基于环境注意力神经网络模型的车辆轨迹预测方法
CN111507460B (zh) 为了提供自动停车系统检测停车空间的方法和装置
WO2022052406A1 (zh) 一种自动驾驶训练方法、装置、设备及介质
EP4152204A1 (en) Lane line detection method, and related apparatus
DE102019113856A1 (de) Systeme, verfahren und steuerungen für ein autonomes fahrzeug, die autonome fahreragenten und fahrrichtlinienlernende implementieren, um richtlinien basierend auf kollektiven fahrerfahrungen der autonomen fahreragenten zu erstellen und zu verbessern
EP3693944A1 (en) Method and device for short-term path planning of autonomous driving through information fusion by using v2x communication and image processing
CN111507927A (zh) 在神经网络中统合图像及点云图的方法及装置
DE102019113880A1 (de) Systeme, verfahren und steuerungen die autonome fahreragenten und einen richtlinienserver zum erfüllen von richtlinien für autonome fahreragenten implementieren, zum steuern eines autonomen fahrzeugs
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
CA3158597C (en) Conditional entropy coding for efficient video compression
CN111311945A (zh) 一种融合视觉和传感器信息的驾驶决策系统及方法
CN113920484A (zh) 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法
CN111507369B (zh) 自动行驶车辆空间学习方法及装置、测试方法及装置
CN114194211B (zh) 一种自动驾驶方法、装置及电子设备和存储介质
CN112026782A (zh) 一种基于开关式深度学习网络模型的自动驾驶决策方法及系统
CN111580526B (zh) 面向固定车辆编队场景的协同驾驶方法
CN113743469A (zh) 一种融合多源数据及综合多维指标的自动驾驶决策方法
DE102021114724A1 (de) Verbesserter fahrzeugbetrieb
Paravarzar et al. Motion prediction on self-driving cars: A review
CN113552883A (zh) 基于深度强化学习的地面无人车自主驾驶方法及系统
CN113435356B (zh) 一种克服观察噪声与感知不确定性的轨迹预测方法
CN116503446A (zh) 目标驱动和分布热力图输出的多模态车辆轨迹预测方法
CN115285143A (zh) 一种基于场景分类的自动驾驶车辆导航方法
Kim et al. Multi-task learning with future states for vision-based autonomous driving
DE102021203588A1 (de) Verfahren und Steuergerät zum Schätzen eines Verhaltens eines Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination