CN115719478A - 一种独立于无关信息的加速强化学习的端到端自动驾驶方法 - Google Patents
一种独立于无关信息的加速强化学习的端到端自动驾驶方法 Download PDFInfo
- Publication number
- CN115719478A CN115719478A CN202211479381.7A CN202211479381A CN115719478A CN 115719478 A CN115719478 A CN 115719478A CN 202211479381 A CN202211479381 A CN 202211479381A CN 115719478 A CN115719478 A CN 115719478A
- Authority
- CN
- China
- Prior art keywords
- reinforcement learning
- encoder
- data set
- training
- automatic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种独立于无关信息的加速强化学习的端到端自动驾驶方法,包括以下步骤:1)在包含动态场景和静态场景的情况下,利用前置摄像头收集的图像信息,将原始图像作为自动编码器的输入;2)在自动编码器中将原始数据分类为相关特征数据集和无关特征数据集,对自动编码器进行训练;3)自动编码器输出作为强化学习网络的输入;4)强化学习网络在基于FPGA的加速平台下进行推理和训练,进而得到控制命令。本发明通过训练自动编码器使其能够在所有的输入图像中忽略无关的特征,并将其作为深度强化学习网络的输入,对神经网络进行训练获得沿着道路安全行驶的策略,本发明能够克服强化学习效率低、学习慢的问题,最终的输出命令以控制车辆。
Description
技术领域
本发明属于车辆自动驾驶技术领域,具体涉及一种独立于无关信息的加速强化学习的端到端自动驾驶方法。
背景技术
之前的研究人员提出过一种训练方法能够忽略输入图像的无关特征,同时保留相关特征,但是只考虑了简单的环境没有考虑动态场景的影响,在实际场景下测试会出现偏差,从动态场景下的图像信息获得有关特征有助于强化学习算法中的智能体Agent和环境进行交互并通过得到的反馈进行学习选择最优的动作再进一步影响环境,如对于环境中交通灯信息选择是否继续前进,根据行人的动作进行预测发出相应的控制信息。
自动编码器是一种人工神经网络模型并且属于无监督学习,它可以由输入的数据学习到隐含特征,再根据学习到的新特征重构原始数据,由于自动编码器学习到的新特征能够传送到有监督学习模型或者强化学习模型中,因而自动编码器可以用作特征提取器。强化学习是机器学习学习方式的其中一种,其训练的主体就是Agent智能体,其根据环境信息到行为映射的学习,根据环境的反馈与环境不断的交互、试错,进而选择最优的行为策略。FPGA属于一种半定制的数字电路器件,相比于专用集成电路ASIC通用型编程灵活性低,FPGA有大量可编程器件的门电路很适合用于硬件加速。强化学习在很多领域都有应用价值,但是由于其学习速度慢和学习效率低阻碍了在大型工程复杂问题中的应用。
发明内容
本发明的目的在于提供一种独立于无关信息加速强化学习的端到端自动驾驶方法,以解决上述背景技术中提出现有技术中的问题。
为实现上述目的,本发明采用了如下技术方案:
一种独立于无关信息的加速强化学习的端到端自动驾驶方法,包括以下步骤:
1)在包含动态场景和静态场景的情况下,利用前置摄像头收集的图像信息,将原始图像作为自动编码器的输入;
2)在所述自动编码器中将原始数据分类为相关特征数据集和无关特征数据集,对自动编码器进行训练;
3)所述自动编码器输出作为强化学习网络的输入;
4)所述强化学习网络在基于FPGA的加速平台下进行推理和训练,进而得到控制命令。
进一步地,步骤1)中所述动态场景和静态场景包括道路、车道标记、其他车辆、行人、交通灯中的一种或多种。
进一步地,步骤1)中所述自动编码器包括编码器、译码器,根据输入图像的相关特征进行分类。
进一步地,步骤4)中所述FPGA的加速器硬件架构为外部存储器、处理单元、可编程逻辑部分的加速器以及片内和片外总线互连。
进一步地,所述加速器硬件采用流水线结构优化,层次结构框架为HAC,基于FPGA加速器的流水线结构并行学习多层策略,数据的获取和多层策略的训练并行执行。
进一步地,步骤4)中忽略无关信息得到最终的驾驶控制命令时,包括如下步骤:
将所有的原始图像传输入编码器,根据图像级的标签确定图像是属于哪个数据集,再用正数据集和负数据集训练网络,对于正数据集内的数据编码器和译码器的参数都会更新,对于负数据集数据仅会更新编码器的参数;
自动编码器输出连接基于深度强化学习算法的神经网络,算法根据得到的相关特征实现智能体Agent不断与环境的交互、试错,对于环境给予的反馈进行量化,基于反馈的信息不断调整训练对象的行为。
进一步地,强化学习为分层强化学习,对任务进行分解为不同层次上的子任务,而每个子任务都处于有限的状态动作空间,以此多个智能体Agent可以在FPGA平台上并行训练加速经验积累。
与现有技术相比,本发明具有以下优点:
(1)本发明相比于只考虑静态场景下的图像特征提取,将动态场景也考虑在内使得应用场景得到扩大,也有助于减少实际测试出错的几率做出正确的决策,将相关特征作为分层强化学习网络的输入,智能体Agent从得到的相关特征执行某个动作后,环境会转换到一个新的状态并给出反馈奖励信号,以此智能体在连续时间序列通过与环境的不断交互寻找最优策略.
(2)本发明可强化学习对于每个状态State下的每一个行为Action都需要探索之后学习,所以实际应用中会有很大的训练时长和算力开销,故构建一个基于FPGA加速平台的强化学习环境加快训练速度与环境交互反馈,进而解码器输出只含相关特征的图像,强化学习网络经过推理计算训练输出控制命令。
附图说明
图1为本发明独立于无关信息加速强化学习方法的流程图;
图2为本发明的基于FPGA的HAC多层结构图;
图3为本发明的强化学习actor-critic算法结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例中提供了一种独立于无关信息的加速强化学习的端到端自动驾驶方法,示例性的,如图1所示,包括如下步骤:
S1、在包含动态场景和静态场景的情况下,利用系统中前置摄像头收集的图像信息,将原始图像作为自动编码器的输入;
S2、在所述自动编码器中根据图像级的标签将原始数据进行分类为相关特征数据集和无关特征数据集,对自动编码器进行训练;
S3、所述自动编码器输出作为强化学习网络的输入;
S4、所述强化学习网络在基于FPGA的加速平台下进行推理和训练,进而得到控制命令。
步骤S1中所述动态场景和静态场景包括道路、车道标记、其他车辆、行人、交通灯中的一种或多种。
步骤S1中所述自动编码器包括编码器、译码器,根据输入图像的相关特征进行分类。
步骤S4中所述FPGA的加速器硬件架构为外部存储器、处理单元、可编程逻辑部分的加速器以及片内和片外总线互连。
所述加速器硬件采用流水线结构优化,层次结构框架为HAC,基于FPGA加速器的流水线结构并行学习多层策略,数据的获取和多层策略的训练并行执行。
步骤S4中忽略无关信息得到最终的驾驶控制命令时,包括如下步骤:
将所有的原始图像传输入编码器,根据图像级的标签确定图像是属于哪个数据集,再用正数据集和负数据集训练网络,对于正数据集内的数据编码器和译码器的参数都会更新,对于负数据集数据仅会更新编码器的参数;
自动编码器输出连接基于深度强化学习算法的神经网络,算法根据得到的相关特征实现智能体Agent不断与环境的交互、试错,对于环境给予的反馈进行量化,基于反馈的信息不断调整训练对象的行为。
强化学习为分层强化学习,对任务进行分解为不同层次上的子任务,而每个子任务都处于有限的状态动作空间,以此多个智能体Agent可以在FPGA平台上并行训练加速经验积累。
通过上述方法,相比于直接用原始数据训练强化学习网络,通过提取相关特征忽略无关信息,从而更有利于神经网络的训练效果和加速整个训练过程,自动编码器的训练只需要图像级标签,而不需要像素级标签,其训练过程只需要低成本。
具体的,由前置摄像头收集原始图像传输入编码器,根据图像级的标签确定图像是属于哪个数据集,再根据得到的正数据集和负数据集训练网络,对于正数据集内的数据编码器和译码器的参数都会更新,对于负数据集数据仅会更新编码器的参数;
自动编码器输出连接基于强化学习算法的神经网络,算法根据得到的相关特征实现智能体Agent不断与环境的交互、试错,对于环境给予的反馈进行量化,基于反馈的信息不断调整训练对象的行为。在基于FPGA平台上的三层的HAC分层强化学习中多个智能体并行训练,在Actor神经网络中根据环境反馈的State预测各种行为发生的概率,进而根据概率的高低进行行为的优化,在Critic神经网络中根据其中的价值函数,在环境反馈的状态State下评估Actor输出的行为Action的价值,进而与环境的奖励Reward进行比较,更新两个神经网络的参数,以此不断优化智能体的行为。
如图2所示的,对于由自动编码器输入的相关特征,判断出学习网络的目标Goal,即智能体Agent需要达到什么样的目标,不同图像特征需要达到不同的目标,而每一层的不同目标同样对应着不同的策略,上层的控制器可以根据上层策略选择Goal,而下层控制器则根据选择的Goal和下层策略选择action以实现Goal,当目标实现时奖励为1,否则为0,此结构为一个多层级的分层结构,除了最后一层,其他的每一层的输出都作为下一层的目标,其中目标即为状态空间中较好的状态,根据流水线结构原理,当下一层从上一层获得相应的Goal时,上一层可以更新目标以及对应的策略,加快动作action产生与环境反馈,以此加速智能体与环境交互,基于FPGA的加速平台在控制端控制下对于相关特征的采样和强化学习网络的训练进程可以同时运行,对于分层强化学习算法的训练进行了加速和优化。
分层强化学习将任务分解为多个子任务,有着更高的样本利用率,在HAC中有平稳的环境,并没有奖励稀疏问题,智能体能够学习到最优策略,从而得到一个正确的控制命令。
如图3所示为actor-critic算法结构图,对于从环境中产生的状态state反馈给actor网络根据策略函数输出每个动作的概率选择动作actions,然后actions与状态state在critic网络中根据其内部的价值函数产生对应的值,与环境产生奖励reward进行对比判断在当前状态哪个动作是好的,进而帮助actor网络进行策略更新实现了单步更新提高学习效率。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于,包括以下步骤:
1)在包含动态场景和静态场景的情况下,利用前置摄像头收集的图像信息,将原始图像作为自动编码器的输入;
2)在所述自动编码器中将原始数据分类为相关特征数据集和无关特征数据集,对自动编码器进行训练;
3)所述自动编码器输出作为强化学习网络的输入;
4)所述强化学习网络在基于FPGA的加速平台下进行推理和训练,进而得到控制命令。
2.根据权利要求1所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:步骤1)中所述动态场景和静态场景包括道路、车道标记、其他车辆、行人、交通灯中的一种或多种。
3.根据权利要求1所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:步骤1)中所述自动编码器包括编码器、译码器,根据输入图像的相关特征进行分类。
4.根据权利要求1所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:步骤4)中所述FPGA的加速器硬件架构为外部存储器、处理单元、可编程逻辑部分的加速器以及片内和片外总线互连。
5.根据权利要求4所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:所述加速器硬件采用流水线结构优化,层次结构框架为HAC,基于FPGA加速器的流水线结构并行学习多层策略,数据的获取和多层策略的训练并行执行。
6.根据权利要求1所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:步骤4)中忽略无关信息得到最终的驾驶控制命令时,包括如下步骤:
将所有的原始图像传输入编码器,根据图像级的标签确定图像是属于哪个数据集,再用正数据集和负数据集训练网络,对于正数据集内的数据编码器和译码器的参数都会更新,对于负数据集数据仅会更新编码器的参数;
自动编码器输出连接基于深度强化学习算法的神经网络,算法根据得到的相关特征实现智能体Agent不断与环境的交互、试错,对于环境给予的反馈进行量化,基于反馈的信息不断调整训练对象的行为。
7.根据权利要求6所述的一种独立于无关信息的加速强化学习的端到端自动驾驶方法,其特征在于:强化学习为分层强化学习,对任务进行分解为不同层次上的子任务,而每个子任务都处于有限的状态动作空间,以此多个智能体Agent可以在FPGA平台上并行训练加速经验积累。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211479381.7A CN115719478A (zh) | 2022-11-24 | 2022-11-24 | 一种独立于无关信息的加速强化学习的端到端自动驾驶方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211479381.7A CN115719478A (zh) | 2022-11-24 | 2022-11-24 | 一种独立于无关信息的加速强化学习的端到端自动驾驶方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115719478A true CN115719478A (zh) | 2023-02-28 |
Family
ID=85256172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211479381.7A Pending CN115719478A (zh) | 2022-11-24 | 2022-11-24 | 一种独立于无关信息的加速强化学习的端到端自动驾驶方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115719478A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409486A (zh) * | 2023-12-15 | 2024-01-16 | 深圳须弥云图空间科技有限公司 | 基于视觉的动作生成方法、装置、电子设备及存储介质 |
-
2022
- 2022-11-24 CN CN202211479381.7A patent/CN115719478A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409486A (zh) * | 2023-12-15 | 2024-01-16 | 深圳须弥云图空间科技有限公司 | 基于视觉的动作生成方法、装置、电子设备及存储介质 |
CN117409486B (zh) * | 2023-12-15 | 2024-04-12 | 深圳须弥云图空间科技有限公司 | 基于视觉的动作生成方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111522962B (zh) | 序列推荐方法、装置及计算机可读存储介质 | |
Mousavi et al. | Traffic light control using deep policy‐gradient and value‐function‐based reinforcement learning | |
Zhang et al. | Query-efficient imitation learning for end-to-end autonomous driving | |
Lv et al. | Generative adversarial networks for parallel transportation systems | |
CN109131348B (zh) | 一种基于生成式对抗网络的智能车驾驶决策方法 | |
CN110481536B (zh) | 一种应用于混合动力汽车的控制方法及设备 | |
CN113362491B (zh) | 一种车辆轨迹预测及驾驶行为分析方法 | |
Dai et al. | Image-based traffic signal control via world models | |
CN112990485A (zh) | 基于强化学习的知识策略选择方法与装置 | |
CN104809501A (zh) | 一种基于类脑协处理器的计算机系统 | |
CN114358128A (zh) | 一种训练端到端的自动驾驶策略的方法 | |
CN115719478A (zh) | 一种独立于无关信息的加速强化学习的端到端自动驾驶方法 | |
CN113511222A (zh) | 场景自适应式车辆交互行为决策与预测方法及装置 | |
CN111348034B (zh) | 基于生成对抗模仿学习的自动泊车方法及系统 | |
CN117034100A (zh) | 基于分层池化架构自适应图分类方法、系统、设备和介质 | |
CN116614394A (zh) | 一种基于多目标深度强化学习的服务功能链放置方法 | |
CN113276852B (zh) | 一种基于最大熵强化学习框架的无人驾驶车道保持方法 | |
Cui et al. | An interpretation framework for autonomous vehicles decision-making via SHAP and RF | |
CN115331460B (zh) | 一种基于深度强化学习的大规模交通信号控制方法及装置 | |
CN117007066A (zh) | 多规划算法集成的无人驾驶轨迹规划方法及相关装置 | |
US20210174263A1 (en) | Method and Device For Testing | |
CN115034281A (zh) | 一种基于RoboSim的自动驾驶行为决策模型的构建方法 | |
Lee et al. | A real-time intelligent speed optimization planner using reinforcement learning | |
Sun et al. | Reinforcement learning driving strategy based on auxiliary task for multi-scenarios autonomous driving | |
Pak et al. | Carnet: A dynamic autoencoder for learning latent dynamics in autonomous driving tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |